RU2746691C1 - Система интеллектуального определения тектонических нарушений по сейсмическим данным на основе сверточных нейронных сетей - Google Patents
Система интеллектуального определения тектонических нарушений по сейсмическим данным на основе сверточных нейронных сетей Download PDFInfo
- Publication number
- RU2746691C1 RU2746691C1 RU2020128416A RU2020128416A RU2746691C1 RU 2746691 C1 RU2746691 C1 RU 2746691C1 RU 2020128416 A RU2020128416 A RU 2020128416A RU 2020128416 A RU2020128416 A RU 2020128416A RU 2746691 C1 RU2746691 C1 RU 2746691C1
- Authority
- RU
- Russia
- Prior art keywords
- training
- cycle
- learning rate
- epoch
- faults
- Prior art date
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 124
- 238000000034 method Methods 0.000 claims abstract description 68
- 238000012549 training Methods 0.000 claims description 262
- 230000007423 decrease Effects 0.000 claims description 41
- 238000010200 validation analysis Methods 0.000 claims description 19
- 238000013016 damping Methods 0.000 claims description 17
- 239000000975 dye Substances 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013480 data collection Methods 0.000 claims description 4
- 238000002360 preparation method Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 5
- 238000012800 visualization Methods 0.000 abstract description 4
- 230000000694 effects Effects 0.000 abstract description 3
- 239000000126 substance Substances 0.000 abstract 1
- 230000006870 function Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005755 formation reaction Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/28—Processing seismic data, e.g. for interpretation or for event detection
- G01V1/282—Application of seismic models, synthetic seismograms
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/28—Processing seismic data, e.g. for interpretation or for event detection
- G01V1/30—Analysis
- G01V1/301—Analysis for determining seismic cross-sections or geostructures
- G01V1/302—Analysis for determining seismic cross-sections or geostructures in 3D data cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Geophysics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- Geology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Physiology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
Настоящее изобретение относится к обработке сейсмических данных и, в частности, к системе и способу для надежного выявления и визуализации геологических разломов. Способ интеллектуального определения тектонических нарушений включает: получение куба измеренных сейсмических данных, деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных, подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, получение подкубов прогноза разломов по каждому подкубу сейсмических данных и сбор подкубов прогноза разломов в куб прогноза разломов.
Description
Настоящее изобретение относится к обработке сейсмических данных и, в частности, к системе и способу для надежного выявления и визуализации геологических разломов. Также изобретение относится к способу обработки и интерпретации сейсмических данных и может быть использовано на всех стадиях процессов изучения подземной структуры и работы на участках месторождений или с пластами, как на стадиях геологоразведочных работ, так и на стадиях разработки.
На данный момент существует ряд систем, нацеленных на упрощение задач выделения тектонических нарушений по сейсмическим данным, которые уже стали традиционным инструментами геологов и геофизиков. При этом все известные методики можно разделить на две группы – численные и интеллектуальные.
Наиболее применяемыми из численных являются атрибуты, рассчитываемые из амплитудной сейсмической записи, такие как Coherence, Semblance, Similarity. Они позволяют подчеркивать тектонические нарушения, но имеют свои недостатки. Являясь по сути прямым пересчетом из домена амплитуд, они крайне подвержены всем существующим видам шума, что не облегчают в значительной степени поставленную перед ними задачу.
Из уровня техники известно техническое решение по патентному документу US6018498 «Автоматическое обнаружение и сбор сейсмических разломов» (дата приоритета: 02.09.1998, дата публикации: 25.01.2000). Реализованный на компьютере способ автоматического определения линии разлома, обнаруживаемой в трехмерном (3D) объеме сейсмических данных, содержащем множество сейсмических трасс, скомпонованных в виде множества точек данных, имеющих координаты x, y и z, определяющие физическое местоположение в упомянутых сейсмических данных. Причем указанный способ включает: преобразование указанного объема трехмерных сейсмических данных в объем данных плоскости разлома (FP), содержащий множество факторов вероятности, определение полосы указанных физических местоположений в указанном объеме данных FP, имеющих высокую вероятность нахождения в подземной плоскости разломов, обнаруживаемой в указанном объеме сейсмических данных, и преобразование упомянутой по меньшей мере одной полосы физических местоположений, имеющих высокую вероятность, в линию и отображение указанной линии в качестве линии разлома.
Общими признаками с заявленным изобретением является определение (визуализация) линий разломов, полученных из трехмерных сейсмических данных.
Система по патентному документу US6018498 компьютер, запрограммированный на выполнение следующих шагов способа: преобразование объема трехмерных сейсмических данных в объем данных плоскости разлома (FP); определение по меньшей мере одной полосы физических местоположений в объеме данных FP, имеющей высокую вероятность нахождения на подземной плоскости разлома, обнаруживаемой в упомянутом объеме сейсмических данных; преобразование упомянутой полосы физических местоположений, имеющих высокую вероятность, в линию и отображение указанной линии как линии разлома.
Недостатками способа и компьютерной системы по патентному документу US6018498 является невысокая точность проведения линии разлома между выявленными точками данных, при этом точность выявления линий разломов снижается при увеличении уровня шума или снижении качества сейсмоданных.
Из уровня техники известно техническое решение по патентному документу US9341729 «Амплитудно-контрастный сейсмический атрибут» (дата приоритета: 03.04.2012, дата публикации: 11.10.2012). Способ обеспечивает визуализацию сейсмических данных подземного (геологического) пласта, при котором получают поле разломов подземного пласта, где оцененное поле падения представляет собой меру отклонения стратиграфического слоя от плоского, выбор вокселя из сейсмического объема, извлечение компьютерным процессором из сейсмического объема элемента матричных данных, в котором элемент матричных данных содержит сейсмические данные, окружающие воксель в сейсмическом объеме, причем элемент матричных данных извлекается из сейсмического объема на основе значения предполагаемое наклонное поле, окружающее воксель. Далее осуществляют генерирование процессором компьютера и использование матричного оператора множества градиентов амплитуды из сейсмических данных в элементе матричных данных, нормализуют, используя множество градиентов амплитуды, значение амплитуды для воксела, чтобы получить нормализованное значение амплитуды для вокселя. После чего осуществляют генерирование с использованием нормализованного значения амплитуды изображения, представляющего часть подземного пласта.
Общими признаками является обеспечение возможности визуализации сейсмических данных с целью выявления геологических разломов.
Однако недостатками способа и системы обнаружения сейсмических разломов по патентному документу US9341729 является низкий уровень устойчивости к шуму, что приводит к тому, что система, реализующая способ, не выделяет разломы там, где имеется некачественная сейсмическая запись и тектонические нарушения были бы выделены традиционными алгоритмами. Кроме того, отсутствует возможность дообучения системы для работы в конкретных условиях или подстраивания при наличии значительного уровня шума.
Перечисленные численные способы и системы определения разломов являются менее точными, т.к. результаты прогнозирования содержат множество шумов и ошибок.
Также известны интеллектуальные системы, представленные такими решениями, как Ant-Tracking (ант-трэкинг) и сверточные нейронные сети. Первое решение является надстройкой над ранее описанными атрибутами, что, конечно, повышает информативность первых, но все же крайне зависимо от шума в данных. Технологии на основе сверточных нейронных сетей в большинстве случаев, в отличие от заявленного способа и системы, работают с 2D данными, что не позволяет работать с кубами данных в трехмерном объеме, как следствие, они не имеют внутреннего механизма устойчивости и саморегуляризации за счет дополнительного пространства. Те же технологии, которые основаны на 3D сверточных нейронных сетях из другой области техники, реализованы на архитектурах, которые не способны обеспечить качественной тренировки (обучения) необходимого количества параметров и не имеют слоев, которые позволяли бы акцентировать работу сети именно на разломах.
Из уровня техники известен алгоритм отслеживания для обнаружения дефектов и разрывов сейсмической записи («Ant Tracking Algorithm for Surface Discontinuity Extraction-Faults Detection», Samina Hanif, Afifa Tariq, Ariba Imtiaz Ahmed and Aamna Hanif, IEEE, 2014 International Conference on Robotics and Emerging Allied Technologies in Engineering (iCREATE) Islamabad, Pakistan, April 22-24, 2014). Обнаружение разломов является важной частью интерпретации сейсмических изображений как на этапах исследования, так и на стадии разработки. Способ определяет, как сейсмическое изображение может быть обработано с помощью различных механизмов улучшения изображения, за которыми следует алгоритм отслеживания для поиска разломов. Способ основан на выявлении наиболее контрастных атрибутных зон, которые часто являются результатами влияния разломов и его реализации на одном или серии 2D изображений.
Общими признаками является получение изображения по полученным сейсмическим данным, на котором более качественно представлены геологические разломы.
Недостатками способа и системы определения разломов, известных из статьи «Ant Tracking Algorithm for Surface Discontinuity Extraction-Faults Detection», является недостаточный уровень устойчивости к шуму, а также отсутствие способности дообучения системы.
Использование сверточной нейронной сети с целью определения (выявления/ прогнозирования) тектонических нарушений на основе сейсмических данных обеспечивает более точное получение данных разломов, увеличивает скорость обработки данных и значительно снижает влияние шумов сейсмической записи на полученные результаты интерпретации.
Заявленное техническое решение обеспечивает достижение технического результата, заключающегося в повышении качества и точности определения тектонических нарушений (разломов) по сейсмической записи (сейсмическим данным), что позволяет эффективнее работать с геологическими неопределенностями, а также в сокращении времени, необходимого для получения обученной модели лучшего качества за счет возможности более быстрого дообучения и настройки сверточной нейронной сети (модели), что приводит к увеличению скорости отображения качественной информации по наличию тектонических нарушений.
Заявленный технический результат достигается за счет того, что способ интеллектуального определения тектонических нарушений включает:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных (из сверточной нейронной сети);
- сбор подкубов прогноза разломов в куб прогноза разломов.
Важной особенностью процесса обучения модели нейронной сети, предлагаемой в изобретении, является постоянное уменьшение скорости обучения внутри циклов с последующим повышением скорости обучения в последующем цикле относительно скорости обучения в последней эпохе предыдущего цикла. Это позволяет точнее оптимизировать веса нейронной сети, поскольку постоянное уменьшение скорости обучения приводит к тому, что функция потерь модели начинается сходиться во все более глубокие и узкие локальные минимумы, что позволяет повышать качество предлагаемого решения при исключении возникновения дополнительных шумов или неточностей, а, следовательно, и точности определения разломов в трехмерных сейсмических данных. Восстановление скорости на следующем цикле позволят задать функции ошибки дополнительные импульс для движения в уже заданном направлении, что позволяет находить еще более оптимальные с точки зрения функции потерь в гиперпространстве весов модели.
Заявленный способ обеспечивает более высокий уровень устойчивости к шуму (за счет интеллектуальной системы и управления скоростью обучения), при этом модель не выделяет разломы там, где имеется некачественная сейсмическая запись, при этом в результате использования некачественных сейсмических данных на традиционных алгоритмах, ранее известных из уровня техники, были бы выделены тектонические нарушения на участках, на которых они отсутствуют. То есть применение предлагаемого решения позволяет уменьшить количество ложно позитивных срабатываний, таким образом уменьшая время обработки полученного результата специалистом и получения явной структурной интерпретации сейсмических данных.
За счет использования заявленной сверточной нейронной сети обеспечивается возможность выделения нарушений без разрыва сплошности сейсмического сигнала, с чем не справляются традиционные методы. Данный эффект повышается благодаря наличию в обучающей выборке подобных примеров.
Известно, что сейсмические данные являются результатом записи амплитуд сейсмических волн, которые были получены сейсмическими приемниками после отражения энергии от пластов горных пород. Начальный импульс, образованный каким-либо физическим воздействием (взрыв, виброисточник, сброс груза и др.) на поверхности, распространяется вглубь земной коры, где при встрече с контрастной акустической границей отражается и преломляется по законам оптики, а после чего возвращается к поверхности и может быть зарегистрирован. Такая природа получения данных в значительной степени отличает сейсмические данные от результатов каких-либо других исследований (например, компьютерной или магнитно-резонансной томографии) и получаемых ими данных, так как накладываются значительные ограничения на свойства получаемого сигнала. Свойства последнего крайне зависят от глубины (сигнал затухает, в значительной степени меняются амплитуда и частотный состав волн, что ведет к тому, что на большей глубине сложнее выделяться объекты), физики распространения волн (появление кратно отраженных и дефрагированных волн), свойств пород (их поглощающая способность, а также низкая акустическая контрастность), условия создания и приема импульса, а также технические особенности конкретной аппаратуры приема.
Дополнительно обеспечивается возможность дообучения сверточной нейронной сети для работы в конкретных условиях или для подстраивания под опыт конкретного специалиста, использующего заявленный способ, систему или машиночитаемый носитель. Возможность дообучения позволяет быстро расширить сеть на новые типы разломов и геологических ситуаций, не требуя значительных вычислительных мощностей или временных ресурсов. Примером может выступать перенос сети, обученной для сейсмических данных, полученных по результатам работ в Оренбургской области, на данные Северного моря, которые содержат новые типы разломов, отсутствующие тренировочной выборке (например, листрические разломы Северного моря, отсутствующие в Оренбурге, представленном большим количеством надвиговых разломов). Наличие небольшого набора данных с уже выделенными листрическими разломами может позволить дообучить сеть, тренировка которой происходила на данных Оренбурга, и быстро применять ее в дальнейшей работе на площадях Северного Моря. Простота дообучения (настройки) обученной модели (сверточной нейронной сети) позволяет сократить время, которое необходимо для получения обученной модели необходимого качества для сейсмических данных с различным уровнем шума или для применения модели на разных типах нефтяных месторождений, а следовательно, увеличить скорость отображения точной информации по наличию (отсутствию) тектонических нарушений за счет определения (контролирования) необходимой скорости обучения (дообучения) модели на циклах (эпохах).
Также заявленный технический результат достигается за счет того, что система интеллектуального определения тектонических нарушений включает:
- блок входных данных, содержащий по меньшей мере куб измеренных сейсмических данных;
- блок подготовки, соединенный с блоком входных данных, при этом в блоке подготовки осуществляется деление куба измеренных сейсмических данных на подкубы сейсмических данных;
- сверточную нейронную сеть, соединенную с блоком подготовки, при этом осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- блок прогноза, соединенный со сверточной нейронной сетью, при этом в блоке прогноза осуществляется получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- блок сбора данных, соединенный с блоком прогноза, при этом в блоке сбора данных осуществляется сбор подкубов прогноза разломов в куб прогноза разломов.
Технический результат достигается за счет того, что машиночитаемый носитель интеллектуального определения тектонических нарушений содержит компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
Технический результат достигается за счет того, что способ интеллектуального определения тектонических нарушений включает:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения ɳmax предыдущего цикла обучения.
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
Технический результат достигается за счет того, что способ интеллектуального определения тектонических нарушений включает:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла (на текущем цикле обучения);
T max - максимальное количество эпох в цикле (на текущем цикле обучения);
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
Также технический результат заключается в получении сверточной нейронной сети (системы, машиночитаемого носителя, содержащих сверточную нейронную сеть), которая обеспечивает повышение качества и точности определения тектонических нарушений (разломов) по сейсмической записи (сейсмическим данным), что позволяет эффективнее работать с геологическими неопределенностями, при этом обеспечивается возможность ее быстрого дообучения и настройки, что приводит к сокращению времени, необходимого для получения обученной модели лучшего качества, а следовательно, повышении скорости отображения качественной информации по наличию тектонических нарушений.
Заявленный технический результат достигается за счет того, что способ обучения нейронной сети для интеллектуального определения тектонических нарушений включает:
- подачу подкуба сейсмических данных в сверточную нейронную сеть;
- проведение не менее чем двух циклов обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
Технический результат достигается за счет того, что система обучения нейронной сети для интеллектуального определения тектонических нарушений включает:
сверточную нейронную сеть, соединенную с блоком управления скоростью обучения, при этом осуществляется подача подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения,
при этом блок управления скоростью обучения выполнен с возможностью задачи скорости обучения сверточной нейронной сети, при котором в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
Технический результат достигается за счет того, что машиночитаемый носитель обучения нейронной сети для интеллектуального определения тектонических нарушений содержит компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
- подачу подкуба сейсмических данных в сверточную нейронную сеть;
- проведение не менее чем двух циклов обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
В одном из вариантов осуществления изобретения осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения ηmax предыдущего цикла обучения.
В одном из вариантов осуществления изобретения осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания.
В одном из вариантов осуществления изобретения закон косинусного затухания определяется по формуле:
где
η t - скорость обучения на текущей эпохе;
ηmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
ηmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла (на текущем цикле обучения);
Tmax - максимальное количество эпох обучения в цикле (на текущем цикле обучения).
В одном из вариантов осуществления изобретения закон косинусного затухания определяется по формуле:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла;
T max - максимальное количество эпох в цикле;
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения.
Такие варианты косинусных функций (1) и (2) позволяют устойчиво приближаться к минимумам функции потерь. А перезапуск на каждом цикле дает возможность "подтолкнуть" обучение, придав сети импульса движение в ту сторону, в которую ее "скатывала" функция потерь на предыдущем цикле. Таким образом, обеспечивается движение к наиболее оптимальным минимумам на всех масштабах этой функции.
Предпочтительно скорость обучения ηmax на каждом цикле обучения задается 0,001 усл.ед. Однако в одном из вариантов выполнения изобретения скорость обучения ηmax предыдущего цикла обучения больше скорости обучения ηmax последующего цикла обучения, например от 0,01 до 0,0001 усл.ед.
В одном из вариантов осуществления изобретения в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1, где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
В одном из вариантов осуществления изобретения обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
В одном из вариантов осуществления изобретения после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
Валидационная выборка – набор сейсмических данных, которые не участвовали в обучении. Каждый набор таких данных, как и в тренировочной выборке, состоит из двух частей – куб сейсмических амплитуд и соответствующий ему куб разломов.
На эпохах не только последнего цикла обучения может быть проверено качество обученной модели, применив модель к сейсмическим кубам валидационной выборки и получив по ним прогноз и сравнив с правильными (реальными) кубами разломов. По каждому кубу может быть подсчитано свое значение точности.
В одном из вариантов осуществления изобретения бучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
В одном из вариантов осуществления изобретения определяется качество обученной модели с использованием коэффициента сходства Дайса:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
В одном из вариантов осуществления изобретения определяется качество обученной модели с использованием коэффициента сходства Жаккара:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
Таким образом, оценка качества работы модели (точности модели) происходит с помощью расчета математических метрик, которые измеряют степень пересечения реального расположения разломов на сейсмической записи с предсказанной структурой, таким образом фактически переводя визуальное сходство геометрий в количественный вариант. Математической метрикой качества решения могут служить коэффициенты сходства Дайса ( - мера Сёренсена) и/или Жаккара (). Схематично формулы (3) и (4) представлены на фиг. 1. Данные метрики измеряют степень пересечения, а соответственно, и сходства двух пересекающихся множеств и могут оценивать насколько качественно и точно результат модели, полученная структура разломов на выходе алгоритма, повторяет реальное расположение тектонических нарушений (фиг. 1). Коэффициенты и стремятся к единице при достижении идеально обученной модели, но предпочтительно и задаются в пределах 0,6 – 1. Т.е. при достижении заданных коэффициентов считается, что модель получена необходимого качества.
В результате осуществляется интеллектуальное определение тектонических нарушений, при котором может определяться качество обученной модели с целью достижения необходимой точности прогнозирования на текущем цикле и возможностью перехода на следующий цикл обучения.
В одном из вариантов осуществления изобретения перед делением куба измеренных сейсмических данных осуществляется подготовка куба измеренных сейсмических данных, которая включает следующие этапы:
- вычисляют среднее значение амплитуды в кубе измеренных сейсмических данных и приводят среднее значение куба к значению 0;
- сужают распределение амплитуд сейсмических данных в диапазон от 1-го до 99-го перцентилей;
- определяют стандартное отклонение и делят все значения амплитуд на стандартное отклонение.
В одном из вариантов осуществления изобретения деление куба измеренных сейсмических данных на подкубы сейсмических данных осуществляется с пересечением и их нормированием данных, при котором осуществляется:
- вычисление среднего значения амплитуды в каждом подкубе сейсмических данных и приводят средние значения подкубов к значению 0;
- определение стандартного отклонения каждого подкуба и деление всех значений амплитуд на соответствующее этому подкубу стандартное отклонение.
В одном из вариантов осуществления изобретения подачу каждого подкуба сейсмических данных в сверточную нейронную сеть осуществляется поочередно.
В одном из вариантов осуществления изобретения сбор подкубов прогноза разломов в куб прогноза разломов осуществляется, осредняя значения прогноза в пересечениях подкубов.
Таким образом, эффективным условием использования процесса обучения модели нейронной сети является постоянное уменьшение скорости обучения внутри циклов с последующим возвращением к начальной скорости с некоторым уменьшающим фактором. Это повышает оптимизацию веса нейронной сети, поскольку постоянно уменьшение скорости обучения приводит к тому, что функция потерь модели начинается сходиться во все более глубокие и узкие локальные минимумы, что позволяет повышать качество предлагаемого решения. Восстановление скорости позволяет задать функции ошибки дополнительный импульс для движения в уже заданном направлении, что позволяет находить еще более оптимальные с точки зрения функции потерь позиции в гиперпространстве весов модели.
Заявленное изобретение подтверждается следующими фигурами.
Фиг. 1 – схематичное изображение определение качества работы модели с использованием коэффициента Дайса ( - мера Сёренсена) и Жаккара (), на которых:
1 – множество реальных разломов;
2 – множество предсказанных разломов.
Фиг. 2 – схематичное изображение процесса обучения нейронной сети (получение обученной модели определения тектонических нарушений), в которой
Nt – тренировочная выборка;
Nv – валидационная выборка;
М – нейросетевая модель (сверточная нейронная сеть);
Е – искомая точность определения разломов;
В – размер итерации;
It – разбиение тренировочной выборки на итерации;
Iv – разбиение валидационной выборки на итерации;
Т - количество эпох.
Фиг. 3 – зависимость скорости обучения от номера эпохи при η max = const в циклах обучения.
Фиг. 4 – зависимость скорости обучения от номера эпохи при снижении η max в каждом последующем цикле обучения.
Фиг. 5 – схематичное изображение структуры сверточной нейронной сети в процессе обучения или использования, в которой
3 – куб сейсмических данных для обучения (или для прогноза, если используется обученная модель);
4 – прогнозный куб разломов;
5 – сверточный блок энкодера, в котором
Conv3D – сверточный слой 3D (Convolution 3D);
BatchNorm – нормализационный слой (Batch Normalization);
PReLU – функция активации;
Dropout3D - слой регуляризации с занулением весов;
6 – блок уменьшения размерности,
7 – блок увеличения размерности, в котором
Conv Transpose3D – транспонированный сверточный слой 3D;
8 – единичный слой свертки, в котором
Output channels = 1 – количество выходных каналов;
sigmoid (x) - сигмоидальная функция.
9 – сверточный блок декодера.
Фиг. 6 – график зависимости повышения качества обучения модели от изменения скорости обучения, при котором обучение сверточной нейронной сети включает пять циклов обучения, при этом каждый цикл состоит из 100 эпох обучения, в которой
10 – функция потерь (ошибки) на обучении;
11 – функция потерь (ошибки) на валидации;
12 – функция точности на обучении;
13 – функция точности на валидации.
Фиг. 7 – схема процесса получения обученной модели определения тектонических нарушений с использование валидационной выборки, на которой 14 – кубы сейсмических данных для обучения модели;
фиг. 8 – схематичное представление работы обученной модели с использованием валидационной выборки, на которой 15 – кубы сейсмических данных для определения качества обученной модели.
На фиг. 1 схематично показаны два варианта определения качества работы обученной модели (сверточной нейронной сети), при этом, чем больше площадь пересечения синего и зеленого кубов (множества реальных разломов и множества предсказанных разломов), тем точнее обучена модель, т.е. точнее предсказаны разломы обученной моделью.
Как указано выше, качество модели может определяться после каждой эпохи обучения и/или после каждого цикла обучения или, например, только на последнем цикле обучения.
В сверточную нейронную сеть могут подаваться кубы сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка) (Nt) в целом или разбитая на итерации (It), содержащий значения 0 и 1, где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы. Обучение сверточной нейронной сети (М) обычно включает несколько итераций в одной эпохе обучения. Количество (размер итераций В) может быть задано оператором, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения (фиг. 2). А также после каждой эпохи, по меньшей мере последнего цикла обучения, определяют качество обученной модели, при этом сравнивают куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки (Nv). Валидационная выборка (Nv) может быть также разбита на итерации (Iv).
Заявленный способ интеллектуального определения тектонических нарушений включает получение куба измеренных сейсмических данных (на фиг. не показан), деление куба измеренных сейсмических данных на подкубы сейсмических данных. После чего осуществляют подачу каждого подкуба сейсмических данных в сверточную нейронную сеть, обучение которой состоит, например, из пяти циклов, каждый цикл состоит, например, из 100 эпох обучения, при этом в каждом цикле скорость обучения снижается, например, от ηmax = 0,001 усл.ед. до 0 (ηmin) по закону косинусного затухания по формуле (1) (фиг. 4). Кроме того, скорость обучения ηmax может снижаться при переходе на следующий цикл (фиг. 5): на первом цикле обучения ηmax = 0,001 усл.ед., на втором цикле обучения ηmax = 0,0008 усл.ед., на третьем цикле обучения ηmax = 0,0006 усл.ед., на четвертом цикле обучения ηmax = 0,0004 усл.ед., на пятом цикле обучения ηmax = 0,0002 усл.ед., определенные, например, по формуле (2).
В результате получают несколько подкубов прогноза разломов по каждому подкубу сейсмических данных, после чего осуществляют сбор подкубов прогноза разломов в куб прогноза разломов.
Архитектура заявленной сверточной нейронной сети обычно состоит из двух частей (фиг. 5): энкодера, уменьшающего размер данных с помощью сверточных блоков 5 и выделяющего наиболее значимые части информации необходимые для решения задачи вдоль своего графа с помощью блоков уменьшения размерности 6, и декодера, трансформирующего информацию в нужный домен (то есть из домена сейсмических амплитуд в домен вероятности наличия разлома), последовательно переходя на все более высокие уровни детализации с использованием блока увеличения размерности 7.
Вдоль своего графа вычислений энкодер уменьшает пространственный объем информации по осям X, Y, Z, но при этом увеличивает количество каналов (с 8 до 128) в данных (начальный этапа – 1 канал, амлитудный), каждый из которых представляет из себя карту выделенных особенностей сейсмической записи. Декодер же, используя эту информацию по множеству каналов, разворачивает запись к начальному объему и входе этого процесса подчеркивает структурные особенности сейсмического поля, выраженные наличием разломов.
Сверточные блоки 5 энкодера и блоки 7 увеличения размерности декодера соответствующих размеров также дополнительно конкатенируются для облегчения процесса обучения и передачи мелких деталей на конечные слои сети.
При этом энкодер состоит из пяти сверточных блоков с двукратным увеличением количества каналов в каждом, 4 первых из них заканчиваются дополнительной операцией свертки с размером ядра 2×2×2 и шагом 2 для уменьшения размера информации. Таким образом, информация уменьшается в объеме, но увеличивается количество выделяемых особенностей в ней. Пятый блок завершается первой операцией транспонирования конволюции (ядро 2×2×2, шаг 2), который начинает разворачивать данные к начальному размеру.
Далее следует четыре блока декодера, которые также завершаются операцией транспонированной конволюции. Они последовательно возвращают информацию к первоначальному размеру, при этом уменьшая количество сверточных каналов. Завершается декодер единичным слоем свертки 8 с размером ядра 1×1×1 и количеством каналов 1, который представляет собой конечную операцию перевода от пространства, состоящего из множества сверточных каналов в единую карту значений, применяя при этом сигмоидальную функцию:
Применение этой функции позволяет трансформировать безразмерные значения выхода нейронной сети к диапазону от 0 до 1, где 1 отвечает за точное наличие разлома, а 0 за его отсутствие.
Основными максимально разделимыми слоями предлагаемой архитектуры являются следующие слои.
Сверточный слой 3D (Convolution 3D) представляет из себя сверточный фильтр. Принимает на вход трехмерные данные размерности C-X-Y-Z, где C – количество каналов, X – ширина, Y – длина, Z – высота. На выход отдает трансформированные данные размерности C-X-Y-Z, где C – количество каналов после трансформации, X – ширина, Y – длина, Z – высота. Задаваемые параметры – количество каналов входных данных, количество каналов на выходе, размер сверточного фильтра (в предлагаемой архитектуре могут быть использованы размерности 5×5×5, 2×2×2 и 1×1×1), шаг (в предлагаемой архитектуре может быть 1 и 2).
Внутри слоя свертка происходит по следующей формуле:
где
Ni – номер куба выборки (тренировочной);
Cout – количество выходных каналов (после свертки);
Cin – количество входных каналов (до свертки);
k – номер канала, на фиг. 5 цифрами обозначено количество каналов: 8, 16, 32, 64, 128 в процессе свертки, и 64, 32, 16 и 8 в процессе развертки.
Транспонированный сверточный слой 3D (Convolution Transpose 3D) представляет из себя сверточный фильтр. Принимает на вход трехмерные данные размерности C-X-Y-Z, где C – количество каналов, X – ширина, Y – длина, Z – высота. На выход отдает трансформированные данные размерности C-X-Y-Z, где C – количество каналов после трансформации, X – ширина, Y – длина, Z – высота. Задаваемые параметры – количество каналов входных данных, количество каналов на выходе, размер сверточного фильтра (в предлагаемой архитектуре бывает только размерности 2×2×2), шаг (в предлагаемой архитектуре всегда равен 2).
Нормализационный слой (Batch Normalization), который принимает данные и производит их перемасштабирование таким образом, чтобы избежать их смещения относительно входа следующего сверточного фильтра. Располагается после сверточных слоев.
Функция активации (PReLU) позволяет сети создавать внутри себя нелинейные связи, располагается между сверточными слоями.
Слой регуляризации с занулением весов (Dropout3D) позволяет в процессе обучения отключать определенные нейроны сети, таким образом не позволяя ей переобучить какие-то конкретные из них и заставляя оптимизировать их все
Слои, описанные выше, позволяют комбинировать промежуточные блоки энкодера и декодера:
Таким образом, сверточный блок 5 энкодера состоит из последовательно соединенных слоев Conv3D-BatchNorm-PReLU-Conv3D-BatchNorm-PReLU-DropOut3D (сверточные ядра имеют размер 5×5×5, шаг 1), а также единственного слоя Conv3D (размер ядра 1×1×1, шаг 1). Основным входным параметром является количество каналов входной информации и количество каналов на выходе. Пропуская информацию через себя, слой ее трансформирует, пытаясь приблизить к необходимому результату (кубу прогноза разломов). Особенностью работы слоя является то, что он производит операцию поэлементного суммирования полученного результата с входными данными, к которым была применена свертка размерностью 1×1×1.
На выходе каждого энкодера, кроме сверточного блока 5, присутствует дополнительный сверточный слой Conv3D с размером ядра 2×2×2, шагом 2, с последующей функцией активацией PReLU, т.е. блок 6 уменьшения размерности. Этот блок 6 необходим для уменьшения размерности и извлечения наиболее значимой для нейронной сети информации, что помогает быстрее проводить обучение и применение модели, а также увеличивает ее устойчивость.
Сверточный блок 9 декодера повторяет архитектуру сверточного блока энкодера за исключением того, что последним слоем является не слой свертки, а слой транспонированной конволюции 7, увеличивающий размер входной информации по всем трем направлениям в два раза.
В результате сверточная нейронная сеть заявленной структуры и обученная заявленным способом обеспечивает повышение скорости, качества и точности выделения тектонических разрывных нарушений (разломов) по сейсмической записи (сейсмическим данным), что позволяет эффективнее работать с геологическими неопределенностями.
На фиг. 6 видно, что при изменении скорости обучения по заявленному принципу повышается точность обученной модели, при этом наблюдаются значительные скачки увеличения качества модели при переходе от цикла к циклу обучения. При этом в процессе обучения снижается ошибка работы обученной модели (функции потерь 10 и 11). В целом использование заявленных способов, систем и машиночитаемых носителей, обеспечивающих обучение сверточной нейронной сети, кроме повышения качества определения разломов, обеспечивают сокращение времени, необходимое для получения обученной модели необходимого качества. На фиг. 6 функция потерь на обучении 10 и функция потерь на валидации 11 в целом определяют уровень ошибки прогнозирования, а точность обучения 12 и точность валидации 13 определяют точность отражения (представления) разломов (тектонических нарушений). Как видно, в процессе обучения модели точность прогнозирования повышается, а уровень ошибки снижается.
Проведено тестирование разработанного решения для куба сейсмических данных, полученного по одному из активов Компании, в результате которого доказано, что предлагаемые системы, способы и машиночитаемые носители не уступают и даже превосходят существующие алгоритмы для решения поставленной задачи, а результатом применения заявленного изобретения является получение модели (изображения) менее подверженной шуму, способной качественно выделять тектонические нарушения (фиг. 8).
Claims (267)
1. Способ интеллектуального определения тектонических нарушений, включающий:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
2. Способ интеллектуального определения тектонических нарушений по п. 1, при котором осуществляют подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
3. Способ интеллектуального определения тектонических нарушений по п. 1, при котором осуществляют подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания.
4. Способ интеллектуального определения тектонических нарушений по п. 3, при котором закон косинусного затухания определяется по формуле:
где
ηt - скорость обучения на текущей эпохе;
ηmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
ηmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Tmax - максимальное количество эпох обучения в цикле.
5. Способ интеллектуального определения тектонических нарушений по п. 3, при котором закон косинусного затухания определяется по формуле:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла;
T max - максимальное количество эпох в цикле;
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения.
6. Способ интеллектуального определения тектонических нарушений по п. 1, при котором в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1, где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
7. Способ интеллектуального определения тектонических нарушений по п. 6, при котором обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
8. Способ интеллектуального определения тектонических нарушений по п. 1, при котором после каждой эпохи, по меньшей мере последнего цикла обучения, определяют качество обученной модели, при этом сравнивают куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
9. Способ интеллектуального определения тектонических нарушений по п. 1, при котором обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяют качество обученной модели.
10 Способ интеллектуального определения тектонических нарушений по любому из пп. 8, 9, при котором определяют качество обученной модели с использованием коэффициента сходства Дайса:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
11. Способ интеллектуального определения тектонических нарушений по любому из пп. 8, 9, при котором определяют качество обученной модели с использованием коэффициента сходства Жаккара:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
12. Способ интеллектуального определения тектонических нарушений по п. 1, при котором перед делением куба измеренных сейсмических данных осуществляют подготовку куба измеренных сейсмических данных, которая включает следующие этапы:
- вычисляют среднее значение амплитуды в кубе измеренных сейсмических данных и приводят среднее значение куба к значению 0;
- сужают распределение амплитуд сейсмических данных в диапазон от 1-го до 99-го перцентилей;
- определяют стандартное отклонение и делят все значения амплитуд на стандартное отклонение.
13. Способ интеллектуального определения тектонических нарушений по п. 1, при котором деление куба измеренных сейсмических данных на подкубы сейсмических данных осуществляют с пересечением и их нормированием данных, при котором осуществляют:
- вычисление среднего значения амплитуды в каждом подкубе сейсмических данных и приводят средние значения подкубов к значению 0;
- определение стандартного отклонения каждого подкуба и деление всех значений амплитуд на соответствующее этому подкубу стандартное отклонение.
14. Способ интеллектуального определения тектонических нарушений по п. 1, при котором подачу каждого подкуба сейсмических данных в сверточную нейронную сеть осуществляют поочередно.
15. Способ интеллектуального определения тектонических нарушений по п. 13, при котором сбор подкубов прогноза разломов в куб прогноза разломов осуществляют осредняя значения прогноза в пересечениях подкубов.
16. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений, включающий:
- подачу подкуба сейсмических данных в сверточную нейронную сеть;
- проведение не менее чем двух циклов обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
17. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.16, при котором осуществляют подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
18. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 16, при котором осуществляют подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания.
19. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 18, при котором закон косинусного затухания определяется по формуле:
где
ηt - скорость обучения на текущей эпохе;
ηmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
ηmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Tmax - максимальное количество эпох обучения в цикле.
20. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 18, при котором закон косинусного затухания определяется по формуле:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла;
T max - максимальное количество эпох в цикле;
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения.
21. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 16, при котором в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1, где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
22. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 21, при котором обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
23. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 16, при котором после каждой эпохи, по меньшей мере последнего цикла обучения, определяют качество обученной модели, при этом сравнивают куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
24. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 16, при котором обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяют качество обученной модели.
25. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 23, 24, при котором определяют качество обученной модели с использованием коэффициента сходства Дайса:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
26. Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 23, 24, при котором определяют качество обученной модели с использованием коэффициента сходства Жаккара:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
27. Система интеллектуального определения тектонических нарушений, включающая:
- блок входных данных, содержащий по меньшей мере куб измеренных сейсмических данных;
- блок подготовки, соединенный с блоком входных данных, при этом в блоке подготовки осуществляется деление куба измеренных сейсмических данных на подкубы сейсмических данных;
- сверточную нейронную сеть, соединенную с блоком подготовки, при этом осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- блок прогноза, соединенный со сверточной нейронной сетью, при этом в блоке прогноза осуществляется получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- блок сбора данных, соединенный с блоком прогноза, при этом в блоке сбора данных осуществляется сбор подкубов прогноза разломов в куб прогноза разломов.
28. Система интеллектуального обучения тектонических нарушений по п. 27, в которой осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
29. Система интеллектуального определения тектонических нарушений по п. 27, в которой осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания.
30. Система интеллектуального определения тектонических нарушений по п. 29, в которой закон косинусного затухания определяется по формуле:
где
ηt - скорость обучения на текущей эпохе;
ηmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
ηmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Tmax - максимальное количество эпох обучения в цикле.
31. Система интеллектуального определения тектонических нарушений по п. 29, в которой закон косинусного затухания определяется по формуле:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла;
T max - максимальное количество эпох в цикле;
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения.
32. Система интеллектуального определения тектонических нарушений по п. 27, в которой в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1, где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
33. Система интеллектуального определения тектонических нарушений по п. 32, в которой обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивается полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяются ошибки и учитываются ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
34. Система интеллектуального определения тектонических нарушений по п. 27, в которой после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
35. Система интеллектуального определения тектонических нарушений по п. 27, в которой обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
36. Система интеллектуального определения тектонических нарушений по любому из пп. 34, 35, в которой определяется качество обученной модели с использованием коэффициента сходства Дайса:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
37. Система интеллектуального определения тектонических нарушений по любому из пп. 34, 35, в которой определяется качество обученной модели с использованием коэффициента сходства Жаккара:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
38. Система интеллектуального определения тектонических нарушений по п. 27, в которой перед делением куба измеренных сейсмических данных осуществляется подготовка куба измеренных сейсмических данных, которая включает следующие этапы:
- вычисляется среднее значение амплитуды в кубе измеренных сейсмических данных и приводят среднее значение куба к значению 0;
- сужается распределение амплитуд сейсмических данных в диапазон от 1-го до 99-го перцентилей;
- определяется стандартное отклонение и делятся все значения амплитуд на стандартное отклонение.
39. Система интеллектуального определения тектонических нарушений по п. 27, в которой деление куба измеренных сейсмических данных на подкубы сейсмических данных осуществляется с пересечением и их нормированием данных, при котором осуществляется:
- вычисление среднего значения амплитуды в каждом подкубе сейсмических данных и приводят средние значения подкубов к значению 0;
- определение стандартного отклонения каждого подкуба и деление всех значений амплитуд на соответствующее этому подкубу стандартное отклонение.
40. Система интеллектуального определения тектонических нарушений по п. 27, в которой подачу каждого подкуба сейсмических данных в сверточную нейронную сеть осуществляется поочередно.
41. Система интеллектуального определения тектонических нарушений по п. 39, в которой сбор подкубов прогноза разломов в куб прогноза разломов осуществляется осредняя значения прогноза в пересечениях подкубов.
42. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений, включающая:
сверточную нейронную сеть, соединенную с блоком управления скоростью обучения, при этом осуществляется подача подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения;
блок управления скоростью обучения выполнен с возможностью задачи скорости обучения сверточной нейронной сети, при котором в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
43. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 42, в которой осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем в два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
44. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 42, в которой осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания.
45. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 44, в которой закон косинусного затухания определяется по формуле:
где
ηt - скорость обучения на текущей эпохе;
ηmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
ηmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Tmax - максимальное количество эпох обучения в цикле.
46. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 44, в которой закон косинусного затухания определяется по формуле:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла;
T max - максимальное количество эпох в цикле;
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения.
47. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 42, в которой в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1, где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
48. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 47, в которой обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивается полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяются ошибки и учитываются ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
49. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 42, в которой после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
50. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 42, в которой обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
51. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 49, 50, в которой определяется качество обученной модели с использованием коэффициента сходства Дайса:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
52. Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 49, 50, в которой определяется качество обученной модели с использованием коэффициента сходства Жаккара:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
53. Машиночитаемый носитель интеллектуального определения тектонических нарушений, содержащий компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
54. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
55. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания.
56. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 55, в котором закон косинусного затухания определяется по формуле:
где
ηt - скорость обучения на текущей эпохе;
ηmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
ηmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Tmax - максимальное количество эпох обучения в цикле.
57. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 55, в котором закон косинусного затухания определяется по формуле:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла;
T max - максимальное количество эпох в цикле;
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения.
58. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1, где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
59. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 58, в котором обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивается полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяются ошибки и учитываются ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
60. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
61. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
62. Машиночитаемый носитель интеллектуального определения тектонических нарушений по любому из пп. 60, 61, в котором определяется качество обученной модели с использованием коэффициента сходства Дайса:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
63. Машиночитаемый носитель интеллектуального определения тектонических нарушений по любому из пп. 60, 61, в котором определяется качество обученной модели с использованием коэффициента сходства Жаккара:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
64. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором перед делением куба измеренных сейсмических данных осуществляется подготовка куба измеренных сейсмических данных, которая включает следующие этапы:
- вычисляется среднее значение амплитуды в кубе измеренных сейсмических данных и приводятся среднее значение куба к значению 0;
- сужается распределение амплитуд сейсмических данных в диапазон от 1-го до 99-го перцентилей;
- определяется стандартное отклонение и делятся все значения амплитуд на стандартное отклонение.
65. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором деление куба измеренных сейсмических данных на подкубы сейсмических данных осуществляется с пересечением и их нормированием данных, при котором осуществляется:
- вычисление среднего значения амплитуды в каждом подкубе сейсмических данных и приводят средние значения подкубов к значению 0;
- определение стандартного отклонения каждого подкуба и деление всех значений амплитуд на соответствующее этому подкубу стандартное отклонение.
66. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором подача каждого подкуба сейсмических данных в сверточную нейронную сеть осуществляется поочередно.
67. Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 65, в котором сбор подкубов прогноза разломов в куб прогноза разломов осуществляется, осредняя значения прогноза в пересечениях подкубов.
68. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений, содержащий компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
- подачу подкуба сейсмических данных в сверточную нейронную сеть;
- проведение не менее чем двух циклов обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
69. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 68, в котором осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
70. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 68, в котором осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания.
71. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 70, в котором закон косинусного затухания определяется по формуле:
где
ηt - скорость обучения на текущей эпохе;
ηmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
ηmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Tmax - максимальное количество эпох обучения в цикле.
72. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 70, в котором закон косинусного затухания определяется по формуле:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла;
T max - максимальное количество эпох в цикле;
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения.
73. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 68, в котором в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1, где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
74. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 73, в котором обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
75. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 68, в котором после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
76. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 68, в котором обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
77. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 75, 76, в котором определяется качество обученной модели с использованием коэффициента сходства Дайса:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
78. Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 75, 76, в котором определяется качество обученной модели с использованием коэффициента сходства Жаккара:
где A – множество точек, отвечающих за наличие разлома в кубе разломов;
B – множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
79. Способ интеллектуального определения тектонических нарушений, включающий:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
80. Способ интеллектуального определения тектонических нарушений, включающий:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее чем два цикла обучения, каждый из которых состоит не более чем из 100 эпох обучения, в каждом цикле скорость обучения (ηt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ηmax) до минимальной скорости обучения в цикле (ηmin) по закону косинусного затухания:
где
η t - скорость обучения на текущей эпохе;
η min - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001;
η max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
T cur - номер текущей эпохи внутри цикла;
T max - максимальное количество эпох в цикле;
N c ycles - общее количество циклов;
N c _ i - номер текущего цикла обучения;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2020128416A RU2746691C1 (ru) | 2020-08-26 | 2020-08-26 | Система интеллектуального определения тектонических нарушений по сейсмическим данным на основе сверточных нейронных сетей |
PCT/RU2021/050269 WO2022045932A1 (ru) | 2020-08-26 | 2021-08-19 | Система для определения тектонических нарушений по сейсмическим данным |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2020128416A RU2746691C1 (ru) | 2020-08-26 | 2020-08-26 | Система интеллектуального определения тектонических нарушений по сейсмическим данным на основе сверточных нейронных сетей |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2746691C1 true RU2746691C1 (ru) | 2021-04-19 |
Family
ID=75521169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2020128416A RU2746691C1 (ru) | 2020-08-26 | 2020-08-26 | Система интеллектуального определения тектонических нарушений по сейсмическим данным на основе сверточных нейронных сетей |
Country Status (2)
Country | Link |
---|---|
RU (1) | RU2746691C1 (ru) |
WO (1) | WO2022045932A1 (ru) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705644A (zh) * | 2021-08-17 | 2021-11-26 | 西安交通大学 | 一种物理规律和数据双驱动的地震成像方法、系统、设备及存储介质 |
CN115099523A (zh) * | 2022-07-20 | 2022-09-23 | 哈尔滨工业大学 | 基于人工智能与地震动经验模型混合的地震动参数预测方法 |
RU2783367C1 (ru) * | 2022-02-03 | 2022-11-11 | Общество с ограниченной ответственностью "ГридПоинт Дайнамикс" | Способ определения положения разломов на основе сейсмических данных |
CN117518250A (zh) * | 2023-11-13 | 2024-02-06 | 中国地震局地质研究所 | 一种地震断层的识别方法、装置、设备及可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6018498A (en) * | 1998-09-02 | 2000-01-25 | Phillips Petroleum Company | Automated seismic fault detection and picking |
US20020042677A1 (en) * | 2000-09-29 | 2002-04-11 | West Brian P. | Method for seismic facies interpretation using textural analysis and neural networks |
WO2018072815A1 (en) * | 2016-10-18 | 2018-04-26 | Schlumberger Technology Corporation | Determining subsurface layers using machine learning |
WO2019036144A1 (en) * | 2017-08-18 | 2019-02-21 | Landmark Graphics Corporation | DETECTION OF FAILURES BASED ON THE INTERPRETATION OF SEISMIC DATA |
CN110554429A (zh) * | 2019-07-23 | 2019-12-10 | 中国石油化工股份有限公司 | 一种基于变邻域滑动窗口机器学习的地震断层识别方法 |
-
2020
- 2020-08-26 RU RU2020128416A patent/RU2746691C1/ru active
-
2021
- 2021-08-19 WO PCT/RU2021/050269 patent/WO2022045932A1/ru active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6018498A (en) * | 1998-09-02 | 2000-01-25 | Phillips Petroleum Company | Automated seismic fault detection and picking |
US20020042677A1 (en) * | 2000-09-29 | 2002-04-11 | West Brian P. | Method for seismic facies interpretation using textural analysis and neural networks |
WO2018072815A1 (en) * | 2016-10-18 | 2018-04-26 | Schlumberger Technology Corporation | Determining subsurface layers using machine learning |
WO2019036144A1 (en) * | 2017-08-18 | 2019-02-21 | Landmark Graphics Corporation | DETECTION OF FAILURES BASED ON THE INTERPRETATION OF SEISMIC DATA |
CN110554429A (zh) * | 2019-07-23 | 2019-12-10 | 中国石油化工股份有限公司 | 一种基于变邻域滑动窗口机器学习的地震断层识别方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705644A (zh) * | 2021-08-17 | 2021-11-26 | 西安交通大学 | 一种物理规律和数据双驱动的地震成像方法、系统、设备及存储介质 |
CN113705644B (zh) * | 2021-08-17 | 2023-09-12 | 西安交通大学 | 一种物理规律和数据双驱动的地震成像方法、系统、设备及存储介质 |
RU2783367C1 (ru) * | 2022-02-03 | 2022-11-11 | Общество с ограниченной ответственностью "ГридПоинт Дайнамикс" | Способ определения положения разломов на основе сейсмических данных |
CN115099523A (zh) * | 2022-07-20 | 2022-09-23 | 哈尔滨工业大学 | 基于人工智能与地震动经验模型混合的地震动参数预测方法 |
CN115099523B (zh) * | 2022-07-20 | 2023-10-24 | 哈尔滨工业大学 | 基于人工智能与地震动经验模型混合的地震动参数预测方法 |
CN117518250A (zh) * | 2023-11-13 | 2024-02-06 | 中国地震局地质研究所 | 一种地震断层的识别方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022045932A1 (ru) | 2022-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10914854B2 (en) | Residual refraction statics calculation for automated near surface analysis | |
US11693139B2 (en) | Automated seismic interpretation-guided inversion | |
US11346970B2 (en) | Automatic quality control of seismic travel time | |
RU2746691C1 (ru) | Система интеллектуального определения тектонических нарушений по сейсмическим данным на основе сверточных нейронных сетей | |
US10036820B2 (en) | Expert guided knowledge acquisition system for analyzing seismic data | |
JP5530452B2 (ja) | 地球物理学的データセット中の異常検出のための窓型統計的分析 | |
WO2020123097A1 (en) | Training machine learning systems for seismic interpretation | |
Tschannen et al. | Detection of point scatterers using diffraction imaging and deep learning | |
RU2012152447A (ru) | Выполняемый в окне статистический анализ для обнаружения аномалий в наборах геофизических данных | |
Dou et al. | Attention-based 3-D seismic fault segmentation training by a few 2-D slice labels | |
CN112731522A (zh) | 地震地层智能识别方法、装置、设备及存储介质 | |
Rojas et al. | Artificial neural networks as emerging tools for earthquake detection | |
Alfarhan et al. | Concurrent detection of salt domes and faults using resnet with u-net | |
Xu et al. | First‐break automatic picking technology based on semantic segmentation | |
CN108508481B (zh) | 一种纵波转换波地震数据时间匹配的方法、装置及系统 | |
Mora et al. | Fault enhancement using probabilistic neural networks and Laplacian of a Gaussian filter: A case study in the Great South Basin, New Zealand | |
Roberts et al. | Joint stochastic constraint of a large data set from a salt dome | |
Zhang et al. | 3D seismic horizons extraction based on deep learning | |
Lou et al. | Automatic Seismic Fault Interpretation with the Aid of Data-, Physics-, and Math-assisted Synthetic Data Generation | |
Dodda et al. | Seismic Lithology Interpretation using Attention based Convolutional Neural Networks | |
Jennings et al. | Automatic interpretive image-focusing analysis | |
Feng et al. | Calculation method of formation dip angle based on deep learning | |
Ma et al. | Multiscale fault and fracture characterization methods | |
Alfayez et al. | Semi-automated prestack seismic inversion workflow using temporal convolutional networks | |
Wang et al. | Signal recovery and noise suppression of the Ocean‐Bottom Cable P‐component data based on improved dense convolutional network |