WO2022045932A1 - Система для определения тектонических нарушений по сейсмическим данным - Google Patents

Система для определения тектонических нарушений по сейсмическим данным Download PDF

Info

Publication number
WO2022045932A1
WO2022045932A1 PCT/RU2021/050269 RU2021050269W WO2022045932A1 WO 2022045932 A1 WO2022045932 A1 WO 2022045932A1 RU 2021050269 W RU2021050269 W RU 2021050269W WO 2022045932 A1 WO2022045932 A1 WO 2022045932A1
Authority
WO
WIPO (PCT)
Prior art keywords
cycle
training
learning rate
epoch
cube
Prior art date
Application number
PCT/RU2021/050269
Other languages
English (en)
French (fr)
Inventor
Дмитрий Витальевич ЕГОРОВ
Original Assignee
Общество С Ограниченной Ответственностью "Газпромнефть Научно-Технический Центр" (Ооо "Газпромнефть Нтц)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество С Ограниченной Ответственностью "Газпромнефть Научно-Технический Центр" (Ооо "Газпромнефть Нтц) filed Critical Общество С Ограниченной Ответственностью "Газпромнефть Научно-Технический Центр" (Ооо "Газпромнефть Нтц)
Publication of WO2022045932A1 publication Critical patent/WO2022045932A1/ru

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • G01V1/282Application of seismic models, synthetic seismograms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • G01V1/30Analysis
    • G01V1/301Analysis for determining seismic cross-sections or geostructures
    • G01V1/302Analysis for determining seismic cross-sections or geostructures in 3D data cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming

Definitions

  • the present invention relates to seismic data processing and, in particular, to a system and method for reliably detecting and visualizing geological faults.
  • the invention also relates to a method for processing and interpreting seismic data and can be used at all stages of the processes of studying the underground structure and working in areas of deposits or with layers, both at the stages of geological exploration and at the stages of development.
  • a computer-implemented method for automatically determining a fault line detected in a three-dimensional (3D) seismic data volume containing a plurality of seismic traces arranged as a plurality of data points having x, y, and z coordinates defining a physical location in said seismic data.
  • this method includes: converting the specified volume of three-dimensional seismic data into a volume of data of the fault plane (FP), containing a plurality of probability factors, determining the strip of the indicated physical locations in the specified volume of FP data, having a high probability of being in the underground fault plane detected in the specified volume of seismic data, and converting said at least one band of high probability physical locations into a line and displaying said line as a fault line.
  • FP fault plane
  • the system of US6018498 is a computer programmed to perform the following method steps: converting a 3D seismic data volume to a fault plane (FP) data volume; determination of at least one band of physical locations in the FP data volume having a high probability of being underground a fault plane found in said volume of seismic data; converting said band of high probability physical locations into a line; and displaying said line as a fault line.
  • FP fault plane
  • the technical solution is known from the prior art according to the patent document US9341729 "Amplitude-contrast seismic attribute" (priority date: 04/03/2012, publication date: 1 10/1/2012).
  • the method provides visualization of seismic data of an underground (geological) reservoir, in which the fault field of the underground reservoir is obtained, where the estimated dip field is a measure of the deviation of the stratigraphic layer from a flat one, the selection of a voxel from the seismic volume, the extraction of a matrix data element from the seismic volume by a computer processor, in which the matrix data element contains seismic data surrounding the voxel in the seismic volume, wherein the matrix data element is extracted from the seismic volume based on the value of the estimated slope field surrounding the voxel.
  • the computer processor generates and uses the matrix operator a set of amplitude gradients from the seismic data in the matrix data element, normalizes, using a set of amplitude gradients, the amplitude value for the voxel, so that get the normalized amplitude value for the voxel. After that, generation is carried out using a normalized image amplitude value representing a part of the underground formation.
  • Ant-Tracking Ant-tracking
  • convolutional neural networks are also known intelligent systems.
  • the first solution is a superstructure over the previously described attributes, which, of course, increases the information content of the first ones, but is still extremely dependent on the noise in the data.
  • Technologies based on convolutional neural networks work with 2D data, which does not allow working with data cubes in a three-dimensional volume, as a result, they do not have internal mechanism of stability and self-regularization due to additional space.
  • the same technologies that are based on 3D convolutional neural networks from another area of technology are implemented on architectures that are not able to provide high-quality training (training) of the required number of parameters and do not have layers that would allow the network to focus on faults.
  • a common feature is the acquisition of an image from acquired seismic data that better represents geological faults.
  • the claimed technical solution achieves a technical result, which consists in improving the quality and accuracy of determining tectonic disturbances (faults) from a seismic record (seismic data), which makes it possible to work more efficiently with geological uncertainties, as well as reducing the time required to obtain a trained model better quality due to the possibility of faster retraining and tuning of the convolutional neural network (model), which leads to an increase in the speed of displaying high-quality information on the presence of tectonic faults.
  • the claimed technical result is achieved due to the fact that the method of intelligent determination of tectonic disturbances includes:
  • each sub-cube of measured seismic data into a convolutional neural network, during training of which at least two training cycles were completed, each of which consists of no more than 100 training epochs, in each cycle the learning rate (Qt) on the current epoch decreases from epoch to epoch from the maximum learning rate in the cycle (Qmax) to the minimum learning rate in the cycle (Qmin), while the maximum learning rate of the next cycle is greater than the minimum learning rate of the previous cycle;
  • An important feature of the learning process of the neural network model of the invention is the constant decrease in the learning rate within cycles, followed by an increase in the learning rate in the subsequent cycle relative to the learning rate in the last epoch of the previous cycle. This allows you to more accurately optimize the weights of the neural network, since a constant decrease in the learning rate leads to the fact that the loss function of the model begins to converge into ever deeper and narrower local minima, which allows you to improve the quality of the proposed solution while eliminating the occurrence of additional noise or inaccuracies, and, therefore, and fault detection accuracy in 3D seismic data. Restoring speed on the next cycle will allow you to set an additional impulse for the error function to move in the already given direction, which allows to find even more optimal model weights from the point of view of the loss function in hyperspace.
  • the claimed method provides a higher level of noise immunity (due to an intelligent system and learning rate control), while the model does not highlight faults where there is a low-quality seismic record, while as a result of using low-quality seismic data on traditional algorithms, previously known from the prior art, tectonic disturbances would be highlighted in areas where they are absent. That is, the application of the proposed solution allows to reduce the number of false positives, thus reducing the processing time of the result obtained by a specialist and obtaining an explicit structural interpretation of seismic data.
  • seismic data is the result of recording the amplitudes of seismic waves that were obtained by seismic receivers after reflecting energy from rock formations.
  • the initial impulse formed by some physical impact (an explosion, a vibration source, a load drop, etc.) on the surface propagates deep into the earth's crust, where, upon meeting with a contrasting acoustic boundary, it is reflected and refracted according to the laws of optics, and then returns to surface and can be registered.
  • This nature of data acquisition greatly distinguishes seismic data from the results of any other studies (for example, computed tomography or magnetic resonance imaging) and the data they receive, since significant restrictions are imposed on the properties of the received signal.
  • the properties of the latter are highly dependent on depth (the signal attenuates, the amplitude and frequency composition of the waves change significantly, which leads to the fact that it is more difficult to distinguish objects at a greater depth), the physics of wave propagation (the appearance of multiple reflected and defragmented waves), the properties of rocks (their absorption capacity, as well as low acoustic contrast), the conditions for creating and receiving a pulse, as well as the technical features of a specific receiving equipment.
  • Ease of additional training (tuning) of the trained model reduces the time required to obtain a trained model of the required quality for seismic data with different noise levels or for applying the model to different types of oil fields, and, therefore, increase the speed of displaying accurate information by the presence (absence) of tectonic disturbances by determining (controlling) the required learning rate (additional training) of the model on cycles (epochs).
  • the claimed technical result is achieved due to the fact that the system for intelligent determination of tectonic disturbances includes:
  • preparation block connected to the input data block, wherein the preparation block divides the cube of measured seismic data into sub-cubes of seismic data
  • each sub-cube of the measured seismic data is fed into the convolutional neural network, the training of which includes at least two training cycles, each of which consists of no more than 100 training epochs, in each cycle, the learning rate (Q t ) on the current epoch decreases from epoch to epoch from the maximum learning rate in the cycle (c max ) TO the minimum learning rate In the cycle (Tst1p), while the maximum learning rate of the next cycle is greater than the minimum learning rate of the previous cycle;
  • a data acquisition unit connected to the prediction unit, wherein the data acquisition unit collects fault prediction sub-cubes into a fault prediction cube.
  • the machine-readable medium for the intelligent determination of tectonic faults contains a computer program, when executed on the computer, the processor performs the following operations:
  • each sub-cube of measured seismic data into a convolutional neural network, during training of which at least two training cycles were completed, each of which consists of no more than 100 training epochs, in each cycle the learning rate (Qt) on the current epoch decreases from epoch to epoch from the maximum learning rate in the cycle (ts t ah) to the minimum learning rate in the cycle (Qmin), while the maximum learning rate of the next cycle is greater than the minimum learning rate of the previous cycle; - obtaining subcubes of fault prediction for each subcube of seismic data;
  • each sub-cube of measured seismic data into a convolutional neural network, during training of which at least two training cycles were completed, each of which consists of no more than 100 training epochs, in each cycle the learning rate (Qt) on the current epoch decreases from epoch to epoch from the maximum learning rate in the cycle (tst ach ) to the minimum learning rate in the cycle (Qmin), while the maximum learning rate of the next cycle is greater than the minimum learning rate of the previous cycle, but less than the maximum learning rate tsmax of the previous training cycle.
  • the technical result is achieved due to the fact that the method of intelligent determination of tectonic disturbances includes:
  • each sub-cube of measured seismic data into a convolutional neural network whose training includes at least two training cycles, each of which consists of no more than 100 training epochs, in each cycle the learning rate (qt) on the current epoch decreases from the epoch to the epoch from the maximum learning rate in the cycle (Qmax) to the minimum learning rate in the cycle (Qmin) according to the law of cosine damping:
  • Qmin is a predetermined minimum learning rate, which is taken from 0 to 0.00001 ; r"
  • Tmax the maximum number of epochs in a cycle (on the current training cycle);
  • the technical result consists in obtaining a convolutional neural network (a system, a computer-readable medium containing a convolutional neural network), which improves the quality and accuracy of determining tectonic disturbances (faults) from a seismic record (seismic data), which allows you to work more efficiently with geological uncertainties, while providing the possibility of its rapid additional training and adjustment, which leads to a reduction in the time required to obtain a trained model of better quality, and, consequently, an increase in the speed of displaying high-quality information on the presence of tectonic faults.
  • a convolutional neural network a system, a computer-readable medium containing a convolutional neural network
  • the claimed technical result is achieved due to the fact that the method of training a neural network for the intelligent determination of tectonic disturbances includes:
  • the learning rate (Q t ) on the current epoch decreases from epoch to epoch from the maximum learning rate in the cycle (c max ) BEFORE the minimum learning rate in the cycle (Qmin), while the maximum learning rate of the next cycle is greater than the minimum learning rate of the previous cycle.
  • the neural network training system for the intelligent determination of tectonic disturbances includes: [0031] a convolutional neural network connected to a learning rate control block, wherein a subcube of the measured seismic data is fed to the convolutional neural network, the training of which includes at least two training cycles, each of which consists of no more than 100 training epochs ,
  • the learning rate control unit is configured to task the learning rate of the convolutional neural network, in which in each cycle the learning rate (qt) on the current epoch decreases from epoch to epoch from the maximum learning rate in the cycle (Qmax) to the minimum learning rate in a cycle (Qmin), while the maximum learning rate of the next cycle is greater than the minimum learning rate of the previous cycle.
  • the machine-readable medium for training the neural network for the intelligent determination of tectonic disturbances contains a computer program, when executed on the computer, the processor performs the following operations:
  • each sub-cube of measured seismic data is fed into a convolutional neural network that has been trained with at least two training cycles, each consisting of no more than 100 training epochs, in each cycle, the rate learning (Q t ) on the current epoch decreases from epoch to epoch from the maximum learning rate in the cycle ( ⁇ max ) TO the minimum learning rate In the cycle (Qmin), while the maximum learning rate of the next cycle is greater than the minimum learning rate of the previous cycle, but less than the maximum the learning rate ⁇ max of the previous learning cycle.
  • each sub-cube of measured seismic data is fed into a convolutional neural network whose training includes at least two training cycles, each consisting of at most 100 training epochs, in each cycle the learning rate (Q t ) on the current epoch decreases from epoch to epoch from the maximum learning rate in the cycle ( ⁇ max ) TO the minimum learning rate in the cycle (r[min) according to the law of cosine damping.
  • Qmin is a predetermined minimum learning rate, which is taken from 0 to 0.00001 ; max - initial learning rate in the cycle (learning rate at the first epoch of the current cycle);
  • Tmax the maximum number of training epochs in a cycle (on the current training cycle).
  • Qmin is a predetermined minimum learning rate, which is taken from 0 to 0.00001 ;
  • Tmax the maximum number of epochs in a cycle
  • N c _i number of the current learning cycle.
  • the learning rate ts ah on each training cycle is set to 0.001 arb. units.
  • the learning rate ts t ax of the previous training cycle is greater than the learning rate ts t ax of the subsequent training cycle, for example, from 0.01 to 0.0001 units.
  • the convolutional neural network is additionally fed with a training seismic data cube and its corresponding fault cube (training sample) containing the values 0 and 1 , where 0 corresponds to seismic data without faults, and 1 corresponds to seismic data containing faults.
  • the training of the convolutional neural network includes iterations in one training epoch, while in one iteration the obtained fault prediction cube is compared with the training sample fault cube, as a result of the comparison, errors are determined and errors are taken into account to optimize the weights of the convolutional neural network in a subsequent training iteration.
  • the quality of the trained model is determined by comparing the fault prediction cube with its corresponding validation set fault cube.
  • a validation set is a set of seismic data that did not participate in training. Each set of such data, as in the training sample, consists of two parts - a cube of seismic amplitudes and a corresponding fault cube.
  • the quality of the trained model can be checked by applying the model to the seismic cubes of the validation set and obtaining a forecast from them and comparing them with the correct (real) fault cubes. For each cube, its own accuracy value can be calculated.
  • the training of a convolutional neural network consists of five training cycles and one hundred epochs in at least the first four training cycles, with the quality of the trained model determined after each epoch of the fifth training cycle.
  • the quality of the trained model is determined using the Dice similarity coefficient: where A is the set of points responsible for the presence of a fault in the fault cube;
  • B is the set of points that are named as breakpoints at the output of the model.
  • the quality of the trained model is determined using the Jaccard similarity coefficient: where A is the set of points responsible for the presence of a fault in the fault cube;
  • B is the set of points that are named as breakpoints at the output of the model.
  • the assessment of the quality of the model occurs by calculating mathematical metrics that measure the degree of intersection of the real location of the faults on the seismic record with the predicted structure, thus actually translating the visual similarity of the geometries into a quantitative version.
  • the similarity coefficients of Dice K_dice-Sorensen measure
  • Jaccard KJaccard
  • Formulas (3) and (4) are shown schematically in Fig. 1. These metrics measure the degree of intersection, and, accordingly, the similarity of two intersecting sets and can assess how well and accurately the result of the model, the resulting structure of faults at the output of the algorithm, repeats the real location of tectonic faults (Fig.
  • K_dice and KJaccard tend to unity when a perfectly trained model is reached, but preferably K_dice and KJaccard are set in the range of 0.6 - 1. I.e. when the specified coefficients are reached, it is considered that the model has been obtained with the required quality.
  • the measured seismic data cube is prepared, which includes the following steps:
  • the division of the cube of measured seismic data into sub-cubes of seismic data is carried out with the intersection and normalization of the data, which is:
  • each sub-cube of seismic data is fed into the convolutional neural network in turn.
  • the collection of fault prediction subcubes into a fault prediction cube is performed by averaging the prediction values at the intersections of the subcubes.
  • an effective condition for using the learning process of a neural network model is to constantly decrease the learning rate within cycles, followed by a return to the initial rate with some decreasing factor. This improves the optimization of the weight of the neural network, since constantly decreasing the learning rate leads to the fact that the loss function of the model begins to converge into ever deeper and narrower local minima, which allows improving the quality of the proposed solution.
  • Velocity recovery allows you to set an additional impulse for the error function to move in an already given direction, which allows you to find even more optimal positions in terms of the loss function in the hyperspace of the model weights.
  • Figure 1 a schematic representation of the definition of the quality of the model using the Dice coefficient (K_dice - S ⁇ rensen measure) and Jaccard (KJaccard), on which:
  • Figure.2 a schematic representation of the process of training a neural network (obtaining a trained model for determining tectonic disturbances), in which
  • T is the number of epochs.
  • FIG. 5 is a schematic representation of the structure of a convolutional neural network in training or use, in which
  • Conv3D - 3D convolution layer Convolution 3D
  • BatchNorm - normalization layer (Batch Normalization);
  • Output channels 1 - number of output channels; sigmoid (x) - sigmoid function.
  • FIG. 6 A graph of the improvement in the quality of training of the model against the change in the learning rate, in which the training of the convolutional neural network includes five training cycles, with each cycle consisting of 100 training epochs, in which
  • Figure 7 a diagram of the process for obtaining a trained model for determining tectonic faults using validation set, on which 14 are seismic data cubes for model training.
  • FIG. 8 A schematic representation of the operation of a trained model using a validation sample, on which 15 are seismic data cubes to determine the quality of the trained model.
  • FIG. Figure 1 schematically shows two options for determining the quality of the trained model (convolutional neural network), while the larger the area of intersection of the blue and green cubes (the set of real faults and the set of predicted faults), the more accurately the model is trained, i.e. faults are more accurately predicted by the trained model.
  • the quality of the model may be determined after each training epoch and/or after each training cycle, or, for example, only on the last training cycle.
  • the convolutional neural network may be fed cubes of training seismic data and its corresponding fault cube (training sample) (Nt) as a whole or iterated (It), containing the values 0 and 1 , where 0 corresponds to seismic data without faults, and 1 corresponds to seismic data containing faults.
  • the training of a convolutional neural network (M) usually includes several iterations in one training epoch.
  • the number (size of iterations B) can be set by the operator, while in one iteration the obtained fault prediction cube is compared with the training sample fault cube, as a result of the comparison, errors and take into account errors to optimize the weights of the convolutional neural network in the subsequent training iteration (Fig. 2).
  • the validation set (Nv) can also be divided into iterations (lv).
  • the architecture of the claimed convolutional neural network usually consists of two parts (Fig. 5): an encoder that reduces the size of data using convolutional blocks 5 and extracts the most significant pieces of information necessary to solve the problem along its graph using dimensionality reduction blocks 6, and a decoder that transforms information into the desired domain (that is, from the domain of seismic amplitudes to the domain of the probability of a fault), successively moving to higher and higher levels of detail using the dimensionality increase block 7.
  • the encoder reduces the spatial amount of information along the X, Y, Z axes, but at the same time increases the number of channels (from 8 to 128) in the data (initial stage - 1 channel, amplitude), each of which is a map of the selected features of the seismic record.
  • the decoder using this information over multiple channels, expands the record to the initial volume and, at the beginning of this process, emphasizes the structural features of the seismic field, expressed by the presence of faults.
  • Encoder convolutional blocks 5 and decoder upscaling blocks 7 of appropriate sizes are also further concatenated to facilitate the learning process and transfer fine details to the final layers of the network.
  • the encoder consists of five convolutional blocks with a twofold increase in the number of channels in each, the first 4 of them end with an additional convolution operation with a kernel size of 2x2x2 and a step of 2 to reduce the size of information.
  • the fifth block ends with the first convolution transposition operation (kernel 2x2x2, step 2), which starts unfolding the data to the initial size.
  • decoder blocks which also end with a transposed convolution operation. They consistently return information to its original size while reducing the number of convolutional channels.
  • the decoder ends with a single convolution layer 8 with a kernel size of 1x1x1 and a number of channels of 1 , which is the final translation operation from a space consisting of many convolutional channels into a single value map, using the sigmoid function:
  • the main maximally separable layers of the proposed architecture are the following layers.
  • Convolution 3D layer is a convolutional filter. It accepts CXYZ three-dimensional data as input, where C is the number of channels, X is the width, Y is the length, Z is the height. Outputs transformed data of dimension CXYZ, where C is the number of channels after transformation, X is width, Y is length, Z is height.
  • the parameters to be set are the number of input data channels, the number channels at the output, the size of the convolutional filter (in the proposed architecture the dimensions 5x5x5, 2x2x2 and 1x1x1 can be used), step (in the proposed architecture it can be 1 and 2).
  • Cin - number of input channels (before convolution);
  • k - channel number in Fig. 5 digits indicate the number of channels: 8, 16, 32, 64, 128 in the convolution process, and 64, 32, 16 and 8 in the scanning process.
  • Convolution Transpose 3D is a convolutional filter. It accepts as input three-dimensional data of dimension C-X-Y-Z, where C is the number of channels, X is the width, Y is the length, Z is the height. Outputs transformed data of dimensions C-X-Y-Z, where C is the number of channels after transformation, X is width, Y is length, Z is height.
  • the parameters to be set are the number of input data channels, the number of output channels, the size of the convolutional filter (in the proposed architecture, there are only 2x2x2 dimensions), the step (in the proposed architecture, it is always equal to 2).
  • Normalization layer (Batch Normalization), which takes the data and rescales them in such a way as to avoid their displacement relative to the input next convolutional filter. It is located after the convolutional layers.
  • the activation function (PReLU) allows the network to create non-linear connections within itself, located between the convolutional layers.
  • the regularization layer with zero weights allows you to turn off certain neurons of the network during the learning process, thus preventing it from retraining any specific ones and forcing them to optimize all of them.
  • the encoder convolutional block 5 consists of Conv3D-BatchNorm-PReLU- Conv3D-BatchNorm-PReLU-DropOut3D layers connected in series (convolutional kernels have a size of 5x5x5, step 1), as well as a single Conv3D layer (kernel size 1x1x1 , step one).
  • the main input parameter is the number of channels of input information and the number of channels at the output. Passing information through itself, the layer transforms it, trying to bring it closer to the desired result (fault prediction cube).
  • a feature of the layer is that it performs the operation of element-by-element summation of the obtained result with the input data, to which the 1x1x1 convolution has been applied.
  • each encoder in addition to convolutional block 5, there is an additional Conv3D convolutional layer with a kernel size of 2x2x2, step 2, followed by a PReLU activation function, i.e. block 6 dimensionality reduction.
  • This block 6 is necessary to reduce the dimension and extract the most significant information for the neural network, which helps to train and apply the model faster, and also increases its stability.
  • the convolutional block 9 of the decoder repeats the architecture of the convolutional block of the encoder, except that the last layer is not a convolution layer, but a transposed convolution layer 7, which doubles the size of the input information in all three directions.
  • the convolutional neural network of the claimed structure and trained by the claimed method provides an increase in the speed, quality and accuracy of the selection of tectonic discontinuities (faults) from a seismic record (seismic data), which makes it possible to work more efficiently with geological uncertainties.
  • FIG. 6 it can be seen that when the learning rate is changed according to the stated principle, the accuracy of the trained model increases, while significant jumps in the increase in the quality of the model are observed when moving from cycle to learning cycle. At the same time, during the learning process, the error of the trained model is reduced (loss functions 10 and 11).
  • the use of the claimed methods, systems and computer-readable media that provide training for a convolutional neural network in addition to improving the quality of fault detection, reduces the time required to obtain a trained model of the required quality.
  • the training loss function 10 and the validation loss function 1 1 generally determine the level of prediction error
  • the accuracy training 12 and validation accuracy 13 determine the accuracy of reflection (representation) of faults (tectonic faults). As you can see, in the process of training the model, the prediction accuracy increases, and the error level decreases.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Geophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Geology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Physiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

Способ интеллектуального определения тектонических нарушений включает: получение куба измеренных сейсмических данных, деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных, подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, получение подкубов прогноза разломов по каждому подкубу сейсмических данных и сбор подкубов прогноза разломов в куб прогноза разломов.

Description

Описание
СИСТЕМА ДЛЯ ОПРЕДЕЛЕНИЯ ТЕКТОНИЧЕСКИХ НАРУШЕНИЙ ПО СЕЙСМИЧЕСКИМ ДАННЫМ
Техническая область
[0001] Настоящее изобретение относится к обработке сейсмических данных и, в частности, к системе и способу для надежного выявления и визуализации геологических разломов. Также изобретение относится к способу обработки и интерпретации сейсмических данных и может быть использовано на всех стадиях процессов изучения подземной структуры и работы на участках месторождений или с пластами, как на стадиях геологоразведочных работ, так и на стадиях разработки.
Предшествующий уровень техники
[0002] На данный момент существует ряд систем, нацеленных на упрощение задач выделения тектонических нарушений по сейсмическим данным, которые уже стали традиционным инструментами геологов и геофизиков. При этом все известные методики можно разделить на две группы - численные и интеллектуальные.
[0003] Наиболее применяемыми из численных являются атрибуты, рассчитываемые из амплитудной сейсмической записи, такие как Coherence, Semblance, Similarity. Они позволяют подчеркивать тектонические нарушения, но имеют свои недостатки. Являясь по сути прямым пересчетом из домена амплитуд, они крайне подвержены всем существующим видам шума, что не облегчают в значительной степени поставленную перед ними задачу. [0004] Из уровня техники известно техническое решение по патентному документу US6018498 «Автоматическое обнаружение и сбор сейсмических разломов» (дата приоритета: 02.09.1998, дата публикации: 25.01.2000). Реализованный на компьютере способ автоматического определения линии разлома, обнаруживаемой в трехмерном (3D) объеме сейсмических данных, содержащем множество сейсмических трасс, скомпонованных в виде множества точек данных, имеющих координаты х, у и z, определяющие физическое местоположение в упомянутых сейсмических данных. Причем указанный способ включает: преобразование указанного объема трехмерных сейсмических данных в объем данных плоскости разлома (FP), содержащий множество факторов вероятности, определение полосы указанных физических местоположений в указанном объеме данных FP, имеющих высокую вероятность нахождения в подземной плоскости разломов, обнаруживаемой в указанном объеме сейсмических данных, и преобразование упомянутой по меньшей мере одной полосы физических местоположений, имеющих высокую вероятность, в линию и отображение указанной линии в качестве линии разлома.
[0005] Общими признаками с заявленным изобретением является определение (визуализация) линий разломов, полученных из трехмерных сейсмических данных.
[0006] Система по патентному документу US6018498 компьютер, запрограммированный на выполнение следующих шагов способа: преобразование объема трехмерных сейсмических данных в объем данных плоскости разлома (FP); определение по меньшей мере одной полосы физических местоположений в объеме данных FP, имеющей высокую вероятность нахождения на подземной плоскости разлома, обнаруживаемой в упомянутом объеме сейсмических данных; преобразование упомянутой полосы физических местоположений, имеющих высокую вероятность, в линию и отображение указанной линии как линии разлома.
[0007] Недостатками способа и компьютерной системы по патентному документу US6018498 является невысокая точность проведения линии разлома между выявленными точками данных, при этом точность выявления линий разломов снижается при увеличении уровня шума или снижении качества сейсмоданных.
[0008] Из уровня техники известно техническое решение по патентному документу US9341729 «Амплитудно-контрастный сейсмический атрибут» (дата приоритета: 03.04.2012, дата публикации: 1 1.10.2012). Способ обеспечивает визуализацию сейсмических данных подземного (геологического) пласта, при котором получают поле разломов подземного пласта, где оцененное поле падения представляет собой меру отклонения стратиграфического слоя от плоского, выбор вокселя из сейсмического объема, извлечение компьютерным процессором из сейсмического объема элемента матричных данных, в котором элемент матричных данных содержит сейсмические данные, окружающие воксель в сейсмическом объеме, причем элемент матричных данных извлекается из сейсмического объема на основе значения предполагаемое наклонное поле, окружающее воксель. Далее осуществляют генерирование процессором компьютера и использование матричного оператора множества градиентов амплитуды из сейсмических данных в элементе матричных данных, нормализуют, используя множество градиентов амплитуды, значение амплитуды для воксела, чтобы получить нормализованное значение амплитуды для вокселя. После чего осуществляют генерирование с использованием нормализованного значения амплитуды изображения, представляющего часть подземного пласта.
[0009] Общими признаками является обеспечение возможности визуализации сейсмических данных с целью выявления геологических разломов.
[0010] Однако недостатками способа и системы обнаружения сейсмических разломов по патентному документу US9341729 является низкий уровень устойчивости к шуму, что приводит к тому, что система, реализующая способ, не выделяет разломы там, где имеется некачественная сейсмическая запись и тектонические нарушения были бы выделены традиционными алгоритмами. Кроме того, отсутствует возможность дообучения системы для работы в конкретных условиях или подстраивания при наличии значительного уровня шума.
[001 1] Перечисленные численные способы и системы определения разломов являются менее точными, т.к. результаты прогнозирования содержат множество шумов и ошибок.
[0012] Также известны интеллектуальные системы представлены такими решения, как Ant-Tracking (ант-трэкинг) и сверточные нейронные сети. Первое решение является надстройкой над ранее описанными атрибутами, что, конечно, повышает информативность первых, но все же крайне зависимо от шума в данных. Технологии на основе сверточных нейронных сетей в большинстве случаев, в отличие от заявленного способа и системы, работают с 2D данными, что не позволяет работать с кубами данных в трехмерном объеме, как следствие, они не имеют внутреннего механизма устойчивости и саморегуляризации за счет дополнительного пространства. Те же технологии, которые основаны на 3D сверточных нейронных сетях из другой области техники, реализованы на архитектурах, которые не способны обеспечить качественной тренировки (обучения) необходимого количества параметров и не имеют слоев, которые позволяли бы акцентировать работу сети именно на разломах.
[0013] Из уровня техники известен алгоритм отслеживания для обнаружения дефектов и разрывов сейсмической записи («Ant Tracking Algorithm for Surface Discontinuity Extraction-Faults Detection», Samina Hanif, Afifa Tariq, Ariba Imtiaz Ahmed and Aamna Hanif, IEEE, 2014 International Conference on Robotics and Emerging Allied Technologies in Engineering (iCREATE) Islamabad, Pakistan, April 22-24, 2014). Обнаружение разломов является важной частью интерпретации сейсмических изображений как на этапах исследования, так и на стадии разработки. Способ определяет, как сейсмическое изображение может быть обработано с помощью различных механизмов улучшения изображения, за которыми следует алгоритм отслеживания для поиска разломов. Способ основан на выявлении наиболее контрастных атрибутных зон, которые часто являются результатами влияния разломов и его реализации на одном или серии 2D изображений.
[0014] Общими признаками является получение изображения по полученным сейсмическим данным, на котором более качественно представлены геологические разломы.
[0015] Недостатками способа и системы определения разломов, известных из статьи «Ant Tracking Algorithm for Surface Discontinuity Extraction-Faults Detection», является недостаточный уровень устойчивости к шуму, а также отсутствие способности дообучения системы.
[0016] Использование сверточной нейронной сети с целью определения (выявления/ прогнозирования) тектонических нарушений на основе сейсмических данных обеспечивает более точное получение данных разломов, увеличивает скорость обработки данных и значительно снижает влияние шумов сейсмической записи на полученные результаты интерпретации.
Техническая задача
[0017] Заявленное техническое решение обеспечивает достижение технического результата, заключающегося в повышении качества и точности определения тектонических нарушений (разломов) по сейсмической записи (сейсмическим данным), что позволяет эффективнее работать с геологическими неопределенностями, а также в сокращении времени, необходимого для получения обученной модели лучшего качества за счет возможности более быстрого дообучения и настройки сверточной нейронной сети (модели), что приводит к увеличению скорости отображения качественной информации по наличию тектонических нарушений.
Решение задачи
[0018] Заявленный технический результат достигается за счет того, что способ интеллектуального определения тектонических нарушений включает:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных; - подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (Qmax) до минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных (из сверточной нейронной сети);
- сбор подкубов прогноза разломов в куб прогноза разломов.
[0019] Важной особенностью процесса обучения модели нейронной сети, предлагаемой в изобретении, является постоянное уменьшение скорости обучения внутри циклов с последующим повышением скорости обучения в последующем цикле относительно скорости обучения в последней эпохе предыдущего цикла. Это позволяет точнее оптимизировать веса нейронной сети, поскольку постоянное уменьшение скорости обучения приводит к тому, что функция потерь модели начинается сходится во все более глубокие и узкие локальные минимумы, что позволяет повышать качество предлагаемого решения при исключении возникновения дополнительных шумов или неточностей, а, следовательно, и точности определения разломов в трехмерных сейсмических данных. Восстановление скорости на следующем цикле позволят задать функции ошибки дополнительные импульс для движения в уже заданном направлении, что позволяет находить еще более оптимальные с точки зрения функции потерь в гиперпространстве весов модели.
[0020] Заявленный способ обеспечивает более высокий уровень устойчивости к шуму (за счет интеллектуальной системы и управления скоростью обучения), при этом модель не выделяет разломы там, где имеется некачественная сейсмическая запись, при этом в результате использования некачественных сейсмических данных на традиционных алгоритмах, ранее известных из уровня техники, были бы выделены тектонические нарушения на участках, на которых они отсутствуют. То есть применение предлагаемого решения позволяет уменьшить количество ложно позитивных срабатываний, таким образом уменьшая время обработки полученного результата специалистом и получения явной структурной интерпретации сейсмических данных.
[0021] За счет использования заявленной сверточной нейронной сети обеспечивается возможность выделения нарушений без разрыва сплошности сейсмического сигнала, с чем не справляются традиционные методы. Данный эффект повышается благодаря наличию в обучающей выборке подобных примеров.
[0022] Известно, что сейсмические данные являются результатом записи амплитуд сейсмических волн, которые были получены сейсмическими приемниками после отражения энергии от пластов горных пород. Начальный импульс, образованный каким-либо физическим воздействием (взрыв, виброисточник, сброс груза и др.) на поверхности, распространяется вглубь земной коры, где при встрече с контрастной акустической границей отражается и преломляется по законам оптики, а после чего возвращается к поверхности и может быть зарегистрирован. Такая природа получения данных в значительной степени отличает сейсмические данные от результатов каких-либо других исследований (например, компьютерной или магнитно-резонансной томографии) и получаемых ими данных, так как накладываются значительные ограничения на свойства получаемого сигнала. Свойства последнего крайне зависят от глубины (сигнал затухает, в значительной степени меняются амплитуда и частотный состав волн, что ведет к тому, что на большей глубине сложнее выделяться объекты), физики распространения волн (появление кратно отраженных и дефрагированных волн), свойств пород (их поглощающая способность, а также низкая акустическая контрастность), условия создания и приема импульса, а также технические особенности конкретной аппаратуры приема.
[0023] Дополнительно обеспечивается возможность дообучения сверточной нейронной сети для работы в конкретных условия или для подстраивания под опыт конкретного специалиста, использующего заявленный способ, систему или машиночитаемый носитель. Возможность дообучения позволяет быстро расширить сеть на новые типы разломов и геологических ситуаций, не требуя значительных вычислительных мощностей или временных ресурсов. Примером может выступать перенос сети, обученной для сейсмических данных, полученных по результатам работ в Оренбургской области, на данные Северного моря, которые содержат новые типы разломов, отсутствующие тренировочной выборке (например, листрические разломы Северного моря, отсутствующие в Оренбурге, представленном большим количеством надвиговых разломов). Наличие небольшого набора данных с уже выделенными листрическими разломами может позволить дообучить сеть, тренировка которой происходила на данных Оренбурга, и быстро применять ее в дальнейшей работе на площадях Северного Моря. Простота дообучения (настройки) обученной модели (сверточной нейронной сети) позволяет сократить время, которое необходимо для получения обученной модели необходимого качества для сейсмических данных с различным уровнем шума или для применения модели на разных типах нефтяных месторождений, а, следовательно, увеличить скорость отображения точной информации по наличию (отсутствию) тектонических нарушений за счет определения (контролирования) необходимой скорости обучения (дообучения) модели на циклах (эпохах).
[0024] Также заявленный технический результат достигается за счет того, что система интеллектуального определения тектонических нарушений включает:
- блок входных данных, содержащий по меньшей мере куб измеренных сейсмических данных;
- блок подготовки, соединенный с блоком входных данных, при этом в блоке подготовки осуществляется деление куба измеренных сейсмических данных на подкубы сейсмических данных;
- сверточную нейронную сеть, соединенную с блоком подготовки, при этом осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения В цикле (Цт1п), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- блок прогноза, соединенный со сверточной нейронной сетью, при этом в блоке прогноза осуществляется получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- блок сбора данных, соединенный с блоком прогноза, при этом в блоке сбора данных осуществляется сбор подкубов прогноза разломов в куб прогноза разломов.
[0025] Технический результат достигается за счет того, что машиночитаемый носитель интеллектуального определения тектонических нарушений содержит компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла; - получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
[0026] Технический результат достигается за счет того, что способ интеллектуального определения тектонических нарушений включает:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения цтах предыдущего цикла обучения.
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
[0027] Технический результат достигается за счет того, что способ интеллектуального определения тектонических нарушений включает:
- получение куба измеренных сейсмических данных; - деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (Qmax) до минимальной скорости обучения в цикле (Qmin) по закону косинусного затухания:
Figure imgf000015_0001
, где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ; r"|max ■ начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи внутри цикла (на текущем цикле обучения);
Ттах - максимальное количество эпох в цикле (на текущем цикле обучения);
Ncycies - общее количество циклов;
Nc_i - номер текущего цикла обучения;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных; - сбор подкубов прогноза разломов в куб прогноза разломов.
[0028] Также технический результат заключается в получении сверточной нейронной сети (системы, машиночитаемого носителя, содержащих сверточную нейронную сеть), которая обеспечивает повышение качества и точности определения тектонических нарушений (разломов) по сейсмической записи (сейсмическим данным), что позволяет эффективнее работать с геологическими неопределенностями, при этом обеспечивается возможность ее быстрого дообучения и настройки, что приводит к сокращению времени, необходимого для получения обученной модели лучшего качества, а, следовательно, повышении скорости отображения качественной информации по наличию тектонических нарушений.
[0029] Заявленный технический результат достигается за счет того, что способ обучения нейронной сети для интеллектуального определения тектонических нарушений включает:
- подачу подкуба сейсмических данных в сверточную нейронную сеть;
- проведение не менее, чем двух циклов обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
[0030] Технический результат достигается за счет того, что система обучения нейронной сети для интеллектуального определения тектонических нарушений включает: [0031] сверточную нейронную сеть, соединенную с блоком управления скоростью обучения, при этом осуществляется подача подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения,
[0032] при этом блок управления скоростью обучения выполнен с возможностью задачи скорости обучения сверточной нейронной сети, при котором в каждом цикле скорость обучения (qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (Qmax) до минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
[0033] Технический результат достигается за счет того, что машиночитаемый носитель обучения нейронной сети для интеллектуального определения тектонических нарушений содержит компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
- подачу подкуба сейсмических данных в сверточную нейронную сеть;
- проведение не менее, чем двух циклов обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения в цикле (цт!п), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла. [0034] В одном из вариантов осуществления изобретения осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения В цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения цтах предыдущего цикла обучения.
[0035] В одном из вариантов осуществления изобретения осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения в цикле (r[min) по закону косинусного затухания.
[0036] В одном из вариантов осуществления изобретения закон косинусного затухания определяется по формуле:
Figure imgf000018_0001
, где Qt- скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ; max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла (на текущем цикле обучения);
Ттах - максимальное количество эпох обучения в цикле (на текущем цикле обучения).
[0037] В одном из вариантов осуществления изобретения закон косинусного затухания определяется по формуле: lit = Ibnin + (Umax - (1/Ncycles') * (Nc_i - 1) * nmax) - цт£п) * (1 + rfle
Figure imgf000019_0001
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Qmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи внутри цикла;
Ттах - максимальное количество эпох в цикле;
Ncycies - общее количество циклов;
Nc_i - номер текущего цикла обучения.
[0038] Такие варианты косинусных функций (1) и (2) позволяют устойчиво приближаться к минимумам функции потерь. А перезапуск на каждом цикле дает возможность "подтолкнуть" обучение, придав сети импульса движение в ту сторону, в которую ее "скатывала" функция потерь на предыдущем цикле. Таким образом, обеспечивается движение к наиболее оптимальным минимумам на всех масштабах этой функции.
[0039] Предпочтительно скорость обучения цтах на каждом цикле обучения задается 0,001 усл.ед. Однако, в одном из вариантов выполнения изобретения скорость обучения цтах предыдущего цикла обучения больше скорости обучения цтах последующего цикла обучения, например от 0,01 до 0,0001 усл.ед.
[0040] В одном из вариантов осуществления изобретения в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1 , где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
[0041] В одном из вариантов осуществления изобретения обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
[0042] В одном из вариантов осуществления изобретения после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки. [0043] Валидационная выборка - набор сейсмических данных, которые не участвовали в обучении. Каждый набор таких данных, как и в тренировочной выборке, состоит из двух частей - куб сейсмических амплитуд и соответствующий ему куб разломов.
[0044] На эпохах не только последнего цикла обучения может быть проверено качество обученной модели, применив модель к сейсмическим кубам валидационной выборки и получив по ним прогноз и сравнив с правильными (реальными) кубами разломов. По каждому кубу может быть подсчитано свое значение точности.
[0045] В одном из вариантов осуществления изобретения обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
[0046] В одном из вариантов осуществления изобретения определяется качество обученной модели с использованием коэффициента сходства Дайса:
Figure imgf000021_0001
где А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[0047] В одном из вариантов осуществления изобретения определяется качество обученной модели с использованием коэффициента сходства Жаккара:
Figure imgf000022_0001
где A - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[0048] Таким образом, оценка качества работы модели (точности модели) происходит с помощью расчета математических метрик, которые измеряют степень пересечения реального расположения разломов на сейсмической записи с предсказанной структурой, таким образом фактически переводя визуальное сходство геометрий в количественный вариант. Математической метрикой качества решения могут служить коэффициенты сходства Дайса (K_dice- мера Сёренсена) и/или Жаккара (KJaccard). Схематично формулы (3) и (4) представлены на фиг. 1. Данные метрики измеряют степень пересечения, а соответственно, и сходства двух пересекающихся множеств и могут оценивать насколько качественно и точно результат модели, полученная структура разломов на выходе алгоритма, повторяет реальное расположение тектонических нарушений (фиг. 1). Коэффициенты K_dice и KJaccard стремятся к единице при достижении идеально обученной модели, но предпочтительно K_dice и KJaccard задаются в пределах 0,6 - 1. Т.е. при достижении заданных коэффициентов считается, что модель получена необходимого качества.
[0049] В результате осуществляется интеллектуальное определение тектонических нарушений, при котором может определяться качество обученной модели с целью достижения необходимой точности прогнозирования на текущем цикле и возможностью перехода на следующий цикл обучения.
[0050] В одном из вариантов осуществления изобретения перед делением куба измеренных сейсмических данных осуществляется подготовка куба измеренных сейсмических данных, которая включает следующие этапы:
- вычисляют среднее значение амплитуды в кубе измеренных сейсмических данных и приводят среднее значение куба к значению 0;
- сужают распределение амплитуд сейсмических данных в диапазон от 1-го до 99-го перцентилей;
- определяют стандартное отклонение и делят все значения амплитуд на стандартное отклонение.
[0051] В одном из вариантов осуществления изобретения деление куба измеренных сейсмических данных на подкубы сейсмических данных осуществляется с пересечением и их нормированием данных, при котором осуществляется:
- вычисление среднего значения амплитуды в каждом подкубе сейсмических данных и приводят средние значения подкубов к значению 0;
- определение стандартного отклонения каждого подкуба и деление всех значений амплитуд на соответствующее этому подкубу стандартное отклонение.
[0052] В одном из вариантов осуществления изобретения подачу каждого подкуба сейсмических данных в сверточную нейронную сеть осуществляется поочередно. [0053] В одном из вариантов осуществления изобретения сбор подкубов прогноза разломов в куб прогноза разломов осуществляется осредняя значения прогноза в пересечениях под кубов.
[0054] Таким образом, эффективным условием использования процесса обучения модели нейронной сети является постоянное уменьшение скорости обучения внутри циклов с последующим возвращением к начальной скорости с некоторым уменьшающим фактором. Это повышает оптимизацию веса нейронной сети, поскольку постоянно уменьшение скорости обучения приводит к тому, что функция потерь модели начинается сходится во все более глубокие и узкие локальные минимумы, что позволяет повышать качество предлагаемого решения. Восстановление скорости позволяет задать функции ошибки дополнительный импульс для движения в уже заданном направлении, что позволяет находить еще более оптимальные с точки зрения функции потерь позиции в гиперпространстве весов модели.
Краткое описание чертежей
Заявленное изобретение подтверждается следующими фигурами.
Фигура. 1
[0055] [Фиг.1] схематичное изображение определение качества работы модели с использованием коэффициента Дайса (K_dice- мера Сёренсена) и Жаккара (KJaccard), на которых:
1 - множество реальных разломов;
2 - множество предсказанных разломов.
Фигура.2 [0056] [Фиг.2] схематичное изображение процесса обучения нейронной сети (получение обученной модели определения тектонических нарушений), в которой
Nt - тренировочная выборка;
Nv - валидационная выборка;
М - нейросетевая модель (сверточная нейронная сеть);
Е - искомая точность определения разломов;
В - размер итерации;
It - разбиение тренировочной выборки на итерации; lv — разбиение валидационной выборки на итерации;
Т - количество эпох.
Фигура.З
[0057] [Фиг.З] зависимость скорости обучения от номера эпохи при цтах = const в циклах обучения.
Фигура.4
[0058] [Фиг.4] зависимость скорости обучения от номера эпохи при снижении г[тах в каждом последующем цикле обучения.
Фигура.5
[0059] [Фиг.5] схематичное изображение структуры сверточной нейронной сети в процессе обучения или использования, в которой
3 - куб сейсмических данных для обучения (или для прогноза, если используется обученная модель);
4 - прогнозный куб разломов;
5 - сверточный блок энкодера, в котором Conv3D - сверточный слой 3D (Convolution 3D);
BatchNorm - нормализационный слой (Batch Normalization);
PReLU - функция активации;
Dropout3D - слой регуляризации с занулением весов;
6 - блок уменьшения размерности,
7 - блок увеличения размерности, в котором
Conv Transpose3D - транспонированный сверточный слой 3D;
8 - единичный слой свертки, в котором
Output channels = 1 - количество выходных каналов; sigmoid (х) - сигмоидальная функция.
9 - сверточный блок декодера.
Фигура.6
[0060] [Фиг.6] график зависимости повышения качества обучения модели от изменения скорости обучения, при котором обучение сверточной нейронной сети включает пять циклов обучения, при этом каждый цикл состоит из 100 эпох обучения, в которой
10 - функция потерь (ошибки) на обучении;
11 - функция потерь (ошибки) на валидации;
12 - функция точности на обучении;
13 - функция точности на валидации.
Фигура.7
[0061] [Фиг.7] схема процесса получения обученной модели определения тектонических нарушений с использование валидационной выборки, на которой 14 - кубы сейсмических данных для обучения модели.
[0062] [Фиг.8] схематичное представление работы обученной модели с использованием валидационной выборки, на которой 15 - кубы сейсмических данных для определения качества обученной модели.
Описание вариантов осуществления
[0063] На фиг. 1 схематично показаны два варианта определения качества работы обученной модели (сверточной нейронной сети), при этом, чем больше площадь пересечения синего и зеленого кубов (множества реальных разломов и множества предсказанных разломы), тем точнее обучена модель, т.е. точнее предсказаны разломы обученной моделью.
[0064] Как указано выше качество модели может определяться после каждой эпохи обучения и/или после каждого цикла обучения или, например, только на последнем цикле обучения.
[0065] В сверточную нейронную сеть могут подаваться кубы сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка) (Nt) в целом или разбитая на итерации (It), содержащий значения 0 и 1 , где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы. Обучение сверточной нейронной сети (М) обычно включает несколько итераций в одной эпохе обучения. Количество (размер итераций В) может быть задано оператором, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения (фиг. 2). А также после каждой эпохи, по меньшей мере последнего цикла обучения, определяют качество обученной модели, при этом сравнивают куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки (Nv). Валидационная выборка (Nv) может быть также разбита на итерации (lv).
[0066] Заявленный способ интеллектуального определения тектонических нарушений включает получение куба измеренных сейсмических данных (на фиг. не показан), деление куба измеренных сейсмических данных на подкубы сейсмических данных. После чего осуществляют подачу каждого подкуба сейсмических данных в сверточную нейронную сеть, обучение которой состоит, например, из пяти циклов, каждый цикл состоит, например, из 100 эпох обучения, при этом в каждом цикле скорость обучения снижается, например, от цтах = 0,001 усл.ед. до 0 (Цтт) по закону косинусного затухания по формуле (1) (фиг. 4). Кроме того, скорость обучения цтах может снижаться при переходе на следующий цикл (фиг. 5): на первом цикле обучения цтах = 0,001 усл.ед., на втором цикле обучения цтах = 0,0008 усл.ед., на третьем цикле обучения цтах = 0,0006 усл.ед., на четвертом цикле обучения Цтах = 0,0004 усл.ед., на ПЯТОМ цикле обучения Qmax = 0,0002 усл.ед., определенные, например, по формуле (2).
[0067] В результате получают несколько подкубов прогноза разломов по каждому подкубу сейсмических данных, после чего осуществляют сбор подкубов прогноза разломов в куб прогноза разломов. [0068] Архитектура заявленной сверточной нейронной сети обычно состоит из двух частей (фиг. 5): энкодера, уменьшающего размер данных с помощью сверточных блоков 5 и выделяющего наиболее значимые части информации необходимые для решения задачи вдоль своего графа с помощью блоков уменьшения размерности 6, и декодера, трансформирующего информацию в нужный домен (то есть из домена сейсмических амплитуд в домен вероятности наличия разлома), последовательно переходя на все более высокие уровни детализации с использованием блока увеличения размерности 7.
[0069] Вдоль своего графа вычислений энкодер уменьшает пространственный объем информации по осям X, Y, Z, но при этом увеличивает количество каналов (с 8 до 128) в данных (начальный этапа - 1 канал, амлитудный), каждый из которых представляет из себя карту выделенных особенностей сейсмической записи. Декодер же, используя эту информацию по множеству каналов, разворачивает запись к начальному объему и входе этого процесса подчеркивает структурные особенности сейсмического поля, выраженные наличием разломов.
[0070] Сверточные блоки 5 энкодера и блоки 7 увеличения размерности декодера соответствующих размеров также дополнительно конкатенируются для облегчения процесса обучения и передачи мелких деталей на конечные слои сети.
[0071] При этом энкодер состоит из пяти сверточных блоков с двухкратным увеличением количества каналов в каждом, 4 первых из них заканчиваются дополнительной операцией свертки с размером ядра 2x2x2 и шагом 2 для уменьшения размера информации. Таким образом, информация уменьшается в объеме, но увеличивается количество выделяемых особенностей в ней. Пятый блок завершается первой операцией транспонирования конволюции (ядро 2x2x2, шаг 2), который начинает разворачивать данные к начальному размеру.
[0072] Далее следует четыре блока декодера, которые также завершаются операцией транспонированной конволюции. Они последовательно возвращают информацию к первоначальному размеру при этом уменьшая количество сверточных каналов. Завершается декодер единичным слоем свертки 8 с размером ядра 1x1x1 и количеством каналов 1 , который представляет собой конечную операцию перевода от пространства, состоящего из множества сверточных каналов в единую карту значений, применяя при этом сигмоидальную функцию:
1 sigmoid (х) = 1 + &х
[0073] Применение этой функции позволяет трансформировать безразмерные значения выхода нейронной сети к диапазону от 0 до 1 , где 1 отвечает за точное наличие разлома, а 0 за его отсутствие.
[0074] Основными максимально разделимыми слоями предлагаемой архитектуры являются следующие слои.
[0075] Сверточный слой 3D (Convolution 3D) представляет из себя сверточный фильтр. Принимает на вход трехмерные данные размерности C-X-Y-Z, где С - количество каналов, X - ширина, Y - длина, Z - высота. На выход отдает трансформированные данные размерности C-X-Y-Z, где С - количество каналов после трансформации, X - ширина, Y - длина, Z - высота. Задаваемые параметры - количество каналов входных данных, количество каналов на выходе, размер сверточного фильтра (в предлагаемой архитектуре могут быть использованы размерности 5x5x5, 2x2x2 и 1x1x1), шаг (в предлагаемой архитектуре может быть 1 и 2).
[0076] Внутри слоя свертка происходит по следующей формуле:
Figure imgf000031_0001
input Ni, k) , где
Ni - номер куба выборки (тренировочной);
Cout - количество выходных каналов (после свертки);
Cin - количество входных каналов (до свертки); к - номер канала, на фиг. 5 цифрами обозначено количество каналов: 8, 16, 32, 64, 128 в процессе свертки, и 64, 32, 16 и 8 в процессе развертки.
[0077] Транспортированный сверточный слой 3D (Convolution Transpose 3D) представляет из себя сверточный фильтр. Принимает на вход трехмерные данные размерности C-X-Y-Z, где С - количество каналов, X - ширина, Y - длина, Z - высота. На выход отдает трансформированные данные размерности C-X-Y-Z, где С - количество каналов после трансформации, X - ширина, Y - длина, Z - высота. Задаваемые параметры - количество каналов входных данных, количество каналов на выходе, размер сверточного фильтра (в предлагаемой архитектуре бывает только размерности 2x2x2), шаг (в предлагаемой архитектуре всегда равен 2).
[0078] Нормализационный слой (Batch Normalization), который принимает данные и производит их перемасштабирование таким образом, чтобы избежать их смещения относительно входа следующего сверточного фильтра. Располагается после сверточных слоев.
[0079] Функция активации (PReLU) позволяет сети создавать внутри себя нелинейные связи, располагается между сверточными слоями.
[0080] Слой регуляризации с занулением весов (Dropout3D) позволяет в процессе обучения отключать определенные нейроны сети, таким образом не позволяя ей переобучить какие-то конкретные из них и заставляя оптимизировать их все.
[0081] Слой, описанные выше, позволяют комбинировать промежуточные блоки энкодера и декодера.
[0082] Таким образом, сверточный блок 5 энкодера состоит из последовательно соединенных слоев Conv3D-BatchNorm-PReLU- Conv3D-BatchNorm-PReLU-DropOut3D (сверточные ядра имеют размер 5x5x5, шаг 1), а также единственного слоя Conv3D (размер ядра 1x1x1 , шаг 1). Основным входным параметром является количество каналов входной информации и количество каналов на выходе. Пропуская информацию через себя слой ее трансформирует, пытаясь приблизить к необходимому результату (кубу прогноза разломов). Особенностью работы слоя является то, что он производит операцию поэлементного суммирования полученного результата с входными данными, к которым была применена свертка размерностью 1x1x1.
[0083] На выходе каждого энкодера, кроме сверточного блока 5, присутствует дополнительный сверточный слой Conv3D с размером ядра 2x2x2, шагом 2, с последующей функцией активацией PReLU, т.е. блок 6 уменьшения размерности. Этот блок 6 необходим для уменьшения размерности и извлечения наиболее значимой для нейронной сети информации, что помогает быстрее проводить обучение и применение модели, а также увеличивает ее устойчивость.
[0084] Сверточный блок 9 декодера повторяет архитектуру сверточного блока энкодера за исключением того, что последним слоем является не слой свертки, а слой транспонированной конволюции 7, увеличивающий размер входной информации по всем трем направлениям в два раза.
[0085] В результате сверточная нейронная сеть заявленной структуры и обученная заявленным способом обеспечивает повышение скорости, качества и точности выделения тектонических разрывных нарушений (разломов) по сейсмической записи (сейсмическим данным), что позволяет эффективнее работать с геологическими неопределенностями.
[0086] На фиг. 6 видно, что при изменении скорости обучения по заявленному принципу повышается точность обученной модели, при этом наблюдаются значительные скачки увеличения качества модели при переходе от цикла к циклу обучения. При этом в процессе обучения снижнижается ошибка работы обученной модели (функции потерь 10 и 11). В целом использование заявленных способов, систем и машиночитаемых носителей, обеспечивающих обучение сверточной нейронной сети, кроме повышения качества определения разломов, обеспечивают сокращение времени, необходимое для получения обученной модели необходимого качества. На фиг. 6 функция потерь на обучении 10 и функция потерь на валидации 1 1 в целом определяют уровень ошибки прогнозирования, а точность обучения 12 и точность валидации 13 определяют точность отражения (представления) разломов (тектонических нарушений). Как видно, в процессе обучения модели точность прогнозирования повышается, а уровень ошибки снижается.
[0087] Проведено тестирование разработанного решения для куба сейсмических данных, полученного по одному из активов Компании, в результате которого доказано, что предлагаемые системы, способы и машиночитаемые носители не уступают и даже превосходят существующие алгоритмы для решения поставленной задачи, а результатом применения заявленного изобретения является получение модели (изображения) менее подверженной шуму, способной качественно выделять тектонические нарушения (фиг. 8).

Claims

Формула
[Пункт 1] Способ интеллектуального определения тектонических нарушений, включающий:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
[Пункт 2] Способ интеллектуального определения тектонических нарушений по п.1 , при котором осуществляют подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (r[min), при этом максимальная скорость обучения
33 следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
[Пункт 3] Способ интеллектуального определения тектонических нарушений по п.1 , при котором осуществляют подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (цгтпп) по закону косинусного затухания.
[Пункт 4] Способ интеллектуального определения тектонических нарушений по п.З, при котором закон косинусного затухания определяется по формуле: ~~ ta)
, где
Figure imgf000036_0001
Figure imgf000036_0002
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Qmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Ттах - максимальное количество эпох обучения в цикле.
34
[Пункт 5] Способ интеллектуального определения тектонических нарушений по п.З, при котором закон косинусного затухания определяется по формуле:
Figure imgf000037_0001
(1 + cos ( u- * , где \ тах / /
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Птах - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи внутри цикла;
Ттах - максимальное количество эпох в цикле;
Ncycies - общее количество циклов;
Nc_i - номер текущего цикла обучения.
[Пункт 6] Способ интеллектуального определения тектонических нарушений по п. 1 , при котором в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1 , где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
[Пункт 7] Способ интеллектуального определения тектонических нарушений по п. 6, при котором обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
[Пункт 8] Способ интеллектуального определения тектонических нарушений по п. 1 , при котором после каждой эпохи, по меньшей мере последнего цикла обучения, определяют качество обученной модели, при этом сравнивают куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
[Пункт 9] Способ интеллектуального определения тектонических нарушений по п.1 , при котором обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяют качество обученной модели.
[Пункт 10] Способ интеллектуального определения тектонических нарушений по любому из пп. 8, 9, при котором определяют качество обученной модели с использованием коэффициента сходства Дайса:
Figure imgf000038_0001
где А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 1 1] Способ интеллектуального определения тектонических нарушений по любому из пп. 8, 9, при котором определяют качество обученной модели с использованием коэффициента сходства Жаккара:
Figure imgf000039_0001
где A - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 12] Способ интеллектуального определения тектонических нарушений по п. 1 , при котором перед делением куба измеренных сейсмических данных осуществляют подготовку куба измеренных сейсмических данных, которая включает следующие этапы:
- вычисляют среднее значение амплитуды в кубе измеренных сейсмических данных и приводят среднее значение куба к значению 0;
- сужают распределение амплитуд сейсмических данных в диапазон от 1 -го до 99-го перцентилей;
- определяют стандартное отклонение и делят все значения амплитуд на стандартное отклонение.
[Пункт 13] Способ интеллектуального определения тектонических нарушений по п.1 , при котором деление куба измеренных сейсмических данных на подкубы сейсмических данных осуществляют с пересечением и их нормированием данных, при котором осуществляют:
- вычисление среднего значения амплитуды в каждом подкубе сейсмических данных и приводят средние значения подкубов к значению 0;
37 - определение стандартного отклонения каждого подкуба и деление всех значений амплитуд на соответствующее этому подкубу стандартное отклонение.
[Пункт 14]
Способ интеллектуального определения тектонических нарушений по п. 1 , при котором подачу каждого подкуба сейсмических данных в сверточную нейронную сеть осуществляют поочередно.
[Пункт 15] Способ интеллектуального определения тектонических нарушений по п.13, при котором сбор подкубов прогноза разломов в куб прогноза разломов осуществляют осредняя значения прогноза в пересечениях подкубов.
[Пункт 16] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений, включающий:
- подачу подкуба сейсмических данных в сверточную нейронную сеть;
- проведение не менее, чем двух циклов обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
[Пункт 17] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.16, при котором осуществляют подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение
38 которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения В цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
[Пункт 18] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.16, при котором осуществляют подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения в цикле (r[min) по закону косинусного затухания.
[Пункт 19] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.18, при котором закон косинусного затухания определяется по формуле:
Figure imgf000041_0001
, где
Qt - скорость обучения на текущей эпохе; Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ; max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Ттах - максимальное количество эпох обучения в цикле.
[Пункт 20] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.18, при котором закон косинусного затухания определяется по формуле:
Figure imgf000042_0001
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Qmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи внутри цикла;
Ттах - максимальное количество эпох в цикле;
Ncycies - общее количество циклов;
Nc_i - номер текущего цикла обучения.
[Пункт 21] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.16, при котором в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий
40 ему куб разломов (тренировочная выборка), содержащий значения 0 и 1 , где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
[Пункт 22] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.21 , при котором обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
[Пункт 23] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.16, при котором после каждой эпохи, по меньшей мере последнего цикла обучения, определяют качество обученной модели, при этом сравнивают куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
[Пункт 24] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.16, при котором обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяют качество обученной модели.
[Пункт 25] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 23, 24, при котором определяют качество обученной модели с использованием коэффициента сходства Дайса:
41
Figure imgf000044_0001
где A - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 26] Способ обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 23, 24, при котором определяют качество обученной модели с использованием коэффициента сходства Жаккара:
Figure imgf000044_0002
где А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 27] Система интеллектуального определения тектонических нарушений, включающая:
- блок входных данных, содержащий по меньшей мере куб измеренных сейсмических данных;
- блок подготовки, соединенный с блоком входных данных, при этом в блоке подготовки осуществляется деление куба измеренных сейсмических данных на подкубы сейсмических данных;
- сверточную нейронную сеть, соединенную с блоком подготовки, при этом осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение
42 которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения В цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- блок прогноза, соединенный со сверточной нейронной сетью, при этом в блоке прогноза осуществляется получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- блок сбора данных, соединенный с блоком прогноза, при этом в блоке сбора данных осуществляется сбор подкубов прогноза разломов в куб прогноза разломов.
[Пункт 28] Система интеллектуального обучения тектонических нарушений по п.27, в которой осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
[Пункт 29] Система интеллектуального определения тектонических нарушений по п.27, в которой осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную
43 нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (Qmin) по закону косинусного затухания.
[Пункт 30] Система интеллектуального определения тектонических нарушений по п.29, в которой закон косинусного затухания определяется по формуле:
Figure imgf000046_0001
, где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Птах - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Ттах - максимальное количество эпох обучения в цикле.
[Пункт 31] Система интеллектуального определения тектонических нарушений по п.29, в которой закон косинусного затухания определяется по формуле:
Figure imgf000046_0002
, где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Птах - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи внутри цикла;
Ттах - максимальное количество эпох в цикле;
Ncycies - общее количество циклов;
Nc_i - номер текущего цикла обучения.
[Пункт 32] Система интеллектуального определения тектонических нарушений по п.27, в которой в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1 , где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
[Пункт 33] Система интеллектуального определения тектонических нарушений по п.32, в которой обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивается полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяются ошибки и учитываются ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
45
[Пункт 34] Система интеллектуального определения тектонических нарушений по п.27, в которой после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
[Пункт 35] Система интеллектуального определения тектонических нарушений по п.27, в которой обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
[Пункт 36] Система интеллектуального определения тектонических нарушений по любому из пп. 34, 35, в которой определяется качество обученной модели с использованием коэффициента сходства Дайса:
Figure imgf000048_0001
-где
А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов. ;
[Пункт 37] Система интеллектуального определения тектонических нарушений по любому из пп. 34, 35, в которой определяется качество обученной модели с использованием коэффициента сходства Жаккара:
Figure imgf000048_0002
46 , где
A - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 38] Система интеллектуального определения тектонических нарушений по п. 27, в которой перед делением куба измеренных сейсмических данных осуществляется подготовка куба измеренных сейсмических данных, которая включает следующие этапы:
- вычисляется среднее значение амплитуды в кубе измеренных сейсмических данных и приводят среднее значение куба к значению 0;
- сужается распределение амплитуд сейсмических данных в диапазон от 1 -го до 99-го перцентилей;
- определяется стандартное отклонение и делятся все значения амплитуд на стандартное отклонение.
[Пункт 39] Система интеллектуального определения тектонических нарушений по п.27, в которой деление куба измеренных сейсмических данных на подкубы сейсмических данных осуществляется с пересечением и их нормированием данных, при котором осуществляется:
- вычисление среднего значения амплитуды в каждом подкубе сейсмических данных и приводят средние значения подкубов к значению 0;
47 - определение стандартного отклонения каждого подкуба и деление всех значений амплитуд на соответствующее этому подкубу стандартное отклонение.
[Пункт 40] Система интеллектуального определения тектонических нарушений по п. 27, в которой подачу каждого подкуба сейсмических данных в сверточную нейронную сеть осуществляется поочередно.
[Пункт 41] Система интеллектуального определения тектонических нарушений по п.39, в которой сбор подкубов прогноза разломов в куб прогноза разломов осуществляется осредняя значения прогноза в пересечениях подкубов.
[Пункт 42] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений, включающая: сверточную нейронную сеть, соединенную с блоком управления скоростью обучения, при этом осуществляется подача подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения; блок управления скоростью обучения выполнен с возможностью задачи скорости обучения сверточной нейронной сети, при котором в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (Цтах) ДО МИНИМЭЛЬНОЙ СКОРОСТИ обучения В цикле ( min), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
48
[Пункт 43] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.42, в которой осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем в два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (Г[тах) ДО минимальной СКОРОСТИ ОбуЧвНИЯ В цикле ( min), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
[Пункт 44] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.42, в которой осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (Г[тах) ДО минимальной СКОРОСТИ ОбуЧвНИЯ В цикле (Qmin) по закону косинусного затухания.
[Пункт 45] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.44, в которой закон косинусного затухания определяется по формуле:
Figure imgf000051_0001
49 , где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Птах - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Ттах - максимальное количество эпох обучения в цикле.
[Пункт 46]
Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.44, в которой закон косинусного затухания определяется по формуле:
Figure imgf000052_0001
, где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Qmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи внутри цикла;
Ттах - максимальное количество эпох в цикле;
Ncycies - общее количество циклов;
50 Nc_i - номер текущего цикла обучения.
[Пункт 47] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.42, в которой в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1 , где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
[Пункт 48] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.47, в которой обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивается полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяются ошибки и учитываются ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
[Пункт 49] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.42, в которой после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
[Пункт 50] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.42, в которой обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех
51 циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
[Пункт 51] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 49, 50, в которой определяется качество обученной модели с использованием коэффициента сходства Дайса:
Figure imgf000054_0001
, где
А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 52] Система обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 49, 50, в которой определяется качество обученной модели с использованием коэффициента сходства Жаккара:
Figure imgf000054_0002
, где
А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 53] Машиночитаемый носитель интеллектуального определения тектонических нарушений, содержащий компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
[Пункт 54] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п.53, в котором осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше
53 минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
[Пункт 55] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (ц max ) ДО минимальной скорости обучения в цикле ( min) по закону косинусного затухания.
[Пункт 56] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п.55, в котором закон косинусного затухания определяется по формуле:
Figure imgf000056_0001
, где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Qmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Ттах - максимальное количество эпох обучения в цикле.
[Пункт 57] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п.55, в котором закон косинусного затухания определяется по формуле:
Figure imgf000057_0001
, где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Птах - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи внутри цикла;
Ттах - максимальное количество эпох в цикле;
Ncycies - общее количество циклов;
Nc_i - номер текущего цикла обучения.
[Пункт 58] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1 , где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
[Пункт 59] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 58, в котором обучение сверточной нейронной сети включает итерации в одной
55 эпохе обучения, при этом в одной итерации сравнивается полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяются ошибки и учитываются ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
[Пункт 60] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором после каждой эпохи, по меньшей мере последнего цикла обучения, определяется качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
[Пункт 61] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п.53, в котором обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
[Пункт 62] Машиночитаемый носитель интеллектуального определения тектонических нарушений по любому из пп. 60, 61 , в котором определяется качество обученной модели с использованием коэффициента сходства Дайса:
Figure imgf000058_0001
, где
А - множество точек, отвечающих за наличие разлома в кубе разломов;
56 В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 63] Машиночитаемый носитель интеллектуального определения тектонических нарушений по любому из пп. 60, 61 , в котором определяется качество обученной модели с использованием коэффициента сходства Жаккара:
А П В jaccard
A U 5
, где
А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 64] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором перед делением куба измеренных сейсмических данных осуществляется подготовка куба измеренных сейсмических данных, которая включает следующие этапы:
- вычисляется среднее значение амплитуды в кубе измеренных сейсмических данных и приводятся среднее значение куба к значению 0;
- сужается распределение амплитуд сейсмических данных в диапазон от 1 -го до 99-го перцентилей;
- определяется стандартное отклонение и делятся все значения амплитуд на стандартное отклонение.
[Пункт 65] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п.53, в котором деление
57 куба измеренных сейсмических данных на подкубы сейсмических данных осуществляется с пересечением и их нормированием данных, при котором осуществляется:
- вычисление среднего значения амплитуды в каждом подкубе сейсмических данных и приводят средние значения подкубов к значению 0;
- определение стандартного отклонения каждого подкуба и деление всех значений амплитуд на соответствующее этому подкубу стандартное отклонение.
[Пункт 66] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п. 53, в котором подача каждого подкуба сейсмических данных в сверточную нейронную сеть осуществляется поочередно.
[Пункт 67] Машиночитаемый носитель интеллектуального определения тектонических нарушений по п.65, в котором сбор подкубов прогноза разломов в куб прогноза разломов осуществляется осредняя значения прогноза в пересечениях подкубов.
[Пункт 68] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений, содержащий компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
- подачу подкуба сейсмических данных в сверточную нейронную сеть;
- проведение не менее, чем двух циклов обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом
58 цикле скорость обучения (qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (гцтпп), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла.
[Пункт 69] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п. 68, в котором осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (r[min), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения.
[Пункт 70] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.68, в котором осуществляется подача каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле ( min) по закону косинусного затухания.
59
[Пункт 71] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.70, в котором закон косинусного затухания определяется по формуле:
Figure imgf000062_0001
, где
Qt- скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Птах - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи обучения внутри цикла;
Ттах - максимальное количество эпох обучения в цикле.
[Пункт 72] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.70, в котором закон косинусного затухания определяется по формуле:
Figure imgf000062_0002
, где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
60 max - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tcur - номер текущей эпохи внутри цикла;
Ттах - максимальное количество эпох в цикле;
Ncycies - общее количество циклов;
Nc_i - номер текущего цикла обучения.
[Пункт 73] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.68, в котором в сверточную нейронную сеть дополнительно подается куб сейсмических данных обучения и соответствующий ему куб разломов (тренировочная выборка), содержащий значения 0 и 1 , где 0 соответствует сейсмическим данным без разломов, а 1 соответствует сейсмическим данным, содержащим разломы.
[Пункт 74] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.73, в котором обучение сверточной нейронной сети включает итерации в одной эпохе обучения, при этом в одной итерации сравнивают полученный куб прогноза разломов с кубом разломов тренировочной выборки, в результате сравнения определяют ошибки и учитывают ошибки для оптимизации весов сверточной нейронной сети в последующей итерации обучения.
[Пункт 75] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.68, в котором после каждой эпохи, по меньшей мере последнего цикла обучения, определяется
61 качество обученной модели, при этом сравнивается куб прогноза разломов с соответствующим ему кубом разломов валидационной выборки.
[Пункт 76] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по п.68, в котором обучение сверточной нейронной сети состоит из пяти циклов обучения и ста эпох по крайней мере в первых четырех циклах обучения, причем после каждой эпохи пятого цикла обучения определяется качество обученной модели.
[Пункт 77] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 75,76, в котором определяется качество обученной модели с использованием коэффициента сходства Дайса:
Figure imgf000064_0001
, где
А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 78] Машиночитаемый носитель обучения сверточной нейронной сети для интеллектуального определения тектонических нарушений по любому из пп. 75,76, в котором определяется качество обученной модели с использованием коэффициента сходства Жаккара:
62 I к - jaccard А Д П [J ВВ
, где
А - множество точек, отвечающих за наличие разлома в кубе разломов;
В - множество точек, которые на выходе модели названы как точки, являющиеся точками разломов.
[Пункт 79] Способ интеллектуального определения тектонических нарушений, включающий:
- получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, при обучении которой выполнено не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (Qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (цтах) до минимальной скорости обучения в цикле (Qmin), при этом максимальная скорость обучения следующего цикла больше минимальной скорости обучения предыдущего цикла, но меньше максимальной скорости обучения предыдущего цикла обучения;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных;
- сбор подкубов прогноза разломов в куб прогноза разломов.
[Пункт 80] Способ интеллектуального определения тектонических нарушений, включающий:
63 - получение куба измеренных сейсмических данных;
- деление куба измеренных сейсмических данных на подкубы измеренных сейсмических данных;
- подачу каждого подкуба измеренных сейсмических данных в сверточную нейронную сеть, обучение которой включает не менее, чем два цикла обучения, каждый из которых состоит не более, чем из 100 эпох обучения, в каждом цикле скорость обучения (qt) на текущей эпохе снижается от эпохи к эпохе от максимальной скорости обучения в цикле (Qmax) до минимальной скорости обучения в цикле (Qmin) по закону косинусного затухания:
Figure imgf000066_0001
, где
Qt - скорость обучения на текущей эпохе;
Qmin - заранее определенная минимальная скорость обучения, которая принимается от 0 до 0,00001 ;
Qmax - начальная скорость обучения в цикле (скорость обучения на первой эпохе текущего цикла);
Tear - номер текущей эпохи внутри цикла;
Ттах - максимальное количество эпох в цикле;
Ncycies - общее количество циклов;
Nc_i - номер текущего цикла обучения;
- получение подкубов прогноза разломов по каждому подкубу сейсмических данных; - сбор подкубов прогноза разломов в куб прогноза разломов.
65
PCT/RU2021/050269 2020-08-26 2021-08-19 Система для определения тектонических нарушений по сейсмическим данным WO2022045932A1 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2020128416A RU2746691C1 (ru) 2020-08-26 2020-08-26 Система интеллектуального определения тектонических нарушений по сейсмическим данным на основе сверточных нейронных сетей
RU2020128416 2020-08-26

Publications (1)

Publication Number Publication Date
WO2022045932A1 true WO2022045932A1 (ru) 2022-03-03

Family

ID=75521169

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2021/050269 WO2022045932A1 (ru) 2020-08-26 2021-08-19 Система для определения тектонических нарушений по сейсмическим данным

Country Status (2)

Country Link
RU (1) RU2746691C1 (ru)
WO (1) WO2022045932A1 (ru)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705644B (zh) * 2021-08-17 2023-09-12 西安交通大学 一种物理规律和数据双驱动的地震成像方法、系统、设备及存储介质
CN115099523B (zh) * 2022-07-20 2023-10-24 哈尔滨工业大学 基于人工智能与地震动经验模型混合的地震动参数预测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6018498A (en) * 1998-09-02 2000-01-25 Phillips Petroleum Company Automated seismic fault detection and picking
US20020042677A1 (en) * 2000-09-29 2002-04-11 West Brian P. Method for seismic facies interpretation using textural analysis and neural networks
WO2018072815A1 (en) * 2016-10-18 2018-04-26 Schlumberger Technology Corporation Determining subsurface layers using machine learning
WO2019036144A1 (en) * 2017-08-18 2019-02-21 Landmark Graphics Corporation DETECTION OF FAILURES BASED ON THE INTERPRETATION OF SEISMIC DATA
CN110554429A (zh) * 2019-07-23 2019-12-10 中国石油化工股份有限公司 一种基于变邻域滑动窗口机器学习的地震断层识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6018498A (en) * 1998-09-02 2000-01-25 Phillips Petroleum Company Automated seismic fault detection and picking
US20020042677A1 (en) * 2000-09-29 2002-04-11 West Brian P. Method for seismic facies interpretation using textural analysis and neural networks
WO2018072815A1 (en) * 2016-10-18 2018-04-26 Schlumberger Technology Corporation Determining subsurface layers using machine learning
WO2019036144A1 (en) * 2017-08-18 2019-02-21 Landmark Graphics Corporation DETECTION OF FAILURES BASED ON THE INTERPRETATION OF SEISMIC DATA
CN110554429A (zh) * 2019-07-23 2019-12-10 中国石油化工股份有限公司 一种基于变邻域滑动窗口机器学习的地震断层识别方法

Also Published As

Publication number Publication date
RU2746691C1 (ru) 2021-04-19

Similar Documents

Publication Publication Date Title
US10914854B2 (en) Residual refraction statics calculation for automated near surface analysis
US5862100A (en) Method and system for detecting hydrocarbon reservoirs using statistical normalization of amplitude-versus-offset indicators based upon seismic signals
CN109709603A (zh) 地震层位识别与追踪方法、系统
Tschannen et al. Detection of point scatterers using diffraction imaging and deep learning
US10036820B2 (en) Expert guided knowledge acquisition system for analyzing seismic data
AU2005308450A1 (en) System and method for fault identification
WO2022045932A1 (ru) Система для определения тектонических нарушений по сейсмическим данным
US9952341B2 (en) Systems and methods for aligning a monitor seismic survey with a baseline seismic survey
CN110050205B (zh) 使用偏移道集的潜波照明
US11397273B2 (en) Full waveform inversion in the midpoint-offset domain
CN112731522A (zh) 地震地层智能识别方法、装置、设备及存储介质
US10677948B2 (en) Context based bounded hydrocarbon formation identification
Yang et al. A multi-task learning method for relative geologic time, horizons, and faults with prior information and transformer
Xu et al. First‐break automatic picking technology based on semantic segmentation
Jun Park et al. Realistic synthetic data generation using neural style transfer: Application to automatic fault interpretation
US12013508B2 (en) Method and system for determining seismic processing parameters using machine learning
Lomask Seismic volumetric flattening and segmentation
Xu et al. Point cloud-based high-dimensional optimal transport for full waveform inversion
Zhang Ensemble methods of data assimilation in porous media flow for non-Gaussian prior probability density
AU2013283825A1 (en) Truncation diagram determination for a pluri-gaussian estimation
US12032111B2 (en) Method and system for faster seismic imaging using machine learning
US20220283329A1 (en) Method and system for faster seismic imaging using machine learning
Sohrabian et al. Multivariate simulation through minimum/maximum autocorrelation factors versus sequential Gaussian co-simulation: A case study on geochemical data from soil.
Alfayez et al. Semi-automated prestack seismic inversion workflow using temporal convolutional networks
Demyanov et al. Multiple kernel learning approach for reservoir modelling

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21862182

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21862182

Country of ref document: EP

Kind code of ref document: A1