WO2023027248A1 - Data generation method, and training method and apparatus using same - Google Patents

Data generation method, and training method and apparatus using same Download PDF

Info

Publication number
WO2023027248A1
WO2023027248A1 PCT/KR2021/016322 KR2021016322W WO2023027248A1 WO 2023027248 A1 WO2023027248 A1 WO 2023027248A1 KR 2021016322 W KR2021016322 W KR 2021016322W WO 2023027248 A1 WO2023027248 A1 WO 2023027248A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
medical data
noise
gan
event
Prior art date
Application number
PCT/KR2021/016322
Other languages
French (fr)
Korean (ko)
Inventor
조경재
최재우
신윤섭
태윤원
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Publication of WO2023027248A1 publication Critical patent/WO2023027248A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references

Definitions

  • the present invention relates to a method for generating data and an apparatus using the same.
  • classification learning means predicting a corresponding class for given input data.
  • the data used for classification learning has severe imbalance, a phenomenon in which classification performance is not good occurs.
  • imbalanced data data composed of an imbalanced number of classes is referred to as imbalanced data.
  • most general classification models predict that all 100 people will not have cancer. That is, all of them can be predicted to be positive. In this way, the overall accuracy of the classification is as high as 95%, but there is a problem in that it is not possible to find an important cancer patient.
  • augmentation technology that transforms and increases data so that various environments or characteristics can be reflected in the training data is important.
  • augmentation technology is absolutely necessary for medical data, in which it is difficult to obtain the data itself or it is very difficult to label the data. For example, events such as cardiac arrest are rare, making it difficult to collect sufficient event data for deep learning. This may cause imbalance between event data and normal data and performance degradation.
  • An object of the present invention is to provide an effective data augmentation method for resolving data imbalance during artificial neural network learning.
  • the present invention is to provide an effective event data augmentation method when learning a medical artificial neural network.
  • the present invention is to provide an effective event data providing method using a generative adversarial network (GAN).
  • GAN generative adversarial network
  • the characteristic configuration of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described later is as follows.
  • a generative adversarial network including a term for a first noise based on actual medical data including actual normal medical data.
  • GAN generative adversarial network
  • a computer program stored in a medium including instructions implemented to cause a computing device to perform the following method.
  • the following method is: learning a GAN such that a loss function of a generative adversarial network (GAN) including a term for a first noise is minimized based on actual medical data including actual normal medical data, and the learned and generating similar event medical data by adding a second noise generated using a GAN to real event medical data.
  • GAN generative adversarial network
  • a computing device providing data for an artificial neural network
  • the communication unit for obtaining medical data
  • a processor connected to the communication unit, wherein the processor is configured to minimize a loss function of a generative adversarial network (GAN) including a term for a first noise based on actual medical data including actual normal medical data.
  • GAN generative adversarial network
  • similar event medical data may be generated by adding second noise generated using the learned GAN to actual event medical data.
  • the actual normal medical data may occupy most of the actual medical data.
  • the actual event medical data may occupy a minority of the actual medical data.
  • the second noise may include, as a main characteristic, a characteristic of the actual normal medical data, which occupies most of the actual medical data.
  • the term for the first noise may include a term defined so that noise generated by the generator of the GAN has a non-zero significant value.
  • the GAN may further include a GAN discriminator that distinguishes the real medical data from the similar medical data to which the first noise is added.
  • Various embodiments can effectively augment data for resolving data imbalance during artificial neural network learning.
  • GAN generative adversarial network
  • 1 illustrates the structure of a GAN.
  • FIG. 2 illustrates a data augmentation method using GAN.
  • FIG. 3 illustrates an artificial neural network training process using a data augmentation method.
  • FIG. 4 illustrates the structure of a GAN according to an example of the present invention.
  • FIG 5 illustrates an artificial neural network training process according to an example of the present invention.
  • 6-7 illustrate a noise generator according to an example of the present invention.
  • FIG. 8 is a diagram for explaining a method of generating similar event medical data by a computing device.
  • FIG 9 illustrates a computing device that may be applied to the present invention.
  • image or “image data” refer to multidimensional data composed of discrete image elements (e.g., pixels for a two-dimensional image or voxels for a three-dimensional image). refers to
  • image may mean a two-dimensional image corresponding to a slide of a predetermined tissue observed using a microscope, but “image” is not limited thereto, and computerized (cone-beam) It may be a medical image of a subject collected by computed tomography, magnetic resonance imaging (MRI), ultrasound, or any other medical imaging system known in the art. Images may also be provided in a non-medical context, for example, a remote sensing system, electron microscopy, and the like.
  • 'image' is a term that refers to a visible image or a digital representation of an image (eg, displayed on a screen).
  • slide image data is illustrated as an exemplary image format.
  • image formats used in various embodiments of the present invention are X-ray images, MRI, CT, PET (positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D ultrasound images, etc. It will be appreciated that it includes but is not limited to the illustratively enumerated forms.
  • DICOM Digital Imaging and Communications in Medicine
  • ACR American College of Radiology
  • NEMA American Electrical Manufacturers Association
  • a 'Picture Archiving and Communication System which is a DICOM standard. It may be a system that stores, processes, and transmits medical images according to the user's needs. Medical images obtained using digital medical imaging equipment such as X-ray, CT, and MRI are stored in DICOM format and can be transmitted to terminals inside and outside the hospital through a network, to which observation results and medical records can be added. .
  • PES 'Picture Archiving and Communication System
  • 'learning' or 'learning' is a term that refers to performing machine learning through procedural computing, and is intended to refer to mental operations such as human educational activities. , and training is used in the generally accepted sense of machine learning.
  • 'deep learning' refers to machine learning using deep artificial neural networks.
  • a deep neural network automatically learns the characteristics of each data by learning a large amount of data in a structure composed of multi-layer artificial neural networks, and through this, a machine that proceeds with learning in a way that minimizes the error of the objective/loss function, that is, classification accuracy.
  • It is a learning model and can extract and classify various levels of features, from low-level features such as points, lines, and planes to complex and meaningful high-level features.
  • GAN makes it possible to generate data with a distribution similar to that of real data.
  • GAN includes a generator (G) and a discriminator (D).
  • D's job is to distinguish whether the input is real data.
  • output D(x) of D returns the probability that x is real data.
  • G's role is to create fake data that makes it indistinguishable from whether D is real.
  • G samples a noise/random vector z from a standard normal distribution, then uses z as input to generate pseudo data G(z).
  • G(z) is used as input to D, and D(G(z)) returns the probability that G(z) is real data.
  • GAN is learned by updating the weights of D and G respectively.
  • D with G fixed, the weight is updated in the direction of returning a high probability for real data (x to Pdata(x)) and returning a low probability to similar data (z to Pz(z)).
  • the weight is updated in a direction that returns a high probability when G(z) is input to the previously learned D.
  • Equation 1 represents the objective function of the GAN.
  • GAN In the case of GAN, there are two networks that need to be trained, and optimization is performed separately because learning collides with each other.
  • Equations 2 and 3 represent the objective function of D and the objective function of G, respectively.
  • the weights are updated in the direction of maximizing V(D,G) with respect to D.
  • the weights are updated in the direction of minimizing V(D,G) with respect to G.
  • Equations 1 to 3 each symbol may refer to the following.
  • the generator has a goal of generating similar data by receiving a noise vector z, and tricking the discriminator into discriminating the similar data as real data.
  • the discriminator aims to discriminate between real data and similar data. Therefore, similar data generated using the trained GAN can be used for data augmentation for artificial neural network learning.
  • pseudo-normal data may be generated from a GAN trained using normal data
  • similar event data may be generated from a GAN trained using event data.
  • the artificial neural network includes a medical artificial neural network, and the medical artificial neural network may provide analysis/diagnosis (auxiliary) information on a disease of interest.
  • the normal data means normal (medical) data for a disease of interest
  • the event data means data for a predetermined symptom (medical) for a disease of interest.
  • data includes various types of data used for medical purposes.
  • the data includes image data and bio-signal data (eg, electrocardiogram).
  • a medical artificial neural network may be trained using normal data and event data.
  • event data since the amount of normal data is significantly greater than the amount of event data, if only real data is used, performance degradation of the trained artificial neural network may be caused due to data imbalance. In particular, events such as cardiac arrest occur less frequently, making it difficult to collect sufficient event data for deep learning learning. Accordingly, an artificial neural network may be trained using the similar event data generated in FIG. 2 together.
  • the model performance (Accuracy, AUROC (area under the receiver operating characteristic curve)) is increased by increasing the number of event data used for deep learning learning. etc.) can be improved.
  • noise can be generated through the standard deviation of data, but there is a limit in that the standard deviation can be calculated only when pure normal data is separated.
  • the GAN includes a generator (G, 402), a discriminator (D, 410), and a multiplexer (408).
  • G creates the noise needed to generate pseudo data from real data.
  • the noise/random number vector z can be generated from the standard deviation of the real data.
  • the noise/random vector z can be sampled from a standard normal distribution of real data.
  • Generator (G, 402) uses z as an input to generate noise 404a.
  • Multiplexer 408 may combine real data 406 and noise 404a to generate pseudo data 404b.
  • combining includes an addition operation.
  • the real data 406 and the noise 404a have the same vector size, and similar data 404b corresponding to the real data 406 may be generated by adding corresponding elements to each other.
  • the multiplexer 408 may be implemented in any device that supports an addition operation, and may be referred to as an adder/adder, an overlapper/overlapper, or the like.
  • the multiplexer 408 may not be configured separately, but may be implemented as part of an existing configuration (eg, G in FIG. 4/6/7/8 and noise generator in FIG. 6/7/8).
  • D (410) distinguishes whether the input is genuine data. Given data x as input, the output D(x) of D(410) returns the probability that x is real data.
  • G(402) of GAN generates noise
  • D(410) of GAN can distinguish (1) real data 406 and (2) similar data 404b generated by adding noise to real data. learned to be At this time, both actual normal data and actual event data may be used for GAN learning.
  • GAN learns G(402) and D(410) alternately, so that G(402) can create similar data well enough that D(410) cannot distinguish, D(410) is G(402) It can be learned to distinguish well from any similar data. Therefore, according to the prior art, the noise 404a generated by G 402 can converge to zero. In this case, the GAN learned using normal data can generate only pseudo-normal data. Therefore, in order to prevent the noise 404a from converging to 0, the loss of the noise 404a (eg, L1 loss) may be added to the training loss of the GAN.
  • the loss of the noise 404a eg, L1 loss
  • Equation 4 represents a loss function according to an example of the present invention. Learning of GAN proceeds in the direction of minimizing the loss of Equation 1.
  • - represents the loss of noise 404a (e.g., L1 loss)
  • i represents the number of elements of a vector constituting G(z)
  • n represents the number of elements of a vector constituting G(z).
  • i represents the number of elements of a vector constituting G(z)
  • n represents the number of elements of a vector constituting G(z).
  • noise 404a loss eg, L1 loss
  • L1 loss the noise 404a loss
  • Similar data (sets) can be generated from normal data (sets) using GAN training results, and the generated similar data (sets) can be used as event data (sets) in deep learning learning.
  • similar medical data can be generated from normal medical data (sets) using GAN training results, and the generated similar medical data (sets) can be used in deep learning learning (eg, medical artificial neural networks), etc.
  • deep learning learning eg, medical artificial neural networks
  • a process of labeling similar data (set) as event data (set) may be included.
  • the normal data (set) used to generate the training data (set) includes actual/similar normal data (set), and may preferably include actual normal data (set).
  • labeling includes generating labeling data corresponding to each data.
  • Labeling data is data generated corresponding to each data, and may refer to data including at least one of characteristic information of medical data.
  • Characteristic information of medical data eg, images
  • time information corresponding to the elapsed time at which the tissue area or lesion area was observed (eg, 30 seconds)
  • electrocardiogram information e.g., electrocardiogram information.
  • it is not limited thereto, and may include arbitrary information capable of reflecting characteristics of medical data.
  • FIG. 5 shows an example of training a medical artificial neural network as an example of the present invention.
  • a medical artificial neural network may be trained using normal medical data (set) and event medical data (set).
  • the trained artificial neural network can provide information about disease/biological condition based on input medical data (set).
  • the basic contents of FIG. 5 have been described with reference to FIG. 3 .
  • the difference from FIG. 3 lies in the method of providing similar data.
  • similar event data is provided using the GAN learned using event data (see FIG. 2 ), whereas in the present invention, similar event data may be provided using the GAN of FIG. 4 .
  • the GAN of FIG. 4 can be trained using both normal data and event data by considering the L1 loss for noise.
  • similar event data (sets) can be provided for training of the medical artificial neural network using normal data (sets) much larger in number than event data.
  • similar data (set) generated from normal data (set) as event data (set) a process of labeling similar data as event data may be included.
  • FIG. 6 illustrates a noise generator according to one example of the invention.
  • FIG. 6 illustrates a case where the noise generator 600 is configured as part of the GAN of FIG. 4 .
  • 602 , 604a , 604b , 606 and 608 in FIG. 6 correspond to 402 , 404a , 404b , 406 and 408 in FIG. 4 .
  • a description of each may refer to FIG. 4 .
  • each layer/node of the neural network constituting G of the GAN is updated using a learning result (eg, a weight set).
  • the GAN of FIG. 4 can be reused as a noise generator 600 for generating similar (event) data.
  • the noise generator 600 of FIG. 6 is a set of elements (eg, G) for generating noise in the GAN of FIG. 4 or elements (eg, G, multiplexers) for generating similar (event) data. It can be understood/defined as a set.
  • the noise generator 600 of FIG. 6 may generate noise 604a based on the learning result of FIG. 4 .
  • the noise generator 600 of FIG. 6 includes a generator (G, 602) learned according to the proposal of the present invention (see FIG. 4; see Equation 1), and a random value is generated through the generator (G, 602).
  • Noise 604a may be generated from (z).
  • the generated noise 604a can be used to transform real data into pseudo (event) data.
  • the generated noise 604a is added to the actual data 606, through which similar (event) data 604b may be provided.
  • the actual data 606 to which the noise 604a may be added according to an example of the present invention includes both normal/event data, and may preferably be limited to normal data.
  • Similar (event) data 604b converted from real data 606 using noise 604a according to the present invention is not input to the discriminator D, unlike FIG. 4 .
  • similar (event) data (set) 604b converted from real data (set) 606 using noise 604a according to an example of the present invention regardless of whether the real data is normal data or event data. , can be used as event data (set) when learning/training the medical artificial neural network 506.
  • learning/training the medical artificial neural network 506 may include a process of labeling the similar (event) data 604b as event data.
  • the actual data (set) 606 used to generate learning/training data (set) may be replaced with similar data (set).
  • FIG. 7 illustrates a noise generator according to another example of the present invention.
  • FIG. 7 illustrates a case where the noise generator 700 is configured separately unlike the GAN of FIG. 4 .
  • the noise generator 700 may include a neural network for generating noise.
  • the neural network for noise generation may include G in the GAN of FIG. 4 .
  • the noise generator 700 may be configured to exclude D from the GAN of FIG. 4 or include only G from the GAN of FIG. 4 .
  • the neural network (eg, G) 702 for generating noise of the noise generator 700 may generate noise 704a from z using the learning result (eg, weight set) of the GAN of FIG. 4 . there is.
  • each layer/node of the neural network (eg, G) 702 for noise generation is updated using the learning result (eg, weight set) of FIG. 4 .
  • the neural network (eg, G) 702 for noise generation may generate noise 704a from the random value z, and the generated noise 704a converts real data into similar (event) data.
  • the noise 704a generated by the noise generator 700 is added to the actual data 706 through the multiplexer 708, through which similar (event) data 704b may be provided.
  • the actual data 706 to which the noise 704a may be added according to an example of the present invention includes both normal/event data, and may preferably be limited to normal data.
  • Similar (event) data (set) 704b generated by adding noise 704a is an event when learning/training the medical artificial neural network 506, regardless of whether the actual data is normal data or event data. Can be used as data (set).
  • learning/training the medical artificial neural network 506 may include a process of labeling the similar (event) data 704b as event data.
  • the actual data (set) 706 used to generate learning/training data (set) can be replaced with similar data (set).
  • the present invention unlike the prior art (see FIG. 2), the actual normal By enabling similar event data to be provided using data, data imbalance can be resolved during learning/training of a medical neural network.
  • FIG. 8 is a diagram for explaining a method of generating similar event medical data by a computing device.
  • the computing device may generate input real event medical data (or actual event data) and similar event medical data (or similar event data) using the noise generator 800 .
  • the noise generator 800 may be configured separately unlike the GAN of FIG. 4 to generate the similar event medical data.
  • the noise generator 800 may include a neural network for generating noise.
  • the neural network for noise generation may include G in the GAN of FIG. 4 .
  • the noise generator 800 may be configured to exclude D from the GAN of FIG. 4 or include only G from the GAN of FIG. 4 .
  • the neural network (eg, G) 802 for noise generation of the noise generator 800 uses the learning result (eg, weight set) of the GAN of FIG. can create That is, each layer/node of the neural network (eg, G) 802 for generating noise is updated using the learning result (eg, weight set) of FIG. 4 . Then, the neural network (eg, G) 802 for noise generation may generate noise 804a from the random value z.
  • the noise 804a generated by the learned noise generator 800 may be defined as second noise.
  • the noise generator 800 generates significant noise 804a based on the actual medical data.
  • the significant noise 804a is noise including characteristics related to the actual medical data through the learning.
  • the actual medical data may include actual normal medical data and actual event medical data.
  • the actual normal medical data is major class data occupying most of the actual medical data
  • the actual event medical data is minor class data occupying a part or minority of the actual medical data.
  • the actual medical data may be biased to the actual normal medical data.
  • the noise generator 800 since the noise generator 800 is learned based on the actual medical data that is highly biased toward the actual normal medical data, the noise generator 800 generates noise 804a having characteristics of the actual normal medical data. will do That is, by the above-described learning, the noise generator 800 may generate the noise 804a including the characteristics of the actual normal medical data as main characteristics.
  • Noise 804a can be used to transform real event medical data 806 into pseudo event medical data 804b.
  • the noise 804a generated from the noise generator 800 is added to the actual event medical data 806 through the multiplexer 808, and through this, similar event data 804b may be generated.
  • the similar event data (set) 804b generated by adding the noise 804a according to the present invention may be used as event data (set) when learning/training the medical artificial neural network 506.
  • the computing device may generate similar event medical data 804b by adding the noise 804a generated using the noise generator 800 to actual event medical data 806 .
  • the actual event medical data 806 may be converted into similar event medical data 804b with the addition of noise 804a adding characteristics of the actual normal medical data. That is, the computing device augments the actual event medical data 806 in a manner that adds noise 804a including characteristics related to actual normal medical data to other types of actual event medical data 806 during the learning process.
  • the computing device may generate various similar event medical data 804b from one real event medical data by adding various noises 804a to the one real event medical data.
  • the computing device adds characteristics related to the normal medical data to the real event medical data 806, which is minor class data in the real medical data, through the noise 804a to generate various similarities from the real event medical data 806. It is possible to generate or augment event medical data, and minimize or imbalance the data bias of the actual normal medical data in the actual medical data input in learning/training the medical artificial neural network 506 through the augmentation or generation. can be resolved
  • the computing device 200 includes a communication unit 210 and a processor 220, and may directly or indirectly communicate with an external computing device (not shown) through the communication unit 210.
  • computing device 200 may include typical computer hardware (e.g., computer processors, memory, storage, input and output devices, and other devices that may include components of conventional computing devices; electronic devices such as routers, switches, and the like). communication devices; electronic information storage systems such as network-attached storage (NAS) and storage area networks (SAN)) and computer software (i.e., instructions that cause a computing device to function in a particular way); s) may be used to achieve desired system performance.
  • NAS network-attached storage
  • SAN storage area networks
  • computer software i.e., instructions that cause a computing device to function in a particular way
  • the communication unit 210 of the computing device may transmit/receive requests and responses with other computing devices that are interlocked. As an example, such requests and responses may be made through the same transmission control protocol (TCP) session. It is not limited, and may be transmitted and received as, for example, a user datagram protocol (UDP) datagram.
  • TCP transmission control protocol
  • UDP user datagram protocol
  • the communication unit 210 may include a pointing device such as a keyboard or mouse for receiving commands or instructions, other external input devices, printers, displays, and other external output devices.
  • the processor 220 of the computing device may include a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU) or a tensor processing unit (TPU), a cache memory, and a data bus.
  • MPU micro processing unit
  • CPU central processing unit
  • GPU graphics processing unit
  • TPU tensor processing unit
  • cache memory and a data bus.
  • MPU micro processing unit
  • CPU central processing unit
  • GPU graphics processing unit
  • TPU tensor processing unit
  • cache memory e.g., a tensor processing unit
  • the present invention illustrated with reference to FIGS. 4 to 8 may be configured based on hardware/software, and the processor 220 of the computing device may be configured to perform/control the operation of the present invention according to FIGS. 4 to 8 .
  • the hardware may include a general purpose computer and/or a dedicated computing device or a specific computing device or a particular aspect or component of a specific computing device.
  • the processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors or other programmable devices having internal and/or external memory. Additionally, or alternatively, the processes may be configured to process application specific integrated circuit (ASIC), programmable gate array, programmable array logic (PAL) or electronic signals.
  • ASIC application specific integrated circuit
  • PAL programmable array logic
  • machine-observable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the machine-observable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art in the field of computer software.
  • machine-observable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROM, DVD, and Blu-ray, and magneto-optical media such as floptical disks.
  • Machine code This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the methods and combinations of methods when the methods and combinations thereof described above are performed by one or more computing devices, the methods and combinations of methods may be implemented as executable code that performs each step.
  • the method may be implemented as systems performing the steps, the methods may be distributed in several ways across devices or all functions may be integrated into one dedicated, stand-alone device or other hardware.
  • the means for performing the steps associated with the processes described above may include any of the hardware and/or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.
  • the hardware device may be configured to act as one or more software modules to perform processing according to the present disclosure, and vice versa.
  • the hardware device may include a processor such as an MPU, CPU, GPU, TPU coupled to a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and external devices and signals It may include a communication unit capable of sending and receiving.
  • the hardware device may include a keyboard, mouse, and other external input devices for receiving commands written by developers.
  • Embodiments of the present invention as described above can be applied to various computing devices and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Disclosed are a method by which various computing apparatuses provide data for an artificial neural network, and an apparatus therefor. Disclosed are a method and an apparatus therefor, the method comprising the steps of: training a generative adversarial network (GAN) so that a loss function of the GAN including a term for a first noise is minimized on the basis of real medical data including real normal medical data; and generating similar event medical data by adding a second noise generated using the trained GAN to real event medical data.

Description

데이터 생성 방법 및 이를 이용한 학습방법 및 장치Data generation method and learning method and device using the same
본 발명은 데이터 생성 방법 및 이를 이용한 장치에 관한 것이다. The present invention relates to a method for generating data and an apparatus using the same.
일반적으로 분류학습은 주어진 입력 데이터에 대한 해당 클래스를 예측하는 것을 의미한다. 하지만, 분류학습에 사용되는 데이터가 심한 불균형을 가진다면, 분류 성능이 좋지 않은 현상이 발생한다.In general, classification learning means predicting a corresponding class for given input data. However, if the data used for classification learning has severe imbalance, a phenomenon in which classification performance is not good occurs.
예를 들어, 100명의 환자 데이터가 95명의 암 음성반응 환자와 5명의 암 양성반응 환자로 구성되어 있다고 가정한다. 이와 같이, 클래스의 수가 불균형하게 구성된 데이터를 불균형 데이터라 한다. 이런 불균형 데이터를 사용해 분류학습을 하면 일반적인 분류모델 대부분은 100명이 모두 암에 걸리지 않을 것으로 예측한다. 즉, 모두 양성반응이라고 예측할 수 있다. 이렇게 되면 분류의 전체적인 정확도는 95%로 높으나, 정작 중요한 암환자를 찾아내지 못하는 문제점이 발생한다.For example, it is assumed that the data of 100 patients consists of 95 cancer-negative patients and 5 cancer-positive patients. In this way, data composed of an imbalanced number of classes is referred to as imbalanced data. When classification learning is performed using such imbalanced data, most general classification models predict that all 100 people will not have cancer. That is, all of them can be predicted to be positive. In this way, the overall accuracy of the classification is as high as 95%, but there is a problem in that it is not possible to find an important cancer patient.
이와 같이, 데이터 불균형은 머신 러닝 분류 모델의 성능을 저하하는 요인으로 알려져 있다. 따라서, 소량의 학습 데이터만으로도 우수한 결과를 내려면 학습 데이터에 실제 다양한 환경이나 특성을 반영할 수 있도록 데이터를 변형시켜 늘리는 데이터 증강(data augmentation)기술이 중요하다. 특히, 데이터 자체를 구하기가 어렵거나 데이터에 정답지를 달아주는 라벨링 작업이 매우 힘든 의료 데이터 같은 경우 증강기술은 반드시 필요하다. 예를 들어, 심정지와 같은 이벤트는 발생 빈도가 적어, 딥러닝 학습에 충분한 이벤트 데이터를 모으기 힘들다. 이로 인해, 이벤트 데이터와 정상(normal) 데이터간의 불균형과 성능 하락이 야기될 수 있다.As such, data imbalance is known to degrade the performance of machine learning classification models. Therefore, in order to produce excellent results with only a small amount of training data, data augmentation technology that transforms and increases data so that various environments or characteristics can be reflected in the training data is important. In particular, augmentation technology is absolutely necessary for medical data, in which it is difficult to obtain the data itself or it is very difficult to label the data. For example, events such as cardiac arrest are rare, making it difficult to collect sufficient event data for deep learning. This may cause imbalance between event data and normal data and performance degradation.
본 발명은 인공 신경망 학습 시의 데이터 불균형 해소를 위한 효과적인 데이터 증강 방법의 제공을 목적으로 한다.An object of the present invention is to provide an effective data augmentation method for resolving data imbalance during artificial neural network learning.
보다 구체적으로, 본 발명은 의료용 인공 신경망을 학습 시에 효과적인 이벤트 데이터 증강 방법을 제공하고자 한다.More specifically, the present invention is to provide an effective event data augmentation method when learning a medical artificial neural network.
보다 구체적으로, 본 발명은 GAN(generative adversarial network)을 이용하여 효과적인 이벤트 데이터 제공 방법을 제공하고자 한다.More specifically, the present invention is to provide an effective event data providing method using a generative adversarial network (GAN).
기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described later is as follows.
본 발명의 일 양상에 따르면, 컴퓨팅 장치가 인공 신경망을 위한 데이터를 제공하는 방법에 있어서, 실제 정상 의료 데이터를 포함하는 실제 의료 데이터에 기초하여 제1 노이즈에 대한 항을 포함하는 GAN (generative adversarial network)의 손실 함수가 최소화되도록 GAN을 학습하는 단계, 및 상기 학습된 GAN를 이용하여 생성된 제2 노이즈를 실제 이벤트 의료 데이터에 부가하여 유사 이벤트 의료 데이터를 생성하는 단계를 포함할 수 있다.According to one aspect of the present invention, in a method for providing data for an artificial neural network by a computing device, a generative adversarial network (GAN) including a term for a first noise based on actual medical data including actual normal medical data. ), and generating similar event medical data by adding second noise generated using the learned GAN to actual event medical data.
본 발명의 다른 일 양상에 따르면, 컴퓨팅 장치로 하여금, 다음 방법을 수행하도록 구현된 명령들(instructions)을 포함하는, 매체에 저장된 컴퓨터 프로그램이 제공된다. 여기서, 다음 방법은: 실제 정상 의료 데이터를 포함하는 실제 의료 데이터에 기초하여 제1 노이즈에 대한 항을 포함하는 GAN (generative adversarial network)의 손실 함수가 최소화되도록 GAN을 학습하는 단계, 및 상기 학습된 GAN를 이용하여 생성된 제2 노이즈를 실제 이벤트 의료 데이터에 부가하여 유사 이벤트 의료 데이터를 생성하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a computer program stored in a medium, including instructions implemented to cause a computing device to perform the following method. Here, the following method is: learning a GAN such that a loss function of a generative adversarial network (GAN) including a term for a first noise is minimized based on actual medical data including actual normal medical data, and the learned and generating similar event medical data by adding a second noise generated using a GAN to real event medical data.
본 발명의 또 다른 일 양상에 따르면, 인공 신경망용 데이터를 제공하는 컴퓨팅 장치에 있어서, 의료 데이터 획득을 위한 통신부; 및 상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는, 실제 정상 의료 데이터를 포함하는 실제 의료 데이터에 기초하여 제1 노이즈에 대한 항을 포함하는 GAN (generative adversarial network)의 손실 함수가 최소화되도록 GAN을 학습하고, 상기 학습된 GAN를 이용하여 생성된 제2 노이즈를 실제 이벤트 의료 데이터에 부가하여 유사 이벤트 의료 데이터를 생성할 수 있다.According to another aspect of the present invention, in a computing device providing data for an artificial neural network, the communication unit for obtaining medical data; and a processor connected to the communication unit, wherein the processor is configured to minimize a loss function of a generative adversarial network (GAN) including a term for a first noise based on actual medical data including actual normal medical data. , and similar event medical data may be generated by adding second noise generated using the learned GAN to actual event medical data.
또는, 상기 실제 정상 의료 데이터는 상기 실제 의료 데이터의 대부분을 차지할 수 있다.Alternatively, the actual normal medical data may occupy most of the actual medical data.
또는, 상기 실제 이벤트 의료 데이터는 상기 실제 의료 데이터의 소수를 차지할 수 있다.Alternatively, the actual event medical data may occupy a minority of the actual medical data.
또는, 상기 제2 노이즈는 상기 실제 의료 데이터의 대부분을 차지하는 상기 실제 정상 의료 데이터의 특성을 주요 특성으로 포함할 수 있다.Alternatively, the second noise may include, as a main characteristic, a characteristic of the actual normal medical data, which occupies most of the actual medical data.
또는, 상기 제1 노이즈에 대한 항은, 상기 GAN의 생성기에서 생성되는 노이즈가 0이 아닌 유의한 값을 갖도록 정의된 항을 포함될 수 있다.Alternatively, the term for the first noise may include a term defined so that noise generated by the generator of the GAN has a non-zero significant value.
또는, 상기 GAN은 상기 실제 의료 데이터와 상기 제1 노이즈가 부가된 유사 의료 데이터를 구분하는 GAN의 판별기(discriminator)를 더 포함할 수 있다.Alternatively, the GAN may further include a GAN discriminator that distinguishes the real medical data from the similar medical data to which the first noise is added.
다양한 실시예들은 인공 신경망 학습 시의 데이터 불균형 해소를 위한 효과적인 데이터 증강시킬 수 있다. 또한, 의료용 인공 신경망을 학습 시에 효과적인 이벤트 데이터 증강시킬 수 있다.Various embodiments can effectively augment data for resolving data imbalance during artificial neural network learning. In addition, it is possible to effectively augment event data during learning of a medical artificial neural network.
또한, GAN(generative adversarial network)을 이용하여 효과적인 이벤트 데이터 제공할 수 있다.In addition, effective event data may be provided using a generative adversarial network (GAN).
다양한 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in various embodiments are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. There will be.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다. The drawings accompanying this specification are intended to provide an understanding of the present invention, show various embodiments of the present invention, and explain the principles of the present invention together with the description of the specification.
도 1은 GAN의 구조를 예시한다.1 illustrates the structure of a GAN.
도 2는 GAN을 이용한 데이터 증강 방법을 예시한다.2 illustrates a data augmentation method using GAN.
도 3은 데이터 증강 방법을 이용한 인공 신경망 훈련 과정을 예시한다.3 illustrates an artificial neural network training process using a data augmentation method.
도 4는 본 발명의 일 예에 따른 GAN의 구조를 예시한다.4 illustrates the structure of a GAN according to an example of the present invention.
도 5는 본 발명의 일 예에 따른 인공 신경망 훈련 과정을 예시한다.5 illustrates an artificial neural network training process according to an example of the present invention.
도 6~7은 본 발명의 일 예에 따른 노이즈 생성기를 예시한다.6-7 illustrate a noise generator according to an example of the present invention.
도 8은 컴퓨팅 장치가 유사 이벤트 의료 데이터를 생성하는 방법을 설명하기 위한 도면이다.8 is a diagram for explaining a method of generating similar event medical data by a computing device.
도 9는 본 발명에 적용될 수 있는 컴퓨팅 장치를 예시한다.9 illustrates a computing device that may be applied to the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description of the present invention refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced in order to make the objects, technical solutions and advantages of the present invention clear. These embodiments are described in sufficient detail to enable a person skilled in the art to practice the present invention.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다. As used throughout the description and claims herein, the terms "image" or "image data" refer to multidimensional data composed of discrete image elements (e.g., pixels for a two-dimensional image or voxels for a three-dimensional image). refers to
예를 들어 "영상"은 현미경을 이용하여 관찰되는 소정 조직에 대한 슬라이드에 대응하는 2차원 영상을 의미할 수 있으나, "영상"은 이에 한정되는 것이 아니고, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.For example, "image" may mean a two-dimensional image corresponding to a slide of a predetermined tissue observed using a microscope, but "image" is not limited thereto, and computerized (cone-beam) It may be a medical image of a subject collected by computed tomography, magnetic resonance imaging (MRI), ultrasound, or any other medical imaging system known in the art. Images may also be provided in a non-medical context, for example, a remote sensing system, electron microscopy, and the like.
본 명세서의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 화면에 표시된) 눈으로 볼 수 있는 영상 또는 영상의 디지털 표현물을 지칭하는 용어이다.Throughout the description and claims herein, 'image' is a term that refers to a visible image or a digital representation of an image (eg, displayed on a screen).
설명의 편의를 위하여 제시된 도면에서는 슬라이드 영상 데이터가 예시적 영상 형식(modality)인 것으로 도시되었다. 그러나 통상의 기술자는 본 발명의 다양한 실시예에서 이용되는 영상 형식들이 X선 영상, MRI, CT, PET(positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D 초음파 영상 등등을 포함하나 예시적으로 열거된 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.In the drawings presented for convenience of explanation, slide image data is illustrated as an exemplary image format. However, those skilled in the art know that the image formats used in various embodiments of the present invention are X-ray images, MRI, CT, PET (positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D ultrasound images, etc. It will be appreciated that it includes but is not limited to the illustratively enumerated forms.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준에 따를 수 있다. DICOM 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.The medical images described throughout the detailed description and claims of this specification may conform to the 'Digital Imaging and Communications in Medicine (DICOM)' standard. The DICOM standard is a term that collectively refers to various standards used for digital image expression and communication in medical devices, and the DICOM standard is announced by an association committee formed by the American College of Radiology (ACR) and the American Electrical Manufacturers Association (NEMA).
또한, 본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'을 통해 저장되거나 전송될 수 있으며, 의료영상 저장 전송 시스템은 DICOM 표준에 맞게 의료 영상을 저장, 가공, 전송하는 시스템일 수 있다. X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상은 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 관찰 결과 및 진료 기록이 추가될 수 있다.In addition, the medical images described throughout the detailed description and claims of this specification may be stored or transmitted through a 'Picture Archiving and Communication System (PACS)', which is a DICOM standard. It may be a system that stores, processes, and transmits medical images according to the user's needs. Medical images obtained using digital medical imaging equipment such as X-ray, CT, and MRI are stored in DICOM format and can be transmitted to terminals inside and outside the hospital through a network, to which observation results and medical records can be added. .
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아니며, 훈련(training)은 기계 학습에 관하여 일반적으로 받아들여지는 의미로 쓰인 것이다. 예를 들어, '딥 러닝'은 심층 인공 신경망을 이용한 기계 학습을 의미한다. 심층 신경망은 다층의 인공 신경망으로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 데이터의 특징을 자동으로 학습하고, 이를 통해 목적/손실 함수, 즉 분류 정확도의 에러를 최소화시키는 방식으로 학습을 진행하는 기계 학습 모델이며, 점, 선, 면 등의 저수준의 특징에서부터 복잡하고 의미 있는 고수준의 특징까지 다양한 수준의 특징을 추출하고 분류할 수 있다.And throughout the detailed description and claims of this specification, 'learning' or 'learning' is a term that refers to performing machine learning through procedural computing, and is intended to refer to mental operations such as human educational activities. , and training is used in the generally accepted sense of machine learning. For example, 'deep learning' refers to machine learning using deep artificial neural networks. A deep neural network automatically learns the characteristics of each data by learning a large amount of data in a structure composed of multi-layer artificial neural networks, and through this, a machine that proceeds with learning in a way that minimizes the error of the objective/loss function, that is, classification accuracy. It is a learning model and can extract and classify various levels of features, from low-level features such as points, lines, and planes to complex and meaningful high-level features.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.And throughout the description and claims herein, the word 'comprise' and variations thereof are not intended to exclude other technical features, additions, components or steps. In addition, 'one' or 'one' is used to mean more than one, and 'another' is limited to at least two or more.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 명세서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.Other objects, advantages and characteristics of the present invention will appear to those skilled in the art, in part from this specification and in part from practice of the invention. The examples and drawings below are provided as examples and are not intended to limit the invention. Accordingly, details disclosed herein with respect to a particular structure or function are not to be construed in a limiting sense, but are merely representative and provide guidance for those skilled in the art to variously practice the present invention with any detailed structures substantially suitable. It should be interpreted as basic data.
더욱이 본 발명은 본 명세서에 나타난 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention covers all possible combinations of the embodiments presented herein. It should be understood that the various embodiments of the present invention are different from each other but are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in one embodiment in another embodiment without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description set forth below is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all equivalents as claimed by those claims. Like reference numbers in the drawings indicate the same or similar function throughout the various aspects.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In this specification, unless otherwise indicated or clearly contradicted by context, terms referred to in the singular encompass the plural unless the context requires otherwise. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily practice the present invention.
도 1은 GAN의 구조를 예시한다. GAN은 실제 데이터 분포와 비슷한 분포를 가진 데이터를 생성할 수 있게 하다. 도 1을 참조하면, GAN은 생성기(Generator, G) 및 판별기(Discriminator, D)를 포함한다. D의 역할은 입력이 진짜 데이터(real data)인지 구별하는 것이다. 데이터 x가 입력으로 주어질 때, D의 출력 D(x)는 x가 진짜 데이터일 확률을 리턴한다. G의 역할은 D가 진짜인지 구별할 수 없을 만큼 유사 데이터(fake data)를 만드는 것이다. 예를 들면, G는 노이즈/난수 벡터 z를 표준정규분포로부터 샘플링 한 후, z를 입력으로 사용해 유사 데이터 G(z)를 생성한다. G(z)는 D의 입력으로 사용되며, D(G(z))는 G(z)가 진짜 데이터일 확률을 리턴한다.1 illustrates the structure of a GAN. GAN makes it possible to generate data with a distribution similar to that of real data. Referring to FIG. 1, GAN includes a generator (G) and a discriminator (D). D's job is to distinguish whether the input is real data. Given data x as input, output D(x) of D returns the probability that x is real data. G's role is to create fake data that makes it indistinguishable from whether D is real. For example, G samples a noise/random vector z from a standard normal distribution, then uses z as input to generate pseudo data G(z). G(z) is used as input to D, and D(G(z)) returns the probability that G(z) is real data.
GAN은 D와 G의 가중치를 각각 갱신함으로써 학습된다. D의 경우, G를 고정한 채 실제 데이터(x~Pdata(x))에 대해 높은 확률을 리턴하고, 유사 데이터(z~Pz(z)))에 대해 낮은 확률을 리턴하는 방향으로 가중치가 갱신된다. G의 경우, 앞서 학습된 D에 G(z)를 입력할 때 높은 확률을 리턴하는 방향으로 가중치가 갱신된다. GAN은 이러한 방식으로 G와 D를 번갈아가며 학습함으로써, G는 D가 구별할 수 없을 만큼 유사 데이터를 잘 만들 수 있도록, D는 G가 어떠한 유사 데이터를 만들어내더라도 잘 구별해낼 수 있도록 학습될 수 있다.GAN is learned by updating the weights of D and G respectively. In the case of D, with G fixed, the weight is updated in the direction of returning a high probability for real data (x to Pdata(x)) and returning a low probability to similar data (z to Pz(z)). . In the case of G, the weight is updated in a direction that returns a high probability when G(z) is input to the previously learned D. By learning G and D alternately in this way, G can be trained so that D can create similar data well enough to be indistinguishable from D, and D can learn to distinguish well no matter what similar data G creates. .
수학식 1은 GAN의 목적 함수를 나타낸다. GAN의 경우 학습해야 하는 네트워크가 2개이며 서로 충돌되는 학습이 이루어지기 때문에 최적화도 따로 이루어진다.Equation 1 represents the objective function of the GAN. In the case of GAN, there are two networks that need to be trained, and optimization is performed separately because learning collides with each other.
Figure PCTKR2021016322-appb-img-000001
Figure PCTKR2021016322-appb-img-000001
수학식 2와 3은 각각 D의 목적 함수와 G의 목적 함수를 나타낸다. D의 경우, V(D,G)를 D에 대하여 최대화 하는 방향으로 가중치가 갱신된다. G의 경우 V(D,G)를 G에 대하여 최소화 하는 방향으로 가중치가 갱신된다.Equations 2 and 3 represent the objective function of D and the objective function of G, respectively. In the case of D, the weights are updated in the direction of maximizing V(D,G) with respect to D. In the case of G, the weights are updated in the direction of minimizing V(D,G) with respect to G.
Figure PCTKR2021016322-appb-img-000002
Figure PCTKR2021016322-appb-img-000002
Figure PCTKR2021016322-appb-img-000003
Figure PCTKR2021016322-appb-img-000003
수학식 1~3에서 각각의 기호는 다음을 참조할 수 있다.In Equations 1 to 3, each symbol may refer to the following.
- E: 기대값/평균값(expectation)을 나타내고,- E: represents the expected value / average value (expectation),
- D(xi): 입력 xi가 실제 데이터일 확률을 나타내며(i=1~m),- D(xi): indicates the probability that input xi is real data (i=1~m),
- G(zi)는 입력 zi로부터 유사 데이터를 나타낸다(i=1~m).- G(zi) represents similar data from input zi (i=1~m).
도 2는 종래의 GAN을 이용한 데이터 증강 방법을 예시한다. 도 1을 참조하여 설명한 바와 같이, 생성기는 노이즈 벡터(z)를 입력 받아 유사 데이터를 생성하고, 판별기를 속여 상기 유사 데이터를 실제 데이터로 판별하게 하는 것을 목표로 가진다. 반면, 판별기는 실제 데이터와 유사 데이터를 서로 구분해내는 것을 목표로 가진다. 따라서, 훈련된 GAN을 이용하여 생성된 유사 데이터는 인공 신경망 학습을 위한 데이터 증강에 사용될 수 있다. 이때, 정상(normal) 데이터를 이용하여 훈련된 GAN으로부터는 유사 정상 데이터가 생성되고, 이벤트 데이터를 이용하여 훈련된 GAN으로부터는 유사 이벤트 데이터가 생성될 수 있다. 여기서, 인공 신경망은 의료용 인공 신경망을 포함하며, 상기 의료용 인공 신경망은 관심 질병에 대한 분석/진단 (보조) 정보를 제공할 수 있다. 여기서, 정상 데이터는 관심 질병에 대해 정상 (의료) 데이터를 의미하며, 이벤트 데이터는 관심 질병에 대해 소정 증상 (의료) 데이터를 의미한다. GAN을 이용하여 유사 이벤트 데이터를 정상 데이터에 상당할 정도로 충분히 생성함으로써, 데이터 불균형을 해결하고 정상 데이터와 이벤트 데이터를 동시에 학습하기 위한 원하는 샘플 비율을 얻을 수 있다. 여기서, 데이터는 의료 목적으로 사용되는 다양한 형식의 데이터를 포함한다. 예를 들어, 데이터는 영상 데이터, 생체신호 데이터(예, 심전도)를 포함한다.2 illustrates a data augmentation method using a conventional GAN. As described with reference to FIG. 1, the generator has a goal of generating similar data by receiving a noise vector z, and tricking the discriminator into discriminating the similar data as real data. On the other hand, the discriminator aims to discriminate between real data and similar data. Therefore, similar data generated using the trained GAN can be used for data augmentation for artificial neural network learning. In this case, pseudo-normal data may be generated from a GAN trained using normal data, and similar event data may be generated from a GAN trained using event data. Here, the artificial neural network includes a medical artificial neural network, and the medical artificial neural network may provide analysis/diagnosis (auxiliary) information on a disease of interest. Here, the normal data means normal (medical) data for a disease of interest, and the event data means data for a predetermined symptom (medical) for a disease of interest. By generating enough similar event data to correspond to normal data using GAN, it is possible to solve data imbalance and obtain a desired sample ratio for learning normal data and event data simultaneously. Here, data includes various types of data used for medical purposes. For example, the data includes image data and bio-signal data (eg, electrocardiogram).
도 3은 의료용 인공 신경망을 훈련하는 예를 나타낸다. 도 3을 참조하면, 의료용 인공 신경망은 정상 데이터 및 이벤트 데이터를 이용하여 훈련될 수 있다. 이때, 정상 데이터의 양이 이벤트 데이터의 양에 비해 상당히 많으므로 실제 데이터만을 사용할 경우, 데이터 불균형으로 인해 훈련된 인공 신경망의 성능 하락이 야기될 수 있다. 특히, 심정지(cardiac arrest)와 같은 이벤트는 발생 빈도가 적어, 딥러닝 학습에 충분한 이벤트 데이터를 모으기 힘들다. 따라서, 도 2에서 생성된 유사 이벤트 데이터를 함께 이용하여 인공 신경망을 훈련할 수 있다.3 shows an example of training a medical artificial neural network. Referring to FIG. 3 , a medical artificial neural network may be trained using normal data and event data. In this case, since the amount of normal data is significantly greater than the amount of event data, if only real data is used, performance degradation of the trained artificial neural network may be caused due to data imbalance. In particular, events such as cardiac arrest occur less frequently, making it difficult to collect sufficient event data for deep learning learning. Accordingly, an artificial neural network may be trained using the similar event data generated in FIG. 2 together.
한편, 도 3의 방법에 따르며, 전체 데이터의 양은 많지만 이벤트 데이터의 수는 적은 상황에서, 딥러닝 학습에 사용되는 이벤트 데이터 수를 늘려 모델의 성능(Accuracy, AUROC(area under the receiver operating characteristic curve) 등)을 향상시킬 수 있다. 이때, 도 2에 예시한 종래의 방법에 따르면, 데이터의 표준편차를 통해 노이즈를 생성할 수 있으나, 순수한 정상 데이터만 따로 분리해야만 표준편차를 계산할 수 있다는 한계가 있다. On the other hand, according to the method of FIG. 3, in a situation where the total amount of data is large but the number of event data is small, the model performance (Accuracy, AUROC (area under the receiver operating characteristic curve)) is increased by increasing the number of event data used for deep learning learning. etc.) can be improved. At this time, according to the conventional method illustrated in FIG. 2, noise can be generated through the standard deviation of data, but there is a limit in that the standard deviation can be calculated only when pure normal data is separated.
상술한 문제를 해결하기 위해, 이벤트 데이터에서 나타나는 측정 오차 분포를 알아내기 위해 상대적으로 수가 많은 정상 데이터를 사용할 것을 제안한다. 정상 데이터에서 나타나는 측정 오차와 이벤트 데이터에서 나타나는 측정 오차는 동일 기계를 사용하므로 동일한 분포를 가질 것이라고 가정할 수 있기 때문이다.In order to solve the above problem, we propose to use a relatively large number of normal data to find out the measurement error distribution appearing in the event data. This is because it can be assumed that measurement errors in normal data and measurement errors in event data will have the same distribution because the same machine is used.
도 4는 본 발명의 일 예에 다른 GAN의 구조를 예시한다. 도 4를 참조하면, GAN은 생성기(G, 402), 판별기(D, 410) 및 다중화기(408)를 포함한다. G는 실제 데이터로부터 유사 데이터를 생성하는데 필요한 노이즈를 생성한다. 노이즈/난수 벡터 z는 실제 데이터의 표준편차로부터 생성될 수 있다. 예를 들어, 노이즈/난수 벡터 z는 실제 데이터의 표준정규분포로부터 샘플링 될 수 있다. 생성기(G, 402) z를 입력으로 사용해 노이즈(404a)를 생성한다. 다중화기(408)는 실제 데이터(406)와 노이즈(404a)를 결합하여 유사 데이터(404b)를 생성할 수 있다. 여기서, 결합은 덧셈 연산을 포함한다. 예를 들어, 실제 데이터(406)와 노이즈(404a)는 동일한 벡터 사이즈를 가지며, 각각의 대응되는 원소를 서로 더하여 실제 데이터(406)에 대응하는 유사 데이터(404b)를 생성할 수 있다. 다중화기(408)는 덧셈 연산을 지원하는 어떤 장치로도 구현될 수 있으며, 덧셋기/덧셈부, 중첩기/중첩부 등으로 지칭될 수 있다. 또한, 다중화기(408)는 별도로 구성되지 않고, 기존 구성(예, 도 4/6/7/8의 G, 도 6/7/8의 노이즈 생성기)의 일부로 구현될 수 있다. D(410)는 입력이 진짜 데이터인지 구별한다. 데이터 x가 입력으로 주어질 때, D(410)의 출력 D(x)는 x가 진짜 데이터일 확률을 리턴한다.4 illustrates the structure of another GAN according to an example of the present invention. Referring to FIG. 4 , the GAN includes a generator (G, 402), a discriminator (D, 410), and a multiplexer (408). G creates the noise needed to generate pseudo data from real data. The noise/random number vector z can be generated from the standard deviation of the real data. For example, the noise/random vector z can be sampled from a standard normal distribution of real data. Generator (G, 402) uses z as an input to generate noise 404a. Multiplexer 408 may combine real data 406 and noise 404a to generate pseudo data 404b. Here, combining includes an addition operation. For example, the real data 406 and the noise 404a have the same vector size, and similar data 404b corresponding to the real data 406 may be generated by adding corresponding elements to each other. The multiplexer 408 may be implemented in any device that supports an addition operation, and may be referred to as an adder/adder, an overlapper/overlapper, or the like. In addition, the multiplexer 408 may not be configured separately, but may be implemented as part of an existing configuration (eg, G in FIG. 4/6/7/8 and noise generator in FIG. 6/7/8). D (410) distinguishes whether the input is genuine data. Given data x as input, the output D(x) of D(410) returns the probability that x is real data.
즉, GAN의 G(402)는 노이즈를 생성하고, GAN의 D(410)는 (1) 실제 데이터(406)와 (2) 실제 데이터에 노이즈를 더함으로써 생성된 유사 데이터(404b)를 구분할 수 있도록 학습된다. 이때, GAN 학습을 위해 실제 정상 데이터와 실제 이벤트 데이터가 모두 사용될 수 있다. 한편, GAN은 G(402)와 D(410)를 번갈아 학습하면서, G(402)는 D(410)가 구별할 수 없을 만큼 유사 데이터를 잘 만들 수 있도록, D(410)는 G(402)가 어떠한 유사 데이터를 만들어내더라도 잘 구별해낼 수 있도록 학습될 수 있다. 따라서, 종래 기술에 따르면, G(402)가 생성하는 노이즈(404a)가 0으로 수렴될 수 있다. 이 경우, 정상 데이터를 이용하여 학습된 GAN은 유사 정상 데이터만을 생성할 수 있다. 따라서, 노이즈(404a)가 0으로 수렴되는 것을 방지하기 위해, 노이즈(404a)의 손실(예, L1 손실)을 GAN의 학습 손실에 추가할 수 있다.That is, G(402) of GAN generates noise, and D(410) of GAN can distinguish (1) real data 406 and (2) similar data 404b generated by adding noise to real data. learned to be At this time, both actual normal data and actual event data may be used for GAN learning. On the other hand, GAN learns G(402) and D(410) alternately, so that G(402) can create similar data well enough that D(410) cannot distinguish, D(410) is G(402) It can be learned to distinguish well from any similar data. Therefore, according to the prior art, the noise 404a generated by G 402 can converge to zero. In this case, the GAN learned using normal data can generate only pseudo-normal data. Therefore, in order to prevent the noise 404a from converging to 0, the loss of the noise 404a (eg, L1 loss) may be added to the training loss of the GAN.
수학식 4는 본 발명의 일 예에 따른 손실 함수를 나타낸다. GAN의 학습은 수학식 1의 손실을 최소화 하는 방향으로 진행된다.Equation 4 represents a loss function according to an example of the present invention. Learning of GAN proceeds in the direction of minimizing the loss of Equation 1.
Figure PCTKR2021016322-appb-img-000004
Figure PCTKR2021016322-appb-img-000004
- x는 실제 데이터(406)를 나타내고,- x represents real data 406;
- D(x)는 입력 x가 실제 데이터일 확률을 나타내며,- D(x) represents the probability that input x is real data,
- G(z)는 입력 z로부터 생성된 노이즈(404a)를 나타내고, - G(z) represents the noise 404a generated from the input z,
- G(z)+x는 유사 데이터(404b)를 나타내고,- G(z)+x denotes like data 404b,
-
Figure PCTKR2021016322-appb-img-000005
는 노이즈(404a)의 손실(예, L1 손실)을 나타내며,
-
Figure PCTKR2021016322-appb-img-000005
represents the loss of noise 404a (e.g., L1 loss),
-
Figure PCTKR2021016322-appb-img-000006
는 학습 안정화를 위해 튜닝 가능한 하이퍼(hyper) 파라미터를 나타낸다.
-
Figure PCTKR2021016322-appb-img-000006
denotes a tunable hyperparameter for learning stabilization.
-
Figure PCTKR2021016322-appb-img-000007
는 L1 노름(norm)을 나타내며 수학식 5로 정의된다.
-
Figure PCTKR2021016322-appb-img-000007
Represents the L1 norm and is defined by Equation 5.
Figure PCTKR2021016322-appb-img-000008
Figure PCTKR2021016322-appb-img-000008
여기서, i는 G(z)를 구성하는 벡터의 원소 번호를 나타내고, n은 G(z)를 구성하는 벡터의 원소 개수를 나타낸다.Here, i represents the number of elements of a vector constituting G(z), and n represents the number of elements of a vector constituting G(z).
여기서, i는 G(z)를 구성하는 벡터의 원소 번호를 나타내고, n은 G(z)를 구성하는 벡터의 원소 개수를 나타낸다.Here, i represents the number of elements of a vector constituting G(z), and n represents the number of elements of a vector constituting G(z).
GAN의 손실 함수에 노이즈(404a) 손실(예, L1 손실) 항을 포함시킴으로써, G(z)가 0으로 수렴하는 것을 방지할 수 있다. 이에 따라, 데이터의 표준 편차를 통해 노이즈를 생성 시에 정상 데이터만 따로 분리할 필요가 없으며, 피쳐(feature)별 최적의 노이즈 강도가 학습을 통해 자동으로 결정될 수 있다. 즉, 종래와 달리(도 2 참조), 정상 데이터와 이벤트 데이터를 모두 사용하여 GAN을 훈련시키는 것이 가능하다. GAN의 훈련 결과를 이용하여 정상 데이터 (세트)로부터 유사 데이터 (세트)를 생성할 수 있으며, 생성된 유사 데이터 (세트)는 딥러닝 학습 등에서 이벤트 데이터 (세트)로 사용될 수 있다. 예를 들어, GAN의 훈련 결과를 이용하여 정상 의료 데이터 (세트)로부터 유사 의료 데이터 (세트)를 생성할 수 있으며, 생성된 유사 의료 데이터 (세트)는 딥러닝 학습(예, 의료용 인공 신경망) 등에서 이벤트 의료 데이터 (세트)로 사용될 수 있다. 이를 위해, 유사 데이터 (세트)를 이벤트 데이터 (세트)로 라벨링 하는 과정이 포함될 수 있다. 여기서, 학습용 데이터 (세트) 생성에 사용되는 정상 데이터 (세트)는 실제/유사 정상 데이터 (세트)를 포함하며, 바람직하게는 실제 정상 데이터 (세트)를 포함할 수 있다. 결국, 본 발명에 따르면, 딥러닝 학습에 사용되는 이벤트 데이터의 수를 늘려 모델의 성능(Accuracy, AUROC 등)을 향상시킬 수 있다.By including the noise 404a loss (eg, L1 loss) term in the loss function of the GAN, it is possible to prevent G(z) from converging to zero. Accordingly, when generating noise through the standard deviation of data, there is no need to separate only normal data, and an optimal noise intensity for each feature can be automatically determined through learning. That is, unlike the prior art (see FIG. 2), it is possible to train a GAN using both normal data and event data. Similar data (sets) can be generated from normal data (sets) using GAN training results, and the generated similar data (sets) can be used as event data (sets) in deep learning learning. For example, similar medical data (sets) can be generated from normal medical data (sets) using GAN training results, and the generated similar medical data (sets) can be used in deep learning learning (eg, medical artificial neural networks), etc. Can be used as event medical data (set). To this end, a process of labeling similar data (set) as event data (set) may be included. Here, the normal data (set) used to generate the training data (set) includes actual/similar normal data (set), and may preferably include actual normal data (set). After all, according to the present invention, the performance of the model (accuracy, AUROC, etc.) can be improved by increasing the number of event data used for deep learning learning.
여기서, 라벨링은 각각의 데이터에 대응하여 라벨링 데이터를 생성하는 것을 포함한다. 라벨링 데이터는 각각의 데이터에 대응하여 생성되는 데이터로서, 의료 데이터의 특성 정보 중 적어도 하나를 포함하는 데이터를 의미할 수 있다. 의료 데이터(예, 영상)의 특성 정보는 조직 영역 또는 병변 영역의 존재 여부 및 그 위치 정보, 조직 영역 또는 병변 영역이 관찰된 경과 시간에 대응되는 시간 정보(예, 30초), 심전도 정보를 포함할 수 있으나, 이에 한정되는 것은 아니고, 의료 데이터의 특성을 반영할 수 있는 임의의 정보를 포함할 수 있다.Here, labeling includes generating labeling data corresponding to each data. Labeling data is data generated corresponding to each data, and may refer to data including at least one of characteristic information of medical data. Characteristic information of medical data (eg, images) includes information on the existence and location of a tissue area or lesion area, time information corresponding to the elapsed time at which the tissue area or lesion area was observed (eg, 30 seconds), and electrocardiogram information. However, it is not limited thereto, and may include arbitrary information capable of reflecting characteristics of medical data.
도 5는 본 발명의 일 예로서 의료용 인공 신경망을 훈련하는 예를 나타낸다. 도 5를 참조하면, 의료용 인공 신경망은 정상 의료 데이터 (세트) 및 이벤트 의료 데이터 (세트)를 이용하여 훈련될 수 있다. 훈련된 인공 신경망은 입력된 의료 데이터 (세트)를 기반으로 질병/생체상태에 대한 정보를 제공할 수 있다. 도 5에 관한 기본적인 내용은 도 3을 참조하여 설명한 바와 같다. 도 3과 다른 점은, 유사 데이터 제공 방법에 있다. 도 3은 이벤트 데이터를 이용하여 학습된 GAN을 이용하여 유사 이벤트 데이터가 제공되는 반면(도 2 참조), 본 발명에서는 도 4의 GAN을 이용하여 유사 이벤트 데이터가 제공될 수 있다. 도 4의 GAN은 노이즈에 대한 L1 손실을 고려함으로써, 정상 데이터와 이벤트 데이터를 모두 사용하여 학습될 수 있다. 결과적으로, 도 4의 GAN을 이용하여, 이벤트 데이터보다 훨씬 수가 많은 정상 데이터 (세트)를 이용하여 유사 이벤트 데이터 (세트)를 의료용 인공 신경망 학습을 위해 제공할 수 있다. 이때, 정상 데이터 (세트)로부터 생성된 유사 데이터 (세트)를 이벤트 데이터 (세트)로 이용하기 위해, 유사 데이터를 이벤트 데이터로 라벨링 하는 과정이 포함될 수 있다.5 shows an example of training a medical artificial neural network as an example of the present invention. Referring to FIG. 5 , a medical artificial neural network may be trained using normal medical data (set) and event medical data (set). The trained artificial neural network can provide information about disease/biological condition based on input medical data (set). The basic contents of FIG. 5 have been described with reference to FIG. 3 . The difference from FIG. 3 lies in the method of providing similar data. In FIG. 3 , similar event data is provided using the GAN learned using event data (see FIG. 2 ), whereas in the present invention, similar event data may be provided using the GAN of FIG. 4 . The GAN of FIG. 4 can be trained using both normal data and event data by considering the L1 loss for noise. As a result, by using the GAN of FIG. 4 , similar event data (sets) can be provided for training of the medical artificial neural network using normal data (sets) much larger in number than event data. In this case, in order to use similar data (set) generated from normal data (set) as event data (set), a process of labeling similar data as event data may be included.
도 6은 본 발명의 일 예에 따른 노이즈 생성기를 예시한다. 도 6은 노이즈 생성기(600)가 도 4의 GAN의 일부로 구성되는 경우를 예시한다. 도 6의 602, 604a, 604b, 606 및 608은 도 4의 402, 404a, 404b, 406 및 408에 대응한다. 각각에 대한 설명은 도 4를 참조할 수 있다. 도 4의 GAN에 대한 학습이 완료되면, GAN의 G를 구성하는 신경망의 각 계층/노드는 학습 결과(예, 가중치 세트)를 이용하여 갱신된다. 이후, 도 4의 GAN은 유사 (이벤트) 데이터 생성을 위한 노이즈 생성기(600)로 재활용될 수 있다. 예를 들어, 도 6의 노이즈 생성기(600)는 도 4의 GAN에서 노이즈 생성을 위한 요소(예, G)들의 집합, 혹은 유사 (이벤트) 데이터 생성을 위한 요소(예, G, 다중화기)들의 집합으로 이해/정의될 수 있다. 도 6의 노이즈 생성기(600)는 도 4의 학습 결과에 기반하여 노이즈(604a)를 생성할 수 있다. 구체적으로, 도 6의 노이즈 생성기(600)는 본 발명의 제안에 따라 학습된 생성기(G, 602)를 포함하며(도 4 참조; 수학식 1 참조), 생성기(G, 602)를 통해 랜덤 값(z)으로부터 노이즈(604a)가 생성될 수 있다. 생성된 노이즈(604a)는 실제 데이터를 유사 (이벤트) 데이터로 변환하는데 사용될 수 있다. 예를 들어, 생성된 노이즈(604a)는 실제 데이터(606)에 더해지며, 이를 통해 유사 (이벤트) 데이터(604b)가 제공될 수 있다. 여기서, 본 발명의 예에 따른 노이즈(604a)가 부가될 수 있는 실제 데이터(606)는 정상/이벤트 데이터를 모두 포함하며, 바람직하게는 정상 데이터로 국한될 수 있다. 본 발명의 예에 따른 노이즈(604a)를 이용하여 실제 데이터(606)로부터 변환된 유사 (이벤트) 데이터(604b)는, 도 4와 달리 판별기(D)로 입력되지 않는다. 대신, 본 발명의 예에 따른 노이즈(604a)를 이용하여 실제 데이터 (세트)(606)로부터 변환된 유사 (이벤트) 데이터 (세트)(604b)는, 실제 데이터가 정상 데이터인지 이벤트 데이터인지 관계 없이, 의료용 인공 신경망(506)을 학습/훈련 시 이벤트 데이터 (세트)로 사용될 수 있다. 여기서, 의료용 인공 신경망(506)을 학습/훈련하는 것은, 유사 (이벤트) 데이터(604b)를 이벤트 데이터로 라벨링 하는 과정을 포함할 수 있다. 여기서, 학습/훈련용 데이터 (세트) 생성에 사용되는 실제 데이터 (세트)(606)는 유사 데이터 (세트)로 대체될 수 있다. 본 발명에 따르면, 종래와 달리(도 2 참조), 실제 정상 데이터 (세트)를 이용하여 유사 이벤트 데이터 (세트)를 제공할 수 있게 함으로써 의료용 신경망을 학습/훈련 시에 데이터 불균형을 해소할 수 있다.6 illustrates a noise generator according to one example of the invention. FIG. 6 illustrates a case where the noise generator 600 is configured as part of the GAN of FIG. 4 . 602 , 604a , 604b , 606 and 608 in FIG. 6 correspond to 402 , 404a , 404b , 406 and 408 in FIG. 4 . A description of each may refer to FIG. 4 . When learning of the GAN of FIG. 4 is completed, each layer/node of the neural network constituting G of the GAN is updated using a learning result (eg, a weight set). Thereafter, the GAN of FIG. 4 can be reused as a noise generator 600 for generating similar (event) data. For example, the noise generator 600 of FIG. 6 is a set of elements (eg, G) for generating noise in the GAN of FIG. 4 or elements (eg, G, multiplexers) for generating similar (event) data. It can be understood/defined as a set. The noise generator 600 of FIG. 6 may generate noise 604a based on the learning result of FIG. 4 . Specifically, the noise generator 600 of FIG. 6 includes a generator (G, 602) learned according to the proposal of the present invention (see FIG. 4; see Equation 1), and a random value is generated through the generator (G, 602). Noise 604a may be generated from (z). The generated noise 604a can be used to transform real data into pseudo (event) data. For example, the generated noise 604a is added to the actual data 606, through which similar (event) data 604b may be provided. Here, the actual data 606 to which the noise 604a may be added according to an example of the present invention includes both normal/event data, and may preferably be limited to normal data. Similar (event) data 604b converted from real data 606 using noise 604a according to the present invention is not input to the discriminator D, unlike FIG. 4 . Instead, similar (event) data (set) 604b converted from real data (set) 606 using noise 604a according to an example of the present invention, regardless of whether the real data is normal data or event data. , can be used as event data (set) when learning/training the medical artificial neural network 506. Here, learning/training the medical artificial neural network 506 may include a process of labeling the similar (event) data 604b as event data. Here, the actual data (set) 606 used to generate learning/training data (set) may be replaced with similar data (set). According to the present invention, unlike the prior art (refer to FIG. 2), it is possible to provide similar event data (set) using actual normal data (set), thereby solving data imbalance during learning/training of a medical neural network. .
도 7은 본 발명의 다른 예에 따른 노이즈 생성기를 예시한다. 도 7은 노이즈 생성기(700)가 도 4의 GAN과 달리 별도로 구성되는 경우를 예시한다. 예를 들어, 노이즈 생성기(700)는 노이즈 생성을 위한 신경망을 포함할 수 있다. 이로 제한되는 것은 아니지만, 노이즈 생성을 위한 신경망은 도 4의 GAN에서 G를 포함할 수 있다. 이 경우, 노이즈 생성기(700)는 도 4의 GAN에서 D를 제외하고 구성되거나, 도 4의 GAN에서 G만을 포함하도록 구성될 수 있다. 이 경우, 노이즈 생성기(700)의 노이즈 생성을 위한 신경망(예, G)(702)은 도 4의 GAN의 학습 결과(예, 가중치 세트)를 이용하여, z로부터 노이즈(704a)를 생성할 수 있다. 즉, 노이즈 생성을 위한 신경망(예, G)(702)의 각 계층/노드는 도 4의 학습 결과(예, 가중치 세트)를 이용하여 갱신된다. 이후, 노이즈 생성을 위한 신경망(예, G)(702)은 랜덤 값(z)으로부터 노이즈(704a)를 생성할 수 있으며, 생성된 노이즈(704a)는 실제 데이터를 유사 (이벤트) 데이터로 변환하는데 사용될 수 있다. 예를 들어, 노이즈 생성기(700)로부터 생성된 노이즈(704a)는 다중화기(708)를 통해 실제 데이터(706)에 더해지며, 이를 통해 유사 (이벤트) 데이터(704b)가 제공될 수 있다. 여기서, 본 발명의 예에 따른 노이즈(704a)가 부가될 수 있는 실제 데이터(706)는, 정상/이벤트 데이터를 모두 포함하며, 바람직하게는 정상 데이터로 국한될 수 있다. 본 발명에 따른 노이즈(704a)를 부가함으로써 생성된 유사 (이벤트) 데이터 (세트)(704b)는, 실제 데이터가 정상 데이터인지 이벤트 데이터인지 관계 없이, 의료용 인공 신경망(506)을 학습/훈련 시 이벤트 데이터 (세트)로 사용될 수 있다. 여기서, 의료용 인공 신경망(506)을 학습/훈련하는 것은, 유사 (이벤트) 데이터(704b)를 이벤트 데이터로 라벨링 하는 과정을 포함할 수 있다. 여기서, 학습/훈련용 데이터 (세트) 생성에 사용되는 실제 데이터 (세트)(706)는 유사 데이터 (세트)로 대체될 수 있다.본 발명에 따르면, 종래와 달리(도 2 참조), 실제 정상 데이터를 이용하여 유사 이벤트 데이터를 제공할 수 있게 함으로써 의료용 신경망을 학습/훈련 시에 데이터 불균형을 해소할 수 있다.7 illustrates a noise generator according to another example of the present invention. FIG. 7 illustrates a case where the noise generator 700 is configured separately unlike the GAN of FIG. 4 . For example, the noise generator 700 may include a neural network for generating noise. Although not limited thereto, the neural network for noise generation may include G in the GAN of FIG. 4 . In this case, the noise generator 700 may be configured to exclude D from the GAN of FIG. 4 or include only G from the GAN of FIG. 4 . In this case, the neural network (eg, G) 702 for generating noise of the noise generator 700 may generate noise 704a from z using the learning result (eg, weight set) of the GAN of FIG. 4 . there is. That is, each layer/node of the neural network (eg, G) 702 for noise generation is updated using the learning result (eg, weight set) of FIG. 4 . Thereafter, the neural network (eg, G) 702 for noise generation may generate noise 704a from the random value z, and the generated noise 704a converts real data into similar (event) data. can be used For example, the noise 704a generated by the noise generator 700 is added to the actual data 706 through the multiplexer 708, through which similar (event) data 704b may be provided. Here, the actual data 706 to which the noise 704a may be added according to an example of the present invention includes both normal/event data, and may preferably be limited to normal data. Similar (event) data (set) 704b generated by adding noise 704a according to the present invention is an event when learning/training the medical artificial neural network 506, regardless of whether the actual data is normal data or event data. Can be used as data (set). Here, learning/training the medical artificial neural network 506 may include a process of labeling the similar (event) data 704b as event data. Here, the actual data (set) 706 used to generate learning/training data (set) can be replaced with similar data (set). According to the present invention, unlike the prior art (see FIG. 2), the actual normal By enabling similar event data to be provided using data, data imbalance can be resolved during learning/training of a medical neural network.
도 8은 컴퓨팅 장치가 유사 이벤트 의료 데이터를 생성하는 방법을 설명하기 위한 도면이다.8 is a diagram for explaining a method of generating similar event medical data by a computing device.
도 8을 참조하면, 컴퓨팅 장치는 노이즈 생성기(800)를 이용하여 입력된 실제 이벤트 의료 데이터 (또는, 실제 이벤트 데이터) 유사 이벤트 의료 데이터 (또는, 유사 이벤트 데이터)를 생성할 수 있다. 노이즈 생성기(800)는 상기 유사 이벤트 의료 데이터를 생성하기 위해서 도 4의 GAN과 달리 별도로 구성될 수 있다. 예를 들어, 노이즈 생성기(800)는 노이즈 생성을 위한 신경망을 포함할 수 있다. 이로 제한되는 것은 아니지만, 노이즈 생성을 위한 신경망은 도 4의 GAN에서 G를 포함할 수 있다. 이 경우, 노이즈 생성기(800)는 도 4의 GAN에서 D를 제외하고 구성되거나, 도 4의 GAN에서 G만을 포함하도록 구성될 수 있다.Referring to FIG. 8 , the computing device may generate input real event medical data (or actual event data) and similar event medical data (or similar event data) using the noise generator 800 . The noise generator 800 may be configured separately unlike the GAN of FIG. 4 to generate the similar event medical data. For example, the noise generator 800 may include a neural network for generating noise. Although not limited thereto, the neural network for noise generation may include G in the GAN of FIG. 4 . In this case, the noise generator 800 may be configured to exclude D from the GAN of FIG. 4 or include only G from the GAN of FIG. 4 .
이 경우, 상기 컴퓨팅 장치는 노이즈 생성기(800)의 노이즈 생성을 위한 신경망(예, G)(802)은 도 4의 GAN의 학습 결과(예, 가중치 세트)를 이용하여, z로부터 노이즈(804a)를 생성할 수 있다. 즉, 노이즈 생성을 위한 신경망(예, G)(802)의 각 계층/노드는 도 4의 학습 결과(예, 가중치 세트)를 이용하여 갱신된다. 이후, 노이즈 생성을 위한 신경망(예, G)(802)은 랜덤 값(z)으로부터 노이즈(804a)를 생성할 수 있다. 여기서, 학습된 노이즈 생성기(800)에서 생성된 노이즈(804a)는 제2 노이즈로 정의될 수도 있다.In this case, in the computing device, the neural network (eg, G) 802 for noise generation of the noise generator 800 uses the learning result (eg, weight set) of the GAN of FIG. can create That is, each layer/node of the neural network (eg, G) 802 for generating noise is updated using the learning result (eg, weight set) of FIG. 4 . Then, the neural network (eg, G) 802 for noise generation may generate noise 804a from the random value z. Here, the noise 804a generated by the learned noise generator 800 may be defined as second noise.
구체적으로, 상기 수학식 4와 같이 제1 노이즈에 대한 항을 포함하도록 정의된 손실 함수 및 실제 의료 데이터에 기반한 학습으로, 노이즈 생성기(800)는 상기 실제 의료 데이터에 기반한 유의한 노이즈(804a)를 생성할 수 있다. 여기서, 유의한 노이즈(804a)는 상기 학습을 통해 상기 실제 의료 데이터와 관련된 특성을 포함하는 노이즈이다.Specifically, with a loss function defined to include a term for the first noise as in Equation 4 above and learning based on actual medical data, the noise generator 800 generates significant noise 804a based on the actual medical data. can create Here, the significant noise 804a is noise including characteristics related to the actual medical data through the learning.
한편, 상술한 바와 같이, 상기 실제 의료 데이터는 실제 정상 의료 데이터 및 실제 이벤트 의료 데이터를 포함할 수 있다. 특히, 상기 실제 정상 의료 데이터는 상기 실제 의료 데이터의 대부분을 차지하고 있는 매이저 (majority) 클래스 데이터이고, 상기 실제 이벤트 의료 데이터는 상기 실제 의료 데이터의 일부 또는 소수를 차지하는 마이너 (minority) 클래스 데이터이다. 다시 말하자면, 상기 실제 의료 데이터는 상기 실제 정상 의료 데이터로 편향되어 구성될 수 있다. 이 경우, 노이즈 생성기(800)가 상기 실제 정상 의료 데이터로 크게 편향된 상기 실제 의료 데이터에 기반으로 학습되었는바, 노이즈 생성기(800)는 상기 실제 정상 의료 데이터에 대한 특성을 가지는 노이즈(804a)를 생성하게 된다. 즉, 상술한 학습에 의해 노이즈 생성기(800)는 상기 실제 정상 의료 데이터의 특성을 주요 특성으로 포함하는 노이즈(804a)를 생성할 수 있다.Meanwhile, as described above, the actual medical data may include actual normal medical data and actual event medical data. In particular, the actual normal medical data is major class data occupying most of the actual medical data, and the actual event medical data is minor class data occupying a part or minority of the actual medical data. In other words, the actual medical data may be biased to the actual normal medical data. In this case, since the noise generator 800 is learned based on the actual medical data that is highly biased toward the actual normal medical data, the noise generator 800 generates noise 804a having characteristics of the actual normal medical data. will do That is, by the above-described learning, the noise generator 800 may generate the noise 804a including the characteristics of the actual normal medical data as main characteristics.
노이즈(804a)는 실제 이벤트 의료 데이터 (806)를 유사 이벤트 의료 데이터 (804b)로 변환하는데 사용될 수 있다. 예컨대, 노이즈 생성기(800)로부터 생성된 노이즈(804a)는 다중화기(808)를 통해 실제 이벤트 의료 데이터(806)에 더해지며, 이를 통해 유사 이벤트 데이터(804b)가 생성될 수 있다. 여기서, 본 발명에 따른 노이즈(804a)를 부가함으로써 생성된 유사 이벤트 데이터 (세트)(804b)는 의료용 인공 신경망(506)을 학습/훈련 시 이벤트 데이터 (세트)로 사용될 수 있다. Noise 804a can be used to transform real event medical data 806 into pseudo event medical data 804b. For example, the noise 804a generated from the noise generator 800 is added to the actual event medical data 806 through the multiplexer 808, and through this, similar event data 804b may be generated. Here, the similar event data (set) 804b generated by adding the noise 804a according to the present invention may be used as event data (set) when learning/training the medical artificial neural network 506.
구체적으로, 상기 컴퓨팅 장치는 노이즈 생성기(800)를 이용하여 생성된 노이즈(804a)를 실제 이벤트 의료 데이터 (806)에 부가하여 유사 이벤트 의료 데이터 (804b)를 생성할 수 있다. 실제 이벤트 의료 데이터 (806)는 노이즈(804a)의 부가로 실제 정상 의료 데이터의 특성을 부가된 유사 이벤트 의료 데이터 (804b)로 변환될 수 있다. 즉, 상기 컴퓨팅 장치는 상기 학습 과정에서 실제 정상 의료 데이터와 관련된 특성을 포함하는 노이즈(804a)를 다른 타입의 실제 이벤트 의료 데이터 (806)에 부가하는 방식으로 실제 이벤트 의료 데이터 (806)를 증강시킬 수 있다. 예컨대, 상기 컴퓨팅 장치는 하나의 실제 이벤트 의료 데이터에 다양한 노이즈(804a)를 부가함으로써 상기 하나의 실제 이벤트 의료 데이터로부터 다양한 유사 이벤트 의료 데이터 (804b)를 생성할 수 있다. Specifically, the computing device may generate similar event medical data 804b by adding the noise 804a generated using the noise generator 800 to actual event medical data 806 . The actual event medical data 806 may be converted into similar event medical data 804b with the addition of noise 804a adding characteristics of the actual normal medical data. That is, the computing device augments the actual event medical data 806 in a manner that adds noise 804a including characteristics related to actual normal medical data to other types of actual event medical data 806 during the learning process. can For example, the computing device may generate various similar event medical data 804b from one real event medical data by adding various noises 804a to the one real event medical data.
이와 같이, 상기 컴퓨팅 장치는 노이즈(804a)를 통하여 상기 실제 의료 데이터에서 마이너 클래스 데이터인 실제 이벤트 의료 데이터 (806)에 상기 정상 의료 데이터와 관련된 특성을 부가하여 실제 이벤트 의료 데이터 (806)로부터 다양한 유사 이벤트 의료 데이터를 생성 또는 증강시킬 수 있고, 상기 증강 또는 생성을 통해 의료용 인공 신경망(506)을 학습/훈련에서 입력되는 상기 실제 의료 데이터에서의 상기 실제 정상 의료 데이터의 데이터 평향성을 최소화 또는 불균형을 해소할 수 있다.In this way, the computing device adds characteristics related to the normal medical data to the real event medical data 806, which is minor class data in the real medical data, through the noise 804a to generate various similarities from the real event medical data 806. It is possible to generate or augment event medical data, and minimize or imbalance the data bias of the actual normal medical data in the actual medical data input in learning/training the medical artificial neural network 506 through the augmentation or generation. can be resolved
도 9는 본 발명의 일 예에 따른 컴퓨팅 장치를 예시한다. 본 발명의 일 예에 따른 컴퓨팅 장치(200)는, 통신부(210) 및 프로세서(220)를 포함하며, 상기 통신부(210)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.9 illustrates a computing device according to one example of the present invention. The computing device 200 according to an example of the present invention includes a communication unit 210 and a processor 220, and may directly or indirectly communicate with an external computing device (not shown) through the communication unit 210.
구체적으로, 컴퓨팅 장치(200)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(network-attached storage; NAS) 및 스토리지 영역 네트워크(storage area network; SAN)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically, computing device 200 may include typical computer hardware (e.g., computer processors, memory, storage, input and output devices, and other devices that may include components of conventional computing devices; electronic devices such as routers, switches, and the like). communication devices; electronic information storage systems such as network-attached storage (NAS) and storage area networks (SAN)) and computer software (i.e., instructions that cause a computing device to function in a particular way); s) may be used to achieve desired system performance.
컴퓨팅 장치의 통신부(210)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(210)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스와 같은 포인팅 장치(pointing device), 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.The communication unit 210 of the computing device may transmit/receive requests and responses with other computing devices that are interlocked. As an example, such requests and responses may be made through the same transmission control protocol (TCP) session. It is not limited, and may be transmitted and received as, for example, a user datagram protocol (UDP) datagram. In addition, in a broad sense, the communication unit 210 may include a pointing device such as a keyboard or mouse for receiving commands or instructions, other external input devices, printers, displays, and other external output devices.
또한, 컴퓨팅 장치의 프로세서(220)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 220 of the computing device may include a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU) or a tensor processing unit (TPU), a cache memory, and a data bus. ) may include hardware configurations such as In addition, it may further include a software configuration of an operating system and an application that performs a specific purpose.
도 4~8을 참조하여 예시한 본 발명은 하드웨어/소프트웨어에 기반하여 구성될 수 있으며, 컴퓨팅 장치의 프로세서(220)는 도 4~8에 따른 본 발명의 동작을 수행/제어하도록 구성될 수 있다.The present invention illustrated with reference to FIGS. 4 to 8 may be configured based on hardware/software, and the processor 220 of the computing device may be configured to perform/control the operation of the present invention according to FIGS. 4 to 8 .
위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 관찰 가능한 기록 매체에 기록될 수 있다. 상기 기계 관찰 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 관찰 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 관찰 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Based on the description of the above embodiments, a person skilled in the art can understand that the methods and/or processes of the present invention, and the steps thereof, can be realized with hardware, software, or any combination of hardware and software suitable for a particular application. point can be clearly understood. The hardware may include a general purpose computer and/or a dedicated computing device or a specific computing device or a particular aspect or component of a specific computing device. The processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors or other programmable devices having internal and/or external memory. Additionally, or alternatively, the processes may be configured to process application specific integrated circuit (ASIC), programmable gate array, programmable array logic (PAL) or electronic signals. can be implemented with any other device or combination of devices. Furthermore, the objects of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-observable recording medium. The machine-observable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the machine-observable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art in the field of computer software. Examples of machine-observable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROM, DVD, and Blu-ray, and magneto-optical media such as floptical disks. (magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include stored and compiled or interpreted for execution on any one of the foregoing devices, as well as a heterogeneous combination of processors, processor architectures, or different combinations of hardware and software, or any other machine capable of executing program instructions. Machine code, This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter or the like.
따라서 본 명세서에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 명세서의 범위 내에 속하도록 의도된 것이다.Accordingly, in one aspect according to the present specification, when the methods and combinations thereof described above are performed by one or more computing devices, the methods and combinations of methods may be implemented as executable code that performs each step. In another aspect, the method may be implemented as systems performing the steps, the methods may be distributed in several ways across devices or all functions may be integrated into one dedicated, stand-alone device or other hardware. In another aspect, the means for performing the steps associated with the processes described above may include any of the hardware and/or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.
예를 들어, 상기 하드웨어 장치는 본 명세서에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.For example, the hardware device may be configured to act as one or more software modules to perform processing according to the present disclosure, and vice versa. The hardware device may include a processor such as an MPU, CPU, GPU, TPU coupled to a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and external devices and signals It may include a communication unit capable of sending and receiving. In addition, the hardware device may include a keyboard, mouse, and other external input devices for receiving commands written by developers.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described by specific details such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , Various modifications and variations can be made from these descriptions by those of ordinary skill in the art to which the present invention belongs.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments and should not be determined, and not only the claims to be described later, but also all modifications equivalent or equivalent to these claims fall within the scope of the spirit of the present invention. will do it
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 명세서에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalent or equivalent modifications will include, for example, logically equivalent methods that can produce the same results as those performed by the method according to the present specification, the spirit and scope of the present invention. should not be limited by the above examples, and should be understood in the broadest sense permitted by law.
상술한 바와 같은 본 발명의 실시형태들은 다양한 컴퓨팅 장치 등에 적용될 수 있다.Embodiments of the present invention as described above can be applied to various computing devices and the like.

Claims (10)

  1. 컴퓨팅 장치가 인공 신경망을 위한 데이터를 제공하는 방법에 있어서,A method in which a computing device provides data for an artificial neural network,
    실제 정상 의료 데이터를 포함하는 실제 의료 데이터에 기초하여 제1 노이즈에 대한 항을 포함하는 GAN (generative adversarial network)의 손실 함수가 최소화되도록 GAN을 학습하는 단계; 및learning a GAN such that a loss function of a generative adversarial network (GAN) including a term for a first noise is minimized based on actual medical data including actual normal medical data; and
    상기 학습된 GAN를 이용하여 생성된 제2 노이즈를 실제 이벤트 의료 데이터에 부가하여 유사 이벤트 의료 데이터를 생성하는 단계를 포함하는, 방법.And generating similar event medical data by adding a second noise generated using the learned GAN to actual event medical data.
  2. 제1항에 있어서,According to claim 1,
    상기 실제 정상 의료 데이터는 상기 실제 의료 데이터의 대부분을 차지하는, 방법.wherein the actual normal medical data accounts for a majority of the actual medical data.
  3. 제1항에 있어서,According to claim 1,
    상기 실제 이벤트 의료 데이터는 상기 실제 의료 데이터의 소수를 차지하는, 방법.wherein the actual event medical data occupies a minority of the actual medical data.
  4. 제1항에 있어서,According to claim 1,
    상기 제2 노이즈는 상기 실제 의료 데이터의 대부분을 차지하는 상기 실제 정상 의료 데이터의 특성을 주요 특성으로 포함하는, 방법.Wherein the second noise includes as a main characteristic a characteristic of the actual normal medical data, which occupies most of the actual medical data.
  5. 제1항에 있어서,According to claim 1,
    상기 유사 이벤트 의료 데이터는 상기 인공 신경망을 학습하기 위한 이벤트 의료 데이터 세트로 사용되는, 방법. Wherein the similar event medical data is used as an event medical data set for learning the artificial neural network.
  6. 제1항에 있어서,According to claim 1,
    상기 제1 노이즈에 대한 항은, 상기 GAN의 생성기에서 생성되는 노이즈가 0이 아닌 유의한 값을 갖도록 정의된 항을 포함하는, 방법.The term for the first noise includes a term defined so that noise generated by the generator of the GAN has a non-zero significant value.
  7. 제1항에 있어서,According to claim 1,
    상기 GAN은 상기 실제 의료 데이터와 상기 제1 노이즈가 부가된 유사 의료 데이터를 구분하는 GAN의 판별기(discriminator)를 더 포함하는, 방법.The method of claim 1 , wherein the GAN further includes a GAN discriminator that distinguishes between the real medical data and similar medical data to which the first noise is added.
  8. 컴퓨팅 장치로 하여금, 제1항 내지 제7항 중 어느 한 항의 방법을 수행하도록 구현된 명령들(instructions)을 포함하는, 매체에 저장된 컴퓨터 프로그램.A computer program stored on a medium comprising instructions implemented to cause a computing device to perform the method of any one of claims 1 to 7.
  9. 인공 신경망용 데이터를 제공하는 컴퓨팅 장치에 있어서,A computing device providing data for an artificial neural network,
    의료 데이터 획득을 위한 통신부; 및a communication unit for obtaining medical data; and
    상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는And a processor connected to the communication unit, wherein the processor
    실제 정상 의료 데이터를 포함하는 실제 의료 데이터에 기초하여 제1 노이즈에 대한 항을 포함하는 GAN (generative adversarial network)의 손실 함수가 최소화되도록 GAN을 학습시키고, 상기 GAN의 생성기에 대한 훈련 결과를 이용하여 생성된 제2 노이즈를 실제 이벤트 의료 데이터에 부가하여 유사 이벤트 의료 데이터를 생성하도록 구성된 컴퓨팅 장치.Based on real medical data including real normal medical data, GAN is trained so that the loss function of a generative adversarial network (GAN) including a term for the first noise is minimized, and the training result for the generator of the GAN is used. A computing device configured to add the generated second noise to the actual event medical data to generate similar event medical data.
  10. 제9항에 있어서,According to claim 9,
    상기 유사 이벤트 의료 데이터는 상기 인공 신경망을 학습하기 위한 이벤트 의료 데이터 세트로 이용되도록 구성된 컴퓨팅 장치.The computing device configured to use the similar event medical data as an event medical data set for learning the artificial neural network.
PCT/KR2021/016322 2021-08-26 2021-11-10 Data generation method, and training method and apparatus using same WO2023027248A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0112921 2021-08-26
KR1020210112921A KR102591355B1 (en) 2021-08-26 2021-08-26 Data generation method and training method and apparatus using same

Publications (1)

Publication Number Publication Date
WO2023027248A1 true WO2023027248A1 (en) 2023-03-02

Family

ID=85321736

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/016322 WO2023027248A1 (en) 2021-08-26 2021-11-10 Data generation method, and training method and apparatus using same

Country Status (2)

Country Link
KR (1) KR102591355B1 (en)
WO (1) WO2023027248A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102653755B1 (en) * 2023-07-18 2024-04-03 메타빌드 주식회사 System and method for collecting field image data sets for learning artificial intelligence image deep learning models

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101975186B1 (en) * 2018-07-04 2019-05-07 광운대학교 산학협력단 Apparatus and method of data generation for object detection based on generative adversarial networks
US20190198156A1 (en) * 2017-12-21 2019-06-27 International Business Machines Corporation Medical Image Classification Based on a Generative Adversarial Network Trained Discriminator
KR20210035381A (en) * 2019-09-23 2021-04-01 삼성에스디에스 주식회사 Apparatus and method for medical diagnostic
KR102283416B1 (en) * 2019-04-03 2021-07-28 조선대학교산학협력단 A method and apparatus for generating image using GAN based deep learning model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190198156A1 (en) * 2017-12-21 2019-06-27 International Business Machines Corporation Medical Image Classification Based on a Generative Adversarial Network Trained Discriminator
KR101975186B1 (en) * 2018-07-04 2019-05-07 광운대학교 산학협력단 Apparatus and method of data generation for object detection based on generative adversarial networks
KR102283416B1 (en) * 2019-04-03 2021-07-28 조선대학교산학협력단 A method and apparatus for generating image using GAN based deep learning model
KR20210035381A (en) * 2019-09-23 2021-04-01 삼성에스디에스 주식회사 Apparatus and method for medical diagnostic

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SWIECICKI ALBERT, KONZ NICHOLAS, BUDA MATEUSZ, MAZUROWSKI MACIEJ A.: "A generative adversarial network-based abnormality detection using only normal images for model training with application to digital breast tomosynthesis", SCIENTIFIC REPORTS, vol. 11, no. 1, XP093039589, DOI: 10.1038/s41598-021-89626-1 *

Also Published As

Publication number Publication date
KR102591355B1 (en) 2023-10-20
KR20230030810A (en) 2023-03-07

Similar Documents

Publication Publication Date Title
WO2019143177A1 (en) Method for reconstructing series of slice images and apparatus using same
US20210158526A1 (en) Automatic slice selection in medical imaging
WO2018155765A1 (en) Method and device analyzing plaque from computed tomography image
WO2021034138A1 (en) Dementia evaluation method and apparatus using same
WO2017051944A1 (en) Method for increasing reading efficiency by using gaze information of user in medical image reading process and apparatus therefor
WO2016125978A1 (en) Method and apparatus for displaying medical image
WO2019143021A1 (en) Method for supporting viewing of images and apparatus using same
WO2019098415A1 (en) Method for determining whether subject has developed cervical cancer, and device using same
WO2019143179A1 (en) Method for automatically detecting same regions of interest between images of same object taken with temporal interval, and apparatus using same
JP6980309B2 (en) Image providing method based on reconstructed image group and device using this
WO2019124836A1 (en) Method for mapping region of interest of first medical image onto second medical image, and device using same
WO2013151289A1 (en) Medical image compression system and method using visually lossless compression
WO2023027248A1 (en) Data generation method, and training method and apparatus using same
Almeida et al. Lung ultrasound for point-of-care COVID-19 pneumonia stratification: computer-aided diagnostics in a smartphone. First experiences classifying semiology from public datasets
WO2021054700A1 (en) Method for providing tooth lesion information, and device using same
WO2022010075A1 (en) Method for analyzing human tissue on basis of medical image and device thereof
CN115552543A (en) Time series data transformation for machine learning model applications
WO2023121206A1 (en) Learning and reconstruction method for reducing noise in image by using neural network, and computing device for performing same
WO2022145988A1 (en) Apparatus and method for facial fracture reading using artificial intelligence
EP4407554A1 (en) Medical image diagnostics assistance device, medical image diagnostics assistance method, and program
WO2022216073A1 (en) Magnetic resonance image processing apparatus to which slice resolution enhancement is applied, and method therefor
WO2017010612A1 (en) System and method for predicting pathological diagnosis on basis of medical image analysis
WO2020230972A1 (en) Method for improving reproduction performance of trained deep neural network model and device using same
WO2016080736A1 (en) Method for providing diagnosis aid information by using medical images, and system therefor
WO2023033392A1 (en) Machine learning method and apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21955166

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21955166

Country of ref document: EP

Kind code of ref document: A1