KR20220060374A - Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method - Google Patents
Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method Download PDFInfo
- Publication number
- KR20220060374A KR20220060374A KR1020200146311A KR20200146311A KR20220060374A KR 20220060374 A KR20220060374 A KR 20220060374A KR 1020200146311 A KR1020200146311 A KR 1020200146311A KR 20200146311 A KR20200146311 A KR 20200146311A KR 20220060374 A KR20220060374 A KR 20220060374A
- Authority
- KR
- South Korea
- Prior art keywords
- gan
- loss
- lossless
- image
- lossy
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000001427 coherent effect Effects 0.000 claims abstract description 24
- 230000006870 function Effects 0.000 claims description 47
- 125000004122 cyclic group Chemical group 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010801 machine learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
본 개시는 기계 학습 및 인공지능 기술에 관련된 것으로 더 상세하게는 손실 산입 모델을 생성하는 손실 산입 학습 방법, 이를 위한 학습 장치, 학습 방법을 저장한 컴퓨터 판독 가능한 기록 매체 및 상기 학습 방법을 실제로 적용한 전자 디바이스에 관한 것이다.The present disclosure relates to machine learning and artificial intelligence technology, and more particularly, a loss-inclusion learning method for generating a loss-inclusion model, a learning apparatus for this, a computer-readable recording medium storing the learning method, and an electronic device to which the learning method is actually applied It's about devices.
심층 학습 모델(Deep Learning Model)은 데이터의 분류, 예측 등의 기술 분야에 널리 활용되고 있다.Deep learning models are widely used in technology fields such as data classification and prediction.
심층 학습 모델이 좋은 성능을 보이기 위해서는 충분한 양의 데이터가 필요하며, 현실에서는 손실이 발생하지 않은 완전한 데이터를 획득하는 데에 어려움이 따른다.In order for a deep learning model to perform well, a sufficient amount of data is required, and in reality, it is difficult to obtain complete data without loss.
이에, 발생한 손실 값들을 최대한 정확하게 산입(Imputation)하는 방법이 요청된다.Accordingly, there is a need for a method of imputation of the generated loss values as accurately as possible.
본 발명이 해결하고자 하는 과제는 손실이 발생되지 않은 완전 데이터 및 소정의 손실 패턴을 갖는 손실 데이터를 학습 단계에서 모두 이용하는 손실 산입 학습 방법 및 장치를 제공하는 데에 있다.An object of the present invention is to provide a loss-included learning method and apparatus using both complete data in which no loss has occurred and loss data having a predetermined loss pattern in the learning step.
본 발명의 또 다른 과제는, 손실을 발생시키는 네트워크를 이용하여 다양한 손실 형태에 대한 산입을 수행하는 손실 산입 학습 방법 및 장치를 제공하는 데에 있다.Another object of the present invention is to provide a loss inclusion learning method and apparatus for performing inclusion of various loss types using a network that generates a loss.
본 발명의 또 다른 과제는, 손실되지 않은 부분에 대한 실제 조건부 확률 분포를 잘 반영하는 손실 산입 학습 방법 및 장치를 제공하는 데에 있다.Another object of the present invention is to provide a loss inclusion learning method and apparatus that well reflects the actual conditional probability distribution for a non-lossy part.
본 발명의 또 다른 과제는, 순환 일관적 손실 함수를 이용하여 손실 산입 정확도를 향상시키는 손실 산입 학습 방법 및 장치를 제공하는 데에 있다.Another object of the present invention is to provide a method and apparatus for learning loss calculation for improving loss calculation accuracy by using a cyclically consistent loss function.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 전자 디바이스는 제1 GAN(Generative Adversarial Network), 제2 GAN 및 순환 일관적 네트워크를 이용하여 미리 학습된 손실 산입 모델을 저장한 메모리 및 손실 데이터를 포함하는 테스트용 손실 영상을 손실 산입 모델에 입력하여, 손실 데이터를 대체 데이터로 산입한 테스트용 무손실 영상을 생성하는 컨트롤러를 포함할 수 있다.In order to achieve the above object, the electronic device according to an embodiment of the present invention has a memory and loss storing a loss inclusion model learned in advance using a first Generative Adversarial Network (GAN), a second GAN, and a cyclic coherent network. The controller may include a controller that inputs a lossy image for testing including data into a loss inclusion model and generates a lossless image for testing in which the loss data is included as replacement data.
또한, 본 발명의 일 실시 예에 따른 프로세서에 의해 수행되는 손실 산입 학습 방법은 미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 무손실 레퍼런스 영상에 대응하는 손실 레퍼런스 영상을 입력받는 단계; 및 제1 GAN의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 제1 GAN 및 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 단계를 포함할 수 있다.In addition, the loss inclusion learning method performed by the processor according to an embodiment of the present invention includes the steps of receiving a lossy reference image including one or more lossless reference images and loss data prepared in advance and corresponding to the lossless reference image; and updating the parameters of the first GAN and the second GAN for each batch period such that the sum of the first loss function of the first GAN, the second loss function of the second GAN, and the third loss function of the cyclically coherent network are minimized. may include
또한, 본 발명의 일 실시 예에 따른 손실 산입 학습 방법은 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 저장될 수 있다.In addition, the loss-included learning method according to an embodiment of the present invention may be stored in a computer-readable recording medium in which a program to be executed on a computer is recorded.
상기 프로그램은, 프로세서에 의한 실행 시, 상기 프로세서가, 미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 무손실 레퍼런스 영상에 대응하는 하나 이상의 손실 레퍼런스 영상을 입력받는 동작 및 제1 GAN의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 제1 GAN 및 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 동작을 수행하도록 하는 실행 가능한 명령을 포함할 수 있다.When the program is executed by the processor, the processor receives one or more lossless reference images and one or more lossless reference images corresponding to the lossless reference images, including one or more previously prepared lossless reference images, and a first loss of the first GAN. function, the second loss function of the second GAN, and the third loss function of the recursive coherent network to minimize the sum of the parameters of the first GAN and the second GAN for each batch period. may include
본 발명에서 이루고자 하는 기술적 과제들의 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The means of solving the technical problems to be achieved in the present invention are not limited to the solutions mentioned above, and other solutions not mentioned are clear to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood clearly.
본 발명의 다양한 실시 예에 의해, 손실이 발생되지 않은 완전 데이터 및 소정의 손실 패턴을 갖는 손실 데이터가 학습 단계에서 모두 이용됨으로써, 손실 산입 정확도가 향상될 수 있다.According to various embodiments of the present disclosure, since complete data in which no loss has occurred and loss data having a predetermined loss pattern are both used in the learning step, loss calculation accuracy may be improved.
또한, 다양한 손실 형태에 대한 산입이 정확도 높게 수행될 수 있으며, 손실되지 않은 부분에 대한 실제 조건부 확률 분포가 잘 반영될 수 있다.In addition, the inclusion of various loss types can be performed with high accuracy, and the actual conditional probability distribution for the non-lossed part can be well reflected.
또한, 순환 일관적 네트워크의 손실 함수를 이용하여 손실 산입 정확도가 향상될 수 있다.In addition, loss calculation accuracy can be improved by using the loss function of the recursive coherent network.
도 1은 본 발명의 일 실시 예에 따른 학습된 손실 산입 모델을 적용하는 전자 디바이스의 동작을 개략적으로 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 손실 산입 학습 장치 및 학습된 손실 산입 모델을 적용하는 전자 디바이스의 구성을 설명하기 위한 상대 블록도,
도 3은 본 발명의 일 실시 예에 따른 손실 산입 학습 장치의 동작을 구체적으로 설명하기 위한 도면, 그리고,
도 4는 본 발명의 일 실시 예에 따른 손실 산입 학습 방법을 나타내는 시퀀스도이다.1 is a diagram for schematically explaining an operation of an electronic device to which a learned loss inclusion model is applied according to an embodiment of the present invention;
2 is a relative block diagram for explaining the configuration of an electronic device to which a loss inclusion learning apparatus and a learned loss inclusion model are applied according to an embodiment of the present invention;
3 is a view for explaining in detail the operation of the loss inclusion learning apparatus according to an embodiment of the present invention, and,
4 is a sequence diagram illustrating a loss inclusion learning method according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명의 예시적인 실시예들에 대하여 설명한다. 본 발명은 서로 다른 다양한 형태들로 구현될 수 있으며, 본 명세서에 설명된 실시예들로 한정되는 것으로 해석되어서는 안 된다. 도면에서 구성요소들, 계층들 및 영역들의 상대적인 크기는 설명의 명확성을 위해 과장될 수 있다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings. The present invention may be implemented in a variety of different forms, and should not be construed as being limited to the embodiments described herein. The relative sizes of components, layers, and regions in the drawings may be exaggerated for clarity of description.
도 1은 본 발명의 일 실시 예에 따른 학습된 손실 산입 모델(155)을 적용하는 전자 디바이스(200)의 동작을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating an operation of an
우선, 자세히 설명하기에 앞서, 몇몇 용어를 정리하기로 한다. “손실”은 영상 데이터에 손실 데이터가 있는 것을 의미하며, 영상 데이터를 디스플레이에 출력하면 문제를 야기할 수 있다. 선택적 실시 예로, 손실 데이터는 소정의 패턴을 형성할 수 있으며, 디스플레이에 마스킹(TMAa)되어 출력될 수 있다. 산입(Imputation)은 손실 데이터를 포함하는 손실 영상에 대해, 손실 데이터를 대체 데이터로 입력하는 것이며, 산입 성능은 산입된 영상 및 무손실 원본 영상의 일치 정확도에 기초하여 결정될 수 있다.First, before explaining in detail, some terms will be summarized. “Loss” means that there is lost data in the image data, and outputting the image data to a display may cause problems. In an optional embodiment, the loss data may form a predetermined pattern, and may be masked (TMAa) and output on the display. Imputation is inputting lossy data as replacement data for a lossy image including lossy data, and the imputation performance may be determined based on matching accuracy between the incorporated image and the lossless original image.
전자 디바이스(200)는 학습이 완료된 손실 산입 모델(155)을 이용하는 장치(가령, 랩탑, 스마트폰, 텔레비전 등)일 수 있다. 구체적으로, 전자 디바이스(200)는 손실 데이터(TMAa)를 포함하는 테스트용 손실 영상(TMI)를 손실 산입 모델(155)에 입력하여 손실 데이터(TMAa)가 대체 데이터로 산입된 테스트용 무손실 영상(TNMI)를 출력할 수 있다.The
여기서, 손실 산입 모델(155)은 손실 산입 학습 장치(도 2의 100)에 의해 생성된 모델이다. 실시 예에서, 전자 디바이스(200)는 손실 산입 모델(155)을 트레이닝한 손실 산입 학습 장치(100)와 동일한 기기로 구현될 수 있다.Here, the
도 2는 본 발명의 일 실시 예에 따른 손실 산입 학습 장치(100) 및 학습된 손실 산입 모델(155A)을 적용하는 전자 디바이스(200)의 구성을 설명하기 위한 상대 블록도이다.FIG. 2 is a relative block diagram for explaining the configuration of the apparatus 100 for learning loss inclusion according to an embodiment of the present invention and the
손실 산입 학습 장치(100)는 손실 산입 모델(155)을 트레이닝하는 장치로, 통신부(110), 메모리(150) 및 프로세서(190)를 포함할 수 있으며, 전자 장치(200)는 통신부(210), 메모리(250) 및 컨트롤러(290)를 포함할 수 있다. 도 2에 도시된 구성요소들은 손실 산입 학습 장치(100) 및 전자 장치(200)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 손실 산입 학습 장치(100) 및 전자 장치(200)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The loss calculation learning apparatus 100 is an apparatus for training the
손실 산입 학습 장치(100)는 생성자(Generator) 및 식별자(Discriminator)를 각각 포함하는 제1 GAN(Generative Adversarial Network, 생성 적대적 네트워크) 및 제2 GAN을 포함할 수 있다. 아울러, 손실 산입 학습 장치(100)는 순환 일관적 네트워크를 이용하여 손실 산입 모델(155)을 트레이닝할 수 있다.The loss inclusion learning apparatus 100 may include a first Generative Adversarial Network (GAN) and a second GAN each including a generator and an identifier (Discriminator). In addition, the loss inclusion learning apparatus 100 may train the
여기서, GAN은 비지도학습(UnSupervised Learning)의 일 방법으로 생성자와 식별자 간의 적대적인 학습을 수행하여, 클래스 분류를 정확도 높게 수행하는 네트워크일 수 있다.Here, the GAN may be a network that performs class classification with high accuracy by performing adversarial learning between a generator and an identifier as a method of unsupervised learning.
손실 산입 학습 장치(100)는 미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 레퍼런스 영상을 이용하여, 손실 산입 성능을 향상시킬 수 있다. 레퍼런스 영상(무손실 또는 손실)은 GAN 또는 순환 일관적 네트워크가 생성하지 않고, 미리 마련되어 레퍼런스로 사용하는 영상을 말한다.The loss inclusion learning apparatus 100 may improve loss inclusion performance by using one or more previously prepared lossless reference images and lossy reference images. A reference image (lossless or lossy) refers to an image that is prepared in advance and used as a reference without being generated by a GAN or a circular coherent network.
여기서, 무손실 레퍼런스 영상은 손실 데이터가 없는 원본 영상이며, 학습 전에 미리 마련된 영상이고 GAN의 생성자에 의해 생성되지 않은 영상이다. 손실 레퍼런스 영상은 손실 데이터를 포함하는 원본 영상이며, 학습 전에 미리 마련된 영상이고, 상기 무손실 레퍼런스 영상에 대응하는 영상이며, GAN의 생성자에 의해 생성되지 않은 영상이다.Here, the lossless reference image is an original image without lossy data, an image prepared in advance before learning, and an image not generated by the generator of the GAN. The lossy reference image is an original image including loss data, is an image prepared in advance before learning, is an image corresponding to the lossless reference image, and is an image not generated by the generator of the GAN.
선택적 실시 예로, 무손실 레퍼런스 영상 및 손실 레퍼런스 영상은 MNIST(Modified National Institute of Standards and Technology Database)의 영상일 수 있다.In an optional embodiment, the lossless reference image and the lossy reference image may be images of a Modified National Institute of Standards and Technology Database (MNIST).
상기 손실 산입 학습 장치(100)는 손실이 발생되지 않은 완전 데이터인 무손실 레퍼런스 영상 및 소정의 손실 패턴을 갖는 손실 데이터인 손실 레퍼런스 영상을 학습 단계에서 모두 이용하여 산입 정확도를 향상시킬 수 있다. 이는, 손실이 있는 영상만으로 학습을 수행하거나 손실이 없는 영상만으로 학습을 수행하여 산입 정확도가 크게 높지 않은 종래 기술의 한계를 극복한 것이다.The loss inclusion learning apparatus 100 may improve inclusion accuracy by using both a lossless reference image, which is complete data in which no loss has occurred, and a lossless reference image, which is lossy data having a predetermined loss pattern, in the learning step. This overcomes the limitations of the prior art, in which the counting accuracy is not very high by performing learning only with lossy images or by performing learning only with lossless images.
손실 산입 학습 장치(100)의 프로세서(190)는 제1 GAN, 제2 GAN 및 순환 일관적 네트워크를 이용하여 손실 산입 모델(155)을 학습시킬 수 있다.The
제1 GAN은 제1 생성자 및 제1 식별자를 포함하고, 제2 GAN은 제2 생성자 및 제2 식별자를 포함할 수 있다. 순환 일관적 네트워크는 제1 GAN의 제1 생성자 및 제2 GAN의 제2 생성자를 모두 이용할 수 있다.The first GAN may include a first generator and a first identifier, and the second GAN may include a second generator and a second identifier. The circular coherent network may use both the first generator of the first GAN and the second generator of the second GAN.
구체적으로, 제1 GAN은 제1 생성자를 통해, 미리 마련된 손실 레퍼런스 영상을 제1 무손실 영상으로 생성하고, 제1 식별자를 통해 제1 무손실 영상과 무손실 레퍼런스 영상을 제1 손실함수에 기초하여 식별할 수 있다.Specifically, the first GAN generates a lossy reference image prepared in advance as a first lossless image through the first generator, and identifies the first lossless image and the lossless reference image based on the first loss function through the first identifier. can
즉, 제1 GAN은 소정의 패턴을 갖는 손실 데이터를 포함한 손실 레퍼런스 영상을 무손실 영상으로 생성한 후, 생성된 무손실 영상과 무손실 레퍼런스 영상의 차이를 판별할 수 있다. 제1 GAN의 판별 정도는 제1 손실 함수의 값에 의해 결정될 수 있다.That is, after the first GAN generates a lossy reference image including lossy data having a predetermined pattern as a lossless image, the first GAN may determine a difference between the generated lossless image and the lossless reference image. The discrimination degree of the first GAN may be determined by the value of the first loss function.
제1 GAN의 제1 생성자는 무손실 영상을 생성할 때, 무손실 레퍼런스 영상과 차이가 없도록 학습하는 구성이며, 제1 식별자는 무손실 레퍼런스 영상과 제1 생성자가 생성한 무손실 영상을 정밀하게 구분하도록 학습하는 구성이다. 제1 생성자 및 제1 식별자는 서로 적대적 학습을 통해, 제1 생성자가 무손실 레퍼런스 영상에 보다 근접한 무손실 영상을 생성하게 할 수 있다.When the first generator of the first GAN generates a lossless image, it is configured to learn so that there is no difference from the lossless reference image, and the first identifier learns to precisely distinguish the lossless reference image from the lossless image generated by the first generator. is the composition The first generator and the first identifier may allow the first generator to generate a lossless image closer to the lossless reference image through adversarial learning.
다음으로, 제2 GAN은 제2 생성자를 통해, 미리 마련된 무손실 레퍼런스 영상을 손실 영상으로 생성하고, 생성된 손실 영상과 손실 레퍼런스 영상을 제2 손실함수에 기초하여 식별할 수 있다.Next, the second GAN may generate a lossless reference image prepared in advance through the second generator as a loss image, and identify the generated lossy image and the lossy reference image based on the second loss function.
즉, 제2 GAN은 손실 데이터가 없는 무손실 레퍼런스 영상을 손실 영상으로 만든 후, GAN에 의해 생성된 손실 영상과 손실 레퍼런스 영상의 차이를 판별할 수 있다. 제2 GAN의 판별 정도는 제2 손실 함수의 값에 의해 결정될 수 있다.That is, after the second GAN makes a lossless reference image without loss data into a lossy image, the second GAN may determine the difference between the lossy image and the lossy reference image generated by the GAN. The discrimination degree of the second GAN may be determined by the value of the second loss function.
제2 GAN의 제2 생성자는 손실 영상을 생성할 때, 손실 레퍼런스 영상과 차이가 없도록 학습하는 구성이며, 제2 식별자는 손실 영상 및 손실 레퍼런스 영상을 정밀하게 구분하도록 학습하는 구성이다. 제2 생성자 및 제2 식별자는 서로 적대적 학습을 통해, 제2 생성자가 손실 레퍼런스 영상에 보다 근접한 손실 영상을 생성하게 할 수 있다.The second generator of the second GAN is configured to learn so that there is no difference from the loss reference image when generating the loss image, and the second identifier is a configuration to learn to precisely distinguish the loss image and the loss reference image. The second generator and the second identifier may allow the second generator to generate a lossy image closer to the lost reference image through adversarial learning.
마지막으로, 프로세서(190)는 순환 일관적 네트워크를 이용하여, 제2 GAN의 제2 생성자에 의해 생성된 손실 영상을 상기 제1 GAN의 제1 생성자에 입력하여 제2 무손실 영상(상술한 제1 식별자가 생성한 제1 무손실 영상과 구분됨)으로 생성한 후, 상기 제3 손실함수에 기초하여, 상기 제2 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별할 수 있다. 순환 일관적 네트워크의 판별 정보는 제3 손실 함수의 값에 의해 결정될 수 있다.Finally, the
프로세서(190)는 상기 제1 내지 제3 손실함수의 총합이 배치 기간 마다 최소가 되도록 제1 손실함수 및 제2 손실함수의 파라미터를 재설정할 수 있다. 즉, 프로세서(190)는 두 GAN 을 통해, 산입 정확도를 높이며, 마지막으로 순환 일관적 네트워크를 적용하여 산입 정확도를 보다 높일 수 있다.The
프로세서(190)는 데이터의 입력이 완료될 때까지, 배치 기간 단위로 손실 산입 모델(155)을 트레이닝할 수 있다. 학습 완료된 손실 산입 모델(155)은 도 1과 같이 적용 단계에서, 손실 영상(TMI)를 입력받으면, 전자 장치(200)가 무손실 영상(TNMI)를 출력할 수 있다.The
손실 산입 학습 장치(100)는 학습이 완료된 손실 산입 모델(155)을 통신부(110)를 통해 전자 디바이스(200)의 통신부(210)로 제공할 수 있으며, 전자 디바이스(200)는 제공된 손실 산입 모델(155A)을 메모리(250)에 저장할 수 있다.The loss inclusion learning apparatus 100 may provide the learned
전자 디바이스(200)의 컨트롤러(290)는 손실 데이터를 포함하는 테스트용 손실 영상을 학습 완료된 손실 산입 모델(155A)에 입력하여, 상기 손실 데이터를 대체 데이터로 산입한 테스트용 무손실 영상을 생성할 수 있다.The
도 3은 본 발명의 일 실시 예에 따른 손실 산입 학습 장치(100)의 동작을 구체적으로 설명하기 위한 도면이다.3 is a diagram for explaining in detail the operation of the loss inclusion learning apparatus 100 according to an embodiment of the present invention.
프로세서(190)는 제1 GAN(N1), 제2 GAN(N2) 및 순환 일관적 네트워크(N3)를 이용하여 손실 데이터를 포함하는 손실 영상에 대해, 손실 데이터를 대체 데이터로 산입하여 최적의 무손실 영상을 생성하는 손실 산입 모델(155)을 생성할 수 있다.The
프로세서(190)는 모든 입력 데이터에 대해 수행할 수 있으며, 배치 기간 단위로 학습을 수행하도록 각 네트워크(N1~N3)를 제어할 수 있다.The
먼저, 제1 GAN(N1)을 살펴보면, 프로세서(190)는 손실 레퍼런스 영상(RMI)를 제1 생성자(N1G)에 입력하여, 제1 무손실 영상(NMIa)을 생성할 수 있다.First, looking at the first GAN N1 , the
이때, 프로세서(190)는 손실 레퍼런스 영상(RMI)을 미리 마련하되, 손실 레퍼런스 영상(RMI)은 손실된 실제 데이터의 관측된 부분 및 손실된 위치를 가리키는 제1 마스크(M1)의 쌍으로 나타낼 수 있다. 제1 생성자(N1G)는 정규 분포로부터 임의 생성된 잠재 변수(Z, Latent Vector)를 함께 입력받아, 출력값을 확률적(Stochastic)으로 산출할 수 있다. At this time, the
프로세서(190)는 생성된 제1 무손실 영상(NMIa)을 제1 식별자(N1D)로 제공하고, 제1 식별자(N1D)가 무손실 레퍼런스 영상(RNMI) 및 제1 무손실 영상(NMIa)를 비교하도록 상기 제1 식별자(NID)를 제어할 수 있다.The
구체적으로, 프로세서(190)는 GAN의 판별식인 제1 손실 함수(V1)의 값을 아래 [식 1]에 따라 산출할 수 있다.Specifically, the
[식 1][Equation 1]
V1 = log(Dθ(x)) + log(1-Dθ(x'))V 1 = log(D θ (x)) + log(1-D θ (x'))
여기서, x는 무손실 레퍼런스 영상(RNMI)의 데이터이고, x'는 제1 생성자(N1G)가 생성한 제1 무손실 영상(NMIa)의 데이터이며, θ는 제1 손실함수의 파라미터이다.Here, x is data of the lossless reference image RNMI, x' is data of the first lossless image NMIa generated by the first generator N1G, and θ is a parameter of the first loss function.
그 다음으로, 제2 GAN을 살펴보면, 프로세서(190)는 무손실 레퍼런스 영상(RNMI)을 제2 생성자(N2G)에 입력하여, 손실 영상(MI)을 생성할 수 있다.Next, looking at the second GAN, the
이때, 프로세서(190)는 무손실 레퍼런스 영상(RNMI)을 미리 마련하고, 정규화 분포를 따르는 잠재 변수(Z, Latent Vector)를 이용하여 손실 데이터를 제2 마스크(M2)로 설정할 수 있다. In this case, the
프로세서(190)는 제2 생성자(N2G)를 이용하여, 생성된 제2 마스크(M2)를 무손실 레퍼런스 영상(RNMI)에 반영하여, 손실 영상(MI)을 생성할 수 있다.The
프로세서(190)는 생성된 손실 영상(MI)을 제2 식별자(N2D)로 제공하고, 제2 식별자(N2D)가 손실 레퍼런스 영상(RMI) 및 손실 영상(MI)을 비교하도록 제2 식별자(N2D)를 제어할 수 있다.The
구체적으로, 프로세서(190)는 GAN 알고리즘의 판별식인 제2 손실 함수(V2)의 값을 아래 [식 2]에 기초하여 산출할 수 있다.Specifically, the
[식 2][Equation 2]
V2 = log(Dφ(y)) + log(1-Dφ(y'))V 2 = log(D φ (y)) + log(1-D φ (y'))
여기서, y는 제1 마스크(M1)를 반영한 손실 레퍼런스 영상(RMI)의 데이터이고, y'는 제2 마스크(M2)를 반영한 손실 영상(MI)이며, φ는 제2 손실함수(V2)의 파라미터이다.Here, y is the data of the loss reference image RMI reflecting the first mask M1, y' is the loss image MI reflecting the second mask M2, and φ is the second loss function V 2 ) is a parameter of
다음으로, 프로세서(190)는 제2 GAN(N2)가 생성한 손실 영상(MI)을 순환 일관적 네트워크(N3)의 제1 생성자(N1G)로 제공할 수 있다. 여기서, 제1 생성자(N1G)는 제1 GAN(N1)의 제1 생성자(N1G)와 동일하며, 제2 무손실 영상(NMIb)를 생성할 수 있다.Next, the
순환 일관적 네트워크(N3)는 무손실 레퍼런스 영상(RNMI) 및 제2 무손실 영상(RNMIb)를 비교할 수 있다.The cyclic coherent network N3 may compare the lossless reference image RNMI and the second lossless image RNMIb.
구체적으로, 순환 일관적 네트워크(N3)는 아래 수식 3에 기초하여, 제3 손실함수(V3)의 값을 산출할 수 있다.Specifically, the cyclic coherent network N3 may calculate the value of the third loss function V 3 based on Equation 3 below.
[식 3][Equation 3]
V3 = ||x" - x|| V 3 = ||x" - x||
여기서, x"는 제2 무손실 영상(RNMIb)의 데이터이며, x는 무손실 레퍼런스 영상(RNMI)의 데이터이다. 즉, 순환 일관적 네트워크(N3)는 무손실 레퍼런스 영상(RNMI)을 제2 GAN(N2)의 제2 생성자(N2G)을 입력하여 손실 영상(MI)을 출력하고, 출력된 손실 영상(MI)을 다시 제1 GAN(N1)의 제1 생성자(N1G)에 입력화면 제2 무손실 영상(NMIb)이 생성되는 것을 이용하여, 제2 무손실 영상(NMIb)와 무손실 레퍼런스 영상(RNMI)를 비교할 수 있다. 이에 따라, 산입 정확도가 더욱 향상될 수 있다.Here, x" is data of the second lossless image RNMIb, and x is data of the lossless reference image RNMI. That is, the cyclic coherent network N3 converts the lossless reference image RNMI to the second GAN (N2). ) to output a lossy image (MI) by inputting the second generator (N2G) of The second lossless image NMIb and the lossless reference image RNMI may be compared by using the generated NMIb, so that counting accuracy may be further improved.
프로세서(190)는 제1 내지 제3 손실함수(V1~V3)의 값들을 총합하여, 총합이 최소가 되도록 상기 제1 GAN 및 제2 GAN의 파라미터(θ, φ)를 업데이트할 수 있다(S3).The
도 3의 프로세스는 1 배치 기간 동안 수행되는 과정을 설명한 것이며, 반복적으로 모든 데이터에 대해서 학습을 수행할 수 있다. 그러면, 최종적으로 손실 산입 모델(155)이 생성될 수 있다.The process of FIG. 3 describes a process performed during one batch period, and learning may be repeatedly performed on all data. Then, the
도 4는 본 발명의 일 실시 예에 손실 산입 학습 장치(100)의 프로세서(190)에 의해 수행되는 손실 산입 학습 방법을 나타내는 시퀀스도이다.4 is a sequence diagram illustrating a loss inclusion learning method performed by the
먼저, 프로세서(190)는 무손실 레퍼런스 영상 및 손실 레퍼런스 영상을 입력받는다(S410).First, the
여기서, 무손실 레퍼런스 영상 및 손실 레퍼런스 영상은 각 배치 기간 동안 미리 마련될 수 있다. 실시 예에서, 프로세서(190)는 무손실 레퍼런스 영상 및 손실 레퍼런스 영상을 학습 초기에 모두 입력받도록 구현될 수도 있다.Here, the lossless reference image and the lossy reference image may be prepared in advance during each deployment period. In an embodiment, the
또한, 손실 레퍼런스 영상은 무손실 레퍼런스 영상에 대응하며, 손실 데이터를 포함할 수 있다.Also, the lossy reference image corresponds to the lossless reference image and may include lossy data.
S410 단계(레퍼런스 영상 입력) 이후에, 프로세서(190)는 제1 GAN의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 상기 제1 GAN 및 상기 제2 GAN의 파라미터를 배치 기간 마다 업데이트할 수 있다(S450).After step S410 (reference image input), the
S410 단계와 S450 단계 사이의 각 단계(S42, S43, S44)를 이하에서는 설명하기로 한다. Each step ( S42 , S43 , S44 ) between steps S410 and S450 will be described below.
먼저, 프로세서(190)는 레퍼런스 영상 입력 단계(S410 단계) 이후에, 제1 GAN을 수행한다(S42, S420).First, the
구체적으로, 제1 GAN의 제1 생성자는 손실 레퍼런스 영상을 제1 무손실 영상으로 생성하고(S421), 제1 GAN의 제1 식별자는 제1 손실함수에 기초하여, 제1 무손실 영상 및 무손실 레퍼런스 영상을 식별한다(S423).Specifically, the first generator of the first GAN generates the lossy reference image as the first lossless image (S421), and the first identifier of the first GAN is based on the first loss function, the first lossless image and the lossless reference image is identified (S423).
또한, 프로세서(190)는 레퍼런스 영상 입력 단계(S410 단계) 이후에, 제2 GAN을 수행한다(S43, S430).Also, the
구체적으로, 제2 GAN의 제2 생성자는 무손실 레퍼런스 영상을 손실 영상으로 생성하고(S431), 제2 GAN의 제2 식별자는 제2 손실함수에 기초하여, 생성된 손실 영상 및 손실 레퍼런스 영상을 식별한다(S433).Specifically, the second generator of the second GAN generates a lossless reference image as a loss image (S431), and the second identifier of the second GAN identifies the generated lossy image and the lossy reference image based on the second loss function. do (S433).
여기서, S420 단계(S421 단계 및 S423 단계 포함) 및 S430 단계(S431 단계 및 S433 단계 포함)는 서로 순서를 바꾸어 수행될 수 있다. 즉, 프로세서(190)는 S431, S433, S421 및 S423 단계 순서로 프로세스를 수행할 수 있다.Here, steps S420 (including steps S421 and S423) and S430 (including steps S431 and S433) may be performed in a reverse order. That is, the
한편, 본 발명의 일 실시 예에 따른 손실 산입 학습 방법은 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 저장될 수 있다.On the other hand, the loss inclusion learning method according to an embodiment of the present invention may be stored in a computer-readable recording medium in which a program to be executed on a computer is recorded.
상기 프로그램은, 프로세서에 의한 실행 시, 프로세서가 미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 무손실 레퍼런스 영상에 대응하는 하나 이상의 손실 레퍼런스 영상을 입력받는 동작 및 제1 GAN의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 상기 제1 GAN 및 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 동작을 수행하도록 하는 실행 가능한 명령을 포함할 수 있다.When the program is executed by a processor, the processor receives one or more lossless reference images and one or more lossless reference images corresponding to the lossless reference images including lossless data and a first loss function of the first GAN, and an executable instruction to update the parameters of the first GAN and the second GAN for each batch period so that the sum of the second loss function of the second GAN and the third loss function of the cyclically coherent network is minimized. can do.
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.In the foregoing, specific embodiments of the present invention have been described and illustrated, but the present invention is not limited to the described embodiments, and those of ordinary skill in the art may make various changes to other specific embodiments without departing from the spirit and scope of the present invention. It will be appreciated that modifications and variations are possible. Accordingly, the scope of the present invention should not be defined by the described embodiments, but should be defined by the technical idea described in the claims.
Claims (11)
제1 GAN(Generative Adversarial Network), 제2 GAN 및 순환 일관적 네트워크를 이용하여 미리 학습된 손실 산입 모델을 저장한 메모리; 및
손실 데이터를 포함하는 테스트용 손실 영상을 상기 손실 산입 모델에 입력하여, 상기 손실 데이터를 대체 데이터로 산입한 테스트용 무손실 영상을 생성하는 컨트롤러를 포함하는, 전자 디바이스.An electronic device comprising:
a memory storing a loss inclusion model pre-trained using a first Generative Adversarial Network (GAN), a second GAN, and a recursive coherent network; and
and a controller configured to input a lossy test image including loss data into the loss inclusion model to generate a test lossless image in which the loss data is included as replacement data.
상기 손실 산입 모델은 학습 단계에서,
미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 레퍼런스 영상을 입력받되, 상기 손실 레퍼런스 영상은 손실 데이터를 포함하고 상기 무손실 레퍼런스 영상에 대응하며,
상기 제1 GAN의 제1 손실함수, 상기 제2 GAN의 제2 손실함수 및 상기 순환 일관적 네트워크의 제3 손실함수의 총합이 배치 기간 마다 최소가 되도록 학습되는, 전자 디바이스.According to claim 1,
The loss inclusion model is in the learning stage,
Receive one or more lossless reference images and lossy reference images prepared in advance, wherein the lossy reference image includes lossy data and corresponds to the lossless reference image,
The electronic device is trained such that the sum of the first loss function of the first GAN, the second loss function of the second GAN, and the third loss function of the cyclically coherent network is minimized for each deployment period.
상기 제1 GAN은 제1 생성자(Generator) 및 제1 식별자(Discriminator)를 포함하고,
상기 제1 생성자는,
상기 손실 레퍼런스 영상을 제1 무손실 영상으로 생성하고,
상기 제1 식별자는,
상기 제1 손실함수에 기초하여, 상기 제1 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별하는, 전자 디바이스.3. The method of claim 2,
The first GAN includes a first generator (Generator) and a first identifier (Discriminator),
The first constructor,
generating the lossy reference image as a first lossless image;
The first identifier is
and identifying the first lossless image and the lossless reference image based on the first loss function.
상기 제2 GAN은 제2 생성자 및 제2 식별자를 포함하고,
상기 제2 생성자는,
상기 무손실 레퍼런스 영상을 손실 영상으로 생성하고,
상기 제2 식별자는,
상기 제2 손실함수에 기초하여, 생성된 손실 영상 및 상기 손실 레퍼런스 영상을 식별하는, 전자 디바이스.4. The method of claim 3,
The second GAN includes a second generator and a second identifier;
The second constructor,
generating the lossless reference image as a lossy image;
The second identifier is
and identifying a generated lossy image and the lossy reference image based on the second loss function.
상기 순환 일관적 네트워크는,
상기 제2 GAN의 제2 생성자에 의해 생성된 상기 손실 영상을 상기 제1 GAN의 제1 생성자에 입력하여 제2 무손실 영상으로 생성하고,
상기 제3 손실함수에 기초하여, 상기 제2 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별하는, 전자 디바이스.5. The method of claim 4,
The circular coherent network is
generating a second lossless image by inputting the lossy image generated by the second generator of the second GAN to the first generator of the first GAN;
and identifying the second lossless image and the lossless reference image based on the third loss function.
미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 상기 무손실 레퍼런스 영상에 대응하는 손실 레퍼런스 영상을 입력받는 단계; 및
제1 GAN(Generative Adversarial Network)의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 상기 제1 GAN 및 상기 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 단계를 포함하는, 손실 산입 학습 방법.A loss inclusion learning method performed by a processor, comprising:
receiving a lossy reference image including at least one lossless reference image and lossy data provided in advance and corresponding to the lossless reference image; and
The parameters of the first GAN and the second GAN are adjusted so that the sum of the first loss function of the first Generative Adversarial Network (GAN), the second loss function of the second GAN, and the third loss function of the cyclic coherent network is minimized. A method of learning with loss counting, comprising the step of updating every batch period.
상기 입력받는 단계 이후에,
제1 GAN의 제1 생성자에 의해, 상기 손실 레퍼런스 영상을 제1 무손실 영상으로 생성하는 제1 단계; 및
상기 제1 GAN의 제1 식별자에 의해, 상기 제1 손실함수에 기초하여, 상기 제1 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별하는 제2 단계를 더 포함하는, 손실 산입 학습 방법.7. The method of claim 6,
After the step of receiving the input,
a first step of generating, by a first generator of a first GAN, the lossy reference image as a first lossless image; and
The method further comprising a second step of identifying the first lossless image and the lossless reference image based on the first loss function by the first identifier of the first GAN.
상기 입력받는 단계 이후에,
제2 GAN의 제2 생성자에 의해, 상기 무손실 레퍼런스 영상을 손실 영상으로 생성하는 제3 단계; 및
제2 GAN의 제2 식별자에 의해, 상기 제2 손실함수에 기초하여, 생성된 손실 영상 및 상기 손실 레퍼런스 영상을 식별하는 제4 단계를 더 포함하는, 손실 산입 학습 방법.8. The method of claim 7,
After receiving the input,
a third step of generating, by a second generator of a second GAN, the lossless reference image as a lossy image; and
According to the second identifier of the second GAN, based on the second loss function, the loss inclusion learning method further comprising a fourth step of identifying the generated loss image and the loss reference image.
상기 제4 단계 이후에,
상기 제2 GAN의 제2 생성자에 의해 생성된 상기 손실 영상을 상기 제1 GAN의 제1 생성자에 입력하여 제2 무손실 영상으로 생성하는 단계; 및
상기 제3 손실함수에 기초하여, 상기 제2 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별하는 단계를 더 포함하는, 손실 산입 학습 방법.9. The method of claim 8,
After the fourth step,
generating a second lossless image by inputting the lossy image generated by the second generator of the second GAN to the first generator of the first GAN; and
Based on the third loss function, the method further comprising: identifying the second lossless image and the lossless reference image.
상기 제1 단계 내지 제4 단계 순으로 프로세스가 수행되거나,
상기 제3 단계, 제4 단계, 제1 단계 및 제 2단계 순으로 프로세스가 수행되는, 손실 산입 학습 방법.9. The method of claim 8,
The process is performed in the order of the first to fourth steps, or
The process is performed in the order of the third step, the fourth step, the first step and the second step, the loss inclusion learning method.
상기 프로그램은, 프로세서에 의한 실행 시, 상기 프로세서가,
미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 상기 무손실 레퍼런스 영상에 대응하는 하나 이상의 손실 레퍼런스 영상을 입력받는 동작; 및
제1 GAN(Generative Adversarial Network)의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 상기 제1 GAN 및 상기 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 동작을 수행하도록 하는 실행 가능한 명령을 포함하는, 컴퓨터 판독 가능한 기록 매체.
In a computer-readable recording medium recording a program for execution on a computer,
When the program is executed by a processor, the processor
an operation of receiving one or more lossless reference images including one or more lossless reference images and lossy data and corresponding to the lossless reference images; and
The parameters of the first GAN and the second GAN are adjusted so that the sum of the first loss function of the first Generative Adversarial Network (GAN), the second loss function of the second GAN, and the third loss function of the cyclic coherent network is minimized. A computer-readable recording medium comprising executable instructions for performing an operation of updating for each deployment period.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200146311A KR20220060374A (en) | 2020-11-04 | 2020-11-04 | Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200146311A KR20220060374A (en) | 2020-11-04 | 2020-11-04 | Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220060374A true KR20220060374A (en) | 2022-05-11 |
Family
ID=81607131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200146311A KR20220060374A (en) | 2020-11-04 | 2020-11-04 | Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220060374A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180120478A (en) | 2017-04-27 | 2018-11-06 | 에스케이텔레콤 주식회사 | Method for learning Cross-domain Relations based on Generative Adversarial Network |
-
2020
- 2020-11-04 KR KR1020200146311A patent/KR20220060374A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180120478A (en) | 2017-04-27 | 2018-11-06 | 에스케이텔레콤 주식회사 | Method for learning Cross-domain Relations based on Generative Adversarial Network |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310156B (en) | Automatic identification method and system for slider verification code | |
CN110286938B (en) | Method and apparatus for outputting evaluation information for user | |
CN111309222B (en) | Sliding block notch positioning and dragging track generation method for sliding block verification code | |
CN110991871A (en) | Risk monitoring method, device, equipment and computer readable storage medium | |
US11663413B2 (en) | Dialog apparatus, dialog system, and computer-readable recording medium | |
CN114170484B (en) | Picture attribute prediction method and device, electronic equipment and storage medium | |
CN113240430A (en) | Mobile payment verification method and device | |
Liu et al. | Task-oriented convex bilevel optimization with latent feasibility | |
CN117873888A (en) | Deep learning-based efficient PDF application program fuzzy test case generation method | |
CN113673476A (en) | Face recognition model training method and device, storage medium and electronic equipment | |
Burlin et al. | Deep image inpainting | |
KR20220060374A (en) | Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method | |
CN115828022A (en) | Data identification method, federal training model, device and equipment | |
CN116361138A (en) | Test method and test equipment | |
CN113469377B (en) | Federal learning auditing method and device | |
WO2023035263A1 (en) | Method and device for determining image signal processing parameters, and perception system | |
CN114973377A (en) | Face beauty prediction method and device, electronic equipment and storage medium | |
CN114881103A (en) | Countermeasure sample detection method and device based on universal disturbance sticker | |
JP2019175176A (en) | Adaptation degree calculation program, adaptation degree calculation method, adaptation degree calculation device, identification program, identification method, and identification device | |
CN114898446A (en) | Human face recognition method, device, equipment and storage medium based on artificial intelligence | |
CN109815796B (en) | Method and device for testing influence factors of face recognition passing rate | |
CN112149631A (en) | Image processing method, apparatus, device and medium | |
WO2021068529A1 (en) | Image recognition method and apparatus, computer device and storage medium | |
US20190332402A1 (en) | Annotated responses to learn and generate api simulators | |
CN115658926B (en) | Element estimation method and device of knowledge graph, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |