KR20220060374A - Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method - Google Patents

Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method Download PDF

Info

Publication number
KR20220060374A
KR20220060374A KR1020200146311A KR20200146311A KR20220060374A KR 20220060374 A KR20220060374 A KR 20220060374A KR 1020200146311 A KR1020200146311 A KR 1020200146311A KR 20200146311 A KR20200146311 A KR 20200146311A KR 20220060374 A KR20220060374 A KR 20220060374A
Authority
KR
South Korea
Prior art keywords
gan
loss
lossless
image
lossy
Prior art date
Application number
KR1020200146311A
Other languages
Korean (ko)
Inventor
변준영
이우진
이성윤
김호기
이재욱
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020200146311A priority Critical patent/KR20220060374A/en
Publication of KR20220060374A publication Critical patent/KR20220060374A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is a loss inclusion learning device that executes an on-board artificial intelligence (AI) algorithm and/or a machine learning algorithm. The present device may perform learning for loss inclusion using a generative adversarial network (GAN) and a recursive coherent network. Therefore, the loss data can be included with high accuracy. An electronic device comprises: a memory; and a controller.

Description

손실 산입 학습 방법, 그의 장치, 기록 매체 및 이를 적용한 전자 디바이스{LEARNING METHOD, APPARATUS, COMPUTER READABLE RECORDING MEDIUM FOR IMPUTATING MISSING DATA AND ELECTRONIC DEVICE USING THE METHOD}LEARNING METHOD, APPARATUS, COMPUTER READABLE RECORDING MEDIUM FOR IMPUTATING MISSING DATA AND ELECTRONIC DEVICE USING THE METHOD

본 개시는 기계 학습 및 인공지능 기술에 관련된 것으로 더 상세하게는 손실 산입 모델을 생성하는 손실 산입 학습 방법, 이를 위한 학습 장치, 학습 방법을 저장한 컴퓨터 판독 가능한 기록 매체 및 상기 학습 방법을 실제로 적용한 전자 디바이스에 관한 것이다.The present disclosure relates to machine learning and artificial intelligence technology, and more particularly, a loss-inclusion learning method for generating a loss-inclusion model, a learning apparatus for this, a computer-readable recording medium storing the learning method, and an electronic device to which the learning method is actually applied It's about devices.

심층 학습 모델(Deep Learning Model)은 데이터의 분류, 예측 등의 기술 분야에 널리 활용되고 있다.Deep learning models are widely used in technology fields such as data classification and prediction.

심층 학습 모델이 좋은 성능을 보이기 위해서는 충분한 양의 데이터가 필요하며, 현실에서는 손실이 발생하지 않은 완전한 데이터를 획득하는 데에 어려움이 따른다.In order for a deep learning model to perform well, a sufficient amount of data is required, and in reality, it is difficult to obtain complete data without loss.

이에, 발생한 손실 값들을 최대한 정확하게 산입(Imputation)하는 방법이 요청된다.Accordingly, there is a need for a method of imputation of the generated loss values as accurately as possible.

선행 기술 : 공개특허공보 제10-2018-0120478호(공개일: 2018,11.06)Prior art: Patent Publication No. 10-2018-0120478 (published date: 2018,11.06)

본 발명이 해결하고자 하는 과제는 손실이 발생되지 않은 완전 데이터 및 소정의 손실 패턴을 갖는 손실 데이터를 학습 단계에서 모두 이용하는 손실 산입 학습 방법 및 장치를 제공하는 데에 있다.An object of the present invention is to provide a loss-included learning method and apparatus using both complete data in which no loss has occurred and loss data having a predetermined loss pattern in the learning step.

본 발명의 또 다른 과제는, 손실을 발생시키는 네트워크를 이용하여 다양한 손실 형태에 대한 산입을 수행하는 손실 산입 학습 방법 및 장치를 제공하는 데에 있다.Another object of the present invention is to provide a loss inclusion learning method and apparatus for performing inclusion of various loss types using a network that generates a loss.

본 발명의 또 다른 과제는, 손실되지 않은 부분에 대한 실제 조건부 확률 분포를 잘 반영하는 손실 산입 학습 방법 및 장치를 제공하는 데에 있다.Another object of the present invention is to provide a loss inclusion learning method and apparatus that well reflects the actual conditional probability distribution for a non-lossy part.

본 발명의 또 다른 과제는, 순환 일관적 손실 함수를 이용하여 손실 산입 정확도를 향상시키는 손실 산입 학습 방법 및 장치를 제공하는 데에 있다.Another object of the present invention is to provide a method and apparatus for learning loss calculation for improving loss calculation accuracy by using a cyclically consistent loss function.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 전자 디바이스는 제1 GAN(Generative Adversarial Network), 제2 GAN 및 순환 일관적 네트워크를 이용하여 미리 학습된 손실 산입 모델을 저장한 메모리 및 손실 데이터를 포함하는 테스트용 손실 영상을 손실 산입 모델에 입력하여, 손실 데이터를 대체 데이터로 산입한 테스트용 무손실 영상을 생성하는 컨트롤러를 포함할 수 있다.In order to achieve the above object, the electronic device according to an embodiment of the present invention has a memory and loss storing a loss inclusion model learned in advance using a first Generative Adversarial Network (GAN), a second GAN, and a cyclic coherent network. The controller may include a controller that inputs a lossy image for testing including data into a loss inclusion model and generates a lossless image for testing in which the loss data is included as replacement data.

또한, 본 발명의 일 실시 예에 따른 프로세서에 의해 수행되는 손실 산입 학습 방법은 미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 무손실 레퍼런스 영상에 대응하는 손실 레퍼런스 영상을 입력받는 단계; 및 제1 GAN의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 제1 GAN 및 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 단계를 포함할 수 있다.In addition, the loss inclusion learning method performed by the processor according to an embodiment of the present invention includes the steps of receiving a lossy reference image including one or more lossless reference images and loss data prepared in advance and corresponding to the lossless reference image; and updating the parameters of the first GAN and the second GAN for each batch period such that the sum of the first loss function of the first GAN, the second loss function of the second GAN, and the third loss function of the cyclically coherent network are minimized. may include

또한, 본 발명의 일 실시 예에 따른 손실 산입 학습 방법은 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 저장될 수 있다.In addition, the loss-included learning method according to an embodiment of the present invention may be stored in a computer-readable recording medium in which a program to be executed on a computer is recorded.

상기 프로그램은, 프로세서에 의한 실행 시, 상기 프로세서가, 미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 무손실 레퍼런스 영상에 대응하는 하나 이상의 손실 레퍼런스 영상을 입력받는 동작 및 제1 GAN의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 제1 GAN 및 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 동작을 수행하도록 하는 실행 가능한 명령을 포함할 수 있다.When the program is executed by the processor, the processor receives one or more lossless reference images and one or more lossless reference images corresponding to the lossless reference images, including one or more previously prepared lossless reference images, and a first loss of the first GAN. function, the second loss function of the second GAN, and the third loss function of the recursive coherent network to minimize the sum of the parameters of the first GAN and the second GAN for each batch period. may include

본 발명에서 이루고자 하는 기술적 과제들의 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The means of solving the technical problems to be achieved in the present invention are not limited to the solutions mentioned above, and other solutions not mentioned are clear to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood clearly.

본 발명의 다양한 실시 예에 의해, 손실이 발생되지 않은 완전 데이터 및 소정의 손실 패턴을 갖는 손실 데이터가 학습 단계에서 모두 이용됨으로써, 손실 산입 정확도가 향상될 수 있다.According to various embodiments of the present disclosure, since complete data in which no loss has occurred and loss data having a predetermined loss pattern are both used in the learning step, loss calculation accuracy may be improved.

또한, 다양한 손실 형태에 대한 산입이 정확도 높게 수행될 수 있으며, 손실되지 않은 부분에 대한 실제 조건부 확률 분포가 잘 반영될 수 있다.In addition, the inclusion of various loss types can be performed with high accuracy, and the actual conditional probability distribution for the non-lossed part can be well reflected.

또한, 순환 일관적 네트워크의 손실 함수를 이용하여 손실 산입 정확도가 향상될 수 있다.In addition, loss calculation accuracy can be improved by using the loss function of the recursive coherent network.

도 1은 본 발명의 일 실시 예에 따른 학습된 손실 산입 모델을 적용하는 전자 디바이스의 동작을 개략적으로 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 손실 산입 학습 장치 및 학습된 손실 산입 모델을 적용하는 전자 디바이스의 구성을 설명하기 위한 상대 블록도,
도 3은 본 발명의 일 실시 예에 따른 손실 산입 학습 장치의 동작을 구체적으로 설명하기 위한 도면, 그리고,
도 4는 본 발명의 일 실시 예에 따른 손실 산입 학습 방법을 나타내는 시퀀스도이다.
1 is a diagram for schematically explaining an operation of an electronic device to which a learned loss inclusion model is applied according to an embodiment of the present invention;
2 is a relative block diagram for explaining the configuration of an electronic device to which a loss inclusion learning apparatus and a learned loss inclusion model are applied according to an embodiment of the present invention;
3 is a view for explaining in detail the operation of the loss inclusion learning apparatus according to an embodiment of the present invention, and,
4 is a sequence diagram illustrating a loss inclusion learning method according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 예시적인 실시예들에 대하여 설명한다. 본 발명은 서로 다른 다양한 형태들로 구현될 수 있으며, 본 명세서에 설명된 실시예들로 한정되는 것으로 해석되어서는 안 된다. 도면에서 구성요소들, 계층들 및 영역들의 상대적인 크기는 설명의 명확성을 위해 과장될 수 있다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings. The present invention may be implemented in a variety of different forms, and should not be construed as being limited to the embodiments described herein. The relative sizes of components, layers, and regions in the drawings may be exaggerated for clarity of description.

도 1은 본 발명의 일 실시 예에 따른 학습된 손실 산입 모델(155)을 적용하는 전자 디바이스(200)의 동작을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating an operation of an electronic device 200 to which a learned loss inclusion model 155 is applied according to an embodiment of the present invention.

우선, 자세히 설명하기에 앞서, 몇몇 용어를 정리하기로 한다. “손실”은 영상 데이터에 손실 데이터가 있는 것을 의미하며, 영상 데이터를 디스플레이에 출력하면 문제를 야기할 수 있다. 선택적 실시 예로, 손실 데이터는 소정의 패턴을 형성할 수 있으며, 디스플레이에 마스킹(TMAa)되어 출력될 수 있다. 산입(Imputation)은 손실 데이터를 포함하는 손실 영상에 대해, 손실 데이터를 대체 데이터로 입력하는 것이며, 산입 성능은 산입된 영상 및 무손실 원본 영상의 일치 정확도에 기초하여 결정될 수 있다.First, before explaining in detail, some terms will be summarized. “Loss” means that there is lost data in the image data, and outputting the image data to a display may cause problems. In an optional embodiment, the loss data may form a predetermined pattern, and may be masked (TMAa) and output on the display. Imputation is inputting lossy data as replacement data for a lossy image including lossy data, and the imputation performance may be determined based on matching accuracy between the incorporated image and the lossless original image.

전자 디바이스(200)는 학습이 완료된 손실 산입 모델(155)을 이용하는 장치(가령, 랩탑, 스마트폰, 텔레비전 등)일 수 있다. 구체적으로, 전자 디바이스(200)는 손실 데이터(TMAa)를 포함하는 테스트용 손실 영상(TMI)를 손실 산입 모델(155)에 입력하여 손실 데이터(TMAa)가 대체 데이터로 산입된 테스트용 무손실 영상(TNMI)를 출력할 수 있다.The electronic device 200 may be an apparatus (eg, a laptop, a smart phone, a television, etc.) using the trained loss inclusion model 155 . Specifically, the electronic device 200 inputs the lossy test image TMI including the loss data TMAa into the loss inclusion model 155, and the loss data TMAa is included as the replacement data. TNMI) can be output.

여기서, 손실 산입 모델(155)은 손실 산입 학습 장치(도 2의 100)에 의해 생성된 모델이다. 실시 예에서, 전자 디바이스(200)는 손실 산입 모델(155)을 트레이닝한 손실 산입 학습 장치(100)와 동일한 기기로 구현될 수 있다.Here, the loss inclusion model 155 is a model generated by the loss inclusion learning apparatus ( 100 in FIG. 2 ). In an embodiment, the electronic device 200 may be implemented with the same device as the loss inclusion training apparatus 100 in which the loss inclusion model 155 is trained.

도 2는 본 발명의 일 실시 예에 따른 손실 산입 학습 장치(100) 및 학습된 손실 산입 모델(155A)을 적용하는 전자 디바이스(200)의 구성을 설명하기 위한 상대 블록도이다.FIG. 2 is a relative block diagram for explaining the configuration of the apparatus 100 for learning loss inclusion according to an embodiment of the present invention and the electronic device 200 to which the learned loss inclusion model 155A is applied.

손실 산입 학습 장치(100)는 손실 산입 모델(155)을 트레이닝하는 장치로, 통신부(110), 메모리(150) 및 프로세서(190)를 포함할 수 있으며, 전자 장치(200)는 통신부(210), 메모리(250) 및 컨트롤러(290)를 포함할 수 있다. 도 2에 도시된 구성요소들은 손실 산입 학습 장치(100) 및 전자 장치(200)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 손실 산입 학습 장치(100) 및 전자 장치(200)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The loss calculation learning apparatus 100 is an apparatus for training the loss calculation model 155 , and may include a communication unit 110 , a memory 150 , and a processor 190 , and the electronic device 200 includes a communication unit 210 . , a memory 250 and a controller 290 may be included. The components shown in FIG. 2 are not essential in implementing the loss inclusion learning apparatus 100 and the electronic device 200, so the loss inclusion learning apparatus 100 and the electronic device 200 described herein are described above. It may have more or fewer elements than those listed.

손실 산입 학습 장치(100)는 생성자(Generator) 및 식별자(Discriminator)를 각각 포함하는 제1 GAN(Generative Adversarial Network, 생성 적대적 네트워크) 및 제2 GAN을 포함할 수 있다. 아울러, 손실 산입 학습 장치(100)는 순환 일관적 네트워크를 이용하여 손실 산입 모델(155)을 트레이닝할 수 있다.The loss inclusion learning apparatus 100 may include a first Generative Adversarial Network (GAN) and a second GAN each including a generator and an identifier (Discriminator). In addition, the loss inclusion learning apparatus 100 may train the loss inclusion model 155 using a cyclic coherent network.

여기서, GAN은 비지도학습(UnSupervised Learning)의 일 방법으로 생성자와 식별자 간의 적대적인 학습을 수행하여, 클래스 분류를 정확도 높게 수행하는 네트워크일 수 있다.Here, the GAN may be a network that performs class classification with high accuracy by performing adversarial learning between a generator and an identifier as a method of unsupervised learning.

손실 산입 학습 장치(100)는 미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 레퍼런스 영상을 이용하여, 손실 산입 성능을 향상시킬 수 있다. 레퍼런스 영상(무손실 또는 손실)은 GAN 또는 순환 일관적 네트워크가 생성하지 않고, 미리 마련되어 레퍼런스로 사용하는 영상을 말한다.The loss inclusion learning apparatus 100 may improve loss inclusion performance by using one or more previously prepared lossless reference images and lossy reference images. A reference image (lossless or lossy) refers to an image that is prepared in advance and used as a reference without being generated by a GAN or a circular coherent network.

여기서, 무손실 레퍼런스 영상은 손실 데이터가 없는 원본 영상이며, 학습 전에 미리 마련된 영상이고 GAN의 생성자에 의해 생성되지 않은 영상이다. 손실 레퍼런스 영상은 손실 데이터를 포함하는 원본 영상이며, 학습 전에 미리 마련된 영상이고, 상기 무손실 레퍼런스 영상에 대응하는 영상이며, GAN의 생성자에 의해 생성되지 않은 영상이다.Here, the lossless reference image is an original image without lossy data, an image prepared in advance before learning, and an image not generated by the generator of the GAN. The lossy reference image is an original image including loss data, is an image prepared in advance before learning, is an image corresponding to the lossless reference image, and is an image not generated by the generator of the GAN.

선택적 실시 예로, 무손실 레퍼런스 영상 및 손실 레퍼런스 영상은 MNIST(Modified National Institute of Standards and Technology Database)의 영상일 수 있다.In an optional embodiment, the lossless reference image and the lossy reference image may be images of a Modified National Institute of Standards and Technology Database (MNIST).

상기 손실 산입 학습 장치(100)는 손실이 발생되지 않은 완전 데이터인 무손실 레퍼런스 영상 및 소정의 손실 패턴을 갖는 손실 데이터인 손실 레퍼런스 영상을 학습 단계에서 모두 이용하여 산입 정확도를 향상시킬 수 있다. 이는, 손실이 있는 영상만으로 학습을 수행하거나 손실이 없는 영상만으로 학습을 수행하여 산입 정확도가 크게 높지 않은 종래 기술의 한계를 극복한 것이다.The loss inclusion learning apparatus 100 may improve inclusion accuracy by using both a lossless reference image, which is complete data in which no loss has occurred, and a lossless reference image, which is lossy data having a predetermined loss pattern, in the learning step. This overcomes the limitations of the prior art, in which the counting accuracy is not very high by performing learning only with lossy images or by performing learning only with lossless images.

손실 산입 학습 장치(100)의 프로세서(190)는 제1 GAN, 제2 GAN 및 순환 일관적 네트워크를 이용하여 손실 산입 모델(155)을 학습시킬 수 있다.The processor 190 of the loss inclusion training apparatus 100 may train the loss inclusion model 155 using the first GAN, the second GAN, and the cyclic coherent network.

제1 GAN은 제1 생성자 및 제1 식별자를 포함하고, 제2 GAN은 제2 생성자 및 제2 식별자를 포함할 수 있다. 순환 일관적 네트워크는 제1 GAN의 제1 생성자 및 제2 GAN의 제2 생성자를 모두 이용할 수 있다.The first GAN may include a first generator and a first identifier, and the second GAN may include a second generator and a second identifier. The circular coherent network may use both the first generator of the first GAN and the second generator of the second GAN.

구체적으로, 제1 GAN은 제1 생성자를 통해, 미리 마련된 손실 레퍼런스 영상을 제1 무손실 영상으로 생성하고, 제1 식별자를 통해 제1 무손실 영상과 무손실 레퍼런스 영상을 제1 손실함수에 기초하여 식별할 수 있다.Specifically, the first GAN generates a lossy reference image prepared in advance as a first lossless image through the first generator, and identifies the first lossless image and the lossless reference image based on the first loss function through the first identifier. can

즉, 제1 GAN은 소정의 패턴을 갖는 손실 데이터를 포함한 손실 레퍼런스 영상을 무손실 영상으로 생성한 후, 생성된 무손실 영상과 무손실 레퍼런스 영상의 차이를 판별할 수 있다. 제1 GAN의 판별 정도는 제1 손실 함수의 값에 의해 결정될 수 있다.That is, after the first GAN generates a lossy reference image including lossy data having a predetermined pattern as a lossless image, the first GAN may determine a difference between the generated lossless image and the lossless reference image. The discrimination degree of the first GAN may be determined by the value of the first loss function.

제1 GAN의 제1 생성자는 무손실 영상을 생성할 때, 무손실 레퍼런스 영상과 차이가 없도록 학습하는 구성이며, 제1 식별자는 무손실 레퍼런스 영상과 제1 생성자가 생성한 무손실 영상을 정밀하게 구분하도록 학습하는 구성이다. 제1 생성자 및 제1 식별자는 서로 적대적 학습을 통해, 제1 생성자가 무손실 레퍼런스 영상에 보다 근접한 무손실 영상을 생성하게 할 수 있다.When the first generator of the first GAN generates a lossless image, it is configured to learn so that there is no difference from the lossless reference image, and the first identifier learns to precisely distinguish the lossless reference image from the lossless image generated by the first generator. is the composition The first generator and the first identifier may allow the first generator to generate a lossless image closer to the lossless reference image through adversarial learning.

다음으로, 제2 GAN은 제2 생성자를 통해, 미리 마련된 무손실 레퍼런스 영상을 손실 영상으로 생성하고, 생성된 손실 영상과 손실 레퍼런스 영상을 제2 손실함수에 기초하여 식별할 수 있다.Next, the second GAN may generate a lossless reference image prepared in advance through the second generator as a loss image, and identify the generated lossy image and the lossy reference image based on the second loss function.

즉, 제2 GAN은 손실 데이터가 없는 무손실 레퍼런스 영상을 손실 영상으로 만든 후, GAN에 의해 생성된 손실 영상과 손실 레퍼런스 영상의 차이를 판별할 수 있다. 제2 GAN의 판별 정도는 제2 손실 함수의 값에 의해 결정될 수 있다.That is, after the second GAN makes a lossless reference image without loss data into a lossy image, the second GAN may determine the difference between the lossy image and the lossy reference image generated by the GAN. The discrimination degree of the second GAN may be determined by the value of the second loss function.

제2 GAN의 제2 생성자는 손실 영상을 생성할 때, 손실 레퍼런스 영상과 차이가 없도록 학습하는 구성이며, 제2 식별자는 손실 영상 및 손실 레퍼런스 영상을 정밀하게 구분하도록 학습하는 구성이다. 제2 생성자 및 제2 식별자는 서로 적대적 학습을 통해, 제2 생성자가 손실 레퍼런스 영상에 보다 근접한 손실 영상을 생성하게 할 수 있다.The second generator of the second GAN is configured to learn so that there is no difference from the loss reference image when generating the loss image, and the second identifier is a configuration to learn to precisely distinguish the loss image and the loss reference image. The second generator and the second identifier may allow the second generator to generate a lossy image closer to the lost reference image through adversarial learning.

마지막으로, 프로세서(190)는 순환 일관적 네트워크를 이용하여, 제2 GAN의 제2 생성자에 의해 생성된 손실 영상을 상기 제1 GAN의 제1 생성자에 입력하여 제2 무손실 영상(상술한 제1 식별자가 생성한 제1 무손실 영상과 구분됨)으로 생성한 후, 상기 제3 손실함수에 기초하여, 상기 제2 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별할 수 있다. 순환 일관적 네트워크의 판별 정보는 제3 손실 함수의 값에 의해 결정될 수 있다.Finally, the processor 190 inputs the lossy image generated by the second generator of the second GAN to the first generator of the first GAN using the cyclic coherent network to obtain a second lossless image (the first described above). After the identifier is generated as a first lossless image (differentiated from the generated first lossless image), the second lossless image and the lossless reference image may be identified based on the third loss function. Discriminant information of the cyclically coherent network may be determined by a value of the third loss function.

프로세서(190)는 상기 제1 내지 제3 손실함수의 총합이 배치 기간 마다 최소가 되도록 제1 손실함수 및 제2 손실함수의 파라미터를 재설정할 수 있다. 즉, 프로세서(190)는 두 GAN 을 통해, 산입 정확도를 높이며, 마지막으로 순환 일관적 네트워크를 적용하여 산입 정확도를 보다 높일 수 있다.The processor 190 may reset the parameters of the first loss function and the second loss function so that the sum of the first to third loss functions is minimized for each batch period. That is, the processor 190 may increase the counting accuracy through the two GANs, and finally, the counting accuracy may be further increased by applying the cyclic coherent network.

프로세서(190)는 데이터의 입력이 완료될 때까지, 배치 기간 단위로 손실 산입 모델(155)을 트레이닝할 수 있다. 학습 완료된 손실 산입 모델(155)은 도 1과 같이 적용 단계에서, 손실 영상(TMI)를 입력받으면, 전자 장치(200)가 무손실 영상(TNMI)를 출력할 수 있다.The processor 190 may train the loss inclusion model 155 for each batch period until data input is completed. When the learned loss inclusion model 155 receives the lossy image TMI in the application step as shown in FIG. 1 , the electronic device 200 may output the lossless image TNMI.

손실 산입 학습 장치(100)는 학습이 완료된 손실 산입 모델(155)을 통신부(110)를 통해 전자 디바이스(200)의 통신부(210)로 제공할 수 있으며, 전자 디바이스(200)는 제공된 손실 산입 모델(155A)을 메모리(250)에 저장할 수 있다.The loss inclusion learning apparatus 100 may provide the learned loss inclusion model 155 to the communication unit 210 of the electronic device 200 through the communication unit 110 , and the electronic device 200 provides the provided loss inclusion model 155A may be stored in memory 250 .

전자 디바이스(200)의 컨트롤러(290)는 손실 데이터를 포함하는 테스트용 손실 영상을 학습 완료된 손실 산입 모델(155A)에 입력하여, 상기 손실 데이터를 대체 데이터로 산입한 테스트용 무손실 영상을 생성할 수 있다.The controller 290 of the electronic device 200 may generate a test lossless image in which the loss data is included as replacement data by inputting the test loss image including the loss data into the learned loss inclusion model 155A. there is.

도 3은 본 발명의 일 실시 예에 따른 손실 산입 학습 장치(100)의 동작을 구체적으로 설명하기 위한 도면이다.3 is a diagram for explaining in detail the operation of the loss inclusion learning apparatus 100 according to an embodiment of the present invention.

프로세서(190)는 제1 GAN(N1), 제2 GAN(N2) 및 순환 일관적 네트워크(N3)를 이용하여 손실 데이터를 포함하는 손실 영상에 대해, 손실 데이터를 대체 데이터로 산입하여 최적의 무손실 영상을 생성하는 손실 산입 모델(155)을 생성할 수 있다.The processor 190 considers the loss data as replacement data for the loss image including the loss data using the first GAN (N1), the second GAN (N2), and the cyclic coherent network (N3) to optimize the lossless A loss inclusion model 155 for generating an image may be generated.

프로세서(190)는 모든 입력 데이터에 대해 수행할 수 있으며, 배치 기간 단위로 학습을 수행하도록 각 네트워크(N1~N3)를 제어할 수 있다.The processor 190 may perform on all input data, and may control each network N1 to N3 to perform learning in units of a batch period.

먼저, 제1 GAN(N1)을 살펴보면, 프로세서(190)는 손실 레퍼런스 영상(RMI)를 제1 생성자(N1G)에 입력하여, 제1 무손실 영상(NMIa)을 생성할 수 있다.First, looking at the first GAN N1 , the processor 190 may generate the first lossless image NMIa by inputting the lossy reference image RMI to the first generator N1G.

이때, 프로세서(190)는 손실 레퍼런스 영상(RMI)을 미리 마련하되, 손실 레퍼런스 영상(RMI)은 손실된 실제 데이터의 관측된 부분 및 손실된 위치를 가리키는 제1 마스크(M1)의 쌍으로 나타낼 수 있다. 제1 생성자(N1G)는 정규 분포로부터 임의 생성된 잠재 변수(Z, Latent Vector)를 함께 입력받아, 출력값을 확률적(Stochastic)으로 산출할 수 있다. At this time, the processor 190 prepares the lost reference image RMI in advance, but the lost reference image RMI may be represented by a pair of the first mask M1 indicating the observed portion and the lost position of the lost real data. there is. The first generator N1G may also receive a latent variable (Z, Latent Vector) randomly generated from a normal distribution as an input, and may stochastically calculate an output value.

프로세서(190)는 생성된 제1 무손실 영상(NMIa)을 제1 식별자(N1D)로 제공하고, 제1 식별자(N1D)가 무손실 레퍼런스 영상(RNMI) 및 제1 무손실 영상(NMIa)를 비교하도록 상기 제1 식별자(NID)를 제어할 수 있다.The processor 190 provides the generated first lossless image NMIa as a first identifier N1D, and the first identifier N1D compares the lossless reference image RNMI and the first lossless image NMIa. The first identifier NID may be controlled.

구체적으로, 프로세서(190)는 GAN의 판별식인 제1 손실 함수(V1)의 값을 아래 [식 1]에 따라 산출할 수 있다.Specifically, the processor 190 may calculate the value of the first loss function (V 1 ), which is the discriminant of the GAN, according to [Equation 1] below.

[식 1][Equation 1]

V1 = log(Dθ(x)) + log(1-Dθ(x'))V 1 = log(D θ (x)) + log(1-D θ (x'))

여기서, x는 무손실 레퍼런스 영상(RNMI)의 데이터이고, x'는 제1 생성자(N1G)가 생성한 제1 무손실 영상(NMIa)의 데이터이며, θ는 제1 손실함수의 파라미터이다.Here, x is data of the lossless reference image RNMI, x' is data of the first lossless image NMIa generated by the first generator N1G, and θ is a parameter of the first loss function.

그 다음으로, 제2 GAN을 살펴보면, 프로세서(190)는 무손실 레퍼런스 영상(RNMI)을 제2 생성자(N2G)에 입력하여, 손실 영상(MI)을 생성할 수 있다.Next, looking at the second GAN, the processor 190 may generate the lossy image MI by inputting the lossless reference image RNMI to the second generator N2G.

이때, 프로세서(190)는 무손실 레퍼런스 영상(RNMI)을 미리 마련하고, 정규화 분포를 따르는 잠재 변수(Z, Latent Vector)를 이용하여 손실 데이터를 제2 마스크(M2)로 설정할 수 있다. In this case, the processor 190 may prepare the lossless reference image RNMI in advance and set the loss data as the second mask M2 by using a latent vector (Z, Latent Vector) following a normalized distribution.

프로세서(190)는 제2 생성자(N2G)를 이용하여, 생성된 제2 마스크(M2)를 무손실 레퍼런스 영상(RNMI)에 반영하여, 손실 영상(MI)을 생성할 수 있다.The processor 190 may generate the lossy image MI by applying the generated second mask M2 to the lossless reference image RNMI using the second generator N2G.

프로세서(190)는 생성된 손실 영상(MI)을 제2 식별자(N2D)로 제공하고, 제2 식별자(N2D)가 손실 레퍼런스 영상(RMI) 및 손실 영상(MI)을 비교하도록 제2 식별자(N2D)를 제어할 수 있다.The processor 190 provides the generated lossy image MI as a second identifier N2D, and the second identifier N2D compares the lossy reference image RMI and the lossy image MI with the second identifier N2D. ) can be controlled.

구체적으로, 프로세서(190)는 GAN 알고리즘의 판별식인 제2 손실 함수(V2)의 값을 아래 [식 2]에 기초하여 산출할 수 있다.Specifically, the processor 190 may calculate the value of the second loss function (V 2 ), which is the discriminant of the GAN algorithm, based on [Equation 2] below.

[식 2][Equation 2]

V2 = log(Dφ(y)) + log(1-Dφ(y'))V 2 = log(D φ (y)) + log(1-D φ (y'))

여기서, y는 제1 마스크(M1)를 반영한 손실 레퍼런스 영상(RMI)의 데이터이고, y'는 제2 마스크(M2)를 반영한 손실 영상(MI)이며, φ는 제2 손실함수(V2)의 파라미터이다.Here, y is the data of the loss reference image RMI reflecting the first mask M1, y' is the loss image MI reflecting the second mask M2, and φ is the second loss function V 2 ) is a parameter of

다음으로, 프로세서(190)는 제2 GAN(N2)가 생성한 손실 영상(MI)을 순환 일관적 네트워크(N3)의 제1 생성자(N1G)로 제공할 수 있다. 여기서, 제1 생성자(N1G)는 제1 GAN(N1)의 제1 생성자(N1G)와 동일하며, 제2 무손실 영상(NMIb)를 생성할 수 있다.Next, the processor 190 may provide the loss image MI generated by the second GAN N2 to the first generator N1G of the circular coherent network N3 . Here, the first generator N1G is the same as the first generator N1G of the first GAN N1 and may generate the second lossless image NMIb.

순환 일관적 네트워크(N3)는 무손실 레퍼런스 영상(RNMI) 및 제2 무손실 영상(RNMIb)를 비교할 수 있다.The cyclic coherent network N3 may compare the lossless reference image RNMI and the second lossless image RNMIb.

구체적으로, 순환 일관적 네트워크(N3)는 아래 수식 3에 기초하여, 제3 손실함수(V3)의 값을 산출할 수 있다.Specifically, the cyclic coherent network N3 may calculate the value of the third loss function V 3 based on Equation 3 below.

[식 3][Equation 3]

V3 = ||x" - x||

Figure pat00001
V 3 = ||x" - x||
Figure pat00001

여기서, x"는 제2 무손실 영상(RNMIb)의 데이터이며, x는 무손실 레퍼런스 영상(RNMI)의 데이터이다. 즉, 순환 일관적 네트워크(N3)는 무손실 레퍼런스 영상(RNMI)을 제2 GAN(N2)의 제2 생성자(N2G)을 입력하여 손실 영상(MI)을 출력하고, 출력된 손실 영상(MI)을 다시 제1 GAN(N1)의 제1 생성자(N1G)에 입력화면 제2 무손실 영상(NMIb)이 생성되는 것을 이용하여, 제2 무손실 영상(NMIb)와 무손실 레퍼런스 영상(RNMI)를 비교할 수 있다. 이에 따라, 산입 정확도가 더욱 향상될 수 있다.Here, x" is data of the second lossless image RNMIb, and x is data of the lossless reference image RNMI. That is, the cyclic coherent network N3 converts the lossless reference image RNMI to the second GAN (N2). ) to output a lossy image (MI) by inputting the second generator (N2G) of The second lossless image NMIb and the lossless reference image RNMI may be compared by using the generated NMIb, so that counting accuracy may be further improved.

프로세서(190)는 제1 내지 제3 손실함수(V1~V3)의 값들을 총합하여, 총합이 최소가 되도록 상기 제1 GAN 및 제2 GAN의 파라미터(θ, φ)를 업데이트할 수 있다(S3).The processor 190 may sum the values of the first to third loss functions V 1 to V 3 and update the parameters θ and φ of the first GAN and the second GAN so that the sum is minimized. (S3).

도 3의 프로세스는 1 배치 기간 동안 수행되는 과정을 설명한 것이며, 반복적으로 모든 데이터에 대해서 학습을 수행할 수 있다. 그러면, 최종적으로 손실 산입 모델(155)이 생성될 수 있다.The process of FIG. 3 describes a process performed during one batch period, and learning may be repeatedly performed on all data. Then, the loss inclusion model 155 may be finally generated.

도 4는 본 발명의 일 실시 예에 손실 산입 학습 장치(100)의 프로세서(190)에 의해 수행되는 손실 산입 학습 방법을 나타내는 시퀀스도이다.4 is a sequence diagram illustrating a loss inclusion learning method performed by the processor 190 of the loss inclusion learning apparatus 100 according to an embodiment of the present invention.

먼저, 프로세서(190)는 무손실 레퍼런스 영상 및 손실 레퍼런스 영상을 입력받는다(S410).First, the processor 190 receives a lossless reference image and a lossy reference image (S410).

여기서, 무손실 레퍼런스 영상 및 손실 레퍼런스 영상은 각 배치 기간 동안 미리 마련될 수 있다. 실시 예에서, 프로세서(190)는 무손실 레퍼런스 영상 및 손실 레퍼런스 영상을 학습 초기에 모두 입력받도록 구현될 수도 있다.Here, the lossless reference image and the lossy reference image may be prepared in advance during each deployment period. In an embodiment, the processor 190 may be implemented to receive both the lossless reference image and the lossy reference image at the beginning of learning.

또한, 손실 레퍼런스 영상은 무손실 레퍼런스 영상에 대응하며, 손실 데이터를 포함할 수 있다.Also, the lossy reference image corresponds to the lossless reference image and may include lossy data.

S410 단계(레퍼런스 영상 입력) 이후에, 프로세서(190)는 제1 GAN의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 상기 제1 GAN 및 상기 제2 GAN의 파라미터를 배치 기간 마다 업데이트할 수 있다(S450).After step S410 (reference image input), the processor 190 performs the first loss function such that the sum of the first loss function of the first GAN, the second loss function of the second GAN, and the third loss function of the cyclic coherent network is minimized. The parameters of the first GAN and the second GAN may be updated for each deployment period (S450).

S410 단계와 S450 단계 사이의 각 단계(S42, S43, S44)를 이하에서는 설명하기로 한다. Each step ( S42 , S43 , S44 ) between steps S410 and S450 will be described below.

먼저, 프로세서(190)는 레퍼런스 영상 입력 단계(S410 단계) 이후에, 제1 GAN을 수행한다(S42, S420).First, the processor 190 performs a first GAN after the reference image input step (step S410) (S42 and S420).

구체적으로, 제1 GAN의 제1 생성자는 손실 레퍼런스 영상을 제1 무손실 영상으로 생성하고(S421), 제1 GAN의 제1 식별자는 제1 손실함수에 기초하여, 제1 무손실 영상 및 무손실 레퍼런스 영상을 식별한다(S423).Specifically, the first generator of the first GAN generates the lossy reference image as the first lossless image (S421), and the first identifier of the first GAN is based on the first loss function, the first lossless image and the lossless reference image is identified (S423).

또한, 프로세서(190)는 레퍼런스 영상 입력 단계(S410 단계) 이후에, 제2 GAN을 수행한다(S43, S430).Also, the processor 190 performs a second GAN after the reference image input step (step S410) (S43 and S430).

구체적으로, 제2 GAN의 제2 생성자는 무손실 레퍼런스 영상을 손실 영상으로 생성하고(S431), 제2 GAN의 제2 식별자는 제2 손실함수에 기초하여, 생성된 손실 영상 및 손실 레퍼런스 영상을 식별한다(S433).Specifically, the second generator of the second GAN generates a lossless reference image as a loss image (S431), and the second identifier of the second GAN identifies the generated lossy image and the lossy reference image based on the second loss function. do (S433).

여기서, S420 단계(S421 단계 및 S423 단계 포함) 및 S430 단계(S431 단계 및 S433 단계 포함)는 서로 순서를 바꾸어 수행될 수 있다. 즉, 프로세서(190)는 S431, S433, S421 및 S423 단계 순서로 프로세스를 수행할 수 있다.Here, steps S420 (including steps S421 and S423) and S430 (including steps S431 and S433) may be performed in a reverse order. That is, the processor 190 may perform the process in the order of steps S431, S433, S421, and S423.

한편, 본 발명의 일 실시 예에 따른 손실 산입 학습 방법은 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 저장될 수 있다.On the other hand, the loss inclusion learning method according to an embodiment of the present invention may be stored in a computer-readable recording medium in which a program to be executed on a computer is recorded.

상기 프로그램은, 프로세서에 의한 실행 시, 프로세서가 미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 무손실 레퍼런스 영상에 대응하는 하나 이상의 손실 레퍼런스 영상을 입력받는 동작 및 제1 GAN의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 상기 제1 GAN 및 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 동작을 수행하도록 하는 실행 가능한 명령을 포함할 수 있다.When the program is executed by a processor, the processor receives one or more lossless reference images and one or more lossless reference images corresponding to the lossless reference images including lossless data and a first loss function of the first GAN, and an executable instruction to update the parameters of the first GAN and the second GAN for each batch period so that the sum of the second loss function of the second GAN and the third loss function of the cyclically coherent network is minimized. can do.

앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.In the foregoing, specific embodiments of the present invention have been described and illustrated, but the present invention is not limited to the described embodiments, and those of ordinary skill in the art may make various changes to other specific embodiments without departing from the spirit and scope of the present invention. It will be appreciated that modifications and variations are possible. Accordingly, the scope of the present invention should not be defined by the described embodiments, but should be defined by the technical idea described in the claims.

Claims (11)

전자 디바이스로서,
제1 GAN(Generative Adversarial Network), 제2 GAN 및 순환 일관적 네트워크를 이용하여 미리 학습된 손실 산입 모델을 저장한 메모리; 및
손실 데이터를 포함하는 테스트용 손실 영상을 상기 손실 산입 모델에 입력하여, 상기 손실 데이터를 대체 데이터로 산입한 테스트용 무손실 영상을 생성하는 컨트롤러를 포함하는, 전자 디바이스.
An electronic device comprising:
a memory storing a loss inclusion model pre-trained using a first Generative Adversarial Network (GAN), a second GAN, and a recursive coherent network; and
and a controller configured to input a lossy test image including loss data into the loss inclusion model to generate a test lossless image in which the loss data is included as replacement data.
제1항에 있어서,
상기 손실 산입 모델은 학습 단계에서,
미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 레퍼런스 영상을 입력받되, 상기 손실 레퍼런스 영상은 손실 데이터를 포함하고 상기 무손실 레퍼런스 영상에 대응하며,
상기 제1 GAN의 제1 손실함수, 상기 제2 GAN의 제2 손실함수 및 상기 순환 일관적 네트워크의 제3 손실함수의 총합이 배치 기간 마다 최소가 되도록 학습되는, 전자 디바이스.
According to claim 1,
The loss inclusion model is in the learning stage,
Receive one or more lossless reference images and lossy reference images prepared in advance, wherein the lossy reference image includes lossy data and corresponds to the lossless reference image,
The electronic device is trained such that the sum of the first loss function of the first GAN, the second loss function of the second GAN, and the third loss function of the cyclically coherent network is minimized for each deployment period.
제2항에 있어서,
상기 제1 GAN은 제1 생성자(Generator) 및 제1 식별자(Discriminator)를 포함하고,
상기 제1 생성자는,
상기 손실 레퍼런스 영상을 제1 무손실 영상으로 생성하고,
상기 제1 식별자는,
상기 제1 손실함수에 기초하여, 상기 제1 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별하는, 전자 디바이스.
3. The method of claim 2,
The first GAN includes a first generator (Generator) and a first identifier (Discriminator),
The first constructor,
generating the lossy reference image as a first lossless image;
The first identifier is
and identifying the first lossless image and the lossless reference image based on the first loss function.
제3항에 있어서,
상기 제2 GAN은 제2 생성자 및 제2 식별자를 포함하고,
상기 제2 생성자는,
상기 무손실 레퍼런스 영상을 손실 영상으로 생성하고,
상기 제2 식별자는,
상기 제2 손실함수에 기초하여, 생성된 손실 영상 및 상기 손실 레퍼런스 영상을 식별하는, 전자 디바이스.
4. The method of claim 3,
The second GAN includes a second generator and a second identifier;
The second constructor,
generating the lossless reference image as a lossy image;
The second identifier is
and identifying a generated lossy image and the lossy reference image based on the second loss function.
제4항에 있어서,
상기 순환 일관적 네트워크는,
상기 제2 GAN의 제2 생성자에 의해 생성된 상기 손실 영상을 상기 제1 GAN의 제1 생성자에 입력하여 제2 무손실 영상으로 생성하고,
상기 제3 손실함수에 기초하여, 상기 제2 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별하는, 전자 디바이스.
5. The method of claim 4,
The circular coherent network is
generating a second lossless image by inputting the lossy image generated by the second generator of the second GAN to the first generator of the first GAN;
and identifying the second lossless image and the lossless reference image based on the third loss function.
프로세서에 의해 수행되는 손실 산입 학습 방법으로서,
미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 상기 무손실 레퍼런스 영상에 대응하는 손실 레퍼런스 영상을 입력받는 단계; 및
제1 GAN(Generative Adversarial Network)의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 상기 제1 GAN 및 상기 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 단계를 포함하는, 손실 산입 학습 방법.
A loss inclusion learning method performed by a processor, comprising:
receiving a lossy reference image including at least one lossless reference image and lossy data provided in advance and corresponding to the lossless reference image; and
The parameters of the first GAN and the second GAN are adjusted so that the sum of the first loss function of the first Generative Adversarial Network (GAN), the second loss function of the second GAN, and the third loss function of the cyclic coherent network is minimized. A method of learning with loss counting, comprising the step of updating every batch period.
제6항에 있어서,
상기 입력받는 단계 이후에,
제1 GAN의 제1 생성자에 의해, 상기 손실 레퍼런스 영상을 제1 무손실 영상으로 생성하는 제1 단계; 및
상기 제1 GAN의 제1 식별자에 의해, 상기 제1 손실함수에 기초하여, 상기 제1 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별하는 제2 단계를 더 포함하는, 손실 산입 학습 방법.
7. The method of claim 6,
After the step of receiving the input,
a first step of generating, by a first generator of a first GAN, the lossy reference image as a first lossless image; and
The method further comprising a second step of identifying the first lossless image and the lossless reference image based on the first loss function by the first identifier of the first GAN.
제7항에 있어서,
상기 입력받는 단계 이후에,
제2 GAN의 제2 생성자에 의해, 상기 무손실 레퍼런스 영상을 손실 영상으로 생성하는 제3 단계; 및
제2 GAN의 제2 식별자에 의해, 상기 제2 손실함수에 기초하여, 생성된 손실 영상 및 상기 손실 레퍼런스 영상을 식별하는 제4 단계를 더 포함하는, 손실 산입 학습 방법.
8. The method of claim 7,
After receiving the input,
a third step of generating, by a second generator of a second GAN, the lossless reference image as a lossy image; and
According to the second identifier of the second GAN, based on the second loss function, the loss inclusion learning method further comprising a fourth step of identifying the generated loss image and the loss reference image.
제8항에 있어서,
상기 제4 단계 이후에,
상기 제2 GAN의 제2 생성자에 의해 생성된 상기 손실 영상을 상기 제1 GAN의 제1 생성자에 입력하여 제2 무손실 영상으로 생성하는 단계; 및
상기 제3 손실함수에 기초하여, 상기 제2 무손실 영상 및 상기 무손실 레퍼런스 영상을 식별하는 단계를 더 포함하는, 손실 산입 학습 방법.
9. The method of claim 8,
After the fourth step,
generating a second lossless image by inputting the lossy image generated by the second generator of the second GAN to the first generator of the first GAN; and
Based on the third loss function, the method further comprising: identifying the second lossless image and the lossless reference image.
제8항에 있어서,
상기 제1 단계 내지 제4 단계 순으로 프로세스가 수행되거나,
상기 제3 단계, 제4 단계, 제1 단계 및 제 2단계 순으로 프로세스가 수행되는, 손실 산입 학습 방법.
9. The method of claim 8,
The process is performed in the order of the first to fourth steps, or
The process is performed in the order of the third step, the fourth step, the first step and the second step, the loss inclusion learning method.
컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 있어서,
상기 프로그램은, 프로세서에 의한 실행 시, 상기 프로세서가,
미리 마련된 하나 이상의 무손실 레퍼런스 영상 및 손실 데이터를 포함하고 상기 무손실 레퍼런스 영상에 대응하는 하나 이상의 손실 레퍼런스 영상을 입력받는 동작; 및
제1 GAN(Generative Adversarial Network)의 제1 손실함수, 제2 GAN의 제2 손실함수 및 순환 일관적 네트워크의 제3 손실함수의 총합이 최소가 되도록 상기 제1 GAN 및 상기 제2 GAN의 파라미터를 배치 기간 마다 업데이트하는 동작을 수행하도록 하는 실행 가능한 명령을 포함하는, 컴퓨터 판독 가능한 기록 매체.

In a computer-readable recording medium recording a program for execution on a computer,
When the program is executed by a processor, the processor
an operation of receiving one or more lossless reference images including one or more lossless reference images and lossy data and corresponding to the lossless reference images; and
The parameters of the first GAN and the second GAN are adjusted so that the sum of the first loss function of the first Generative Adversarial Network (GAN), the second loss function of the second GAN, and the third loss function of the cyclic coherent network is minimized. A computer-readable recording medium comprising executable instructions for performing an operation of updating for each deployment period.

KR1020200146311A 2020-11-04 2020-11-04 Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method KR20220060374A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200146311A KR20220060374A (en) 2020-11-04 2020-11-04 Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200146311A KR20220060374A (en) 2020-11-04 2020-11-04 Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method

Publications (1)

Publication Number Publication Date
KR20220060374A true KR20220060374A (en) 2022-05-11

Family

ID=81607131

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200146311A KR20220060374A (en) 2020-11-04 2020-11-04 Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method

Country Status (1)

Country Link
KR (1) KR20220060374A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180120478A (en) 2017-04-27 2018-11-06 에스케이텔레콤 주식회사 Method for learning Cross-domain Relations based on Generative Adversarial Network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180120478A (en) 2017-04-27 2018-11-06 에스케이텔레콤 주식회사 Method for learning Cross-domain Relations based on Generative Adversarial Network

Similar Documents

Publication Publication Date Title
CN111310156B (en) Automatic identification method and system for slider verification code
CN110286938B (en) Method and apparatus for outputting evaluation information for user
CN111309222B (en) Sliding block notch positioning and dragging track generation method for sliding block verification code
CN110991871A (en) Risk monitoring method, device, equipment and computer readable storage medium
US11663413B2 (en) Dialog apparatus, dialog system, and computer-readable recording medium
CN114170484B (en) Picture attribute prediction method and device, electronic equipment and storage medium
CN113240430A (en) Mobile payment verification method and device
Liu et al. Task-oriented convex bilevel optimization with latent feasibility
CN117873888A (en) Deep learning-based efficient PDF application program fuzzy test case generation method
CN113673476A (en) Face recognition model training method and device, storage medium and electronic equipment
Burlin et al. Deep image inpainting
KR20220060374A (en) Learning method, apparatus, computer readable recording medium for imputating missing data and electronic device using the method
CN115828022A (en) Data identification method, federal training model, device and equipment
CN116361138A (en) Test method and test equipment
CN113469377B (en) Federal learning auditing method and device
WO2023035263A1 (en) Method and device for determining image signal processing parameters, and perception system
CN114973377A (en) Face beauty prediction method and device, electronic equipment and storage medium
CN114881103A (en) Countermeasure sample detection method and device based on universal disturbance sticker
JP2019175176A (en) Adaptation degree calculation program, adaptation degree calculation method, adaptation degree calculation device, identification program, identification method, and identification device
CN114898446A (en) Human face recognition method, device, equipment and storage medium based on artificial intelligence
CN109815796B (en) Method and device for testing influence factors of face recognition passing rate
CN112149631A (en) Image processing method, apparatus, device and medium
WO2021068529A1 (en) Image recognition method and apparatus, computer device and storage medium
US20190332402A1 (en) Annotated responses to learn and generate api simulators
CN115658926B (en) Element estimation method and device of knowledge graph, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal