KR102184787B1 - 개인 정보를 보호하기 위하여 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치 - Google Patents

개인 정보를 보호하기 위하여 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치 Download PDF

Info

Publication number
KR102184787B1
KR102184787B1 KR1020200051862A KR20200051862A KR102184787B1 KR 102184787 B1 KR102184787 B1 KR 102184787B1 KR 1020200051862 A KR1020200051862 A KR 1020200051862A KR 20200051862 A KR20200051862 A KR 20200051862A KR 102184787 B1 KR102184787 B1 KR 102184787B1
Authority
KR
South Korea
Prior art keywords
learning
characteristic information
network
training data
data
Prior art date
Application number
KR1020200051862A
Other languages
English (en)
Inventor
김태훈
Original Assignee
주식회사 딥핑소스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥핑소스 filed Critical 주식회사 딥핑소스
Application granted granted Critical
Publication of KR102184787B1 publication Critical patent/KR102184787B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/106Enforcing content protection by specific content processing
    • G06F21/1066Hiding content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/12Protecting executable software
    • G06F21/14Protecting executable software against software analysis or reverse engineering, e.g. by obfuscation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • G06K9/6256
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F2221/0748
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Bioethics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Technology Law (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Digital Transmission Methods That Use Modulated Carrier Waves (AREA)

Abstract

본 발명은 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하는 사용자 러닝 네트워크(User Learning Network)를 학습하는 방법에 관한 것으로, (a) 제1 학습 장치가, (i) 변조 네트워크로 하여금 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 변조된 트레이닝 데이터를 학습용 러닝 네트워크에 입력함으로써, 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 트레이닝 데이터를 학습용 러닝 네트워크에 입력함으로써, 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 변조 네트워크를 학습하는 프로세스를 수행한 상태에서, 제2 학습 장치가, (i) 변조된 트레이닝 데이터와 트레이닝 데이터 GT(Ground Truth)를 획득하거나, (ii) 변조된 테스트 데이터와 테스트 데이터 GT를 획득하는 단계; (b) 제2 학습 장치가, (i) 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 학습용 제3 특성 정보를 생성하도록 하거나, (ii) 변조된 테스트 데이터를 사용자 러닝 네트워크로 입력함으로써, 학습용 제4 특성 정보를 생성하도록 하는 단계; 및 (c) 제2 학습 장치가, 사용자 러닝 네트워크를 학습하는 단계;를 포함하는 방법을 제공한다.

Description

개인 정보를 보호하기 위하여 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치{METHOD FOR LEARNING AND TESTING USER LEARNING NETWORK TO BE USED FOR RECOGNIZING OBFUSCATED DATA CREATED BY CONCEALING ORIGINAL DATA TO PROTECT PERSONAL INFORMATION AND LEARNING DEVICE AND TESTING DEVICE USING THE SAME}
본 발명은 사용자 러닝 네트워크(User Learning Network)의 학습 방법에 관한 것으로; 보다 자세하게는, 개인 정보 보호를 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하기 위한 사용자 러닝 네트워크를 학습하는 방법 및 이를 이용한 학습 장치, 그리고 학습된 사용자 러닝 네트워크를 테스트하는 방법 및 이를 이용한 테스트 장치에 관한 것이다.
빅데이터(Big Data)란, 기존의 기업 환경이나 공공 기관에서 사용되는 모든 정형화된 데이터는 물론, 전자 상거래 데이터, 메타 데이터, 웹 로그 데이터, 무선 식별(RFID: Radio Frequency Identification) 데이터, 센서 네트워크 데이터, 소셜 네트워크 데이터, 인터넷 텍스트와 문서에 관한 데이터, 인터넷 검색 인덱싱 데이터 등 기존에 미처 활용하지 못하던 비정형화 또는 반정형화된 데이터를 모두 포함하는 데이터를 의미한다. 이와 같은 데이터는 일반적으로 보통의 소프트웨어 툴 및 컴퓨터 시스템으로는 다루기 어려운 수준의 거대한 데이터 양을 갖는다는 의미에서 빅데이터라 칭하고 있다.
또한, 이러한 빅데이터는 그 자체만으로는 의미가 없을 수 있으나, 패턴 등에 대한 기계 학습을 통해 다양한 분야에서 새로운 데이터를 만들거나 판단 또는 예측을 하는데 유용하게 사용될 수 있다.
근래에 들어, 개인 정보 보호법 강화 등으로 인해 이러한 빅데이터를 거래 또는 공유하기 위해서는 해당 데이터의 개인 식별이 가능한 정보를 삭제하거나 해당 개인의 동의를 받을 것이 요구된다. 하지만, 상당한 양의 빅데이터 중 개인 식별이 가능한 정보가 있는지 여부를 일일이 확인하기도 어려울 뿐만 아니라 개인의 동의를 일일이 받는 것도 불가능하였기 때문에 이를 지원하기 위한 다양한 기술들이 등장하고 있다.
이에 관한 종래 기술의 일 예로서, 한국등록특허공보 제10-1861520호에 개시된 기술을 예로 들 수 있다. 이에 따르면, 변형 대상인 입력 이미지에서 사람의 얼굴 영역을 검출하는 검출 단계, 상기 입력 이미지에서 사람이 식별되는 것을 막도록 상기 검출된 얼굴 영역을 사람의 얼굴 형상이 아닌 왜곡된 제1 이미지로 변형하는 제1 컨실링 단계, 및 상기 제1 이미지를 토대로 소정의 얼굴 형성을 갖는 제2 이미지를 생성하고, 상기 입력 이미지에서 상기 제1 이미지를 상기 제2 이미지로 변형시키되, 상기 제2 이미지는 상기 검출 단계에서 검출된 얼굴 영역의 형상과 상이한 얼굴 형상을 갖도록 생성되는 제2 컨실링 단계를 포함하는 얼굴-컨실링 방법을 제공한다.
하지만, 위와 같은 종래 기술을 비롯하여 지금까지 소개된 기술은, 데이터 상에 얼굴, 텍스트 등의 식별 정보를 포함하는지 여부를 확인하고, 식별 정보에 해당하는 부분을 마스킹(Masking) 또는 블러(Blur) 처리하여 지우거나 가리는 방식이었기 때문에, 원본 데이터가 손상되어 기계 학습에서 사용되기 어려웠고, 데이터 상에 예측하지 못한 식별 정보가 포함되어 이를 컨실링(예를 들어, 비식별화) 처리하지 못하는 경우도 종종 발생하였다. 특히, 종래의 보안 카메라(Security Camera)는 영상 이미지 내에 프레임 간 변화가 있는 모든 픽셀을 블러 처리하는 방식으로 비식별 처리를 수행하는데, 이러한 방식으로 비식별 처리를 수행하면, 비식별된 얼굴의 표정 등 주요 정보가 원본 영상 이미지에 담긴 정보와 달라지게 될 뿐만 아니라 얼굴 검출 과정에서 누락된 개인 식별 정보가 원본 영상 이미지 상에 그대로 남게 되는 문제가 있었다. 또한, 블러 처리된 영상 이미지는 종래의 영상 디블러링(Deblurring) 기술 중 하나를 이용해 원상복귀 될 수도 있다.
이에 본 발명자(들)는, 원본 데이터와 상이하게 변조(Obfuscation)된 변조 데이터를 생성하되, 러닝 모델(Learning Model)에 원본 데이터가 입력되어 출력되는 결과와 위의 변조 데이터가 입력되어 출력되는 각각의 결과가 서로 동일하거나 유사하도록 하는 기술과, 원본 데이터를 컨실링(예: 비식별화) 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 기술을 제안하는 바이다.
본 발명은, 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 데이터 내에서 개인 식별 정보를 찾는 작업이 필요하지 않으므로, 간편하면서도 정확하게 컨실링(Concealing), 가령, 비식별화 처리를 수행하는 것을 다른 목적으로 한다.
또한, 본 발명은, 원본 데이터로부터 비가역적으로 변조(Obfuscation)되어 컨실링(예: 비식별화) 처리된 데이터를 생성함으로써, 원본 데이터의 보안 및 프라이버시를 지키는 것을 또 다른 목적으로 한다.
또한, 본 발명은, 인간에게는 전혀 다르게 보이는 데이터지만, 컴퓨터에게는 서로 동일하거나 유사해 보이는 데이터를 생성하는 것을 또 다른 목적으로 한다.
또한, 본 발명은, 빅데이터 거래 시장을 활성화시키는 것을 또 다른 목적으로 한다.
또한, 본 발명은, 사용자 러닝 네트워크로 하여금 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하도록 하는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하기 위해 사용되는 사용자 러닝 네트워크(User Learning Network)를 학습하는 방법에 있어서, (a) 제1 학습 장치는, (i) 변조 네트워크(Obfuscation Network)에 트레이닝 데이터가 입력되면, 상기 변조 네트워크로 하여금 상기 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 상기 트레이닝 데이터를 상기 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1 특성 정보와 상기 학습용 제2 특성 정보를 참조하거나 상기 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)을 참조하여 산출된 제1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 상태에서, 제2 학습 장치가, (i) 상기 변조된 트레이닝 데이터와, 상기 트레이닝 데이터에 대응되는 트레이닝 데이터 GT(Ground Truth)를 획득하거나, (ii) 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 변조된 테스트 데이터와, 상기 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 단계; (b) 상기 제2 학습 장치가, (i) 상기 변조된 트레이닝 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 (i-1) 상기 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 (i-2) 학습용 제3 특성 정보를 생성하도록 하는 프로세스, 또는 (ii) 상기 변조된 테스트 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 (ii-1) 상기 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 (ii-2) 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행하는 단계; 및 (c) 상기 제2 학습 장치가, (i) (i-1) 상기 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (i-2) 상기 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스, 또는 (ii) (ii-1) 상기 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii-2) 상기 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행하는 단계;를 포함한다.
일 실시예에서, 상기 (b) 단계에서, 상기 제2 학습 장치는, (i) 상기 학습용 제1 특성 정보 및 상기 학습용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제1 힌트(Hint) 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 러닝 네트워크에 입력하여 생성된 테스트용 제1 특성 정보 및 (ii-2) 상기 테스트 데이터를 상기 학습용 러닝 네트워크에 입력하여 생성된 테스트용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제2 힌트 정보를 더 획득하며, 상기 (c) 단계에서, 상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득한다.
일 실시예에서, (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 특성 정보 사이의 차이, (i-2) 상기 학습용 제3 특성 정보와 상기 학습용 제2 특성 정보 사이의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와 상기 테스트용 제1 특성 정보 사이의 차이, (ii-2) 상기 학습용 제4 특성 정보와 상기 테스트용 제2 특성 정보 사이의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함한다.
일 실시예에서, 상기 학습용 러닝 네트워크는 적어도 하나의 제1 학습된 파라미터 내지 적어도 하나의 제n - 상기 n은 1 이상의 정수임 - 학습된 파라미터를 각각 가지는 학습용 제1 러닝 네트워크 내지 학습용 제n 러닝 네트워크를 포함하며, 상기 제1 학습 장치는, (i) 상기 변조된 트레이닝 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력함으로써, 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각으로 하여금 상기 제1 학습된 파라미터 내지 상기 제n 학습된 파라미터를 이용한 러닝 연산을 상기 변조된 트레이닝 데이터에 대하여 적용하여, 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보를 생성하도록 하는 프로세스, (ii) 상기 트레이닝 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력함으로써, 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각으로 하여금 상기 제1 학습된 파라미터 내지 상기 제n 학습된 파라미터를 이용한 러닝 연산을 상기 트레이닝 데이터에 대하여 적용하여, 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보를 생성하도록 하는 프로세스, (iii) 상기 학습용 제1_1 특성 정보와 상기 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러 내지 상기 학습용 제1_n 특성 정보와 상기 학습용 제2_n 특성 정보를 참조하여 산출된 제1_n 에러의 가중합(Weighted Sum)인 상기 제1 에러를 생성하는 프로세스, 및 (iv) 상기 제1 에러가 최소화되며 상기 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 상태에서, 상기 (b) 단계에서, 상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균 및 (i-2) 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii-2) 상기 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득하며, 상기 (c) 단계에서, 상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득한다.
일 실시예에서, (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와, 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균과의 차이, (i-2) 상기 학습용 제3 특성 정보와, 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균과의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와, 상기 테스트용 제1_1 특성 정보 내지 상기 테스트용 제1_n 특성 정보의 평균과의 차이, (ii-2) 상기 학습용 제4 특성 정보와, 상기 테스트용 제2_1 특성 정보 내지 상기 테스트용 제2_n 특성 정보의 평균과의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함한다.
일 실시예에서, 상기 학습용 러닝 네트워크는, 적어도 하나의 제1 학습된 파라미터 내지 적어도 하나의 제n - 상기 n은 1 이상의 정수임 - 학습된 파라미터를 각각 가지는 학습용 제1 러닝 네트워크 내지 학습용 제n 러닝 네트워크를 포함하며, 상기 제1 학습 장치는, (i) (i-1) 상기 변조된 트레이닝 데이터인 제1 변조된 트레이닝 데이터를 상기 제1 러닝 네트워크에 입력함으로써, 상기 제1 변조된 트레이닝 데이터에 대하여 상기 제1 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1_1 특성 정보를 생성하도록 하고, (i-2) 상기 트레이닝 데이터를 상기 제1 러닝 네트워크에 입력함으로써, 상기 트레이닝 데이터에 대하여 상기 제1 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2_1 특성 정보를 생성하도록 하며, (i-3) 상기 학습용 제1_1 특성 정보와 상기 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 제1 변조된 트레이닝 데이터를 참조하여 산출된 제2_1 에러가 최대화되도록, 상기 변조 네트워크를 학습함으로써, 상기 변조 네트워크가 제1 학습된 변조 네트워크가 되도록 하는 프로세스, 및 (ii) 상수인 k를 2부터 n까지 증가시켜가며, (ii-1) 상기 트레이닝 데이터를 상기 제(k-1) 학습된 변조 네트워크로 입력함으로써, 상기 제(k-1) 학습된 변조 네트워크로 하여금 제k 변조된 트레이닝 데이터를 생성하도록 하고, (ii-2) 상기 제k 변조된 트레이닝 데이터를 제k 러닝 네트워크에 입력함으로써 상기 제k 러닝 네트워크로 하여금 상기 제k 변조된 트레이닝 데이터에 대하여 제k 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1_k 특성 정보를 생성하도록 하며, 상기 트레이닝 데이터를 상기 제k 러닝 네트워크에 입력함으로써 상기 제k 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 제k 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2_k 특성 정보를 생성하도록 하고, (ii-3) 상기 학습용 제1_k 특성 정보와 상기 학습용 제2_k 특성 정보를 참조하여 산출된 제1_k 에러가 최소화되며, 상기 트레이닝 데이터와 상기 제k 변조된 트레이닝 데이터를 참조하여 산출된 제2_k 에러가 최대화되도록, 변조 네트워크를 학습함으로써, 상기 제(k-1) 학습된 변조 네트워크가 제k 학습된 변조 네트워크가 되게 하는 프로세스를 수행한 상태에서, 상기 (b) 단계에서, 상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균 및 (i-2) 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii-2) 상기 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득하며, 상기 (c) 단계에서, 상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득한다.
일 실시예에서, (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 특성 정보 사이의 차이, (i-2) 상기 학습용 제3 특성 정보와 상기 학습용 제2 특성 정보 사이의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와 상기 테스트용 제1 특성 정보 사이의 차이, (ii-2) 상기 학습용 제4 특성 정보와 상기 테스트용 제2 특성 정보 사이의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함한다.
본 발명의 다른 태양에 따르면, 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하도록 학습된 사용자 러닝 네트워크(User Learning Network)를 테스트하는 방법에 있어서, (a) 제1 학습 장치는, (i) 변조 네트워크에 트레이닝 데이터가 입력되면, 상기 변조 네트워크로 하여금 상기 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 상기 트레이닝 데이터를 상기 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1 특성 정보와 상기 학습용 제2 특성 정보를 참조하거나 상기 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)을 참조하여 산출된 제1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 후, 제2 학습 장치가, (i) (i-1) 상기 변조된 트레이닝 데이터와, 상기 트레이닝 데이터에 대응되는 트레이닝 데이터 GT를 획득하거나, (i-2) 제1 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 제1 변조된 테스트 데이터와, 상기 제1 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 하거나, (ii-2) 상기 제1 변조된 테스트 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 상기 제1 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 생성하도록 하는 프로세스, 및 (iii) (iii-1) (1) 상기 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (2) 상기 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록, 상기 사용자 러닝 네트워크를 학습하거나, (iii-2) (1) 상기 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (2) 상기 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록, 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행한 상태에서, 테스트 장치가, 제2 테스트 데이터를 상기 학습된 변조 네트워크에 입력하여 제2 변조된 테스트 데이터를 획득하는 단계; 및 (b) 상기 테스트 장치가, 상기 제2 변조된 테스트 데이터를 상기 학습된 사용자 러닝 네트워크에 입력함으로써, 상기 학습된 사용자 러닝 네트워크로 하여금 상기 제2 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 테스트용 특성 정보를 생성하도록 하는 단계;를 포함한다.
본 발명의 또 다른 태양에 따르면, 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하기 위해 사용되는 사용자 러닝 네트워크(User Learning Network)를 학습하는 제2 학습 장치에 있어서, 인스트럭션을 저장하는 적어도 하나의 메모리; 및 (I) 제1 학습 장치는, (i) 변조 네트워크(Obfuscation Network)에 트레이닝 데이터가 입력되면, 상기 변조 네트워크로 하여금 상기 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 상기 트레이닝 데이터를 상기 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1 특성 정보와 상기 학습용 제2 특성 정보를 참조하거나 상기 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)을 참조하여 산출된 제1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 상태에서, (i) 상기 변조된 트레이닝 데이터와, 상기 트레이닝 데이터에 대응되는 트레이닝 데이터 GT(Ground Truth)를 획득하거나, (ii) 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 변조된 테스트 데이터와, 상기 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 프로세스; (II) (i) 상기 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 (i-1) 상기 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 (i-2) 학습용 제3 특성 정보를 생성하도록 하는 프로세스, 또는 (ii) 상기 변조된 테스트 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 (ii-1) 상기 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 (ii-2) 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행하는 프로세스; 및 (III) (i) (i-1) 상기 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (i-2) 상기 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스, 또는 (ii) (ii-1) 상기 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii-2) 상기 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;를 포함한다.
일 실시예에서, 상기 (II) 프로세스에서, 상기 프로세서는, (i) 상기 학습용 제1 특성 정보 및 상기 학습용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제1 힌트(Hint) 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 러닝 네트워크에 입력하여 생성된 테스트용 제1 특성 정보 및 (ii-2) 상기 테스트 데이터를 상기 학습용 러닝 네트워크에 입력하여 생성된 테스트용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제2 힌트 정보를 더 획득하며, 상기 (III) 프로세스에서, 상기 프로세서는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득한다.
일 실시예에서, (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 특성 정보 사이의 차이, (i-2) 상기 학습용 제3 특성 정보와 상기 학습용 제2 특성 정보 사이의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와 상기 테스트용 제1 특성 정보 사이의 차이, (ii-2) 상기 학습용 제4 특성 정보와 상기 테스트용 제2 특성 정보 사이의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함한다.
일 실시예에서, 상기 학습용 러닝 네트워크는 적어도 하나의 제1 학습된 파라미터 내지 적어도 하나의 제n - 상기 n은 1 이상의 정수임 - 학습된 파라미터를 각각 가지는 학습용 제1 러닝 네트워크 내지 학습용 제n 러닝 네트워크를 포함하며, 상기 제1 학습 장치는, (i) 상기 변조된 트레이닝 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력함으로써, 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각으로 하여금 상기 제1 학습된 파라미터 내지 상기 제n 학습된 파라미터를 이용한 러닝 연산을 상기 변조된 트레이닝 데이터에 대하여 적용하여, 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보를 생성하도록 하는 프로세스, (ii) 상기 트레이닝 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력함으로써, 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각으로 하여금 상기 제1 학습된 파라미터 내지 상기 제n 학습된 파라미터를 이용한 러닝 연산을 상기 트레이닝 데이터에 대하여 적용하여, 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보를 생성하도록 하는 프로세스, (iii) 상기 학습용 제1_1 특성 정보와 상기 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러 내지 상기 학습용 제1_n 특성 정보와 상기 학습용 제2_n 특성 정보를 참조하여 산출된 제1_n 에러의 가중합(Weighted Sum)인 상기 제1 에러를 생성하는 프로세스, 및 (iv) 상기 제1 에러가 최소화되며 상기 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 상태에서, 상기 (II) 프로세스에서, 상기 프로세서는, (i) (i-1) 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균 및 (i-2) 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii-2) 상기 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득하며, 상기 (III) 프로세스에서, 상기 프로세서는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득한다.
일 실시예에서, (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와, 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균과의 차이, (i-2) 상기 학습용 제3 특성 정보와, 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균과의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와, 상기 테스트용 제1_1 특성 정보 내지 상기 테스트용 제1_n 특성 정보의 평균과의 차이, (ii-2) 상기 학습용 제4 특성 정보와, 상기 테스트용 제2_1 특성 정보 내지 상기 테스트용 제2_n 특성 정보의 평균과의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함한다.
일 실시예에서, 상기 학습용 러닝 네트워크는, 적어도 하나의 제1 학습된 파라미터 내지 적어도 하나의 제n - 상기 n은 1 이상의 정수임 - 학습된 파라미터를 각각 가지는 학습용 제1 러닝 네트워크 내지 학습용 제n 러닝 네트워크를 포함하며, 상기 제1 학습 장치는, (i) (i-1) 상기 변조된 트레이닝 데이터인 제1 변조된 트레이닝 데이터를 상기 제1 러닝 네트워크에 입력함으로써, 상기 제1 변조된 트레이닝 데이터에 대하여 상기 제1 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1_1 특성 정보를 생성하도록 하고, (i-2) 상기 트레이닝 데이터를 상기 제1 러닝 네트워크에 입력함으로써, 상기 트레이닝 데이터에 대하여 상기 제1 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2_1 특성 정보를 생성하도록 하며, (i-3) 상기 학습용 제1_1 특성 정보와 상기 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 제1 변조된 트레이닝 데이터를 참조하여 산출된 제2_1 에러가 최대화되도록, 상기 변조 네트워크를 학습함으로써, 상기 변조 네트워크가 제1 학습된 변조 네트워크가 되도록 하는 프로세스, 및 (ii) 상수인 k를 2부터 n까지 증가시켜가며, (ii-1) 상기 트레이닝 데이터를 상기 제(k-1) 학습된 변조 네트워크로 입력함으로써, 상기 제(k-1) 학습된 변조 네트워크로 하여금 제k 변조된 트레이닝 데이터를 생성하도록 하고, (ii-2) 상기 제k 변조된 트레이닝 데이터를 제k 러닝 네트워크에 입력함으로써 상기 제k 러닝 네트워크로 하여금 상기 제k 변조된 트레이닝 데이터에 대하여 제k 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1_k 특성 정보를 생성하도록 하며, 상기 트레이닝 데이터를 상기 제k 러닝 네트워크에 입력함으로써 상기 제k 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 제k 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2_k 특성 정보를 생성하도록 하고, (ii-3) 상기 학습용 제1_k 특성 정보와 상기 학습용 제2_k 특성 정보를 참조하여 산출된 제1_k 에러가 최소화되며, 상기 트레이닝 데이터와 상기 제k 변조된 트레이닝 데이터를 참조하여 산출된 제2_k 에러가 최대화되도록, 변조 네트워크를 학습함으로써, 상기 제(k-1) 학습된 변조 네트워크가 제k 학습된 변조 네트워크가 되게 하는 프로세스를 수행한 상태에서, 상기 (II) 프로세스에서, 상기 프로세서는, (i) (i-1) 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균 및 (i-2) 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii-2) 상기 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득하며, 상기 (III) 프로세스에서, 상기 프로세서는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득한다.
일 실시예에서, (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 특성 정보 사이의 차이, (i-2) 상기 학습용 제3 특성 정보와 상기 학습용 제2 특성 정보 사이의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와 상기 테스트용 제1 특성 정보 사이의 차이, (ii-2) 상기 학습용 제4 특성 정보와 상기 테스트용 제2 특성 정보 사이의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함한다.
본 발명의 또 다른 태양에 따르면, 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하도록 학습된 사용자 러닝 네트워크(User Learning Network)를 테스트하는 테스트 장치에 있어서, 인스트럭션을 저장하는 적어도 하나의 메모리; 및 (I) 제1 학습 장치는, (i) 변조 네트워크에 트레이닝 데이터가 입력되면, 상기 변조 네트워크로 하여금 상기 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 상기 트레이닝 데이터를 상기 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1 특성 정보와 상기 학습용 제2 특성 정보를 참조하거나, 상기 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)을 참조하여 산출된 제1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 후, 제2 학습 장치가, (i) (i-1) 상기 변조된 트레이닝 데이터와, 상기 트레이닝 데이터에 대응되는 트레이닝 데이터 GT를 획득하거나, (i-2) 제1 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 제1 변조된 테스트 데이터와, 상기 제1 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 하거나, (ii-2) 상기 제1 변조된 테스트 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 상기 제1 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 생성하도록 하는 프로세스, 및 (iii) (iii-1) (1) 상기 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (2) 상기 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록, 상기 사용자 러닝 네트워크를 학습하거나, (iii-2) (1) 상기 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (2) 상기 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록, 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행한 상태에서, 제2 테스트 데이터를 상기 학습된 변조 네트워크에 입력하여 제2 변조된 테스트 데이터를 획득하는 프로세스, 및 (II) 상기 제2 변조된 테스트 데이터를 상기 학습된 사용자 러닝 네트워크에 입력함으로써, 상기 학습된 사용자 러닝 네트워크로 하여금 상기 제2 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 테스트용 특성 정보를 생성하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;를 포함한다.
이 외에도, 본 발명의 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명은 데이터 내에서 개인 식별 정보를 찾는 작업이 요구되지 않으므로, 간편하면서도 정확하게 컨실링(Concealing) 처리를 수행할 수 있는 효과가 있다.
또한, 본 발명은 원본 데이터로부터 비가역적으로 변조(Obfuscation)하여 생성되어, 원본 데이터의 보안 및 프라이버시를 지킬 수 있는 다른 효과가 있다.
또한, 본 발명은 인간에게는 전혀 다르게 보이는 데이터이지만, 컴퓨터에게는 서로 동일하거나 유사하게 보이는 데이터를 생성할 수 있는 또 다른 효과가 있다.
또한, 본 발명은 빅데이터 거래 시장을 보다 활성화시킬 수 있는 또 다른 효과가 있다.
또한, 본 발명은 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 사용자 러닝 네트워크가 인식할 수 있는 또 다른 효과가 있다.
본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자(이하 "통상의 기술자")에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명의 일 실시예에 따라 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하기 위해 사용되는 사용자 러닝 네트워크(User Learning Network)를 학습하는 학습 장치를 개략적으로 도시한 것이고,
도 2는 본 발명의 일 실시예에 따라 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법을 개략적으로 도시한 것이고,
도 3은 본 발명의 일 실시예에 따라 원본 데이터를 컨실링 처리하는 변조 네트워크(Obfuscation Network)를 학습하는 방법을 개략적으로 도시한 것이고,
도 4는 본 발명의 일 실시예에 따라 원본 데이터를 컨실링 처리하는 변조 네트워크를 학습하는 다른 방법을 개략적으로 도시한 것이고,
도 5는 본 발명의 다른 실시예에 따라 원본 데이터를 컨실링 처리하는 변조 네트워크를 학습하는 방법을 개략적으로 도시한 것이고,
도 6는 본 발명의 다른 실시예에 따라 원본 데이터를 컨실링 처리하는 변조 네트워크를 학습하는 다른 방법을 개략적으로 도시한 것이고,
도 7은 본 발명의 일 실시예에 따라 학습된 사용자 러닝 네트워크를 테스트하는 테스트 장치를 개략적으로 도시한 것이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 기능, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조번호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다. 이하에서는, 본 발명의 상세 설명과 청구항에 포함된 "포함하다"란 용어와 해당 용어의 다양한 표현은 다른 기술적 특징, 추가, 구성요소 또는 단계를 배제하는 것을 의미하지는 않는다. 본 발명의 다른 목적, 혜택 및 특징은 부분적으로는 명세서로부터 및 부분적으로는 본 발명의 이행으로부터 기술분야에서 통상의 지식을 가진 자에게 명백히 드러날 것이다. 다음의 예시들과 도면들은 예시로 나타나지만 본 발명이 이에 제한되는 것은 아니다.
본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따라 원본 데이터를 컨실링(Concealing), 가령, 비식별화 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하기 위해 사용되는 사용자 러닝 네트워크(User Learning Network)를 학습하는 제2 학습 장치를 개략적으로 도시한 것이다. 제1 학습 장치는 이후에 설명한다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 제2 학습 장치(100)는, 개인 정보를 보호하기 위하여 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하도록 사용자 러닝 네트워크를 학습하는 인스트럭션(Instruction)이 저장된 메모리(110)와, 메모리(110)에 저장된 인스트럭션에 따라 변조 네트워크를 학습하는 동작을 수행하는 프로세서(120)를 포함할 수 있다.
구체적으로, 제2 학습 장치(100)는, 적어도 하나의 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치, 출력 장치 또는 기타 기존의 컴퓨팅 장치의 구성요소); 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 적어도 하나의 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 일반적으로 달성할 수 있다.
또한, 이 같은 장치의 프로세서는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치는 운영체제, 특정 목적을 달성하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
컴퓨팅 장치에 대한 이 같은 설명이 본 발명을 실시하기 위한 프로세서, 메모리, 미디엄 또는 다른 컴퓨팅 요소의 임의 조합을 포함하는 통합 장치를 배제하는 것은 아니다.
이때, 원본 데이터를 컨실링(예: 비식별화) 처리하여 생성된 변조 데이터는, 러닝 네트워크가 입력 데이터에 대하여 러닝 연산을 적용한 결과와 동일하거나 유사하게 변조된 입력 데이터에 대하여 러닝 연산을 적용한 결과를 출력하도록 학습된, 변조 네트워크(Obfuscation Network)에 의해 생성될 수 있다.
한편, 제1 학습 장치는, (i) 변조 네트워크에 트레이닝 데이터가 입력되면, 변조 네트워크로 하여금 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 학습용 러닝 네트워크로 하여금 변조된 트레이닝 데이터에 대하여 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 트레이닝 데이터를 학습용 러닝 네트워크에 입력함으로써, 학습용 러닝 네트워크로 하여금 트레이닝 데이터에 대하여 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 학습용 제1 특성 정보와 학습용 제2 특성 정보를 참조하거나 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)을 참조하여 산출된, 제1 에러가 최소화되며, 트레이닝 데이터와 변조된 트레이닝 데이터를 참조하여 산출된, 제2 에러가 최대화되도록, 변조 네트워크를 학습하는 프로세스를 수행한 상태에서, 제2 학습 장치(100)가, (i) 변조된 트레이닝 데이터와, 트레이닝 데이터에 대응되는 트레이닝 데이터 GT(Ground Truth)를 획득하거나, (ii) 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 변조된 테스트 데이터와, 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다. 제2 학습 장치가, (i) 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 사용자 러닝 네트워크로 하여금 (i-1) 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 (i-2) 학습용 제3 특성 정보를 생성하도록 하는 프로세스, 또는 (ii) 변조된 테스트 데이터를 사용자 러닝 네트워크로 입력함으로써, 사용자 러닝 네트워크로 하여금 (ii-1) 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 (ii-2) 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다. 제2 학습 장치가, (i) (i-1) 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (i-2) 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록 사용자 러닝 네트워크를 학습하는 프로세스, 또는 (ii) (ii-1) 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii-2) 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록 사용자 러닝 네트워크를 학습하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다.
이때, 제1 학습 장치는, 러닝 네트워크가 변조된 트레이닝 데이터를 입력으로 이용하여 산출된 결과를 트레이닝 데이터를 입력으로 이용하여 산출된 결과와 동일하거나 유사하게 출력하도록 트레이닝 데이터를 변조(예: 비식별화)하는 변조 네트워크를 학습하기 위한 인스트럭션들이 저장된 메모리와, 메모리에 저장된 인스트럭션에 따라 변조 네트워크를 학습하는 동작을 수행하는 프로세서를 포함할 수 있다. 구체적으로, 제1 학습 장치는, 적어도 하나의 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치, 출력 장치 또는 기타 기존의 컴퓨팅 장치의 구성요소); 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 적어도 하나의 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 일반적으로 달성할 수 있다. 또한, 이 같은 장치의 프로세서는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치는 운영체제, 특정 목적을 달성하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
또한, 제1 학습 장치와 제2 학습 장치(100)는 동일한 장치이거나 다른 장치일 수 있다.
이와 같이 구성된 본 발명의 일 실시예에 따른 제2 학습 장치(100)를 이용하여 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(예: 비식별화) 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법을 설명하면 다음과 같다.
도 2는 본 발명의 일 실시예에 따라 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법을 개략적으로 도시한 것이다.
먼저, 제2 학습 장치(100)는, 원본 데이터를 컨실링(예: 비식별화) 처리하여 생성된 변조 데이터와 더불어, 원본 데이터 GT 및 힌트(Hint) 정보 중 적어도 일부를 획득할 수 있다. 이에 대해서는 변조 네트워크의 학습 방법과 연계하여 설명하도록 한다.
다음으로, 제2 학습 장치(100)는 변조 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조 데이터에 대하여 러닝 연산을 적용하여 특성 정보를 출력하도록 하는 프로세스를 수행할 수 있다.
이후, 학습 장치(100)는, (i) 특성 정보와 힌트 정보 사이의 차이, 및 (ii) 특성 정보를 이용하여 생성된 태스크 특정 출력과 원본 데이터 GT 사이의 차이 중 적어도 하나를 참조하여 산출된, 적어도 하나의 에러가 최소화되도록, 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조 데이터를 원본 데이터로서 인식하도록 할 수 있다.
이때, 사용자 러닝 네트워크(G)는 머신 러닝 네트워크를 포함할 수 있으나, 본 발명의 범위가 이에 한정되지 않으며, 변조 데이터에 대하여 러닝 연산을 적용하여 특성 정보를 생성할 수 있는 러닝 네트워크는 무엇이든 포함할 수 있다. 그리고, 머신 러닝 네트워크는 K-최근접 이웃(K-Nearest Neighbors), 선형 회귀(Linear Regression), 로지스틱 회귀(Logistic Regression), 서포트 벡터 머신(SVM, Support Vector Machine), 결정 트리(Decision Tree)와 랜덤 포레스트(Random Forest), 신경망(Neural Network), 군집(Clustering), 시각화(Visualization)와 차원 축소(Dimensionality Reduction), 연관 규칙 학습(Association Rule Learning), 심층 신뢰 신경망(Deep Belief Network), 강화 학습(Reinforcement Learning), 및 딥러닝(Deep learning) 알고리즘 중 적어도 하나를 포함할 수 있으나, 머신 러닝 네트워크는 이에 한정되지 않으며 다양한 학습 알고리즘을 포함할 수 있다. 또한, 컨실링(예: 비식별화) 처리를 위한 대상은 원본 데이터에 포함된 개인 정보일 수 있다. 여기서, 개인 정보는 개인 식별 정보, 개인의 의료 정보, 생체 정보, 행동 정보 등 개인과 관련된 어떤 정보든 포함할 수 있다.
그리고 특성 정보는, 변조 데이터에 대응하는 특징(Feature) 또는 로짓(Logit)일 수 있다. 또한, 특성 정보는 변조 데이터 내에 포함된 소정의 특징과 연관된 특징 값, 또는 소정의 특징과 관련한 벡터(Vector), 행렬(Matrix) 및 좌표(Coordinate) 중 적어도 하나에 관한 값을 포함하는 로짓일 수 있다. 예를 들어, 원본 데이터가 얼굴 이미지 데이터인 경우에, 위의 결과는 얼굴 인식을 위한 클래스, 얼굴 특징, 일 예로, 웃는 표정, 얼굴 특징점(Landmark Point, 예를 들어, 눈의 양 끝점)에 관한 좌표일 수 있다.
한편, 태스크 특정 출력은, 사용자 러닝 네트워크(G)가 수행하고자 하는 태스크에 대한 출력으로, 클래스 분류를 위한 클래스에 대한 확률, 위치 검출을 위한 리그레션(Regression)으로 인한 좌표값 등 사용자 러닝 네트워크(G)의 설계된 태스크에 따른 다양한 결과값을 가질 수 있으며, 활성화 유닛(Activation Unit)의 활성화 함수(Activation Function)가 사용자 러닝 네트워크(G)에서 출력되는 특성 정보에 적용되어, 사용자 러닝 네트워크(G)에서 수행하고자 하는 태스크에 따른 태스크 특정 출력을 생성할 수 있다. 이때, 활성화 함수로는 시그모이드(Sigmoid) 함수, 선형(Linear) 함수, 소프트맥스(Softmax) 함수, ReLU(Rlinear) 함수, 제곱(Square) 함수, SQRT 함수, Srlinear 함수, ABS 함수, TANH 함수, Brlinear 함수 등이 사용될 수 있으나, 본 발명의 범위가 이에 한정되지는 않는다.
일 예로, 사용자 러닝 네트워크(G)가 클래스 분류를 위한 태스크를 수행하는 경우, 제2 학습 장치(100)는 사용자 러닝 네트워크(G)에서 출력되는 특성 정보를 클래스 별로 맵핑(Mapping)하여, 변조 데이터에 대해 클래스 별로 적어도 하나의 확률을 생성할 수 있다. 이때, 클래스별 확률은 클래스 별로 사용자 러닝 네트워크(G)에서 출력되는 특성 정보가 정답일 확률을 나타낼 수 있다. 예를 들어, 원본 데이터가 얼굴 이미지 데이터인 경우에, 얼굴이 웃는 상태일 확률은 0.75, 웃지 않는 상태일 확률은 0.25 등과 같이 출력될 수 있다. 이때, 사용자 러닝 네트워크(G)에서 출력되는 특성 정보를 클래스 별로 맵핑하는 데 소프트맥스 알고리즘을 사용할 수 있으나, 본 발명의 범위는 이에 한정되지 않으며, 특성 정보를 클래스 별로 맵핑하기 위해 다양한 알고리즘이 사용될 수 있다.
도 3은 본 발명의 일 실시예에 따라 원본 데이터를 컨실링 처리하는 변조 네트워크를 학습하는 방법을 개략적으로 도시한 것이다. 변조 학습 방법에 대응하는 사용자 러닝 네트워크의 학습 방법을 설명하면 다음과 같다.
먼저, 제1 학습 장치(200)를 이용하여 원본 데이터를 컨실링(예: 비식별화) 처리하기 위해 사용되는 변조 네트워크(O)를 학습하는 방법을 설명한다.
트레이닝 데이터가 획득되면, 제1 학습 장치(200)는, 트레이닝 데이터를 변조 네트워크(O)에 입력함으로써, 변조 네트워크(O)로 하여금 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 할 수 있다.
이때, 트레이닝 데이터는 학습에 이용하기 위한 원본 데이터인 원본 트레이닝 데이터 또는 원본 트레이닝 데이터를 변환(Modify)하여 생성된 변환(Modified) 트레이닝 데이터일 수 있으며, 변환 트레이닝 데이터는 원본 트레이닝 데이터에 대하여 랜덤 노이즈 생성 네트워크(미도시)를 통해 생성된 적어도 하나의 랜덤 노이즈를 추가하여 생성될 수 있다. 일 예로, 랜덤 노이즈 생성 네트워크는 정규분포 N(0, σ)에 따른 랜덤 노이즈를 생성하도록 하며, 생성된 노이즈를 원본 트레이닝 데이터에 추가하여 변환 트레이닝 데이터를 생성할 수 있다. 또한, 변환 트레이닝 데이터는 랜덤 노이즈 외에도, 원본 트레이닝 데이터를 블러(Blur) 처리하거나 원본 트레이닝 데이터의 해상도를 변경하여 생성될 수 있으나, 이에 한정되지 않으며, 원본 트레이닝 데이터를 변환하는 다양한 방법이 이용될 수 있다.
또한, 변조된 트레이닝 데이터는, 사람에게는 트레이닝 데이터와 다르게 인식되지만, 러닝 네트워크에서는 트레이닝 데이터와 동일하거나 유사한 것으로 인식될 수 있다.
한편, 변조 네트워크(O)는 일 예로, 트레이닝 데이터로서의 이미지에 대하여 컨벌루션 연산을 적어도 한 번 적용하기 위한 적어도 하나의 컨벌루션 레이어를 가지는 적어도 하나의 인코더(Encoder)와, 인코더에서 출력되는 적어도 하나의 특징 맵에 대하여 디컨벌루션 연산을 적어도 한 번 적용하여 변조된 트레이닝 데이터를 생성하기 위한 적어도 하나의 디컨벌루션 레이어를 가지는 적어도 하나의 디코더(Decoder)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되지 않으며, 입력되는 트레이닝 데이터를 변조할 수 있는 구조를 가지는 러닝 네트워크는 무엇이든 포함할 수 있다.
그리고, 제1 학습 장치(200)는, (i) 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크(F)에 입력함으로써, 학습용 러닝 네트워크(F)로 하여금 (i-1) 변조된 트레이닝 데이터에 대하여 학습된 파라미터를 이용한 러닝 연산을 적용하여 (i-2) 변조된 트레이닝 데이터에 대응하는 학습용 제1 특성 정보를 생성하도록 하는 프로세스, 및 (ii) 트레이닝 데이터를 학습용 러닝 네트워크(F)에 입력함으로써, 학습용 러닝 네트워크(F)로 하여금 (ii-1) 트레이닝 데이터에 대하여 학습된 파라미터를 이용한 러닝 연산을 적용하여 (ii-2) 트레이닝 데이터에 대응하는 학습용 제2 특성 정보를 생성하도록 하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다.
이때, 학습용 러닝 네트워크(F)는 머신 러닝 네트워크를 포함할 수 있으나, 본 발명의 범위가 이에 한정되지 않으며, 트레이닝 데이터에 대하여 자체 학습된 파라미터로 러닝 연산을 적용하여 학습용 제1 특성 정보를 생성함으로써, 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성할 수 있는 러닝 네트워크는 무엇이든 포함할 수 있다. 그리고, 머신 러닝 네트워크는 K-최근접 이웃(K-Nearest Neighbors), 선형 회귀(Linear Regression), 로지스틱 회귀(Logistic Regression), 서포트 벡터 머신(SVM, Support Vector Machine), 결정 트리(Decision Tree)와 랜덤 포레스트(Random Forest), 신경망(Neural Network), 군집(Clustering), 시각화(Visualization)와 차원 축소(Dimensionality Reduction), 연관 규칙 학습(Association Rule Learning), 심층 신뢰 신경망(Deep Belief Network), 강화 학습(Reinforcement Learning), 및 딥러닝(Deep learning) 알고리즘 중 적어도 하나를 포함할 수 있으나, 머신 러닝 네트워크는 이에 한정되지 않으며 다양한 학습 알고리즘을 포함할 수 있다. 또한, 컨실링(예: 비식별화) 처리를 위한 대상은 원본 데이터에 포함된 개인 정보일 수 있다. 여기서, 개인 정보는 개인 식별 정보, 개인의 의료 정보, 생체 정보, 행동 정보 등 개인과 관련된 어떤 정보든 포함할 수 있다.
그리고 학습용 제1 특성 정보와 학습용 제2 특성 정보는, 변조된 트레이닝 데이터와 트레이닝 데이터에 각각 대응하는 특징(Feature) 또는 로짓(Logit)일 수 있다. 또한, 학습용 제1 특성 정보와 학습용 제2 특성 정보는 변조된 트레이닝 데이터와 트레이닝 데이터 내에 각각 포함된 소정의 특징과 연관된 특징 값, 또는 소정의 특징과 관련한 벡터(Vector), 행렬(Matrix) 및 좌표(Coordinate) 중 적어도 하나에 관한 값을 포함하는 로짓일 수 있다. 예를 들어, 트레이닝 데이터가 얼굴 이미지 데이터인 경우에, 위의 결과는 얼굴 인식을 위한 클래스, 얼굴 특징, 일 예로, 웃는 표정, 얼굴 특징점(Landmark Point, 예를 들어, 눈의 양 끝점)에 관한 좌표일 수 있다.
이후, 제1 학습 장치(200)는, (i) 학습용 제1 특성 정보를 참조하거나 (ii) 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력을 참조하여 산출된, 제1 에러가 최소화되고, 트레이닝 데이터와 변조된 트레이닝 데이터를 참조하여 산출된, 제2 에러가 최대화되도록, 변조 네트워크(O)를 학습할 수 있다.
즉, 제1 학습 장치(200)는, (i) (i-1) 학습용 제1 특성 정보와 학습용 제2 특성 정보를 참조하여 획득한 적어도 하나의 제1_1 에러와, (i-2) 학습용 제1 특성 정보를 이용하여 생성된 적어도 하나의 학습용 태스크 특정 출력과, 이에 대응되는 적어도 하나의 트레이닝 데이터 GT를 참조하여 획득된 변조 로스인 적어도 하나의 제1_2 에러 중 적어도 일부를 참조하여 산출된, 적어도 하나의 제1 에러를 최소화하도록 하며, (ii) 트레이닝 데이터와 변조된 트레이닝 데이터를 참조하여 산출된, 적어도 하나의 제2 에러를 최대화하도록, 변조 네트워크(O)를 학습할 수 있다. 이를 좀 더 상세히 설명하면, 제1 학습 장치(200)는 변조 네트워크(O)를 학습함에 있어서, 변조 네트워크(O)가 제2 에러를 이용하여 트레이닝 데이터와 많은 차이가 나는 변조된 트레이닝 데이터를 출력하도록 하고, 학습용 러닝 네트워크(F)에서 트레이닝 데이터와 변조된 트레이닝 데이터가 동일하거나 유사하게 인식되도록 제1 에러를 이용하여 변조 네트워크(O)가 트레이닝 데이터를 변조함으로써 변조된 트레이닝 데이터를 출력하도록 할 수 있다.
이때, 제1 학습 장치(200)는, (i) 학습용 제1 특성 정보와 학습용 제2 특성 정보 사이의 차이와, (ii) 학습용 태스크 특정 출력과 이에 대응되는 트레이닝 데이터 GT 사이의 적어도 하나의 차이 중 적어도 일부를 참조하여, 제1 에러를 획득할 수 있다. 일 예로, 제1 학습 장치(200)는, 학습용 제1 특성 정보와 학습용 제2 특성 정보 사이의 노름(Norm) 또는 코사인 유사도(Cosine Similarity)를 참조하여 제1 에러를 획득할 수 있으나, 본 발명의 범위가 이에 한정되지 않으며, 학습용 제1 특성 정보와 학습용 제2 특성 정보 사이의 차이를 산출할 수 있는 다양한 알고리즘 중 무엇이든 적용할 수 있다. 또한, 제1 학습 장치(200)는 트레이닝 데이터와 변조된 트레이닝 데이터 사이의 적어도 하나의 차이를 참조하여 제2 에러를 획득할 수 있다.
또한, 제1 학습 장치(200)는 변조된 트레이닝 데이터의 엔트로피와 노이즈 정도 중 적어도 일부를 참조하여 적어도 하나의 퀄리티(Quality)를 측정할 수 있고, 측정된 퀄리티를 더 참조하여 제1 에러를 획득할 수 있다. 즉, 제1 학습 장치(200)는, 변조된 트레이닝 데이터의 퀄리티를 최소화(예를 들면, 변조된 트레이닝 데이터의 엔트로피, 노이즈 등의 적어도 일부를 최대화)하도록 변조 네트워크(O)를 학습할 수 있다.
그리고, 제1 학습 장치(200)가 제1 에러를 최소화하도록 하고 제2 에러를 최대화하도록 변조 네트워크(O)를 학습하는 경우, 제1 학습 장치(200)는 학습용 러닝 네트워크(F)의 학습된 파라미터를 고정하여 업데이트하지 않으며, 변조 네트워크(O)만 학습할 수 있다.
한편, 학습용 태스크 특정 출력은, 학습용 러닝 네트워크(F)가 수행하고자 하는 태스크에 대한 출력으로, 클래스 분류를 위한 클래스에 대한 확률, 위치 검출을 위한 리그레션(Regression)으로 인한 좌표값 등 학습용 러닝 네트워크(F)의 학습된 태스크에 따른 다양한 결과값을 가질 수 있으며, 활성화 유닛(Activation Unit)의 활성화 함수(Activation Function)가 학습용 러닝 네트워크(F)에서 출력되는 학습용 제1 특성 정보에 적용되어, 학습용 러닝 네트워크(F)에서 수행하고자 하는 태스크에 따른 학습용 태스크 특정 출력을 생성할 수 있다. 이때, 활성화 함수로는 시그모이드(Sigmoid) 함수, 선형(Linear) 함수, 소프트맥스(Softmax) 함수, ReLU(Rlinear) 함수, 제곱(Square) 함수, SQRT 함수, Srlinear 함수, ABS 함수, TANH 함수, Brlinear 함수 등이 사용될 수 있으나, 본 발명의 범위가 이에 한정되지는 않는다.
일 예로, 학습용 러닝 네트워크(F)가 클래스 분류를 위한 태스크를 수행하는 경우, 제1 학습 장치(200)는 학습용 러닝 네트워크(F)에서 출력되는 학습용 제1 특성 정보를 클래스 별로 맵핑하여, 변조된 트레이닝 데이터에 대해 클래스 별로 적어도 하나의 확률을 생성할 수 있다. 이때, 클래스별 확률은 클래스 별로 학습용 러닝 네트워크(F)에서 출력되는 학습용 제1 특성 정보가 정답일 확률을 나타낼 수 있다. 예를 들어, 트레이닝 데이터가 얼굴 이미지 데이터인 경우에, 얼굴이 웃는 상태일 확률은 0.75, 웃지 않는 상태일 확률은 0.25 등과 같이 출력될 수 있다. 이때, 학습용 러닝 네트워크(F)에서 출력되는 학습용 제1 특성 정보를 클래스 별로 맵핑하는 데 소프트맥스 알고리즘을 사용할 수 있으나, 본 발명의 범위는 이에 한정되지 않으며, 학습용 제1 특성 정보를 클래스 별로 맵핑하기 위해 다양한 알고리즘이 사용될 수 있다.
다음으로, 상기 프로세스를 이용하여 제1 학습 장치(200)에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 변조된 트레이닝 데이터와 트레이닝 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 변조된 트레이닝 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 할 수 있다. 이때, 제1 학습 장치(200)와 제2 학습 장치(100)는 동일한 장치이거나, 다른 장치일 수 있다.
이후, 제2 학습 장치(100)는, 학습용 데이터 로스를 참조하여 산출된 제3 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터를 학습 데이터로서 인식하도록 할 수 있다. 이때, 학습용 데이터 로스는 (i) 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (ii) 트레이닝 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, 학습용 제1 특성 정보 및 학습용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제1 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는, (i) 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이, 및 (ii) 학습용 데이터 로스 중 적어도 하나를 참조하여 제3 에러를 획득할 수 있다.
이때, 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이는, (i) 학습용 제3 특성 정보와 학습용 제1 특성 정보 사이의 차이, (ii) 학습용 제3 특성 정보와 학습용 제2 특성 정보 사이의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
이와는 달리, 상기 프로세스를 이용하여 제1 학습 장치에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 테스트 데이터를 학습된 변조 네트워크(O)에 입력함으로써, 변조된 테스트 데이터와, 테스트 데이터에 대응되는 테스트 데이터 GT를 획득할 수 있다.
다음으로, 제2 학습 장치(100)는 변조된 테스트 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 출력하도록 하는 프로세스를 수행할 수 있다.
이후, 제2 학습 장치(100)는, 테스트용 데이터 로스를 참조하여 산출될 수 있는 제4 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터를 테스트 데이터로서 인식하도록 할 수 있다. 이때, 테스트용 데이터 로스는 (i) 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii) 테스트 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, (i) 변조된 테스트 데이터를 학습용 러닝 네트워크(F)에 입력하여 생성된 테스트용 제1 특성 정보 및 (ii) 테스트 데이터를 학습용 러닝 네트워크(F)에 입력하여 생성된 테스트용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제2 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는, (i) 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이, 및 (ii) 테스트용 데이터 로스 중 적어도 하나를 참조하여 제4 에러를 획득할 수 있다.
이때, 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이는, (i) 학습용 제4 특성 정보와 테스트용 제1 특성 정보 사이의 차이, (ii) 학습용 제4 특성 정보와 테스트용 제2 특성 정보 사이의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
도 4는 본 발명의 일 실시예에 따라 원본 데이터를 컨실링(예: 비식별화) 처리하는 변조 네트워크를 학습하는 다른 방법을 개략적으로 도시한 것이다. 변조 네트워크(O)의 학습 방법에 대응하여 사용자 러닝 네트워크를 학습하는 방법을 설명하면 다음과 같다. 도 4는 도 3에서의 학습용 러닝 네트워크(F)가 학습된 파라미터를 가지는 다수의 학습용 러닝 네트워크(F1, F2, …, Fn)로 구성된 것이다. 이때, 다수의 학습용 러닝 네트워크(F1, F2, …, Fn) 각각은 서로 다른 태스크의 적어도 일부를 수행하도록 학습된 상태일 수 있다. 하기의 설명에서는 상기 도 3의 설명에서 용이하게 이해 가능한 부분에 대해서는 상세한 설명을 생략하기로 한다.
먼저, 제1 학습 장치(200)를 이용하여 원본 데이터를 컨실링(예: 비식별화) 처리하는 변조 네트워크(O)를 학습하는 방법을 설명한다.
트레이닝 데이터가 획득되면, 제1 학습 장치(200)는, 트레이닝 데이터를 변조 네트워크(O)에 입력함으로써, 변조 네트워크(O)로 하여금 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 할 수 있다.
이때, 트레이닝 데이터는 학습에 이용하기 위한 원본 데이터인 원본 트레이닝 데이터 또는 원본 트레이닝 데이터를 변환한 변환 트레이닝 데이터일 수 있으며, 변조된 트레이닝 데이터는, 사람에게는 트레이닝 데이터와 다르게 인식되나, 러닝 네트워크에서는 트레이닝 데이터와 동일하거나 유사한 것으로 인식될 수 있다.
그리고, 제1 학습 장치(200)는, 변조된 트레이닝 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력함으로써, 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각으로 하여금 (i) 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각의 제1 학습된 파라미터 내지 제n 학습된 파라미터를 각각 이용한 러닝 연산을 변조된 트레이닝 데이터에 대하여 적용하여, (ii) 변조된 트레이닝 데이터에 대응하는 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보 각각을 생성하도록 할 수 있다. 또한, 제1 학습 장치(200)는, 트레이닝 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력함으로써, 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각으로 하여금 (i) 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각의 제1 학습된 파라미터 내지 제n 학습된 파라미터를 각각 이용한 러닝 연산을 트레이닝 데이터에 대하여 적용하여, (ii) 트레이닝 데이터에 대응하는 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보 각각을 생성하도록 할 수 있다.
이후, 제1 학습 장치(200)는, 학습용 제1_1 특성 정보와 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러 내지 학습용 제1_n 특성 정보와 학습용 제2_n 특성 정보를 참조하여 산출된 제1_n 에러의 가중합(Weighted Sum)인 제1 에러를 획득하여 이 제1 에러를 최소화하도록 하고, 트레이닝 데이터와 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러를 최대화하도록, 변조 네트워크(O)를 학습할 수 있다.
일 예로, 제1 학습 장치(200)는, (i) 학습용 제1_1 특성 정보와 학습용 제2_1 특성 정보 사이의 차이, 및 (ii) (ii-1) 학습용 제1_1 특성 정보를 이용하여 생성된 학습용 제1 태스크 특정 출력과 (ii-2) 트레이닝 데이터 GT를 참조하여 산출된 제1 변조 로스, 중 적어도 하나를 참조하여 산출된 제1_1 에러를 획득할 수 있고, (i) 학습용 제1_n 특성 정보와 학습용 제2_n 특성 정보 사이의 차이, 및 (ii) (ii-1) 학습용 제1_n 특성 정보를 이용하여 생성된 학습용 제n 태스크 특정 출력과 (ii-2) 트레이닝 데이터 GT를 참조하여 산출된 제n 변조 로스, 중 적어도 하나를 참조하여 산출된 제1_n 에러를 획득할 수 있다.
즉, 제1_n 에러는, (i) 학습용 제1_n 특성 정보와 학습용 제2_n 특성 정보 사이의 차이, (ii) (ii-1) 학습용 제1_n 특성 정보를 이용하여 생성된 학습용 제n 태스크 특정 출력과 (ii-2) 트레이닝 데이터 GT를 참조하여 산출된 제n 변조 로스, 및 (iii) 상기 (i)과 상기 (ii)의 총합 중 어느 하나일 수 있으나, 본 발명의 범위가 이에 한정되지는 않는다.
또한, 제1 학습 장치(200)는 변조된 트레이닝 데이터의 엔트로피와 노이즈 정도 중 적어도 일부를 참조하여 적어도 하나의 퀄리티를 측정할 수 있고, 측정된 퀄리티를 더 참조하여 제1 에러를 획득할 수 있다. 즉, 제1 학습 장치(200)는, 변조된 트레이닝 데이터의 퀄리티를 최소화(예를 들면, 변조된 트레이닝 데이터의 엔트로피, 노이즈 등의 적어도 일부를 최대화)하도록 변조 네트워크(O)를 학습할 수 있다.
그리고, 제1 학습 장치(200)는 제1 에러를 최소화하도록 하며 제2 에러를 최대화하도록 변조 네트워크(O)를 학습할 경우, 제1 학습 장치(200)는 학습용 러닝 네트워크(F), 즉, 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn)의 학습된 파라미터를 고정하여 업데이트하지 않으며, 변조 네트워크(OO)에 대해서만 학습을 진행할 수 있다.
다음으로, 상기 프로세스를 이용하여 제1 학습 장치(200)에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 변조된 트레이닝 데이터와 트레이닝 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 변조된 트레이닝 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 출력하도록 하는 프로세스를 수행할 수 있다. 이때, 제1 학습 장치(200)와 제2 학습 장치(100)는 동일한 장치이거나, 다른 장치일 수 있다.
이후, 제2 학습 장치(100)는, 학습용 데이터 로스를 참조하여 산출된 제3 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터를 학습 데이터로서 인식하도록 할 수 있다. 이때, 학습용 데이터 로스는 (i) 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (ii) 트레이닝 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, (i) 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보의 평균 및 (ii) 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는, (i) 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이, 및 (ii) 학습용 데이터 로스 중 적어도 하나를 참조하여 제3 에러를 획득할 수 있다.
이때, 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이는, (i) 학습용 제3 특성 정보와, 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보의 평균과의 차이, (ii) 학습용 제3 특성 정보와, 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보의 평균과의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
이와는 달리, 상기 프로세스를 이용하여 제1 학습 장치(200)에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 테스트 데이터를 학습된 변조 네트워크(O)에 입력함으로써, 변조된 테스트 데이터와, 테스트 데이터에 대응되는 테스트 데이터 GT를 획득할 수 있다.
다음으로, 제2 학습 장치(100)는, 변조된 테스트 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행할 수 있다.
이후, 제2 학습 장치(100)는, 테스트용 데이터 로스를 참조하여 산출된 제4 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터를 테스트 데이터로서 인식하도록 할 수 있다. 이때, 테스트용 데이터 로스는 (i) 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii) 테스트 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, (i) 변조된 테스트 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii) 테스트 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는 (i) 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이, 및 (ii) 테스트용 데이터 로스 중 적어도 하나를 참조하여 제4 에러를 획득할 수 있다.
이때, 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이는, (i) 학습용 제4 특성 정보와, 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균과의 차이, (ii) 학습용 제4 특성 정보와, 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균과의 차이, 및 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
한편, 학습용 제1_1 특성 정보와 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러 내지 학습용 제1_n 특성 정보와 학습용 제2_n 특성 정보를 참조하여 산출된 제1_n 에러의 가중합인 제1 에러를 획득하여 이 제1 에러를 최소화하며, 트레이닝 데이터와 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러를 최대화하도록, 변조 네트워크(O)를 학습할 수 있다. 그러나 이와는 달리, 제1_1 에러 내지 제1_n 에러 각각을 이용하여 변조 네트워크(O)를 순차적으로 학습할 수도 있다.
즉, 제1 학습 장치(200)는, 트레이닝 데이터를 변조 네트워크(O)로 입력함으로써, 변조 네트워크(O)로 하여금 트레이닝 데이터를 변조하도록 하여 제1 변조된 트레이닝 데이터를 생성하도록 할 수 있다. 그리고, 제1 학습 장치(200)는, (i) 제1 변조된 트레이닝 데이터를 학습용 제1 러닝 네트워크(F1)에 입력함으로써, 학습용 제1 러닝 네트워크(F1)로 하여금 (i-1) 학습용 제1 러닝 네트워크(F1)의 제1 학습된 파라미터를 이용한 러닝 연산을 제1 변조된 트레이닝 데이터에 대하여 적용하여 (i-2) 제1 변조된 트레이닝 데이터에 대응하는 학습용 제1_1 특성 정보를 출력하도록 하는 프로세스, 및 (ii) 트레이닝 데이터를 학습용 제1 러닝 네트워크(F1)에 입력함으로써, (iii) 학습용 제1 러닝 네트워크(F1)로 하여금 (iii-1) 제1 학습된 파라미터를 이용한 러닝 연산을 트레이닝 데이터에 대하여 적용하여 (iii-2) 트레이닝 데이터에 대응하는 학습용 제2_1 특성 정보를 출력하도록 하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다. 이후, 제1 학습 장치(200)는, 학습용 제1_1 특성 정보와 학습용 제2_1 특성 정보를 참조하여 산출될 수 있는 제1_1 에러를 최소화하며, 트레이닝 데이터와 제1 변조된 트레이닝 데이터를 참조하여 산출될 수 있는 제2_1 에러를 최대화하도록, 변조 네트워크(O)를 학습함으로써, 변조 네트워크(O)가 제1 학습된 변조 네트워크(O)가 되도록 할 수 있다.
그리고, 제1 학습 장치(200)는, 상수인 k를 2부터 n까지 증가시켜가며 상기의 동작을 반복하여, 학습용 제n 러닝 네트워크(Fn)까지 수행함으로써, 제n 학습된 변조 네트워크(O)을 획득할 수 있다.
즉, 제1 학습 장치(200)는, 트레이닝 데이터를 제(k-1) 학습된 변조 네트워크(O)로 입력함으로써, 제(k-1) 학습된 변조 네트워크(O)로 하여금 트레이닝 데이터를 변조하도록 하여 제k 변조된 트레이닝 데이터를 생성하도록 할 수 있다. 그리고, 제1 학습 장치(200)는, (i) 제k 변조된 트레이닝 데이터를 학습용 제k 러닝 네트워크(Fk)에 입력함으로써, 학습용 제k 러닝 네트워크(Fk)로 하여금 (i-1) 학습용 제k 러닝 네트워크(Fk)의 제k 학습된 파라미터를 이용한 러닝 연산을 제k 변조된 트레이닝 데이터에 대하여 적용하여 (i-2) 제k 변조된 트레이닝 데이터에 대응하는 학습용 제1_k 특성 정보를 출력하도록 하는 프로세스, 및 (ii) 트레이닝 데이터를 학습용 제k 러닝 네트워크(Fk)에 입력함으로써, 학습용 제k 러닝 네트워크(Fk)로 하여금 (ii-1) 학습용 제k 러닝 네트워크(Fk)의 제k 학습된 파라미터를 이용한 러닝 연산을 트레이닝 데이터에 대하여 적용하여 (ii-2) 트레이닝 데이터에 대응하는 학습용 제2_k 특성 정보를 출력하도록 하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다. 이후, 제1 학습 장치(200)는, 학습용 제1_k 특성 정보와 학습용 제2_k 특성 정보를 참조하여 산출된 제1_k 에러를 최소화하도록 하며, 트레이닝 데이터와 제k 변조된 트레이닝 데이터를 참조하여 산출된 제2_k 에러를 최대화하도록, 제(k-1) 학습된 변조 네트워크(O)를 학습함으로써, 제(k-1) 학습된 변조 네트워크(O)가 제k 학습된 변조 네트워크(O)가 되도록 할 수 있다.
이때, 제1_k 에러는, (i) 학습용 제1_k 특성 정보를 이용하여 생성된, 제k 변조된 트레이닝 데이터에 대한 학습용 제k 태스크 특정 출력과 (ii) 트레이닝 데이터에 대응되는 트레이닝 데이터 GT를 참조하여 획득된 제k 변조 로스를 더 참조하여 산출될 수 있다.
또한, 제1_k 에러는, (i) 학습용 제1_k 특성 정보와 학습용 제2_k 특성 정보 사이의 차이, (ii) 제k 변조 로스, 및 (iii) 상기 (i)과 상기 (ii)의 총합 중 어느 하나일 수 있으나, 본 발명의 범위가 이에 한정되지는 않는다.
다음으로, 상기 프로세스를 이용하여 제1 학습 장치에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 (i) 제1 변조된 트레이닝 데이터 내지 제n 변조된 트레이닝 데이터 중 적어도 일부의 변조된 트레이닝 데이터와 (ii) 트레이닝 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 제1 변조된 트레이닝 데이터 내지 제n 변조된 트레이닝 데이터 중 적어도 일부의 변조된 트레이닝 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 하는 프로세스를 수행할 수 있다. 이때, 제1 학습 장치(200)와 제2 학습 장치(100)는 동일한 장치이거나, 다른 장치일 수 있다.
이후, 제2 학습 장치(100)는, 학습용 데이터 로스를 참조하여 산출된 제3 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터를 학습 데이터로서 인식하도록 할 수 있다. 이때, 학습용 데이터 로스는 (i) 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (ii) 트레이닝 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는 (i) 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보의 평균 및 (ii) 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는 (i) 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이, 및 (ii) 학습용 데이터 로스 중 적어도 하나를 참조하여 제3 에러를 획득할 수 있다.
이때, 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이는, (i) 학습용 제3 특성 정보와, 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보의 평균과의 차이, (ii) 학습용 제3 특성 정보와, 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보의 평균과의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
이와는 달리, 상기 프로세스를 이용하여 제1 학습 장치(200)에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 테스트 데이터를 학습된 변조 네트워크(O)에 입력함으로써, 변조된 테스트 데이터와, 테스트 데이터에 대응되는 테스트 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 변조된 테스트 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 생성하도록 할 수 있다.
이후, 제2 학습 장치(100)는, 테스트용 데이터 로스를 참조하여 산출된 제4 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터를 테스트 데이터로서 인식하도록 할 수 있다. 이때, 테스트용 데이터 로스는 (i) 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii) 테스트 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, (i) 변조된 테스트 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii) 테스트 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는 (i) 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이, 및 (ii) 테스트용 데이터 로스 중 적어도 하나를 참조하여 제4 에러를 획득할 수 있다.
이때, 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이는, (i) 학습용 제4 특성 정보와, 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균과의 차이, (ii) 학습용 제4 특성 정보와, 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균과의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
도 5는 본 발명의 다른 실시예에 따라 원본 데이터를 컨실링(예: 비식별화) 처리하는 변조 네트워크를 학습하는 방법을 개략적으로 도시한 것이다. 변조 네트워크의 학습 방법에 대응하는 사용자 러닝 네트워크를 학습 방법을 설명하면 다음과 같다. 이하의 설명에서는 도 2 내지 도 4의 설명으로부터 용이하게 이해 가능한 부분에 대해서는 상세한 설명을 생략하기로 한다.
먼저, 제1 학습 장치(200)를 이용하여 원본 데이터를 컨실링(예: 비식별화) 처리하는 변조 네트워크(O)를 학습하는 방법을 설명한다.
트레이닝 데이터가 획득되면, 제1 학습 장치(200)는, 트레이닝 데이터를 변조 네트워크(O)에 입력함으로써, 변조 네트워크(O)로 하여금 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 할 수 있다.
그리고, 제1 학습 장치(200)는, (i) 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크(F)에 입력함으로써, 학습용 러닝 네트워크(F)로 하여금 (i-1) 학습된 파라미터를 이용한 러닝 연산을 변조된 트레이닝 데이터에 대하여 적용하여 (i-2) 변조된 트레이닝 데이터에 대응하는 학습용 제1 특성 정보를 생성하도록 하는 프로세스, 및 (ii) 트레이닝 데이터를 학습용 러닝 네트워크(F)에 입력함으로써, 학습용 러닝 네트워크(F)로 하여금 (ii-1) 학습된 파라미터를 이용한 러닝 연산을 트레이닝 데이터에 대하여 적용하여 (ii-2) 트레이닝 데이터에 대응하는 학습용 제2 특성 정보를 생성하도록 하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다.
이후, 입력되는 데이터가 진짜인지 가짜인지를 판별하기 위하여 판별기(Discriminator)(D)에 입력된 변조된 트레이닝 데이터에 대응되는 적어도 하나의 변조된 트레이닝 데이터 스코어(Obfuscated Training Data Score)를 제2 에러로 획득한 상태에서, 제1 학습 장치(200)는, (i) 제1 에러를 최소화하도록 하고 제2 에러를 최대화하도록 변조 네트워크(O)를 학습함과 더불어, (ii) 판별기(D)에 입력된 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터에 대응되는 변환 트레이닝 데이터 스코어 또는 변환 변조된 트레이닝 데이터 스코어 중 적어도 하나를 최대화하며, 변조된 트레이닝 데이터 스코어를 최소화하도록, 판별기(D)를 학습할 수 있다. 이때, 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터는, 트레이닝 데이터 또는 변조된 트레이닝 데이터에 대하여 랜덤 노이즈 생성 네트워크(미도시)를 통해 생성된 적어도 하나의 랜덤 노이즈를 추가하여 각각 생성될 수 있다. 일 예로, 랜덤 노이즈 생성 네트워크가 정규분포 N(0, σ)를 가지는 랜덤 노이즈를 생성하도록 하며, 생성된 노이즈를 트레이닝 데이터 또는 변조된 트레이닝 데이터에 추가하여 변환 트레이닝 데이터를 생성할 수 있다. 또한, 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터는, 랜덤 노이즈 이외에도, 트레이닝 데이터 또는 변조된 트레이닝 데이터를 블러 처리하거나, 트레이닝 데이터 또는 변조된 트레이닝 데이터의 해상도를 변경하여 각각 생성될 수 있으나, 본 발명의 범위가 이에 한정되지 않으며, 트레이닝 데이터 또는 변조된 트레이닝 데이터를 변환하는 다양한 방법이 적용될 수 있다.
즉, 제1 학습 장치(200)는, 변조 네트워크(O)를 학습함에 있어서, 학습용 러닝 네트워크(F)가 제1 에러를 이용하여 트레이닝 데이터를 변조하여, 변조된 트레이닝 데이터가 트레이닝 데이터와 동일하거나 유사하게 인식되도록, 변조된 트레이닝 데이터를 출력하도록 변조 네트워크(O)를 학습하며, 학습용 러닝 네트워크(F)가 제 2 에러를 이용하여 트레이닝 데이터와는 다르지만 트레이닝 데이터와의 구별이 어렵도록 하는 변조된 트레이닝 데이터를 출력하도록 할 수 있다.
이때, 판별기(D)에 입력된 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터에 대응되는 변환 트레이닝 데이터 스코어 또는 변환 변조된 트레이닝 데이터 스코어의 최대값은, 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터를 진짜 데이터로 판별하는 1이며, 판별기(D)에 입력된 변조된 트레이닝 데이터에 대응되는 변조된 트레이닝 데이터 스코어의 최소값은, 변조된 트레이닝 데이터를 가짜 데이터로 판별하는 0일 수 있다. 즉, 판별기(D)는 변조된 트레이닝 데이터를 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터로서 인식하도록 학습될 수 있다.
다음으로, 상기 프로세스를 이용하여 제1 학습 장치(200)에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 변조된 트레이닝 데이터와 트레이닝 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 변조된 트레이닝 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 할 수 있다. 이때, 제1 학습 장치(200)와 제2 학습 장치(100)는 동일한 장치이거나, 다른 장치일 수 있다.
이후, 제2 학습 장치(100)는, 학습용 데이터 로스를 참조하여 산출된 제3 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터를 학습 데이터로서 인식하도록 할 수 있다. 이때, 학습용 데이터 로스는 (i) 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (ii) 트레이닝 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, 학습용 제1 특성 정보 및 학습용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제1 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는, (i) 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이, 및 (ii) 학습용 데이터 로스 중 적어도 하나를 참조하여 제3 에러를 획득할 수 있다.
이때, 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이는, (i) 학습용 제3 특성 정보와 학습용 제1 특성 정보 사이의 차이, (ii) 학습용 제3 특성 정보와 학습용 제2 특성 정보 사이의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
이와는 달리, 상기 프로세스를 이용하여 제1 학습 장치에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 테스트 데이터를 학습된 변조 네트워크(O)에 입력함으로써, 변조된 테스트 데이터와, 테스트 데이터에 대응되는 테스트 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 변조된 테스트 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터에 대하여 러닝 연산하여 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행할 수 있다.
이후, 제2 학습 장치(100)는, 테스트용 데이터 로스를 참조하여 산출된 제4 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터를 테스트 데이터로서 인식하도록 할 수 있다. 이때, 테스트용 데이터 로스는 (i) 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii) 테스트 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, (i) 변조된 테스트 데이터를 학습용 러닝 네트워크(F)에 입력하여 생성된 테스트용 제1 특성 정보 및 (ii) 테스트 데이터를 학습용 러닝 네트워크(F)에 입력하여 생성된 테스트용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제2 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는 (i) 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이, 및 (ii) 테스트용 데이터 로스 중 적어도 하나를 참조하여 제4 에러를 획득할 수 있다.
이때, 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이는, (i) 학습용 제4 특성 정보와 테스트용 제1 특성 정보 사이의 차이, (ii) 학습용 제4 특성 정보와 테스트용 제2 특성 정보 사이의 차이, 및 (iii) 상기 (i)과 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
도 6는 본 발명의 다른 실시예에 따라 원본 데이터를 컨실링 처리하는 변조 네트워크를 학습하는 다른 방법을 개략적으로 도시한 것이다. 변조 네트워크의 학습 방법에 대응하는 사용자 러닝 네트워크를 학습 방법을 설명하면 다음과 같다. 도 6은 도 5에서의 학습용 러닝 네트워크(F)가 학습된 파라미터를 가지는 다수의 학습용 러닝 네트워크(F1, F2, …, Fn) 로 구성된 것이다. 하기의 설명에서는 상기 도 2 내지 도 5의 설명에서 용이하게 이해 가능한 부분에 대해서는 상세한 설명을 생략하기로 한다.
먼저, 제1 학습 장치(200)를 이용하여 원본 데이터를 컨실링(예: 비식별화) 처리하는 변조 네트워크(O)를 학습하는 방법을 설명한다.
트레이닝 데이터가 획득되면, 제1 학습 장치(200)는, 트레이닝 데이터를 변조 네트워크(O)에 입력함으로써, 변조 네트워크(O)로 하여금 트레이닝 데이터를 변조하여, 변조된 트레이닝 데이터를 생성하도록 할 수 있다.
그리고, 제1 학습 장치(200)는, 변조된 트레이닝 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력함으로써, 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn)로 하여금 (i) 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각의 제1 학습된 파라미터 내지 제n 학습된 파라미터를 각각 이용한 러닝 연산을 변조된 트레이닝 데이터에 대하여 적용하여, (ii) 변조된 트레이닝 데이터에 대응하는 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보 각각을 생성하도록 할 수 있다. 또한, 제1 학습 장치(200)는, 트레이닝 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력함으로써, 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각으로 하여금 (i) 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각의 제1 학습된 파라미터 내지 제n 학습된 파라미터를 각각 이용한 러닝 연산을 트레이닝 데이터에 대하여 적용하여, (ii) 트레이닝 데이터에 대응하는 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보 각각을 생성하도록 할 수 있다.
이후, 제1 학습 장치(200)는, 학습용 제1_1 특성 정보와 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러 내지 학습용 제1_n 특성 정보와 학습용 제2_n 특성 정보를 참조하여 산출된 제1_n 에러의 가중합인 제1 에러를 획득하여 이 제1 에러를 최소화하도록 하며, 판별기(D)에 입력된 변조된 트레이닝 데이터에 대응되는 변조된 트레이닝 데이터 스코어인 제2 에러를 최대화하도록, 변조 네트워크(O)를 학습하고, 제1 학습 장치(200)는, 판별기(D)에 입력된 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터에 대응되는 변환 트레이닝 데이터 스코어 또는 변환 변조된 트레이닝 데이터 스코어를 최대화하도록 하며, 변조된 트레이닝 데이터 스코어를 최소화하도록, 판별기(D)를 학습할 수 있다.
일 예로, 제1 학습 장치(200)는, (i) 학습용 제1_1 특성 정보와 학습용 제2_1 특성 정보 사이의 차이, 및 (ii) (ii-1) 학습용 제1_1 특성 정보를 이용하여 생성된 학습용 제1 태스크 특정 출력과 (ii-2) 트레이닝 데이터 GT를 참조하여 산출된, 제1 변조 로스 중 적어도 하나를 참조하여 산출된 제1_1 에러를 획득할 수 있고, (i) 학습용 제1_n 특성 정보와 학습용 제2_n 특성 정보 사이의 차이, 및 (ii) (ii-1) 학습용 제1_n 특성 정보를 이용하여 생성된 학습용 제n 태스크 특정 출력과 (ii-2) 트레이닝 데이터 GT를 참조하여 산출된, 제n 변조 로스 중 적어도 하나를 참조하여 산출된 제1_n 에러를 획득할 수 있다.
즉, 제1_n 에러는, (i) 학습용 제1_n 특성 정보와 학습용 제2_n 특성 정보 사이의 차이, (ii) (ii-1) 학습용 제1_n 특성 정보를 이용하여 생성된 학습용 제n 태스크 특정 출력과 (ii-2) 트레이닝 데이터 GT를 참조하여 산출된, 제n 변조 로스, 및 (iii) 상기 (i)과 상기 (ii)의 총합 중 어느 하나일 수 있으나, 본 발명의 범위가 이에 한정되지는 않는다.
다음으로, 상기 프로세스를 이용하여 제1 학습 장치(200)에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 변조된 트레이닝 데이터와 트레이닝 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 변조된 트레이닝 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 할 수 있다. 이때, 제1 학습 장치(200)와 제2 학습 장치(100)는 동일한 장치이거나, 다른 장치일 수 있다.
이후, 제2 학습 장치(100)는, 학습용 데이터 로스를 참조하여 산출된 제3 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터를 학습 데이터로서 인식하도록 할 수 있다. 이때, 학습용 데이터 로스는 (i) 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (ii) 트레이닝 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, (i) 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보의 평균 및 (ii) 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는, (i) 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이, 및 (ii) 학습용 데이터 로스 중 적어도 하나를 참조하여 제3 에러를 획득할 수 있다.
이때, 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이는, (i) 학습용 제3 특성 정보와, 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보의 평균과의 차이, (ii) 학습용 제3 특성 정보와, 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보의 평균과의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
이와는 달리, 상기 프로세스를 이용하여 제1 학습 장치(200)에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 테스트 데이터를 학습된 변조 네트워크(O)에 입력함으로써, 변조된 테스트 데이터와, 테스트 데이터에 대응되는 테스트 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 변조된 테스트 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 생성하도록 할 수 있다.
이후, 제2 학습 장치(100)는, 테스트용 데이터 로스를 참조하여 산출된 제4 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터를 테스트 데이터로서 인식하도록 할 수 있다. 이때, 테스트용 데이터 로스는 (i) 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii) 테스트 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, (i) 변조된 테스트 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii) 테스트 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는 (i) 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이, 및 (ii) 테스트용 데이터 로스 중 적어도 하나를 참조하여 제4 에러를 획득할 수 있다.
이때, 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이는, (i) 학습용 제4 특성 정보와, 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균과의 차이, (ii) 학습용 제4 특성 정보와, 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균과의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
한편, 학습용 제1_1 특성 정보와 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러 내지 학습용 제1_n 특성 정보와 학습용 제2_n 특성 정보를 참조하여 산출된 제1_n 에러의 가중합인 제1 에러를 획득하여 이 제1 에러를 최소화하도록 하며, 판별기에 입력된 변조된 트레이닝 데이터에 대응되는 변조된 트레이닝 데이터 스코어인 제2 에러를 최대화하도록, 변조 네트워크(O)를 학습할 수 있다. 그러나, 이와는 달리, 제1_1 에러 내지 제1_n 에러 각각을 이용하여 변조 네트워크(O)를 순차적으로 학습할 수도 있다.
즉, 제1 학습 장치(200)는, 트레이닝 데이터를 변조 네트워크(O)로 입력함으로써, 변조 네트워크(O)로 하여금 트레이닝 데이터를 변조하여 제1 변조된 트레이닝 데이터를 생성하도록 할 수 있다. 그리고, 제1 학습 장치(200)는, (i) 제1 변조된 트레이닝 데이터를 학습용 제1 러닝 네트워크(F1)에 입력함으로써, 학습용 제1 러닝 네트워크(F1)로 하여금 (i-1) 학습용 제1 러닝 네트워크(F1)의 제1 학습된 파라미터를 이용한 러닝 연산을 제1 변조된 트레이닝 데이터에 대하여 적용하여 (i-2) 제1 변조된 트레이닝 데이터에 대응하는 학습용 제1_1 특성 정보를 출력하도록 하는 프로세스, 및 (ii) 트레이닝 데이터를 학습용 제1 러닝 네트워크(F1)에 입력함으로써, (iii) 학습용 제1 러닝 네트워크(F1)로 하여금 (iii-1) 제1 학습된 파라미터를 이용한 러닝 연산을 트레이닝 데이터에 대하여 적용하여 (iii-2) 트레이닝 데이터에 대응하는 학습용 제2_1 특성 정보를 출력하도록 하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다. 이후, 제1 학습 장치(200)는, 제1_1 특성 정보와 제2_1 특성 정보를 참조하여 산출된 적어도 하나의 제1_1 에러를 최소화하도록 하며, 판별기(D)에 입력된 제1 변조된 트레이닝 데이터에 대응되는 제1 변조된 트레이닝 데이터 스코어인 제2_1 에러를 최대화하도록, 변조 네트워크(O)를 학습함으로써, 변조 네트워크(O)가 제1 학습된 변조 네트워크(O)가 되도록 할 수 있다. 또한, 판별기(D)에 입력된 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터에 대응되는 적어도 하나의 제1 변환 트레이닝 데이터 스코어 또는 적어도 하나의 제1 변환 변조된 트레이닝 데이터 스코어를 최대화하도록 하며, 적어도 하나의 제1 변조된 트레이닝 데이터 스코어를 최소화하도록, 판별기(D)를 학습함으로써, 판별기(D)가 제1 학습된 판별기(D)가 되도록 할 수 있다.
그리고, 제1 학습 장치(200)는, 상수인 k를 2부터 n까지 증가시켜가며, 상기의 동작을 반복하여 학습용 제n 러닝 네트워크(Fn)까지 수행함으로써 제n 학습된 변조 네트워크(O)을 획득할 수 있다.
즉, 제1 학습 장치(200)는, 트레이닝 데이터를 제(k-1) 학습된 변조 네트워크(O)로 입력함으로써, 제(k-1) 변조 네트워크(O)로 하여금 트레이닝 데이터를 변조하여 제k 변조된 트레이닝 데이터를 생성하도록 할 수 있다. 그리고, 제1 학습 장치(200)는, (i) 제k 변조된 트레이닝 데이터를 학습용 제k 러닝 네트워크(Fk)에 입력함으로써, 학습용 제k 러닝 네트워크(Fk)로 하여금 (i-1) 학습용 제k 러닝 네트워크(Fk)의 제k 학습된 파라미터를 이용한 러닝 연산을 제k 변조된 트레이닝 데이터에 대하여 적용하여 (i-2) 제k 변조된 트레이닝 데이터에 대응하는 학습용 제1_k 특성 정보를 출력하도록 하는 프로세스, 및 (ii) 트레이닝 데이터를 학습용 제k 러닝 네트워크(Fk)에 입력함으로써, 학습용 제k 러닝 네트워크(Fk)로 하여금 (ii-1) 제k 학습된 파라미터를 이용한 러닝 연산을 트레이닝 데이터에 대하여 적용하여 (ii-2) 트레이닝 데이터에 대응하는 학습용 제2_k 특성 정보를 출력하도록 하는 프로세스를 수행하거나 다른 장치로 하여금 수행하도록 지원할 수 있다. 이후, 제1 학습 장치(200)는, 학습용 제1_k 특성 정보와 학습용 제2_k 특성 정보를 참조하여 산출된 적어도 하나의 제1_k 에러를 최소화하도록 하며, 제(k-1) 학습된 판별기(D)에 입력된 제k 변조된 트레이닝 데이터에 대응되는 적어도 하나의 제k 변조된 트레이닝 데이터 스코어인 제2_k 에러를 최대화하도록, 제(k-1) 학습된 변조 네트워크(O)를 학습함으로써, 제(k-1) 학습된 변조 네트워크(O)가 제k 학습된 변조 네트워크(O)가 되도록 할 수 있다. 그리고 제(k-1) 학습된 판별기(D)에 입력된 변환 트레이닝 데이터 또는 변환 변조된 트레이닝 데이터에 대응되는 적어도 하나의 제k 변환 트레이닝 데이터 스코어 또는 적어도 하나의 제k 변환 변조된 트레이닝 데이터 스코어를 최대화하도록 하며, 적어도 하나의 제k 변조된 트레이닝 데이터 스코어를 최소화하도록, 제(k-1) 학습된 판별기(D)를 학습함으로써, 제(k-1) 학습된 판별기(D)가 제k 학습된 판별기(D)가 되도록 할 수 있다.
이때, 제1_k 에러는, (i) 학습용 제1_k 특성 정보를 이용하여 생성된, 제k 변조된 트레이닝 데이터에 대한 학습용 제k 태스크 특정 출력과 (ii) 트레이닝 데이터에 대응되는 트레이닝 데이터 GT를 참조하여 획득된 제k 변조 로스를 더 참조하여 산출될 수 있다.
또한, 제1_k 에러는, (i) 학습용 제1_k 특성 정보와 학습용 제2_k 특성 정보 사이의 차이, (ii) 제k 변조 로스, 및 (iii) 상기 (i)과 상기 (ii)의 총합 중 어느 하나일 수 있으나, 본 발명의 범위가 이에 한정되지는 않는다.
다음으로, 상기 프로세스를 이용하여 제1 학습 장치에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 (i) 제1 변조된 트레이닝 데이터 내지 제n 변조된 트레이닝 데이터 중 적어도 일부의 변조된 트레이닝 데이터와 (ii) 트레이닝 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 제1 변조된 트레이닝 데이터 내지 제n 변조된 트레이닝 데이터 중 적어도 일부의 변조된 트레이닝 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 하는 프로세스를 수행할 수 있다. 이때, 제1 학습 장치(200)와 제2 학습 장치(100)는 동일한 장치이거나, 다른 장치일 수 있다.
이후, 제2 학습 장치(100)는, 학습용 데이터 로스를 참조하여 산출된 제3 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 트레이닝 데이터를 학습 데이터로서 인식하도록 할 수 있다. 이때, 학습용 데이터 로스는 (i) 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (ii) 트레이닝 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는 (i) 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보의 평균 및 (ii) 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는 (i) 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이, 및 (ii) 학습용 데이터 로스 중 적어도 하나를 참조하여 제3 에러를 획득할 수 있다.
이때, 학습용 제3 특성 정보와 학습용 제1 힌트 정보 사이의 차이는, (i) 학습용 제3 특성 정보와, 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보의 평균과의 차이, (ii) 학습용 제3 특성 정보와, 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보의 평균과의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
이와는 달리, 상기 프로세스를 이용하여 제1 학습 장치(200)에 의해 변조 네트워크(O)가 학습된 상태에서, 제2 학습 장치(100)는 테스트 데이터를 학습된 변조 네트워크(O)에 입력함으로써, 변조된 테스트 데이터와, 테스트 데이터에 대응되는 테스트 데이터 GT를 획득할 수 있다.
그리고, 제2 학습 장치(100)는, 변조된 테스트 데이터를 사용자 러닝 네트워크(G)에 입력함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행할 수 있다.
이후, 제2 학습 장치(100)는, 테스트용 데이터 로스를 참조하여 산출된 제4 에러를 최소화하도록 사용자 러닝 네트워크(G)를 학습함으로써, 사용자 러닝 네트워크(G)로 하여금 변조된 테스트 데이터를 테스트 데이터로서 인식하도록 할 수 있다. 이때, 테스트용 데이터 로스는 (i) 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii) 테스트 데이터 GT를 참조하여 획득될 수 있다.
한편, 제2 학습 장치(100)는, (i) 변조된 테스트 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii) 테스트 데이터를 학습용 제1 러닝 네트워크(F1) 내지 학습용 제n 러닝 네트워크(Fn) 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득할 수 있다.
그리고, 제2 학습 장치(100)는 (i) 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이, 및 (ii) 테스트용 데이터 로스 중 적어도 하나를 참조하여 제4 에러를 획득할 수 있다.
이때, 학습용 제4 특성 정보와 학습용 제2 힌트 정보 사이의 차이는, (i) 학습용 제4 특성 정보와, 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균과의 차이, (ii) 학습용 제4 특성 정보와, 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균과의 차이, 및 (iii) 상기 (i)과 상기 (ii)의 평균 중 적어도 하나를 포함할 수 있다.
도 7은 본 발명의 일 실시예에 따라 학습된 사용자 러닝 네트워크(G)를 테스트하는 테스트 장치를 개략적으로 도시한 것이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 테스트 장치(300)는 개인 정보를 보호하기 위하여 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하도록 사용자 러닝 네트워크를 테스트하는 인스트럭션이 저장된 메모리(310)와, 메모리(310)에 저장된 인스트럭션에 따라 변조 네트워크를 테스트하는 동작을 수행하는 프로세서(320)를 포함할 수 있다.
구체적으로, 테스트 장치(300)는 적어도 하나의 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치, 출력 장치 또는 기타 기존의 컴퓨팅 장치의 구성요소); 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 적어도 하나의 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 일반적으로 달성할 수 있다.
또한, 이 같은 장치의 프로세서는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치는 운영체제, 특정 목적을 달성하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
컴퓨팅 장치에 대한 이 같은 설명이 본 발명을 실시하기 위한 프로세서, 메모리, 미디엄 또는 다른 컴퓨팅 요소의 임의 조합을 포함하는 통합 장치를 배제하는 것은 아니다.
한편, 테스트 장치(300)는 다음과 같은 방법에 의해 학습된 사용자 러닝 네트워크를 테스트할 수 있다.
먼저, 사용자 러닝 네트워크는 도 2 내지 도 6을 참조하여 설명한 프로세스에 의해 학습된 상태일 수 있다.
즉, 제1 학습 장치는, (i) 변조 네트워크에 트레이닝 데이터가 입력되면, 변조 네트워크로 하여금 트레이닝 데이터를 변조하여, 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 학습용 러닝 네트워크로 하여금 학습된 파라미터를 이용한 러닝 연산을 변조된 트레이닝 데이터에 대하여 적용하여 학습용 제1 특성 정보를 생성하도록 하고, (ii-2) 트레이닝 데이터를 학습용 러닝 네트워크에 입력함으로써, 학습용 러닝 네트워크로 하여금 학습된 파라미터를 이용한 러닝 연산을 트레이닝 데이터에 대하여 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 학습용 제1 특성 정보와 학습용 제2 특성 정보를 참조하거나, 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력을 참조하여 산출된 제1 에러가 최소화되도록 하며, 트레이닝 데이터와 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 변조 네트워크를 학습하는 프로세스를 수행한 이후, 제2 학습 장치(100)가, (i) 변조된 트레이닝 데이터와, 트레이닝 데이터에 대응되는 트레이닝 데이터 GT를 획득하거나, (ii) 제1 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 제1 변조된 테스트 데이터와, 상기 제1 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 프로세스를 수행한 상태일 수 있다. 제2 학습 장치(100)는, (i) 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 사용자 러닝 네트워크로 하여금 (i-1) 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 (i-2) 학습용 제3 특성 정보를 생성하도록 하는 프로세스, 또는 (ii) 제1 변조된 테스트 데이터를 사용자 러닝 네트워크로 입력함으로써, 사용자 러닝 네트워크로 하여금 (ii-1) 제1 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 (ii-2) 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행한 상태일 수 있다. 이후, 제2 학습 장치는, (i) (i-1) 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (i-2) 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록 사용자 러닝 네트워크를 학습하는 프로세스, 또는 (ii) (ii-1) 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii-2) 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행한 상태일 수 있다.
다음으로, 제2 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 제2 변조된 테스트 데이터가 획득되면, 테스트 장치(300)는, 제2 변조된 테스트 데이터를 학습된 사용자 러닝 네트워크에 입력하여, 학습된 사용자 러닝 네트워크로 하여금 제2 변조된 테스트 데이터에 대하여 러닝 연산을 적용해 테스트용 특성 정보를 생성하도록 함으로써, 제2 테스트 데이터가 이에 대응되는 제2 변조된 테스트 데이터를 이용하여 인식될 수 있다.
이때, 제2 테스트 데이터는 제1 테스트 데이터와 같거나 다른 데이터일 수 있다. 즉, 제1 테스트 데이터는 학습된 변조 네트워크를 테스트하기 위해 사용될 수 있으며, 제2 테스트 데이터는 학습된 사용자 러닝 네트워크를 테스트하기 위해 사용될 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 학습 장치,
110: 메모리,
120: 프로세서,
300: 테스트 장치,
310: 메모리,
320: 프로세서

Claims (16)

  1. 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하기 위해 사용되는 사용자 러닝 네트워크(User Learning Network)를 학습하는 방법에 있어서,
    (a) 제1 학습 장치는, (i) 변조 네트워크(Obfuscation Network)에 트레이닝 데이터가 입력되면, 상기 변조 네트워크로 하여금 상기 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 상기 트레이닝 데이터를 상기 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1 특성 정보와 상기 학습용 제2 특성 정보를 참조하거나 상기 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)과 상기 트레이닝 데이터에 대응되는 트레이닝 데이터 GT(Ground Truth)를 참조하여 산출된 제1 에러가 최소화되도록 하며, 상기 트레이닝 데이터와 상기 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 상태에서, 제2 학습 장치가, (i) 상기 변조된 트레이닝 데이터와, 상기 트레이닝 데이터에 대응되는 상기 트레이닝 데이터 GT(Ground Truth)를 획득하거나, (ii) 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 변조된 테스트 데이터와, 상기 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 단계;
    (b) 상기 제2 학습 장치가, (i) 상기 변조된 트레이닝 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 (i-1) 상기 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 (i-2) 학습용 제3 특성 정보를 생성하도록 하는 프로세스, 또는 (ii) 상기 변조된 테스트 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 (ii-1) 상기 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 (ii-2) 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행하는 단계; 및
    (c) 상기 제2 학습 장치가, (i) (i-1) 상기 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (i-2) 상기 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스, 또는 (ii) (ii-1) 상기 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii-2) 상기 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행하는 단계;
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 (b) 단계에서,
    상기 제2 학습 장치는, (i) 상기 학습용 제1 특성 정보 및 상기 학습용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제1 힌트(Hint) 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 러닝 네트워크에 입력하여 생성된 테스트용 제1 특성 정보 및 (ii-2) 상기 테스트 데이터를 상기 학습용 러닝 네트워크에 입력하여 생성된 테스트용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제2 힌트 정보를 더 획득하며,
    상기 (c) 단계에서,
    상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득하는 방법.
  3. 제2항에 있어서,
    (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 특성 정보 사이의 차이, (i-2) 상기 학습용 제3 특성 정보와 상기 학습용 제2 특성 정보 사이의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와 상기 테스트용 제1 특성 정보 사이의 차이, (ii-2) 상기 학습용 제4 특성 정보와 상기 테스트용 제2 특성 정보 사이의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함하는 방법.
  4. 제1항에 있어서,
    상기 학습용 러닝 네트워크는 적어도 하나의 제1 학습된 파라미터 내지 적어도 하나의 제n - 상기 n은 1 이상의 정수임 - 학습된 파라미터를 각각 가지는 학습용 제1 러닝 네트워크 내지 학습용 제n 러닝 네트워크를 포함하며,
    상기 제1 학습 장치는, (i) 상기 변조된 트레이닝 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력함으로써, 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각으로 하여금 상기 제1 학습된 파라미터 내지 상기 제n 학습된 파라미터를 이용한 러닝 연산을 상기 변조된 트레이닝 데이터에 대하여 적용하여, 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보를 생성하도록 하는 프로세스, (ii) 상기 트레이닝 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력함으로써, 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각으로 하여금 상기 제1 학습된 파라미터 내지 상기 제n 학습된 파라미터를 이용한 러닝 연산을 상기 트레이닝 데이터에 대하여 적용하여, 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보를 생성하도록 하는 프로세스, (iii) 상기 학습용 제1_1 특성 정보와 상기 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러 내지 상기 학습용 제1_n 특성 정보와 상기 학습용 제2_n 특성 정보를 참조하여 산출된 제1_n 에러의 가중합(Weighted Sum)인 상기 제1 에러를 생성하는 프로세스, 및 (iv) 상기 제1 에러가 최소화되며 상기 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 상태에서,
    상기 (b) 단계에서,
    상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균 및 (i-2) 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii-2) 상기 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득하며,
    상기 (c) 단계에서,
    상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득하는 방법.
  5. 제4항에 있어서,
    (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와, 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균과의 차이, (i-2) 상기 학습용 제3 특성 정보와, 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균과의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와, 상기 테스트용 제1_1 특성 정보 내지 상기 테스트용 제1_n 특성 정보의 평균과의 차이, (ii-2) 상기 학습용 제4 특성 정보와, 상기 테스트용 제2_1 특성 정보 내지 상기 테스트용 제2_n 특성 정보의 평균과의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함하는 방법.
  6. 제1항에 있어서,
    상기 학습용 러닝 네트워크는, 적어도 하나의 제1 학습된 파라미터 내지 적어도 하나의 제n - 상기 n은 1 이상의 정수임 - 학습된 파라미터를 각각 가지는 학습용 제1 러닝 네트워크 내지 학습용 제n 러닝 네트워크를 포함하며,
    상기 제1 학습 장치는, (i) (i-1) 상기 변조된 트레이닝 데이터인 제1 변조된 트레이닝 데이터를 상기 제1 러닝 네트워크에 입력함으로써, 상기 제1 변조된 트레이닝 데이터에 대하여 상기 제1 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1_1 특성 정보를 생성하도록 하고, (i-2) 상기 트레이닝 데이터를 상기 제1 러닝 네트워크에 입력함으로써, 상기 트레이닝 데이터에 대하여 상기 제1 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2_1 특성 정보를 생성하도록 하며, (i-3) 상기 학습용 제1_1 특성 정보와 상기 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 제1 변조된 트레이닝 데이터를 참조하여 산출된 제2_1 에러가 최대화되도록 상기 변조 네트워크를 학습함으로써, 상기 변조 네트워크가 제1 학습된 변조 네트워크가 되도록 하는 프로세스, 및 (ii) 상수인 k를 2부터 n까지 증가시켜가며, (ii-1) 상기 트레이닝 데이터를 상기 제(k-1) 학습된 변조 네트워크로 입력함으로써, 상기 제(k-1) 학습된 변조 네트워크로 하여금 제k 변조된 트레이닝 데이터를 생성하도록 하고, (ii-2) 상기 제k 변조된 트레이닝 데이터를 제k 러닝 네트워크에 입력함으로써 상기 제k 러닝 네트워크로 하여금 상기 제k 변조된 트레이닝 데이터에 대하여 제k 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1_k 특성 정보를 생성하도록 하며, 상기 트레이닝 데이터를 상기 제k 러닝 네트워크에 입력함으로써 상기 제k 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 제k 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2_k 특성 정보를 생성하도록 하고, (ii-3) 상기 학습용 제1_k 특성 정보와 상기 학습용 제2_k 특성 정보를 참조하여 산출된 제1_k 에러가 최소화되며, 상기 트레이닝 데이터와 상기 제k 변조된 트레이닝 데이터를 참조하여 산출된 제2_k 에러가 최대화되도록 변조 네트워크를 학습함으로써, 상기 제(k-1) 학습된 변조 네트워크가 제k 학습된 변조 네트워크가 되게 하는 프로세스를 수행한 상태에서,
    상기 (b) 단계에서,
    상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균 및 (i-2) 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii-2) 상기 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득하며,
    상기 (c) 단계에서,
    상기 제2 학습 장치는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득하는 방법.
  7. 제6항에 있어서,
    (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 특성 정보 사이의 차이, (i-2) 상기 학습용 제3 특성 정보와 상기 학습용 제2 특성 정보 사이의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와 상기 테스트용 제1 특성 정보 사이의 차이, (ii-2) 상기 학습용 제4 특성 정보와 상기 테스트용 제2 특성 정보 사이의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함하는 방법.
  8. 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하도록 학습된 사용자 러닝 네트워크(User Learning Network)를 테스트하는 방법에 있어서,
    (a) 제1 학습 장치는, (i) 변조 네트워크에 트레이닝 데이터가 입력되면, 상기 변조 네트워크로 하여금 상기 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 상기 트레이닝 데이터를 상기 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1 특성 정보와 상기 학습용 제2 특성 정보를 참조하거나 상기 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)과 상기 트레이닝 데이터에 대응되는 트레이닝 데이터 GT(Ground Truth)를 참조하여 산출된 제1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 후, 제2 학습 장치가, (i) (i-1) 상기 변조된 트레이닝 데이터와, 상기 트레이닝 데이터에 대응되는 상기 트레이닝 데이터 GT를 획득하거나, (i-2) 제1 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 제1 변조된 테스트 데이터와, 상기 제1 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 하거나, (ii-2) 상기 제1 변조된 테스트 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 상기 제1 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 생성하도록 하는 프로세스, 및 (iii) (iii-1) (1) 상기 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (2) 상기 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하거나, (iii-2) (1) 상기 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (2) 상기 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록, 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행한 상태에서, 테스트 장치가, 제2 테스트 데이터를 상기 학습된 변조 네트워크에 입력하여 제2 변조된 테스트 데이터를 획득하는 단계; 및
    (b) 상기 테스트 장치가, 상기 제2 변조된 테스트 데이터를 상기 학습된 사용자 러닝 네트워크에 입력함으로써, 상기 학습된 사용자 러닝 네트워크로 하여금 상기 제2 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 테스트용 특성 정보를 생성하도록 하는 단계;
    를 포함하는 방법.
  9. 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하기 위해 사용되는 사용자 러닝 네트워크(User Learning Network)를 학습하는 제2 학습 장치에 있어서,
    인스트럭션을 저장하는 적어도 하나의 메모리; 및
    (I) 제1 학습 장치는, (i) 변조 네트워크(Obfuscation Network)에 트레이닝 데이터가 입력되면, 상기 변조 네트워크로 하여금 상기 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 상기 트레이닝 데이터를 상기 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1 특성 정보와 상기 학습용 제2 특성 정보를 참조하거나 상기 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)과 상기 트레이닝 데이터에 대응되는 트레이닝 데이터 GT(Ground Truth)를 참조하여 산출된 제1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 상태에서, (i) 상기 변조된 트레이닝 데이터와, 상기 트레이닝 데이터에 대응되는 상기 트레이닝 데이터 GT(Ground Truth)를 획득하거나, (ii) 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 변조된 테스트 데이터와, 상기 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 프로세스; (II) (i) 상기 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 (i-1) 상기 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 (i-2) 학습용 제3 특성 정보를 생성하도록 하는 프로세스, 또는 (ii) 상기 변조된 테스트 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 (ii-1) 상기 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 (ii-2) 학습용 제4 특성 정보를 생성하도록 하는 프로세스를 수행하는 프로세스; 및 (III) (i) (i-1) 상기 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (i-2) 상기 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스, 또는 (ii) (ii-1) 상기 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (ii-2) 상기 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;
    를 포함하는 제2 학습 장치.
  10. 제9항에 있어서,
    상기 (ii) 프로세스에서,
    상기 프로세서는, (i) 상기 학습용 제1 특성 정보 및 상기 학습용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제1 힌트(Hint) 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 러닝 네트워크에 입력하여 생성된 테스트용 제1 특성 정보 및 (ii-2) 상기 테스트 데이터를 상기 학습용 러닝 네트워크에 입력하여 생성된 테스트용 제2 특성 정보 중 적어도 일부를 포함하는 학습용 제2 힌트 정보를 더 획득하며,
    상기 (iii) 프로세스에서,
    상기 프로세서는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득하는 제2 학습 장치.
  11. 제10항에 있어서,
    (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 특성 정보 사이의 차이, (i-2) 상기 학습용 제3 특성 정보와 상기 학습용 제2 특성 정보 사이의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와 상기 테스트용 제1 특성 정보 사이의 차이, (ii-2) 상기 학습용 제4 특성 정보와 상기 테스트용 제2 특성 정보 사이의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함하는 제2 학습 장치.
  12. 제9항에 있어서,
    상기 학습용 러닝 네트워크는 적어도 하나의 제1 학습된 파라미터 내지 적어도 하나의 제n - 상기 n은 1 이상의 정수임 - 학습된 파라미터를 각각 가지는 학습용 제1 러닝 네트워크 내지 학습용 제n 러닝 네트워크를 포함하며,
    상기 제1 학습 장치는, (i) 상기 변조된 트레이닝 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력함으로써, 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각으로 하여금 상기 제1 학습된 파라미터 내지 상기 제n 학습된 파라미터를 이용한 러닝 연산을 상기 변조된 트레이닝 데이터에 대하여 적용하여, 학습용 제1_1 특성 정보 내지 학습용 제1_n 특성 정보를 생성하도록 하는 프로세스, (ii) 상기 트레이닝 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력함으로써, 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각으로 하여금 상기 제1 학습된 파라미터 내지 상기 제n 학습된 파라미터를 이용한 러닝 연산을 상기 트레이닝 데이터에 대하여 적용하여, 학습용 제2_1 특성 정보 내지 학습용 제2_n 특성 정보를 생성하도록 하는 프로세스, (iii) 상기 학습용 제1_1 특성 정보와 상기 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러 내지 상기 학습용 제1_n 특성 정보와 상기 학습용 제2_n 특성 정보를 참조하여 산출된 제1_n 에러의 가중합(Weighted Sum)인 상기 제1 에러를 생성하는 프로세스, 및 (iv) 상기 제1 에러가 최소화되며 상기 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 상태에서,
    상기 (ii) 프로세스에서,
    상기 프로세서는, (i) (i-1) 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균 및 (i-2) 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii-2) 상기 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득하며,
    상기 (iii) 프로세스에서,
    상기 프로세서는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득하는 제2 학습 장치.
  13. 제12항에 있어서,
    (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와, 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균과의 차이, (i-2) 상기 학습용 제3 특성 정보와, 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균과의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와, 상기 테스트용 제1_1 특성 정보 내지 상기 테스트용 제1_n 특성 정보의 평균과의 차이, (ii-2) 상기 학습용 제4 특성 정보와, 상기 테스트용 제2_1 특성 정보 내지 상기 테스트용 제2_n 특성 정보의 평균과의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함하는 제2 학습 장치.
  14. 제9항에 있어서,
    상기 학습용 러닝 네트워크는, 적어도 하나의 제1 학습된 파라미터 내지 적어도 하나의 제n - 상기 n은 1 이상의 정수임 - 학습된 파라미터를 각각 가지는 학습용 제1 러닝 네트워크 내지 학습용 제n 러닝 네트워크를 포함하며,
    상기 제1 학습 장치는, (i) (i-1) 상기 변조된 트레이닝 데이터인 제1 변조된 트레이닝 데이터를 상기 제1 러닝 네트워크에 입력함으로써, 상기 제1 변조된 트레이닝 데이터에 대하여 상기 제1 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1_1 특성 정보를 생성하도록 하고, (i-2) 상기 트레이닝 데이터를 상기 제1 러닝 네트워크에 입력함으로써, 상기 트레이닝 데이터에 대하여 상기 제1 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2_1 특성 정보를 생성하도록 하며, (i-3) 상기 학습용 제1_1 특성 정보와 상기 학습용 제2_1 특성 정보를 참조하여 산출된 제1_1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 제1 변조된 트레이닝 데이터를 참조하여 산출된 제2_1 에러가 최대화되도록, 상기 변조 네트워크를 학습함으로써, 상기 변조 네트워크가 제1 학습된 변조 네트워크가 되도록 하는 프로세스, 및 (ii) 상수인 k를 2부터 n까지 증가시켜가며, (ii-1) 상기 트레이닝 데이터를 상기 제(k-1) 학습된 변조 네트워크로 입력함으로써, 상기 제(k-1) 학습된 변조 네트워크로 하여금 제k 변조된 트레이닝 데이터를 생성하도록 하고, (ii-2) 상기 제k 변조된 트레이닝 데이터를 제k 러닝 네트워크에 입력함으로써 상기 제k 러닝 네트워크로 하여금 상기 제k 변조된 트레이닝 데이터에 대하여 제k 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1_k 특성 정보를 생성하도록 하며, 상기 트레이닝 데이터를 상기 제k 러닝 네트워크에 입력함으로써 상기 제k 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 제k 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2_k 특성 정보를 생성하도록 하고, (ii-3) 상기 학습용 제1_k 특성 정보와 상기 학습용 제2_k 특성 정보를 참조하여 산출된 제1_k 에러가 최소화되며, 상기 트레이닝 데이터와 상기 제k 변조된 트레이닝 데이터를 참조하여 산출된 제2_k 에러가 최대화되도록, 변조 네트워크를 학습함으로써, 상기 제(k-1) 학습된 변조 네트워크가 제k 학습된 변조 네트워크가 되게 하는 프로세스를 수행한 상태에서,
    상기 (ii) 프로세스에서,
    상기 프로세서는, (i) (i-1) 상기 학습용 제1_1 특성 정보 내지 상기 학습용 제1_n 특성 정보의 평균 및 (i-2) 상기 학습용 제2_1 특성 정보 내지 상기 학습용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제1 힌트 정보를 더 획득하거나, (ii) (ii-1) 상기 변조된 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제1_1 특성 정보 내지 테스트용 제1_n 특성 정보의 평균 및 (ii-2) 상기 테스트 데이터를 상기 학습용 제1 러닝 네트워크 내지 상기 학습용 제n 러닝 네트워크 각각에 입력하여 생성된 테스트용 제2_1 특성 정보 내지 테스트용 제2_n 특성 정보의 평균 중 적어도 하나를 포함하는 학습용 제2 힌트 정보를 더 획득하며,
    상기 (iii) 프로세스에서,
    상기 프로세서는, (i) (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이, 및 (i-2) 상기 학습용 데이터 로스 중 적어도 하나를 참조하여 상기 제3 에러를 획득하거나, (ii) (ii-1) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이, 및 (ii-2) 상기 테스트용 데이터 로스 중 적어도 하나를 참조하여 상기 제4 에러를 획득하는 제2 학습 장치.
  15. 제14항에 있어서,
    (i) 상기 학습용 제3 특성 정보와 상기 학습용 제1 힌트 정보 사이의 차이는, (i-1) 상기 학습용 제3 특성 정보와 상기 학습용 제1 특성 정보 사이의 차이, (i-2) 상기 학습용 제3 특성 정보와 상기 학습용 제2 특성 정보 사이의 차이, 및 (i-3) 상기 (i-1)과 상기 (i-2)의 평균 중 적어도 하나를 포함하며, (ii) 상기 학습용 제4 특성 정보와 상기 학습용 제2 힌트 정보 사이의 차이는, (ii-1) 상기 학습용 제4 특성 정보와 상기 테스트용 제1 특성 정보 사이의 차이, (ii-2) 상기 학습용 제4 특성 정보와 상기 테스트용 제2 특성 정보 사이의 차이, 및 (ii-3) 상기 (ii-1)과 상기 (ii-2)의 평균 중 적어도 하나를 포함하는 제2 학습 장치.
  16. 개인 정보를 보호하기 위하여 원본 데이터를 컨실링(Concealing) 처리하여 생성된 변조 데이터(Obfuscated Data)를 인식하도록 학습된 사용자 러닝 네트워크(User Learning Network)를 테스트하는 테스트 장치에 있어서,
    인스트럭션을 저장하는 적어도 하나의 메모리; 및
    (I) 제1 학습 장치는, (i) 변조 네트워크에 트레이닝 데이터가 입력되면, 상기 변조 네트워크로 하여금 상기 트레이닝 데이터를 변조하도록 하여 변조된 트레이닝 데이터를 생성하도록 하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 적어도 하나의 자체 학습된 파라미터를 가지는 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제1 특성(Characteristic) 정보를 생성하도록 하고, (ii-2) 상기 트레이닝 데이터를 상기 학습용 러닝 네트워크에 입력함으로써, 상기 학습용 러닝 네트워크로 하여금 상기 트레이닝 데이터에 대하여 상기 학습된 파라미터를 이용한 러닝 연산을 적용하여 학습용 제2 특성 정보를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1 특성 정보와 상기 학습용 제2 특성 정보를 참조하거나, 상기 학습용 제1 특성 정보를 이용하여 생성된 학습용 태스크 특정 출력(Task Specific Output)과 상기 트레이닝 데이터에 대응되는 트레이닝 데이터 GT(Ground Truth)를 참조하여 산출된 제1 에러가 최소화되며, 상기 트레이닝 데이터와 상기 변조된 트레이닝 데이터를 참조하여 산출된 제2 에러가 최대화되도록, 상기 변조 네트워크를 학습하는 프로세스를 수행한 후, 제2 학습 장치가, (i) (i-1) 상기 변조된 트레이닝 데이터와, 상기 트레이닝 데이터에 대응되는 상기 트레이닝 데이터 GT를 획득하거나, (i-2) 제1 테스트 데이터를 학습된 변조 네트워크에 입력하여 생성된 제1 변조된 테스트 데이터와, 상기 제1 테스트 데이터에 대응되는 테스트 데이터 GT를 획득하는 프로세스, (ii) (ii-1) 상기 변조된 트레이닝 데이터를 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 상기 변조된 트레이닝 데이터에 대하여 러닝 연산을 적용하여 학습용 제3 특성 정보를 생성하도록 하거나, (ii-2) 상기 제1 변조된 테스트 데이터를 상기 사용자 러닝 네트워크로 입력함으로써, 상기 사용자 러닝 네트워크로 하여금 상기 제1 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 학습용 제4 특성 정보를 생성하도록 하는 프로세스, 및 (iii) (iii-1) (1) 상기 학습용 제3 특성 정보를 이용하여 생성된 학습용 제3 태스크 특정 출력과 (2) 상기 트레이닝 데이터 GT를 이용하여 생성된 학습용 데이터 로스를 참조하여 산출된, 제3 에러를 최소화하도록, 상기 사용자 러닝 네트워크를 학습하거나, (iii-2) (1) 상기 학습용 제4 특성 정보를 이용하여 생성된 학습용 제4 태스크 특정 출력과 (2) 상기 테스트 데이터 GT를 이용하여 생성된 테스트용 데이터 로스를 참조하여 산출된, 제4 에러를 최소화하도록, 상기 사용자 러닝 네트워크를 학습하는 프로세스를 수행한 상태에서, 제2 테스트 데이터를 상기 학습된 변조 네트워크에 입력하여 제2 변조된 테스트 데이터를 획득하는 프로세스, 및 (II) 상기 제2 변조된 테스트 데이터를 상기 학습된 사용자 러닝 네트워크에 입력함으로써, 상기 학습된 사용자 러닝 네트워크로 하여금 상기 제2 변조된 테스트 데이터에 대하여 러닝 연산을 적용하여 테스트용 특성 정보를 생성하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;
    를 포함하는 테스트 장치.
KR1020200051862A 2019-10-24 2020-04-28 개인 정보를 보호하기 위하여 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치 KR102184787B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/662,084 US10621378B1 (en) 2019-10-24 2019-10-24 Method for learning and testing user learning network to be used for recognizing obfuscated data created by concealing original data to protect personal information and learning device and testing device using the same
US16/662,084 2019-10-24

Publications (1)

Publication Number Publication Date
KR102184787B1 true KR102184787B1 (ko) 2020-12-01

Family

ID=70223665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200051862A KR102184787B1 (ko) 2019-10-24 2020-04-28 개인 정보를 보호하기 위하여 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치

Country Status (5)

Country Link
US (1) US10621378B1 (ko)
EP (1) EP3812970A1 (ko)
JP (1) JP7297226B2 (ko)
KR (1) KR102184787B1 (ko)
WO (1) WO2021080103A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110770760B (zh) * 2017-05-19 2024-01-12 渊慧科技有限公司 视觉交互网络系统及其方法、训练方法和计算机存储介质
US11562134B2 (en) * 2019-04-02 2023-01-24 Genpact Luxembourg S.à r.l. II Method and system for advanced document redaction
US11709954B2 (en) * 2020-05-01 2023-07-25 Microsoft Technology Licensing, Llc Image content obfuscation using a neural network
US11017319B1 (en) * 2020-06-23 2021-05-25 Deeping Source Inc. Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and method for testing trained obfuscation network and learning device and testing device using the same
US11017320B1 (en) * 2020-06-24 2021-05-25 Deeping Source Inc. Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and learning device using the same and method for testing trained obfuscation network and testing device using the same
US11023777B1 (en) * 2020-09-25 2021-06-01 Deeping Source Inc. Methods for training and testing obfuscation network capable of performing distinct concealing processes for distinct regions of original image and learning and testing devices using the same
US11244248B1 (en) * 2020-10-21 2022-02-08 Deeping Source Inc. Method for training and testing user learning network to be used for recognizing obfuscated data created by obfuscating original data to protect personal information and user learning device and testing device using the same
US11200494B1 (en) * 2020-10-21 2021-12-14 Deeping Source Inc. Method for training and testing obfuscation network capable of obfuscating data for privacy, and training device and testing device using the same
WO2022141516A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 模型验证方法及设备
US11308359B1 (en) * 2021-10-27 2022-04-19 Deeping Source Inc. Methods for training universal discriminator capable of determining degrees of de-identification for images and obfuscation network capable of obfuscating images and training devices using the same
US11669635B1 (en) * 2021-11-29 2023-06-06 Deeping Source Inc. Learning method and learning device for training obfuscation network capable of obfuscating original data for privacy and testing method and testing device using the same
US11423643B1 (en) * 2021-11-29 2022-08-23 Deeping Source Inc. Method for generating obfuscated image to be used in training learning net work and labeling device using the same
US11886955B2 (en) 2022-02-16 2024-01-30 Protopia AI, Inc. Self-supervised data obfuscation in foundation models

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101784265B1 (ko) * 2016-06-09 2017-10-12 주식회사 그리즐리 빅데이터의 비식별화 처리 방법
US20180005626A1 (en) * 2015-02-26 2018-01-04 Longsand Limited Obfuscating training data
US20190095629A1 (en) * 2017-09-25 2019-03-28 International Business Machines Corporation Protecting Cognitive Systems from Model Stealing Attacks
KR102035796B1 (ko) * 2018-07-26 2019-10-24 주식회사 딥핑소스 데이터를 비식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018011842A1 (ja) * 2016-07-11 2018-01-18 株式会社Uei 階層ネットワークを用いた演算処理システム
EP3273380B1 (en) * 2016-07-20 2018-12-12 Siemens Healthcare GmbH Protecting data exchanged between a service user and a service provider
JP6567488B2 (ja) * 2016-12-22 2019-08-28 日本電信電話株式会社 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム
KR101861520B1 (ko) * 2017-03-15 2018-05-28 광주과학기술원 얼굴 비식별화 방법
KR101877372B1 (ko) * 2017-05-19 2018-07-13 주식회사 하루컴퍼니 워터마크 데이터의 임베딩 및 추출 방법
JP6352512B1 (ja) * 2017-08-22 2018-07-04 株式会社 ディー・エヌ・エー 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180005626A1 (en) * 2015-02-26 2018-01-04 Longsand Limited Obfuscating training data
KR101784265B1 (ko) * 2016-06-09 2017-10-12 주식회사 그리즐리 빅데이터의 비식별화 처리 방법
US20190095629A1 (en) * 2017-09-25 2019-03-28 International Business Machines Corporation Protecting Cognitive Systems from Model Stealing Attacks
KR102035796B1 (ko) * 2018-07-26 2019-10-24 주식회사 딥핑소스 데이터를 비식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Also Published As

Publication number Publication date
WO2021080103A1 (en) 2021-04-29
JP7297226B2 (ja) 2023-06-26
JP2022552681A (ja) 2022-12-19
EP3812970A1 (en) 2021-04-28
US10621378B1 (en) 2020-04-14

Similar Documents

Publication Publication Date Title
KR102184787B1 (ko) 개인 정보를 보호하기 위하여 원본 데이터를 컨실링 처리하여 생성된 변조 데이터를 인식하기 위해 사용되는 사용자 러닝 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치
KR102183335B1 (ko) 프라이버시를 위하여 데이터를 컨실링 처리할 수 있는 변조 네트워크에 대응되는 적응 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치
JP7040712B2 (ja) 個人情報保護のために原本データをコンシーリング処理する変調ネットワークを学習する方法及びテストする方法、そして、これを利用した学習装置及びテスト装置
KR102412832B1 (ko) 개인 정보 보호를 위하여 원본 데이터를 변조하는 변조 네트워크를 학습하는 방법 및 테스팅하는 방법, 그리고, 이를 이용한 학습 장치 및 테스팅 장치
US11017319B1 (en) Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and method for testing trained obfuscation network and learning device and testing device using the same
KR102412829B1 (ko) 개인 정보 보호를 위하여 원본 데이터를 변조하는 변조 네트워크를 학습하는 방법 및 테스팅하는 방법, 그리고, 이를 이용한 학습 장치 및 테스팅 장치
KR102395452B1 (ko) 개인 정보 보호를 위하여 원본 데이터를 비식별 처리한 변조 데이터를 인식하기 위한 사용자 러닝 네트워크를 학습하는 방법 및 테스팅하는 방법, 그리고, 이를 이용한 학습 장치 및 테스팅 장치
US11017320B1 (en) Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and learning device using the same and method for testing trained obfuscation network and testing device using the same
US11308359B1 (en) Methods for training universal discriminator capable of determining degrees of de-identification for images and obfuscation network capable of obfuscating images and training devices using the same
US11366930B1 (en) Method for training and testing obfuscation network capable of obfuscating data to protect personal information, and learning device and testing device using the same
KR102570955B1 (ko) 러닝 네트워크의 학습에 이용하기 위한 익명화 이미지를 생성하는 방법 및 이를 이용한 라벨링 장치
KR20230121974A (ko) 개인 정보 보호를 위하여 원본 데이터를 변조하는 변조네트워크를 학습하는 방법 및 테스트하는 방법, 그리고, 이를 이용한 학습 장치 및 테스트 장치
KR102260039B1 (ko) 개인 정보 보호를 위하여 원본 데이터를 컨실링 처리하는 변조 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고, 이를 이용한 학습 장치 및 테스트 장치
KR102244190B1 (ko) 데이터를 컨실링 처리하는 방법 및 이를 이용한 데이터 변조 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant