KR20200024602A - 사용자 단말의 학습 방법 및 장치 - Google Patents

사용자 단말의 학습 방법 및 장치 Download PDF

Info

Publication number
KR20200024602A
KR20200024602A KR1020180101475A KR20180101475A KR20200024602A KR 20200024602 A KR20200024602 A KR 20200024602A KR 1020180101475 A KR1020180101475 A KR 1020180101475A KR 20180101475 A KR20180101475 A KR 20180101475A KR 20200024602 A KR20200024602 A KR 20200024602A
Authority
KR
South Korea
Prior art keywords
authentication
authentication model
gradients
user terminal
learning
Prior art date
Application number
KR1020180101475A
Other languages
English (en)
Inventor
손진우
손창용
한재준
정상일
이서형
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180101475A priority Critical patent/KR20200024602A/ko
Priority to US16/527,332 priority patent/US20200074058A1/en
Publication of KR20200024602A publication Critical patent/KR20200024602A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Probability & Statistics with Applications (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

사용자 단말의 학습 방법 및 장치가 개시된다. 일실시예에 따른 사용자 단말은 사용자 단말의 인증 모델을 이용하여 사용자 입력에 대한 인증을 수행하고, 인증의 성공에 응답하여 사용자 입력으로부터 인증 모델을 학습시키기 위한 그래디언트를 생성하고, 인증을 성공한 포지티브 입력들에 대응하는 포지티브 그래디언트들에 생성된 그래디언트를 누적하고, 생성된 그래디언트가 누적된 포지티브 그래디언트들에 기초하여 인증 모델을 학습시킬 수 있다.

Description

사용자 단말의 학습 방법 및 장치{LEARNING METHOD AND APPARATUS OF USER TERMINAL}
아래 실시예들은 사용자 단말을 학습시키는 기법에 관한 것이다.
서버를 이용하여 인식기를 학습시키는 방식은 학습된 모델이 다수의 사용자 입력을 구별하는 작업을 수행한다. 예를 들어, 약 1만명 이상의 사람 얼굴의 ID를 구별하는 모델은 FAR(False Acceptance Rate)이 커질 수 있는데, FAR을 줄이기 위해서는 타인의 오인증을 방지하도록 특징과 비교 대상이 되는 임계값이 조절되어야 한다. 또한, VR(Verification Rate)을 높여 동일인의 오인증을 방지하기 위해 그 임계값이 조절되어야 하고, 등록 영상이 대표성을 가질 필요가 있다.
VR을 높이기 위한 방법으로 사용자의 다양한 얼굴을 적응적으로 추가 등록하는 방법이 있으나, 학습 모델이 본질적으로 지닌 FAR은 여전히 존재하게 된다. VR을 높이고, FAR을 낮춰 사용자 단말에서 사용되는 인식기의 성능을 높이기 위해, 사용자 단말에 대한 개인화된 학습 기법의 연구가 요구된다.
일실시예에 따른 사용자 단말의 학습 방법은 사용자 단말의 인증 모델을 이용하여, 사용자 입력에 대한 인증을 수행하는 단계; 상기 인증의 성공에 응답하여, 상기 사용자 입력으로부터 상기 인증 모델을 학습시키기 위한 그래디언트를 생성하는 단계; 인증을 성공한 포지티브 입력들에 대응하는 포지티브 그래디언트들에, 상기 생성된 그래디언트를 누적하는 단계; 및 상기 생성된 그래디언트가 누적된 상기 포지티브 그래디언트들에 기초하여, 상기 인증 모델을 학습시키는 단계를 포함한다.
일실시예에 따르면, 상기 그래디언트를 생성하는 단계는 상기 인증 모델의 레이어들 별로 그래이언트들을 생성하는 단계를 포함하고, 포지티브 그래디언트는 상기 레이어들 별 포지티브 그래디언트들을 포함할 수 있다.
일실시예에 따르면, 상기 생성된 그래디언트를 누적하는 단계는 상기 생성된 그래디언트들을 상기 레이어들에 대응하는 그래디언트 컨테이너들에 각각 누적하는 단계를 포함하고, 상기 레이어들에 대응하는 포지티브 그래디언트들은 상기 그래디언트 컨테이너들에 각각 누적되어 있을 수 있다.
일실시예에 따르면, 상기 인증 모델을 학습시키는 단계는 네거티브 입력들로부터 상기 인증 모델을 학습시키기 위한 네거티브 그래디언트들을 생성하여 누적하는 단계; 및 상기 포지티브 그래디언트들 및 상기 네거티브 그래디언트들에 기초하여, 상기 인증 모델을 학습시키는 단계를 포함할 수 있다.
일실시예에 따르면, 상기 네거티브 그래디언트들을 누적하는 단계는 상기 인증 모델의 레이어들 별로 네거티브 그래디언트들을 생성하는 단계; 및 상기 생성된 네거티브 그래디언트들을 상기 레이어들에 대응하는 그래디언트 컨테이너들에 각각 누적하는 단계를 포함할 수 있다.
일실시예에 따르면, 상기 인증 모델은 인증을 수행하도록 기 학습되어 있고, 상기 인증 모델을 학습시키는 단계는 상기 포지티브 그래디언트들 및 상기 네거티브 그래디언트들에 기초하여, 상기 인증 모델의 레이어들 별로 파라미터들을 최적화하는 단계를 포함할 수 있다.
일실시예에 따르면, 상기 네거티브 그래디언트들을 누적하는 단계는 GAN(Generative Adversarial Network)을 이용하여, 노이즈로부터 네거티브 입력들을 생성하는 단계를 포함할 수 있다.
일실시예에 따른 사용자 단말의 학습 방법은 상기 인증 모델에 의해 기 등록된 제1 특징들에 대응하는 제1 사용자 입력들을 획득하는 단계; 상기 학습이 완료된 후, 상기 인증 모델을 이용하여 상기 제1 사용자 입력들로부터 제2 특징들을 추출하는 단계; 및 상기 제1 특징들을 상기 추출된 제2 특징들로 갱신하는 단계를 더 포함할 수 있다.
일실시예에 따르면, 상기 인증을 수행하는 단계는 상기 인증 모델의 레이어들 중 일부를 제외한 나머지 일부를 이용하여, 상기 사용자 입력에 대한 인증을 수행하는 단계를 포함하고, 상기 생성된 그래디언트 및 상기 포지티브 그래디언트들은 상기 나머지 일부에 대응할 수 있다.
일실시예에 따르면, 상기 일부는 상기 인증 모델의 레이어들 중 학습에 따른 갱신 정도가 미리 정의된 기준에 의해 낮은 적어도 하나의 레이어일 수 있다.
일실시예에 따른 사용자 단말의 학습 방법은 상기 인증 모델에 의해 기 등록된 제1 특징들에 대응하는 중간 특징들-상기 중간 특징들은 상기 나머지 일부에 대응함-을 획득하는 단계; 상기 학습이 완료된 후, 상기 인증 모델의 상기 나머지 일부를 이용하여 상기 중간 특징들로부터 제2 특징들을 추출하는 단계; 및 상기 제1 특징들을 상기 추출된 제2 특징들로 갱신하는 단계를 더 포함할 수 있다.
일실시예에 따르면, 상기 그래디언트를 생성하는 단계는 뉴럴 네트워크로 구현된 상기 인증 모델을 이용하여, 상기 사용자 입력으로부터 특징을 추출하는 단계; 상기 추출된 특징과 적어도 하나의 기 등록된 특징에 기초하여, 상기 인증 모델의 손실을 생성하는 단계; 상기 생성된 손실에 기초하여, 그래디언트를 생성하는 단계를 포함할 수 있다.
일실시예에 따른 사용자 단말의 인증 방법은 인증하고자 하는 사용자 입력을 획득하는 단계; 사용자 단말의 인증 모델을 이용하여, 상기 사용자 입력으로부터 특징을 추출하는 단계; 상기 특징과 적어도 하나의 기 등록된 특징에 기초하여, 상기 사용자 입력에 대한 인증을 수행하는 단계; 상기 인증의 성공에 응답하여, 상기 사용자 입력으로부터 상기 인증 모델을 학습시키기 위한 그래디언트를 생성하여 포지티브 그래디언트들에 누적하는 단계; 및 제2 사용자 입력에 대한 인증을 수행하는 단계를 포함한다.
일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.
도 1은 일실시예에 따른 음성 인식 방법을 설명하기 위한 순서도이다.
도 2는 일실시예에 따른 포지티브 그래디언트를 누적하는 동작을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 네거티브 그래디언트의 누적 및 모델 업데이트 동작을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 등록 특징의 갱신 동작을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 사용자 단말의 학습 방법을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 인증 및 학습 동작을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 인증 및 학습 동작을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 장치의 구성의 예시도이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일실시예에 따른 사용자 단말의 학습 방법을 설명하기 위한 순서도이다.
도 1을 참조하면, 일실시예에 따른 사용자 단말의 학습 장치(이하, 학습 장치라 지칭함)는 사용자 단말의 인증 모델을 이용하여, 사용자 입력에 대한 인증을 수행할 수 있다(101). 학습 장치는 사용자 단말의 학습을 수행하는 장치로서, 예를 들어 소프트웨어 모듈, 하드웨어 모듈 또는 이들의 조합으로 구현될 수 있다. 사용자 입력은 사용자와 연관된 입력으로서 인증의 대상이 되는 정보이고, 예를 들어 사용자의 얼굴 영상, 생체 신호, 지문, 음성 등 인증을 수행하는데 활용될 수 있는 정보를 포함된다.
일실시예에 따르면, 사용자 입력은 인증 모델이 처리하는데 적합한 특징일 수 있다. 사용자 단말의 인증 모델은 인증을 수행하기 위해 기 학습된 모델로서, 사용자 입력으로부터 특징을 추출하는 동작을 수행할 수 있다. 인증 모델에 의해 추출된 특징과 적어도 하나의 기 등록 특징 사이의 매칭을 통해, 인증의 성공 여부가 판단될 수 있다.
일실시예에 따르면, 인증 모델은 뉴럴 네트워크(neural network)로 구현되고, 입력 레이어, 적어도 하나의 히든 레이어 및 출력 레이어를 포함할 수 있다. 뉴럴 네트워크의 각 레이어는 적어도 하나의 노드를 포함하고, 복수의 노드들 사이의 관계는 비선형적으로 정의될 수 있다. 인증 모델의 입력 레이어는 사용자 입력에 대응하는 적어도 하나의 노드를 포함하고, 인증 모델의 출력 레이어는 사용자 입력으로부터 추출된 특징에 대응하는 적어도 하나의 노드를 포함할 수 있다. 뉴럴 네트워크는 RNN(Recurrent Neural Network), CNN(Convolutional Neural Network) 등으로 설계될 수 있다. 인증 모델은 사용자 입력의 차원(dimension)을 변환시켜, 특징을 생성할 수 있다. 예를 들어, 인증 모델은 사용자 입력으로부터 특징을 생성하기 위해 미리 학습될 수 있고, 학습 장치는 새롭게 획득된 사용자 입력에 기초하여, 인증 모델을 갱신할 수 있다.
도 1을 참조하면, 학습 장치는 사용자 입력에 대한 인증의 성공에 응답하여, 사용자 입력으로부터 인증 모델을 학습시키기 위한 그래디언트를 생성할 수 있다(102). 학습 장치는 뉴럴 네트워크로 구현된 인증 모델을 이용하여, 사용자 입력으로부터 특징을 추출할 수 있다. 학습 장치는 추출된 특징과 적어도 하나의 기 등록된 특징에 기초하여, 인증 모델의 손실(Loss)을 생성할 수 있다. 기 등록된 특징은 사용자 단말의 인증 모델에 의해 추출되어 기 등록된 특징으로서, 사용자 입력에 대한 인증을 수행하기 위해 기준이 될 수 있다. 예를 들어 기 등록된 특징은 기 등록된 사용자 얼굴 영상, 사용자 지문에 대응하는 특징일 수 있다.
일실시예에 따르면, 학습 장치는 미리 정의된 손실 함수에 기초하여, 인증 모델의 손실을 생성할 수 있다. 학습 장치는 추출된 특징과 적어도 하나의 기 등록된 특징 사이의 차이에 기초하여 손실을 생성할 수 있다. 학습 장치는 생성된 손실에 기초하여, 적어도 하나의 그래디언트를 생성할 수 있다. 그래디언트는 인증 모델의 파라미터들을 최적화하여 인증 모델을 학습시키기 위해 채용되는데, 학습 장치는 그래디언트 디센트(Gradient Descent) 기법을 이용하여 인증 모델을 학습시킬 수 있다.
도 1을 참조하면, 학습 장치는 인증을 성공한 포지티브 입력들에 대응하는 포지티브 그래디언트들에, 생성된 그래디언트를 누적할 수 있다(103). 사용자 입력은 인증의 성공 여부에 따라 포지티브 입력과 네거티브 입력으로 구분될 수 있다. 예를 들어, 포지티브 입력은 인증을 성공한 입력이고, 네거티브 입력은 인증을 실패한 입력이다. 인증에 성공하는 경우, 학습 장치는 포지티브 입력에 기초하여 그래디언트를 생성할 수 있다. 포지티브 입력에 의해 생성된 그래디언트는 포지티브 그래디언트라고 지칭될 수 있다. 학습 장치는 기 생성된 포지티브 그래디언트들에 현재 단계에서 생성된 그래디언트를 누적할 수 있다.
아래에서 설명하겠으나, 학습 장치는 네거티브 그래디언트를 생성하고, 생성된 그래디언트를 누적할 수 있다. 일 예로, 학습 장치는 네거티브 영상 생성기에 의하여 생성된 입력에 기초하여 네거티브 그래디언트를 생성할 수 있다. 네거티브 영상 생성기는 네거티브 입력에 해당하는 영상을 생성하는 모듈이다. 학습 장치는 기 생성된 네거티브 그래디언트들에 현재 단계에서 생성된 그래디언트를 누적할 수 있다.
도 1을 참조하면, 학습 장치는 생성된 그래디언트가 누적된 포지티브 그래디언트들에 기초하여, 인증 모델을 학습시킬 수 있다(104). 학습 장치는 학습의 수행 여부를 판단하고, 판단 결과에 따라 현재까지 누적된 그래디언트들에 기초하여 인증 모델을 학습시킬 수 있다. 학습 장치는 포지티브 그래디언트들과 네거티브 그래디언트들 중 적어도 하나에 기초하여, 인증 모델을 학습시킬 수 있다. 포지티브 그래디언트들은 사용자가 사용자 단말을 이용하여 반복적으로 인증을 수행하는 경우 획득되므로, 학습 장치는 포지티브 그래디언트들을 통해 시간에 따른 사용자 개인의 변화에 적응하여 인증 모델을 업데이트할 수 있다. 상술한 학습 장치는 인증 모델을 이용하여 인증을 수행하는 인증 장치에 적용되거나, 인증 장치와 통합된 형태로 구현될 수 있다. 또한, 학습 장치는 인증 장치와 독립적으로 구현될 수도 있는데, 이 경우 학습 장치는 인증 장치가 수행하는 인증 결과에 기초하여, 그래디언트를 생성하고, 인증 모델을 학습시킬 수 있다.
일실시예에 따른 학습 장치는 사용자 단말 상에서 반복적으로 획득되는 사용자 입력을 이용하므로, 사용자 단말 상의 학습을 개인화하여 VR을 높이고 FAR을 낮추는 등, 인증 모델의 인증 성능을 향상시킬 수 있다. 학습 장치에 의해 인증 모델이 학습될수록, 인증 모델은 사용자 단말의 사용자에게 맞춤형(customized) 모델로 갱신될 수 있다. 학습 장치는 서버의 도움 없이 사용자 단말 상에서 인증 모델의 자가 학습을 수행할 수 있고, 얼굴 인증뿐만 아니라 화자 인증, 지문 인증 등 다양한 네트워크에 대한 개인화된 학습을 수행할 수 있다.
도 2는 일실시예에 따른 포지티브 그래디언트를 누적하는 동작을 설명하기 위한 도면이다.
도 2를 참조하면, 학습 장치는 사용자 입력들(201)을 획득할 수 있다. 상술한 바와 같이, 사용자 입력에 대한 인증이 성공하는 경우 해당 사용자 입력은 포지티브 입력이 되는데, 여기서는 포지티브 입력에 대응하는 포지티브 그래디언트가 누적되는 동작을 설명하겠다. 학습 장치는 인증 성공에 대응하는 사용자 입력들을 이용하여 포지티브 데이터베이스를 구축할 수 있다.
일실시예에 따르면, 학습 장치는 인증 모델(202)을 이용하여, 사용자 입력으로부터 특징을 추출할 수 있다. 인증 모델(202)은 복수의 레이어들을 포함하는 특징 추출기로 설계될 수 있고, 인증 모델(202)은 사용자 단말 상에서 구현될 수 있다.
일실시예에 따르면, 학습 장치는 인증 모델(202)을 이용하여 추출된 특징과 기 등록된 특징들(208) 사이의 매칭을 수행할 수 있다(207). 여기서, 학습 장치는 인증 장치일 수 있다. 기 등록된 특징들(208)은 인증 모델(202)에 의해 추출되어 등록된 특징들이다. 학습 장치는 매칭 결과에 기초하여, 인증의 성공 또는 실패 여부를 판단할 수 있다. 학습 장치는 매칭 결과에 따른 스코어와 임계 스코어를 비교할 수 있다(209). 학습 장치는 매칭 결과에 따른 스코어가 임계 스코어보다 작은 경우, 사용자 입력에 대한 인증이 실패한 것으로 판단할 수 있다. 학습 장치는 인증 실패에 응답하여, 다음 번 사용자 입력(예를 들어, 사용자 얼굴을 포함하는 다음 프레임 영상 등)에 대한 인증을 수행할 수 있다.
일실시예에 따르면, 학습 장치는 매칭 결과에 따른 스코어가 임계 스코어보다 큰 경우, 사용자 입력에 대한 인증이 성공한 것으로 판단할 수 있다. 학습 장치는 인증 성공에 응답하여, 사용자 입력을 포지티브 입력으로 분류할 수 있다. 학습 장치는 포지티브 입력에 대응하는 손실(210)을 생성할 수 있다. 상술한 바와 같이, 학습 장치는 미리 정의된 손실 함수에 기초하여 인증 모델(202)의 손실(210)을 생성할 수 있다. 일 예로, 미리 정의된 손실 함수는 수학식 1과 같이 정의될 수 있다.
Figure pat00001
여기서, loss_contrastive는 손실 함수에 의하여 계산되는 손실이고, euclidean_distance는 인증 모델(202)에 의하여 추출된 특징과 기 등록된 특징 사이의 차이를 나타낼 수 있다. POW(x, n)은 x 내 원소들 각각에 대하여 n승을 하는 함수이다. x는 인증 모델(202)에 의하여 출력되는 특징의 디멘션에 대응하는 수의 원소들을 저장하는 벡터일 수 있다. CLAMP(x)은 x 내 원소들 중 기 설정된 min 보다 작은 원소의 값을 min으로 변경하거나, 기 설정된 max보다 큰 원소의 값을 max로 변경하는 함수이고, margin은 미리 정해진 거리의 마진 값이다. 예를 들어, CLAMP(margin-euclidean distance)는 margin-euclidean distance가 0보다 작은 원소의 값을 0으로 설정할 수 있다. Mean(x)는 x 내 원소들의 평균을 출력하는 함수이다.
label은 레이블로, 학습 장치는 포지티브 입력의 경우 포지티브 레이블(label = 0)을 이용하여 손실을 계산하고, 네거티브 입력의 경우 네거티브 레이블(label = 1)을 이용하여 손실을 계산할 수 있다. 예를 들어, 포지티브 레이블(label = 0)을 이용하는 경우, (1-label)*POW(euclidean_distance, n) 항에 의하여 손실이 계산되며, 인증 모델(202)에 의하여 추출된 특징과 기 등록된 특징 사이의 차이가 작아지도록 하는 포지티브 그래디언트가 생성될 수 있다. 또는, 네거티브 레이블(labe = 1)을 이용하는 경우, (label)*POW(CLAMP(margin-euclidean_distance), n) 항에 의하여 손실이 계산되며, 인증 모델(202)에 의하여 추출된 특징과 기 등록된 특징 사이의 차이가 커지도록 하는 네거티브 그래디언트가 생성될 수 있다.
일실시예에 따르면, 학습 장치는 인증 모델(202)의 레이어들 별로 포지티브 그래이언트들을 생성할 수 있다. 포지티브 그래이언트들은 각각 인증 모델(202)의 레이어들에 대응하고, 각 레이어들을 최적화하기 위한 그래디언트들일 수 있다.
일실시예에 따르면, 학습 장치는 레이어들 별로 생성된 포지티브 그래이언트들을 레이어들에 대응하는 그래디언트 컨테이너들(203, 204, 205 및 206)에 각각 누적할 수 있다. 기 생성된 포지티브 그래디언트들은 그래디언트 컨테이너들(203, 204, 205 및 206)에 각각 누적되어 있다. 그래디언트 컨테이너는 특정 레이어에 대응하는 포지티브 그래디언트 또는 네거티브 그래디언트를 보관하기 위한 공간이다. 학습 장치는 인증 모델(202)을 학습시키는데 그래디언트 컨테이너들(203, 204, 205 및 206)에 각각 누적된 포지티브 그래디언트들을 이용할 수 있다. 일실시예에 따르면, 포지티브 그래디언트의 누적 동작은 인증 모델(202)을 이용한 인식(inference) 단계에서 수행될 수 있다. 도 3을 참조하여, 네거티브 그래디언트의 누적 및 학습 동작을 후술한다.
도 3은 일실시예에 따른 네거티브 그래디언트의 누적 및 모델 업데이트 동작을 설명하기 위한 도면이다.
도 3을 참조하면, 학습 장치는 인증 모델(303)의 학습을 갱신하기 위해 네거티브 그래디언트들을 생성하고, 기 생성된 포지티브 그래디언트들과 네거티브 그래디언트들을 이용하여 인증 모델(303)을 최적화할 수 있다. 일실시예에 따르면, 학습 장치는 네거티브 입력들(302)을 획득할 수 있다. 학습 장치는 네거티브 영상 생성기를 이용하여, 노이즈로부터 네거티브 입력들(302)을 생성할 수 있다. 일 실시예에 따르면, 네거티브 영상 생성기는 GAN(Generative Adversarial Network)(301)일 수 있다. 예를 들어, 학습 장치는 노이즈 입력으로부터 GAN(301)에 의하여 생성되는 네거티브 입력들(302)로 네거티브 데이터베이스를 구축할 수 있다.
학습 장치는 포지티브 입력들에 대응하는 포지티브 데이터베이스를 고려하여, 네거티브 데이터베이스를 구축할 수 있다. 일실시예에 따르면, 학습 장치는 포지티브 입력들의 수를 고려하여, 전체 입력들 중 네거티브 입력들의 비율을 결정할 수 있다.
일실시예에 따르면, 학습 장치는 인증을 수행하도록 기 학습된 인증 모델(303)을 이용하여 네거티브 입력으로부터 특징을 추출할 수 있다. 학습 장치는 기 정의된 주기, 시점, 사용자 설정 또는 학습 수행 명령에 기초하여 인증 모델(303)의 학습을 개시할 수 있고, 학습 개시에 응답하여 네거티브 입력들(302)을 생성할 수 있다. 인증 모델(303)을 갱신 동작은 사용자 설정에 따라 개시될 수 있는데, 예를 들어 사용자 단말을 충전 케이블과 연결하고 사용자가 취침하는 상황에 응답하여 인증 모델(303)의 갱신 동작이 개시될 수 있다.
학습 장치는 추출된 특징과 기 등록된 특징에 기초하여, 인증 모델(303)의 손실(308)을 생성할 수 있다. 일 실시예에 따르면, 학습 장치는 전술한 수학식 1에 기초하여 손실(308)을 계산할 수 있다. 예를 들어, 학습 장치는 인증 모델(303)에 의하여 추출된 특징과 기 등록된 특징 사이의 차이 및 네거티브 레이블을 이용하여, 손실(308)을 계산할 수 있다. 네거티브 그래디언트의 생성 동작은 포지티브 그래디언트의 생성 동작과 유사하므로, 보다 상세한 설명은 생략한다.
일실시예에 따르면, 학습 장치는 인증 모델(303)의 레이어들 별로 네거티브 그래이언트들을 생성할 수 있다. 네거티브 그래이언트들은 각각 인증 모델(303)의 레이어들에 대응하고, 각 레이어들을 최적화하기 위한 그래디언트들일 수 있다.
일실시예에 따르면, 학습 장치는 레이어들 별로 생성된 네거티브 그래이언트들을 레이어들에 대응하는 그래디언트 컨테이너들(304, 305, 306 및 307)에 각각 누적할 수 있다. 기 생성된 네거티브 그래디언트들 및 포지티브 그래디언트들은 그래디언트 컨테이너들(304, 305, 306 및 307)에 각각 누적되어 있다. 학습 장치는 그래디언트 컨테이너들(304, 305, 306 및 307)에 누적된 네거티브 그래디언트들 및 포지티브 그래디언트들에 기초하여, 인증 모델(303)을 학습시킬 수 있다. 학습 장치는 네거티브 그래디언트들 및 포지티브 그래디언트들에 기초하여, 인증 모델(303)의 레이어들 별로 파라미터들을 최적화할 수 있다. 파라미터의 최적화 동작에는 그래디언트 디센트 등 다양한 학습 기법이 채용될 수 있다. 학습 장치는 그래디언트 컨테이너들(304, 305, 306 및 307)에 누적된 값을 이용하여 인증 모델(303)을 갱신하고, 갱신 후 그래디언트 컨테이너들(304, 305, 306 및 307)을 초기화할 수 있다.
도 4는 일실시예에 따른 등록 특징의 갱신 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 학습 장치는 갱신된 인증 모델(402)을 이용하여, 등록 특징을 갱신할 수 있다. 학습 장치는 갱신 전 인증 모델에 의해 기 등록된 제1 특징들에 대응하는 제1 사용자 입력들(401)을 획득할 수 있다. 제1 사용자 입력들(401)은 갱신 전 인증 모델을 이용하여 등록 특징들을 생성하기 위해 사용된 사용자 입력들로서, 예를 들어, 인증을 위해 사용자 단말에 의해 최초로 등록되어 기 저장된 영상들일 수 있다.
일실시예에 따르면, 학습 장치는 갱신된 인증 모델(402)을 이용하여 등록 특징의 데이터베이스를 갱신할 수 있다. 예를 들어, 학습 장치는 학습이 완료된 후, 갱신된 인증 모델(402)을 이용하여 제1 사용자 입력들(401)로부터 제2 특징들(403)을 추출할 수 있다. 학습 장치는 기 등록된 제1 특징들을 제2 특징들(403)로 치환할 수 있다. 이후의 인증 과정에서, 갱신된 등록 특징들에 의해 사용자 입력에 대한 인증이 수행될 수 있다.
도 5는 일실시예에 따른 사용자 단말의 학습 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 인증 모델(502)의 레이어들(503, 504, 505 및 506) 중 일부(503 및 504)를 제외한 나머지 일부(505 및 506)를 최적화하여, 인증 모델(502)을 학습시킬 수 있다. 이 경우, 인증 모델(502)을 이용한 인증 시 인증 모델(502)의 나머지 일부(505 및 506)가 활용되어 사용자 입력에 대한 인증이 수행될 수 있다. 인증 모델(502)의 나머지 일부(505 및 506)는 인증 모델(502)의 레이어들(503, 504, 505 및 506) 중 학습에 따른 갱신 정도가 미리 정의된 기준에 비해 낮은 레이어일 수 있다. 등록 특징을 갱신하기 위해, 사용자 단말은 사용자 영상 원본을 그대로 저장하는 대신 중간 레이어에 대응하는 특징을 저장할 수 있고, 이로 인해 개인 정보가 보호될 수 있다.
인증 모델(502)의 레이어들(503, 504, 505 및 506) 중 나머지 일부(505 및 506)를 최적화하는 방식으로 인증 모델(502)이 갱신되면, 학습 장치는 갱신된 인증 모델을 이용하여 등록 특징을 갱신할 수 있다. 일실시예에 따르면, 학습 장치는 인증 모델(502)에 의해 기 등록된 제1 특징들에 대응하는 중간 특징들(501)을 획득할 수 있다. 중간 특징들(501)은 레이어들(503, 504, 505 및 506) 중 나머지 일부(505 및 506)에 입력될 수 있다.
일실시예에 따르면, 학습 장치는 학습이 완료된 인증 모델(502)을 이용하여 등록 특징의 데이터베이스를 갱신할 수 있다. 예를 들어, 학습 장치는 학습이 완료된 후, 갱신된 인증 모델을 이용하여, 중간 특징들(501)로부터 제2 특징들을 추출할 수 있다. 학습 장치는 기 등록된 제1 특징들(507)을 제2 특징들로 갱신할 수 있다. 이후의 인증 과정에서, 갱신된 등록 특징들에 의해 사용자 입력에 대한 인증이 수행될 수 있다.
도 6은 일실시예에 따른 인증 및 학습 동작을 설명하기 위한 순서도이다.
상술한 바와 같이, 학습 장치 또는 인증 장치는 인증 동작을 수행하면서 포지티브 그래디언트들을 누적하고, 학습 장치는 포지티브 그래디언트들과 네거티브 그래디언트들에 기초하여 인증 모델을 학습시킬 수 있다.
도 6a를 참조하면, 학습 장치는 사용자 입력을 획득하고(601), 사용자 입력으로부터 특징을 추출하며(602), 기 등록된 특징들과 추출된 특징 사이의 매칭을 수행하고(603), 매칭 결과에 따른 인증 성공 여부를 판단할 수 있다(604). 학습 장치는 인증 성공에 대응하는 포지티브 그래디언트를 생성하여 누적할 수 있다(605).
도 6b를 참조하면, 학습 장치는 노이즈를 획득하고(611), 노이즈를 네거티브 영상 생성기에 인가함으로써 네거티브 입력을 생성할 수 있다(612). 학습 장치는 네거티브 입력으로부터 특징을 추출하고(613), 추출된 특징에 기초하여 네거티브 그래디언트를 생성하여 누적할 수 있다(614). 학습 장치는 포지티브 그래디언트들과 네거티브 그래디언트들에 기초하여 인증 모델을 학습시키고(615), 학습된 인증 모델을 이용하여 등록 특징을 갱신할 수 있다(616).
도 7은 일실시예에 따른 인증 및 학습 동작을 설명하기 위한 도면이다.
도 7을 참조하면, 사용자 단말은 인증을 수행하는 인증 모듈과 학습을 수행하는 학습 모듈을 포함할 수 있다. 얼굴 인증의 실시예에 따르면, 사용자 단말의 인증 모듈은 특징 추출 모듈(701), 특징 매칭 모듈(702) 및 그래디언트 계산 모듈(703)을 포함할 수 있다. 특징 추출 모듈(701)은 인증 모델(707)을 이용하여 특징을 추출하고, 특징 매칭 모듈(702)은 추출된 특징과 기 등록된 특징 사이의 매칭을 수행할 수 있다. 그래디언트 계산 모듈(703)은 특징 매칭 모듈(702)에 따른 인증이 성공인 경우, 포지티브 그래디언트를 생성하여, 그래디언트 데이터베이스(704)에 저장할 수 있다.
사용자 단말의 학습 모듈은 특징 추출 모듈(705) 및 그래디언트 계산 모듈(706)을 포함할 수 있다. 특징 추출 모듈(705)은 인증 모델(707)을 이용하여 네거티브 입력으로부터 특징을 추출할 수 있다. 그래디언트 계산 모듈(706)은 네거티브 그래디언트를 생성하여, 그래디언트 데이터베이스(704)에 저장할 수 있다. 학습 모듈은 그래디언트 데이터베이스(704)에 저장된 그래디언트들을 이용하여 인증 모델(707)을 학습시킬 수 있다.
도 8은 일실시예에 따른 장치의 구성의 예시도이다.
도 8를 참조하면, 장치(801)는 프로세서(802) 및 메모리(803)를 포함한다. 일실시예에 따른 장치(801)는 상술한 인증 장치 또는 학습 장치일 수 있다. 프로세서(802)는 도 1 내지 도 7을 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 7을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(803)는 상술한 인증 방법 또는 학습 방법과 관련된 정보를 저장하거나 상술한 인증 방법 또는 학습 방법이 구현된 프로그램을 저장할 수 있다. 메모리(803)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(802)는 프로그램을 실행하고, 장치(801)를 제어할 수 있다. 프로세서(802)에 의하여 실행되는 프로그램의 코드는 메모리(803)에 저장될 수 있다. 장치(801)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 사용자 단말의 인증 모델을 이용하여, 사용자 입력에 대한 인증을 수행하는 단계;
    상기 인증의 성공에 응답하여, 상기 사용자 입력으로부터 상기 인증 모델을 학습시키기 위한 그래디언트(gradient)를 생성하는 단계;
    인증을 성공한 포지티브 입력들에 대응하는 포지티브 그래디언트들에, 상기 생성된 그래디언트를 누적하는 단계; 및
    상기 생성된 그래디언트가 누적된 상기 포지티브 그래디언트들에 기초하여, 상기 인증 모델을 학습시키는 단계
    를 포함하는
    사용자 단말의 학습 방법.
  2. 제1항에 있어서,
    상기 그래디언트를 생성하는 단계는
    상기 인증 모델의 레이어들 별로 그래이언트들을 생성하는 단계
    를 포함하고,
    포지티브 그래디언트는 상기 레이어들 별 포지티브 그래디언트들을 포함하는,
    사용자 단말의 학습 방법.
  3. 제2항에 있어서,
    상기 생성된 그래디언트를 누적하는 단계는
    상기 생성된 그래디언트들을 상기 레이어들에 대응하는 그래디언트 컨테이너들에 각각 누적하는 단계
    를 포함하고,
    상기 레이어들에 대응하는 포지티브 그래디언트들은 상기 그래디언트 컨테이너들에 각각 누적되어 있는,
    사용자 단말의 학습 방법.
  4. 제1항에 있어서,
    상기 인증 모델을 학습시키는 단계는
    네거티브 입력들로부터 상기 인증 모델을 학습시키기 위한 네거티브 그래디언트들을 생성하여 누적하는 단계; 및
    상기 포지티브 그래디언트들 및 상기 네거티브 그래디언트들에 기초하여, 상기 인증 모델을 학습시키는 단계
    를 포함하는,
    사용자 단말의 학습 방법.
  5. 제4항에 있어서,
    상기 네거티브 그래디언트들을 누적하는 단계는
    상기 인증 모델의 레이어들 별로 네거티브 그래디언트들을 생성하는 단계; 및
    상기 생성된 네거티브 그래디언트들을 상기 레이어들에 대응하는 그래디언트 컨테이너들에 각각 누적하는 단계
    를 포함하는,
    사용자 단말의 학습 방법.
  6. 제4항에 있어서,
    상기 인증 모델은 인증을 수행하도록 기 학습되어 있고,
    상기 인증 모델을 학습시키는 단계는
    상기 포지티브 그래디언트들 및 상기 네거티브 그래디언트들에 기초하여, 상기 인증 모델의 레이어들 별로 파라미터들을 최적화하는 단계
    를 포함하는,
    사용자 단말의 학습 방법.
  7. 제4항에 있어서,
    상기 네거티브 그래디언트들을 누적하는 단계는
    GAN(Generative Adversarial Network)을 이용하여, 노이즈로부터 네거티브 입력들을 생성하는 단계
    를 포함하는,
    사용자 단말의 학습 방법.
  8. 제1항에 있어서,
    상기 인증 모델에 의해 기 등록된 제1 특징들에 대응하는 제1 사용자 입력들을 획득하는 단계;
    상기 학습이 완료된 후, 상기 인증 모델을 이용하여 상기 제1 사용자 입력들로부터 제2 특징들을 추출하는 단계; 및
    상기 제1 특징들을 상기 추출된 제2 특징들로 갱신하는 단계
    를 더 포함하는,
    사용자 단말의 학습 방법.
  9. 제1항에 있어서,
    상기 인증을 수행하는 단계는
    상기 인증 모델의 레이어들 중 일부를 제외한 나머지 일부를 이용하여, 상기 사용자 입력에 대한 인증을 수행하는 단계
    를 포함하고,
    상기 생성된 그래디언트 및 상기 포지티브 그래디언트들은 상기 나머지 일부에 대응하는,
    사용자 단말의 학습 방법.
  10. 제9항에 있어서,
    상기 일부는 상기 인증 모델의 레이어들 중 학습에 따른 갱신 정도가 미리 정의된 기준에 의해 낮은 적어도 하나의 레이어인,
    사용자 단말의 학습 방법.
  11. 제9항에 있어서,
    상기 인증 모델에 의해 기 등록된 제1 특징들에 대응하는 중간 특징들-상기 중간 특징들은 상기 나머지 일부에 대응함-을 획득하는 단계;
    상기 학습이 완료된 후, 상기 인증 모델의 상기 나머지 일부를 이용하여 상기 중간 특징들로부터 제2 특징들을 추출하는 단계; 및
    상기 제1 특징들을 상기 추출된 제2 특징들로 갱신하는 단계
    를 더 포함하는,
    사용자 단말의 학습 방법.
  12. 제1항에 있어서,
    상기 그래디언트를 생성하는 단계는
    뉴럴 네트워크로 구현된 상기 인증 모델을 이용하여, 상기 사용자 입력으로부터 특징을 추출하는 단계;
    상기 추출된 특징과 적어도 하나의 기 등록된 특징에 기초하여, 상기 인증 모델의 손실을 생성하는 단계;
    상기 생성된 손실에 기초하여, 그래디언트를 생성하는 단계
    를 포함하는,
    사용자 단말의 학습 방법.
  13. 인증하고자 하는 사용자 입력을 획득하는 단계;
    사용자 단말의 인증 모델을 이용하여, 상기 사용자 입력으로부터 특징을 추출하는 단계;
    상기 특징과 적어도 하나의 기 등록된 특징에 기초하여, 상기 사용자 입력에 대한 인증을 수행하는 단계;
    상기 인증의 성공에 응답하여, 상기 사용자 입력으로부터 상기 인증 모델을 학습시키기 위한 그래디언트를 생성하여 포지티브 그래디언트들에 누적하는 단계; 및
    제2 사용자 입력에 대한 인증을 수행하는 단계
    를 포함하는
    사용자 단말의 인증 방법.
  14. 하드웨어와 결합되어 제1항 내지 제13항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  15. 사용자 단말의 인증 모델을 이용하여, 사용자 입력에 대한 인증을 수행하고,
    상기 인증의 성공에 응답하여, 상기 사용자 입력으로부터 상기 인증 모델을 학습시키기 위한 그래디언트를 생성하고,
    인증을 성공한 포지티브 입력들에 대응하는 포지티브 그래디언트들에, 상기 생성된 그래디언트를 누적하고,
    상기 생성된 그래디언트가 누적된 상기 포지티브 그래디언트들에 기초하여, 상기 인증 모델을 학습시키는 프로세서
    를 포함하는
    사용자 단말.
  16. 제15항에 있어서,
    상기 프로세서는
    상기 인증 모델의 레이어들 별로 그래이언트들을 생성하고,
    포지티브 그래디언트는 상기 레이어들 별 포지티브 그래디언트들을 포함하는,
    사용자 단말.
  17. 제15항에 있어서,
    상기 프로세서는
    네거티브 입력들로부터 상기 인증 모델을 학습시키기 위한 네거티브 그래디언트들을 생성하여 누적하고,
    상기 포지티브 그래디언트들 및 상기 네거티브 그래디언트들에 기초하여, 상기 인증 모델을 학습시키는,
    사용자 단말.
  18. 제15항에 있어서,
    상기 프로세서는
    상기 인증 모델에 의해 기 등록된 제1 특징들에 대응하는 제1 사용자 입력들을 획득하고,
    상기 학습이 완료된 후, 상기 인증 모델을 이용하여 상기 제1 사용자 입력들로부터 제2 특징들을 추출하고,
    상기 제1 특징들을 상기 추출된 제2 특징들로 갱신하는,
    사용자 단말.
  19. 제15항에 있어서,
    상기 프로세서는
    상기 인증 모델의 레이어들 중 일부를 제외한 나머지 일부를 이용하여, 상기 사용자 입력에 대한 인증을 수행하고,
    상기 생성된 그래디언트 및 상기 포지티브 그래디언트들은 상기 나머지 일부에 대응하는,
    사용자 단말.
  20. 제19항에 있어서,
    상기 프로세서는
    상기 인증 모델에 의해 기 등록된 제1 특징들에 대응하는 중간 특징들-상기 중간 특징들은 상기 나머지 일부에 대응함-을 획득하고,
    상기 학습이 완료된 후, 상기 인증 모델의 상기 나머지 일부를 이용하여 상기 중간 특징들로부터 제2 특징들을 추출하고,
    상기 제1 특징들을 상기 추출된 제2 특징들로 갱신하는,
    사용자 단말.
KR1020180101475A 2018-08-28 2018-08-28 사용자 단말의 학습 방법 및 장치 KR20200024602A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180101475A KR20200024602A (ko) 2018-08-28 2018-08-28 사용자 단말의 학습 방법 및 장치
US16/527,332 US20200074058A1 (en) 2018-08-28 2019-07-31 Method and apparatus for training user terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180101475A KR20200024602A (ko) 2018-08-28 2018-08-28 사용자 단말의 학습 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20200024602A true KR20200024602A (ko) 2020-03-09

Family

ID=69642310

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180101475A KR20200024602A (ko) 2018-08-28 2018-08-28 사용자 단말의 학습 방법 및 장치

Country Status (2)

Country Link
US (1) US20200074058A1 (ko)
KR (1) KR20200024602A (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10936705B2 (en) * 2017-10-31 2021-03-02 Baidu Usa Llc Authentication method, electronic device, and computer-readable program medium
KR102570070B1 (ko) * 2018-12-27 2023-08-23 삼성전자주식회사 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치
US11385884B2 (en) * 2019-04-29 2022-07-12 Harman International Industries, Incorporated Assessing cognitive reaction to over-the-air updates
CN112115975B (zh) * 2020-08-18 2024-04-12 山东信通电子股份有限公司 一种适用于监拍装置的深度学习网络模型快速迭代训练方法及设备
CN112949403B (zh) * 2021-02-01 2022-08-23 浙江大学 一种基于下颌骨生物特征的可靠用户认证方法及系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4748257B2 (ja) * 2008-08-04 2011-08-17 ソニー株式会社 生体認証装置
US8554837B2 (en) * 2009-09-25 2013-10-08 Cisco Technology, Inc. Automatic moderation of media content by a first content provider based on detected moderation by a second content provider
CN103679158B (zh) * 2013-12-31 2017-06-16 北京天诚盛业科技有限公司 人脸认证方法和装置
US9742827B2 (en) * 2014-01-02 2017-08-22 Alcatel Lucent Rendering rated media content on client devices using packet-level ratings
US10111099B2 (en) * 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
CA2954165C (en) * 2014-07-02 2023-06-13 Blackhawk Network, Inc. Systems and methods for dynamically detecting and preventing consumer fraud
US10078803B2 (en) * 2015-06-15 2018-09-18 Google Llc Screen-analysis based device security
US11238362B2 (en) * 2016-01-15 2022-02-01 Adobe Inc. Modeling semantic concepts in an embedding space as distributions
US20190138778A1 (en) * 2016-03-11 2019-05-09 Bilcare Limited A system for product authentication and method thereof
EP3598086B1 (en) * 2016-12-29 2024-04-17 Samsung Electronics Co., Ltd. Method and device for recognizing speaker by using resonator
US10609037B2 (en) * 2017-03-28 2020-03-31 Ca, Inc. Consolidated multi-factor risk analysis
US10733279B2 (en) * 2018-03-12 2020-08-04 Motorola Mobility Llc Multiple-tiered facial recognition
US10769260B2 (en) * 2018-04-10 2020-09-08 Assured Information Security, Inc. Behavioral biometric feature extraction and verification
US11151568B2 (en) * 2018-05-09 2021-10-19 Capital One Services, Llc Real-time selection of authentication procedures based on risk assessment

Also Published As

Publication number Publication date
US20200074058A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
KR102608470B1 (ko) 데이터 인식 장치 및 방법과 트레이닝 장치 및 방법
KR20200024602A (ko) 사용자 단말의 학습 방법 및 장치
KR102486699B1 (ko) 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치
KR102564855B1 (ko) 표정 변화에 강인한 객체 및 표정 인식 장치 및 방법, 객체 및 표정 트레이닝 장치 및 방법
KR102374747B1 (ko) 객체를 인식하는 장치 및 방법
KR102450374B1 (ko) 데이터 인식 및 트레이닝 장치 및 방법
KR102239714B1 (ko) 신경망 학습 방법 및 장치, 데이터 처리 장치
JP6746292B2 (ja) 言語モデル学習方法及び装置、言語認識方法及び装置
KR20170022625A (ko) 분류기 학습 방법 및 객체 검출 방법
KR20170016231A (ko) 사용자 인증을 위한 멀티-모달 퓨전 방법 및 사용자 인증 방법
KR102570070B1 (ko) 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치
KR20200045128A (ko) 모델 학습 방법 및 장치, 및 데이터 인식 방법
KR20160061856A (ko) 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
KR20190018278A (ko) 뉴럴 네트워크를 이용한 인식 방법 및 장치 및 상기 뉴럴 네트워크를 트레이닝하는 방법 및 장치
KR20200128938A (ko) 모델 학습 방법 및 장치
KR102427853B1 (ko) 사용자 인증을 위한 등록 데이터베이스의 적응적 갱신 방법 및 장치
KR20200110064A (ko) 변환 모델을 이용한 인증 방법 및 장치
KR20210050884A (ko) 화자 인식을 위한 등록 방법 및 장치
KR102261833B1 (ko) 인증 방법 및 장치, 및 인식기 학습 방법 및 장치
KR20170057118A (ko) 오브젝트 인식 방법 및 장치, 인식 모델 학습 방법 및 장치
KR20190070179A (ko) 사용자 등록 장치 및 방법
KR20170082778A (ko) 사용자 자세에 기초한 키스트로크 패턴을 이용한 사용자 분류 장치 및 방법
KR102449840B1 (ko) 사용자 적응적인 음성 인식 방법 및 장치
US20210044864A1 (en) Method and apparatus for identifying video content based on biometric features of characters
KR20220008035A (ko) 위조 지문 검출 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal