KR102564285B1 - 온라인 베이지안 퓨샷 학습 방법 및 장치 - Google Patents

온라인 베이지안 퓨샷 학습 방법 및 장치 Download PDF

Info

Publication number
KR102564285B1
KR102564285B1 KR1020200075025A KR20200075025A KR102564285B1 KR 102564285 B1 KR102564285 B1 KR 102564285B1 KR 1020200075025 A KR1020200075025 A KR 1020200075025A KR 20200075025 A KR20200075025 A KR 20200075025A KR 102564285 B1 KR102564285 B1 KR 102564285B1
Authority
KR
South Korea
Prior art keywords
task
learning
pushot
online
performance model
Prior art date
Application number
KR1020200075025A
Other languages
English (en)
Other versions
KR20210157128A (ko
Inventor
김현우
박경문
박전규
송화전
유병현
정의석
한란
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200075025A priority Critical patent/KR102564285B1/ko
Priority to US17/353,136 priority patent/US20210398004A1/en
Publication of KR20210157128A publication Critical patent/KR20210157128A/ko
Application granted granted Critical
Publication of KR102564285B1 publication Critical patent/KR102564285B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 온라인 베이지안 퓨샷 학습 방법에 관한 것이다. 상기 방법은 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하는 단계; 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계; 상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하는 단계; 상기 변조된 작업 수행 모델의 파라미터를 정규화하는 단계; 상기 정규화된 작업 수행 모델의 파라미터를 상기 전체 서포트 데이터로의 적응을 수행하는 단계; 상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하여 작업 수행 손실을 산출하는 단계; 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하는 단계; 상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하는 단계; 상기 작업 수행 손실과 상기 대조 손실에 기반하여 전체 손실을 산출하는 단계; 및 상기 전체 손실을 기준치로 하여 상기 전체 모델의 초기 파라미터를 갱신하는 단계를 포함한다.

Description

온라인 베이지안 퓨샷 학습 방법 및 장치{METHOD AND APPARATUS FOR ONLINE BAYESIAN FEW-SHOT LEARNING}
본 발명은 온라인 베이지안 퓨샷 학습 방법 및 장치에 관한 것으로, 구체적으로는 멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법 및 장치에 관한 것이다.
현재의 심층 학습 기술은 다양하고 고품질의 데이터와, 모델 학습에 필요한 막대한 컴퓨팅 자원이 요구된다. 이와 대조적으로, 인간은 빠르고 효율적인 학습이 가능하다. 이러한 인간의 학습과 같이 적은 양의 데이터만을 사용하여 새로운 작업을 학습하는 기술을 퓨샷 학습(few-shot learning) 기술이라 한다.
이러한 퓨샷 학습 기술은 '학습 방법에 대한 학습'을 수행하는 메타 학습(meta learning)에 기반을 두고 있다. 그리고, 데이터가 적은 실제 작업과 유사한 형태의 훈련 작업을 통해 새로운 개념과 규칙을 학습함으로써, 적은 양의 데이터로 빠르게 학습하는 것이 가능하다.
한편, 오프라인 학습(offline learning)은 한 번에 주어지는 전체 데이터로 수행하는 학습이고, 온라인 학습(online learning)은 순차적으로 주어지는 데이터로 수행하는 학습이다. 이 중에서, 멀티 영역(multi domain)의 온라인 학습은 영역이 순차적으로 주어지는 상황에서 모델을 학습하는 것을 말한다.
하지만, 복수 영역의 온라인 학습에서 새로운 영역을 학습할 경우 과거 영역을 망각하는 현상이 발생한다. 이러한 망각 현상을 완화하기 위해 정규화 기반의 방식, 리허설 기반의 방식, 동적 망 구조 기반의 방식 등의 지속 학습(continual learning) 기술을 사용하고 있으나, 온라인 학습과 퓨샷 학습을 통합하는 방법은 부재한 실정이다.
본 발명의 실시예는 적은 데이터를 가진 작업들의 영역이 순차적으로 주어지는 상황에서 멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법 및 장치를 제공하고자 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법은 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하는 단계; 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계; 상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하는 단계; 상기 변조된 작업 수행 모델의 파라미터를 정규화하는 단계; 상기 정규화된 작업 수행 모델의 파라미터를 상기 전체 서포트 데이터로의 적응을 수행하는 단계; 상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하여 작업 수행 손실을 산출하는 단계; 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하는 단계; 상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하는 단계; 상기 작업 수행 손실과 상기 대조 손실에 기반하여 전체 손실을 산출하는 단계; 및 상기 전체 손실을 기준치로 하여 상기 전체 모델의 초기 파라미터를 갱신하는 단계를 포함한다.
본 발명의 일부 실시예에서, 상기 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하는 단계는, 이전 영역 및 상기 이전 영역과 연속되는 현재 영역에서의 적어도 하나의 작업을 기반으로 배치 샘플링을 수행하는 단계; 상기 샘플링된 각 작업에 대응하는 상기 서포트 데이터들의 특징을 추출하는 단계; 상기 추출된 특징의 맥락 정보를 고려하여 임베딩을 수행하는 단계; 및 상기 임베딩 결과에 따른 임베딩 특징 정보에 기반하여 상기 서포트 데이터의 영역 및 작업을 추정하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 상기 추출된 특징의 맥락 정보를 고려하여 임베딩을 수행하는 단계는, 상기 추출된 특징을 멀티 레이어로 구성된 자가 주의집중(self-attention) 모델의 입력으로 설정하는 단계; 및 상기 입력에 대응하는 출력으로 상기 임베딩 특징 정보를 획득하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 상기 추출된 특징의 맥락 정보를 고려하여 임베딩을 수행하는 단계는, 상기 추출된 특징을 멀티 레이어로 구성된 양방향 장단기 메모리 신경망(BiLSTM, Bidirectional Long Short-Term Memory) 모델의 입력으로 설정하는 단계; 및 상기 입력에 대응하는 출력으로 상기 임베딩 특징 정보를 획득하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 상기 임베딩 결과에 따른 임베딩 특징 정보에 기반하여 상기 서포트 데이터의 영역 및 작업을 추정하는 단계는, 상기 임베딩 특징 정보를 다층 퍼셉트론(Multi-Layer Perceptron) 모델의 입력으로 설정하는 단계; 및 상기 입력에 대응하는 출력으로 상기 추정된 상기 서포트 데이터의 영역 및 작업을 획득하는 단계를 포함하되, 상기 출력을 위한 출력단의 차원은 상기 입력을 위한 입력단의 차원보다 더 작게 설정될 수 있다.
본 발명의 일부 실시예에서, 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계는, 상기 추정된 영역 및 작업을 사용하여 지식 메모리로부터 상기 작업 수행 모델의 초기 파라미터의 변조 정보를 획득할 수 있다.
본 발명의 일부 실시예에서, 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계는, 상기 추정된 영역 및 작업을 양방향 장단기 메모리 신경망 모델 또는 다층 퍼셉트론 모델의 입력으로 설정하는 단계; 및 상기 입력에 대응하는 출력으로 상기 지식 메모리의 엑세스에 필요한 읽기 쿼리(read_query) 및 쓰기 쿼리(write_query)를 생성하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계는, 상기 읽기 쿼리를 이용하여 상기 지식 메모리의 위치에 대한 가중치를 산출하는 단계; 및 상기 가중치를 매개로 상기 지식 메모리에 저장된 값과의 선형 결합을 통해 상기 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계를 포함할 수 있다.
본 발명의 일부 실시예는, 상기 쓰기 쿼리를 이용하여 상기 지식 메모리의 위치에 대한 가중치를 산출하는 단계; 및 상기 가중치에 기초하여 상기 지식 메모리에 저장된 값을 삭제하고, 상기 추정된 영역 및 작업의 변조 정보를 추가하여 갱신하는 단계를 더 포함할 수 있다.
본 발명의 일부 실시예에서, 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계는, 상기 추정된 영역 및 작업으로부터 상기 작업 수행 모델의 초기 파라미터의 변조 정보를 획득할 수 있다.
본 발명의 일부 실시예에서, 상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하는 단계는, 상기 변조 정보로 가변 크기 상수 또는 합성곱 필터를 사용할 수 있다.
본 발명의 일부 실시예에서, 상기 정규화된 작업 수행 모델의 파라미터를 상기 전체 서포트 데이터로의 적응을 수행하는 단계는, 상기 정규화된 작업 수행 모델의 파라미터를 확률적 경사 하강법에 기초하여 상기 전체 서포트 데이터로의 적응을 수행할 수 있다.
본 발명의 일부 실시예에서, 상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하는 단계는, 상기 쿼리 데이터의 입력에 베이지안 신경망을 적용하여 작업을 수행할 수 있다.
본 발명의 일부 실시예에서, 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하는 단계는, 이전 영역 및 상기 이전 영역과 연속되는 현재 영역의 전체 모델의 초기 파라미터로 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하는 단계는, 상기 획득한 로짓 쌍이 동일한 데이터로 생성된 것인지 여부를 판별하는 단계; 및 상기 판별 결과에 따른 오류에 기반하여 상기 대조 손실을 산출하는 단계를 포함할 수 있다.
본 발명의 제2측면에 따른 온라인 베이지안 퓨샷 학습 장치는 멀티 영역 기반의 온라인 학습 및 퓨샷 학습을 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하고, 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득한 후, 상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하고, 상기 변조된 작업 수행 모델의 파라미터를 정규화하고 이를 상기 전체 서포트 데이터로의 적응을 수행하여, 상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하여 작업 수행 손실을 산출하며, 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하고, 상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하며, 상기 작업 수행 손실과 상기 대조 손실에 기반하여 전체 손실을 산출한 후, 상기 전체 손실을 기준치로 하여 상기 전체 모델의 초기 파라미터를 갱신한다.
또한, 본 발명의 제3측면에 따른 온라인 베이지안 퓨샷 학습 장치는 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하는 영역 및 작업 추정부와, 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 변조 정보 획득부와, 상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하는 변조부와, 상기 변조된 작업 수행 모델의 파라미터를 정규화하는 정규화부와, 상기 정규화된 작업 수행 모델의 파라미터를 상기 전체 서포트 데이터로의 적응을 수행하는 작업 수행 적응부와, 상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하여 작업 수행 손실을 산출하는 작업 수행부와, 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하고, 상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하며, 상기 작업 수행 손실과 상기 대조 손실에 기반하여 전체 손실을 산출한 후, 상기 전체 손실을 기준치로 하여 상기 전체 모델의 초기 파라미터를 갱신하는 판별 및 갱신부를 포함한다.
본 발명의 일부 실시예에서, 상기 변조 정보 획득부는 상기 추정된 영역 및 작업으로부터 직접 또는 상기 추정된 영역 및 작업을 사용하여 지식 메모리로부터 상기 작업 수행 모델의 초기 파라미터의 변조 정보를 획득할 수 있다.
본 발명의 일부 실시예에서, 상기 변조부는 상기 변조 정보 획득부에서 직접 획득한 변조 정보와, 상기 지식 메모리로부터 획득한 변조 정보를 합산하고, 합산된 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 적은 데이터를 가진 작업들의 영역이 순차적으로 주어지는 온라인 학습 및 퓨샷 학습의 통합이 가능하며, 입력 데이터의 맥락 정보를 효과적으로 활용하여 정확한 영역 및 작업 추정이 가능하다는 장점이 있다.
또한, 변조 정보를 위한 메모리를 지식 메모리를 사용함으로써 과거 수행했던 지식의 활용과 더불어 새로이 수행하는 지식에 대한 갱신이 가능하다.
이와 더불어, 작업 수행 모델 파라미터의 변조를 통해 모델의 표현력을 높여 순차적으로 주어지는 다양한 영역에 대한 높은 성능을 기대할 수 있으며, 대조 손실을 적용함으로써 데이터에 존재하는 더욱 많은 정보 활용이 가능하게끔 할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 프레임워크를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 장치를 설명하기 위한 기능 블록도이다.
도 4는 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 방법의 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 발명은 온라인 베이지안 퓨샷 학습 방법 및 장치(100)에 관한 것이다.
퓨샷 학습 기술은 크게 거리 학습 기반의 방식과 경사 하강법 기반의 방식으로 구분된다.
거리 학습 기반의 퓨샷 학습은 두 데이터의 범주가 같으면 거리를 더 가깝게 만들고, 두 데이터의 범주가 다르면 거리를 더 멀게 만드는 특징을 추출하는 방법을 학습한 후, 그 특징 공간에서 최근린 데이터의 범주를 선택하는 방식이다.
경사 하강법 기반의 퓨샷 학습은 새로운 작업에 대하여 소수의 갱신으로 좋은 성능을 내는 초기값들을 찾는 방법이다. 예를 들어, MAML(Model Agnostic Meta-Learning)이 대표적인 방법이다. 이러한 방식은 다른 퓨샷 학습과는 다르게 경사 하강법 기반으로 학습되는 모든 모델에서 사용할 수 있다는 장점이 있다. 하지만, 적은 양의 데이터로 인한 작업의 모호성 문제를 해결하기 어렵다는 문제가 있는바, 모호한 작업에 대해서는 과적합하지 않고 잠재적인 복수의 모델을 제공하는 것이 바람직하다. 이에 따라, 최근에는 적은 양의 데이터를 학습할 때 불확실성을 활용하는 베이지안(Bayesian) MALA이 제안되었다.
본 발명의 일 실시예는 이와 같이 적은 양의 데이터를 가진 작업들이 순차적으로 주어지는 환경을 위한 베이지안 퓨샷 학습 및 멀티 영역의 온라인 학습이 통합된 온라인 베이지안 퓨샷 학습 방법 및 장치(100)를 제공한다.
이하에서는 도 1 내지 도 3을 참조하여 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 장치(100)에 대해 설명하도록 한다. 먼저, 도 1을 참조하여 본 발명의 일 실시예에 적용되는 온라인 베이지안 퓨샷 학습을 위한 프레임워크를 설명한 후, 온라인 베이지안 퓨샷 학습 장치(100)에 대하여 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 프레임워크를 설명하기 위한 도면이다. 이때, 도 1에서 실선은 실행 과정을, 점선은 추론 과정을 나타낸다.
도 1에 도시된 온라인 베이지안 퓨샷 학습을 위한 프레임워크는 번째 영역에서의 온라인 베이지안 퓨샷 학습을 대상으로 하고 있다.
상기 프레임워크는 정규화 기반의 온라인 학습을 위해 번째 영역에서의 전체 모델의 초기 파라미터를 저장하고, 리허설 기반의 온라인 학습을 위해 과거 영역(번째 영역)의 일부 데이터를 저장한다.
k'번째 영역의 번째 작업에서, 서포트(support) 데이터를 , 쿼리(query) 데이터를 라고 한다. 또한, k'번째 영역의 번째 작업에서 전체 서포트 데이터를 , 전체 모델의 초기 파라미터를 , 적응된 작업 수행 모델의 파라미터를 라고 한다. 이 경우, 쿼리 데이터 입력()의 사후 예측 분포는 식 1과 같다.
[식 1]
여기에서 전체 모델의 초기 파라미터()와 적응된 작업 수행 모델의 파라미터()는 쿼리 데이터 입력()에 의존하지 않고, 전체 서포트 데이터()의 지식은 적응된 작업 수행 모델의 파라미터()로 모두 반영이 된다고 가정한다.
이때, 확률 분포 은 파라미터 로 모델링하는 확률분포 로, 확률 분포 은 파라미터 로 모델링하는 확률분포 로 근사화 하면 식 2와 같이 나타낼 수 있다.
[식 2]
한편, 온라인 베이지안 퓨샷 학습의 목표는 손실 함수를 기준치로 최적의 파라미터 를 구하는 것이다. 여기에서, 손실 함수()는 식 3과 같이 쿼리 데이터 입력()의 사후 예측 로그 분포의 평균을 사용하여 나타낼 수 있다.
[식 3]
식 3과 같은 손실 함수에서, 확률분포 는 디락 델타(dirac delta) 함수로 설정하고, 적응된 작업 수행 모델의 파라미터()는 전체 모델의 초기 파라미터()와 전체 서포트 데이터()를 사용하여 확률적 경사 하강 기법을 적용하면, 손실 함수는 식 4와 같이 간략화하여 나타낼 수 있다.
[식 4]
이하에서는 도 2 및 도 3을 참조하여, 상기 온라인 베이지안 퓨샷 학습 프레임워크가 적용된 구체적인 실시예를 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 장치(100)의 블록도이다. 도 3은 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 장치(100)를 설명하기 위한 기능 블록도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 온라인 퓨샷 학습 장치(100)는 메모리(10) 및 프로세서(20)를 포함한다.
메모리(10)에는 멀티 영역 기반의 온라인 학습 학습 및 퓨샷 학습을 위한 프로그램이 저장된다. 여기에서, 메모리(10)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다.
예를 들어, 메모리(10)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.
프로세서(20)는 메모리(10)에 저장된 프로그램을 실행시킴에 따라, 도 3에 도시된 기능 요소를 수행한다.
본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 장치(100)는 작업 수행 모델의 표현력을 높여 순차적으로 주어지는 다양한 영역과 작업을 대처하기 위하여 변조 방식을 사용하는 것을 특징으로 한다.
변조를 사용하기 위해서는 전체 서포트 데이터()로부터 맥락을 고려하여 특징을 추출하고, 영역 및 작업을 추정하여 직접 또는 지식 메모리로부터 변조 정보를 산출해야 한다. 그리고 산출된 변조 정보를 통해 작업 수행 모델의 초기 파라미터()에 대하여 변조 및 정규화를 수행하고, 전체 서포트 데이터()로 작업 수행을 위한 적응 과정을 수행한다. 그 다음, 적응된 작업 수행 모델의 파라미터()를 사용하여 작업을 수행하여 작업 수행 손실을 산출한다. 그리고 작업 수행 손실과 대조 손실에 기반하여 전체 손실을 산출한 후, 전체 손실을 기준치로 하여 전체 모델의 초기 파라미터를 갱신하게 된다. 이때, 전체 모델의 초기 파라미터()는 작업 수행 모델의 초기 파라미터()와 변조 정보와 대조 손실을 산출하는데 필요한 모델 파라미터()로 구분된다.
이와 같은 온라인 베이지안 퓨샷 학습 장치(100)는 특징 추출부(105), 맥락 임베딩부(110), 영역 및 작업 추정부(115), 변조 정보 획득부(120), 변조부(135), 정규화부(140), 작업 수행 적응부(145), 작업 수행부(150), 판별 및 갱신부(155)를 포함한다.
구체적으로, 특징 추출부(105)는 이전 영역과 현재 영역에서의 적어도 하나의 작업을 기반으로 배치 샘플링을 수행한 후, 샘플링된 각 작업에 대응하는 전체 서포트 데이터()들의 특징을 추출한다.
예를 들어, 서포트 데이터가 이미지와 분류 라벨(개, 고양이, 코끼리 등)로 구성되어 있는 경우, 특징 추출부(105)는 이미지 처리에 강점이 있는 다수 계층의 합성곱 신경망-배치(batch) 정규화-비선형 함수를 사용하여 모듈을 구성하고, 이미지를 모듈의 입력으로 설정하여 출력을 구한 후, 라벨을 연결(concatenation)시켜서 특징을 추출할 수 있다.
맥락 임베딩부(110)는 특징 추출부(105)에 의해 추출된 특징의 맥락 정보를 고려하여 임베딩을 수행한다.
일 실시예로, 맥락 임베딩부(110)는 추출된 특징을 입력들 간의 상관 관계를 고려하는 멀티 레이어로 구성된 자가 주의집중(self-attention) 모델의 입력으로 설정하고, 상기 입력에 대응하는 출력으로 임베딩 특징 정보를 획득할 수 있다.
또한, 맥락 임베딩부(110)는 추출된 특징을 멀티 레이어로 구성된 양방향 장단기 메모리 신경망(BiLSTM, Bidirectional Long Short-Term Memory) 모델의 입력으로 설정하고, 상기 입력에 대응하는 출력으로 상기 임베딩 특징 정보를 획득할 수 있다.
영역 및 작업 추정부(115)는 임베딩 결과에 따른 임베딩 특징 정보에 기반하여 입력된 전체 서포트 데이터()의 영역 및 작업을 추정한다.
일 실시예로, 영역 및 작업 추정보(115)는 임베딩 특징 정보를 다층 퍼셉트론(Multi-Layer Perceptron) 모델의 입력으로 설정하고, 입력에 대응하는 출력으로 상기 추정된 서포트 데이터의 영역 및 작업을 획득할 수 있다. 이때, 다층 퍼셉트론 모델의 출력을 위한 출력단의 차원은 입력을 위한 입력단의 차원보다 더 작도록 설정될 수 있다.
변조 정보 획득부(120)는 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터()의 변조 정보를 획득한다.
일 실시예로, 변조 정보 획득부(120)는 추정된 영역 및 작업으로부터 직접 또는 지식 제어부(125)를 통해 추정된 영역 및 작업을 사용하여 지식 메모리(130)로부터 작업 수행 모델의 초기 파라미터()의 변조 정보를 획득할 수 있다.
지식 제어부(125)는 추정된 영역 및 작업을 사용하여 지식 메모리(130)로부터 작업 수행 모델의 초기 파라미터()의 변조 정보를 획득하여 저장할 수 있다. 이때, 지식 제어부(125)는 추정된 영역 및 작업을 양방향 장단기 메모리 신경망 모델 또는 다층 퍼셉트론 모델의 입력으로 설정하고, 입력에 대응하는 출력으로 지식 메모리(130)의 엑세스에 필요한 읽기 쿼리(read_query) 및 쓰기 쿼리(write_query)를 생성한다.
지식 제어부(125)는 읽기 쿼리를 이용하여 코사인 유사도로 접근할 지식 메모리(130)의 위치에 대한 가중치를 산출하고, 상기 가중치를 매개로 지식 메모리(130)에 저장된 값과의 선형 결합을 통해 작업 수행 모델의 초기 파라미터()의 변조 정보를 획득할 수 있다.
이와 더불어, 지식 제어부(125)는 상기 쓰기 쿼리를 이용하여 코사인 유사도로 쓸 지식 메모리(130)의 위치에 대한 가중치를 산출하고, 산출된 가중치에 기초하여 지식 메모리(130)에 저장된 값을 삭제하고, 추정된 영역 및 작업의 변조 정보를 추가하여 지식 메모리(130)를 갱신할 수 있다.
또한, 변조 정보 획득부(120)는 일 실시예로, 추정된 영역 및 작업을 다층 퍼셉트론 모델의 입력으로 설정한 후 출력으로 작업 수행 모델의 초기 파라미터()의 변조 정보를 획득할 수 있다. 이때, 출력의 차원은 작업 수행 모델의 파라미터()의 차원과 일치할 수 있다.
변조부(135)는 변조 정보를 기반으로 작업 수행 모델의 초기 파라미터()를 변조한다. 이때, 변조부(135)는 변조 정보 획득부(120)에서 직접 획득한 변조 정보와, 지식 제어부(125)에 의한 지식 메모리(130)로부터 획득한 변조 정보를 합산하고, 합산된 변조 정보를 기반으로 작업 수행 모델의 초기 파라미터()를 변조할 수 있다.
예를 들어, 작업 수행 모델이 합성곱 신경망을 사용할 경우, 변조부(135)는 변조 정보를 작업 수행 모델의 채널 파라미터에 곱한다. 이때, 번째 채널과 번째 높이, 그리고 번째 폭의 작업 수행 모델의 초기 파라미터를 라 하고, 번째 채널의 변조 정보를 라고 하면, 변조된 모델의 파라미터는 식 5와 같이 나타낼 수 있다. 여기에서 는 가변 크기 상수를 나타낸다.
[식 5]
또 다른 예로, 변조부(135)는 변조 정보로 1차원 상수가 아닌 합성곱 필터를 사용할 수 있다. 이때, 번째 채널의 작업 수행 모델의 초기 파라미터를 라고 하면, 변조부(135)는 식 6에 나타난 바와 같이 합성곱을 수행하여 변조를 수행할 수 있다. 여기에서 는 합성곱 필터를 나타낸다.
[식 6]
정규화부(140)는 변조된 작업 수행 모델의 파라미터를 정규화한다. 예를 들어, 정규화부(140)는 식 7과 같이 채널별로 변조된 작업 수행 모델의 파라미터 크기를 1로 만들어 정규화한다. 이때, 는 0으로 나누는 것을 방지하기 위한 항이다.
[식 7]
작업 수행 적응부(145)는 정규화부(140)에서 정규화된 작업 수행 모델의 파라미터()를 전체 서포트 데이터()로 적응을 수행한다. 일 실시예로, 정규화부(140)는 정규화된 작업 수행 모델의 파라미터()를 확률적 경사 하강법에 기초하여 전체 서포트 데이터()로 적응을 수행할 수 있다.
작업 수행부(150)는 적응된 작업 수행 모델의 파라미터()를 이용하여 쿼리 데이터의 입력에 대해 작업을 수행하여 작업 수행 손실을 산출한다.
일 실시예로, 작업 수행부(150)는 쿼리 데이터의 입력에 베이지안 신경망을 적용하여 작업을 수행할 수 있다. 이때, 베이지안 신경망의 계수들은 공분산이 대각행렬인 가우시안 분포로 설정된다. 또한, 적응된 작업 수행 모델의 파라미터()는 공분산과 평균으로 구성된다. 작업 수행부(150)는 가우시안 분포에서 신경망의 계수를 샘플링 한 후, 쿼리 데이터의 입력에 대해 베이지안 신경망을 적용하여 결과를 출력한다.
판별 및 갱신부(155)는 전체 서포트 데이터 및 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하고, 획득한 로짓 쌍을 기반으로 대조 손실을 산출한다.
일 실시예로, 판별 및 갱신부(155)는 이전 영역 및 이전 영역과 연속되는 현재 영역의 전체 모델의 초기 파라미터로 서포트 데이터들과 쿼리 데이터들의 입력(에 대해 로짓(logit) 쌍을 획득할 수 있다.
그리고 판별 및 갱신부(155)는 획득한 로짓 쌍이 동일한 데이터로 생성된 것인지 여부를 판별하고, 판별 결과에 따른 오류에 기반하여 대조 손실을 산출할 수 있다.
예컨대 번째 영역과 번째 영역의 전체 모델의 초기 파라미터(로 서포트 데이터들과 번째 쿼리 데이터의 입력에 대한 로짓을 각각 라고 하면, 판별 및 갱신부(155)는 개의 쿼리 데이터들의 입력에 대해 로짓 쌍()을 획득한다. 그리고 다층 퍼셉트론 모델을 사용하여 로짓 쌍이 동일한 쿼리 데이터로 생성된 것인지 아닌지를 판별한다. 판별에 따른 오류가 대조 손실에 해당하며, 상호 의존 정보 측면에서 용이하도록 대조 손실을 줄이도록 학습을 수행하게 된다.
이를 위해 판별 및 갱신부(155)는 작업 수행 손실과 대조 손실에 기반하여 전체 손실을 산출하고, 전체 손실을 기준으로 전체 모델의 초기 파라미터()를 갱신한다. 이때, 판별 및 갱신부(155)는 전체 손실을 기준치로 사용하여 역전파 알고리즘으로 전체 모델의 초기 파라미터()를 갱신할 수 있다.
참고로, 본 발명의 실시예에 따른 도 2 및 도 3에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
이하에서는 도 4를 참조하여 본 발명의 일 실시예에 따른 온라인 베이지안 퓨샷 학습 장치(100)에 의해 수행되는 방법에 대해 설명하도록 한다.
도 4는 온라인 베이지안 퓨샷 학습 방법의 순서도이다.
먼저, 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하면(S105), 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득한다(S110).
다음으로, 변조 정보를 기반으로 작업 수행 모델의 초기 파라미터를 변조하고(S115), 변조된 작업 수행 모델의 파라미터를 정규화한 후(S120), 정규화된 작업 수행 모델의 파라미터를 전체 서포트 데이터로의 적응을 수행한다(S125).
다음으로, 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하여 작업 수행 손실을 산출하고(S130), 전체 서포트 데이터 및 쿼리 데이터의 입력에 대한 로짓 쌍을 획득한다(S135).
다음으로, 획득한 로짓 쌍을 기반으로 대조 손실을 산출하고(S140), 작업 수행 손실과 대조 손실에 기반하여 전체 손실을 산출한 후(S145), 전체 손실을 기준치로 하여 전체 모델의 초기 파라미터를 갱신한다(S150).
상술한 설명에서, 단계 S110 내지 S150은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 3에서 이미 기술된 내용은 도 4의 정보 온라인 베이지안 퓨샷 학습 방법에도 적용된다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (19)

  1. 컴퓨터에 의해 수행되는 방법에 있어서,
    입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하는 단계;
    상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계;
    상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하는 단계;
    상기 변조된 작업 수행 모델의 파라미터를 정규화하는 단계;
    상기 정규화된 작업 수행 모델의 파라미터를 상기 전체 서포트 데이터로의 적응을 수행하는 단계;
    상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하여 작업 수행 손실을 산출하는 단계;
    이전 영역 및 상기 이전 영역과 연속되는 현재 영역에서의 전체 작업 수행 모델의 초기 파라미터로 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하는 단계;
    상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하는 단계;
    상기 작업 수행 손실과 상기 대조 손실에 기반하여 전체 손실을 산출하는 단계; 및
    상기 전체 손실을 기준치로 하여 상기 전체 작업 수행 모델의 초기 파라미터를 갱신하는 단계를 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  2. 제1항에 있어서,
    상기 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하는 단계는,
    이전 영역 및 상기 이전 영역과 연속되는 현재 영역에서의 적어도 하나의 작업을 기반으로 배치 샘플링을 수행하는 단계;
    상기 샘플링된 각 작업에 대응하는 상기 서포트 데이터들의 특징을 추출하는 단계;
    상기 추출된 특징의 맥락 정보를 고려하여 임베딩을 수행하는 단계; 및
    상기 임베딩을 수행한 결과에 따른 임베딩 특징 정보에 기반하여 상기 서포트 데이터의 영역 및 작업을 추정하는 단계를 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  3. 제2항에 있어서,
    상기 추출된 특징의 맥락 정보를 고려하여 임베딩을 수행하는 단계는,
    상기 추출된 특징을 멀티 레이어로 구성된 자가 주의집중(self-attention) 모델의 입력으로 설정하는 단계; 및
    상기 입력에 대응하는 출력으로 상기 임베딩 특징 정보를 획득하는 단계를 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  4. 제2항에 있어서,
    상기 추출된 특징의 맥락 정보를 고려하여 임베딩을 수행하는 단계는,
    상기 추출된 특징을 멀티 레이어로 구성된 양방향 장단기 메모리 신경망(BiLSTM, Bidirectional Long Short-Term Memory) 모델의 입력으로 설정하는 단계; 및
    상기 입력에 대응하는 출력으로 상기 임베딩 특징 정보를 획득하는 단계를 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  5. 제2항에 있어서,
    상기 임베딩을 수행한 결과에 따른 임베딩 특징 정보에 기반하여 상기 서포트 데이터의 영역 및 작업을 추정하는 단계는,
    상기 임베딩 특징 정보를 다층 퍼셉트론(Multi-Layer Perceptron) 모델의 입력으로 설정하는 단계; 및
    상기 입력에 대응하는 출력으로 상기 추정된 상기 서포트 데이터의 영역 및 작업을 획득하는 단계를 포함하되,
    상기 출력을 위한 출력단의 차원은 상기 입력을 위한 입력단의 차원보다 더 작게 설정되는 것인,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  6. 제1항에 있어서,
    상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계는,
    상기 추정된 영역 및 작업을 사용하여 지식 메모리로부터 상기 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 것인,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  7. 제6항에 있어서,
    상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계는,
    상기 추정된 영역 및 작업을 양방향 장단기 메모리 신경망 모델 또는 다층 퍼셉트론 모델의 입력으로 설정하는 단계; 및
    상기 입력에 대응하는 출력으로 상기 지식 메모리의 엑세스에 필요한 읽기 쿼리(read_query) 및 쓰기 쿼리(write_query)를 생성하는 단계를 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  8. 제7항에 있어서,
    상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계는,
    상기 읽기 쿼리를 이용하여 상기 지식 메모리의 위치에 대한 가중치를 산출하는 단계; 및
    상기 가중치를 매개로 상기 지식 메모리에 저장된 값과의 선형 결합을 통해 상기 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계를 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  9. 제7항에 있어서,
    상기 쓰기 쿼리를 이용하여 상기 지식 메모리의 위치에 대한 가중치를 산출하는 단계; 및
    상기 가중치에 기초하여 상기 지식 메모리에 저장된 값을 삭제하고, 상기 추정된 영역 및 작업의 변조 정보를 추가하여 갱신하는 단계를 더 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  10. 제1항에 있어서,
    상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 단계는,
    상기 추정된 영역 및 작업으로부터 상기 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 것인,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  11. 제1항에 있어서,
    상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하는 단계는,
    상기 변조 정보로 가변 크기 상수 또는 합성곱 필터를 사용하는 것인,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  12. 제1항에 있어서,
    상기 정규화된 작업 수행 모델의 파라미터를 상기 전체 서포트 데이터로의 적응을 수행하는 단계는,
    상기 정규화된 작업 수행 모델의 파라미터를 확률적 경사 하강법에 기초하여 상기 전체 서포트 데이터로의 적응을 수행하는 것인,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  13. 제1항에 있어서,
    상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하는 단계는,
    상기 쿼리 데이터의 입력에 베이지안 신경망을 적용하여 작업을 수행하는 것인,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  14. 삭제
  15. 제1항에 있어서,
    상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하는 단계는,
    상기 획득한 로짓 쌍이 동일한 데이터로 생성된 것인지 여부를 판별하는 단계; 및
    상기 판별 결과에 따른 오류에 기반하여 상기 대조 손실을 산출하는 단계를 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 방법.
  16. 멀티 영역 기반의 온라인 학습 및 퓨샷 학습을 위한 프로그램이 저장된 메모리 및
    상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
    상기 프로세서는 상기 프로그램을 실행시킴에 따라, 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하고, 상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득한 후, 상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하고,
    상기 변조된 작업 수행 모델의 파라미터를 정규화하고 이를 상기 전체 서포트 데이터로의 적응을 수행하여, 상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하여 작업 수행 손실을 산출하며,
    이전 영역 및 상기 이전 영역과 연속되는 현재 영역에서의 전체 작업 수행 모델의 초기 파라미터로 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하고, 상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하며, 상기 작업 수행 손실과 상기 대조 손실에 기반하여 전체 손실을 산출한 후, 상기 전체 손실을 기준치로 하여 상기 전체 작업 수행 모델의 초기 파라미터를 갱신하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 장치.
  17. 입력된 전체 서포트 데이터의 맥락 정보를 기반으로 영역 및 작업을 추정하는 영역 및 작업 추정부와,
    상기 추정된 영역 및 작업에 기반하여 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 변조 정보 획득부와,
    상기 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하는 변조부와,
    상기 변조된 작업 수행 모델의 파라미터를 정규화하는 정규화부와,
    상기 정규화된 작업 수행 모델의 파라미터를 상기 전체 서포트 데이터로의 적응을 수행하는 작업 수행 적응부와,
    상기 적응된 작업 수행 모델의 파라미터를 이용하여 쿼리 데이터의 입력에 대한 작업을 수행하여 작업 수행 손실을 산출하는 작업 수행부와,
    이전 영역 및 상기 이전 영역과 연속되는 현재 영역에서의 전체 작업 수행 모델의 초기 파라미터로 상기 전체 서포트 데이터 및 상기 쿼리 데이터의 입력에 대한 로짓 쌍을 획득하고, 상기 획득한 로짓 쌍을 기반으로 대조 손실을 산출하며, 상기 작업 수행 손실과 상기 대조 손실에 기반하여 전체 손실을 산출한 후, 상기 전체 손실을 기준치로 하여 상기 전체 작업 수행 모델의 초기 파라미터를 갱신하는 판별 및 갱신부를 포함하는,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 장치.
  18. 제17항에 있어서,
    상기 변조 정보 획득부는 상기 추정된 영역 및 작업으로부터 직접 또는 상기 추정된 영역 및 작업을 사용하여 지식 메모리로부터 상기 작업 수행 모델의 초기 파라미터의 변조 정보를 획득하는 것인,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 장치.
  19. 제18항에 있어서,
    상기 변조부는 상기 변조 정보 획득부에서 직접 획득한 변조 정보와, 상기 지식 메모리로부터 획득한 변조 정보를 합산하고, 합산된 변조 정보를 기반으로 상기 작업 수행 모델의 초기 파라미터를 변조하는 것인,
    멀티 영역 기반의 온라인 학습 및 퓨샷 학습이 통합된 온라인 베이지안 퓨샷 학습 장치.
KR1020200075025A 2020-06-19 2020-06-19 온라인 베이지안 퓨샷 학습 방법 및 장치 KR102564285B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200075025A KR102564285B1 (ko) 2020-06-19 2020-06-19 온라인 베이지안 퓨샷 학습 방법 및 장치
US17/353,136 US20210398004A1 (en) 2020-06-19 2021-06-21 Method and apparatus for online bayesian few-shot learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200075025A KR102564285B1 (ko) 2020-06-19 2020-06-19 온라인 베이지안 퓨샷 학습 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20210157128A KR20210157128A (ko) 2021-12-28
KR102564285B1 true KR102564285B1 (ko) 2023-08-08

Family

ID=79022402

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200075025A KR102564285B1 (ko) 2020-06-19 2020-06-19 온라인 베이지안 퓨샷 학습 방법 및 장치

Country Status (2)

Country Link
US (1) US20210398004A1 (ko)
KR (1) KR102564285B1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11742901B2 (en) * 2020-07-27 2023-08-29 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus
CN114491039B (zh) * 2022-01-27 2023-10-03 四川大学 基于梯度改进的元学习少样本文本分类方法
KR20230127509A (ko) 2022-02-25 2023-09-01 한국전자통신연구원 콘셉트 기반의 퓨샷 학습 방법 및 장치
CN114723998B (zh) * 2022-05-05 2023-06-20 兰州理工大学 基于大边界贝叶斯原型学习的小样本图像分类方法及装置
KR102680328B1 (ko) * 2023-01-25 2024-07-01 중앙대학교 산학협력단 의료 영상 분할을 위한 딥러닝 모델 최적화 방법 및 그 장치
CN117273467B (zh) * 2023-11-17 2024-01-26 江苏麦维智能科技有限公司 一种基于多因素耦合的工业安全风险管控方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Jian Zhang et al. "Variational Few-Shot Learning". 2019 IEEE/CVF International Conference on Computer Vision (ICCV). 2019.
Massimiliano Patacchiola et al. "Bayesian Meta-Learning for the Few-Shot Setting via Deep Kernel". 2019.10.11
Yaoyao Liu et al. "An Ensemble of Epoch-wise Empirical Bayes for Few-shot Learning". 2019.04.17.

Also Published As

Publication number Publication date
US20210398004A1 (en) 2021-12-23
KR20210157128A (ko) 2021-12-28

Similar Documents

Publication Publication Date Title
KR102564285B1 (ko) 온라인 베이지안 퓨샷 학습 방법 및 장치
CN108681746B (zh) 一种图像识别方法、装置、电子设备和计算机可读介质
CN109313720B (zh) 具有稀疏访问的外部存储器的增强神经网络
US10963792B1 (en) Method for training deep learning network based on artificial intelligence and learning device using the same
US11494689B2 (en) Method and device for improved classification
Rajagopal et al. Application of image quality assessment module to motion-blurred wood images for wood species identification system
US11574147B2 (en) Machine learning method, machine learning apparatus, and computer-readable recording medium
US12019747B2 (en) Adversarial interpolation backdoor detection
CN112529144B (zh) 一种面向短期时间序列预测的预期性学习方法和系统
Lods et al. Learning DTW-preserving shapelets
JP7192966B2 (ja) 検索装置、学習装置、検索方法、学習方法及びプログラム
CN113919497A (zh) 针对连续学习能力系统的基于特征操纵的攻击和防御方法
US10963720B2 (en) Estimating grouped observations
KR102345267B1 (ko) 목표 지향적 강화학습 방법 및 이를 수행하기 위한 장치
US20230267349A1 (en) Smart training and smart deployment of machine learning models
US11157811B2 (en) Stub image generation for neural network training
US20220012534A1 (en) Denoising autoencoder image captioning
Gurkan et al. YOLOv3 as a deep face detector
JPWO2012032747A1 (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
Chakravorty et al. Robust face tracking using multiple appearance models and graph relational learning
US20240185064A1 (en) Learning apparatus, method, non-transitory computer readable medium and inference apparatus
JP7416255B2 (ja) 学習装置、学習方法および学習プログラム
JP2019159988A (ja) ニューラルネットワーク装置及びプログラム
US20230034782A1 (en) Learning-based clean data selection
CN114299430B (zh) 视频解析模型的训练方法、装置、视频解析方法及装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant