KR102445230B1 - 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치 - Google Patents

태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치 Download PDF

Info

Publication number
KR102445230B1
KR102445230B1 KR1020220015945A KR20220015945A KR102445230B1 KR 102445230 B1 KR102445230 B1 KR 102445230B1 KR 1020220015945 A KR1020220015945 A KR 1020220015945A KR 20220015945 A KR20220015945 A KR 20220015945A KR 102445230 B1 KR102445230 B1 KR 102445230B1
Authority
KR
South Korea
Prior art keywords
content
natural language
language processing
model
task
Prior art date
Application number
KR1020220015945A
Other languages
English (en)
Inventor
양윤석
김규석
김민삼
박준영
Original Assignee
(주)뤼이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)뤼이드 filed Critical (주)뤼이드
Priority to KR1020220015945A priority Critical patent/KR102445230B1/ko
Priority to KR1020220116099A priority patent/KR20230120080A/ko
Application granted granted Critical
Publication of KR102445230B1 publication Critical patent/KR102445230B1/ko
Priority to US18/166,021 priority patent/US20230252244A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

본 출원의 일 실시예에 따른 태스크 모델 및 자연어 처리 모델의 학습 방법은, 복수의 사용자들이 소비한 컨텐츠 세트 및 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하는 단계; 사전 학습된 자연어 처리 모델을 통하여, 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하는 단계; 태스크 모델을 통하여, 상기 텍스트 임베딩 및 상기 로그 데이터로부터 태스크와 관련된 출력값을 획득하는 단계; 상기 출력값과 상기 태스크의 목표값에 기초하여 상기 태스크 모델의 가중치를 갱신하는 단계; 및 상기 태스크 모델로부터 상기 자연어 처리 모델을 훈련시키기 위한 역전파(Backpropagation) 정보를 획득하고, 상기 역전파 정보에 기초하여 상기 자연어 처리 모델을 훈련시키는 단계;를 포함할 수 있다.

Description

태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치{A METHOD FOR LEARNING A TASK MODEL AND A LANGUAGE MODEL, AND A LEARNING DEVICE FOR PERFORMING THE SAME}
본 출원은 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치에 관한 것이다. 구체적으로 협업 필터링 방식을 통하여 태스크 모델 및 자연어 처리를 수행하는 자연어 처리 모델을 학습시키는 방법, 및 이를 수행하는 학습 장치에 관한 것이다.
인공지능 기술이 발전하면서 다양한 산업 분야에서 인공지능 기술들이 활용되고 있다. 특히, 교육 분야 또는 컨텐츠 추천 분야에서 인공지능 기술을 접목하여 사용자의 지식을 연산하거나 컨텐츠를 추천하는 모델(태스크 모델)을 개발하거나, 태스크 모델의 성능을 높이기 위한 기술에 대한 연구 및 개발이 활발하게 수행되고 있다. 특히, 교육 혹은 컨텐츠라는 분야의 특성 상 인공지능 모델을, 언어적 관계성을 분석하기 위한 자연어 처리 모델, 즉 대형 자연어 처리 모델(Pretrained Language Model)과 협업 필터링 학습 방식을 활용하여 훈련시키는 기술에 대한 연구가 주목을 받고 있다.
다만, 대형 자연어 처리 모델은 성능을 높이기 위하여 상당히 많은 파라미터를 포함하며 이러한 많은 파라미터들을 학습시키게 된다. 예컨대, GPT-3와 같은 자연어 처리 모델은 약 1750억개의 파라미터를 학습시켜야 한다. 특히 대형 자연어 처리 모델은, 훈련 횟수에 비례하여 연산양이 늘어나게 되며, 연산양이 늘어남에 따라 훈련 시간과 훈련 비용이 필연적으로 기하급수적으로 증가되어 실 사용에 큰 부담이 존재한다는 제약이 존재하였다.
이에, 연산양을 줄일 수 있는 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하기 위한 학습 장치의 개발이 요구된다.
본 발명이 해결하고자 하는 일 과제는, 태스크 모델 및 자연어 처리 모델의 학습에 요구되는 연산양을 감소시킬 수 있는 태스크 모델 및 자연어 처리 모델의 학습 방법, 이를 수행하는 학습 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 출원의 일 실시예에 따른 태스크 모델 및 자연어 처리 모델의 학습 방법은, 복수의 사용자들이 소비한 컨텐츠 세트 및 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하는 단계; 사전 학습된 자연어 처리 모델을 통하여, 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하는 단계; 태스크 모델을 통하여, 상기 텍스트 임베딩 및 상기 로그 데이터로부터 태스크와 관련된 출력값을 획득하는 단계; 상기 출력값과 상기 태스크의 목표값에 기초하여 상기 태스크 모델의 가중치를 갱신하는 단계; 및 상기 태스크 모델로부터 상기 자연어 처리 모델을 훈련시키기 위한 역전파(Backpropagation) 정보를 획득하고, 상기 역전파 정보에 기초하여 상기 자연어 처리 모델을 훈련시키는 단계;를 포함할 수 있다.
본 출원의 일 실시예에 따른 학습 장치는, 복수의 컨텐츠를 포함하는 컨텐츠 세트 및 상기 컨텐츠에 대한 사용자별 로그 데이터를 송수신부; 및 상기 컨텐츠 및 상기 로그 데이터로부터 상기 자연어 처리 모델 및 상기 태스크 모델을 훈련시키도록 구성된 컨트롤러;를 포함하되, 상기 컨트롤러는, 복수의 사용자들이 소비한 컨텐츠 세트 및 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하고, 사전 학습된 자연어 처리 모델을 통하여, 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하고, 태스크 모델을 통하여, 상기 텍스트 임베딩 및 상기 로그 데이터로부터 태스크와 관련된 출력값을 획득하고, 상기 출력값과 상기 태스크의 목표값에 기초하여 상기 태스크 모델의 가중치를 갱신하고, 상기 태스크 모델로부터 상기 자연어 처리 모델을 훈련시키기 위한 역전파(Backpropagation) 정보를 획득하고, 상기 역전파 정보에 기초하여 상기 자연어 처리 모델을 훈련시키도록 구성될 수 있다.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 출원의 일 실시예에 따른 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 학습 장치에 의하면, 컨텐츠별로 자연어 처리 모델을 학습시켜 자연어 처리 모델의 학습 횟수를 감소시킴으로써, 자연어 처리 모델의 시간 복잡성(Time Complexity)을 줄일 수 있다.
본 출원의 일 실시예에 따른 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 학습 장치에 의하면, 태스크 모델의 성능은 목표하는 수준으로 유지하면서도 자연어 처리 모델의 훈련에 소요되는 시간과 비용을 상당히 감소시킬 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 출원의 일 실시예에 따른 학습 장치에 관한 개략도이다.
도 2는 본 출원의 일 실시예에 따른 태스크 모델과 자연어 처리 모델의 학습 방법의 일 양상을 도시한 도면이다.
도 3은 본 출원의 일 실시예에 따른 학습 방법과 종래의 학습 방법을 비교하기 위한 도면이다.
도 4는 본 출원의 일 실시예에 따른 태스크 모델과 자연어 처리 모델의 학습 방법을 도시한 순서도이다.
도 5는 본 출원의 일 실시예에 따른 자연어 처리 모델을 훈련시키는 단계를 구체화한 순서도이다.
본 출원의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 출원은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.
본 출원과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 출원의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.
이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다.
예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.
본 출원의 일 실시예에 따른 태스크 모델 및 자연어 처리 모델의 학습 방법은, 복수의 사용자들이 소비한 컨텐츠 세트 및 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하는 단계; 사전 학습된 자연어 처리 모델을 통하여, 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하는 단계; 태스크 모델을 통하여, 상기 텍스트 임베딩 및 상기 로그 데이터로부터 태스크와 관련된 출력값을 획득하는 단계; 상기 출력값과 상기 태스크의 목표값에 기초하여 상기 태스크 모델의 가중치를 갱신하는 단계; 및 상기 태스크 모델로부터 상기 자연어 처리 모델을 훈련시키기 위한 역전파(Backpropagation) 정보를 획득하고, 상기 역전파 정보에 기초하여 상기 자연어 처리 모델을 훈련시키는 단계;를 포함할 수 있다.
본 출원의 일 실시예에 따르면, 상기 자연어 처리 모델을 훈련시키는 단계는, 사용자의 로그 데이터를 상기 컨텐츠 세트에 포함된 컨텐츠 항목 별로 분류하는 단계; 및 상기 분류된 사용자의 로그 데이터에 대응되는 컨텐츠에 기초하여, 상기 태스크 모델의 정확도가 높아지도록 상기 자연어 처리 모델을 학습시키는 단계;를 포함할 수 있다.
본 출원의 일 실시예에 따르면, 상기 자연어 처리 모델을 학습시키는 단계는, 상기 컨텐츠 항목에 대응되는 상기 역전파 정보에 기초하여 상기 자연어 처리 모델에 포함된 파라미터를 갱신하는 단계;를 더 포함할 수 있다.
본 출원의 일 실시예에 따르면, 상기 자연어 처리 모델의 학습에 필요한 시간 복잡성(Time Complexity)은 상기 컨텐츠 세트에 포함된 컨텐츠의 수와 관련될 수 있다.
본 출원의 일 실시예에 따르면, 상기 학습 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.
본 출원의 일 실시예에 따른 학습 장치는, 복수의 컨텐츠를 포함하는 컨텐츠 세트 및 상기 컨텐츠에 대한 사용자별 로그 데이터를 송수신부; 및 상기 컨텐츠 및 상기 로그 데이터로부터 상기 자연어 처리 모델 및 상기 태스크 모델을 훈련시키도록 구성된 컨트롤러;를 포함하되, 상기 컨트롤러는, 복수의 사용자들이 소비한 컨텐츠 세트 및 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하고, 사전 학습된 자연어 처리 모델을 통하여, 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하고, 태스크 모델을 통하여, 상기 텍스트 임베딩 및 상기 로그 데이터로부터 태스크와 관련된 출력값을 획득하고, 상기 출력값과 상기 태스크의 목표값에 기초하여 상기 태스크 모델의 가중치를 갱신하고, 상기 태스크 모델로부터 상기 자연어 처리 모델을 훈련시키기 위한 역전파(Backpropagation) 정보를 획득하고, 상기 역전파 정보에 기초하여 상기 자연어 처리 모델을 훈련시키도록 구성될 수 있다.
이하에서는 도 1 내지 도 5를 참고하여 본 출원의 실시예들에 따른 태스크 모델(Task Model)과 자연어 처리 모델(혹은 언어 모델, 이하 자연어 처리 모델로 지칭)의 학습 방법 및 이를 수행하는 학습 장치(1000)에 관하여 설명한다.
본 출원의 일 실시예에 따른 학습 장치(1000)는 협업 필터링 기법을 이용하여 태스크 모델 및 자연어 처리 모델을 학습시키는 동작을 수행할 수 있다. 구체적으로, 학습 장치(1000)는 사전 학습된 자연어 처리 모델을 통하여 컨텐츠에 포함된 텍스트에 대한 텍스트 임베딩을 획득할 수 있다. 또한, 학습 장치(1000)는 텍스트 임베딩 및 로그 데이터로부터, 태스크 모델을 통하여 태스크와 관련된 출력 값을 획득할 수 있다. 또한, 학습 장치(1000)는 출력 값과 태스크의 목표 값에 기초하여 태스크 모델의 파라미터를 갱신할 수 있다. 또한, 학습 장치(1000)는 태스크 모델로부터 역전파 정보(Back-propagation)를 획득하고, 역전파 정보에 기초하여 사전 학습된 자연어 처리 모델을 추가적으로 훈련시키도록 구성될 수 있다.
도 1은 본 출원의 일 실시예에 따른 학습 장치(1000)의 개략도이다.
본 출원의 일 실시예에 따른 학습 장치(1000)는 송수신부(1100), 메모리(1200) 및 컨트롤러(1300)를 포함할 수 있다.
송수신부(1100)는 임의의 외부 기기와 통신을 수행할 수 있다. 예컨대, 학습 장치(1000)는, 송수신부(1100)를 통해, 사전 학습된 자연어 처리 모델 및/또는 자연어 처리 모델을 실행시키기 위한 실행 데이터(예컨대, 자연어 처리 모델의 계층 정보, 연산 정보 및/또는 파라미터 정보 등)를 획득할 수 있다. 다른 예를 들면, 학습 장치(1000)는 송수신부(1100)를 통해, 사용자 단말로부터 사용자가 소비한 컨텐츠 세트에 포함된 컨텐츠 정보 및/또는 컨텐츠에 대한 로그 데이터를 획득할 수 있다.
학습 장치(1000)는, 송수신부(1100)를 통해 네트워크에 접속하여 각종 데이터를 송수신할 수 있다. 송수신부(1100)는 크게 유선 타입과 무선 타입을 포함할 수 있다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서 학습 장치(1000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다. 여기서, 무선 타입의 경우에는 주로 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식을 이용할 수 있다. 또는, 무선 타입의 경우에는 셀룰러 통신, 예컨대, LTE, 5G 계열의 통신 방식을 이용할 수 있다. 다만, 무선 통신 프로토콜이 상술한 예시에 제한되는 것은 아니며, 임의의 적절한 무선 타입의 통신 방식을 이용하는 것도 가능하다. 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.
메모리(1200)는 각종 정보를 저장할 수 있다. 메모리(1200)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 메모리(1200)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. 메모리(1200)는 학습 장치(1000)에 내장되는 형태나 탈부착 가능한 형태로 제공될 수 있다. 메모리(1200)에는 학습 장치(1000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 학습 장치(1000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 학습 장치(1000)의 동작에 필요한 각종 데이터가 저장될 수 있다.
컨트롤러(1300)는 학습 장치(1000)의 전반적인 동작을 제어할 수 있다. 예컨대, 컨트롤러(1300)는 후술할 복수의 사용자들이 소비한 컨텐츠 세트 및/또는 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하는 동작, 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하는 동작, 텍스트 임베딩 및 로그 데이터로부터 태스크와 관련된 출력값을 획득하는 동작, 출력 값과 태스크의 목표 값에 기초하여 태스크 모델의 가중치를 갱신하는 동작, 및/또는 자연어 처리 모델을 훈련시키기 위한 역전파(back-propagation) 정보를 획득하고 역전파 정보에 기초하여 자연어 처리 모델을 훈련시키는 동작 등을 포함하여 학습 장치(1000)의 전반적인 동작을 제어할 수 있다. 구체적으로 컨트롤러(1300)는 메모리(1200)로부터 학습 장치(1000)의 전반적인 동작을 위한 프로그램을 로딩하여 실행할 수 있다. 컨트롤러(1300)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 AP(Application Processor), CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 이때, 하드웨어적으로는 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될 수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.
이하에서는 도 2를 참고하여, 상술한 목적과 효과를 달성하기 위한 본 출원의 일 실시예에 따른 학습 장치(1000)의 태스크 모델 및 자연어 처리 모델을 학습시키는 동작을 구체적으로 서술한다. 도 2는 본 출원의 일 실시예에 따른 태스크 모델과 자연어 처리 모델의 학습 방법의 일 양상을 도시한 도면이다.
본 출원의 일 실시예에 따른 학습 장치(1000)는 사전 학습된 자연어 처리 모델(Pretrained Language Model, PLM)을 획득할 수 있다. 구체적으로 학습 장치(1000)는 사전 학습된 자연어 처리 모델을 실행시키기 위한 실행 데이터(예컨대, 자연어 처리 모델의 계층 정보, 연산 정보, 및/또는 가중치(파라미터) 정보 등)를 획득할 수 있다. 여기서, 사전 학습된 자연어 처리 모델은 BERT 모델, GPT-3 모델, ROBERTA 모델, UniLM 모델, MiniLM 모델 중 하나일 수 있다. 다만 이는 예시에 불과하며, 사전 학습된 자연어 처리 모델은 임의의 적절한 언어 모델일 수 있다.
본 출원의 일 실시예에 따른 학습 장치(1000)는 복수의 사용자들이 소비한 컨텐츠 세트에 포함된 컨텐츠를 획득할 수 있다. 여기서 컨텐츠는 텍스트 데이터를 포함할 수 있으며, 컨텐츠는 문제, 뉴스, 웹 페이지 등을 포함하여 임의의 텍스트가 포함된 데이터를 포괄하는 의미일 수 있다. 한편 컨텐츠 세트는 제1 컨텐츠 및 제2 컨텐츠를 포함하여 복수의 컨텐츠들을 포함할 수 있다.
본 출원의 일 실시예에 따른 학습 장치(1000)는 사전 학습된 자연어 처리 모델을 통하여, 컨텐츠로부터 컨텐츠에 포함된 텍스트와 관련된 텍스트 임베딩(Text Embedding)을 획득할 수 있다. 구체적으로 학습 장치(1000)는 사전 학습된 자연어 처리 모델에 컨텐츠를 입력하고, 사전 학습된 자연어 처리 모델이 출력하는 컨텐츠의 텍스트와 관련된 텍스트 임베딩을 획득할 수 있다. 또한 학습 장치(1000)는 사전 학습된 자연어 처리 모델을 통하여 추출된 텍스트 임베딩을 태스크 모델에 입력하도록 구현될 수 있다.
또한, 본 출원의 일 실시예에 따른 학습 장치(1000)는 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자들의 로그 데이터를 획득할 수 있다. 구체적으로 학습 장치(1000)는 제1 컨텐츠에 대한 제1 사용자의 로그 데이터, 제2 사용자의 로그 데이터 및/또는 제N 사용자의 로그 데이터를 획득할 수 있다. 혹은 학습 장치(1000)는 제2 컨텐츠에 대한 제1 사용자의 로그 데이터, 제2 사용자의 로그 데이터 및/또는 제N 사용자의 로그 데이터를 획득할 수 있다.
한편, 컨텐츠가 문제인 경우, 학습 장치(1000)는 문제에 대한 사용자들의 풀이 로그 데이터를 획득할 수 있다. 다른 예를 들면, 컨텐츠가 뉴스라면, 학습 장치(1000)는 뉴스에 대한 사용자들의 열람 로그 데이터를 획득할 수 있다. 이하에서는 컨텐츠가 문제인 경우를 예시하여 설명하기로 한다. 다만, 이는 설명의 편의를 위한 것일 뿐, 이에 제한되어 해석되지 않는다.
본 출원의 일 실시예에 따른 학습 장치(1000)는, 태스크 모델을 통하여, 텍스트 임베딩 및 로그 데이터로부터 출력 값을 획득할 수 있다. 구체적으로 학습 장치(1000)는 태스크 모델에 컨텐츠로부터 추출된 텍스트 임베딩 및 컨텐츠에 대한 사용자의 로그 데이터를 입력하고, 태스크 모델을 통하여 출력되는 출력 값을 획득할 수 있다.
이때, 출력 값은 태스크 모델의 태스크(Task, 혹은 업무)와 관련된 값일 수 있다. 예컨대, 컨텐츠가 문제인 경우에는, 태스크 모델의 태스크는 사용자의 예상 점수를 연산하는 것일 수 있다. 이때, 태스크 모델을 통하여 출력되는 출력 값은 사용자의 예상 점수에 관한 값일 수 있다. 다른 예를 들면, 컨텐츠가 문제인 경우에는, 태스크 모델의 태스크는 사용자에게 추천할 문제를 결정하는 것일 수 있다. 이때, 태스크 모델을 통하여 출력되는 출력 값은 결정된 추천 문제에 관한 값일 수 있다. 또 다른 예를 들면, 컨텐츠가 문제인 경우에는, 태스크 모델의 태스크는 사용자의 임의의 문제에 대한 예상 정답율을 연산하는 것일 수 있다. 이때, 태스크 모델을 통하여 출력되는 출력 값은 임의의 문제에 대한 예상 정답율에 관한 값일 수 있다.
본 출원의 일 실시예에 따른 학습 장치(1000)는 태스크 모델을 통하여 출력되는 출력 값과 목표 값에 기초하여 태스크 모델을 갱신할 수 있다. 구체적으로 학습 장치(1000)는 출력 값과 목표 값을 비교하고, 출력 값과 목표 값의 차이가 최소화되도록 태스크 모델에 포함된 임의의 노드의 가중치(혹은 파라미터)를 조절하거나, 갱신할 수 있다. 예컨대, 학습 장치(1000)는 출력 값과 목표 값을 비교한 결과에 기초하여 로스 함수를 획득하고, 로스 함수를 태스크 모델에 부여함으로써 태스크 모델에 포함된 임의의 노드의 가중치를 조절하도록 구성될 수 있다.
본 출원의 일 실시예에 따른 학습 장치(1000)는 태스크 모델로부터 사전 학습된 자연어 처리 모델을 추가적으로 훈련시키기 위한 역전파(Back-propagation) 정보를 획득할 수 있다. 역전파 정보는 태스크 모델의 정확도와 연계되고 자연어 처리 모델에 포함된 가중치(혹은 파라미터)를 어떠한 방향으로 얼마만큼 변화시킬지를 지시하는 갱신 정보를 포함할 수 있다.
학습 장치(1000)는 태스크 모델의 정확도를 높이기 위하여 역전파 정보에 기초하여 사전 학습된 자연어 처리 모델을 추가적으로 훈련시킬 수 있다. 구체적으로 학습 장치(1000)는 역전파 정보를 자연어 처리 모델에 입력할 수 있으며, 역전파 정보에는 태스크 모델의 정확도를 높이기 위하여 자연어 처리 모델의 가중치를 어떠한 방향으로 얼마만큼 변화시킬지를 지시하는 갱신 정보가 포함되어 있기 때문에, 자연어 처리 모델은 역전파 정보에 기초하여 자연어 처리 모델에 포함된 가중치(혹은 파라미터)를 갱신하거나 조절할 수 있다.
이하에서는 도 3을 참고하여 본 출원의 일 실시예에 따른 자연어 처리 모델의 학습 방법을 보다 구체적으로 설명한다. 도 3은 본 출원의 일 실시예에 따른 학습 방법과 종래의 학습 방법을 비교하기 위한 도면이다.
종래의 학습 방법에 따르면, 사전 학습된 자연어 처리 모델은 사용자의 수와 평균 소비 컨텐츠 수(혹은 평균 풀이 수)를 곱한 횟수만큼 자연어 처리 모델을 훈련시켜왔다.
사용자 1은 컨텐츠 1(도 3의 A), 컨텐츠 2(도 3의 B), 컨텐츠 3(도 3의 C), 컨텐츠 4(도 3의 D)와 컨텐츠 5(도 3의 E)에 대하여, 사용자 2는 컨텐츠 1(A), 컨텐츠 4(D)와 컨텐츠 5(E)에 대하여, 사용자 3은 컨텐츠 2(B)에 대하여 2회, 컨텐츠 3(C)과 컨텐츠 4(D)에 대하여 풀이를 수행하였다고 가정한다. 이때 종래의 학습 방법에 따르면, 사용자의 수(예컨대, 도 3의 3명)와 평균 풀이 수(예컨대, 도 3의 4번)를 곱한 횟수(예컨대, 12회)만큼 자연어 처리 모델의 가중치를 조정하는 훈련을 수행하게 되었다. 다만, 대형 자연어 처리 모델은 성능을 높이기 위하여 상당히 많은 수의 파라미터를 포함하고 있기 때문에, 훈련 횟수가 늘어남에 따라 필연적으로 상당히 많은 양의 연산이 요구되었다는 문제가 있었다. 또한, 연산양이 증가됨에 따라 훈련 시간과 훈련 비용이 상당히 소요된다는 문제가 있었다.
본 출원의 일 실시예에 따른 학습 장치(1000)는 컨텐츠별로 자연어 처리 모델을 추가적으로 훈련시킬 수 있다. 구체적으로 학습 장치(1000)는 사용자들의 로그 데이터를 컨텐츠 세트에 포함된 컨텐츠 별로 분류하고, 분류된 컨텐츠 항목별로 자연어 처리 모델을 학습시키도록 구성될 수 있다. 이때, 학습 장치(1000)는 태스크 모델의 정확도가 높아지도록 컨텐츠 항목별로 자연어 처리 모델의 가중치를 조정할 수 있다.
일 실시예에 따르면, 학습 장치(1000)는 사용자들의 로그 데이터들을 컨텐츠 항목 별로 분류할 수 있다. 예컨대, 학습 장치(1000)는 사용자 1의 컨텐츠 1(A)에 대한 로그 데이터와 사용자 2의 컨텐츠 1(A)에 대한 로그 데이터를 컨텐츠 1(A)에 대한 제1 로그 데이터 세트로 분류할 수 있다. 또한, 학습 장치(1000)는 사용자 1의 컨텐츠 2(B)에 대한 로그 데이터와 사용자 3의 컨텐츠 2(B)에 대한 로그 데이터를 제2 로그 데이터 세트로 분류할 수 있다. 또한, 학습 장치(1000)는 사용자 1의 컨텐츠 3(C)에 대한 로그 데이터와 사용자 3의 컨텐츠 3(C)에 대한 로그 데이터를 제3 로그 데이터 세트로 분류할 수 있다. 또한, 학습 장치(1000)는 사용자 1의 컨텐츠 4(D)에 대한 로그 데이터, 사용자 2의 컨텐츠 4(D)에 대한 로그 데이터와 사용자 3의 컨텐츠 4(D)에 대한 로그 데이터를 제4 로그 데이터 세트로 분류할 수 있다. 또한, 학습 장치(1000)는 사용자 1의 컨텐츠 5(E)에 대한 로그 데이터와 사용자 2의 컨텐츠 5(E)에 대한 로그 데이터를 제5 로그 데이터 세트로 분류할 수 있다.
일 실시예에 따르면, 학습 장치(1000)는, 분류된 컨텐츠 항목에 기초하여, 각 컨텐츠 항목에 대응되는 역전파 정보에 기초하여 자연어 처리 모델에 포함된 파라미터를 갱신함으로써, 자연어 처리 모델을 훈련시킬 수 있다. 예컨대, 학습 장치(1000)는 제1 로그 데이터 세트 내지 제5 로그 데이터 세트 각각 및/또는 각 로그 데이터 세트에 대응되는 컨텐츠를 자연어 처리 모델에 입력할 수 있다. 이때, 자연어 처리 모델은 입력값과 각 컨텐츠에 대응되는 역전파 정보에 기초하여 자연어 처리 모델에 포함된 가중치를 조절할 수 있다.
컨텐츠 항목별로 자연어 처리 모델을 훈련시키는 학습 방법을 통하여, 자연어 처리 모델은 총 컨텐츠의 수(예컨대, 도 3의 총 5회)만큼 훈련될 수 있다. 따라서, 본 출원의 일 실시예에 따르면, 종래 기술 대비 자연어 처리 모델의 학습 횟수를 상당하게 줄일 수 있다. 예컨대, 도 3을 참고하면, 종래 기술은 12번의 자연어 처리 모델의 훈련 횟수가 요구되는 데 반해, 본 출원의 학습 방법은 5번의 자연어 처리 모델의 횟수가 요구된다. 즉, 본 출원의 일 실시예에 따른 학습 방법은 태스크 모델의 성능을 목표하는 수준으로 유지하면서도, 자연어 처리 모델과 관련된 시간 복잡성(Time Complexity)을 줄일 수 있다. 구체적으로 종래 기술의 시간 복잡성은 사용자의 수*사용자의 평균 소비 컨텐츠 수(예컨대, 도 3의 사용자의 수(3)*사용자의 평균 소비 컨텐츠 수(4))에 비례하게 된다. 반면, 본원발명의 시간 복잡성은 컨텐츠의 수(예컨대, 도 3의 컨텐츠의 수(5))와 관련되어, 시간 복잡성이 종래 기술의 시간 복잡성에 비해서 상대적으로 감소될 수 있다. 이를 통하여 본 출원의 일 실시예에 따른 학습 방법은 태스크 모델과 자연어 처리 모델의 학습에 요구되는 시간과 비용을 줄일 수 있다는 유리한 효과를 제공할 수 있다.
한편 도 3에서는 사용자의 수와 컨텐츠의 수를 특정 값으로 예시하여 설명하였다. 다만 이는 설명의 편의에 불과하며, 이에 제한해석되어서는 아니된다. 또한, 본 출원의 일 실시예에 따른 학습 방법은 임의의 사용자의 수와 임의의 컨텐츠의 수인 경우에 대하여도 유추적용될 수 있을 것이다.
본 출원의 일 실시예에 따라 학습이 완료된 태스크 모델 및 자연어 처리 모델은 하나의 대상 모델을 구성할 수 있다. 이때, 대상 모델은 새로운 컨텐츠(예컨대, 새로운 문제 컨텐츠 및/또는 새로운 뉴스 컨텐츠 등)에 기초하여 새로운 컨텐츠에 대한 사용자의 예상 정답 확률(또는 예상 점수)을 연산하거나, 새로운 컨텐츠와 관련성이 높은 컨텐츠를 추천하는 등의 태스크를 수행하는 데 이용될 수 있다.
일 실시예에 따르면, 대상 모델은 새로운 컨텐츠에 대한 태스크의 결과에 따라 갱신될 필요가 존재할 수 있다. 이 경우에는 새로운 컨텐츠에 대한 태스크의 결과에 따라 대상 모델의 태스크 모델의 가중치 및/또는 자연어 처리 모델의 가중치가 갱신될 수 있다.
일 실시예에 따르면, 대상 모델을 이용하여 태스크를 수행하는 경우 자연어 처리 모델은 연산양의 감소와 연산속도의 증대를 위하여 자연어 처리 모델의 '학습'이 비활성화될 수 있다.
이하에서는 도 4 내지 도 5를 참고하여 본 출원의 일 실시예에 따른 학습 방법에 대하여 보다 구체적으로 설명한다. 학습 방법을 설명함에 있어서, 앞서 설명한 내용과 중복되는 일부 실시예는 생략될 수 있으나, 이는 설명의 편의를 위한 것일 뿐이며, 제한적으로 해석되어서는 아니된다.
도 4는 본 출원의 일 실시예에 따른 태스크 모델과 자연어 처리 모델의 학습 방법을 도시한 순서도이다.
본 출원의 일 실시예에 따른 학습 방법은, 복수의 사용자들이 소비한 컨텐츠 세트 및 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하는 단계(S1000), 사전 학습된 자연어 처리 모델을 통하여, 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하는 단계(S2000), 태스크 모델을 통하여, 텍스트 임베딩 및 로그 데이터로부터 태스크와 관련된 출력값을 획득하는 단계(S3000), 출력값과 태스크의 목표값에 기초하여 태스크 모델의 가중치를 갱신하는 단계(S4000), 및 태스크 모델로부터 자연어 처리 모델을 훈련시키기 위한 역전파 정보를 획득하고, 역전파 정보에 기초하여 자연어 처리 모델을 훈련시키는 단계(S5000)를 포함할 수 있다.
복수의 사용자들이 소비한 컨텐츠 세트 및 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하는 단계(S1000)에서는, 학습 장치(1000)는 복수의 사용자들이 소비한 컨텐츠 세트에 포함된 컨텐츠를 획득할 수 있다. 여기서 컨텐츠는 텍스트 데이터를 포함할 수 있으며, 문제, 뉴스, 웹 페이지 등을 포함하여 임의의 텍스트가 포함된 데이터를 포괄하는 의미일 수 있다.
또한, 복수의 사용자들이 소비한 컨텐츠 세트 및 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하는 단계(S1000)에서는, 학습 장치(1000)는 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자들의 로그 데이터를 획득할 수 있다. 구체적으로 학습 장치(1000)는 제1 컨텐츠에 대한 제1 사용자의 로그 데이터, 제2 사용자의 로그 데이터 및/또는 제N 사용자의 로그 데이터를 획득할 수 있다. 혹은 학습 장치(1000)는 제2 컨텐츠에 대한 제1 사용자의 로그 데이터, 제2 사용자의 로그 데이터 및/또는 제N 사용자의 로그 데이터를 획득할 수 있다. 일 예로, 컨텐츠가 문제인 경우, 학습 장치(1000)는 문제에 대한 사용자들의 풀이 로그 데이터를 획득할 수 있다.
사전 학습된 자연어 처리 모델을 통하여, 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하는 단계(S2000)에서는, 학습 장치(1000)는 사전 학습된 자연어 처리 모델을 통하여, 컨텐츠로부터 컨텐츠에 포함된 텍스트와 관련된 텍스트 임베딩을 획득할 수 있다. 구체적으로 학습 장치(1000)는 사전 학습된 자연어 처리 모델에 컨텐츠를 입력하고, 사전 학습된 자연어 처리 모델이 출력하는 컨텐츠의 텍스트와 관련된 텍스트 임베딩을 획득할 수 있다. 또한 학습 장치(1000)는 사전 학습된 자연어 처리 모델을 통하여 추출된 텍스트 임베딩을 태스크 모델에 입력하도록 구현될 수 있다.
태스크 모델을 통하여, 텍스트 임베딩 및 로그 데이터로부터 태스크와 관련된 출력값을 획득하는 단계(S3000)에서는, 학습 장치(1000)는 태스크 모델을 통하여, 텍스트 임베딩 및 로그 데이터로부터 출력 값을 획득할 수 있다. 구체적으로 학습 장치(1000)는 태스크 모델에 컨텐츠로부터 추출된 텍스트 임베딩 및 컨텐츠에 대한 사용자의 로그 데이터를 입력하고, 태스크 모델을 통하여 출력되는 출력 값을 획득할 수 있다. 이때, 출력 값은 태스크 모델의 태스크(Task)와 관련된 값일 수 있다.
일 예로, 컨텐츠가 문제인 경우에는, 태스크 모델의 태스크는 사용자의 예상 점수를 연산하는 것일 수 있다. 이때, 태스크 모델을 통하여 출력되는 출력 값은 사용자의 예상 점수에 관한 값일 수 있다.
일 예로, 컨텐츠가 문제인 경우에는, 태스크 모델의 태스크는 사용자에게 추천할 문제를 결정하는 것일 수 있다. 이때, 태스크 모델을 통하여 출력되는 출력 값은 결정된 추천 문제에 관한 값일 수 있다.
일 예로, 컨텐츠가 문제인 경우에는, 태스크 모델의 태스크는 사용자의 임의의 문제에 대한 예상 정답율을 연산하는 것일 수 있다. 이때, 태스크 모델을 통하여 출력되는 출력 값은 임의의 문제에 대한 예상 정답율에 관한 값일 수 있다.
일 예로, 컨텐츠가 뉴스인 경우에는, 태스크 모델의 태스크는 유사한 내용이나 관련성이 높은 다른 뉴스 컨텐츠를 결정하는 것일 수 있다. 이때, 태스크 모델을 통하여 출력되는 출력값은 결정된 뉴스 컨텐츠에 관한 값일 수 있다.
출력값과 태스크의 목표값에 기초하여 태스크 모델의 가중치를 갱신하는 단계(S4000)에서는, 학습 장치(1000)는 태스크 모델을 통하여 출력되는 출력 값과 목표 값에 기초하여 태스크 모델을 갱신할 수 있다. 구체적으로 학습 장치(1000)는 출력 값과 목표 값을 비교하고, 출력 값과 목표 값의 차이가 최소화되도록 태스크 모델에 포함된 임의의 노드의 가중치(혹은 파라미터)를 조절하거나, 갱신할 수 있다. 예컨대, 학습 장치(1000)는 출력 값과 목표 값을 비교한 결과에 기초하여 로스 함수를 획득하고, 로스 함수를 태스크 모델에 부여함으로써 태스크 모델에 포함된 임의의 노드의 가중치를 조절하도록 구성될 수 있다.
태스크 모델로부터 자연어 처리 모델을 훈련시키기 위한 역전파 정보를 획득하고, 역전파 정보에 기초하여 자연어 처리 모델을 훈련시키는 단계(S5000)에서는, 학습 장치(1000)는 학습 장치(1000)는 태스크 모델로부터 사전 학습된 자연어 처리 모델을 추가적으로 훈련시키기 위한 역전파(Back-propagation) 정보를 획득할 수 있다. 여기서, 역전파 정보는 태스크 모델의 정확도와 연계되고 자연어 처리 모델의 가중치를 어떠한 방향으로 얼마만큼 변화시킬지를 지시하는 갱신 정보를 포함할 수 있다.
또한, 태스크 모델로부터 자연어 처리 모델을 훈련시키기 위한 역전파 정보를 획득하고, 역전파 정보에 기초하여 자연어 처리 모델을 훈련시키는 단계(S5000)에서는, 학습 장치(1000)는 태스크 모델의 정확도를 높이기 위하여 역전파 정보에 기초하여 사전 학습된 자연어 처리 모델을 추가적으로 훈련시킬 수 있다. 구체적으로 학습 장치(1000)는 역전파 정보를 자연어 처리 모델에 입력할 수 있으며, 역전파 정보에는 태스크 모델의 정확도를 높이기 위하여 자연어 처리 모델의 가중치를 어떠한 방향으로 얼마만큼 변화시킬지를 지시하는 정보가 포함되어 있기 때문에, 자연어 처리 모델은 역전파 정보에 기초하여 자연어 처리 모델에 포함된 가중치(혹은 파라미터)를 갱신하거나 조절할 수 있다.
도 5는 본 출원의 일 실시예에 따른 자연어 처리 모델을 훈련시키는 단계(S5000)를 구체화한 순서도이다.
본 출원의 일 실시예에 따른 자연어 처리 모델을 훈련시키는 단계(S5000)는 사용자의 로그 데이터를 컨텐츠 세트에 포함된 컨텐츠 항목 별로 분류하는 단계(S5100) 및 분류된 사용자의 로그 데이터에 대응되는 컨텐츠에 기초하여 태스크 모델의 정확도가 높아지도록 자연어 처리 모델을 학습시키는 단계(S5200)를 포함할 수 있다.
사용자의 로그 데이터를 컨텐츠 세트에 포함된 컨텐츠 항목 별로 분류하는 단계(S5100)에서는, 학습 장치(1000)는 사용자들의 로그 데이터들을 컨텐츠 항목별로 분류할 수 있다. 예컨대, 다시 도 3을 참고하면, 학습 장치(1000)는 사용자 1의 컨텐츠 1(A)에 대한 로그 데이터와 사용자 2의 컨텐츠 1(A)에 대한 로그 데이터를 컨텐츠 1(A)에 대한 제1 로그 데이터 세트로 분류할 수 있다. 또한, 학습 장치(1000)는 사용자 1의 컨텐츠 2(B)에 대한 로그 데이터와 사용자 3의 컨텐츠 2(B)에 대한 로그 데이터를 제2 로그 데이터 세트로 분류할 수 있다. 또한, 학습 장치(1000)는 사용자 1의 컨텐츠 3(C)에 대한 로그 데이터와 사용자 3의 컨텐츠 3(C)에 대한 로그 데이터를 제3 로그 데이터 세트로 분류할 수 있다. 또한, 학습 장치(1000)는 사용자 1의 컨텐츠 4(D)에 대한 로그 데이터, 사용자 2의 컨텐츠 4(D)에 대한 로그 데이터와 사용자 3의 컨텐츠 4(D)에 대한 로그 데이터를 제4 로그 데이터 세트로 분류할 수 있다. 또한, 학습 장치(1000)는 사용자 1의 컨텐츠 5(E)에 대한 로그 데이터와 사용자 2의 컨텐츠 5€에 대한 로그 데이터를 제5 로그 데이터 세트로 분류할 수 있다.
분류된 사용자의 로그 데이터에 대응되는 컨텐츠에 기초하여 태스크 모델의 정확도가 높아지도록 자연어 처리 모델을 학습시키는 단계(S5200)에서는, 학습 장치(1000)는 분류된 컨텐츠 항목에 기초하여, 각 컨텐츠 항목에 대응되는 역전파 정보에 기초하여 자연어 처리 모델에 포함된 파라미터를 갱신함으로써, 자연어 처리 모델을 훈련시킬 수 있다. 예컨대, 학습 장치(1000)는 제1 로그 데이터 세트 내지 제5 로그 데이터 세트 각각 및/또는 각 로그 데이터 세트에 대응되는 컨텐츠를 자연어 처리 모델에 입력할 수 있다. 이때, 자연어 처리 모델은 입력값과 각 컨텐츠에 대응되는 역전파 정보에 기초하여 자연어 처리 모델에 포함된 가중치를 조절할 수 있다.
본 출원의 일 실시예에 따른 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 학습 장치에 의하면, 컨텐츠 별로 자연어 처리 모델을 학습시켜 자연어 처리 모델의 학습 횟수를 감소시킴으로써, 자연어 처리 모델의 시간 복잡성(Time Complexity)을 줄일 수 있다.
본 출원의 일 실시예에 따른 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 학습 장치에 의하면, 태스크 모델의 성능은 목표하는 수준으로 유지하면서도 자연어 처리 모델의 훈련에 소요되는 시간과 비용을 상당히 감소시킬 수 있다.
상술한 학습 장치(1000)의 다양한 동작들은 학습 장치(1000)의 메모리(1200)에 저장될 수 있으며, 학습 장치(1000)의 컨트롤러(1300)는 메모리(1200)에 저장된 동작들을 수행하도록 제공될 수 있다.
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (6)

  1. 사전 학습된 자연어 처리 모델을 이용하여 태스크 모델을 튜닝하는 학습 장치가 태스크 모델 및 자연어 처리 모델을 학습시키는 방법에 있어서,
    복수의 사용자들이 소비한 컨텐츠 세트 및 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하는 단계;
    사전 학습된 자연어 처리 모델을 통하여, 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하는 단계;
    태스크 모델을 통하여, 상기 텍스트 임베딩 및 상기 로그 데이터로부터 태스크와 관련된 출력값을 획득하는 단계;
    상기 출력값과 상기 태스크의 목표값에 기초하여 상기 태스크 모델의 가중치를 갱신하는 단계; 및
    상기 태스크 모델로부터 상기 자연어 처리 모델을 훈련시키기 위한 역전파(Backpropagation) 정보를 획득하고, 상기 역전파 정보에 기초하여 상기 자연어 처리 모델을 훈련시키는 단계;를 포함하되,
    상기 자연어 처리 모델을 훈련시키는 단계는,
    사용자의 로그 데이터를 상기 컨텐츠 세트에 포함된 컨텐츠 항목 별로 분류하는 단계; 및
    상기 분류된 사용자의 로그 데이터에 대응되는 컨텐츠에 기초하여, 상기 태스크 모델의 정확도가 높아지도록 상기 자연어 처리 모델을 학습시키는 단계;를 포함하는,
    학습 방법.
  2. 삭제
  3. 제1 항에 있어서,
    상기 자연어 처리 모델을 학습시키는 단계는,
    상기 컨텐츠 항목에 대응되는 상기 역전파 정보에 기초하여 상기 자연어 처리 모델에 포함된 파라미터를 갱신하는 단계;를 더 포함하는,
    학습 방법.
  4. 제1 항에 있어서,
    상기 자연어 처리 모델의 학습에 필요한 시간 복잡성(Time Complexity)은 상기 컨텐츠 세트에 포함된 컨텐츠의 수와 관련되는,
    학습 방법.
  5. 컴퓨터에 제1 항, 제3 항 내지 제4 항 중 어느 하나의 항에 따른 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  6. 사전 학습된 자연어 처리 모델을 이용하여 태스크 모델을 튜닝하는 학습 장치는,
    복수의 컨텐츠를 포함하는 컨텐츠 세트 및 상기 컨텐츠에 대한 사용자별 로그 데이터를 송수신부; 및
    상기 컨텐츠 및 상기 로그 데이터로부터 상기 자연어 처리 모델 및 상기 태스크 모델을 훈련시키도록 구성된 컨트롤러;를 포함하되,
    상기 컨트롤러는,
    복수의 사용자들이 소비한 컨텐츠 세트 및 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 사용자별 로그 데이터를 획득하고, 사전 학습된 자연어 처리 모델을 통하여, 상기 컨텐츠 세트에 포함된 컨텐츠에 대한 텍스트 임베딩을 획득하고, 태스크 모델을 통하여, 상기 텍스트 임베딩 및 상기 로그 데이터로부터 태스크와 관련된 출력값을 획득하고, 상기 출력값과 상기 태스크의 목표값에 기초하여 상기 태스크 모델의 가중치를 갱신하고, 상기 태스크 모델로부터 상기 자연어 처리 모델을 훈련시키기 위한 역전파(Backpropagation) 정보를 획득하고, 상기 역전파 정보에 기초하여 상기 자연어 처리 모델을 훈련시키도록 구성되되,
    상기 컨트롤러는,
    사용자의 로그 데이터를 상기 컨텐츠 세트에 포함된 컨텐츠 항목 별로 분류하고, 상기 분류된 사용자의 로그 데이터에 대응되는 컨텐츠에 기초하여, 상기 태스크 모델의 정확도가 높아지도록 상기 자연어 처리 모델을 학습시키도록 구성되는,
    학습 장치.
KR1020220015945A 2022-02-08 2022-02-08 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치 KR102445230B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220015945A KR102445230B1 (ko) 2022-02-08 2022-02-08 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치
KR1020220116099A KR20230120080A (ko) 2022-02-08 2022-09-15 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치
US18/166,021 US20230252244A1 (en) 2022-02-08 2023-02-08 Method of learning task model and language model, and learning device for performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220015945A KR102445230B1 (ko) 2022-02-08 2022-02-08 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220116099A Division KR20230120080A (ko) 2022-02-08 2022-09-15 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치

Publications (1)

Publication Number Publication Date
KR102445230B1 true KR102445230B1 (ko) 2022-09-20

Family

ID=83446859

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220015945A KR102445230B1 (ko) 2022-02-08 2022-02-08 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치
KR1020220116099A KR20230120080A (ko) 2022-02-08 2022-09-15 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220116099A KR20230120080A (ko) 2022-02-08 2022-09-15 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치

Country Status (2)

Country Link
US (1) US20230252244A1 (ko)
KR (2) KR102445230B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12008332B1 (en) * 2023-08-18 2024-06-11 Anzer, Inc. Systems for controllable summarization of content

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210059845A (ko) * 2019-11-15 2021-05-26 에스케이텔레콤 주식회사 딥러닝 기반의 상황인지 컨텐츠 추천을 위한 장치 및 이를 위한 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210059845A (ko) * 2019-11-15 2021-05-26 에스케이텔레콤 주식회사 딥러닝 기반의 상황인지 컨텐츠 추천을 위한 장치 및 이를 위한 방법

Also Published As

Publication number Publication date
US20230252244A1 (en) 2023-08-10
KR20230120080A (ko) 2023-08-16

Similar Documents

Publication Publication Date Title
US11544573B2 (en) Projection neural networks
CN110880036B (zh) 神经网络压缩方法、装置、计算机设备及存储介质
EP3711000B1 (en) Regularized neural network architecture search
CN111406267B (zh) 使用性能预测神经网络的神经架构搜索
US11423264B2 (en) Entropy based synthetic data generation for augmenting classification system training data
US20230153622A1 (en) Method, Apparatus, and Computing Device for Updating AI Model, and Storage Medium
KR102445230B1 (ko) 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치
KR102406416B1 (ko) 학습 실력 평가 방법, 학습 실력 평가 장치 및 학습 실력 평가 시스템
CN112905809B (zh) 知识图谱学习方法和系统
JP2023552048A (ja) ハードウェアアクセラレータのためのニューラルアーキテクチャスケーリング
KR20230028130A (ko) 학습 실력 평가 방법, 학습 실력 평가 장치 및 학습 실력 평가 시스템
CN117999560A (zh) 机器学习模型的硬件感知渐进训练
CN111919199B (zh) 用于应用导航的神经网络系统和方法
KR102571826B1 (ko) 사용자의 검색 정보에 기초하여 웹 페이지를 추천하는 방법, 장치, 및 시스템
CN112115703A (zh) 文章评估方法及装置
CN111310823A (zh) 目标分类方法、装置和电子系统
KR102465680B1 (ko) 대화 상태 추적 방법, 대화 상태 추적 장치, 및 대화 상태 추적 시스템
CN113779396B (zh) 题目推荐方法和装置、电子设备、存储介质
US20240037373A1 (en) OneShot Neural Architecture and Hardware Architecture Search
US20230289558A1 (en) Quantization method for accelerating the inference of neural networks
US20230020929A1 (en) Write combine buffer (wcb) for deep neural network (dnn) accelerator
US20240046068A1 (en) Information processing device for improving quality of generator of generative adversarial network (gan)
IE20180149A1 (en) Projection neural networks
Irvan et al. Distributed Classifier System for Smart Home’s Machine Learning
CN116524260A (zh) 图像分类方法、图像分类模型的训练方法及装置