WO2022191513A1 - 데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법 - Google Patents

데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법 Download PDF

Info

Publication number
WO2022191513A1
WO2022191513A1 PCT/KR2022/003063 KR2022003063W WO2022191513A1 WO 2022191513 A1 WO2022191513 A1 WO 2022191513A1 KR 2022003063 W KR2022003063 W KR 2022003063W WO 2022191513 A1 WO2022191513 A1 WO 2022191513A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
solving
tracking model
knowledge tracking
user
Prior art date
Application number
PCT/KR2022/003063
Other languages
English (en)
French (fr)
Inventor
이시우
최영덕
김병수
박준영
Original Assignee
(주)뤼이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)뤼이드 filed Critical (주)뤼이드
Publication of WO2022191513A1 publication Critical patent/WO2022191513A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/06Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers

Definitions

  • FIG. 8 is a flowchart illustrating another example of determining a data augmentation method according to an overfitting factor that may affect prediction performance of a model.
  • FIG. 1 is a block diagram illustrating an operation of a knowledge tracking model learning system according to an embodiment of the present invention.
  • the problem solving data may be data in which a problem and a user's solution result for the problem are mapped.
  • the problem-solving data may consist of one or more problems solved by the user and a set of responses to them in a series sequence.
  • the knowledge tracking model trained based on the augmented data may exhibit predictive performance that is not biased by the characteristics of specific training data under limited training data.
  • the data augmentation method of replacement, insertion, and deletion will be described in more detail with reference to FIG. 4 to be described later.
  • the consistency normalization performing unit 231 may perform consistency normalization on the augmented data generated through substitution.
  • the monotonic normalization performing unit 232 may perform monotonic normalization on the augmented data generated through insertion or deletion.
  • the correct answer probability predicting unit 250 may predict various educational elements of the online environment, such as a test score to be acquired by the user, a grade, and a probability of departure during learning, in addition to the correct answer probability.
  • the generated augmented data1 may be subjected to parameter optimization through consistency normalization 502 .
  • the knowledge tracking model can be trained by applying the loss function in the direction of reducing the error by comparing the correct answer probability 1 and the correct answer probability 2.
  • step S607 the apparatus for learning the knowledge tracking model may learn the knowledge tracking model using the augmented data.
  • the knowledge tracking model apparatus may receive problem solving data from the user terminal.
  • the knowledge tracking model device may determine the augmentation method and the number of augmentations according to the augmentation score given in steps S703 to S707. In an embodiment, steps S703 to S707 may be partially omitted.
  • the augmentation method may include at least one of substitution, insertion, and deletion, and may be performed overlappingly with one or more augmentation methods.
  • the knowledge tracking model apparatus may perform step S809.
  • the knowledge tracking model apparatus may perform step S815.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명의 실시 예에 따른 데이터 증강에 기반하여 사용자의 정답 확률을 예측하는 지식 추적 모델 장치는, 사용자가 풀이한 문제와 문제에 대한 사용자의 응답이 맵핑된 문제풀이 데이터를 저장하는 문제풀이 데이터 저장부, 문제풀이 저장부로부터 상기 문제풀이 데이터를 수신하고, 문제풀이 데이터를 변환하여 증강 데이터를 생성하는 데이터 증강 수행부, 데이터 증강 수행부로부터 증강 데이터를 수신하고, 수행된 데이터 증강 방법에 따라 결정된 정규화 손실 함수를 이용하여 정규화 동작을 수행하는 정규화 수행부 및 지식 추적 모델에 증강 데이터를 입력하고, 증강 데이터에 포함된 문제풀이 기록과 사용자의 정답 확률과의 관계를 나타내는 가중치를 학습시키고, 가중치를 기초로 특정 문제에 대한 사용자의 정답 확률을 예측하는 지식 추적 모델을 학습하는 모델 학습부를 포함한다.

Description

데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법
본 발명은 데이터 증강에 기반하여 지식 추적 모델을 학습시키는 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법에 관한 발명이다.
최근 인터넷과 전자장치의 활용이 각 분야에서 활발히 이루어지며 교육 환경 역시 빠르게 변화하고 있다. 특히, 다양한 교육 매체의 발달로 학습자는 보다 폭넓은 학습 방법을 선택하고 이용할 수 있게 되었다. 그 중에서도 인터넷을 통한 교육 서비스는 시간적, 공간적 제약을 극복하고 저비용의 교육이 가능하다는 이점 때문에 주요한 교수 학습 수단으로 자리매김하게 되었다.
이러한 경향에 부응하여 이제는 제한된 인적, 물적 자원으로 오프라인 교육에서는 불가능했던 맞춤형 교육 서비스도 다양해지는 추세이다. 예를 들어, 인공지능을 활용하여 학습자의 개성과 능력에 따라 세분화된 교육 컨텐츠를 제공함으로써, 과거의 획일적 교육 방법에서 탈피하여 학습자의 개인 역량에 따른 교육 콘텐츠를 제공하고 있다.
지식 추적 모델은 학생의 학습 동선을 바탕으로 학생의 지식 습득 정도를 모델링하는 인공지능 모델이다. 구체적으로, 학생이 푼 문제와 응답에 대한 기록이 주어졌을 때, 주어진 다음 문제를 맞힐 확률이 얼마나 될지를 예측하는 것을 의미한다.
이러한 딥러닝 기반의 지식 추적 모델은 학습 데이터의 크기가 작을수록 과적합(overfitting)이 쉽게 일어난다는 문제가 있었다. 과적합이란 학습 데이터를 인공지능 모델에 과하게 학습시키는 것을 뜻한다. 실제 데이터를 모두 수집하는 것은 불가능하기 때문에, 일반적으로 실제 데이터의 부분 집합인 학습 데이터로만 인공지능 모델을 학습시키게 된다. 결국 충분하지 않은 학습 데이터로 학습된 인공지능 모델은 학습 데이터에만 치중되어 실제 데이터에 대해서는 예측 정확도가 떨어지는 문제가 발생한다.
과적합 문제를 해결하기 위해 이미 존재하는 데이터를 변형시켜 가상의 학습 데이터를 새롭게 만들어주는 데이터 증강(data augmentation) 기법이나, 특정 손실 함수를 이용해서 모델의 파라미터 수를 제한하거나 모델의 출력값에 제약을 주어 모델이 과적합 되는 것을 방지하는 정규화(regularization) 기법이 사용되고 있다.
다만, 온라인 교육 분야에서 학생의 실력을 평가하기 위한 지식 추적 모델에 적합한 데이터 증강 또는 정규화 기법에 대한 연구가 턱없이 부족한 실정이고, 특히 사용자의 문제풀이 데이터가 부족한 교육 영역에서는 과적합으로 인한 예측의 정확도가 떨어진다는 문제가 있었다.
전술한 문제를 해결하기 위해, 본 발명의 실시 예에 따른 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법은, 수집된 문제풀이 데이터의 각 문제를 일정한 확률로 대체(replacement)하거나, 특정 문제풀이 기록을 삽입(insertion) 혹은 삭제(deletion)하여 새로운 학습 데이터를 생성함으로써, 지식 추적 모델의 과적합 문제를 해결하고 예측 성능을 증가시킬 수 있다.
또한, 본 발명의 실시 예에 따른 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법은, 데이터 증강 방법에 따라 정규화 손실 함수를 정의하고, 원래의 문제풀이 데이터와 증강 데이터를 통한 모델 예측값을 비교하여 정규화함으로써, 지식 추적 모델의 과적합 문제를 해결하고 예측 성능을 증가시킬 수 있다.
또한, 본 발명의 실시 예에 따른 지식 추적 모델 학습 장치, 시스템 및 그것의 동작 방법은, 문제풀이 데이터베이스의 데이터 수, 문제풀이 데이터의 시퀀스 길이, 1 또는 0의 비율과 같이 모델의 예측 성능에 영향을 미칠 수 있는 과적합 요소에 따라 데이터 증강 방법 또는 증강 횟수를 결정함으로써 보다 효과적으로 과적합을 해결할 수 있다.
본 발명의 실시 예에 따른 데이터 증강에 기반하여 사용자의 정답 확률을 예측하는 지식 추적 모델 장치는, 사용자가 풀이한 문제와 문제에 대한 사용자의 응답이 맵핑된 문제풀이 데이터를 저장하는 문제풀이 데이터 저장부, 문제풀이 저장부로부터 상기 문제풀이 데이터를 수신하고, 문제풀이 데이터를 변환하여 증강 데이터를 생성하는 데이터 증강 수행부, 데이터 증강 수행부로부터 증강 데이터를 수신하고, 수행된 데이터 증강 방법에 따라 결정된 정규화 손실 함수를 이용하여 정규화 동작을 수행하는 정규화 수행부 및 지식 추적 모델에 증강 데이터를 입력하고, 증강 데이터에 포함된 문제풀이 기록과 사용자의 정답 확률과의 관계를 나타내는 가중치를 학습시키고, 가중치를 기초로 특정 문제에 대한 사용자의 정답 확률을 예측하는 지식 추적 모델을 학습하는 모델 학습부를 포함한다.
본 발명이 실시 예에 따른 데이터 증강에 기반하여 사용자의 정답 확률을 예측하는 지식 추적 모델 장치의 동작 방법은, 사용자 단말로부터 사용자가 풀이한 문제와 문제에 대한 사용자의 응답이 맵핑된 문제풀이 데이터를 저장하는 단계, 문제풀이 데이터를 변환하여 증강 데이터를 생성하고, 수행된 데이터 증강 방법에 따라 결정된 정규화 손실 함수를 이용하여 정규화 동작을 수행하는 단계 및 지식 추적 모델에 상기 증강 데이터를 입력하고, 증강 데이터에 포함된 문제풀이 기록과 사용자의 정답 확률과의 관계를 나타내는 가중치를 학습시키고, 가중치를 기초로 특정 문제에 대한 사용자의 정답 확률을 예측하는 지식 추적 모델을 학습하는 단계를 포함한다.
본 발명의 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법은, 수집된 문제풀이 데이터의 각 문제를 일정한 확률로 대체(replacement)하거나, 특정 문제풀이 기록을 삽입(insertion) 혹은 삭제(deletion)하여 새로운 학습 데이터를 생성함으로써, 지식 추적 모델의 과적합 문제를 해결하고 예측 성능을 증가시킬 수 있는 효과가 있다.
또한, 본 발명의 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법은, 데이터 증강 방법에 따라 정규화 손실 함수를 정의하고, 원래의 문제풀이 데이터와 증강 데이터의 모델 예측값을 비교하여 정규화함으로써, 지식 추적 모델의 과적합 문제를 해결하고 예측 성능을 증가시킬 수 있는 효과가 있다.
또한, 본 발명의 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법은, 문제풀이 데이터베이스의 데이터 수, 문제풀이 데이터의 시퀀스 길이, 1 또는 0의 비율과 같이 모델의 예측 성능에 영향을 미칠 수 있는 과적합 요소에 따라 데이터 증강 방법 또는 증강 횟수를 결정함으로써 보다 효과적으로 과적합을 해결할 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 지식 추적 모델 학습 시스템의 동작을 설명하기 위한 블록도이다.
도 2는 도 1의 정규화 수행부의 동작을 보다 상세하게 설명하기 위한 블록도이다.
도 3은 학습 단계 및 추론 단계에서 지식 추적 모델 학습 시스템의 동작을 보다 상세하게 설명하기 위한 블록도이다.
도 4는 문제풀이 데이터의 대체, 삽입 및 삭제의 데이터 증강을 설명하기 위한 도면이다.
도 5는 데이터 증강 방법에 따른 정규화 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 실시 예에 따른 지식 추적 모델 학습 장치의 동작방법을 설명하기 위한 순서도이다.
도 7은 부여된 증강 점수에 따라 증강 방법과 증강 횟수를 결정하는 일 실시 예를 설명하기 위한 순서도이다.
도 8은 모델의 예측 성능에 영향을 미칠 수 있는 과적합 요소에 따라 데이터 증강 방법을 결정하는 다른 시 예를 설명하기 위한 순서도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
본 명세서에 개시된 실시예를 설명함에 있어서 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
도 1은 본 발명의 실시 예에 따른 지식 추적 모델 학습 시스템의 동작을 설명하기 위한 블록도이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 모델 학습 시스템(50)은 사용자 단말(100) 및 지식 추적 모델 학습 장치(200)를 포함할 수 있다.
지식 추적 모델은 서로 다른 실력을 가지는 사용자들의 문제풀이 데이터로 학습되고, 이후 새로운 문제가 주어졌을 때 사용자의 정답 확률을 예측할 수 있다. 하지만 학습 데이터가 충분하지 못한 경우, 지식 추적 모델은 학습 데이터에 과도하게 치중되어 학습 데이터 외에 실제 문제풀이 데이터에 대해서는 정확한 정답 확률을 예측할 수 없다는 과적합의 문제가 있다.
이러한 문제를 해결하기 위해, 본 발명의 실시 예에 따른 지식 추적 모델 학습 장치(200)는, 사용자 단말(100)로부터 문제풀이 데이터를 수집하고 미리 설정된 알고리즘에 따라 데이터 증강 및 정규화를 수행할 수 있다. 문제풀이 데이터에 데이터 증강을 수행하여 생성된 새로운 데이터는 증강 데이터일 수 있다.
증강 데이터에 기초하여 지식 추적 모델은 학습될 수 있다. 이후 사용자 단말(100)로부터 문제풀이 데이터를 수신하면, 증강된 문제풀이 데이터로부터 지식 추적 모델에 기초하여 특정 문제에 대해 사용자가 답을 맞힐 확률인 정답 확률을 예측할 수 있다.
문제풀이 데이터는 문제와 해당 문제에 대한 사용자의 풀이결과가 맵핑된 데이터일 수 있다. 문제풀이 데이터는 사용자가 풀이한 하나 이상의 문제와 이에 대한 응답의 셋이 일련의 시퀀스로 구성될 수 있다.
지식 추적 모델 학습 장치(200)는 문제풀이 데이터 저장부(210), 데이터 증강 수행부(220), 정규화 수행부(230) 및 모델 학습부(240)를 포함할 수 있다.
문제풀이 데이터 저장부(210)는 사용자가 풀이한 문제와 문제에 대한 사용자의 응답이 맵핑된 문제풀이 데이터를 저장할 수 있다.
문제풀이 데이터 저장부(210)는 사용자가 문제를 풀이할 때마다 사용자 단말(100)로부터 문제풀이 데이터를 수신하여 저장할 수 있다. 또한, 문제풀이 데이터 저장부(210)는 사용자 단말(100)을 거치지 않고도 관리자로부터 문제풀이 데이터 셋을 직접 입력 받아 저장할 수도 있다.
문제풀이 데이터 저장부(210)는 사용자가 문제를 풀이할 때마다, 또는 문제풀이 데이터를 관리자로부터 직접 입력 받을 때마다 저장된 문제풀이 데이터를 업데이트할 수 있다.
데이터 증강 수행부(220)는 문제풀이 데이터 저장부(210)로부터 문제풀이 데이터를 수신하고, 문제풀이 데이터를 변환하여 증강 데이터를 생성할 수 있다. 증강 데이터 생성을 위한 알고리즘은 딥러닝 기계 학습 구조의 성능을 향상시키기 위한 형태로 데이터를 변환하는 모든 처리를 포함할 수 있다.
본 발명의 실시 예에서, 데이터 증강은 문제풀이 데이터의 일부 또는 전부의 문제풀이 기록을 일정한 확률로 대체하거나, 문제풀이 데이터의 일부 또는 전부의 문제풀이 기록을 삽입 또는 삭제하는 동작을 포함할 수 있다.
1) 대체의 경우, 대체를 통해 사용자가 실제로 풀이한 문제들 중 일부가 실제로 풀이하지 않은 유사한 문제로 대체될 수 있다. 대체는 유사한 문제들에 대해서는 사용자들이 유사한 학습 동선을 가지고 있고, 따라서 유사한 문제들에 대해서는 정답 확률이 크게 바뀌지 않을 것이라는 가정을 기초로 한다.
예를 들어, 사용자가 문제 Q1을 맞혔을 때, 문제풀이 데이터의 Q1 문제풀이 기록을 삭제하고 비슷한 유형과 난이도를 가지는 문제 Q1a를 맞혔다고 대체하여 기록하는 것이다.
실시 예에서, 유사한 문제는 동일한 유형과 난이도를 가지는 문제 세트에 포함된 문제들 중, 인공지능 예측 결과 정답 확률이 가장 높은 문제일 수 있다. 다만, 유사한 문제 선택은 이에 한정되지 않으며 실시 예에 따라 다양하게 정의될 수 있다.
대체를 통해 사용자가 실제로 풀이하지 않은 유사한 문제에 대해서도 풀이한 것으로 가정하여 기록함으로써, 지식 추적 모델의 학습 데이터를 증가시킬 수 있는 효과가 있다.
2) 삽입의 경우, 문제풀이 데이터의 기존의 문제풀이 기록에, 사용자가 아직 풀이하지 않은 가상의 문제풀이 기록을 추가로 삽입할 수 있다. 추가되는 문제를 맞혔다고 기록하는 경우, 지식 추적 모델의 예측 정답 확률은 증가할 것이다. 반대로, 추가되는 문제를 틀렸다고 기록하는 경우, 지식 추적 모델의 예측 정답 확률은 감소할 것이다.
3) 삭제의 경우, 문제풀이 데이터의 기존의 문제풀이 기록 중 일부 또는 전부를 삭제할 수 있다. 삭제되는 문제가 사용자가 맞힌 문제였던 경우, 지식 추적 모델의 예측 정답 확률은 감소할 것이다. 반대로, 삭제되는 문제가 사용자가 틀린 문제였던 경우, 지식 추적 모델의 예측 정답 확률은 증가할 것이다.
삽입과 삭제의 경우, 사용자가 맞힌 문제 수가 많을수록 예측 정답 확률은 증가하고, 반대로 사용자가 틀린 문제 수가 많을수록 예측 정답 확률은 감소할 것이라는 가정을 기초로 한다.
실시 예에 따라, 대체, 삽입, 삭제 각각의 증강 방법은 적어도 한 번 이상 동시에 수행될 수 있다. 예를 들어, 두 번의 대체 증강을 통해 2개의 증강 데이터를 생성하고, 한 번의 삽입 증강을 통해 1개의 증강 데이터를 생성하고, 세 번의 삭제 증강을 통해 3개의 증강 데이터를 생성할 수 있다. 이렇게 하나의 문제풀이 데이터로부터 총 6개의 증강 데이터가 생성될 수 있다.
일 실시 예에서, 삽입 또는 삭제는 풀이 결과를 맞힌 경우 또는 틀린 경우 중 어느 하나로 응답을 고정한 후 데이터 증강이 수행될 수 있다.
예를 들어, 풀이 결과를 맞힌 경우로 고정하고 문제풀이 기록을 삽입하는 데이터 증강을 수행하면서, 정답 확률이 점차 증가하도록 정규화 손실 함수를 정의하는 방향으로 정규화를 수행할 수 있다. 또는, 풀이 결과를 틀린 경우로 고정하고 문제풀이 기록을 삭제하는 데이터 증강을 수행하면서, 정답 확률이 점차 증가하도록 정규화 손실 함수를 정의하는 방향으로 정규화를 수행할 수도 있다.
대체, 삽입, 삭제의 데이터 증강은 과적합을 발생시킬 수 있는 다양한 요소들(예를 들어, 문제풀이 데이터베이스의 데이터 수, 문제풀이 데이터 시퀀스 길이, 문제풀이 데이터의 1 또는 0의 비율, …에 따라 어느 하나가 선택되거나 또는 중첩적으로 수행될 수 있다. 증강 처리 방법의 선택은 후술되는 도 6 및 도 7에 대한 설명에서 보다 상세하게 설명하도록 한다.
증강된 데이터에 기초하여 학습된 지식 추적 모델은, 한정된 학습 데이터 하에서 특정 학습 데이터의 특성에 편향되지 않는 예측 성능을 나타낼 수 있다. 대체, 삽입, 삭제의 데이터 증강방법은 후술하는 도 4를 통해 보다 상세하게 설명하도록 한다.
정규화 수행부(230)는 데이터 증강 수행부(220)로부터 증강 데이터를 수신하고, 수행된 데이터 증강 방법에 따라 결정된 정규화 손실 함수를 이용하여 정규화 동작을 수행할 수 있다.
정규화 동작은 미리 설정된 정규화 손실 함수를 이용해서 지식 추적 모델의 파라미터 수를 제한하거나 모델의 출력값에 제한을 거는 동작일 수 있다.
실시 예에서, 정규화 동작에는 일관성 정규화(consistency regularization)와 단조 정규화(monotonicity regularization)가 포함될 수 있다. 일관성 정규화는 데이터 증강 방법 중 “대체”로 생성된 증강 데이터의 정규화 기법일 수 있다. 단조 정규화는 데이터 증강 방법 중 “삽입” 또는 “삭제”로 생성된 증강 데이터의 정규화 기법일 수 있다.
정규화 손실 함수는 일관성 정규화 손실 함수와 단조 정규화 손실 함수를 포함할 수 있다.
도 2는 도 1의 정규화 수행부의 동작을 보다 상세하게 설명하기 위한 블록도이다. 도 2를 참조하면, 정규화 수행부(230)는 일관성 정규화 수행부(231) 및 단조 정규화 수행부(232)를 포함할 수 있다.
일관성 정규화 수행부(231)는 대체를 통해 생성된 증강 데이터에 대해 일관성 정규화를 수행할 수 있다. 단조 정규화 수행부(232)는 삽입 또는 삭제를 통해 생성된 증강 데이터에 대해 단조 정규화를 수행할 수 있다.
일관성 정규화와 단조 정규화는 서로 다른 정규화 손실 함수를 이용해 파라미터를 최적화할 수 있다.
일관성 정규화 동작에는, 원래의 문제풀이 데이터에 대한 예측된 정답 확률과 데이터 증강을 통해 새로 만들어진 문제풀이 데이터에 대한 예측된 정답 확률을 비교하여, 그 차이(손실)를 줄여 나가는 방향으로 지식 추적 모델을 학습시키는 일관성 정규화 손실 함수가 이용될 수 있다.
예를 들어, 증강되지 않은 문제풀이 데이터에 대한 예측 정답 확률이 0.90이고 증강 데이터에 대한 예측 정답 확률이 0.85인 경우, 0.05의 차이를 줄여 나가는 방향으로 지식 추적 모델의 가중치를 조정할 수 있다.
단조 정규화 동작에는, 문제풀이 데이터에 대한 예측 정답 확률과 새로 만들어진 문제풀이 데이터에 대한 예측 정답 확률을 비교하여, 단조성이라는 귀납편향을 지식 추적 모델에 적용하는 단조 정규화 손실 함수가 이용될 수 있다.
예를 들어, 삽입을 통해 맞힌 문제풀이 기록을 추가할수록 예측된 정답 확률이 증가하도록 손실 함수를 정의할 수 있다. 또는, 삽입을 통해 틀린 문제풀이 기록을 추가할수록 예측된 정답 확률이 감소하도록 단조 정규화 손실 함수를 정의할 수 있다.
삭제의 경우, 맞힌 문제풀이 기록을 삭제할수록 예측된 정답 확률이 감소하도록 손실 함수를 정의할 수 있다. 또는, 틀린 문제풀이 기록을 삭제할수록 예측된 정답 확률이 증가하도록 손실 함수를 정의할 수 있다.
모델 학습부(240)는 지식 추적 모델에 증강 데이터를 입력하고, 증강 데이터에 포함된 문제풀이 기록과 사용자의 정답 확률과의 관계를 나타내는 가중치를 조정하는 방법으로 지식 추적 모델을 학습시킬 수 있다.
지식 추적 모델은 학습 결과 결정된 가중치를 기초로, 특정 문제에 대한 사용자의 정답 확률을 예측하도록 학습될 수 있다.
본 발명의 실시 예에 따르면, 수집된 문제풀이 데이터의 각 문제를 일정한 확률로 대체, 삽입 또는 삭제하여 새로운 학습 데이터를 생성함으로써, 지식 추적 모델의 학습 데이터를 증가시켜 과적합 문제를 해결하고 예측 성능을 증가시킬 수 있는 효과가 있다.
또한, 본 발명의 실시 예에 따르면, 데이터 증강 방법에 따라 최적의 정규화 손실 함수를 정의하고 정규화 동작을 수행함으로써, 지식 추적 모델의 과적합 문제를 해결하고 예측 성능을 증가시킬 수 있는 효과가 있다.
도 3은 학습 단계 및 추론 단계에서 지식 추적 모델 학습 시스템의 동작을 보다 상세하게 설명하기 위한 블록도이다.
도 3을 참조하면, 학습 단계에서, 문제풀이 데이터 저장부(210)는 문제풀이 데이터를 데이터 증강 수행부(220) 및 정규화 수행부(230)에 전달할 수 있다.
데이터 증강 수행부(220)는 문제풀이 데이터 저장부(210)로부터 문제풀이 데이터를 수신하고, 미리 설정된 알고리즘에 따라 문제풀이 데이터를 변환하여 증강 데이터를 생성할 수 있다. 증강 데이터 생성을 위한 알고리즘은 딥러닝 기계 학습 구조의 성능을 향상시키기 위한 형태로 데이터를 변환하는 모든 처리를 포함할 수 있다.
본 발명의 실시 예에서, 데이터 증강 수행부(220)는 지식 추적 모델의 성능에 영향을 미치는 과적합 요소를 고려하여, 대체, 삽입, 삭제 중 적어도 어느 하나의 방법에 따라 증강 데이터를 생성할 수 있다.
과적합 요소는 문제풀이 데이터 저장부의 데이터 수, 문제풀이 데이터 시퀀스의 길이, 문제풀이 데이터에서 1 또는 0의 비율을 포함할 수 있다
정규화 수행부(230)는 데이터 증강 수행부(220)로부터 증강 데이터를 수신하고, 문제풀이 데이터 저장부(210)로부터 문제풀이 데이터를 수신할 수 있다.
이후, 정규화 수행부(230)는 문제풀이 데이터를 이용해 학습된 모델에서 예측된 정답 확률과 증강 데이터를 이용해 학습된 모델에서 예측된 정답 확률을 서로 비교하여, 미리 설정한 손실 함수에 따라 지식 추적 모델을 학습시킬 수 있다.
정규화 동작은 미리 정의된 손실 함수를 이용해서 인공지능 모델의 파라미터 수를 제한하거나 모델의 출력값에 제한을 거는 동작일 수 있다. 실시 예에서, 정규화 동작에는 일관성 정규화와 단조 정규화가 포함될 수 있다.
일관성 정규화는 데이터 증강 방법 중 “대체”로 생성된 증강 데이터의 정규화 기법일 수 있다. 단조 정규화는 데이터 증강 방법 중 “삽입” 또는 “삭제”로 생성된 증강 데이터의 정규화 기법일 수 있다.
일관성 정규화와 단조 정규화는 서로 다른 손실 함수를 이용해 파라미터를 최적화할 수 있다.
일관성 정규화 동작에는, 원래의 문제풀이 데이터에 대한 예측된 정답 확률과 데이터 증강을 통해 새로 만들어진 문제풀이 데이터에 대한 예측된 정답 확률을 비교하여, 그 차이(손실)를 줄여 나가는 방향으로 지식 추적 모델을 학습시키는 일관성 정규화 손실 함수를 이용할 수 있다.
단조 정규화 동작에는, 문제풀이 데이터에 대한 예측 정답 확률과 새로 만들어진 문제풀이 데이터에 대한 예측 정답 확률을 비교하여, 단조성이라는 귀납편향을 지식 추적 모델에 적용하는 단조 정규화 손실 함수를 이용할 수 있다.
정답확률 예측부(250)는 문제풀이 데이터와 증강 데이터를 기초로 학습된 지식 추적 모델을 통해 주어진 문제에 대한 사용자의 정답 확률을 예측할 수 있다.
다만, 실시 예에 따라 정답확률 예측부(250)는 정답 확률 이외에 사용자가 취득할 시험 점수, 등급, 학습 도중 이탈할 확률 등 다양한 온라인 환경의 교육적 요소들을 예측할 수도 있다.
문제풀이 데이터와 증강 데이터를 이용하여 학습을 마친 지식 추적 모델(300)은 이후, 사용자로부터 문제풀이 데이터를 수신하면, 사용자가 아직 풀이하지 않은 문제에 대한 정답 확률을 예측하는데 사용될 수 있다.
추론 단계에서, 사용자는 사용자 단말(100)을 통해 문제를 풀이하고 문제풀이 데이터를 지식 추적 모델(300)에 전송할 수 있다.
지식 추적 모델(300)가 문제풀이 데이터를 수신하면, 정답확률 예측부(250)는 사용자가 아직 풀이하지 않은 문제를 맞힐 정답 확률을 연산할 수 있다. 예측된 정답 확률은 사용자에게 추천할 문제를 결정하는데 사용될 수 있기 때문에, 학습 효율을 극대화할 수 있는 문제를 사용자에게 추천할 수 있는 효과가 있다.
도 4는 문제풀이 데이터의 데이터 증강을 보다 상세하게 설명하기 위한 도면이다.
도 4를 참조하면, 문제풀이 데이터로부터 서로 다른 데이터 증강 방법을 기초로 증강 데이터를 생성하는 것을 도시하고 있다.
구체적으로, 도 4는 네 개의 문제와 응답 셋{(Q1,1), (Q2,0), (Q3,1), (Q4,0)}으로 구성된 문제풀이 데이터를 기초로, 대체(replacement)를 통해 증강 데이터1를, 삽입(insertion)를 통해 증강 데이터2를, 삭제(deletion)를 통해 증강 데이터3을 각각 생성하는 것을 도시하고 있다.
문제풀이 데이터의 “1”은 사용자가 해당 문제를 맞힌 것을 의미하고, “”은 사용자가 해당 문제를 틀린 것을 의미할 수 있다. 즉, 문제응답 데이터의 문제풀이 기록을 통해 사용자가 Q1 및 Q3는 맞히고, Q2 및 Q4는 틀린 것으로 해석할 수 있다.
예측된 정답 확률은 문제풀이 데이터로 학습된 지식 추적 모델을 이용하여 사용자가 해당 문제를 맞힐 확률을 예측한 결과일 수 있다. 도 4에서, 지식 추적 모델은 Q1은 60%, Q2는 30%, Q3는 80%, Q4는 50%로 각각 맞힐 확률을 예측한 것을 도시하고 있다.
먼저 대체를 통해 증강 데이터1을 생성하는 과정을 설명하도록 한다.
데이터 증강 수행부는 사용자가 풀이한 문제들 중 일부 문제를 유사한 문제로 대체할 수 있다. 유사한 문제는 동일한 유형과 난이도를 가지는 문제 세트에 포함된 문제들 중, 인공지능 예측 결과 정답 확률이 가장 높은 문제일 수 있다. 다만, 유사한 문제의 정의는 이에 한정되지 않으며 실시 예에 따라 다양하게 정의될 수 있다.
증강 데이터1은 문제 Q1과 Q3를 각각 이와 동일한 유형과 난이도를 가지는 문제인 Q1a와 Q3a로 대체한 경우이다. 사용자는 Q1과 Q3를 맞혔기 때문에, 유사한 문제인 Q1a와 Q3a 또한 맞힐 것으로 설정하고, (Q1,1)과 (Q3,1)를 각각 (Q1a,1)과 (Q3a,1)의 문제풀이 기록으로 대체할 수 있다.
문제풀이 데이터의 대체에 따라, 증강 데이터1이라는 새로운 학습 데이터가 생성될 수 있다.
다음으로 삽입을 통해 증강 데이터2를 생성하는 과정을 설명하도록 한다.
데이터 증강 수행부는 사용자가 아직 풀이하지 않은 문제에 대해 가상의 문제풀이 기록을 생성하고, 기존의 문제풀이 데이터에 삽입할 수 있다. 삽입되는 문제풀이 기록은 다양한 방법으로 결정될 수 있다.
일 실시 예에서, 데이터 증강 수행부는 사용자의 풀이결과를 고정시키고 임의의 문제를 추출하는 방법으로 삽입할 문제풀이 기록을 생성할 수 있다. 예를 들어, 사용자의 풀이결과를 맞힌 경우(“1”또는 틀린 경우(“”) 중 어느 하나로 고정시키고, 아직 풀이하지 않은 문제들 중 임의의 문제를 추출하여 고정된 풀이결과에 맵핑하는 방법으로 삽입될 문제풀이 기록을 생성할 수 있다.
도 4의 실시 예에서, 사용자가 맞힌 경우(“”로 풀이결과를 고정시키고, 사용자가 아직 풀이하지 않은 문제인 Qa와 Qb를 풀이결과 “1”에 맵핑시켜 (Qa,1) 및 (Qb,1)이라는 문제풀이 기록을 생성한 것이다.
새로운 문제풀이 기록이 삽입된 문제풀이 데이터는 삽입 전 문제풀이 데이터에 비해 맞힌 문제가 증가하였다. 따라서 삽입에 따라 생성된 증강 데이터2로 학습된 지식 추적 모델은, 삽입 전 문제풀이 데이터로 학습된 지식 추적 모델보다 동일한 문제에 대해 더 높은 정답 확률을 출력할 것이다.
증강 데이터2를 보면, Q1 내지 Q4의 예측된 정답 확률이 증강 전 문제풀이 데이터의 경우보다 10%씩 상승한 것을 확인할 수 있다. 문제풀이 데이터의 삽입에 따라, 증강 데이터2이라는 새로운 학습 데이터가 생성될 수 있다.
다음으로 삭제를 통해 증강 데이터3을 생성하는 과정을 설명하도록 한다.
데이터 증강 수행부는 사용자의 문제풀이 기록을 기존의 문제풀이 데이터에서 삭제할 수 있다. 삭제되는 문제풀이 기록은 다양한 방법으로 결정될 수 있다.
일 실시 예에서, 데이터 증강 수행부는 사용자의 풀이결과를 고정시키고, 고정된 풀이결과를 가지는 문제들 중 임의의 문제풀이 기록을 삭제할 문제풀이 기록으로 결정할 수 있다.
예를 들어, 사용자의 풀이결과를 맞힌 경우(“1”또는 틀린 경우(“”) 중 어느 하나로 고정시키고, 고정된 풀이결과를 가지는 임의의 문제풀이 기록 중 적어도 어느 하나를 삭제될 문제풀이 기록으로 결정할 수 있다.
다른 실시 예에서, 데이터 증강 수행부는 고정된 풀이결과를 가지는 문제들 중 예측된 정답 확률이 높은 순서로 삭제할 문제풀이 기록을 결정할 수도 있다.
도 4의 실시 예에서, 사용자가 맞힌 경우(“”로 풀이결과를 고정시키고, 고정된 풀이결과 “1”을 가지는 문제풀이 기록인 (Q1,1)과 (Q3,1) 중, (Q1,1)을 삭제될 문제풀이 기록으로 결정한 것을 도시하고 있다.
일부 문제풀이 기록이 삭제된 문제풀이 데이터는 삭제 전 문제풀이 데이터에 비해 맞힌 문제가 감소하였다. 따라서 삭제에 따라 생성된 증강 데이터3으로 학습된 지식 추적 모델은, 삽입 전 문제풀이 데이터로 학습된 지식 추적 모델보다 동일한 문제에 대해 더 낮은 정답 확률을 출력할 것이다.
증강 데이터3을 보면, Q2 내지 Q3의 예측된 정답 확률이 증강 전 문제풀이 데이터의 경우보다 10%씩 감소한 것을 확인할 수 있다. 문제풀이 데이터의 삽입에 따라, 증강 데이터3이라는 새로운 학습 데이터가 생성될 수 있다.
삽입과 삭제의 경우, 원래의 문제풀이 데이터에 대한 예측 정답 확률과 새로 만들어진 증강 데이터에 대한 예측 정답 확률을 비교하여, 단조성이라는 귀납편향을 모델에 주는 단조 정규화를 수행할 수 있다.
이는 문제를 더 많이 맞히거나 덜 틀린 학생이 더 실력이 좋은 것이라는 가정에 근거하여, 문제를 더 많이 맞았을 경우 지식 추적 모델의 예측값이 증가해야 한다는 귀납편향을 단조 정규화 손실 함수를 이용해서 모델에 적용할 수 있다.
마찬가지로, 문제를 덜 맞히거나 더 틀린 학생이 실력이 좋지 않을 것이라는 가정을 단조 정규화 손실 함수를 이용해서 지식 추적 모델에 적용할 수 있다.
도 5는 데이터 증강 방법에 따른 정규화 동작을 설명하기 위한 도면이다.
도 5를 참조하면, 도 4에서 생성된 증강 데이터로 지식 추적 모델을 학습시키면서 정규화 동작을 수행하는 과정을 도시하고 있다.
도 4에서 전술한 바와 같이, 문제풀이 데이터는 데이터 증강(501)을 통해 증강 데이터1, 증강 데이터2, 증강 데이터3이 생성될 수 있다.
문제풀이 데이터, 증강 데이터1, 증강 데이터2, 증강 데이터3은 각각 인공지능 모델의 학습 데이터로 사용되어 각각의 경우 사용자의 정답 확률이 예측될 수 있다.
문제풀이 데이터로 학습된 모델의 예측값은 정답 확률 1, 증강 데이터1로 학습된 모델의 예측값은 정답 확률2, 증강 데이터2로 학습된 모델의 예측값은 정답 확률3, 증강 데이터3으로 학습된 모델의 예측값은 정답 확률3일 수 있다.
대체로 생성된 증강 데이터1은 일관성 정규화(502)를 통해 파라미터 최적화가 수행될 수 있다. 정답 확률1과 정답 확률2를 비교하여 오차를 줄여 나가는 방향으로 손실 함수를 적용하여 지식 추적 모델을 학습시킬 수 있다.
결과적으로 대체로 생성된 증강 데이터1은 문제풀이 데이터와 매우 근접한 오차범위 내의 정답 확률을 출력하게 학습될 수 있다.
삽입으로 생성된 증강 데이터2는 제1 단조 정규화(503)를 통해 파라미터 최적화가 수행될 수 있다.
증강 데이터2는 증강 전 문제풀이 데이터보다 문제를 맞힌 풀이기록을 더 많이 포함하기 때문에, 정답 확률1과 비교하여 정답 확률3이 더 높은 예측값을 가지도록 손실 함수를 적용하여 지식 추적 모델을 학습시킬 수 있다.
삭제로 생성된 증강 데이터3은 제2 단조 정규화(504)를 통해 파라미터 최적화가 수행될 수 있다.
증강 데이터3은 증강 전 문제풀이 데이터보다 문제를 맞힌 풀이기록을 더 적게 포함하기 때문에, 정답 확률1과 비교하여 정답 확률4가 더 낮은 예측값을 가지도록 손실 함수를 적용하여 지식 추적 모델을 학습시킬 수 있다.
도 6은 본 발명의 실시 예에 따른 지식 추적 모델 학습 장치의 동작방법을 설명하기 위한 순서도이다.
도 6을 참조하면, S601 단계에서, 지식 추적 모델 학습 장치는 사용자 단말로부터 문제풀이 데이터를 수신할 수 있다. 또는, 관리자로부터 문제풀이 데이터를 직접 입력 받고 모델 학습을 위한 데이터로 저장할 수 있다.
S603 단계에서, 지식 추적 모델 학습 장치는 문제풀이 데이터에 대한 데이터 증강을 통해 증강 데이터를 생성할 수 있다. 기존 문제풀이 데이터로 학습된 지식 추적 모델은 증강된 데이터로 추가학습 됨으로써 보다 향상된 예측성능을 가질 수 있다.
S605 단계에서, 지식 추적 모델 학습 장치는 데이터 증강에 이용된 증강 방법에 따라 정규화 동작을 수행할 수 있다. 정규화 동작은 대체로 생성된 증강 데이터의 경우 일관성 정규화 손실 함수를 이용하여 수행될 수 있다. 삽입 또는 삭제로 생성된 증강 데이터의 경우 단조 정규화 손실 함수를 이용하여 수행될 수 있다.
S607 단계에서, 지식 추적 모델 학습 장치는 증강 데이터를 이용하여 지식 추적 모델을 학습할 수 있다.
구체적으로, 지식 추적 모델에 증강 데이터를 입력하고, 증강 데이터에 포함된 문제풀이 기록과 사용자의 정답 확률과의 관계를 나타내는 가중치를 학습시킬 수 있다. 지식 추적 모델은 학습 결과 결정된 가중치를 기초로 특정 문제에 대한 사용자의 정답 확률을 예측할 수 있다.
S609 단계에서, 지식 추적 모델 학습 장치는 학습된 지식 추적 모델을 ㅗㅇ해 특정 문제에 대한 사용자의 정답 확률을 예측할 수 있다.
도 7은 부여된 증강 점수에 따라 증강 방법과 증강 횟수를 결정하는 일 실시 예를 설명하기 위한 순서도이다.
도 7을 참조하면, S701 단계에서, 지식 추적 모델 장치는 사용자 단말로부터 문제풀이 데이터를 수신할 수 있다.
S703 단계에서, 지식 추적 모델 장치는 문제풀이 데이터베이스의 데이터 수에 따라 증강 점수를 부여할 수 있다. 증강 점수는 이후 증강 방법과 횟수를 결정하는 지표로 사용될 수 있다. 문제풀이 데이터베이스는 문제풀이 정보 저장부를 지칭할 수 있다.
S705 단계에서, 지식 추적 모델 장치는 문제풀이 데이터의 시퀀스 길이에 따라 증강 점수를 부여할 수 있다.
S707 단계에서, 지식 추적 모델 장치는 문제풀이 데이터의 1 또는 0의 비율에 따라 증강 점수를 부여할 수 있다. 1은 사용자가 문제를 맞힌 경우이고, 0은 문제를 틀린 경우일 수 있다.
S709 단계에서, 지식 추적 모델 장치는 S703 내지 S707 단계에서 부여된 증강 점수에 따라 증강 방법과 증강 횟수를 결정할 수 있다. 실시 예에서, S703 내지 S707 단계는 일부는 생략될 수 있다. 증강 방법은 대체, 삽입, 삭제 중 적어도 어느 하나를 포함할 수 있으며, 한 가지 이상의 증강 방법에 중첩적으로 수행될 수 있다.
도 8은 모델의 예측 성능에 영향을 미칠 수 있는 과적합 요소에 따라 데이터 증강 방법을 결정하는 다른 실시 예를 설명하기 위한 순서도이다.
도 8을 참조하면, S801 단계에서 지식 추적 모델 장치는 사용자 단말로부터 문제풀이 데이터를 수신할 수 있다.
S803 단계에서, 지식 추적 모델 장치는 문제풀이 데이터베이스의 데이터 수에 따라 데이터 증강을 수행할지 여부를 결정할 수 있다. 예를 들어, 제1 기준값 A보다 데이터 수가 많을 경우, 지식 추적 모델 장치는 데이터 증강을 생략하고 문제풀이 데이터를 이용하여 지식 추적 모델을 학습시킬 수 있다. (S805)
문제풀이 데이터베이스의 데이터 수가 A보다 적을 경우, 지식 추적 모델 장치는 S807 단계를 수행할 수 있다.
S807 단계에서, 지식 추적 모델 장치는 문제풀이 데이터의 시퀀스 길이가 제2 기준값 B보다 큰지 여부를 판단할 수 있다.
문제풀이 데이터의 시퀀스의 길이가 제2 기준값 B보다 작은 경우, 지식 추적 모델 장치는 S809 단계를 수행할 수 있다. 문제풀이 데이터 시퀀스의 길이가 제2 기준값 B보다 큰 경우, 지식 추적 모델 장치는 S815 단계를 수행할 수 있다.
S809 단계에서, 지식 추적 모델 장치는 대체, 삽입, 삭제의 데이터 증강을 통해 증강 데이터를 생성할 수 있다. 시퀀스 길이가 제2 기준값 B보다 작은 경우, 지식 추적 모델은 정답 확률을 원하는 정확도 예측할 수 있을 정도로 학습될 수 없다고 판단할 수 있다. 따라서, 대체, 삽입, 삭제를 통해 하나의 문제풀이 데이터로부터 세 개 이상의 증강 데이터를 생성할 수 있다.
S811 단계에서, 증강 데이터가 생성된 증강 방법에 따라 정규화 동작을 수행할 수 있다. 대체의 경우 일관성 정규화를, 삽입과 삭제의 경우 단조 정규화 동작이 수행될 수 있다.
이후 S813 단계에서, 지식 추적 모델 장치는 문제풀이 데이터와 증강 데이터를 이용하여 지식 추적 모델을 학습시킬 수 있다.
시퀀스 길이가 제2 기준값 B보다 큰 경우, S815 단계가 수행될 수 있다. S815 단계에서, 지식 추적 모델 장치는 문제풀이 데이터의 1 또는 0의 비율이 제3 기준값 C보다 큰지 여부를 판단할 수 있다.
어느 하나의 응답 비율이 기준값보다 큰 경우는 학생의 실력이 평균 이상이거나 이하인 경우일 수 있다. 이 때 지식 추적 모델 장치는 대체를 통해 증강 데이터를 생성하는 것이 예측 정확도가 높다고 판단할 수 있다.
따라서, 지식 추적 모델 장치는 S817 단계, S819 단계 및 S813 단계를 수행하여 지식 추적 모델을 학습시킬 수 있다.
반대로, 어느 하나의 응답 비율이 기준값보다 작은 경우는 학생의 실력이 평균 수준인 경우일 수 있다. 이 때 지식 추적 모델 장치는 삽입 또는 삭제를 통해 증강 데이터를 생성하는 것이 예측 정확도가 높다고 판단할 수 있다.
따라서, 지식 추적 모델 장치는 S821 단계, S823 단계 및 S813 단계를 수행하여 지식 추적 모델을 학습시킬 수 있다.
다만 실시 예에 따라, 1 또는 0의 비율이 제3 기준값 보다 큰 경우 삽입 또는 삭제를 수행하고, 1 또는 0의 비율이 제3 기준값 보다 작은 경우 삽입을 수행할 수도 있다.
본 명세서와 도면에 게시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 게시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서의 통상의 지식을 가진 자들에게 자명한 것이다.

Claims (11)

  1. 데이터 증강에 기반하여 사용자의 정답 확률을 예측하는 지식 추적 모델 장치에 있어서,
    사용자가 풀이한 문제와 문제에 대한 사용자의 응답이 맵핑된 문제풀이 데이터를 저장하는 문제풀이 데이터 저장부;
    상기 문제풀이 저장부로부터 상기 문제풀이 데이터를 수신하고, 상기 문제풀이 데이터를 변환하여 증강 데이터를 생성하는 데이터 증강 수행부;
    상기 데이터 증강 수행부로부터 상기 증강 데이터를 수신하고, 수행된 데이터 증강 방법에 따라 결정된 정규화 손실 함수를 이용하여 정규화 동작을 수행하는 정규화 수행부; 및
    지식 추적 모델에 상기 증강 데이터를 입력하고, 상기 증강 데이터에 포함된 문제풀이 기록과 사용자의 정답 확률과의 관계를 나타내는 가중치를 학습시키고, 상기 가중치를 기초로 특정 문제에 대한 사용자의 정답 확률을 예측하는 상기 지식 추적 모델을 학습하는 모델 학습부;를 포함하는 지식 추적 모델 장치.
  2. 제1항에 있어서,
    상기 문제풀이 데이터와 상기 증강 데이터를 기초로 학습된 지식 추적 모델을 통해 특정 문제에 대한 사용자의 정답 확률을 예측하는 정답 확률 예측부;를 더 포함하는 지식 추적 모델 장치.
  3. 제2항에 있어서, 상기 데이터 증강 수행부는,
    상기 문제풀이 데이터의 문제풀이 기록 중 일부 또는 전부를, 일정한 확률로 사용자가 실제로 풀이하지 않은 유사한 문제로 대체하여 증강 데이터를 생성하는 지식 추적 모델 장치.
  4. 제3항에 있어서, 상기 사용자가 실제로 풀이하지 않은 유사한 문제는,
    대체될 문제와 동일한 유형과 난이도를 가지는 문제 세트에 포함된 문제들 중, 인공지능 예측 결과 정답 확률이 가장 높은 문제인 지식 추적 모델 장치.
  5. 제4항에 있어서, 상기 데이터 증강 수행부는,
    상기 문제풀이 데이터에 사용자가 풀이하지 않은 가상의 문제풀이 기록을 삽입하여 증강 데이터를 생성하거나, 또는 상기 문제풀이 데이터에 포함된 문제풀이 기록 중 일부 또는 전부를 삭제하여 증강 데이터를 생성하는 지식 추적 모델 장치.
  6. 제5항에 있어서, 상기 데이터 증강 수행부는,
    상기 지식 추적 모델에 과적합을 발생시킬 수 있는 요소에 따라 대체, 삽입, 삭제 중 적어도 어느 하나의 데이터 증강 방법을 선택하고,
    상기 과적합을 발생시킬 수 있는 요소는,
    문제풀이 데이터베이스의 데이터 수, 문제풀이 데이터의 시퀀스 길이, 문제풀이 데이터의 1 또는 0의 비율 중 적어도 하나를 포함하는 지식 추적 모델 장치.
  7. 제2항에 있어서, 상기 정규화 수행부는,
    상기 증강 데이터가 대체를 통해 생성된 경우, 일관성 정규화 손실 함수를 이용해 상기 지식 추적 모델의 정규화 동작을 수행하는 일관성 정규화 수행부; 및
    상기 증강 데이터가 삽입 또는 삭제를 통해 생성된 경우, 단조 정규화 손실 함수를 이용해 상기 지식 추적 모델의 정규화 동작을 수행하는 단조 정규화 수행부;를 포함하는 지식 추적 모델 장치.
  8. 제7항에 있어서, 상기 일관성 정규화 손실 함수는,
    상기 문제풀이 데이터를 통해 예측된 정답 확률과 상기 증강 데이터를 통해 예측된 정답 확률을 비교하여, 그 차이를 줄여 나가는 방향으로 상기 지식 추적 모델을 학습시키는 정규화 손실 함수인 지식 추적 모델 장치.
  9. 제7항에 있어서, 상기 단조 정규화 손실 함수는,
    상기 문제풀이 데이터를 통해 예측된 정답 확률과 상기 증강 데이터를 통해 예측된 정답 확률을 비교하여, 단조성 귀납편향을 상기 지식 추적 모델에 적용하여 학습시키는 정규화 손실 함수인 지식 추적 모델 장치.
  10. 제6항에 있어서, 상기 데이터 증강 수행부는,
    상기 문제풀이 데이터 저장부의 데이터 수에 따라 데이터 증강 여부를 결정하고, 데이터 증강을 수행하기로 결정한 경우, 상기 문제풀이 데이터의 시퀀스 길이 또는 상기 문제풀이 데이터의 1 또는 0의 비율에 따라 대체, 삽입, 삭제 중 적어도 하나의 데이터 증강 방법을 선택하는 지식 추적 모델 장치.
  11. 데이터 증강에 기반하여 사용자의 정답 확률을 예측하는 지식 추적 모델 장치의 동작 방법에 있어서,
    사용자 단말로부터 사용자가 풀이한 문제와 문제에 대한 사용자의 응답이 맵핑된 문제풀이 데이터를 저장하는 단계;
    상기 문제풀이 데이터를 변환하여 증강 데이터를 생성하고, 수행된 데이터 증강 방법에 따라 결정된 정규화 손실 함수를 이용하여 정규화 동작을 수행하는 단계; 및
    지식 추적 모델에 상기 증강 데이터를 입력하고, 상기 증강 데이터에 포함된 문제풀이 기록과 사용자의 정답 확률과의 관계를 나타내는 가중치를 학습시키고, 상기 가중치를 기초로 특정 문제에 대한 사용자의 정답 확률을 예측하는 상기 지식 추적 모델을 학습하는 단계;를 포함하는 지식 추적 모델 장치의 동작 방법.
PCT/KR2022/003063 2021-03-08 2022-03-04 데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법 WO2022191513A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210029909A KR102388911B1 (ko) 2021-03-08 2021-03-08 데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법
KR10-2021-0029909 2021-03-08

Publications (1)

Publication Number Publication Date
WO2022191513A1 true WO2022191513A1 (ko) 2022-09-15

Family

ID=81437536

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/003063 WO2022191513A1 (ko) 2021-03-08 2022-03-04 데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법

Country Status (3)

Country Link
US (1) US20220284315A1 (ko)
KR (1) KR102388911B1 (ko)
WO (1) WO2022191513A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102509107B1 (ko) * 2022-07-07 2023-03-14 주식회사 에이치투케이 인공지능 기반 학습자 상태 진단 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180059335A (ko) * 2016-11-24 2018-06-04 한국전자통신연구원 지식 증강을 위한 선순환 자가 학습 방법 및 그 장치
KR102140672B1 (ko) * 2015-09-11 2020-08-03 구글 엘엘씨 트레이닝 증강 학습 신경 네트워크
KR102186641B1 (ko) * 2019-11-06 2020-12-03 김정현 인공지능 기반 음성 답변 자동채점을 통한 지원자 평가방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102140672B1 (ko) * 2015-09-11 2020-08-03 구글 엘엘씨 트레이닝 증강 학습 신경 네트워크
KR20180059335A (ko) * 2016-11-24 2018-06-04 한국전자통신연구원 지식 증강을 위한 선순환 자가 학습 방법 및 그 장치
KR102186641B1 (ko) * 2019-11-06 2020-12-03 김정현 인공지능 기반 음성 답변 자동채점을 통한 지원자 평가방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AKARI ASAI; HANNANEH HAJISHIRZI: "Logic-Guided Data Augmentation and Regularization for Consistent Question Answering", ARXIV.ORG, 25 May 2020 (2020-05-25), pages 1 - 9, XP081668930 *
QIANYING LIU; WENYU GUAN; SUJIAN LI; FEI CHENG; DAISUKE KAWAHARA; SADAO KUROHASHI: "Reverse Operation based Data Augmentation for Solving Math Word Problems", ARXIV.ORG, 4 October 2020 (2020-10-04), pages 1 - 12, XP081778055 *

Also Published As

Publication number Publication date
KR102388911B1 (ko) 2022-04-21
US20220284315A1 (en) 2022-09-08

Similar Documents

Publication Publication Date Title
WO2022211326A1 (ko) 복수의 시험 도메인에 적용되는 전이요소로 학습된 인공지능 모델을 통해 사용자의 실력을 평가하는 장치, 시스템 및 그것의 동작방법
WO2021251690A1 (ko) 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법
WO2010150986A2 (ko) 외국어 단어 평생 학습 장치 및 방법
WO2020080826A1 (ko) 학습 효율을 기반으로 개인 맞춤형 교육 컨텐츠를 제공하기 위한 기계학습 방법, 장치 및 컴퓨터 프로그램
WO2022191513A1 (ko) 데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법
WO2012128553A2 (ko) 학습교육 서비스 제공 방법과 장치
WO2020111754A9 (ko) 세미 슈퍼바이즈드 학습을 이용한 진단 시스템 제공방법 및 이를 이용하는 진단 시스템
WO2020111314A1 (ko) 개념 그래프 기반 질의응답 장치 및 방법
WO2012096509A2 (ko) 수학교육 서비스 시스템 및 그 서비스 방법, 수학문제 분석 및 생성 장치 및 그 방법
WO2021132802A1 (en) Apparatus for video searching using multi-modal criteria and method thereof
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2020045848A1 (ko) 세그멘테이션을 수행하는 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
WO2020119069A1 (zh) 基于自编码神经网络的文本生成方法、装置、终端及介质
WO2021071137A1 (ko) 외국어 문장 빈칸 추론 문제 자동 생성 방법 및 시스템
WO2021246742A1 (ko) 인공지능 기반의 프로그램 코드 평가 시스템 및 방법
WO2022145829A1 (ko) 잠재인자에 기반한 협업 필터링을 사용하여 사용자의 정답확률을 예측하는 학습 컨텐츠 추천 시스템 및 그것의 동작방법
WO2022146050A1 (ko) 우울증 진단을 위한 인공지능 연합학습 방법 및 시스템
WO2016178468A1 (ko) 학습 정보를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2014133334A1 (ko) 전자서적과 연동되는 게임의 제공 장치
WO2024111866A1 (ko) 자기 개발을 위한 강화 학습 시스템
WO2015064839A1 (ko) 학습 관리 서버 및 학습 관리 방법
WO2022265127A1 (ko) 인공 지능 학습 기반의 사용자 이탈율 예측 및 사용자 지식 추적 시스템 및 그것의 동작 방법
WO2021096150A1 (ko) 언어 학습을 위한 커스텀 레슨 모듈을 생성하는 방법
WO2020180088A2 (ko) 학습 서비스 제공 방법 및 서버
WO2019198900A1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22767409

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22767409

Country of ref document: EP

Kind code of ref document: A1