KR20230047351A - Method for questions assessment and device for questions assessment using the same - Google Patents

Method for questions assessment and device for questions assessment using the same Download PDF

Info

Publication number
KR20230047351A
KR20230047351A KR1020230041373A KR20230041373A KR20230047351A KR 20230047351 A KR20230047351 A KR 20230047351A KR 1020230041373 A KR1020230041373 A KR 1020230041373A KR 20230041373 A KR20230041373 A KR 20230041373A KR 20230047351 A KR20230047351 A KR 20230047351A
Authority
KR
South Korea
Prior art keywords
concept
item
user
layer
vector
Prior art date
Application number
KR1020230041373A
Other languages
Korean (ko)
Inventor
장영걸
박재우
이정민
Original Assignee
주식회사 셀바스에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 셀바스에이아이 filed Critical 주식회사 셀바스에이아이
Priority to KR1020230041373A priority Critical patent/KR20230047351A/en
Publication of KR20230047351A publication Critical patent/KR20230047351A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a question evaluation method and a device using the same. The question evaluation method comprises the steps of: receiving an arbitrary question to be solved by a user; determining a potential concept for the question; predicting a probability of the user getting the correct answer to the question; sharing a hidden concept layer with a concept evaluation model for predicting a probability of the user understanding a concept; predicting a probability of the user understanding the determined concept; and providing, to a user device, the predicted probability of getting the correct answer and the probability of understanding the concept. According to the present invention, prediction performance of a question evaluation model and a concept evaluation model can be mutually improved.

Description

문항 평가 방법 및 이를 이용한 디바이스{METHOD FOR QUESTIONS ASSESSMENT AND DEVICE FOR QUESTIONS ASSESSMENT USING THE SAME}Item evaluation method and device using it {METHOD FOR QUESTIONS ASSESSMENT AND DEVICE FOR QUESTIONS ASSESSMENT USING THE SAME}

본 발명은 문항 평가 방법 및 이를 이용한 디바이스에 관한 것으로, 보다 구체적으로는 사용자가 풀어야 할 문항에 대한 사용자의 정답 여부 및 문항이 갖는 개념에 대한 이해도를 평가하도록 구성된, 문항 평가 방법 및 이를 이용한 문항 평가 디바이스에 관한 것이다.The present invention relates to an item evaluation method and a device using the same, and more particularly, to an item evaluation method configured to evaluate a user's correct answer to a question to be solved by a user and an understanding of a concept of the item, and an item evaluation using the same It's about the device.

최근, 학습자가 교사와 실제로 대면함으로써, 교사의 지도를 통해 학습을 수행하는 종래의 학습 방식에서 탈피하여, 시공간에 관계없이 학습자의 상황에 맞게 학습을 진행할 수 있는 다양한 학습 방식이 대두되고 있다.Recently, various learning methods that can proceed with learning according to the learner's situation regardless of time and space have emerged, breaking away from the conventional learning method in which the learner actually faces the teacher and learns through the guidance of the teacher.

특히, 이러닝 (e-Learning) 학습 방식은 교실 중심의 학습 환경에서 벗어나, 인터넷 등을 이용한 유비쿼터스 정보 통신 환경에서 학습자 자신이 스스로 학습 수행을 주도할 수 있는 능동적인 형태의 학습 방식으로서, 이러한 이러닝 학습 방식은 교육 전반에 있어서 그 비중이 점차 확대되고 있는 추세에 있으며, 이러한 추세에 따라 다양한 형태의 이러닝 학습 기술들이 제시된 바 있다.In particular, the e-Learning learning method is an active learning method in which learners themselves can lead their own learning in a ubiquitous information and communication environment using the Internet, away from the classroom-centered learning environment. The method is gradually expanding its weight in overall education, and various types of e-learning technologies have been proposed according to this trend.

하지만, 이러한 종래의 기술들은 단순히 학습자에게 일방적으로 학습 사항을 전달하는 것에만 초점이 맞추어져 있을 뿐, 학습에 의해 변화되는 학습자의 이해도 및 학습자에 의해 능동적으로 선택되는 학습 목표에 따라 어떠한 순서로 학습을 진행할 것인지, 어떠한 학습 컨텐츠를 선택할 것인지, 어떠한 난이도의 문제를 학습자에게 제공할 것인지 등에 대한 기술은 제시된 바 없다.However, these conventional technologies are only focused on simply delivering learning matters to learners unilaterally, and in any order according to the learner's understanding changed by learning and the learning goal actively selected by the learner. No technology has been suggested regarding whether to proceed with learning, what learning content to select, and what level of difficulty to provide to learners.

특히, 종래의 이러닝 학습 환경은, 학습자 개개인의 지식 능력을 고려하여 효율적인 학습을 수행하는 것에 한계가 있음에 따라, 학습자 개개인에 대하여 최적화된 학습을 제공하는 1:1 오프라인 수업보다 학습 효율이 떨어질 수 있다. In particular, as the conventional e-learning learning environment has limitations in carrying out efficient learning in consideration of individual learners' knowledge abilities, learning efficiency may be lower than that of 1:1 offline classes that provide optimized learning for individual learners. there is.

발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The background description of the invention has been prepared to facilitate understanding of the present invention. It should not be construed as an admission that matters described in the background art of the invention exist as prior art.

등록특허공보 제10-2015075호(2019.08.27.)Registered Patent Publication No. 10-2015075 (2019.08.27.)

한편, 본 발명의 발명자들은, 전술한 바와 같은 종래의 학습 시스템이 갖는 한계를 극복하기 위한 방안으로, 학습자 개개인에 대한 성과를 예측하고 학습자의 학습을 조언하기 위한 교육 데이터 마이닝 툴의 개발에 주목하였다. 특히, 본 발명의 발명자들은 지식 추적 (Knowledge tracing) 이 학생 개개인에 대한 학습 능력을 향상시키는 데 중요한 요소일 수 있음에 주목하였다.On the other hand, the inventors of the present invention, as a way to overcome the limitations of the conventional learning system as described above, paid attention to the development of an educational data mining tool for predicting the performance of each learner and advising the learner's learning. . In particular, the inventors of the present invention noted that knowledge tracing can be an important factor in improving the learning ability of individual students.

이때, 지식 추적은 학생의 지식 상태를 모델링하는 작업으로 지식 요소 (knowledge components, KC) 의 마스터 수준, 예를 들어 학생 능력 수준을 나타내는 스칼라 값 또는 벡터로 표현될 수 있다. In this case, the knowledge tracing is a task of modeling a student's knowledge state, and may be expressed as a scalar value or vector representing a master level of knowledge components (KC), for example, a student's ability level.

따라서, 본 발명의 발명자들은 추정된 학습자의 지식 상태에 기초한 이러닝 학습 환경에서 학습자의 성취 수준이 더 잘 이해되고 그에 따른 학습 자료가 선택될 수 있음을 인지할 수 있었다. 더욱이, 본 발명의 발명자들은, 이러닝 학습 환경에 대하여 학습 분석 툴을 적용하여 학습 효율성을 극대화하기 위한 더 나은 학습 계획을 마련 할 수 있음을 기대할 수 있었다.Therefore, the inventors of the present invention could recognize that the achievement level of a learner is better understood in an e-learning learning environment based on the estimated state of knowledge of the learner, and learning materials can be selected accordingly. Furthermore, the inventors of the present invention could expect to prepare a better learning plan for maximizing learning efficiency by applying a learning analysis tool to an e-learning learning environment.

그 결과, 본 발명의 발명자들은 학습자의 지식 상태에 기초하여 이러닝 학습 환경에서 제공되는 문항들을 평가하도록 구성된 문항 평가 시스템을 개발하기에 이르렀다. As a result, the inventors of the present invention have developed an item evaluation system configured to evaluate items provided in an e-learning learning environment based on a learner's state of knowledge.

이때, 본 발명의 발명자들은, 문항에 대한 사용자의 정답 여부를 예측하도록 구성된 문항 평가 모델과 문항이 갖는 개념들에 대한 이해도를 평가하도록 구성된 개념 평가 모델을 문항 평가 시스템에 적용하고자 하였다.At this time, the inventors of the present invention tried to apply an item evaluation model configured to predict whether or not a user answered correctly to an item and a concept evaluation model configured to evaluate the degree of understanding of concepts of the item to the item evaluation system.

보다 구체적으로, 본 발명의 발명자들은, 잠재 개념 (latent concepts) 을 기초로 문항에 대한 개념을 결정하고, 결정된 개념 및 학습자에 대한 대한 개념 학습 상태에 기초하여 문항의 정답 여부를 예측하도록 구성된 문항 평가 모델을 문항 평가 시스템에 적용할 수 있었다.More specifically, the inventors of the present invention determine the concept for the item based on latent concepts, and evaluate the item configured to predict whether or not the item is correct based on the determined concept and the concept learning status for the learner. The model could be applied to the item evaluation system.

더욱이, 본 발명의 발명자들은, 문항 평가 모델을 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델을 문항 평가 시스템에 적용하고자 하였다.Furthermore, the inventors of the present invention have attempted to apply a concept evaluation model configured to share at least one of a latent concept and a concept learning state with an item evaluation model and predict a level of understanding of a concept for an item to an item evaluation system.

이때, 본 발명의 발명자들은, 문항 평가 모델이 갖는 히든 개념 레이어 (hidden concept layer) 인, '잠재 개념' 및/또는 '개념 학습 상태'를 공유하여 이들 레이어에 대한 해석 가능성을 높인 개념 평가 모델을 적용함에 따라 학습자의 학습 상태에 대한 정확한 분석을 진행할 수 있음을 기대할 수 있었다. At this time, the inventors of the present invention share 'latent concept' and/or 'concept learning state', which are hidden concept layers of the item evaluation model, to develop a concept evaluation model that enhances the interpretability of these layers. As applied, it was expected that an accurate analysis of the learner's learning status could be performed.

더욱이 본 발명의 발명자들은, 문항 평가 시스템에 학습자에 대한 개념의 이해도를 해석하고 평가하도록 구성된 개념 평가 모델을 함께 적용함에 따라, 단독의 문항 평가 모델을 적용했을 때 보다 높은 문항 예측 성능을 가지는 것을 발견할 수 있었다.Furthermore, the inventors of the present invention found that the item evaluation system had higher item prediction performance than when a single item evaluation model was applied, as the concept evaluation model configured to interpret and evaluate the understanding of the learner was applied together. Could.

보다 구체적으로, 단독의 문항 평가 모델은, 학습 단계에서 자주 등장하는 개념을 갖는 문항으로 인한 오버핏팅 (overfitting) 에 의해 등장 빈도수가 낮은 개념에 대한 문항의 평가 능이 저조할 수 있다. 즉, 단독의 문항 평가 모델은, 개념 별 출제 문항의 균형에 따라 성능이 떨어질 수 있다. More specifically, in the single item evaluation model, the evaluation ability of items for concepts with a low frequency of appearance may be low due to overfitting due to items having concepts that frequently appear in the learning stage. That is, the performance of a single item evaluation model may deteriorate depending on the balance of item items for each concept.

한편, 문항 평가 모델 및 개념 평가 모델로 이루어진 본 발명의 문항 평가 시스템은, 사용자에 대한 개념 학습 상태를 공유함에 따라, 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. On the other hand, the item evaluation system of the present invention, which is composed of an item evaluation model and a concept evaluation model, has a higher ability to evaluate items for concepts with a lower frequency of appearance than a single model, as it shares the concept learning state for the user, and Even if the evaluation is repeated, the diagnostic performance can be maintained at a high level.

따라서, 본 발명의 발명자들은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있음을 더욱 기대할 수 있었다. Therefore, the inventors of the present invention can provide a customized e-learning environment for individual learners by providing the correct answer of the question output by each model and the degree of understanding of the concept related to the question by the item evaluation system. could have expected more.

이에, 본 발명이 해결하고자 하는 과제는, 문항 평가 모델을 이용하여 수신된 문항에 대한 개념을 결정하고, 문항의 정답여부를 예측하며, 개념 평가 모델을 이용하여 문항과 관련된 개념의 이해도를 예측하도록 구성된 문항 평가 방법 및 이를 이용한 디바이스를 제공하는 것이다. Therefore, the problem to be solved by the present invention is to determine the concept of the received item using the item evaluation model, predict whether or not the item is correct, and predict the level of understanding of the concept related to the item using the concept evaluation model. It is to provide a configured item evaluation method and a device using the same.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 문항 평가 방법을 제공한다. 상기 방법은, 프로세서에 의해 구현되는 문항 평가 방법으로서, 사용자 디바이스로부터 사용자가 풀어야 할 임의의 문항을 수신하는 단계, 상기 문항에 대한 잠재 개념을 결정하는 단계, 복수의 잠재 개념과 사용자의 개념 학습 상태를 포함한 히든 개념 레이어 및 문항 풀이 능력 결정 레이어로 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 사용자의 정답 확률을 예측하는 단계, 상기 히든 개념 레이어를 사용자의 개념 이해 확률을 예측하기 위한 개념 평가 모델에 공유하는 단계, 공유된 히든 개념 레이어 및 개념 이해 능력 결정 레이어로 구성된 상기 개념 평가 모델을 이용하여, 결정된 개념에 대한 사용자의 개념 이해 확률을 예측하는 단계 및 예측된 정답 확률 및 개념 이해 확률을 상기 사용자 디바이스로 제공하는 단계를 포함하고, 상기 문항 평가 모델은, 상기 문항에 대응하는 문항 벡터가 입력되는 입력 레이어, 상기 문항 벡터와 벡터화된 상기 복수의 잠재 개념과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 문항 평가 가중치를 결정하는 제1 히든 개념 레이어, 상기 개념 학습 상태 및 상기 문항 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어, 상기 문항 벡터 및 상기 리드 벡터를 기초로 문항 풀이 능력을 결정하는 상기 문항 풀이 능력 결정 레이어 및 상기 문항 벡터를 기초로 하는 문항 난이도 및 상기 문항 풀이 능력을 입력하여 상기 사용자의 정답 확률을 산출하는 출력 레이어를 포함하고, 상기 개념 평가 모델은, 상기 결정된 개념에 대응하는 개념 벡터가 입력되는 입력 레이어, 상기 개념 벡터와 벡터화된 상기 복수의 잠재 개념 각각과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 개념 평가 가중치를 결정하는 제1 히든 개념 레이어, 상기 개념 학습 상태 및 상기 개념 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어, 상기 개념 벡터 및 리드 벡터를 기초로 개념 이해 능력을 결정하는 상기 개념 이해 능력 결정 레이어 및 상기 개념 벡터를 기초로 하는 개념 난이도 및 상기 개념 이해 능력을 입력하여 상기 사용자의 개념 이해 확률을 산출하는 출력 레이어를 포함한다.In order to solve the above problems, an item evaluation method according to an embodiment of the present invention is provided. The method, as an item evaluation method implemented by a processor, includes receiving an arbitrary item to be solved by a user from a user device, determining a latent concept for the item, a plurality of latent concepts and the user's concept learning state. Using an item evaluation model composed of a hidden concept layer including a hidden concept layer and an item solving ability determination layer, predicting a user's correct answer probability for the item, a concept evaluation model for predicting a user's concept understanding probability using the hidden concept layer. estimating the user's concept understanding probability for the determined concept using the concept evaluation model composed of the shared hidden concept layer and the concept comprehension capability determination layer, and the predicted correct answer probability and concept understanding probability and providing the item to a user device, wherein the item evaluation model determines the plurality of latent concepts based on an input layer into which an item vector corresponding to the item is input and a degree of similarity between the item vector and the vectorized plurality of latent concepts. A first hidden concept layer for determining an item evaluation weight corresponding to each concept, a second hidden concept layer for determining a lead vector based on the concept learning state and the item evaluation weight, and a second hidden concept layer for determining the item vector and the lead vector. The item-solving ability determination layer for determining item-solving ability and an output layer for calculating a correct answer probability of the user by inputting item difficulty and item-solving ability based on the item vector, the concept evaluation model comprising: A first hidden concept determining a concept evaluation weight corresponding to each of the plurality of latent concepts based on an input layer into which a concept vector corresponding to the determined concept is input and a degree of similarity between the concept vector and each of the plurality of vectorized latent concepts. A concept layer, a second hidden concept layer for determining a lead vector based on the concept learning state and the concept evaluation weight, the concept understanding capability determination layer for determining a concept understanding capability based on the concept vector and the lead vector, and the concept and an output layer that calculates a concept understanding probability of the user by inputting the concept difficulty and the concept understanding ability based on a vector.

본 발명의 특징에 따르면, 상기 개념 학습 상태는, 상기 사용자가 맞춘 정답 문항이 갖는 잠재 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의될 수 있다. According to a feature of the present invention, the concept learning state may be defined as a concept memory composed of absolute values of concept vectors obtained by vectorizing latent concepts of the user-corrected correct answer item.

본 발명의 다른 특징에 따르면, 상기 사용자 디바이스로부터 상기 문항에 대한 답안을 수신하는 단계, 및 수신된 상기 답의 정답 여부, 및 상기 문항과 연관된 잠재 개념을 기초로 상기 개념 메모리를 업데이트하는 단계를 포함할 수 있다.According to another feature of the present invention, the step of receiving an answer to the question from the user device, and updating the concept memory based on whether the received answer is a correct answer and a latent concept associated with the question can do.

본 발명의 또 다른 특징에 따르면, 상기 제공하는 단계 이후에, 예측된 상기 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계 및 상기 사용자 디바이스로 상기 복수의 추가 문항 중, 상기 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계를 더 포함할 수 있다.According to another feature of the present invention, after the providing step, determining an item with high comprehension associated with a concept having a level of understanding above a predetermined level among a plurality of additional items based on the predicted level of understanding of the concept, and The method may further include providing, to the user device, the remaining questions excluding the highly understandable questions among the plurality of additional questions.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 제공한다. 상기 디바이스는, 사용자가 풀어야 할 임의의 문항을 수신하도록 구성된 통신부, 및 프로세서를 포함한다. 이때, 프로세서는, 상기 문항에 대한 잠재 개념을 결정하고, 복수의 잠재 개념과 사용자의 개념 학습 상태를 포함한 히든 개념 레이어 및 문항 풀이 능력 결정 레이어로 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 사용자의 정답 확률을 예측하고, 상기 히든 개념 레이어를 사용자의 개념 이해 확률을 예측하기 위한 개념 평가 모델에 공유하고, 공유된 히든 개념 레이어 및 개념 이해 능력 결정 레이어로 구성된 상기 개념 평가 모델을 이용하여, 결정된 개념에 대한 사용자의 개념 이해 확률을 예측하고, 예측된 정답 확률 및 개념 이해 확률을 상기 사용자 디바이스로 제공하도록 구성되며, 상기 문항 평가 모델은, 상기 문항에 대응하는 문항 벡터가 입력되는 입력 레이어, 상기 문항 벡터와 벡터화된 상기 복수의 잠재 개념과의 유사도를 기초로 상기 복수의 잠재 개념각각에 대응되는 문항 평가 가중치를 결정하는 제1 히든 개념 레이어; In order to solve the above problems, a device for evaluating items according to an embodiment of the present invention is provided. The device includes a communication unit configured to receive an arbitrary question to be solved by a user, and a processor. At this time, the processor determines a latent concept for the item, and uses an item evaluation model composed of a plurality of latent concepts, a hidden concept layer including the user's concept learning state, and an item solving ability determination layer, Predicting the probability of correct answer of , sharing the hidden concept layer to a concept evaluation model for predicting the probability of understanding a user's concept, and using the concept evaluation model composed of the shared hidden concept layer and the concept understanding ability determination layer, the determined It is configured to predict a concept understanding probability of a user for a concept and provide the predicted correct answer probability and concept understanding probability to the user device, wherein the item evaluation model includes an input layer into which item vectors corresponding to the items are input, the a first hidden concept layer for determining an item evaluation weight corresponding to each of the plurality of latent concepts based on a similarity between an item vector and the plurality of vectorized latent concepts;

상기 개념 학습 상태 및 상기 문항 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어, 상기 문항 벡터 및 상기 리드 벡터를 기초로 문항 풀이 능력을 결정하는 상기 문항 풀이 능력 결정 레이어 및 상기 문항 벡터를 기초로 하는 문항 난이도 및 상기 문항 풀이 능력을 입력하여 상기 사용자의 정답 확률을 산출하는 출력 레이어를 포함하고, 상기 개념 평가 모델은, 상기 결정된 개념에 대응하는 개념 벡터가 입력되는 입력 레이어, 상기 개념 벡터와 벡터화된 상기 복수의 잠재 개념 각각과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 개념 평가 가중치를 결정하는 제1 히든 개념 레이어, 상기 개념 학습 상태 및 상기 개념 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어, 상기 개념 벡터 및 리드 벡터를 기초로 개념 이해 능력을 결정하는 상기 개념 이해 능력 결정 레이어 및 상기 개념 벡터를 기초로 하는 개념 난이도 및 상기 개념 이해 능력을 입력하여 상기 사용자의 개념 이해 확률을 산출하는 출력 레이어를 포함하도록 구성된다.A second hidden concept layer for determining a lead vector based on the concept learning state and the item evaluation weight, the item solving ability determination layer for determining item solving ability based on the item vector and the lead vector, and the item vector and an output layer that calculates a probability of correct answer of the user by inputting an item difficulty level and the item solving ability based thereon, and the concept evaluation model includes an input layer to which a concept vector corresponding to the determined concept is input, the concept vector a first hidden concept layer for determining a concept evaluation weight corresponding to each of the plurality of latent concepts based on a degree of similarity with each of the plurality of latent concepts vectorized; and a read vector based on the concept learning state and the concept evaluation weight The second hidden concept layer for determining, the concept understanding ability determination layer for determining the concept understanding ability based on the concept vector and the lead vector, and the concept difficulty based on the concept vector and the concept understanding ability input to the user It is configured to include an output layer that calculates the concept understanding probability of .

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other embodiment specifics are included in the detailed description and drawings.

본 발명은, 문항 평가 모델을 구성하는 '복수의 잠재 개념'과 '사용자의 개념 학습 상태'를 포함하는 히든 개념 레이어 (hidden concept layer)를 개념 평가 모델과 공유함에 따라, 두 개 모델의 예측 성능을 상호 상향 시킬 수 있다. As the present invention shares a hidden concept layer including 'a plurality of latent concepts' constituting the item evaluation model and 'the user's concept learning state' with the concept evaluation model, the predictive performance of the two models can be mutually elevated.

또한, 본 발명은 문항 평가 모델을 통해 문항에 대한 사용자의 정답 확률을 예측하고, 개념 평가 모델을 통해 임의의 문항에 적용된 개념에 대한 사용자의 개념 이해 확률을 예측함으로써, 학습자의 학습 상태에 대한 정확한 분석을 진행할 수 있다. In addition, the present invention predicts the probability of a user's correct answer to an item through an item evaluation model and predicts the probability of a user's concept understanding of a concept applied to an arbitrary item through a concept evaluation model, thereby providing accurate information about the learner's learning state. analysis can proceed.

더욱이, 본 발명은, 문항 평가 시스템에 학습자에 대한 개념의 이해도를 해석하고 평가하도록 구성된 개념 평가 모델을 함께 적용함에 따라, 단독의 문항 평가 모델을 적용했을 때 보다 높은 문항 예측 성능을 가질 수 있다.Moreover, the present invention can have higher item prediction performance than when a single item evaluation model is applied by applying a concept evaluation model configured to interpret and evaluate a learner's understanding of a concept to the item evaluation system together.

보다 구체적으로 본 발명은, 사용자에 대한 개념 학습 상태를 공유할 수 있어 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지되는, 문항 평가 모델 및 개념 평가 모델 기반의 문항 평가 시스템을 제공할 수 있다.More specifically, the present invention can share the learning state of the concept with the user, so the evaluation ability for items with low frequency of appearance is higher than that of a single model, and the diagnostic performance is maintained at a high level even if the evaluation of the item is repeated. It is possible to provide an item evaluation system based on an item evaluation model and a concept evaluation model.

이에, 본 발명은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있다.Accordingly, the present invention can provide a customized e-learning environment for individual learners by providing an understanding of concepts related to questions and correct answers of questions output by each model by the item evaluation system.

나아가, 학습자 개개인에 대한 지식 상태에 기초하여 제시될 문항을 평가하도록 구성된 문항 평가 시스템을 제공함에 따라, 학습자 개개인에 대하여 최적화된 학습을 제공하는 1:1 오프라인 수업과 유사한 학습 효율을 제공할 수 있다.Furthermore, by providing an item evaluation system configured to evaluate items to be presented based on the knowledge state of each learner, it is possible to provide learning efficiency similar to that of 1: 1 offline class that provides optimized learning for each individual learner. .

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present invention.

도 1a은 본 발명의 일 실시예에 따른 문항 평가 시스템을 설명하기 위한 개략도이다.
도 1b는 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 설명하기 위한 개략도이다.
도 1c는 본 발명의 실시예에 따른 사용자 장치에 대한 개략도이다.
도 1d 및 1e는 본 발명의 실시예에 따른 사용자 디바이스의 표시부를 예시적으로 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 문항 평가 방법을 설명하기 위한 개략적인 순서도이다.
도 3은 본 발명의 일 실시예에 따른 문항 평가 방법의 절차를 예시적으로 도시한 것이다.
도 4는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 설명하기 위한 개략적인 순서도이다.
도 5는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 예시적으로 도시한 것이다.
도 6a는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델의 구조를 예시적으로 도시한 것이다.
도 6b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트를 위한 구성을 예시적으로 도시한 것이다.
도 7a 및 7b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델에 기초한 문항 평가용 디바이스와 단독의 문항 평가 모델에 대한 성능을 비교하여 도시한 것이다.
1A is a schematic diagram illustrating an item evaluation system according to an embodiment of the present invention.
Figure 1b is a schematic diagram for explaining a device for evaluating items according to an embodiment of the present invention.
Fig. 1c is a schematic diagram of a user device according to an embodiment of the present invention.
1D and 1E exemplarily illustrate a display unit of a user device according to an embodiment of the present invention.
2 is a schematic flowchart for explaining a method for evaluating items according to an embodiment of the present invention.
3 illustratively illustrates the procedure of the item evaluation method according to an embodiment of the present invention.
4 is a schematic flowchart for explaining an update step of an item evaluation model applied to various embodiments of the present invention.
5 illustratively illustrates an update step of an item evaluation model applied to various embodiments of the present invention.
FIG. 6A exemplarily illustrates structures of an item evaluation model and a concept evaluation model applied to various embodiments of the present invention.
6B illustrates a configuration for updating an item evaluation model applied to various embodiments of the present invention by way of example.
7A and 7B show comparison of performances of a device for item evaluation based on an item evaluation model and a concept evaluation model applied to various embodiments of the present invention and a single item evaluation model.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various forms different from each other, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, like reference numerals may be used for like elements.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has," "may have," "includes," or "may include" indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document may modify various elements, regardless of order and/or importance, and refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of rights described in this document, a first element may be named a second element, and similarly, the second element may also be renamed to the first element.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, a third component) do not exist between the other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression "configured to" means "suitable for," "having the capacity to," depending on the circumstances. ," "designed to," "adapted to," "made to," or "capable of." The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware. Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or configured) to perform A, B, and C" may include a dedicated processor (e.g., embedded processor) to perform those operations, or by executing one or more software programs stored in a memory device. , may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted as having the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, an ideal or excessively formal meaning. not be interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude the embodiments of this document.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or entirely combined or combined with each other, and as those skilled in the art can fully understand, various interlocking and driving operations are possible, and each embodiment can be implemented independently of each other. It may be possible to implement together in an association relationship.

본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of this specification, terms used in this specification will be defined below.

본원 명세서 내에서 이용되는 용어 “문항 평가 모델”은, 문항을 입력으로 하여 문항에 대한 정답 여부, 바람직하게 학습자가 문항에 대한 정답을 맞출 확률을 출력하도록 구성된 인공 신경망 알고리즘 기반의 모델일 수 있다.The term “item evaluation model” used in the specification of the present application may be a model based on an artificial neural network algorithm configured to output a correct answer to an item, preferably a probability that a learner will answer the item correctly, by taking the item as an input.

한편, 문항 평가 모델은, 사용자인 학습자 각각에 대한 지식 상태에 따라 각각 상이한 조건으로 구축될 수 있다. Meanwhile, the item evaluation model may be constructed under different conditions according to the state of knowledge of each learner who is a user.

문항 평가 모델은, “잠재 개념 (latent concepts)”및 “개념 학습 상태”의 히든 레이어를 포함할 수 있다.The item evaluation model may include hidden layers of “latent concepts” and “concept learning states”.

본원 명세서 내에서 이용되는 용어 “잠재 개념”은, 문항 평가 모델의 모델 학습에 의해 형성된 문항과 연관된 개념들을 의미할 수 있다. 보다 구체적으로, 잠재 개념의 크기의 선택이 가능하며, 선택에 기초하여 적절한 임베딩 값이 학습되면 값/크기가 불변할 수 있다. 이때, 잠재 개념은 'Key memory'에 대응할 수 있다.The term “latent concept” used in the present specification may refer to concepts associated with an item formed by model learning of an item evaluation model. More specifically, the size of the latent concept may be selected, and the value/size may be invariant when an appropriate embedding value is learned based on the selection. At this time, the latent concept may correspond to ' key memory' .

본 발명의 특징에 따르면, 문항 평가 모델은 잠재 개념을 통해, 입력된 문항과 연관된 개념을 결정하도록 구성될 수 있다. According to a feature of the present invention, the item evaluation model may be configured to determine, through latent concepts, a concept associated with an input item.

본원 명세서 내에서 이용되는 용어 “개념 학습 상태”는, 학습자의 개념들에 대한 학습 상태를 의미할 수 있다. 즉, 개념 학습 상태는 학습자의 지식 상태에 따라 상이할 수 있다. 이때, 개념 학습 상태는, 학습자에 대하여 제시된 문항들의 정답 여부, 상기 문항들에 내재된 개념들에 따라 다양한 값들을 가질 수 있다. 보다 구체적으로, 개념 학습 상태는, 학습자의 지식 상태에 따라 가변적이며, 'KEY'에 대한 절대값을 포함할 수 있다. 이때, 개념 학습 상태는 'Value memory', 또는 '개념 메모리'에 대응할 수 있다.The term “concept learning state” used in the present specification may refer to a learner's learning state of concepts. That is, the concept learning state may be different according to the learner's knowledge state. At this time, the concept learning state may have various values depending on whether or not the questions presented to the learner are answered correctly and concepts inherent in the questions. More specifically, the concept learning state is variable according to the learner's knowledge state, and may include an absolute value for 'KEY'. At this time, the concept learning state may correspond to ' value memory ' or 'concept memory'.

본 발명의 특징에 따르면, 개념 학습 상태는, 문항에 대한 학습자의 정답 여부, 나아가 맞춘 문항들이 갖는 개념에 기초하여 업데이트될 수 있다. According to a feature of the present invention, the concept learning state may be updated based on whether or not the learner has answered the questions correctly, and furthermore, based on the concepts of the correct questions.

본 발명의 다른 특징에 따르면, 문항 평가 모델은 개념 학습 상태를 통해, 개념 메모리로부터 문항과 연관된 학습자가 가지고 있는 개념을 결정하도록 구성될 수 있다.According to another feature of the present invention, the item evaluation model may be configured to determine a concept that a learner associated with an item has from a concept memory through a concept learning state.

최종적으로, 문항 평가 모델은 문항에 대한 사용자가 정답을 맞출 확률을 출력할 수 있다.Finally, the item evaluation model may output the probability that the user answers the item correctly.

본원 명세서 내에서 이용되는 용어 “개념 평가 모델”은, 학습자가 풀어야 할 문항에 대하여 결정된 개념을 입력으로 하여 각 개념에 대한 사용자의 이해도를 확률적으로 출력하도록 구성된 인공 신경망 알고리즘 기반의 모델일 수 있다.The term "concept evaluation model" used in the present specification may be a model based on an artificial neural network algorithm configured to probabilistically output a user's understanding of each concept by taking a concept determined for a question to be solved by a learner as an input. .

이때, 개념 평가 모델은, 문항 평가 모델의 '잠재 개념' 및 '개념 학습 상태'를 공유하도록 구성될 수 있다. 이에, 개념 평가 모델은, 문항 평가 모델로부터 공유된 잠재 개념 및 개념 학습 상태에 기초하여 문항에 대한 개념의 이해도를 출력할 수 있다. 즉, 개념 평가 모델은, 문항 평가 모델의 '잠재 개념' 및 '개념 학습 상태'를 공유함에 따라, 히든 개념 레이어에 대한 해석 가능성을 높일 수 있어, 학습자의 지식 상태에 대한 섬세한 분석을 제공할 수 있다. 더욱이 학습 단계에서 등장 빈도수가 낮은 개념의 문항에 대한 평가 능력이 우수할 수 있고, 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. 따라서, 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스는, 문항 평가에 있어서 단독의 문항 평가 모델보다 우수한 진단 성능을 가질 수 있다.In this case, the concept evaluation model may be configured to share the 'latent concept' and 'concept learning state' of the item evaluation model. Accordingly, the concept evaluation model may output an understanding of the concept of the item based on the latent concept shared from the item evaluation model and the concept learning state. In other words, as the concept evaluation model shares the 'latent concept' and 'concept learning state' of the item evaluation model, it is possible to increase the interpretability of the hidden concept layer, thereby providing a detailed analysis of the learner's knowledge state. there is. Moreover, the evaluation ability for items with low frequency of appearance in the learning phase can be excellent, and even if the evaluation is repeated, the diagnostic performance can be maintained at a high level. Therefore, the item evaluation device according to various embodiments of the present invention may have better diagnostic performance than a single item evaluation model in item evaluation.

한편, 본원 명세서 내에 개시된 문항 평가 모델 및 개념 평가 모델은 딥러닝 알고리즘에 기초한 모델일 수 있다. 보다 구체적으로, 문항 평가 모델 및 개념 평가 모델은 DKVMN (dynamic key-value memory network), DNN (Deep Neural Network), DCNN (Deep Convolution Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), SSD (Single Shot Detector), 및 SVM (Support Vector Machine) 중 적어도 하나의 알고리즘에 기초할 수 있다. 그러나, 이에 제한되는 것은 아니다. Meanwhile, the item evaluation model and the concept evaluation model disclosed in the present specification may be models based on deep learning algorithms. More specifically, the item evaluation model and concept evaluation model include dynamic key-value memory network (DKVMN), deep neural network (DNN), deep convolution neural network (DCNN), recurrent neural network (RNN), and restricted boltzmann machine (RBM). , Deep Belief Network (DBN), Single Shot Detector (SSD), and Support Vector Machine (SVM). However, it is not limited thereto.

이하에서는, 도 1a 내지 도 1e를 참조하여, 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스를 상세히 설명한다.Hereinafter, a device for evaluating items according to various embodiments of the present invention will be described in detail with reference to FIGS. 1A to 1E .

도 1a는 본 발명의 일 실시예에 따른 문항 평가 시스템을 설명하기 위한 개략도이다. 도 1b는 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 설명하기 위한 개략도이다. 도 1c는 본 발명의 실시예에 따른 사용자 장치에 대한 개략도이다. 1d 내지 1e는 본 발명의 실시예에 따른 사용자 디바이스의 표시부를 예시적으로 도시한 것이다.1A is a schematic diagram illustrating an item evaluation system according to an embodiment of the present invention. Figure 1b is a schematic diagram for explaining a device for evaluating items according to an embodiment of the present invention. Fig. 1c is a schematic diagram of a user device according to an embodiment of the present invention. 1d to 1e illustrate the display unit of the user device according to an embodiment of the present invention.

먼저, 도 1a을 참조하면, 문항 평가 시스템 (1000) 은, 학습자가 갖는 지식 상태에 기초하여 문항 평가 결과를 제공하는 시스템으로서, 문항 평가용 디바이스 (100), 사용자 디바이스 (200) 및 평가 대상 문항 DB (300) 를 포함할 수 있다.First, referring to FIG. 1A , an item evaluation system 1000 is a system that provides item evaluation results based on a learner's state of knowledge, and includes an item evaluation device 100, a user device 200, and an item to be evaluated. DB 300 may be included.

먼저, 문항 평가용 디바이스 (100) 는 평가 대상 문항 DB (300) 로부터 평가 대상 문항을 수신하여 연산을 수행하는 범용 컴퓨터, 랩탑, 및/또는 데이터 서버 등을 포함할 수 있다. 한편, 사용자 디바이스 (200) 는 사용자의 요청에 따라 문항 평가를 위한 서비스에 관한 웹 페이지를 제공하는 웹 서버 (web server) 또는 모바일 웹 사이트를 제공하는 모바일 웹 서버 (mobile web server) 에 접속하기 위한 디바이스일 수 있으나, 이에 한정되지 않는다.First, the item evaluation device 100 may include a general-purpose computer, a laptop, and/or a data server that receives evaluation target items from the evaluation target item DB 300 and performs calculations. Meanwhile, the user device 200 is configured to access a web server providing a web page related to a service for item evaluation or a mobile web server providing a mobile web site according to a user's request. It may be a device, but is not limited thereto.

보다 구체적으로, 도 1b를 함께 참조하면, 문항 평가용 디바이스 (100) 는 저장부 (110), 통신부 (120), 및 프로세서 (130) 를 포함한다. More specifically, referring to FIG. 1B , the device for evaluating items 100 includes a storage unit 110 , a communication unit 120 , and a processor 130 .

먼저, 저장부 (110) 는 문항을 분석하여 학습자에게 문항 평가 서비스를 제공하기 위한 다양한 데이터, 예를 들어 평가 대상 문항 DB (300) 로부터 획득된 평가 대상 문항들을 저장할 수 있다. 다양한 실시예에서 저장부 (110) 는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. First, the storage unit 110 may analyze items and store various data for providing item evaluation services to learners, for example, evaluation target items obtained from the evaluation target item DB 300 . In various embodiments, the storage unit 110 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, magnetic memory , a magnetic disk, and an optical disk may include at least one type of storage medium.

다음으로, 통신부 (120) 는 문항 평가용 디바이스 (100) 가 외부 장치와 통신이 가능하도록 연결한다. 예를 들어, 통신부 (120) 는 유/무선 통신을 이용하여 사용자 디바이스 (200) 와 연결되어 평가 문항에 대한 데이터를 송수신할 수 있다. 구체적으로, 통신부 (120) 는 사용자 디바이스 (200) 와 연결되어 평가 결과를 송신하도록 더 구성될 수 있다. Next, the communication unit 120 connects the item evaluation device 100 to communicate with an external device. For example, the communication unit 120 may be connected to the user device 200 using wired/wireless communication to transmit/receive data on evaluation items. Specifically, the communication unit 120 may be connected to the user device 200 and further configured to transmit evaluation results.

프로세서 (130) 는 저장부 (110) 및 통신부 (120) 와 동작 가능하게 연결되며, 문항을 분석하여 문항 평가를 위한 서비스를 제공하기 위한 다양한 명령들을 수행할 수 있다. The processor 130 is operatively connected to the storage unit 110 and the communication unit 120, and can perform various commands for analyzing items and providing a service for item evaluation.

구체적으로, 프로세서 (130) 는 통신부 (120) 를 통해 문항을 수신하고, 수신된 문항에 기반하여 문항을 평가할 수 있다. Specifically, the processor 130 may receive an item through the communication unit 120 and evaluate the item based on the received item.

이를 위해 프로세서 (130) 는 수신된 문항을 분석하여 문항과 연관된 개념을 결정하고, 사용자에 대한 개념 메모리로부터 문항과 연관된 개념을 예측하여 문항을 맞출 확률을 출력하도록 구성된 문항 평가 모델 및, 문항과 연관된 개념의 이해도를 출력하도록 구성된 개념 평가 모델을 이용할 수 있다. 이때, 문항 평가 모델들은 학습자가 풀었던 문항에 기초하여 사전 학습된 모델로서, 학습자의 지식 상태에 따른 평가 문항의 정답 여부를 결정하기 위해 이용될 수 있다.To this end, the processor 130 analyzes the received item to determine a concept associated with the item, predicts a concept associated with the item from a concept memory for the user, and outputs a probability of correcting the item, and an item evaluation model configured to output a probability associated with the item. A concept evaluation model configured to output an understanding of a concept is available. At this time, the item evaluation models are pre-learned models based on questions solved by the learner, and may be used to determine whether or not the evaluation item is correct according to the learner's state of knowledge.

본 발명의 특징에 따르면, 프로세서 (130) 는 문항 벡터를 생성하도록 문항을 벡터화 하고, 문항 벡터 및 상기 잠재 개념과의 유사도를 비교하고, 유사도에 기초하여 상기 문항에 대한 개념을 결정하도록 구성될 수 있다.According to aspects of the present invention, processor 130 may be configured to vectorize an item to generate an item vector, compare a similarity between the item vector and the latent concept, and determine a concept for the item based on the similarity. there is.

본 발명의 다른 특징에 따르면, 프로세서 (130) 는 유사도에 따라 잠재 개념 각각에 대한 가중치를 결정하고, 문항 평가 모델을 이용하여 개념 학습 상태 및 잠재 개념에 대한 가중치를 기초로 상기 문항의 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the processor 130 determines a weight for each latent concept according to the degree of similarity, and determines whether or not the item is correct based on the concept learning state and the weight for the latent concept using an item evaluation model. It can be further configured to predict.

본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 문항 평가 모델을 이용하여, 개념 메모리 중, 문항과 연관된 메모리를 결정하고, 연관된 메모리에 기초하여 문항 풀이 능력을 결정하고, 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the processor 130 determines a memory associated with an item among concept memories using an item evaluation model, determines an item-solving ability based on the associated memory, and determines an item-solving ability based on the item-solving ability. Thus, it may be further configured to predict whether the question is correct or not.

본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 문항의 난이도를 결정하고, 개념 메모리 중 문항과 연관된 메모리를 결정하고, 연관된 메모리를 기초하여 문항 풀이 능력을 결정하고, 문항의 난이도 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the processor 130 determines the difficulty of the item, determines a memory associated with the item among the concept memories, determines the ability to solve the item based on the associated memory, and determines the difficulty of the item and the item solving ability. It may be further configured to predict whether or not to answer the question based on the ability.

본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 통신부 (120) 를 통해 수신된 문항에 대한 정답 여부, 및 문항과 연관된 개념을 기초로 개념 메모리를 업데이트하도록 더 구성될 수 있다. According to another feature of the present invention, the processor 130 may be further configured to update the concept memory based on whether or not the answer is correct for the question received through the communication unit 120 and a concept associated with the question.

즉, 프로세서 (130) 는 이러한 문항 평가 모델, 및 개념 평가 모델들을 이용함에 따라, 학습자 맞춤형 문항 평가를 진행할 수 있고, 학습자의 학습에 따른 지식 상태의 업데이트를 반영할 수 있다. 더욱이, 프로세서 (130) 는 학습자의 개념 이해도에 따라 추천 문항을 결정하여 제공할 수도 있다. That is, the processor 130 may proceed with learner-customized item evaluation and reflect an update of the knowledge state according to the learner's learning, by using these item evaluation models and concept evaluation models. Furthermore, the processor 130 may determine and provide recommended items according to the learner's level of understanding of the concept.

특히, 프로세서 (130) 는, 문항 평가 모델의 개념들 각각에 대한 임베딩 벡터들이 저장된 '잠재 개념' 및 학습자 개개인이 갖고 있는 개념 메모리의 '개념 학습 상태'를 공유하는 개념 평가 모델을 이용함에 따라, 학습자의 지식 상태에 대한 정확한 분석을 제공할 수 있다.In particular, as the processor 130 uses a concept evaluation model that shares a 'latent concept' in which embedding vectors for each of the concepts of the item evaluation model are stored and a 'concept learning state' of a concept memory possessed by each learner, It can provide an accurate analysis of the learner's state of knowledge.

하기에서는, 도 1c를 함께 참조하여 사용자 디바이스 (200) 에 대하여 상세하게 설명하도록 한다. In the following, the user device 200 will be described in detail with reference to FIG. 1C.

도 1c를 함께 참조하면, 사용자 디바이스 (200) 는 통신부 (210), 표시부 (220), 저장부 (230) 및 프로세서 (240) 를 포함한다. Referring to FIG. 1C together, the user device 200 includes a communication unit 210, a display unit 220, a storage unit 230, and a processor 240.

먼저, 통신부 (210) 는 사용자 디바이스 (200) 가 외부 장치와 통신이 가능하도록 연결한다. 예를 들어, 통신부 (210) 는 유/무선 통신을 이용하여 문항 평가용 디바이스 (100) 와 연결되어 평가 문항에 대한 데이터를 송수신할 수 있다. 구체적으로, 통신부 (210) 는 문항 평가용 디바이스 (100) 와 연결되어 평가 결과를 수신하도록 더 구성될 수 있다. First, the communication unit 210 connects the user device 200 to enable communication with an external device. For example, the communication unit 210 may be connected to the item evaluation device 100 using wired/wireless communication to transmit/receive data on evaluation items. Specifically, the communication unit 210 may be further configured to connect with the item evaluation device 100 and receive evaluation results.

표시부 (220) 는 사용자에게 각종 콘텐츠 (예: 텍스트, 이미지, 비디오, 아이콘, 배너 또는 심볼 등) 를 표시할 수 있다. 더욱이, 표시부 (220) 는, 문항 평가용 디바이스 (100) 에 의해 결정된 사용자의 문항 평가 결과 데이터를 나타내기 위한 다양한 인터페이스 화면을 표시할 수 있다. 예를 들어, 표시부 (220) 는 문항에 대한 사용자의 정답 여부, 개념에 대한 이해도, 이해도가 부족한 개념과 연관된 추천 문항 등을 제공하도록 표시하도록 구성될 수 있다. The display unit 220 may display various types of content (eg, text, image, video, icon, banner, or symbol) to the user. Furthermore, the display unit 220 may display various interface screens for displaying the user's item evaluation result data determined by the item evaluation device 100 . For example, the display unit 220 may be configured to display a user's correct answer to a question, an understanding of a concept, and a recommended question related to a concept lacking in understanding.

다양한 실시예에서 표시부 (220) 는 터치스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치 (touch), 제스처 (gesture), 근접, 드래그 (drag), 스와이프 (swipe) 또는 호버링 (hovering) 입력 등을 수신할 수 있다. In various embodiments, the display unit 220 may include a touch screen, and for example, a touch using an electronic pen or a part of the user's body, a gesture, a proximity, a drag, or a swipe A swipe or hovering input may be received.

저장부 (230) 는 문항 평가를 요청하고, 문항 평가에 대한 결과 데이터를 나타내기 위한 사용자 인터페이스를 제공하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 다양한 실시예에서 저장부 (230) 는 플래시 메모리 타입 (flash memory type), 하드디스크 타입 (hard disk type), 멀티미디어 카드 마이크로 타입 (multimedia card micro type), 카드 타입의 메모리 (예를 들어 SD 또는 XD 메모리 등), 램 (Random Access Memory, RAM), SRAM (Static Random Access Memory), 롬 (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 한편, 문항 평가용 디바이스 (100) 는 인터넷상에서 상기 저장부 (230) 의 저장 기능을 수행하는 웹 스토리지 (web storage) 와 관련되어 동작할 수도 있다.The storage unit 230 may store various data used to request item evaluation and provide a user interface for displaying result data for item evaluation. In various embodiments, the storage unit 230 may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (for example, SD or XD memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. Meanwhile, the item evaluation device 100 may operate in association with a web storage that performs the storage function of the storage unit 230 on the Internet.

프로세서 (240) 는 통신부 (210), 표시부 (220) 및 저장부 (230) 와 동작 가능하게 연결되며, 문항 평가에 대한 결과 데이터를 나타내기 위한 사용자 인터페이스를 제공하기 위한 다양한 명령들을 수행할 수 있다. The processor 240 is operatively connected to the communication unit 210, the display unit 220, and the storage unit 230, and can perform various commands for providing a user interface for displaying result data for item evaluation. .

이하에서는, 도 1d 및 도 1e를 참조하여, 본 발명의 일 실시예에 따른 사용자 디바이스의 표시부에 대하여 구체적으로 설명한다. Hereinafter, a display unit of a user device according to an embodiment of the present invention will be described in detail with reference to FIGS. 1D and 1E.

먼저 도 1d를 참조하면, 사용자 디바이스 (200) 의 표시부 (220) 는, 문항 평가용 디바이스 (100) 에 의해 결정된 개념의 이해도가 미리 결정된 수준 이하의 개념과 연관된 문항을 추천하여 출력할 수 있다. 보다 구체적으로, 문항 평가용 디바이스 (100) 에 의해 결정된 개념 a에 대한 학습자의 이해도는 10 %, 개념 b에 대한 학습자의 이해도는 95 %, 개념 c에 대한 학습자의 이해도는 70 %로 나타난다. 이때, 추천 문항으로, 이해도가 상대적으로 저조한 개념 a (예를 들어, 분수의 계산) 와 연관된 문항이 결정되고, 표시부 (220) 를 통해 사용자에게 제공될 수 있다. 반면, 도 1e를 함께 참조하면, 이해도가 상대적으로 높았던 개념 b (예를 들어, 방정식, 수의 곱셈) 와 연관된 문항들은 추천 문항에서 제외될 수도 있다. First, referring to FIG. 1D , the display unit 220 of the user device 200 recommends and outputs items associated with a concept in which the degree of understanding of the concept determined by the item evaluation device 100 is equal to or lower than a predetermined level. More specifically, the learner's understanding of concept a determined by the item evaluation device 100 is 10%, the learner's understanding of concept b is 95%, and the learner's understanding of concept c is 70%. At this time, as a recommended question, a question related to concept a (eg, calculation of a fraction), which is relatively poorly understood, may be determined and provided to the user through the display unit 220 . On the other hand, referring to FIG. 1E together, items related to concept b (eg, equation, multiplication of numbers) having a relatively high level of understanding may be excluded from the recommended items.

이에, 학습자는 취약한 개념에 대한 집중적 학습이 가능함에 따라, 개개인에 대한 맞춤형 이러닝 학습 환경을 제공받을 수 있다. Accordingly, learners can be provided with a customized e-learning environment for each individual as intensive learning is possible for weak concepts.

이하에서는 도 2, 도 3을 참조하여 본 발명의 다양한 실시예에 따른 문항 평가 방법을 설명한다.Hereinafter, item evaluation methods according to various embodiments of the present invention will be described with reference to FIGS. 2 and 3 .

도 2는 본 발명의 일 실시예에 따른 문항 평가 방법을 설명하기 위한 개략적인 순서도이다. 도 3은 본 발명의 일 실시예에 따른 문항 평가 방법의 절차를 예시적으로 도시한 것이다.2 is a schematic flowchart for explaining a method for evaluating items according to an embodiment of the present invention. 3 illustratively illustrates the procedure of the item evaluation method according to an embodiment of the present invention.

먼저, 도 2를 참조하면, 먼저 본 발명의 일 실시예에 따른 문항 평가 방법에 따라, 사용자가 풀어야 할 문항이 수신된다 (S210). 그 다음, 문항 평가 모델에 의해 문항에 대한 개념이 결정되고 (S220), 문항의 정답 여부가 예측된다 (S230). 그 다음, 개념 평가 모델에 의해 문항과 관련된 개념의 이해도가 예측되고 (S240) 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공된다 (S250).First, referring to FIG. 2 , according to the item evaluation method according to an embodiment of the present invention, an item to be solved by the user is received (S210). Next, the concept of the item is determined by the item evaluation model (S220), and whether or not the item is correct is predicted (S230). Then, the level of understanding of the concept related to the item is predicted by the concept evaluation model (S240), and whether or not the item is answered correctly and the degree of understanding of the concept related to the item is provided (S250).

보다 구체적으로, 문항이 수신되는 단계 (S210) 에서 문제 은행과 같은 평가 문항 제공 서버로부터 문항이 수신되거나, 문항 평가용 디바이스의 입력부를 통해 문항을 입력 받을 수 있다.More specifically, in the step of receiving the item (S210), the item may be received from an evaluation item providing server such as a question bank, or the item may be input through an input unit of the item evaluation device.

본 발명의 특징에 따르면, 문항이 수신되는 단계 (S210) 가 수행되기 이전에, 복수개의 문항 중 적어도 하나에 대한 선택이 입력되는 단계가 더 수행될 수 있다.According to a feature of the present invention, a step of inputting a selection for at least one of a plurality of questions may be further performed before the step of receiving the question ( S210 ) is performed.

따라서, 문항이 수신되는 단계 (S210) 에서 사용자로부터 선택된 문항이 수신될 수 있다.Accordingly, in the step of receiving the question (S210), the question selected by the user may be received.

그 다음, 문항에 대한 개념이 결정되는 단계 (S220) 에서, 문항이 갖는 개념이 결정될 수 있다. Next, in the step of determining the concept of the item (S220), the concept of the item may be determined.

본 발명의 특징에 따르면, 문항에 대한 개념이 결정되는 단계 (S220) 에서, 문항 벡터가 생성하도록, 문항이 벡터화 되고, 문항 벡터 및 잠재 개념과의 유사도가 비교되고, 유사도에 기초하여 문항에 대한 개념이 결정될 수 있다.According to a feature of the present invention, in the step of determining the concept of an item (S220), the item is vectorized so that an item vector is generated, the similarity between the item vector and the latent concept is compared, and based on the similarity, the item is vectorized. concept can be determined.

예를 들어, 도 3을 함께 참조하면, 문항이 수신되는 단계 (S210) 를 통해 평가 문항 (310) 이 수신되고, 문항에 대한 개념이 결정되는 단계 (S220) 에서 문항 평가 모델 (400) 에 평가 문항 (310) 이 입력된다. 그 다음, 평가 문항 (310) 이 임베딩 벡터화되어 문항 벡터 (312) 가 생성된다. 그 다음, 문항 평가 모델 (400) 의 잠재 개념 (410) 내의 개념들 각각에 대한 임베딩 벡터들과의 유사도가 비교된다. For example, referring to FIG. 3 together, an evaluation item 310 is received through the step of receiving the item (S210), and the evaluation item is evaluated by the item evaluation model 400 in the step of determining the concept of the item (S220). Question 310 is entered. Then, the evaluation items 310 are embedding vectorized to generate the item vectors 312 . Next, similarities with the embedding vectors for each of the concepts in the latent concept 410 of the item evaluation model 400 are compared.

한편, 본 발명의 다른 특징에 따르면, 문항에 대한 개념이 결정되는 단계 (S220) 이후에 잠재 개념 각각에 대한 가중치가 결정될 수 있다. Meanwhile, according to another feature of the present invention, a weight for each latent concept may be determined after the concept for the item is determined (S220).

예를 들어, 도 3을 다시 참조하면, 평가 문항 (310) 문항과 연관된 개념에 대하여 가중치가 미리 결정된 수준 이상으로 설정될 있고, 평가 문항 (310) 문항과 연관성이 상대적으로 낮은 개념에 대하여 가중치가 미리 결정된 수준 미만으로 설정될 수 있다. For example, referring to FIG. 3 again, weights may be set to a predetermined level or higher for concepts related to evaluation items 310, and weights may be applied to concepts that have a relatively low correlation with evaluation items 310. may be set below a predetermined level.

다시 도 2를 참조하면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항에 대하여 사용자가 정답을 맞출지에 대한 확률이 산출될 수 있다. Referring back to FIG. 2 , in the step of predicting whether or not the question is correct (S230), the probability of whether the user will answer the question correctly may be calculated.

본 발명의 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 개념 학습 상태 및 잠재 개념에 대하여 결정된 가중치를 기초로 문항의 정답 여부가 예측될 수도 있다. According to a feature of the present invention, in the step of predicting whether or not the item is correct (S230), whether the item is correct or not may be predicted based on the concept learning state and the weight determined for the latent concept by the item evaluation model.

본 발명의 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 개념 메모리 중, 문항과 연관된 메모리가 결정되고, 기 연관된 메모리에 기초하여 사용자의 문항 풀이 능력이 결정되고, 문항 풀이 능력에 기초하여 문항에 대한 정답 여부가 예측될 수 있다.According to a feature of the present invention, in the step of predicting whether or not the question is correct (S230), a memory associated with the item is determined from among the concept memories by the item evaluation model, and the user's ability to solve the item is determined based on the previously associated memory. And, based on the ability to solve the question, whether or not the answer is correct for the question can be predicted.

본 발명의 다른 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 문항의 난이도가 결정되고, 개념 메모리 중, 문항과 연관된 메모리가 결정되고, 연관된 메모리를 기초하여 사용자의 문항 풀이 능력이 결정되고, 문항의 난이도 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부가 예측될 수 있다.According to another feature of the present invention, in the step of predicting whether the question is correct or not (S230), the difficulty of the item is determined by the item evaluation model, the memory associated with the item is determined among the concept memories, and based on the associated memory The user's problem-solving ability may be determined, and a correct answer to the item may be predicted based on the difficulty of the item and the item-solving ability.

예를 들어, 도 3을 함께 참조하면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 사용자의 지식 상태인 개념 메모리에 대응하는 개념 학습 상태 (420) 및 잠재 개념 각각에 대한 가중치에 기초하여, KEY에 대응하는 VALUE 값이 설정될 수 있다. 그 다음, 문항 풀이 능력 결정 네트워크 (430) 에 의해 사용자의 문항 풀이 능력 (316) 이 결정될 수 있다. 이때, 문항 평가 모델 (400) 은 문항 벡터 (312) 에 기초하여 평가 문항 (310) 에 대한 문항 난이도 (314) 를 결정할 수 있다. 한편, 문항 난이도 (314) 는 문항 평가 모델 (400) 과 독립적인 문항 난이도 예측 모델 (미도시) 에 의해 결정되어 문항 평가 모델 (400) 에 송신될 수도 있다. 그 다음, 문항 난이도 (314) 및 사용자의 문항 풀이 능력 (316) 에 기초하여 평가 문항 (310) 을 사용자가 맞출 확률인, 정답 확률 (318) 이 80 %로 결정될 수 있다. For example, referring to FIG. 3 together, in step S230 of predicting whether or not the question is correct, based on the concept learning state 420 corresponding to the concept memory that is the user's knowledge state and the weight for each latent concept , a VALUE value corresponding to the KEY may be set. Next, the item solving ability 316 of the user may be determined by the item solving ability determination network 430 . At this time, the item evaluation model 400 may determine the item difficulty 314 of the evaluation item 310 based on the item vector 312 . Meanwhile, the item difficulty 314 may be determined by the item evaluation model 400 and an independent item difficulty prediction model (not shown) and transmitted to the item evaluation model 400 . Then, based on the item difficulty 314 and the user's item solving ability 316, a correct answer probability 318, which is a probability that the user corrects the evaluation item 310, may be determined to be 80%.

다시 도 2를 참조하면, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 에서, 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델에 의해 사용자에 대한 개념의 이해도가 예측될 수 있다.Referring back to FIG. 2 , in step S240 of predicting the level of understanding of a concept related to an item, a concept evaluation model configured to share at least one of a latent concept and a concept learning state and predict a level of understanding of a concept related to the item provides the user with a concept evaluation model. The level of understanding of the concept of can be predicted.

예를 들어, 도 3을 다시 참조하면, 개념 평가 모델 (500) 은 문항 평가 모델 (400) 과 잠재 개념 (510) 및 사용자에 대한 개념 학습 상태 (520) 를 공유하도록 구성될 수 있다. 이에 따라, 히든 개념 레이어에 대한 해석 가능성을 높일 수 있어, 학습자의 지식 상태에 대한 섬세한 분석이 가능할 수 있다. 더욱이 히든 레이어의 공유에 따라 학습 단계에서 등장 빈도수가 낮은 개념의 문항에 대한 평가 능력이 우수할 수 있고, 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. 한편, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 에서 평가 문항 (310) 과 연관된 개념 (320) 이 개념 평가 모델 (500) 에 입력되고, 연관된 개념 (320) 을 임베딩 벡터화 하여 연관된 개념 (320) 각각에 대한 개념 벡터 (322) 를 획득할 수 있다. 그 다음, 잠재 개념 (510) 내의 개념들 각각에 대한 임베딩 벡터들과의 유사도가 비교되고, 사용자의 지식 상태인 개념 메모리에 대응하는 개념 학습 상태 (520) 및 잠재 개념 각각에 대한 가중치에 기초하여, KEY에 대응하는 VALUE 값이 설정될 수 있다. 그 다음, 개념 이해 능력 결정 네트워크 (530) 에 의해 사용자의 개념 이해 능력 (326) 이 결정될 수 있다. 이때, 개념 평가 모델 (500) 은 개념 벡터 (322) 에 기초하여 평가 문항 (310) 과 연관된 개념 (320) 에 대한 개념 난이도 (324) 를 결정할 수 있다. 한편, 개념 난이도 (324) 는 개념 평가 모델 (500) 과 독립적인 문항 난이도 예측 모델 (미도시) 에 의해 결정되어 개념 평가 모델 (500) 에 송신될 수도 있다. 그 다음, 개념 난이도 (324) 및 사용자의 개념 이해 능력 (326) 에 기초하여 평가 문항 (310) 에 대한 개념 a, b, c의 개념 이해 확률 (328) 이 각각 60 %, 90 %, 85 %로 결정될 수 있다. For example, referring back to FIG. 3 , concept evaluation model 500 can be configured to share latent concepts 510 and concept learning status 520 for a user with item evaluation model 400 . Accordingly, it is possible to increase the interpretability of the hidden concept layer, so that a detailed analysis of the learner's state of knowledge may be possible. Furthermore, according to the sharing of the hidden layer, the evaluation ability for items with low frequency of occurrence can be excellent in the learning stage, and even if the evaluation is repeated, the diagnostic performance can be maintained at a high level. Meanwhile, in the step of predicting the degree of understanding of the concept related to the item (S240), the concept 320 associated with the evaluation item 310 is input to the concept evaluation model 500, and the related concept 320 is embedded and vectorized to obtain a related concept ( 320) can obtain concept vectors 322 for each. Then, the similarity with the embedding vectors for each of the concepts in the latent concept 510 is compared, and based on the concept learning state 520 corresponding to the concept memory that is the user's knowledge state and the weight for each latent concept , a VALUE value corresponding to the KEY may be set. The user's concept understanding ability 326 can then be determined by the concept understanding ability determination network 530 . At this time, the concept evaluation model 500 may determine a concept difficulty 324 for the concept 320 associated with the evaluation item 310 based on the concept vector 322 . Meanwhile, the concept difficulty 324 may be determined by an item difficulty prediction model (not shown) independent of the concept evaluation model 500 and transmitted to the concept evaluation model 500 . Then, based on the concept difficulty 324 and the user's concept understanding ability 326, the concept understanding probabilities 328 of concepts a, b, and c for the evaluation item 310 are 60%, 90%, and 85%, respectively. can be determined by

한편, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 는, 전술한 것에 제한되지 않고, 문항에 대한 개념이 결정되는 단계 (S220) 또는 문항의 정답 여부가 예측되는 단계 (S230) 와 동시에 수행될 수도 있다. On the other hand, the step of predicting the degree of understanding of the concept related to the item (S240) is not limited to the above, and is performed simultaneously with the step of determining the concept of the item (S220) or predicting whether the question is correct (S230) It could be.

다시 도 2를 참조하면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 에서, 문항의 정답 여부가 예측되는 단계 (S230) 및 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 각각에서 결정된 문항에 대한 정답 여부 및 개념의 이해도가 제공된다.Referring back to FIG. 2 , in step S250 in which whether an item is correct and the level of understanding of a concept related to the item is provided, whether or not the item is correct is predicted (S230) and the degree of understanding of the concept related to the item is predicted ( S240) Whether or not the answer is correct for the question determined in each step and the degree of understanding of the concept are provided.

예를 들어, 도 3을 참조하면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 에서, 문항 평가 모델 (400) 및 개념 평가 모델 (500) 각각에서 의해 출력된 정답 확률 (318) 및 개념 이해도 (328) 가 제공될 수 있다.For example, referring to FIG. 3 , in a step S250 in which whether an item is answered correctly and the level of understanding of a concept related to the item is provided, the probability of correct answer output by the item evaluation model 400 and the concept evaluation model 500, respectively 318 and conceptual understanding 328 may be provided.

한편, 본 발명의 특징에 따르면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 이후에, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이하의 이해도를 갖는 개념과 연관된 문항을 결정하는 단계, 및 연관된 문항을 제공하는 단계가 더 수행될 수 있다.On the other hand, according to the feature of the present invention, after the step (S250) of providing whether or not the question is correct and the degree of understanding of the concept related to the question, among a plurality of additional questions based on the predicted user's degree of understanding of the concept, a predetermined level or less is reached. A step of determining an item associated with a concept having an understanding of , and a step of providing a related item may be further performed.

나아가, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계, 및 복수의 추가 문항 중, 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계가 더 수행될 수 있다.Furthermore, based on the predicted level of understanding of the user's concept, determining a high-understanding item associated with a concept having a level of understanding above a predetermined level among a plurality of additional items, and selecting a high-understanding item among the plurality of additional items. A step of providing the remaining questions may be further performed.

즉, 학습자는 부족한 개념과 연관된 문항을 제공받을 수 있어, 학습자의 학습 효율이 증대될 수 있다. That is, learners can be provided with questions related to concepts they lack, so that learners' learning efficiency can be increased.

한편, 본 발명의 다양한 실시예에 따른 문항 평가 방법에서, 문항에 대한 분석은 하기 수학식 1에 기초하여 수행될 수 있다.Meanwhile, in the item evaluation method according to various embodiments of the present invention, analysis of the item may be performed based on Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서, BCE는 'binary cross entropy'를 지칭하고, qt는 시간 t에 해당하는 평가 문항을 지칭하며, at는 시간 t에 해당하는 사용자의 답을 지칭하며, Ωt는 qt와 연관된 개념 집합을 지칭한다. 또한 c는 개념을 지칭하고, DKVMN은 문항 풀이 예측 파트, ExpM은 개념 이해도 예측 파트로 정의될 수 있다. 이때, Ωt는 1, 즉 문항과 연관된 개념은 1개일 수 있으나 이에 제한되는 것은 아니다. Here, BCE refers to 'binary cross entropy', q t refers to an evaluation item corresponding to time t, a t refers to the user's answer corresponding to time t, and Ω t refers to a concept related to q t refers to a set In addition, c indicates a concept, DKVMN can be defined as an item solution prediction part, and ExpM can be defined as a concept understanding level prediction part. At this time, Ω t is 1, that is, the concept associated with the item may be one, but is not limited thereto.

본 발명의 다른 특징에 따르면, 문항에 대한 사용자의 정답 여부, 및 예측된 개념 이해도에 따라 지식 상태의 업데이트를 반영할 수 있다.According to another feature of the present invention, the update of the knowledge state may be reflected according to the user's correct answer to the question and the predicted level of understanding of the concept.

이하에서는, 도 4 및 도 5를 참조하여, 문항 평가 모델의 업데이트에 대하여 구체적으로 설명한다. Hereinafter, updating of the item evaluation model will be described in detail with reference to FIGS. 4 and 5 .

도 4는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 설명하기 위한 개략적인 순서도이다. 도 5는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 예시적으로 도시한 것이다.4 is a schematic flowchart for explaining an update step of an item evaluation model applied to various embodiments of the present invention. 5 illustratively illustrates an update step of an item evaluation model applied to various embodiments of the present invention.

먼저, 도 4를 참조하면, 문항 평가 모델은 사용자로부터 문항에 대한 답이 수신되고 (S410), 수신된 정답 여부, 및 문항과 연관된 개념에 기초하여 개념 학습 상태가 업데이트될 수 있다 (S420). First, referring to FIG. 4 , in the item evaluation model, an answer to an item is received from a user (S410), and a concept learning state may be updated based on the received correct answer and a concept associated with the item (S420).

예를 들어, 도 5를 함께 참조하면, 문항에 대한 답이 수신되는 단계 (S410) 에서, 평가 문항 및 정답 세트 (620) 가 수신될 수 있다. 그 다음, 개념 학습 상태가 업데이트되는 단계 (S420) 에서, 평가 문항 및 정답 세트 (620) 를 임베딩 벡터화 한 후, 삭제 벡터 (erase vector) 및 추가 벡터 (add vector) 를 각각 생성한다. 그 다음, 평가 문항 (610) 이 문항 평가 모델 (400) 에 입력된 후, 잠재 개념 (410) 과의 유사도에 따라 결정된 가중치가 삭제 벡터 및 추가 벡터 각각에 대하여 곱해진다. 그 다음, 삭제 벡터에 기존의 개념 학습 상태 (t) (420) 가 반영된 후, 두 개의 벡터가 합쳐짐으로써, 새롭게 업데이트된 개념 학습 상태 (t+1) (420') 이 획득될 수 있다. 업데이트된 개념 학습 상태 (420') 는, 평가 문항 (610) 다음에 제시될 문항의 평가에 적용될 수 있다.For example, referring to FIG. 5 together, in step S410 of receiving answers to questions, an evaluation item and a correct answer set 620 may be received. Next, in the step of updating the concept learning state (S420), the evaluation questions and the correct answer set 620 are vectorized into an embedding vector, and then an erase vector and an add vector are generated, respectively. Then, after the evaluation item 610 is input to the item evaluation model 400, the weight determined according to the degree of similarity with the latent concept 410 is multiplied for each of the deleted vector and the added vector. Then, after the existing concept learning state (t) 420 is reflected in the deleted vector, the two vectors are merged to obtain a newly updated concept learning state (t+1) 420'. The updated concept learning state 420 ′ may be applied to the evaluation of an item to be presented after the evaluation item 610 .

이하에서는, 도 6a 및 6b를 참조하여, 본 발명의 다양한 실시예에 이용되는 문항 평가 모델 및 개념 평가 모델의 구조, 문항 평가 모델의 업데이트를 위한 구성을 구체적으로 설명한다. Hereinafter, with reference to FIGS. 6A and 6B , the structure of an item evaluation model and concept evaluation model used in various embodiments of the present invention and a configuration for updating the item evaluation model will be described in detail.

도 6a는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델의 구조를 예시적으로 도시한 것이다. 도 6b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트를 위한 구성을 예시적으로 도시한 것이다.FIG. 6A exemplarily illustrates structures of an item evaluation model and a concept evaluation model applied to various embodiments of the present invention. 6B illustrates a configuration for updating an item evaluation model applied to various embodiments of the present invention by way of example.

먼저, 도 6a를 참조하면, 문항 평가 모델 (400) 은 크게, 개념들 각각에 대한 임베딩 벡터들을 저장하는 ‘Key memory'인 잠재 개념 (410), 학습자의 지식 상태에 따라 가변적이고 ‘Key'에 대응하는 절대값을 포함하는 ‘Value memory (또는, 개념 메모리)'에 대응하는 개념 학습 상태 (420) 및 사용자에 대한 문항 풀이 능력을 결정하는 문항 풀이 능력 결정 네트워크 (430) 로 구성될 수 있다. 이때, qt에 대응하는 평가 문항 (310) 이 임베딩 벡터화 되어 kt에 대응하는 문항 벡터 (312) 가 생성되고, 이후 C에 대응하는 잠재 개념 (410) 내의 개념 각각에 대한 벡터와 문항 벡터 (312) 의 유사도에 따라, Wt q에 대응하는 가중치 (412) 가 결정될 수 있다. 그 다음, 개념 학습 상태 (420) 및 가중치 (412) 에 기초하여, rt q에 대응하는 리드 벡터 (read vector) (422) 가 생성된다. 그 다음, 문항 벡터 (312) 및 리드 벡터 (read vector) (422) 에 기초하여 ft q 특징 벡터 (feature vector) 에 대응하는 학습자의 문항 풀이 능력을 예측하는 네트워크 (430) 가 생성되고,

Figure pat00002
t q에 대응하는 학습자에 대한 문항 풀이 능력 (316) 이 결정된다. 그 다음, 문항 벡터 (312) 에 기초하여 결정된
Figure pat00003
q에 대응하는 문항 난이도 (314) 및 문항 풀이 능력 (316) 에 기초하여 pt에 대응하는 정답 확률 (318) 이 최종적으로 산출될 수 있다. 한편, 개념 평가 모델 (500) 및 문항 평가 모델 (400) 은, 싱크가 맞춰진 잠재 개념 (410, 510), 개념 학습 상태 (410, 520) 를 포함할 수 있다. First, referring to FIG. 6A , the item evaluation model 400 has a latent concept 410, which is a 'key memory' that stores embedding vectors for each concept, is variable according to the state of knowledge of the learner, and has a 'Key'. It can be composed of a concept learning state 420 corresponding to 'value memory (or concept memory)' including corresponding absolute values and a problem solving ability determination network 430 that determines the item solving ability of the user. At this time, the evaluation item 310 corresponding to q t is converted into an embedding vector to generate an item vector 312 corresponding to k t , and then a vector for each concept in the latent concept 410 corresponding to C and an item vector ( 312), a weight 412 corresponding to W t q may be determined. Then, based on the concept learned state 420 and the weights 412, a read vector 422 corresponding to r t q is generated. Then, based on the item vector 312 and the read vector 422, a network 430 predicting the learner's item solving ability corresponding to the f t q feature vector is generated,
Figure pat00002
The item solving ability (316) of the learner corresponding to t q is determined. Then, determined based on the item vector 312
Figure pat00003
Based on the item difficulty 314 and the item solving ability 316 corresponding to q , a correct answer probability 318 corresponding to p t may be finally calculated. Meanwhile, the concept evaluation model 500 and the item evaluation model 400 may include synchronized latent concepts 410 and 510 and concept learning states 410 and 520 .

즉, 개념 평가 모델 (500) 은, 문항 평가 모델 (400) 로부터 공유된 잠재 개념 (510) 및 개념 학습 상태 (520), 및 개념 이해 능력 결정 네트워크 (530) 로 이루어질 수 있다. 이때, 전문가에 의해 개념이 태깅된, Ct에 대응하는 문항과 연관된 개념 (320) 이 임베딩 벡터화 되어 h에 대응하는 개념 벡터 (322) 가 생성되고, 이후 C에 대응하는 잠재 개념 (510) 내의 개념 각각에 대한 벡터와 개념 벡터 (322) 의 유사도에 따라, Wt c에 대응하는 가중치 (512) 가 결정될 수 있다. 그 다음, 개념 학습 상태 (520) 및 가중치 (512) 에 기초하여, rt c에 대응하는 리드 벡터 (read vector) (522) 가 생성된다. 그 다음, 개념 벡터 (322) 및 리드 벡터 (read vector) (522) 에 기초하여 ft c 특징 벡터 (feature vector) 에 대응하는 학습자의 개념 이해 능력을 예측하는 네트워크 (530) 가 생성되고,

Figure pat00004
t c에 대응하는 학습자에 대한 사용자의 개념 이해 능력 (326) 이 결정된다. 그 다음, 개념 벡터 (322) 에 기초하여 결정된
Figure pat00005
c에 대응하는 개념 난이도 (324) 및 개념 이해 능력 (326) 에 기초하여 mt에 대응하는 개념 이해 확률 (318) 이 최종적으로 산출될 수 있다.That is, the concept evaluation model 500 may be composed of a latent concept 510 shared from the item evaluation model 400, a concept learning state 520, and a concept comprehension ability determination network 530. At this time, the concept 320 associated with the item corresponding to C t , to which the concept is tagged by the expert, is embedding vectorized to generate a concept vector 322 corresponding to h, and then in the latent concept 510 corresponding to C A weight 512 corresponding to W t c may be determined according to a degree of similarity between a vector for each concept and the concept vector 322 . Then, based on the concept learned state 520 and the weights 512, a read vector 522 corresponding to r t c is generated. Then, based on the concept vector 322 and the read vector 522, a network 530 predicting the learner's concept comprehension ability corresponding to the f t c feature vector is created;
Figure pat00004
The user's concept comprehension ability 326 for the learner corresponding to t c is determined. Then, based on the concept vector 322,
Figure pat00005
Based on the concept difficulty 324 and the concept understanding ability 326 corresponding to c , the concept understanding probability 318 corresponding to m t can be finally calculated.

이때, 문항 평가 모델 (400) 및 개념 평가 모델 (500) 은, 히든 개념 레이어를 공유하는 복수의 DKVMN 알고리즘에 기초한 모델일 수 있으나, 이에 제한되는 것은 아니다.In this case, the item evaluation model 400 and the concept evaluation model 500 may be models based on a plurality of DKVMN algorithms sharing a hidden concept layer, but are not limited thereto.

한편, 문항 평가 모델 (400) 의 개념 학습 상태 (420) 는 문항에 대한 사용자의 정답 여부, 및 문항과 연관된 개념에 기초하여 업데이트될 수 있고, 업데이트된 개념 학습 상태 (420') 는 개념 평가 모델 (500) 에 공유될 수 있다. Meanwhile, the concept learning state 420 of the item evaluation model 400 may be updated based on whether the user answered the question correctly and the concept related to the item, and the updated concept learning state 420' corresponds to the concept evaluation model (500).

보다 구체적으로, 도 6b를 참조하면, 개념 학습 상태 (420) 의 업데이트를 위해, 기존 학습된 qt 임베딩 백터와 질문에 대한 사용자의 반응인 at가 결합하고, (qt, at)에 대응하는 평가 문항 및 정답 세트 (620) 가 비-선형 맵핑 (Non-linear mapping) 되어 vt에 대응하는 문항 정답 벡터 (622) 가 생성된다. 이때, 문항 정답 벡터 (622) 는 하기 수학식 2에 의해 생성될 수 있다.More specifically, referring to FIG. 6B, for the update of the concept learning state 420, the previously learned qt embedding vector and a t , which is the user's response to the question, are combined, corresponding to (q t , a t ) A set of evaluation questions and correct answers 620 are non-linearly mapped to generate a correct answer vector 622 corresponding to v t . At this time, the item answer vector 622 may be generated by Equation 2 below.

[수학식 2][Equation 2]

vt = tanh(FC(A(qt),at))v t = tanh( FC ( A (q t ),a t ))

즉, 업데이트는, (qt, at)의 평가 문항 및 정답 세트 (620) 에 대한 새로운 임베딩 메트릭스를 생성 및 학습하지 않고, 기존의 평가 문항 (310) 이 임베딩 벡터화된 문항 벡터 (312) 를 at와 결합하면서 개시된다. 이에, 문항 평가 모델은 불 필요한 오버헤드 (overhead) 없이 업데이트 되고, 보다 안정적인 학습 (예를 들어, DKVMN 모델에서) 이 진행될 수 있다. 그 다음, 문항 정답 벡터 (622) 에 시그마 (σ) 가 적용되어 et에 대응하는 삭제 벡터가 생성되고, 문항 정답 벡터 (632) 에 쌍곡선 탄젠트 (tanh) 가 적용되어 추가 벡터 (634) 가 생성된다. 그 다음, 잠재 개념 (410) 과의 유사도에 따라 결정된 가중치 (412) 가 삭제 벡터 (632) 및 추가 벡터 (634) 각각에 대하여 곱해진다. 그 다음, 삭제 벡터 (632) 에 기존의 개념 학습 상태 (420) 가 반영된 후, 두 개의 벡터 (632, 634) 의 값들이 합쳐짐으로써, St+1에 대응하는 새롭게 업데이트된 개념 학습 상태 (420') 이 획득될 수 있다. 업데이트된 개념 학습 상태 (420') 는, 평가 문항 (310) 다음에 제시될 문항의 평가에 적용될 수 있다. 더욱이, 개념 평가 모델 (500) 에 공유될 수 있다.That is, the update does not generate and learn a new embedding matrix for the (q t , a t ) evaluation items and the correct answer set 620 , but instead uses the vectorized item vector 312 as the embedding of the existing evaluation items 310. It starts by combining with a t . Accordingly, the item evaluation model is updated without unnecessary overhead, and more stable learning (for example, in the DKVMN model) can be performed. Next, sigma (σ) is applied to the correct item vector 622 to generate a deleted vector corresponding to et, and the hyperbolic tangent (tanh) is applied to the correct item vector 632 to generate an additional vector 634. . Then, each of the deleted vector 632 and the added vector 634 is multiplied by a weight 412 determined according to the degree of similarity with the latent concept 410 . Then, after the existing concept learning state 420 is reflected in the deletion vector 632, the values of the two vectors 632 and 634 are combined to obtain a newly updated concept learning state corresponding to S t+1 ( 420') can be obtained. The updated concept learning state 420 ′ may be applied to the evaluation of an item to be presented after the evaluation item 310 . Furthermore, it can be shared with the concept evaluation model 500.

비교예: 본 발명의 다양한 실시예에 따른 문항 평가 모델 + 개념 평가 모델, 및 단독 문항 평가 모델의 성능 비교 Comparative Example: Performance comparison of item evaluation model + concept evaluation model and single item evaluation model according to various embodiments of the present invention

이하에서는, 도 7a 및 7b를 참조하여 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스에 대한 평가 결과를 설명한다.Hereinafter, evaluation results of the item evaluation device according to various embodiments of the present invention will be described with reference to FIGS. 7A and 7B.

도 7a를 참조하면, DKVMN 알고리즘에 기초한 단독의 문항 평가 모델에 대한 평가 결과가 도시된다. 나아가, 도 7b를 참조하면, 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델에 기초한 문항 평가용 디바이스의 평가 결과가 도시된다.Referring to FIG. 7A , an evaluation result for a single item evaluation model based on the DKVMN algorithm is shown. Furthermore, referring to FIG. 7B , an evaluation result of an item evaluation device based on an item evaluation model and a concept evaluation model applied to various embodiments of the present invention is shown.

도 7a의 (a) 및 7b의 (a)를 참조하면, 본 발명의 다양한 실시예에 따른 문항 평가 모델 + 개념 평가 모델, 및 단독 문항 평가 모델의 분석의 정확도 (accuracy) 는 유사한 수준으로 나타난다. 그러나, 도 7a의 (b) 및 7b의 (b)를 더욱 참조하면, 크로스 엔트로피 손실 (Cross-entropy) 의 loss 값이 문항 평가 모델 + 개념 평가 모델이 단독의 문항 평가 모델보다 유의한 수준으로 낮게 나타난다. 더욱이, 도 7a의 (c) 및 7b의 (c)의 모델의 성능에 대응하는 AUC값을 참조하면, 단독의 문항 평가 모델의 경우 0.8162를 보이다가 평가가 진행될수록 0.76 이하로 하락하는 것으로 나타난다. 그러나, 문항 평가 모델 + 개념 평가 모델의 경우 0.8269의 높은 AUC값이 측정된 후, 0.8 이하로 떨어지지 않고 유지되는 것으로 나타난다. 즉, 이러한 결과는, 문항 평가 모델 + 개념 평가 모델은, 단독의 문항 평가 모델보다 예측의 성능이 우수하며, 문항 평가가 반복되어도 성능이 유지됨을 의미할 수 있다. Referring to FIGS. 7A (a) and 7B (a), the accuracy of analysis of the item evaluation model + concept evaluation model and the single item evaluation model according to various embodiments of the present invention is shown to be at a similar level. However, further referring to FIGS. 7A (b) and 7B (B), the cross-entropy loss value of the item evaluation model + concept evaluation model is significantly lower than that of the single item evaluation model. appear. Moreover, referring to the AUC value corresponding to the performance of the models of FIGS. 7A (c) and 7B (c), in the case of a single item evaluation model, it is 0.8162, but decreases to 0.76 or less as the evaluation progresses. However, in the case of the item evaluation model + concept evaluation model, after a high AUC value of 0.8269 is measured, it appears to be maintained without falling below 0.8. That is, these results may mean that the item evaluation model + concept evaluation model has better predictive performance than a single item evaluation model, and that the performance is maintained even if item evaluation is repeated.

이때, 단독의 문항 평가 모델은, 학습 단계에서 자주 등장하는 개념을 갖는 문항으로 인한 오버 핏팅에 의해 등장 빈도수가 낮은 개념에 대한 문항의 평가 능이 저조할 수 있다. 즉, 단독의 문항 평가 모델은, 개념 별 출제 문항의 균형에 따라 성능이 떨어질 수 있다. At this time, in the single item evaluation model, the ability to evaluate items for concepts with a low frequency of appearance may be low due to overfitting due to items having concepts that frequently appear in the learning stage. That is, the performance of a single item evaluation model may deteriorate depending on the balance of item items for each concept.

한편, 문항 평가 모델 및 개념 평가 모델은 사용자에 대한 개념 학습 상태를 공유함에 따라, 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. On the other hand, as the item evaluation model and the concept evaluation model share the learning state of the concept for the user, the evaluation ability for the item for a concept with a low frequency of appearance is higher than that of the single model, and the diagnostic performance is high even if the evaluation of the item is repeated. level can be maintained.

따라서, 문항 평가 모델 및 개념 평가 모델의 두 개의 모델에 기초한 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스는, 학습자의 학습 상태에 대한 섬세한 분석을 진행할 수 있는 효과가 있다.Therefore, the item evaluation device according to various embodiments of the present invention based on the two models of the item evaluation model and the concept evaluation model has an effect of performing a detailed analysis of the learner's learning state.

이에, 본 발명은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있다.Accordingly, the present invention can provide a customized e-learning environment for individual learners by providing an understanding of concepts related to questions and correct answers of questions output by each model by the item evaluation system.

이상 첨부된 도면을 참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although one embodiment of the present invention has been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be variously modified and implemented without departing from the technical spirit of the present invention. there is. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The protection scope of the present invention should be construed according to the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

100: 문항 평가용 디바이스
110, 230: 저장부
120, 210: 통신부
130, 240: 프로세서
200: 사용자 디바이스
220: 표시부
300: 평가 대상 문항 DB
310, 610: 평가 문항
312, 612: 문항 벡터
314, 614: 문항 난이도
316, 616: 문항 풀이 능력
318, 618: 정답 확률
322: 개념 벡터
324: 개념 난이도
326: 개념 이해 능력
328: 개념 이해 확률
410, 510: 잠재 개념
412, 512: 가중치
420, 520: 개념 학습 상태
422, 522: 리드 벡터
420': 업데이트된 개념 학습 상태
430: 문항 풀이 능력 결정 네트워크
530: 개념 이해 능력 결정 네트워크
1000: 문항 평가 시스템
100: device for evaluating questions
110, 230: storage unit
120, 210: communication department
130, 240: processor
200: user device
220: display unit
300: Evaluation target item DB
310, 610: evaluation questions
312, 612: question vector
314, 614: Question difficulty
316, 616: Ability to solve questions
318, 618: probability of correct answer
322: concept vector
324: Concept Difficulty
326: Ability to understand concepts
328: concept understanding probability
410, 510: latent concept
412, 512: weight
420, 520: concept learning state
422, 522: lead vector
420': updated concept learning status
430: Item Solving Ability Determination Network
530: Concept Understanding Ability Determination Network
1000: item evaluation system

Claims (8)

프로세서에 의해 구현되는 문항 평가 방법으로서,
사용자 디바이스로부터 사용자가 풀어야 할 임의의 문항을 수신하는 단계;
상기 문항에 대한 잠재 개념을 결정하는 단계;
복수의 잠재 개념과 사용자의 개념 학습 상태를 포함한 히든 개념 레이어 및 문항 풀이 능력 결정 레이어로 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 사용자의 정답 확률을 예측하는 단계;
상기 히든 개념 레이어를 사용자의 개념 이해 확률을 예측하기 위한 개념 평가 모델에 공유하는 단계;
공유된 히든 개념 레이어 및 개념 이해 능력 결정 레이어로 구성된 상기 개념 평가 모델을 이용하여, 결정된 개념에 대한 사용자의 개념 이해 확률을 예측하는 단계; 및
예측된 정답 확률 및 개념 이해 확률을 상기 사용자 디바이스로 제공하는 단계; 를 포함하고,
상기 문항 평가 모델은,
상기 문항에 대응하는 문항 벡터가 입력되는 입력 레이어;
상기 문항 벡터와 벡터화된 상기 복수의 잠재 개념과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 문항 평가 가중치를 결정하는 제1 히든 개념 레이어;
상기 개념 학습 상태 및 상기 문항 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어;
상기 문항 벡터 및 상기 리드 벡터를 기초로 문항 풀이 능력을 결정하는 상기 문항 풀이 능력 결정 레이어; 및
상기 문항 벡터를 기초로 하는 문항 난이도 및 상기 문항 풀이 능력을 입력하여 상기 사용자의 정답 확률을 산출하는 출력 레이어; 를 포함하고,
상기 개념 평가 모델은,
상기 결정된 개념에 대응하는 개념 벡터가 입력되는 입력 레이어;
상기 개념 벡터와 벡터화된 상기 복수의 잠재 개념 각각과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 개념 평가 가중치를 결정하는 제1 히든 개념 레이어;
상기 개념 학습 상태 및 상기 개념 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어;
상기 개념 벡터 및 리드 벡터를 기초로 개념 이해 능력을 결정하는 상기 개념 이해 능력 결정 레이어; 및
상기 개념 벡터를 기초로 하는 개념 난이도 및 상기 개념 이해 능력을 입력하여 상기 사용자의 개념 이해 확률을 산출하는 출력 레이어; 를 포함하는, 문항 평가 방법.
As an item evaluation method implemented by a processor,
Receiving an item to be solved by a user from a user device;
determining a latent concept for the item;
predicting a user's correct answer probability for the item using an item evaluation model composed of a plurality of latent concepts, a hidden concept layer including a user's concept learning state, and an item-solving ability determination layer;
sharing the hidden concept layer to a concept evaluation model for predicting a concept understanding probability of a user;
predicting a concept understanding probability of a user for a determined concept using the concept evaluation model composed of a shared hidden concept layer and a concept comprehension capability determination layer; and
providing predicted correct answer probabilities and concept understanding probabilities to the user device; including,
The item evaluation model,
an input layer into which item vectors corresponding to the items are input;
a first hidden concept layer for determining an item evaluation weight corresponding to each of the plurality of latent concepts based on a similarity between the item vector and the plurality of vectorized latent concepts;
a second hidden concept layer for determining a lead vector based on the concept learning state and the item evaluation weight;
the item solving ability determination layer determining item solving ability based on the item vector and the read vector; and
an output layer that calculates a probability of correct answer of the user by inputting the item difficulty and the item solving ability based on the item vector; including,
The concept evaluation model,
an input layer into which a concept vector corresponding to the determined concept is input;
a first hidden concept layer for determining a concept evaluation weight corresponding to each of the plurality of latent concepts based on a degree of similarity between the concept vector and each of the plurality of vectorized latent concepts;
a second hidden concept layer for determining a read vector based on the concept learning state and the concept evaluation weight;
the concept comprehension capability determining layer for determining a concept comprehension capability based on the concept vector and the lead vector; and
an output layer for calculating a concept understanding probability of the user by inputting the concept difficulty and the concept understanding ability based on the concept vector; Including, item evaluation method.
제1항에 있어서,
상기 개념 학습 상태는,
상기 사용자가 맞춘 정답 문항이 갖는 잠재 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의되는, 문항 평가 방법.
According to claim 1,
The concept learning state,
An item evaluation method, which is defined as a concept memory consisting of absolute values of concept vectors obtained by vectorizing latent concepts of the correct answer items corrected by the user.
제2항에 있어서,
상기 사용자 디바이스로부터 상기 문항에 대한 답안을 수신하는 단계, 및
수신된 상기 답의 정답 여부, 및 상기 문항과 연관된 잠재 개념을 기초로 상기 개념 메모리를 업데이트하는 단계를 포함하는, 문항 평가 방법.
According to claim 2,
receiving an answer to the question from the user device; and
and updating the concept memory based on whether the received answer is correct and a latent concept associated with the item.
제1항에 있어서,
상기 제공하는 단계 이후에,
예측된 상기 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계; 및
상기 사용자 디바이스로 상기 복수의 추가 문항 중, 상기 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계; 를 더 포함하는, 문항 평가 방법.
According to claim 1,
After the providing step,
Determining an item with high comprehension associated with a concept having a level of understanding equal to or higher than a predetermined level, among a plurality of additional items, based on the predicted level of understanding of the concept; and
providing the remaining items except for the items with high level of understanding among the plurality of additional items to the user device; Further comprising, item evaluation method.
사용자 디바이스로부터 사용자가 풀어야 할 임의의 문항을 수신하도록 구성된 통신부, 및
상기 통신부와 동작 가능하게 연결된 프로세서를 포함하고,
상기 프로세서는,
상기 문항에 대한 잠재 개념을 결정하고, 복수의 잠재 개념과 사용자의 개념 학습 상태를 포함한 히든 개념 레이어 및 문항 풀이 능력 결정 레이어로 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 사용자의 정답 확률을 예측하고, 상기 히든 개념 레이어를 사용자의 개념 이해 확률을 예측하기 위한 개념 평가 모델에 공유하고, 공유된 히든 개념 레이어 및 개념 이해 능력 결정 레이어로 구성된 상기 개념 평가 모델을 이용하여, 결정된 개념에 대한 사용자의 개념 이해 확률을 예측하고, 예측된 정답 확률 및 개념 이해 확률을 상기 사용자 디바이스로 제공하도록 구성되며,
상기 문항 평가 모델은,
상기 문항에 대응하는 문항 벡터가 입력되는 입력 레이어;
상기 문항 벡터와 벡터화된 상기 복수의 잠재 개념과의 유사도를 기초로 상기 복수의 잠재 개념각각에 대응되는 문항 평가 가중치를 결정하는 제1 히든 개념 레이어;
상기 개념 학습 상태 및 상기 문항 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어;
상기 문항 벡터 및 상기 리드 벡터를 기초로 문항 풀이 능력을 결정하는 상기 문항 풀이 능력 결정 레이어; 및
상기 문항 벡터를 기초로 하는 문항 난이도 및 상기 문항 풀이 능력을 입력하여 상기 사용자의 정답 확률을 산출하는 출력 레이어; 를 포함하고,
상기 개념 평가 모델은,
상기 결정된 개념에 대응하는 개념 벡터가 입력되는 입력 레이어;
상기 개념 벡터와 벡터화된 상기 복수의 잠재 개념 각각과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 개념 평가 가중치를 결정하는 제1 히든 개념 레이어;
상기 개념 학습 상태 및 상기 개념 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어;
상기 개념 벡터 및 리드 벡터를 기초로 개념 이해 능력을 결정하는 상기 개념 이해 능력 결정 레이어; 및
상기 개념 벡터를 기초로 하는 개념 난이도 및 상기 개념 이해 능력을 입력하여 상기 사용자의 개념 이해 확률을 산출하는 출력 레이어; 를 포함하는 문항 평가용 디바이스.
A communication unit configured to receive an arbitrary question to be solved by a user from a user device; and
A processor operably connected to the communication unit;
the processor,
Determine the latent concept for the item, and predict the probability of the user's answer to the item using an item evaluation model composed of a plurality of latent concepts, a hidden concept layer including the user's concept learning state, and a question solving ability determination layer. and sharing the hidden concept layer to a concept evaluation model for predicting the user's concept understanding probability, and using the concept evaluation model composed of the shared hidden concept layer and the concept comprehension ability determination layer to determine the user's understanding of the determined concept. predict a concept understanding probability and provide the predicted correct answer probability and concept understanding probability to the user device;
The item evaluation model,
an input layer into which item vectors corresponding to the items are input;
a first hidden concept layer for determining an item evaluation weight corresponding to each of the plurality of latent concepts based on a degree of similarity between the item vector and the plurality of vectorized latent concepts;
a second hidden concept layer for determining a lead vector based on the concept learning state and the item evaluation weight;
the item solving ability determination layer determining item solving ability based on the item vector and the read vector; and
an output layer that calculates a probability of correct answer of the user by inputting the item difficulty and the item solving ability based on the item vector; including,
The concept evaluation model,
an input layer into which a concept vector corresponding to the determined concept is input;
a first hidden concept layer for determining a concept evaluation weight corresponding to each of the plurality of latent concepts based on a degree of similarity between the concept vector and each of the plurality of vectorized latent concepts;
a second hidden concept layer for determining a read vector based on the concept learning state and the concept evaluation weight;
the concept comprehension capability determining layer for determining a concept comprehension capability based on the concept vector and the lead vector; and
an output layer for calculating a concept understanding probability of the user by inputting the concept difficulty and the concept understanding ability based on the concept vector; Item evaluation device comprising a.
제5항에 있어서,
상기 개념 학습 상태는,
상기 사용자가 맞춘 정답 문항이 갖는 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의되는, 문항 평가용 디바이스.
According to claim 5,
The concept learning state,
A device for evaluating items, which is defined as a concept memory consisting of absolute values of concept vectors obtained by vectorizing the concepts of the correct answer items corrected by the user.
제6항에 있어서,
상기 통신부는,
상기 사용자 디바이스로부터 상기 문항에 대한 답안을 수신하도록 더 구성되고,
상기 프로세서는,
수신된 상기 답의 정답 여부, 및 상기 문항과 연관된 개념을 기초로 상기 개념 메모리를 업데이트하도록 더 구성된, 문항 평가용 디바이스.
According to claim 6,
The communication department,
Further configured to receive an answer to the question from the user device,
the processor,
The device for evaluating an item, further configured to update the concept memory based on whether the received answer is correct or not and a concept associated with the item.
제5항에 있어서,
상기 프로세서는,
예측된 상기 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하고,
상기 사용자 디바이스로 상기 복수의 추가 문항 중, 상기 이해도 높은 문항을 제외한 나머지 문항을 제공하도록 더 구성된, 문항 평가용 디바이스.
According to claim 5,
the processor,
Based on the predicted level of understanding of the concept, among a plurality of additional items, a high level of understanding related to a concept having a level of understanding above a predetermined level is determined;
A device for evaluating items further configured to provide the user device with the remaining items excluding the items with high understanding among the plurality of additional items.
KR1020230041373A 2020-04-08 2023-03-29 Method for questions assessment and device for questions assessment using the same KR20230047351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230041373A KR20230047351A (en) 2020-04-08 2023-03-29 Method for questions assessment and device for questions assessment using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200042704A KR20210125250A (en) 2020-04-08 2020-04-08 Method for questions assessment and device for questions assessment using the same
KR1020230041373A KR20230047351A (en) 2020-04-08 2023-03-29 Method for questions assessment and device for questions assessment using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200042704A Division KR20210125250A (en) 2020-04-08 2020-04-08 Method for questions assessment and device for questions assessment using the same

Publications (1)

Publication Number Publication Date
KR20230047351A true KR20230047351A (en) 2023-04-07

Family

ID=78271355

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200042704A KR20210125250A (en) 2020-04-08 2020-04-08 Method for questions assessment and device for questions assessment using the same
KR1020230041373A KR20230047351A (en) 2020-04-08 2023-03-29 Method for questions assessment and device for questions assessment using the same

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200042704A KR20210125250A (en) 2020-04-08 2020-04-08 Method for questions assessment and device for questions assessment using the same

Country Status (1)

Country Link
KR (2) KR20210125250A (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102431603B1 (en) * 2022-01-13 2022-08-11 (주)개념원리 Method of creating a learner-specific curriculum in online math learning
KR102431604B1 (en) * 2022-01-13 2022-08-11 (주)개념원리 Method of analyzing learners’achievement in online math learning
KR102509107B1 (en) * 2022-07-07 2023-03-14 주식회사 에이치투케이 AI-Based Device and Method for Evaluating Status of Student
KR102465634B1 (en) * 2022-07-20 2022-11-11 주식회사 튜링 Technique for providing customized problems to improve problem solving skills of users
KR102518474B1 (en) * 2022-07-21 2023-04-05 주식회사 튜링 Technique for updating a skill of a user
KR102538342B1 (en) * 2022-10-19 2023-06-02 주식회사 아이스크림에듀 Artificial intelligence tutoring system using inference of proficiency by curriculum based on diagnostic evaluation data for new learners
KR102538340B1 (en) * 2022-10-19 2023-06-02 주식회사 아이스크림에듀 Artificial intelligence tutoring system that support diagnosis of learning proficiency
KR102636582B1 (en) * 2022-10-20 2024-02-16 주식회사 아이스크림에듀 Artificial intelligence tutoring system that support diagnosis of learning proficiency and collaborative learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102015075B1 (en) 2018-10-16 2019-08-27 (주)뤼이드 Method, apparatus and computer program for operating a machine learning for providing personalized educational contents based on learning efficiency

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102015075B1 (en) 2018-10-16 2019-08-27 (주)뤼이드 Method, apparatus and computer program for operating a machine learning for providing personalized educational contents based on learning efficiency

Also Published As

Publication number Publication date
KR20210125250A (en) 2021-10-18

Similar Documents

Publication Publication Date Title
KR20230047351A (en) Method for questions assessment and device for questions assessment using the same
CN110651280B (en) Projection neural network
Tomasevic et al. An overview and comparison of supervised data mining techniques for student exam performance prediction
Michelucci Applied deep learning
EP3596663B1 (en) Neural network system
US20190147369A1 (en) Rule Determination for Black-Box Machine-Learning Models
US20200285934A1 (en) Capsule neural networks
Hodnett et al. R Deep Learning Essentials: A step-by-step guide to building deep learning models using TensorFlow, Keras, and MXNet
Lu et al. Towards interpretable deep learning models for knowledge tracing
JP7316453B2 (en) Object recommendation method and device, computer equipment and medium
CN110520871A (en) Training machine learning model
JP6772213B2 (en) Question answering device, question answering method and program
JP6696257B2 (en) Vocabulary learning support system
US20200327450A1 (en) Addressing a loss-metric mismatch with adaptive loss alignment
US20220180240A1 (en) Transaction composition graph node embedding
KR102405838B1 (en) Apparatus for providing personalized content by order of questions and method therefor
Adnan et al. Improving m-learners’ performance through deep learning techniques by leveraging features weights
US20220083884A1 (en) Estimating latent reward functions from experiences
Ganesan Machine Learning in Mobile Applications
Hodnett et al. Deep Learning with R for Beginners: Design neural network models in R 3.5 using TensorFlow, Keras, and MXNet
Vidovic et al. ML2Motif—Reliable extraction of discriminative sequence motifs from learning machines
US10394898B1 (en) Methods and systems for analyzing discrete-valued datasets
Moolayil et al. Keras in action
KR20210141150A (en) Method and apparatus for image analysis using image classification model
Mishra PyTorch Recipes: A Problem-Solution Approach

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal