KR20230047351A - Method for questions assessment and device for questions assessment using the same - Google Patents
Method for questions assessment and device for questions assessment using the same Download PDFInfo
- Publication number
- KR20230047351A KR20230047351A KR1020230041373A KR20230041373A KR20230047351A KR 20230047351 A KR20230047351 A KR 20230047351A KR 1020230041373 A KR1020230041373 A KR 1020230041373A KR 20230041373 A KR20230041373 A KR 20230041373A KR 20230047351 A KR20230047351 A KR 20230047351A
- Authority
- KR
- South Korea
- Prior art keywords
- concept
- item
- user
- layer
- vector
- Prior art date
Links
- 238000000034 method Methods 0.000 title description 13
- 238000013210 evaluation model Methods 0.000 claims abstract description 147
- 238000011156 evaluation Methods 0.000 claims abstract description 124
- 239000013598 vector Substances 0.000 claims description 103
- 230000015654 memory Effects 0.000 claims description 42
- 238000004891 communication Methods 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Primary Health Care (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 문항 평가 방법 및 이를 이용한 디바이스에 관한 것으로, 보다 구체적으로는 사용자가 풀어야 할 문항에 대한 사용자의 정답 여부 및 문항이 갖는 개념에 대한 이해도를 평가하도록 구성된, 문항 평가 방법 및 이를 이용한 문항 평가 디바이스에 관한 것이다.The present invention relates to an item evaluation method and a device using the same, and more particularly, to an item evaluation method configured to evaluate a user's correct answer to a question to be solved by a user and an understanding of a concept of the item, and an item evaluation using the same It's about the device.
최근, 학습자가 교사와 실제로 대면함으로써, 교사의 지도를 통해 학습을 수행하는 종래의 학습 방식에서 탈피하여, 시공간에 관계없이 학습자의 상황에 맞게 학습을 진행할 수 있는 다양한 학습 방식이 대두되고 있다.Recently, various learning methods that can proceed with learning according to the learner's situation regardless of time and space have emerged, breaking away from the conventional learning method in which the learner actually faces the teacher and learns through the guidance of the teacher.
특히, 이러닝 (e-Learning) 학습 방식은 교실 중심의 학습 환경에서 벗어나, 인터넷 등을 이용한 유비쿼터스 정보 통신 환경에서 학습자 자신이 스스로 학습 수행을 주도할 수 있는 능동적인 형태의 학습 방식으로서, 이러한 이러닝 학습 방식은 교육 전반에 있어서 그 비중이 점차 확대되고 있는 추세에 있으며, 이러한 추세에 따라 다양한 형태의 이러닝 학습 기술들이 제시된 바 있다.In particular, the e-Learning learning method is an active learning method in which learners themselves can lead their own learning in a ubiquitous information and communication environment using the Internet, away from the classroom-centered learning environment. The method is gradually expanding its weight in overall education, and various types of e-learning technologies have been proposed according to this trend.
하지만, 이러한 종래의 기술들은 단순히 학습자에게 일방적으로 학습 사항을 전달하는 것에만 초점이 맞추어져 있을 뿐, 학습에 의해 변화되는 학습자의 이해도 및 학습자에 의해 능동적으로 선택되는 학습 목표에 따라 어떠한 순서로 학습을 진행할 것인지, 어떠한 학습 컨텐츠를 선택할 것인지, 어떠한 난이도의 문제를 학습자에게 제공할 것인지 등에 대한 기술은 제시된 바 없다.However, these conventional technologies are only focused on simply delivering learning matters to learners unilaterally, and in any order according to the learner's understanding changed by learning and the learning goal actively selected by the learner. No technology has been suggested regarding whether to proceed with learning, what learning content to select, and what level of difficulty to provide to learners.
특히, 종래의 이러닝 학습 환경은, 학습자 개개인의 지식 능력을 고려하여 효율적인 학습을 수행하는 것에 한계가 있음에 따라, 학습자 개개인에 대하여 최적화된 학습을 제공하는 1:1 오프라인 수업보다 학습 효율이 떨어질 수 있다. In particular, as the conventional e-learning learning environment has limitations in carrying out efficient learning in consideration of individual learners' knowledge abilities, learning efficiency may be lower than that of 1:1 offline classes that provide optimized learning for individual learners. there is.
발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The background description of the invention has been prepared to facilitate understanding of the present invention. It should not be construed as an admission that matters described in the background art of the invention exist as prior art.
한편, 본 발명의 발명자들은, 전술한 바와 같은 종래의 학습 시스템이 갖는 한계를 극복하기 위한 방안으로, 학습자 개개인에 대한 성과를 예측하고 학습자의 학습을 조언하기 위한 교육 데이터 마이닝 툴의 개발에 주목하였다. 특히, 본 발명의 발명자들은 지식 추적 (Knowledge tracing) 이 학생 개개인에 대한 학습 능력을 향상시키는 데 중요한 요소일 수 있음에 주목하였다.On the other hand, the inventors of the present invention, as a way to overcome the limitations of the conventional learning system as described above, paid attention to the development of an educational data mining tool for predicting the performance of each learner and advising the learner's learning. . In particular, the inventors of the present invention noted that knowledge tracing can be an important factor in improving the learning ability of individual students.
이때, 지식 추적은 학생의 지식 상태를 모델링하는 작업으로 지식 요소 (knowledge components, KC) 의 마스터 수준, 예를 들어 학생 능력 수준을 나타내는 스칼라 값 또는 벡터로 표현될 수 있다. In this case, the knowledge tracing is a task of modeling a student's knowledge state, and may be expressed as a scalar value or vector representing a master level of knowledge components (KC), for example, a student's ability level.
따라서, 본 발명의 발명자들은 추정된 학습자의 지식 상태에 기초한 이러닝 학습 환경에서 학습자의 성취 수준이 더 잘 이해되고 그에 따른 학습 자료가 선택될 수 있음을 인지할 수 있었다. 더욱이, 본 발명의 발명자들은, 이러닝 학습 환경에 대하여 학습 분석 툴을 적용하여 학습 효율성을 극대화하기 위한 더 나은 학습 계획을 마련 할 수 있음을 기대할 수 있었다.Therefore, the inventors of the present invention could recognize that the achievement level of a learner is better understood in an e-learning learning environment based on the estimated state of knowledge of the learner, and learning materials can be selected accordingly. Furthermore, the inventors of the present invention could expect to prepare a better learning plan for maximizing learning efficiency by applying a learning analysis tool to an e-learning learning environment.
그 결과, 본 발명의 발명자들은 학습자의 지식 상태에 기초하여 이러닝 학습 환경에서 제공되는 문항들을 평가하도록 구성된 문항 평가 시스템을 개발하기에 이르렀다. As a result, the inventors of the present invention have developed an item evaluation system configured to evaluate items provided in an e-learning learning environment based on a learner's state of knowledge.
이때, 본 발명의 발명자들은, 문항에 대한 사용자의 정답 여부를 예측하도록 구성된 문항 평가 모델과 문항이 갖는 개념들에 대한 이해도를 평가하도록 구성된 개념 평가 모델을 문항 평가 시스템에 적용하고자 하였다.At this time, the inventors of the present invention tried to apply an item evaluation model configured to predict whether or not a user answered correctly to an item and a concept evaluation model configured to evaluate the degree of understanding of concepts of the item to the item evaluation system.
보다 구체적으로, 본 발명의 발명자들은, 잠재 개념 (latent concepts) 을 기초로 문항에 대한 개념을 결정하고, 결정된 개념 및 학습자에 대한 대한 개념 학습 상태에 기초하여 문항의 정답 여부를 예측하도록 구성된 문항 평가 모델을 문항 평가 시스템에 적용할 수 있었다.More specifically, the inventors of the present invention determine the concept for the item based on latent concepts, and evaluate the item configured to predict whether or not the item is correct based on the determined concept and the concept learning status for the learner. The model could be applied to the item evaluation system.
더욱이, 본 발명의 발명자들은, 문항 평가 모델을 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델을 문항 평가 시스템에 적용하고자 하였다.Furthermore, the inventors of the present invention have attempted to apply a concept evaluation model configured to share at least one of a latent concept and a concept learning state with an item evaluation model and predict a level of understanding of a concept for an item to an item evaluation system.
이때, 본 발명의 발명자들은, 문항 평가 모델이 갖는 히든 개념 레이어 (hidden concept layer) 인, '잠재 개념' 및/또는 '개념 학습 상태'를 공유하여 이들 레이어에 대한 해석 가능성을 높인 개념 평가 모델을 적용함에 따라 학습자의 학습 상태에 대한 정확한 분석을 진행할 수 있음을 기대할 수 있었다. At this time, the inventors of the present invention share 'latent concept' and/or 'concept learning state', which are hidden concept layers of the item evaluation model, to develop a concept evaluation model that enhances the interpretability of these layers. As applied, it was expected that an accurate analysis of the learner's learning status could be performed.
더욱이 본 발명의 발명자들은, 문항 평가 시스템에 학습자에 대한 개념의 이해도를 해석하고 평가하도록 구성된 개념 평가 모델을 함께 적용함에 따라, 단독의 문항 평가 모델을 적용했을 때 보다 높은 문항 예측 성능을 가지는 것을 발견할 수 있었다.Furthermore, the inventors of the present invention found that the item evaluation system had higher item prediction performance than when a single item evaluation model was applied, as the concept evaluation model configured to interpret and evaluate the understanding of the learner was applied together. Could.
보다 구체적으로, 단독의 문항 평가 모델은, 학습 단계에서 자주 등장하는 개념을 갖는 문항으로 인한 오버핏팅 (overfitting) 에 의해 등장 빈도수가 낮은 개념에 대한 문항의 평가 능이 저조할 수 있다. 즉, 단독의 문항 평가 모델은, 개념 별 출제 문항의 균형에 따라 성능이 떨어질 수 있다. More specifically, in the single item evaluation model, the evaluation ability of items for concepts with a low frequency of appearance may be low due to overfitting due to items having concepts that frequently appear in the learning stage. That is, the performance of a single item evaluation model may deteriorate depending on the balance of item items for each concept.
한편, 문항 평가 모델 및 개념 평가 모델로 이루어진 본 발명의 문항 평가 시스템은, 사용자에 대한 개념 학습 상태를 공유함에 따라, 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. On the other hand, the item evaluation system of the present invention, which is composed of an item evaluation model and a concept evaluation model, has a higher ability to evaluate items for concepts with a lower frequency of appearance than a single model, as it shares the concept learning state for the user, and Even if the evaluation is repeated, the diagnostic performance can be maintained at a high level.
따라서, 본 발명의 발명자들은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있음을 더욱 기대할 수 있었다. Therefore, the inventors of the present invention can provide a customized e-learning environment for individual learners by providing the correct answer of the question output by each model and the degree of understanding of the concept related to the question by the item evaluation system. could have expected more.
이에, 본 발명이 해결하고자 하는 과제는, 문항 평가 모델을 이용하여 수신된 문항에 대한 개념을 결정하고, 문항의 정답여부를 예측하며, 개념 평가 모델을 이용하여 문항과 관련된 개념의 이해도를 예측하도록 구성된 문항 평가 방법 및 이를 이용한 디바이스를 제공하는 것이다. Therefore, the problem to be solved by the present invention is to determine the concept of the received item using the item evaluation model, predict whether or not the item is correct, and predict the level of understanding of the concept related to the item using the concept evaluation model. It is to provide a configured item evaluation method and a device using the same.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 문항 평가 방법을 제공한다. 상기 방법은, 프로세서에 의해 구현되는 문항 평가 방법으로서, 사용자 디바이스로부터 사용자가 풀어야 할 임의의 문항을 수신하는 단계, 상기 문항에 대한 잠재 개념을 결정하는 단계, 복수의 잠재 개념과 사용자의 개념 학습 상태를 포함한 히든 개념 레이어 및 문항 풀이 능력 결정 레이어로 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 사용자의 정답 확률을 예측하는 단계, 상기 히든 개념 레이어를 사용자의 개념 이해 확률을 예측하기 위한 개념 평가 모델에 공유하는 단계, 공유된 히든 개념 레이어 및 개념 이해 능력 결정 레이어로 구성된 상기 개념 평가 모델을 이용하여, 결정된 개념에 대한 사용자의 개념 이해 확률을 예측하는 단계 및 예측된 정답 확률 및 개념 이해 확률을 상기 사용자 디바이스로 제공하는 단계를 포함하고, 상기 문항 평가 모델은, 상기 문항에 대응하는 문항 벡터가 입력되는 입력 레이어, 상기 문항 벡터와 벡터화된 상기 복수의 잠재 개념과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 문항 평가 가중치를 결정하는 제1 히든 개념 레이어, 상기 개념 학습 상태 및 상기 문항 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어, 상기 문항 벡터 및 상기 리드 벡터를 기초로 문항 풀이 능력을 결정하는 상기 문항 풀이 능력 결정 레이어 및 상기 문항 벡터를 기초로 하는 문항 난이도 및 상기 문항 풀이 능력을 입력하여 상기 사용자의 정답 확률을 산출하는 출력 레이어를 포함하고, 상기 개념 평가 모델은, 상기 결정된 개념에 대응하는 개념 벡터가 입력되는 입력 레이어, 상기 개념 벡터와 벡터화된 상기 복수의 잠재 개념 각각과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 개념 평가 가중치를 결정하는 제1 히든 개념 레이어, 상기 개념 학습 상태 및 상기 개념 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어, 상기 개념 벡터 및 리드 벡터를 기초로 개념 이해 능력을 결정하는 상기 개념 이해 능력 결정 레이어 및 상기 개념 벡터를 기초로 하는 개념 난이도 및 상기 개념 이해 능력을 입력하여 상기 사용자의 개념 이해 확률을 산출하는 출력 레이어를 포함한다.In order to solve the above problems, an item evaluation method according to an embodiment of the present invention is provided. The method, as an item evaluation method implemented by a processor, includes receiving an arbitrary item to be solved by a user from a user device, determining a latent concept for the item, a plurality of latent concepts and the user's concept learning state. Using an item evaluation model composed of a hidden concept layer including a hidden concept layer and an item solving ability determination layer, predicting a user's correct answer probability for the item, a concept evaluation model for predicting a user's concept understanding probability using the hidden concept layer. estimating the user's concept understanding probability for the determined concept using the concept evaluation model composed of the shared hidden concept layer and the concept comprehension capability determination layer, and the predicted correct answer probability and concept understanding probability and providing the item to a user device, wherein the item evaluation model determines the plurality of latent concepts based on an input layer into which an item vector corresponding to the item is input and a degree of similarity between the item vector and the vectorized plurality of latent concepts. A first hidden concept layer for determining an item evaluation weight corresponding to each concept, a second hidden concept layer for determining a lead vector based on the concept learning state and the item evaluation weight, and a second hidden concept layer for determining the item vector and the lead vector. The item-solving ability determination layer for determining item-solving ability and an output layer for calculating a correct answer probability of the user by inputting item difficulty and item-solving ability based on the item vector, the concept evaluation model comprising: A first hidden concept determining a concept evaluation weight corresponding to each of the plurality of latent concepts based on an input layer into which a concept vector corresponding to the determined concept is input and a degree of similarity between the concept vector and each of the plurality of vectorized latent concepts. A concept layer, a second hidden concept layer for determining a lead vector based on the concept learning state and the concept evaluation weight, the concept understanding capability determination layer for determining a concept understanding capability based on the concept vector and the lead vector, and the concept and an output layer that calculates a concept understanding probability of the user by inputting the concept difficulty and the concept understanding ability based on a vector.
본 발명의 특징에 따르면, 상기 개념 학습 상태는, 상기 사용자가 맞춘 정답 문항이 갖는 잠재 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의될 수 있다. According to a feature of the present invention, the concept learning state may be defined as a concept memory composed of absolute values of concept vectors obtained by vectorizing latent concepts of the user-corrected correct answer item.
본 발명의 다른 특징에 따르면, 상기 사용자 디바이스로부터 상기 문항에 대한 답안을 수신하는 단계, 및 수신된 상기 답의 정답 여부, 및 상기 문항과 연관된 잠재 개념을 기초로 상기 개념 메모리를 업데이트하는 단계를 포함할 수 있다.According to another feature of the present invention, the step of receiving an answer to the question from the user device, and updating the concept memory based on whether the received answer is a correct answer and a latent concept associated with the question can do.
본 발명의 또 다른 특징에 따르면, 상기 제공하는 단계 이후에, 예측된 상기 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계 및 상기 사용자 디바이스로 상기 복수의 추가 문항 중, 상기 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계를 더 포함할 수 있다.According to another feature of the present invention, after the providing step, determining an item with high comprehension associated with a concept having a level of understanding above a predetermined level among a plurality of additional items based on the predicted level of understanding of the concept, and The method may further include providing, to the user device, the remaining questions excluding the highly understandable questions among the plurality of additional questions.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 제공한다. 상기 디바이스는, 사용자가 풀어야 할 임의의 문항을 수신하도록 구성된 통신부, 및 프로세서를 포함한다. 이때, 프로세서는, 상기 문항에 대한 잠재 개념을 결정하고, 복수의 잠재 개념과 사용자의 개념 학습 상태를 포함한 히든 개념 레이어 및 문항 풀이 능력 결정 레이어로 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 사용자의 정답 확률을 예측하고, 상기 히든 개념 레이어를 사용자의 개념 이해 확률을 예측하기 위한 개념 평가 모델에 공유하고, 공유된 히든 개념 레이어 및 개념 이해 능력 결정 레이어로 구성된 상기 개념 평가 모델을 이용하여, 결정된 개념에 대한 사용자의 개념 이해 확률을 예측하고, 예측된 정답 확률 및 개념 이해 확률을 상기 사용자 디바이스로 제공하도록 구성되며, 상기 문항 평가 모델은, 상기 문항에 대응하는 문항 벡터가 입력되는 입력 레이어, 상기 문항 벡터와 벡터화된 상기 복수의 잠재 개념과의 유사도를 기초로 상기 복수의 잠재 개념각각에 대응되는 문항 평가 가중치를 결정하는 제1 히든 개념 레이어; In order to solve the above problems, a device for evaluating items according to an embodiment of the present invention is provided. The device includes a communication unit configured to receive an arbitrary question to be solved by a user, and a processor. At this time, the processor determines a latent concept for the item, and uses an item evaluation model composed of a plurality of latent concepts, a hidden concept layer including the user's concept learning state, and an item solving ability determination layer, Predicting the probability of correct answer of , sharing the hidden concept layer to a concept evaluation model for predicting the probability of understanding a user's concept, and using the concept evaluation model composed of the shared hidden concept layer and the concept understanding ability determination layer, the determined It is configured to predict a concept understanding probability of a user for a concept and provide the predicted correct answer probability and concept understanding probability to the user device, wherein the item evaluation model includes an input layer into which item vectors corresponding to the items are input, the a first hidden concept layer for determining an item evaluation weight corresponding to each of the plurality of latent concepts based on a similarity between an item vector and the plurality of vectorized latent concepts;
상기 개념 학습 상태 및 상기 문항 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어, 상기 문항 벡터 및 상기 리드 벡터를 기초로 문항 풀이 능력을 결정하는 상기 문항 풀이 능력 결정 레이어 및 상기 문항 벡터를 기초로 하는 문항 난이도 및 상기 문항 풀이 능력을 입력하여 상기 사용자의 정답 확률을 산출하는 출력 레이어를 포함하고, 상기 개념 평가 모델은, 상기 결정된 개념에 대응하는 개념 벡터가 입력되는 입력 레이어, 상기 개념 벡터와 벡터화된 상기 복수의 잠재 개념 각각과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 개념 평가 가중치를 결정하는 제1 히든 개념 레이어, 상기 개념 학습 상태 및 상기 개념 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어, 상기 개념 벡터 및 리드 벡터를 기초로 개념 이해 능력을 결정하는 상기 개념 이해 능력 결정 레이어 및 상기 개념 벡터를 기초로 하는 개념 난이도 및 상기 개념 이해 능력을 입력하여 상기 사용자의 개념 이해 확률을 산출하는 출력 레이어를 포함하도록 구성된다.A second hidden concept layer for determining a lead vector based on the concept learning state and the item evaluation weight, the item solving ability determination layer for determining item solving ability based on the item vector and the lead vector, and the item vector and an output layer that calculates a probability of correct answer of the user by inputting an item difficulty level and the item solving ability based thereon, and the concept evaluation model includes an input layer to which a concept vector corresponding to the determined concept is input, the concept vector a first hidden concept layer for determining a concept evaluation weight corresponding to each of the plurality of latent concepts based on a degree of similarity with each of the plurality of latent concepts vectorized; and a read vector based on the concept learning state and the concept evaluation weight The second hidden concept layer for determining, the concept understanding ability determination layer for determining the concept understanding ability based on the concept vector and the lead vector, and the concept difficulty based on the concept vector and the concept understanding ability input to the user It is configured to include an output layer that calculates the concept understanding probability of .
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other embodiment specifics are included in the detailed description and drawings.
본 발명은, 문항 평가 모델을 구성하는 '복수의 잠재 개념'과 '사용자의 개념 학습 상태'를 포함하는 히든 개념 레이어 (hidden concept layer)를 개념 평가 모델과 공유함에 따라, 두 개 모델의 예측 성능을 상호 상향 시킬 수 있다. As the present invention shares a hidden concept layer including 'a plurality of latent concepts' constituting the item evaluation model and 'the user's concept learning state' with the concept evaluation model, the predictive performance of the two models can be mutually elevated.
또한, 본 발명은 문항 평가 모델을 통해 문항에 대한 사용자의 정답 확률을 예측하고, 개념 평가 모델을 통해 임의의 문항에 적용된 개념에 대한 사용자의 개념 이해 확률을 예측함으로써, 학습자의 학습 상태에 대한 정확한 분석을 진행할 수 있다. In addition, the present invention predicts the probability of a user's correct answer to an item through an item evaluation model and predicts the probability of a user's concept understanding of a concept applied to an arbitrary item through a concept evaluation model, thereby providing accurate information about the learner's learning state. analysis can proceed.
더욱이, 본 발명은, 문항 평가 시스템에 학습자에 대한 개념의 이해도를 해석하고 평가하도록 구성된 개념 평가 모델을 함께 적용함에 따라, 단독의 문항 평가 모델을 적용했을 때 보다 높은 문항 예측 성능을 가질 수 있다.Moreover, the present invention can have higher item prediction performance than when a single item evaluation model is applied by applying a concept evaluation model configured to interpret and evaluate a learner's understanding of a concept to the item evaluation system together.
보다 구체적으로 본 발명은, 사용자에 대한 개념 학습 상태를 공유할 수 있어 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지되는, 문항 평가 모델 및 개념 평가 모델 기반의 문항 평가 시스템을 제공할 수 있다.More specifically, the present invention can share the learning state of the concept with the user, so the evaluation ability for items with low frequency of appearance is higher than that of a single model, and the diagnostic performance is maintained at a high level even if the evaluation of the item is repeated. It is possible to provide an item evaluation system based on an item evaluation model and a concept evaluation model.
이에, 본 발명은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있다.Accordingly, the present invention can provide a customized e-learning environment for individual learners by providing an understanding of concepts related to questions and correct answers of questions output by each model by the item evaluation system.
나아가, 학습자 개개인에 대한 지식 상태에 기초하여 제시될 문항을 평가하도록 구성된 문항 평가 시스템을 제공함에 따라, 학습자 개개인에 대하여 최적화된 학습을 제공하는 1:1 오프라인 수업과 유사한 학습 효율을 제공할 수 있다.Furthermore, by providing an item evaluation system configured to evaluate items to be presented based on the knowledge state of each learner, it is possible to provide learning efficiency similar to that of 1: 1 offline class that provides optimized learning for each individual learner. .
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present invention.
도 1a은 본 발명의 일 실시예에 따른 문항 평가 시스템을 설명하기 위한 개략도이다.
도 1b는 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 설명하기 위한 개략도이다.
도 1c는 본 발명의 실시예에 따른 사용자 장치에 대한 개략도이다.
도 1d 및 1e는 본 발명의 실시예에 따른 사용자 디바이스의 표시부를 예시적으로 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 문항 평가 방법을 설명하기 위한 개략적인 순서도이다.
도 3은 본 발명의 일 실시예에 따른 문항 평가 방법의 절차를 예시적으로 도시한 것이다.
도 4는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 설명하기 위한 개략적인 순서도이다.
도 5는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 예시적으로 도시한 것이다.
도 6a는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델의 구조를 예시적으로 도시한 것이다.
도 6b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트를 위한 구성을 예시적으로 도시한 것이다.
도 7a 및 7b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델에 기초한 문항 평가용 디바이스와 단독의 문항 평가 모델에 대한 성능을 비교하여 도시한 것이다.1A is a schematic diagram illustrating an item evaluation system according to an embodiment of the present invention.
Figure 1b is a schematic diagram for explaining a device for evaluating items according to an embodiment of the present invention.
Fig. 1c is a schematic diagram of a user device according to an embodiment of the present invention.
1D and 1E exemplarily illustrate a display unit of a user device according to an embodiment of the present invention.
2 is a schematic flowchart for explaining a method for evaluating items according to an embodiment of the present invention.
3 illustratively illustrates the procedure of the item evaluation method according to an embodiment of the present invention.
4 is a schematic flowchart for explaining an update step of an item evaluation model applied to various embodiments of the present invention.
5 illustratively illustrates an update step of an item evaluation model applied to various embodiments of the present invention.
FIG. 6A exemplarily illustrates structures of an item evaluation model and a concept evaluation model applied to various embodiments of the present invention.
6B illustrates a configuration for updating an item evaluation model applied to various embodiments of the present invention by way of example.
7A and 7B show comparison of performances of a device for item evaluation based on an item evaluation model and a concept evaluation model applied to various embodiments of the present invention and a single item evaluation model.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various forms different from each other, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, like reference numerals may be used for like elements.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has," "may have," "includes," or "may include" indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.
본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document may modify various elements, regardless of order and/or importance, and refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of rights described in this document, a first element may be named a second element, and similarly, the second element may also be renamed to the first element.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, a third component) do not exist between the other components.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression "configured to" means "suitable for," "having the capacity to," depending on the circumstances. ," "designed to," "adapted to," "made to," or "capable of." The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware. Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or configured) to perform A, B, and C" may include a dedicated processor (e.g., embedded processor) to perform those operations, or by executing one or more software programs stored in a memory device. , may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted as having the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, an ideal or excessively formal meaning. not be interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude the embodiments of this document.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or entirely combined or combined with each other, and as those skilled in the art can fully understand, various interlocking and driving operations are possible, and each embodiment can be implemented independently of each other. It may be possible to implement together in an association relationship.
본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of this specification, terms used in this specification will be defined below.
본원 명세서 내에서 이용되는 용어 “문항 평가 모델”은, 문항을 입력으로 하여 문항에 대한 정답 여부, 바람직하게 학습자가 문항에 대한 정답을 맞출 확률을 출력하도록 구성된 인공 신경망 알고리즘 기반의 모델일 수 있다.The term “item evaluation model” used in the specification of the present application may be a model based on an artificial neural network algorithm configured to output a correct answer to an item, preferably a probability that a learner will answer the item correctly, by taking the item as an input.
한편, 문항 평가 모델은, 사용자인 학습자 각각에 대한 지식 상태에 따라 각각 상이한 조건으로 구축될 수 있다. Meanwhile, the item evaluation model may be constructed under different conditions according to the state of knowledge of each learner who is a user.
문항 평가 모델은, “잠재 개념 (latent concepts)”및 “개념 학습 상태”의 히든 레이어를 포함할 수 있다.The item evaluation model may include hidden layers of “latent concepts” and “concept learning states”.
본원 명세서 내에서 이용되는 용어 “잠재 개념”은, 문항 평가 모델의 모델 학습에 의해 형성된 문항과 연관된 개념들을 의미할 수 있다. 보다 구체적으로, 잠재 개념의 크기의 선택이 가능하며, 선택에 기초하여 적절한 임베딩 값이 학습되면 값/크기가 불변할 수 있다. 이때, 잠재 개념은 'Key memory'에 대응할 수 있다.The term “latent concept” used in the present specification may refer to concepts associated with an item formed by model learning of an item evaluation model. More specifically, the size of the latent concept may be selected, and the value/size may be invariant when an appropriate embedding value is learned based on the selection. At this time, the latent concept may correspond to ' key memory' .
본 발명의 특징에 따르면, 문항 평가 모델은 잠재 개념을 통해, 입력된 문항과 연관된 개념을 결정하도록 구성될 수 있다. According to a feature of the present invention, the item evaluation model may be configured to determine, through latent concepts, a concept associated with an input item.
본원 명세서 내에서 이용되는 용어 “개념 학습 상태”는, 학습자의 개념들에 대한 학습 상태를 의미할 수 있다. 즉, 개념 학습 상태는 학습자의 지식 상태에 따라 상이할 수 있다. 이때, 개념 학습 상태는, 학습자에 대하여 제시된 문항들의 정답 여부, 상기 문항들에 내재된 개념들에 따라 다양한 값들을 가질 수 있다. 보다 구체적으로, 개념 학습 상태는, 학습자의 지식 상태에 따라 가변적이며, 'KEY'에 대한 절대값을 포함할 수 있다. 이때, 개념 학습 상태는 'Value memory', 또는 '개념 메모리'에 대응할 수 있다.The term “concept learning state” used in the present specification may refer to a learner's learning state of concepts. That is, the concept learning state may be different according to the learner's knowledge state. At this time, the concept learning state may have various values depending on whether or not the questions presented to the learner are answered correctly and concepts inherent in the questions. More specifically, the concept learning state is variable according to the learner's knowledge state, and may include an absolute value for 'KEY'. At this time, the concept learning state may correspond to ' value memory ' or 'concept memory'.
본 발명의 특징에 따르면, 개념 학습 상태는, 문항에 대한 학습자의 정답 여부, 나아가 맞춘 문항들이 갖는 개념에 기초하여 업데이트될 수 있다. According to a feature of the present invention, the concept learning state may be updated based on whether or not the learner has answered the questions correctly, and furthermore, based on the concepts of the correct questions.
본 발명의 다른 특징에 따르면, 문항 평가 모델은 개념 학습 상태를 통해, 개념 메모리로부터 문항과 연관된 학습자가 가지고 있는 개념을 결정하도록 구성될 수 있다.According to another feature of the present invention, the item evaluation model may be configured to determine a concept that a learner associated with an item has from a concept memory through a concept learning state.
최종적으로, 문항 평가 모델은 문항에 대한 사용자가 정답을 맞출 확률을 출력할 수 있다.Finally, the item evaluation model may output the probability that the user answers the item correctly.
본원 명세서 내에서 이용되는 용어 “개념 평가 모델”은, 학습자가 풀어야 할 문항에 대하여 결정된 개념을 입력으로 하여 각 개념에 대한 사용자의 이해도를 확률적으로 출력하도록 구성된 인공 신경망 알고리즘 기반의 모델일 수 있다.The term "concept evaluation model" used in the present specification may be a model based on an artificial neural network algorithm configured to probabilistically output a user's understanding of each concept by taking a concept determined for a question to be solved by a learner as an input. .
이때, 개념 평가 모델은, 문항 평가 모델의 '잠재 개념' 및 '개념 학습 상태'를 공유하도록 구성될 수 있다. 이에, 개념 평가 모델은, 문항 평가 모델로부터 공유된 잠재 개념 및 개념 학습 상태에 기초하여 문항에 대한 개념의 이해도를 출력할 수 있다. 즉, 개념 평가 모델은, 문항 평가 모델의 '잠재 개념' 및 '개념 학습 상태'를 공유함에 따라, 히든 개념 레이어에 대한 해석 가능성을 높일 수 있어, 학습자의 지식 상태에 대한 섬세한 분석을 제공할 수 있다. 더욱이 학습 단계에서 등장 빈도수가 낮은 개념의 문항에 대한 평가 능력이 우수할 수 있고, 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. 따라서, 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스는, 문항 평가에 있어서 단독의 문항 평가 모델보다 우수한 진단 성능을 가질 수 있다.In this case, the concept evaluation model may be configured to share the 'latent concept' and 'concept learning state' of the item evaluation model. Accordingly, the concept evaluation model may output an understanding of the concept of the item based on the latent concept shared from the item evaluation model and the concept learning state. In other words, as the concept evaluation model shares the 'latent concept' and 'concept learning state' of the item evaluation model, it is possible to increase the interpretability of the hidden concept layer, thereby providing a detailed analysis of the learner's knowledge state. there is. Moreover, the evaluation ability for items with low frequency of appearance in the learning phase can be excellent, and even if the evaluation is repeated, the diagnostic performance can be maintained at a high level. Therefore, the item evaluation device according to various embodiments of the present invention may have better diagnostic performance than a single item evaluation model in item evaluation.
한편, 본원 명세서 내에 개시된 문항 평가 모델 및 개념 평가 모델은 딥러닝 알고리즘에 기초한 모델일 수 있다. 보다 구체적으로, 문항 평가 모델 및 개념 평가 모델은 DKVMN (dynamic key-value memory network), DNN (Deep Neural Network), DCNN (Deep Convolution Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), SSD (Single Shot Detector), 및 SVM (Support Vector Machine) 중 적어도 하나의 알고리즘에 기초할 수 있다. 그러나, 이에 제한되는 것은 아니다. Meanwhile, the item evaluation model and the concept evaluation model disclosed in the present specification may be models based on deep learning algorithms. More specifically, the item evaluation model and concept evaluation model include dynamic key-value memory network (DKVMN), deep neural network (DNN), deep convolution neural network (DCNN), recurrent neural network (RNN), and restricted boltzmann machine (RBM). , Deep Belief Network (DBN), Single Shot Detector (SSD), and Support Vector Machine (SVM). However, it is not limited thereto.
이하에서는, 도 1a 내지 도 1e를 참조하여, 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스를 상세히 설명한다.Hereinafter, a device for evaluating items according to various embodiments of the present invention will be described in detail with reference to FIGS. 1A to 1E .
도 1a는 본 발명의 일 실시예에 따른 문항 평가 시스템을 설명하기 위한 개략도이다. 도 1b는 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 설명하기 위한 개략도이다. 도 1c는 본 발명의 실시예에 따른 사용자 장치에 대한 개략도이다. 1d 내지 1e는 본 발명의 실시예에 따른 사용자 디바이스의 표시부를 예시적으로 도시한 것이다.1A is a schematic diagram illustrating an item evaluation system according to an embodiment of the present invention. Figure 1b is a schematic diagram for explaining a device for evaluating items according to an embodiment of the present invention. Fig. 1c is a schematic diagram of a user device according to an embodiment of the present invention. 1d to 1e illustrate the display unit of the user device according to an embodiment of the present invention.
먼저, 도 1a을 참조하면, 문항 평가 시스템 (1000) 은, 학습자가 갖는 지식 상태에 기초하여 문항 평가 결과를 제공하는 시스템으로서, 문항 평가용 디바이스 (100), 사용자 디바이스 (200) 및 평가 대상 문항 DB (300) 를 포함할 수 있다.First, referring to FIG. 1A , an
먼저, 문항 평가용 디바이스 (100) 는 평가 대상 문항 DB (300) 로부터 평가 대상 문항을 수신하여 연산을 수행하는 범용 컴퓨터, 랩탑, 및/또는 데이터 서버 등을 포함할 수 있다. 한편, 사용자 디바이스 (200) 는 사용자의 요청에 따라 문항 평가를 위한 서비스에 관한 웹 페이지를 제공하는 웹 서버 (web server) 또는 모바일 웹 사이트를 제공하는 모바일 웹 서버 (mobile web server) 에 접속하기 위한 디바이스일 수 있으나, 이에 한정되지 않는다.First, the
보다 구체적으로, 도 1b를 함께 참조하면, 문항 평가용 디바이스 (100) 는 저장부 (110), 통신부 (120), 및 프로세서 (130) 를 포함한다. More specifically, referring to FIG. 1B , the device for evaluating
먼저, 저장부 (110) 는 문항을 분석하여 학습자에게 문항 평가 서비스를 제공하기 위한 다양한 데이터, 예를 들어 평가 대상 문항 DB (300) 로부터 획득된 평가 대상 문항들을 저장할 수 있다. 다양한 실시예에서 저장부 (110) 는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. First, the
다음으로, 통신부 (120) 는 문항 평가용 디바이스 (100) 가 외부 장치와 통신이 가능하도록 연결한다. 예를 들어, 통신부 (120) 는 유/무선 통신을 이용하여 사용자 디바이스 (200) 와 연결되어 평가 문항에 대한 데이터를 송수신할 수 있다. 구체적으로, 통신부 (120) 는 사용자 디바이스 (200) 와 연결되어 평가 결과를 송신하도록 더 구성될 수 있다. Next, the
프로세서 (130) 는 저장부 (110) 및 통신부 (120) 와 동작 가능하게 연결되며, 문항을 분석하여 문항 평가를 위한 서비스를 제공하기 위한 다양한 명령들을 수행할 수 있다. The
구체적으로, 프로세서 (130) 는 통신부 (120) 를 통해 문항을 수신하고, 수신된 문항에 기반하여 문항을 평가할 수 있다. Specifically, the
이를 위해 프로세서 (130) 는 수신된 문항을 분석하여 문항과 연관된 개념을 결정하고, 사용자에 대한 개념 메모리로부터 문항과 연관된 개념을 예측하여 문항을 맞출 확률을 출력하도록 구성된 문항 평가 모델 및, 문항과 연관된 개념의 이해도를 출력하도록 구성된 개념 평가 모델을 이용할 수 있다. 이때, 문항 평가 모델들은 학습자가 풀었던 문항에 기초하여 사전 학습된 모델로서, 학습자의 지식 상태에 따른 평가 문항의 정답 여부를 결정하기 위해 이용될 수 있다.To this end, the
본 발명의 특징에 따르면, 프로세서 (130) 는 문항 벡터를 생성하도록 문항을 벡터화 하고, 문항 벡터 및 상기 잠재 개념과의 유사도를 비교하고, 유사도에 기초하여 상기 문항에 대한 개념을 결정하도록 구성될 수 있다.According to aspects of the present invention,
본 발명의 다른 특징에 따르면, 프로세서 (130) 는 유사도에 따라 잠재 개념 각각에 대한 가중치를 결정하고, 문항 평가 모델을 이용하여 개념 학습 상태 및 잠재 개념에 대한 가중치를 기초로 상기 문항의 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the
본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 문항 평가 모델을 이용하여, 개념 메모리 중, 문항과 연관된 메모리를 결정하고, 연관된 메모리에 기초하여 문항 풀이 능력을 결정하고, 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the
본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 문항의 난이도를 결정하고, 개념 메모리 중 문항과 연관된 메모리를 결정하고, 연관된 메모리를 기초하여 문항 풀이 능력을 결정하고, 문항의 난이도 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the
본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 통신부 (120) 를 통해 수신된 문항에 대한 정답 여부, 및 문항과 연관된 개념을 기초로 개념 메모리를 업데이트하도록 더 구성될 수 있다. According to another feature of the present invention, the
즉, 프로세서 (130) 는 이러한 문항 평가 모델, 및 개념 평가 모델들을 이용함에 따라, 학습자 맞춤형 문항 평가를 진행할 수 있고, 학습자의 학습에 따른 지식 상태의 업데이트를 반영할 수 있다. 더욱이, 프로세서 (130) 는 학습자의 개념 이해도에 따라 추천 문항을 결정하여 제공할 수도 있다. That is, the
특히, 프로세서 (130) 는, 문항 평가 모델의 개념들 각각에 대한 임베딩 벡터들이 저장된 '잠재 개념' 및 학습자 개개인이 갖고 있는 개념 메모리의 '개념 학습 상태'를 공유하는 개념 평가 모델을 이용함에 따라, 학습자의 지식 상태에 대한 정확한 분석을 제공할 수 있다.In particular, as the
하기에서는, 도 1c를 함께 참조하여 사용자 디바이스 (200) 에 대하여 상세하게 설명하도록 한다. In the following, the
도 1c를 함께 참조하면, 사용자 디바이스 (200) 는 통신부 (210), 표시부 (220), 저장부 (230) 및 프로세서 (240) 를 포함한다. Referring to FIG. 1C together, the
먼저, 통신부 (210) 는 사용자 디바이스 (200) 가 외부 장치와 통신이 가능하도록 연결한다. 예를 들어, 통신부 (210) 는 유/무선 통신을 이용하여 문항 평가용 디바이스 (100) 와 연결되어 평가 문항에 대한 데이터를 송수신할 수 있다. 구체적으로, 통신부 (210) 는 문항 평가용 디바이스 (100) 와 연결되어 평가 결과를 수신하도록 더 구성될 수 있다. First, the
표시부 (220) 는 사용자에게 각종 콘텐츠 (예: 텍스트, 이미지, 비디오, 아이콘, 배너 또는 심볼 등) 를 표시할 수 있다. 더욱이, 표시부 (220) 는, 문항 평가용 디바이스 (100) 에 의해 결정된 사용자의 문항 평가 결과 데이터를 나타내기 위한 다양한 인터페이스 화면을 표시할 수 있다. 예를 들어, 표시부 (220) 는 문항에 대한 사용자의 정답 여부, 개념에 대한 이해도, 이해도가 부족한 개념과 연관된 추천 문항 등을 제공하도록 표시하도록 구성될 수 있다. The
다양한 실시예에서 표시부 (220) 는 터치스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치 (touch), 제스처 (gesture), 근접, 드래그 (drag), 스와이프 (swipe) 또는 호버링 (hovering) 입력 등을 수신할 수 있다. In various embodiments, the
저장부 (230) 는 문항 평가를 요청하고, 문항 평가에 대한 결과 데이터를 나타내기 위한 사용자 인터페이스를 제공하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 다양한 실시예에서 저장부 (230) 는 플래시 메모리 타입 (flash memory type), 하드디스크 타입 (hard disk type), 멀티미디어 카드 마이크로 타입 (multimedia card micro type), 카드 타입의 메모리 (예를 들어 SD 또는 XD 메모리 등), 램 (Random Access Memory, RAM), SRAM (Static Random Access Memory), 롬 (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 한편, 문항 평가용 디바이스 (100) 는 인터넷상에서 상기 저장부 (230) 의 저장 기능을 수행하는 웹 스토리지 (web storage) 와 관련되어 동작할 수도 있다.The
프로세서 (240) 는 통신부 (210), 표시부 (220) 및 저장부 (230) 와 동작 가능하게 연결되며, 문항 평가에 대한 결과 데이터를 나타내기 위한 사용자 인터페이스를 제공하기 위한 다양한 명령들을 수행할 수 있다. The
이하에서는, 도 1d 및 도 1e를 참조하여, 본 발명의 일 실시예에 따른 사용자 디바이스의 표시부에 대하여 구체적으로 설명한다. Hereinafter, a display unit of a user device according to an embodiment of the present invention will be described in detail with reference to FIGS. 1D and 1E.
먼저 도 1d를 참조하면, 사용자 디바이스 (200) 의 표시부 (220) 는, 문항 평가용 디바이스 (100) 에 의해 결정된 개념의 이해도가 미리 결정된 수준 이하의 개념과 연관된 문항을 추천하여 출력할 수 있다. 보다 구체적으로, 문항 평가용 디바이스 (100) 에 의해 결정된 개념 a에 대한 학습자의 이해도는 10 %, 개념 b에 대한 학습자의 이해도는 95 %, 개념 c에 대한 학습자의 이해도는 70 %로 나타난다. 이때, 추천 문항으로, 이해도가 상대적으로 저조한 개념 a (예를 들어, 분수의 계산) 와 연관된 문항이 결정되고, 표시부 (220) 를 통해 사용자에게 제공될 수 있다. 반면, 도 1e를 함께 참조하면, 이해도가 상대적으로 높았던 개념 b (예를 들어, 방정식, 수의 곱셈) 와 연관된 문항들은 추천 문항에서 제외될 수도 있다. First, referring to FIG. 1D , the
이에, 학습자는 취약한 개념에 대한 집중적 학습이 가능함에 따라, 개개인에 대한 맞춤형 이러닝 학습 환경을 제공받을 수 있다. Accordingly, learners can be provided with a customized e-learning environment for each individual as intensive learning is possible for weak concepts.
이하에서는 도 2, 도 3을 참조하여 본 발명의 다양한 실시예에 따른 문항 평가 방법을 설명한다.Hereinafter, item evaluation methods according to various embodiments of the present invention will be described with reference to FIGS. 2 and 3 .
도 2는 본 발명의 일 실시예에 따른 문항 평가 방법을 설명하기 위한 개략적인 순서도이다. 도 3은 본 발명의 일 실시예에 따른 문항 평가 방법의 절차를 예시적으로 도시한 것이다.2 is a schematic flowchart for explaining a method for evaluating items according to an embodiment of the present invention. 3 illustratively illustrates the procedure of the item evaluation method according to an embodiment of the present invention.
먼저, 도 2를 참조하면, 먼저 본 발명의 일 실시예에 따른 문항 평가 방법에 따라, 사용자가 풀어야 할 문항이 수신된다 (S210). 그 다음, 문항 평가 모델에 의해 문항에 대한 개념이 결정되고 (S220), 문항의 정답 여부가 예측된다 (S230). 그 다음, 개념 평가 모델에 의해 문항과 관련된 개념의 이해도가 예측되고 (S240) 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공된다 (S250).First, referring to FIG. 2 , according to the item evaluation method according to an embodiment of the present invention, an item to be solved by the user is received (S210). Next, the concept of the item is determined by the item evaluation model (S220), and whether or not the item is correct is predicted (S230). Then, the level of understanding of the concept related to the item is predicted by the concept evaluation model (S240), and whether or not the item is answered correctly and the degree of understanding of the concept related to the item is provided (S250).
보다 구체적으로, 문항이 수신되는 단계 (S210) 에서 문제 은행과 같은 평가 문항 제공 서버로부터 문항이 수신되거나, 문항 평가용 디바이스의 입력부를 통해 문항을 입력 받을 수 있다.More specifically, in the step of receiving the item (S210), the item may be received from an evaluation item providing server such as a question bank, or the item may be input through an input unit of the item evaluation device.
본 발명의 특징에 따르면, 문항이 수신되는 단계 (S210) 가 수행되기 이전에, 복수개의 문항 중 적어도 하나에 대한 선택이 입력되는 단계가 더 수행될 수 있다.According to a feature of the present invention, a step of inputting a selection for at least one of a plurality of questions may be further performed before the step of receiving the question ( S210 ) is performed.
따라서, 문항이 수신되는 단계 (S210) 에서 사용자로부터 선택된 문항이 수신될 수 있다.Accordingly, in the step of receiving the question (S210), the question selected by the user may be received.
그 다음, 문항에 대한 개념이 결정되는 단계 (S220) 에서, 문항이 갖는 개념이 결정될 수 있다. Next, in the step of determining the concept of the item (S220), the concept of the item may be determined.
본 발명의 특징에 따르면, 문항에 대한 개념이 결정되는 단계 (S220) 에서, 문항 벡터가 생성하도록, 문항이 벡터화 되고, 문항 벡터 및 잠재 개념과의 유사도가 비교되고, 유사도에 기초하여 문항에 대한 개념이 결정될 수 있다.According to a feature of the present invention, in the step of determining the concept of an item (S220), the item is vectorized so that an item vector is generated, the similarity between the item vector and the latent concept is compared, and based on the similarity, the item is vectorized. concept can be determined.
예를 들어, 도 3을 함께 참조하면, 문항이 수신되는 단계 (S210) 를 통해 평가 문항 (310) 이 수신되고, 문항에 대한 개념이 결정되는 단계 (S220) 에서 문항 평가 모델 (400) 에 평가 문항 (310) 이 입력된다. 그 다음, 평가 문항 (310) 이 임베딩 벡터화되어 문항 벡터 (312) 가 생성된다. 그 다음, 문항 평가 모델 (400) 의 잠재 개념 (410) 내의 개념들 각각에 대한 임베딩 벡터들과의 유사도가 비교된다. For example, referring to FIG. 3 together, an
한편, 본 발명의 다른 특징에 따르면, 문항에 대한 개념이 결정되는 단계 (S220) 이후에 잠재 개념 각각에 대한 가중치가 결정될 수 있다. Meanwhile, according to another feature of the present invention, a weight for each latent concept may be determined after the concept for the item is determined (S220).
예를 들어, 도 3을 다시 참조하면, 평가 문항 (310) 문항과 연관된 개념에 대하여 가중치가 미리 결정된 수준 이상으로 설정될 있고, 평가 문항 (310) 문항과 연관성이 상대적으로 낮은 개념에 대하여 가중치가 미리 결정된 수준 미만으로 설정될 수 있다. For example, referring to FIG. 3 again, weights may be set to a predetermined level or higher for concepts related to
다시 도 2를 참조하면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항에 대하여 사용자가 정답을 맞출지에 대한 확률이 산출될 수 있다. Referring back to FIG. 2 , in the step of predicting whether or not the question is correct (S230), the probability of whether the user will answer the question correctly may be calculated.
본 발명의 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 개념 학습 상태 및 잠재 개념에 대하여 결정된 가중치를 기초로 문항의 정답 여부가 예측될 수도 있다. According to a feature of the present invention, in the step of predicting whether or not the item is correct (S230), whether the item is correct or not may be predicted based on the concept learning state and the weight determined for the latent concept by the item evaluation model.
본 발명의 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 개념 메모리 중, 문항과 연관된 메모리가 결정되고, 기 연관된 메모리에 기초하여 사용자의 문항 풀이 능력이 결정되고, 문항 풀이 능력에 기초하여 문항에 대한 정답 여부가 예측될 수 있다.According to a feature of the present invention, in the step of predicting whether or not the question is correct (S230), a memory associated with the item is determined from among the concept memories by the item evaluation model, and the user's ability to solve the item is determined based on the previously associated memory. And, based on the ability to solve the question, whether or not the answer is correct for the question can be predicted.
본 발명의 다른 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 문항의 난이도가 결정되고, 개념 메모리 중, 문항과 연관된 메모리가 결정되고, 연관된 메모리를 기초하여 사용자의 문항 풀이 능력이 결정되고, 문항의 난이도 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부가 예측될 수 있다.According to another feature of the present invention, in the step of predicting whether the question is correct or not (S230), the difficulty of the item is determined by the item evaluation model, the memory associated with the item is determined among the concept memories, and based on the associated memory The user's problem-solving ability may be determined, and a correct answer to the item may be predicted based on the difficulty of the item and the item-solving ability.
예를 들어, 도 3을 함께 참조하면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 사용자의 지식 상태인 개념 메모리에 대응하는 개념 학습 상태 (420) 및 잠재 개념 각각에 대한 가중치에 기초하여, KEY에 대응하는 VALUE 값이 설정될 수 있다. 그 다음, 문항 풀이 능력 결정 네트워크 (430) 에 의해 사용자의 문항 풀이 능력 (316) 이 결정될 수 있다. 이때, 문항 평가 모델 (400) 은 문항 벡터 (312) 에 기초하여 평가 문항 (310) 에 대한 문항 난이도 (314) 를 결정할 수 있다. 한편, 문항 난이도 (314) 는 문항 평가 모델 (400) 과 독립적인 문항 난이도 예측 모델 (미도시) 에 의해 결정되어 문항 평가 모델 (400) 에 송신될 수도 있다. 그 다음, 문항 난이도 (314) 및 사용자의 문항 풀이 능력 (316) 에 기초하여 평가 문항 (310) 을 사용자가 맞출 확률인, 정답 확률 (318) 이 80 %로 결정될 수 있다. For example, referring to FIG. 3 together, in step S230 of predicting whether or not the question is correct, based on the
다시 도 2를 참조하면, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 에서, 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델에 의해 사용자에 대한 개념의 이해도가 예측될 수 있다.Referring back to FIG. 2 , in step S240 of predicting the level of understanding of a concept related to an item, a concept evaluation model configured to share at least one of a latent concept and a concept learning state and predict a level of understanding of a concept related to the item provides the user with a concept evaluation model. The level of understanding of the concept of can be predicted.
예를 들어, 도 3을 다시 참조하면, 개념 평가 모델 (500) 은 문항 평가 모델 (400) 과 잠재 개념 (510) 및 사용자에 대한 개념 학습 상태 (520) 를 공유하도록 구성될 수 있다. 이에 따라, 히든 개념 레이어에 대한 해석 가능성을 높일 수 있어, 학습자의 지식 상태에 대한 섬세한 분석이 가능할 수 있다. 더욱이 히든 레이어의 공유에 따라 학습 단계에서 등장 빈도수가 낮은 개념의 문항에 대한 평가 능력이 우수할 수 있고, 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. 한편, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 에서 평가 문항 (310) 과 연관된 개념 (320) 이 개념 평가 모델 (500) 에 입력되고, 연관된 개념 (320) 을 임베딩 벡터화 하여 연관된 개념 (320) 각각에 대한 개념 벡터 (322) 를 획득할 수 있다. 그 다음, 잠재 개념 (510) 내의 개념들 각각에 대한 임베딩 벡터들과의 유사도가 비교되고, 사용자의 지식 상태인 개념 메모리에 대응하는 개념 학습 상태 (520) 및 잠재 개념 각각에 대한 가중치에 기초하여, KEY에 대응하는 VALUE 값이 설정될 수 있다. 그 다음, 개념 이해 능력 결정 네트워크 (530) 에 의해 사용자의 개념 이해 능력 (326) 이 결정될 수 있다. 이때, 개념 평가 모델 (500) 은 개념 벡터 (322) 에 기초하여 평가 문항 (310) 과 연관된 개념 (320) 에 대한 개념 난이도 (324) 를 결정할 수 있다. 한편, 개념 난이도 (324) 는 개념 평가 모델 (500) 과 독립적인 문항 난이도 예측 모델 (미도시) 에 의해 결정되어 개념 평가 모델 (500) 에 송신될 수도 있다. 그 다음, 개념 난이도 (324) 및 사용자의 개념 이해 능력 (326) 에 기초하여 평가 문항 (310) 에 대한 개념 a, b, c의 개념 이해 확률 (328) 이 각각 60 %, 90 %, 85 %로 결정될 수 있다. For example, referring back to FIG. 3 ,
한편, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 는, 전술한 것에 제한되지 않고, 문항에 대한 개념이 결정되는 단계 (S220) 또는 문항의 정답 여부가 예측되는 단계 (S230) 와 동시에 수행될 수도 있다. On the other hand, the step of predicting the degree of understanding of the concept related to the item (S240) is not limited to the above, and is performed simultaneously with the step of determining the concept of the item (S220) or predicting whether the question is correct (S230) It could be.
다시 도 2를 참조하면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 에서, 문항의 정답 여부가 예측되는 단계 (S230) 및 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 각각에서 결정된 문항에 대한 정답 여부 및 개념의 이해도가 제공된다.Referring back to FIG. 2 , in step S250 in which whether an item is correct and the level of understanding of a concept related to the item is provided, whether or not the item is correct is predicted (S230) and the degree of understanding of the concept related to the item is predicted ( S240) Whether or not the answer is correct for the question determined in each step and the degree of understanding of the concept are provided.
예를 들어, 도 3을 참조하면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 에서, 문항 평가 모델 (400) 및 개념 평가 모델 (500) 각각에서 의해 출력된 정답 확률 (318) 및 개념 이해도 (328) 가 제공될 수 있다.For example, referring to FIG. 3 , in a step S250 in which whether an item is answered correctly and the level of understanding of a concept related to the item is provided, the probability of correct answer output by the
한편, 본 발명의 특징에 따르면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 이후에, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이하의 이해도를 갖는 개념과 연관된 문항을 결정하는 단계, 및 연관된 문항을 제공하는 단계가 더 수행될 수 있다.On the other hand, according to the feature of the present invention, after the step (S250) of providing whether or not the question is correct and the degree of understanding of the concept related to the question, among a plurality of additional questions based on the predicted user's degree of understanding of the concept, a predetermined level or less is reached. A step of determining an item associated with a concept having an understanding of , and a step of providing a related item may be further performed.
나아가, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계, 및 복수의 추가 문항 중, 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계가 더 수행될 수 있다.Furthermore, based on the predicted level of understanding of the user's concept, determining a high-understanding item associated with a concept having a level of understanding above a predetermined level among a plurality of additional items, and selecting a high-understanding item among the plurality of additional items. A step of providing the remaining questions may be further performed.
즉, 학습자는 부족한 개념과 연관된 문항을 제공받을 수 있어, 학습자의 학습 효율이 증대될 수 있다. That is, learners can be provided with questions related to concepts they lack, so that learners' learning efficiency can be increased.
한편, 본 발명의 다양한 실시예에 따른 문항 평가 방법에서, 문항에 대한 분석은 하기 수학식 1에 기초하여 수행될 수 있다.Meanwhile, in the item evaluation method according to various embodiments of the present invention, analysis of the item may be performed based on
[수학식 1][Equation 1]
여기서, BCE는 'binary cross entropy'를 지칭하고, qt는 시간 t에 해당하는 평가 문항을 지칭하며, at는 시간 t에 해당하는 사용자의 답을 지칭하며, Ωt는 qt와 연관된 개념 집합을 지칭한다. 또한 c는 개념을 지칭하고, DKVMN은 문항 풀이 예측 파트, ExpM은 개념 이해도 예측 파트로 정의될 수 있다. 이때, Ωt는 1, 즉 문항과 연관된 개념은 1개일 수 있으나 이에 제한되는 것은 아니다. Here, BCE refers to 'binary cross entropy', q t refers to an evaluation item corresponding to time t, a t refers to the user's answer corresponding to time t, and Ω t refers to a concept related to q t refers to a set In addition, c indicates a concept, DKVMN can be defined as an item solution prediction part, and ExpM can be defined as a concept understanding level prediction part. At this time, Ω t is 1, that is, the concept associated with the item may be one, but is not limited thereto.
본 발명의 다른 특징에 따르면, 문항에 대한 사용자의 정답 여부, 및 예측된 개념 이해도에 따라 지식 상태의 업데이트를 반영할 수 있다.According to another feature of the present invention, the update of the knowledge state may be reflected according to the user's correct answer to the question and the predicted level of understanding of the concept.
이하에서는, 도 4 및 도 5를 참조하여, 문항 평가 모델의 업데이트에 대하여 구체적으로 설명한다. Hereinafter, updating of the item evaluation model will be described in detail with reference to FIGS. 4 and 5 .
도 4는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 설명하기 위한 개략적인 순서도이다. 도 5는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 예시적으로 도시한 것이다.4 is a schematic flowchart for explaining an update step of an item evaluation model applied to various embodiments of the present invention. 5 illustratively illustrates an update step of an item evaluation model applied to various embodiments of the present invention.
먼저, 도 4를 참조하면, 문항 평가 모델은 사용자로부터 문항에 대한 답이 수신되고 (S410), 수신된 정답 여부, 및 문항과 연관된 개념에 기초하여 개념 학습 상태가 업데이트될 수 있다 (S420). First, referring to FIG. 4 , in the item evaluation model, an answer to an item is received from a user (S410), and a concept learning state may be updated based on the received correct answer and a concept associated with the item (S420).
예를 들어, 도 5를 함께 참조하면, 문항에 대한 답이 수신되는 단계 (S410) 에서, 평가 문항 및 정답 세트 (620) 가 수신될 수 있다. 그 다음, 개념 학습 상태가 업데이트되는 단계 (S420) 에서, 평가 문항 및 정답 세트 (620) 를 임베딩 벡터화 한 후, 삭제 벡터 (erase vector) 및 추가 벡터 (add vector) 를 각각 생성한다. 그 다음, 평가 문항 (610) 이 문항 평가 모델 (400) 에 입력된 후, 잠재 개념 (410) 과의 유사도에 따라 결정된 가중치가 삭제 벡터 및 추가 벡터 각각에 대하여 곱해진다. 그 다음, 삭제 벡터에 기존의 개념 학습 상태 (t) (420) 가 반영된 후, 두 개의 벡터가 합쳐짐으로써, 새롭게 업데이트된 개념 학습 상태 (t+1) (420') 이 획득될 수 있다. 업데이트된 개념 학습 상태 (420') 는, 평가 문항 (610) 다음에 제시될 문항의 평가에 적용될 수 있다.For example, referring to FIG. 5 together, in step S410 of receiving answers to questions, an evaluation item and a correct answer set 620 may be received. Next, in the step of updating the concept learning state (S420), the evaluation questions and the correct answer set 620 are vectorized into an embedding vector, and then an erase vector and an add vector are generated, respectively. Then, after the
이하에서는, 도 6a 및 6b를 참조하여, 본 발명의 다양한 실시예에 이용되는 문항 평가 모델 및 개념 평가 모델의 구조, 문항 평가 모델의 업데이트를 위한 구성을 구체적으로 설명한다. Hereinafter, with reference to FIGS. 6A and 6B , the structure of an item evaluation model and concept evaluation model used in various embodiments of the present invention and a configuration for updating the item evaluation model will be described in detail.
도 6a는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델의 구조를 예시적으로 도시한 것이다. 도 6b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트를 위한 구성을 예시적으로 도시한 것이다.FIG. 6A exemplarily illustrates structures of an item evaluation model and a concept evaluation model applied to various embodiments of the present invention. 6B illustrates a configuration for updating an item evaluation model applied to various embodiments of the present invention by way of example.
먼저, 도 6a를 참조하면, 문항 평가 모델 (400) 은 크게, 개념들 각각에 대한 임베딩 벡터들을 저장하는 ‘Key memory'인 잠재 개념 (410), 학습자의 지식 상태에 따라 가변적이고 ‘Key'에 대응하는 절대값을 포함하는 ‘Value memory (또는, 개념 메모리)'에 대응하는 개념 학습 상태 (420) 및 사용자에 대한 문항 풀이 능력을 결정하는 문항 풀이 능력 결정 네트워크 (430) 로 구성될 수 있다. 이때, qt에 대응하는 평가 문항 (310) 이 임베딩 벡터화 되어 kt에 대응하는 문항 벡터 (312) 가 생성되고, 이후 C에 대응하는 잠재 개념 (410) 내의 개념 각각에 대한 벡터와 문항 벡터 (312) 의 유사도에 따라, Wt q에 대응하는 가중치 (412) 가 결정될 수 있다. 그 다음, 개념 학습 상태 (420) 및 가중치 (412) 에 기초하여, rt q에 대응하는 리드 벡터 (read vector) (422) 가 생성된다. 그 다음, 문항 벡터 (312) 및 리드 벡터 (read vector) (422) 에 기초하여 ft q 특징 벡터 (feature vector) 에 대응하는 학습자의 문항 풀이 능력을 예측하는 네트워크 (430) 가 생성되고, t q에 대응하는 학습자에 대한 문항 풀이 능력 (316) 이 결정된다. 그 다음, 문항 벡터 (312) 에 기초하여 결정된 q에 대응하는 문항 난이도 (314) 및 문항 풀이 능력 (316) 에 기초하여 pt에 대응하는 정답 확률 (318) 이 최종적으로 산출될 수 있다. 한편, 개념 평가 모델 (500) 및 문항 평가 모델 (400) 은, 싱크가 맞춰진 잠재 개념 (410, 510), 개념 학습 상태 (410, 520) 를 포함할 수 있다. First, referring to FIG. 6A , the
즉, 개념 평가 모델 (500) 은, 문항 평가 모델 (400) 로부터 공유된 잠재 개념 (510) 및 개념 학습 상태 (520), 및 개념 이해 능력 결정 네트워크 (530) 로 이루어질 수 있다. 이때, 전문가에 의해 개념이 태깅된, Ct에 대응하는 문항과 연관된 개념 (320) 이 임베딩 벡터화 되어 h에 대응하는 개념 벡터 (322) 가 생성되고, 이후 C에 대응하는 잠재 개념 (510) 내의 개념 각각에 대한 벡터와 개념 벡터 (322) 의 유사도에 따라, Wt c에 대응하는 가중치 (512) 가 결정될 수 있다. 그 다음, 개념 학습 상태 (520) 및 가중치 (512) 에 기초하여, rt c에 대응하는 리드 벡터 (read vector) (522) 가 생성된다. 그 다음, 개념 벡터 (322) 및 리드 벡터 (read vector) (522) 에 기초하여 ft c 특징 벡터 (feature vector) 에 대응하는 학습자의 개념 이해 능력을 예측하는 네트워크 (530) 가 생성되고, t c에 대응하는 학습자에 대한 사용자의 개념 이해 능력 (326) 이 결정된다. 그 다음, 개념 벡터 (322) 에 기초하여 결정된 c에 대응하는 개념 난이도 (324) 및 개념 이해 능력 (326) 에 기초하여 mt에 대응하는 개념 이해 확률 (318) 이 최종적으로 산출될 수 있다.That is, the
이때, 문항 평가 모델 (400) 및 개념 평가 모델 (500) 은, 히든 개념 레이어를 공유하는 복수의 DKVMN 알고리즘에 기초한 모델일 수 있으나, 이에 제한되는 것은 아니다.In this case, the
한편, 문항 평가 모델 (400) 의 개념 학습 상태 (420) 는 문항에 대한 사용자의 정답 여부, 및 문항과 연관된 개념에 기초하여 업데이트될 수 있고, 업데이트된 개념 학습 상태 (420') 는 개념 평가 모델 (500) 에 공유될 수 있다. Meanwhile, the
보다 구체적으로, 도 6b를 참조하면, 개념 학습 상태 (420) 의 업데이트를 위해, 기존 학습된 qt 임베딩 백터와 질문에 대한 사용자의 반응인 at가 결합하고, (qt, at)에 대응하는 평가 문항 및 정답 세트 (620) 가 비-선형 맵핑 (Non-linear mapping) 되어 vt에 대응하는 문항 정답 벡터 (622) 가 생성된다. 이때, 문항 정답 벡터 (622) 는 하기 수학식 2에 의해 생성될 수 있다.More specifically, referring to FIG. 6B, for the update of the
[수학식 2][Equation 2]
vt = tanh(FC(A(qt),at))v t = tanh( FC ( A (q t ),a t ))
즉, 업데이트는, (qt, at)의 평가 문항 및 정답 세트 (620) 에 대한 새로운 임베딩 메트릭스를 생성 및 학습하지 않고, 기존의 평가 문항 (310) 이 임베딩 벡터화된 문항 벡터 (312) 를 at와 결합하면서 개시된다. 이에, 문항 평가 모델은 불 필요한 오버헤드 (overhead) 없이 업데이트 되고, 보다 안정적인 학습 (예를 들어, DKVMN 모델에서) 이 진행될 수 있다. 그 다음, 문항 정답 벡터 (622) 에 시그마 (σ) 가 적용되어 et에 대응하는 삭제 벡터가 생성되고, 문항 정답 벡터 (632) 에 쌍곡선 탄젠트 (tanh) 가 적용되어 추가 벡터 (634) 가 생성된다. 그 다음, 잠재 개념 (410) 과의 유사도에 따라 결정된 가중치 (412) 가 삭제 벡터 (632) 및 추가 벡터 (634) 각각에 대하여 곱해진다. 그 다음, 삭제 벡터 (632) 에 기존의 개념 학습 상태 (420) 가 반영된 후, 두 개의 벡터 (632, 634) 의 값들이 합쳐짐으로써, St+1에 대응하는 새롭게 업데이트된 개념 학습 상태 (420') 이 획득될 수 있다. 업데이트된 개념 학습 상태 (420') 는, 평가 문항 (310) 다음에 제시될 문항의 평가에 적용될 수 있다. 더욱이, 개념 평가 모델 (500) 에 공유될 수 있다.That is, the update does not generate and learn a new embedding matrix for the (q t , a t ) evaluation items and the correct answer set 620 , but instead uses the
비교예: 본 발명의 다양한 실시예에 따른 문항 평가 모델 + 개념 평가 모델, 및 단독 문항 평가 모델의 성능 비교 Comparative Example: Performance comparison of item evaluation model + concept evaluation model and single item evaluation model according to various embodiments of the present invention
이하에서는, 도 7a 및 7b를 참조하여 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스에 대한 평가 결과를 설명한다.Hereinafter, evaluation results of the item evaluation device according to various embodiments of the present invention will be described with reference to FIGS. 7A and 7B.
도 7a를 참조하면, DKVMN 알고리즘에 기초한 단독의 문항 평가 모델에 대한 평가 결과가 도시된다. 나아가, 도 7b를 참조하면, 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델에 기초한 문항 평가용 디바이스의 평가 결과가 도시된다.Referring to FIG. 7A , an evaluation result for a single item evaluation model based on the DKVMN algorithm is shown. Furthermore, referring to FIG. 7B , an evaluation result of an item evaluation device based on an item evaluation model and a concept evaluation model applied to various embodiments of the present invention is shown.
도 7a의 (a) 및 7b의 (a)를 참조하면, 본 발명의 다양한 실시예에 따른 문항 평가 모델 + 개념 평가 모델, 및 단독 문항 평가 모델의 분석의 정확도 (accuracy) 는 유사한 수준으로 나타난다. 그러나, 도 7a의 (b) 및 7b의 (b)를 더욱 참조하면, 크로스 엔트로피 손실 (Cross-entropy) 의 loss 값이 문항 평가 모델 + 개념 평가 모델이 단독의 문항 평가 모델보다 유의한 수준으로 낮게 나타난다. 더욱이, 도 7a의 (c) 및 7b의 (c)의 모델의 성능에 대응하는 AUC값을 참조하면, 단독의 문항 평가 모델의 경우 0.8162를 보이다가 평가가 진행될수록 0.76 이하로 하락하는 것으로 나타난다. 그러나, 문항 평가 모델 + 개념 평가 모델의 경우 0.8269의 높은 AUC값이 측정된 후, 0.8 이하로 떨어지지 않고 유지되는 것으로 나타난다. 즉, 이러한 결과는, 문항 평가 모델 + 개념 평가 모델은, 단독의 문항 평가 모델보다 예측의 성능이 우수하며, 문항 평가가 반복되어도 성능이 유지됨을 의미할 수 있다. Referring to FIGS. 7A (a) and 7B (a), the accuracy of analysis of the item evaluation model + concept evaluation model and the single item evaluation model according to various embodiments of the present invention is shown to be at a similar level. However, further referring to FIGS. 7A (b) and 7B (B), the cross-entropy loss value of the item evaluation model + concept evaluation model is significantly lower than that of the single item evaluation model. appear. Moreover, referring to the AUC value corresponding to the performance of the models of FIGS. 7A (c) and 7B (c), in the case of a single item evaluation model, it is 0.8162, but decreases to 0.76 or less as the evaluation progresses. However, in the case of the item evaluation model + concept evaluation model, after a high AUC value of 0.8269 is measured, it appears to be maintained without falling below 0.8. That is, these results may mean that the item evaluation model + concept evaluation model has better predictive performance than a single item evaluation model, and that the performance is maintained even if item evaluation is repeated.
이때, 단독의 문항 평가 모델은, 학습 단계에서 자주 등장하는 개념을 갖는 문항으로 인한 오버 핏팅에 의해 등장 빈도수가 낮은 개념에 대한 문항의 평가 능이 저조할 수 있다. 즉, 단독의 문항 평가 모델은, 개념 별 출제 문항의 균형에 따라 성능이 떨어질 수 있다. At this time, in the single item evaluation model, the ability to evaluate items for concepts with a low frequency of appearance may be low due to overfitting due to items having concepts that frequently appear in the learning stage. That is, the performance of a single item evaluation model may deteriorate depending on the balance of item items for each concept.
한편, 문항 평가 모델 및 개념 평가 모델은 사용자에 대한 개념 학습 상태를 공유함에 따라, 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. On the other hand, as the item evaluation model and the concept evaluation model share the learning state of the concept for the user, the evaluation ability for the item for a concept with a low frequency of appearance is higher than that of the single model, and the diagnostic performance is high even if the evaluation of the item is repeated. level can be maintained.
따라서, 문항 평가 모델 및 개념 평가 모델의 두 개의 모델에 기초한 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스는, 학습자의 학습 상태에 대한 섬세한 분석을 진행할 수 있는 효과가 있다.Therefore, the item evaluation device according to various embodiments of the present invention based on the two models of the item evaluation model and the concept evaluation model has an effect of performing a detailed analysis of the learner's learning state.
이에, 본 발명은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있다.Accordingly, the present invention can provide a customized e-learning environment for individual learners by providing an understanding of concepts related to questions and correct answers of questions output by each model by the item evaluation system.
이상 첨부된 도면을 참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although one embodiment of the present invention has been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be variously modified and implemented without departing from the technical spirit of the present invention. there is. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The protection scope of the present invention should be construed according to the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
100: 문항 평가용 디바이스
110, 230: 저장부
120, 210: 통신부
130, 240: 프로세서
200: 사용자 디바이스
220: 표시부
300: 평가 대상 문항 DB
310, 610: 평가 문항
312, 612: 문항 벡터
314, 614: 문항 난이도
316, 616: 문항 풀이 능력
318, 618: 정답 확률
322: 개념 벡터
324: 개념 난이도
326: 개념 이해 능력
328: 개념 이해 확률
410, 510: 잠재 개념
412, 512: 가중치
420, 520: 개념 학습 상태
422, 522: 리드 벡터
420': 업데이트된 개념 학습 상태
430: 문항 풀이 능력 결정 네트워크
530: 개념 이해 능력 결정 네트워크
1000: 문항 평가 시스템100: device for evaluating questions
110, 230: storage unit
120, 210: communication department
130, 240: processor
200: user device
220: display unit
300: Evaluation target item DB
310, 610: evaluation questions
312, 612: question vector
314, 614: Question difficulty
316, 616: Ability to solve questions
318, 618: probability of correct answer
322: concept vector
324: Concept Difficulty
326: Ability to understand concepts
328: concept understanding probability
410, 510: latent concept
412, 512: weight
420, 520: concept learning state
422, 522: lead vector
420': updated concept learning status
430: Item Solving Ability Determination Network
530: Concept Understanding Ability Determination Network
1000: item evaluation system
Claims (8)
사용자 디바이스로부터 사용자가 풀어야 할 임의의 문항을 수신하는 단계;
상기 문항에 대한 잠재 개념을 결정하는 단계;
복수의 잠재 개념과 사용자의 개념 학습 상태를 포함한 히든 개념 레이어 및 문항 풀이 능력 결정 레이어로 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 사용자의 정답 확률을 예측하는 단계;
상기 히든 개념 레이어를 사용자의 개념 이해 확률을 예측하기 위한 개념 평가 모델에 공유하는 단계;
공유된 히든 개념 레이어 및 개념 이해 능력 결정 레이어로 구성된 상기 개념 평가 모델을 이용하여, 결정된 개념에 대한 사용자의 개념 이해 확률을 예측하는 단계; 및
예측된 정답 확률 및 개념 이해 확률을 상기 사용자 디바이스로 제공하는 단계; 를 포함하고,
상기 문항 평가 모델은,
상기 문항에 대응하는 문항 벡터가 입력되는 입력 레이어;
상기 문항 벡터와 벡터화된 상기 복수의 잠재 개념과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 문항 평가 가중치를 결정하는 제1 히든 개념 레이어;
상기 개념 학습 상태 및 상기 문항 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어;
상기 문항 벡터 및 상기 리드 벡터를 기초로 문항 풀이 능력을 결정하는 상기 문항 풀이 능력 결정 레이어; 및
상기 문항 벡터를 기초로 하는 문항 난이도 및 상기 문항 풀이 능력을 입력하여 상기 사용자의 정답 확률을 산출하는 출력 레이어; 를 포함하고,
상기 개념 평가 모델은,
상기 결정된 개념에 대응하는 개념 벡터가 입력되는 입력 레이어;
상기 개념 벡터와 벡터화된 상기 복수의 잠재 개념 각각과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 개념 평가 가중치를 결정하는 제1 히든 개념 레이어;
상기 개념 학습 상태 및 상기 개념 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어;
상기 개념 벡터 및 리드 벡터를 기초로 개념 이해 능력을 결정하는 상기 개념 이해 능력 결정 레이어; 및
상기 개념 벡터를 기초로 하는 개념 난이도 및 상기 개념 이해 능력을 입력하여 상기 사용자의 개념 이해 확률을 산출하는 출력 레이어; 를 포함하는, 문항 평가 방법. As an item evaluation method implemented by a processor,
Receiving an item to be solved by a user from a user device;
determining a latent concept for the item;
predicting a user's correct answer probability for the item using an item evaluation model composed of a plurality of latent concepts, a hidden concept layer including a user's concept learning state, and an item-solving ability determination layer;
sharing the hidden concept layer to a concept evaluation model for predicting a concept understanding probability of a user;
predicting a concept understanding probability of a user for a determined concept using the concept evaluation model composed of a shared hidden concept layer and a concept comprehension capability determination layer; and
providing predicted correct answer probabilities and concept understanding probabilities to the user device; including,
The item evaluation model,
an input layer into which item vectors corresponding to the items are input;
a first hidden concept layer for determining an item evaluation weight corresponding to each of the plurality of latent concepts based on a similarity between the item vector and the plurality of vectorized latent concepts;
a second hidden concept layer for determining a lead vector based on the concept learning state and the item evaluation weight;
the item solving ability determination layer determining item solving ability based on the item vector and the read vector; and
an output layer that calculates a probability of correct answer of the user by inputting the item difficulty and the item solving ability based on the item vector; including,
The concept evaluation model,
an input layer into which a concept vector corresponding to the determined concept is input;
a first hidden concept layer for determining a concept evaluation weight corresponding to each of the plurality of latent concepts based on a degree of similarity between the concept vector and each of the plurality of vectorized latent concepts;
a second hidden concept layer for determining a read vector based on the concept learning state and the concept evaluation weight;
the concept comprehension capability determining layer for determining a concept comprehension capability based on the concept vector and the lead vector; and
an output layer for calculating a concept understanding probability of the user by inputting the concept difficulty and the concept understanding ability based on the concept vector; Including, item evaluation method.
상기 개념 학습 상태는,
상기 사용자가 맞춘 정답 문항이 갖는 잠재 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의되는, 문항 평가 방법.According to claim 1,
The concept learning state,
An item evaluation method, which is defined as a concept memory consisting of absolute values of concept vectors obtained by vectorizing latent concepts of the correct answer items corrected by the user.
상기 사용자 디바이스로부터 상기 문항에 대한 답안을 수신하는 단계, 및
수신된 상기 답의 정답 여부, 및 상기 문항과 연관된 잠재 개념을 기초로 상기 개념 메모리를 업데이트하는 단계를 포함하는, 문항 평가 방법.According to claim 2,
receiving an answer to the question from the user device; and
and updating the concept memory based on whether the received answer is correct and a latent concept associated with the item.
상기 제공하는 단계 이후에,
예측된 상기 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계; 및
상기 사용자 디바이스로 상기 복수의 추가 문항 중, 상기 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계; 를 더 포함하는, 문항 평가 방법.According to claim 1,
After the providing step,
Determining an item with high comprehension associated with a concept having a level of understanding equal to or higher than a predetermined level, among a plurality of additional items, based on the predicted level of understanding of the concept; and
providing the remaining items except for the items with high level of understanding among the plurality of additional items to the user device; Further comprising, item evaluation method.
상기 통신부와 동작 가능하게 연결된 프로세서를 포함하고,
상기 프로세서는,
상기 문항에 대한 잠재 개념을 결정하고, 복수의 잠재 개념과 사용자의 개념 학습 상태를 포함한 히든 개념 레이어 및 문항 풀이 능력 결정 레이어로 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 사용자의 정답 확률을 예측하고, 상기 히든 개념 레이어를 사용자의 개념 이해 확률을 예측하기 위한 개념 평가 모델에 공유하고, 공유된 히든 개념 레이어 및 개념 이해 능력 결정 레이어로 구성된 상기 개념 평가 모델을 이용하여, 결정된 개념에 대한 사용자의 개념 이해 확률을 예측하고, 예측된 정답 확률 및 개념 이해 확률을 상기 사용자 디바이스로 제공하도록 구성되며,
상기 문항 평가 모델은,
상기 문항에 대응하는 문항 벡터가 입력되는 입력 레이어;
상기 문항 벡터와 벡터화된 상기 복수의 잠재 개념과의 유사도를 기초로 상기 복수의 잠재 개념각각에 대응되는 문항 평가 가중치를 결정하는 제1 히든 개념 레이어;
상기 개념 학습 상태 및 상기 문항 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어;
상기 문항 벡터 및 상기 리드 벡터를 기초로 문항 풀이 능력을 결정하는 상기 문항 풀이 능력 결정 레이어; 및
상기 문항 벡터를 기초로 하는 문항 난이도 및 상기 문항 풀이 능력을 입력하여 상기 사용자의 정답 확률을 산출하는 출력 레이어; 를 포함하고,
상기 개념 평가 모델은,
상기 결정된 개념에 대응하는 개념 벡터가 입력되는 입력 레이어;
상기 개념 벡터와 벡터화된 상기 복수의 잠재 개념 각각과의 유사도를 기초로 상기 복수의 잠재 개념 각각에 대응되는 개념 평가 가중치를 결정하는 제1 히든 개념 레이어;
상기 개념 학습 상태 및 상기 개념 평가 가중치를 기초로 리드 벡터를 결정하는 제2 히든 개념 레이어;
상기 개념 벡터 및 리드 벡터를 기초로 개념 이해 능력을 결정하는 상기 개념 이해 능력 결정 레이어; 및
상기 개념 벡터를 기초로 하는 개념 난이도 및 상기 개념 이해 능력을 입력하여 상기 사용자의 개념 이해 확률을 산출하는 출력 레이어; 를 포함하는 문항 평가용 디바이스.A communication unit configured to receive an arbitrary question to be solved by a user from a user device; and
A processor operably connected to the communication unit;
the processor,
Determine the latent concept for the item, and predict the probability of the user's answer to the item using an item evaluation model composed of a plurality of latent concepts, a hidden concept layer including the user's concept learning state, and a question solving ability determination layer. and sharing the hidden concept layer to a concept evaluation model for predicting the user's concept understanding probability, and using the concept evaluation model composed of the shared hidden concept layer and the concept comprehension ability determination layer to determine the user's understanding of the determined concept. predict a concept understanding probability and provide the predicted correct answer probability and concept understanding probability to the user device;
The item evaluation model,
an input layer into which item vectors corresponding to the items are input;
a first hidden concept layer for determining an item evaluation weight corresponding to each of the plurality of latent concepts based on a degree of similarity between the item vector and the plurality of vectorized latent concepts;
a second hidden concept layer for determining a lead vector based on the concept learning state and the item evaluation weight;
the item solving ability determination layer determining item solving ability based on the item vector and the read vector; and
an output layer that calculates a probability of correct answer of the user by inputting the item difficulty and the item solving ability based on the item vector; including,
The concept evaluation model,
an input layer into which a concept vector corresponding to the determined concept is input;
a first hidden concept layer for determining a concept evaluation weight corresponding to each of the plurality of latent concepts based on a degree of similarity between the concept vector and each of the plurality of vectorized latent concepts;
a second hidden concept layer for determining a read vector based on the concept learning state and the concept evaluation weight;
the concept comprehension capability determining layer for determining a concept comprehension capability based on the concept vector and the lead vector; and
an output layer for calculating a concept understanding probability of the user by inputting the concept difficulty and the concept understanding ability based on the concept vector; Item evaluation device comprising a.
상기 개념 학습 상태는,
상기 사용자가 맞춘 정답 문항이 갖는 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의되는, 문항 평가용 디바이스.According to claim 5,
The concept learning state,
A device for evaluating items, which is defined as a concept memory consisting of absolute values of concept vectors obtained by vectorizing the concepts of the correct answer items corrected by the user.
상기 통신부는,
상기 사용자 디바이스로부터 상기 문항에 대한 답안을 수신하도록 더 구성되고,
상기 프로세서는,
수신된 상기 답의 정답 여부, 및 상기 문항과 연관된 개념을 기초로 상기 개념 메모리를 업데이트하도록 더 구성된, 문항 평가용 디바이스.According to claim 6,
The communication department,
Further configured to receive an answer to the question from the user device,
the processor,
The device for evaluating an item, further configured to update the concept memory based on whether the received answer is correct or not and a concept associated with the item.
상기 프로세서는,
예측된 상기 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하고,
상기 사용자 디바이스로 상기 복수의 추가 문항 중, 상기 이해도 높은 문항을 제외한 나머지 문항을 제공하도록 더 구성된, 문항 평가용 디바이스. According to claim 5,
the processor,
Based on the predicted level of understanding of the concept, among a plurality of additional items, a high level of understanding related to a concept having a level of understanding above a predetermined level is determined;
A device for evaluating items further configured to provide the user device with the remaining items excluding the items with high understanding among the plurality of additional items.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230041373A KR20230047351A (en) | 2020-04-08 | 2023-03-29 | Method for questions assessment and device for questions assessment using the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200042704A KR20210125250A (en) | 2020-04-08 | 2020-04-08 | Method for questions assessment and device for questions assessment using the same |
KR1020230041373A KR20230047351A (en) | 2020-04-08 | 2023-03-29 | Method for questions assessment and device for questions assessment using the same |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200042704A Division KR20210125250A (en) | 2020-04-08 | 2020-04-08 | Method for questions assessment and device for questions assessment using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230047351A true KR20230047351A (en) | 2023-04-07 |
Family
ID=78271355
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200042704A KR20210125250A (en) | 2020-04-08 | 2020-04-08 | Method for questions assessment and device for questions assessment using the same |
KR1020230041373A KR20230047351A (en) | 2020-04-08 | 2023-03-29 | Method for questions assessment and device for questions assessment using the same |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200042704A KR20210125250A (en) | 2020-04-08 | 2020-04-08 | Method for questions assessment and device for questions assessment using the same |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR20210125250A (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102431603B1 (en) * | 2022-01-13 | 2022-08-11 | (주)개념원리 | Method of creating a learner-specific curriculum in online math learning |
KR102431604B1 (en) * | 2022-01-13 | 2022-08-11 | (주)개념원리 | Method of analyzing learners’achievement in online math learning |
KR102509107B1 (en) * | 2022-07-07 | 2023-03-14 | 주식회사 에이치투케이 | AI-Based Device and Method for Evaluating Status of Student |
KR102465634B1 (en) * | 2022-07-20 | 2022-11-11 | 주식회사 튜링 | Technique for providing customized problems to improve problem solving skills of users |
KR102518474B1 (en) * | 2022-07-21 | 2023-04-05 | 주식회사 튜링 | Technique for updating a skill of a user |
KR102538342B1 (en) * | 2022-10-19 | 2023-06-02 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system using inference of proficiency by curriculum based on diagnostic evaluation data for new learners |
KR102538340B1 (en) * | 2022-10-19 | 2023-06-02 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system that support diagnosis of learning proficiency |
KR102636582B1 (en) * | 2022-10-20 | 2024-02-16 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system that support diagnosis of learning proficiency and collaborative learning |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102015075B1 (en) | 2018-10-16 | 2019-08-27 | (주)뤼이드 | Method, apparatus and computer program for operating a machine learning for providing personalized educational contents based on learning efficiency |
-
2020
- 2020-04-08 KR KR1020200042704A patent/KR20210125250A/en active Application Filing
-
2023
- 2023-03-29 KR KR1020230041373A patent/KR20230047351A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102015075B1 (en) | 2018-10-16 | 2019-08-27 | (주)뤼이드 | Method, apparatus and computer program for operating a machine learning for providing personalized educational contents based on learning efficiency |
Also Published As
Publication number | Publication date |
---|---|
KR20210125250A (en) | 2021-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20230047351A (en) | Method for questions assessment and device for questions assessment using the same | |
CN110651280B (en) | Projection neural network | |
Tomasevic et al. | An overview and comparison of supervised data mining techniques for student exam performance prediction | |
Michelucci | Applied deep learning | |
EP3596663B1 (en) | Neural network system | |
US20190147369A1 (en) | Rule Determination for Black-Box Machine-Learning Models | |
US20200285934A1 (en) | Capsule neural networks | |
Hodnett et al. | R Deep Learning Essentials: A step-by-step guide to building deep learning models using TensorFlow, Keras, and MXNet | |
Lu et al. | Towards interpretable deep learning models for knowledge tracing | |
JP7316453B2 (en) | Object recommendation method and device, computer equipment and medium | |
CN110520871A (en) | Training machine learning model | |
JP6772213B2 (en) | Question answering device, question answering method and program | |
JP6696257B2 (en) | Vocabulary learning support system | |
US20200327450A1 (en) | Addressing a loss-metric mismatch with adaptive loss alignment | |
US20220180240A1 (en) | Transaction composition graph node embedding | |
KR102405838B1 (en) | Apparatus for providing personalized content by order of questions and method therefor | |
Adnan et al. | Improving m-learners’ performance through deep learning techniques by leveraging features weights | |
US20220083884A1 (en) | Estimating latent reward functions from experiences | |
Ganesan | Machine Learning in Mobile Applications | |
Hodnett et al. | Deep Learning with R for Beginners: Design neural network models in R 3.5 using TensorFlow, Keras, and MXNet | |
Vidovic et al. | ML2Motif—Reliable extraction of discriminative sequence motifs from learning machines | |
US10394898B1 (en) | Methods and systems for analyzing discrete-valued datasets | |
Moolayil et al. | Keras in action | |
KR20210141150A (en) | Method and apparatus for image analysis using image classification model | |
Mishra | PyTorch Recipes: A Problem-Solution Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal |