KR20210125250A - Method for questions assessment and device for questions assessment using the same - Google Patents
Method for questions assessment and device for questions assessment using the same Download PDFInfo
- Publication number
- KR20210125250A KR20210125250A KR1020200042704A KR20200042704A KR20210125250A KR 20210125250 A KR20210125250 A KR 20210125250A KR 1020200042704 A KR1020200042704 A KR 1020200042704A KR 20200042704 A KR20200042704 A KR 20200042704A KR 20210125250 A KR20210125250 A KR 20210125250A
- Authority
- KR
- South Korea
- Prior art keywords
- item
- concept
- question
- correct
- evaluation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 25
- 238000013210 evaluation model Methods 0.000 claims abstract description 151
- 238000011156 evaluation Methods 0.000 claims abstract description 132
- 230000015654 memory Effects 0.000 claims description 67
- 239000013598 vector Substances 0.000 claims description 62
- 238000004891 communication Methods 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012217 deletion Methods 0.000 description 5
- 230000037430 deletion Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Primary Health Care (AREA)
- Medical Informatics (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 문항 평가 방법 및 이를 이용한 디바이스에 관한 것으로, 보다 구체적으로는 사용자가 풀어야 할 문항에 대한 사용자의 정답 여부 및 문항이 갖는 개념에 대한 이해도를 평가하도록 구성된, 문항 평가 방법 및 이를 이용한 문항 평가 디바이스에 관한 것이다.The present invention relates to an item evaluation method and a device using the same, and more particularly, to an item evaluation method and item evaluation using the same, configured to evaluate whether the user has the correct answer to the item to be solved and the understanding of the concept of the item It's about devices.
최근, 학습자가 교사와 실제로 대면함으로써, 교사의 지도를 통해 학습을 수행하는 종래의 학습 방식에서 탈피하여, 시공간에 관계없이 학습자의 상황에 맞게 학습을 진행할 수 있는 다양한 학습 방식이 대두되고 있다.In recent years, various learning methods have emerged that allow learners to actually face-to-face with the teacher, breaking away from the conventional learning method in which learning is performed under the guidance of the teacher, and allowing learning to proceed according to the learner's situation regardless of time and place.
특히, 이러닝 (e-Learning) 학습 방식은 교실 중심의 학습 환경에서 벗어나, 인터넷 등을 이용한 유비쿼터스 정보 통신 환경에서 학습자 자신이 스스로 학습 수행을 주도할 수 있는 능동적인 형태의 학습 방식으로서, 이러한 이러닝 학습 방식은 교육 전반에 있어서 그 비중이 점차 확대되고 있는 추세에 있으며, 이러한 추세에 따라 다양한 형태의 이러닝 학습 기술들이 제시된 바 있다.In particular, the e-Learning learning method is an active learning method that allows learners to lead their own learning in the ubiquitous information and communication environment using the Internet, away from the classroom-centered learning environment. There is a trend that the proportion of the method is gradually expanding in the overall education, and various types of e-learning learning techniques have been suggested according to this trend.
하지만, 이러한 종래의 기술들은 단순히 학습자에게 일방적으로 학습 사항을 전달하는 것에만 초점이 맞추어져 있을 뿐, 학습에 의해 변화되는 학습자의 이해도 및 학습자에 의해 능동적으로 선택되는 학습 목표에 따라 어떠한 순서로 학습을 진행할 것인지, 어떠한 학습 컨텐츠를 선택할 것인지, 어떠한 난이도의 문제를 학습자에게 제공할 것인지 등에 대한 기술은 제시된 바 없다.However, these conventional techniques are focused only on simply delivering learning items to the learner, and in any order according to the learner's understanding changed by learning and the learning goal actively selected by the learner. There is no description of whether to proceed with learning, what kind of learning content to select, and what level of difficulty to provide to the learner.
특히, 종래의 이러닝 학습 환경은, 학습자 개개인의 지식 능력을 고려하여 효율적인 학습을 수행하는 것에 한계가 있음에 따라, 학습자 개개인에 대하여 최적화된 학습을 제공하는 1:1 오프라인 수업보다 학습 효율이 떨어질 수 있다. In particular, as the conventional e-learning learning environment has limitations in performing efficient learning in consideration of the individual learner's knowledge ability, the learning efficiency may be lower than that of a 1:1 offline class that provides optimized learning for each learner. have.
발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The description underlying the invention has been prepared to facilitate understanding of the invention. It should not be construed as an admission that the matters described in the background technology of the invention exist as prior art.
한편, 본 발명의 발명자들은, 전술한 바와 같은 종래의 학습 시스템이 갖는 한계를 극복하기 위한 방안으로, 학습자 개개인에 대한 성과를 예측하고 학습자의 학습을 조언하기 위한 교육 데이터 마이닝 툴의 개발에 주목하였다. 특히, 본 발명의 발명자들은 지식 추적 (Knowledge tracing) 이 학생 개개인에 대한 학습 능력을 향상시키는 데 중요한 요소일 수 있음에 주목하였다.On the other hand, the inventors of the present invention, as a way to overcome the limitations of the conventional learning system as described above, focused on the development of an educational data mining tool for predicting individual learner performance and advising the learner's learning. . In particular, the inventors of the present invention have noted that knowledge tracing may be an important factor in improving the learning ability of each student.
이때, 지식 추적은 학생의 지식 상태를 모델링하는 작업으로 지식 요소 (knowledge components, KC) 의 마스터 수준, 예를 들어 학생 능력 수준을 나타내는 스칼라 값 또는 벡터로 표현될 수 있다. In this case, the knowledge tracking is a task of modeling the student's knowledge state, and may be expressed as a scalar value or a vector indicating a master level of knowledge components (KC), for example, a student ability level.
따라서, 본 발명의 발명자들은 추정된 학습자의 지식 상태에 기초한 이러닝 학습 환경에서 학습자의 성취 수준이 더 잘 이해되고 그에 따른 학습 자료가 선택될 수 있음을 인지할 수 있었다. 더욱이, 본 발명의 발명자들은, 이러닝 학습 환경에 대하여 학습 분석 툴을 적용하여 학습 효율성을 극대화하기 위한 더 나은 학습 계획을 마련 할 수 있음을 기대할 수 있었다.Therefore, the inventors of the present invention were able to recognize that in an e-learning learning environment based on the estimated learner's knowledge state, the learner's achievement level can be better understood and learning materials can be selected accordingly. Moreover, the inventors of the present invention could be expected to be able to prepare a better learning plan for maximizing learning efficiency by applying a learning analysis tool to an e-learning learning environment.
그 결과, 본 발명의 발명자들은 학습자의 지식 상태에 기초하여 이러닝 학습 환경에서 제공되는 문항들을 평가하도록 구성된 문항 평가 시스템을 개발하기에 이르렀다. As a result, the inventors of the present invention have developed an item evaluation system configured to evaluate items provided in the e-learning learning environment based on the learner's knowledge status.
이때, 본 발명의 발명자들은, 문항에 대한 사용자의 정답 여부를 예측하도록 구성된 문항 평가 모델과 문항이 갖는 개념들에 대한 이해도를 평가하도록 구성된 개념 평가 모델을 문항 평가 시스템에 적용하고자 하였다.At this time, the inventors of the present invention tried to apply to the item evaluation system an item evaluation model configured to predict the user's correct answer to an item and a concept evaluation model configured to evaluate the degree of understanding of the concepts of the item.
보다 구체적으로, 본 발명의 발명자들은, 잠재 개념 (latent concepts) 을 기초로 문항에 대한 개념을 결정하고, 결정된 개념 및 학습자에 대한 대한 개념 학습 상태에 기초하여 문항의 정답 여부를 예측하도록 구성된 문항 평가 모델을 문항 평가 시스템에 적용할 수 있었다.More specifically, the inventors of the present invention determine a concept for an item based on latent concepts, and evaluate an item configured to predict whether the item is correct or not based on the determined concept and the concept learning state for the learner The model could be applied to the item evaluation system.
더욱이, 본 발명의 발명자들은, 문항 평가 모델을 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델을 문항 평가 시스템에 적용하고자 하였다.Furthermore, the inventors of the present invention intend to apply the item evaluation model to the item evaluation system, which is configured to share at least one of a latent concept and a concept learning state, and predict the concept understanding level for the item.
이때, 본 발명의 발명자들은, 문항 평가 모델이 갖는 히든 개념 레이어 (hidden concept layer) 인, '잠재 개념' 및/또는 '개념 학습 상태'를 공유하여 이들 레이어에 대한 해석 가능성을 높인 개념 평가 모델을 적용함에 따라 학습자의 학습 상태에 대한 정확한 분석을 진행할 수 있음을 기대할 수 있었다. At this time, the inventors of the present invention share 'latent concept' and/or 'concept learning state', which is a hidden concept layer of the item evaluation model, to increase the interpretability of these layers. By applying it, it could be expected that an accurate analysis of the learner's learning status could be carried out.
더욱이 본 발명의 발명자들은, 문항 평가 시스템에 학습자에 대한 개념의 이해도를 해석하고 평가하도록 구성된 개념 평가 모델을 함께 적용함에 따라, 단독의 문항 평가 모델을 적용했을 때 보다 높은 문항 예측 성능을 가지는 것을 발견할 수 있었다.Furthermore, the inventors of the present invention found that the item evaluation system had higher item prediction performance than when a single item evaluation model was applied by applying the concept evaluation model configured to interpret and evaluate the degree of understanding of the learner together with the item evaluation system. Could.
보다 구체적으로, 단독의 문항 평가 모델은, 학습 단계에서 자주 등장하는 개념을 갖는 문항으로 인한 오버핏팅 (overfitting) 에 의해 등장 빈도수가 낮은 개념에 대한 문항의 평가 능이 저조할 수 있다. 즉, 단독의 문항 평가 모델은, 개념 별 출제 문항의 균형에 따라 성능이 떨어질 수 있다. More specifically, the single item evaluation model may have poor evaluation ability of items for concepts with low frequency of appearance due to overfitting due to items with concepts frequently appearing in the learning stage. That is, a single item evaluation model may have poor performance depending on the balance of questions for each concept.
한편, 문항 평가 모델 및 개념 평가 모델로 이루어진 본 발명의 문항 평가 시스템은, 사용자에 대한 개념 학습 상태를 공유함에 따라, 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. On the other hand, in the item evaluation system of the present invention, which consists of an item evaluation model and a concept evaluation model, as the concept learning state for users is shared, the evaluation ability for the items of the concept with low frequency of appearance is higher than that of the single model, and the Even if the evaluation is repeated, the diagnostic performance can be maintained at a high level.
따라서, 본 발명의 발명자들은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있음을 더욱 기대할 수 있었다. Therefore, the inventors of the present invention can provide a level of understanding of concepts related to the correct answer of the question output by each model by the item evaluation system and the question, thereby providing a customized e-learning learning environment for each learner. could be expected more.
이에, 본 발명이 해결하고자 하는 과제는, 문항 평가 모델을 이용하여 수신된 문항에 대한 개념을 결정하고, 문항의 정답여부를 예측하며, 개념 평가 모델을 이용하여 문항과 관련된 개념의 이해도를 예측하도록 구성된 문항 평가 방법 및 이를 이용한 디바이스를 제공하는 것이다. Accordingly, the problem to be solved by the present invention is to determine the concept of the received item using the item evaluation model, predict whether the item is correct or not, and predict the understanding of the concept related to the item using the concept evaluation model. It is to provide a constructed item evaluation method and a device using the same.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 문항 평가 방법을 제공한다. 상기 방법은, 프로세서에 의해 구현되는 문항 평가 방법으로서, 사용자가 풀어야 할 문항을 수신하는 단계, 잠재 개념 (latent concepts) 을 기초로 문항에 대한 개념을 결정하도록 구성된 문항 평가 모델을 이용하여, 문항에 대한 개념을 결정하는 단계, 결정된 개념 및 사용자에 대한 개념 학습 상태에 기초하여 문항의 정답 여부를 예측하도록 더 구성된 문항 평가 모델을 이용하여, 문항의 정답 여부를 예측하는 단계, 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델을 이용하여, 사용자에 대한 상기 문항과 관련된 개념의 이해도를 예측하는 단계, 및 문항의 정답 여부 및 상기 문항과 관련된 개념의 이해도를 제공하는 단계를 포함한다.In order to solve the above problems, an item evaluation method according to an embodiment of the present invention is provided. The method is an item evaluation method implemented by a processor, using an item evaluation model configured to determine a concept for an item based on a step of receiving an item to be solved by a user, and latent concepts. Predicting whether the question is correct by using an item evaluation model further configured to predict whether the question is correct or not based on the determined concept and the concept learning state for the user, predicting whether the question is correct, potential concept and concept learning state predicting the degree of understanding of the concept related to the item for the user by using a concept evaluation model configured to share at least one of and predict the degree of understanding of the concept for the item, and whether the item is correct or not and the concept related to the item providing an understanding.
본 발명의 특징에 따르면, 문항 평가 모델은, 문항의 정답 여부를 확률적으로 예측하도록 더 구성될 수 있다. 이때, 개념 평가 모델은, 문항과 관련된 개념의 이해도를 확률적으로 예측하도록 더 구성될 수 있다. 또한, 제공하는 단계는, 문항에 대한 정답 확률 및 개념의 이해 확률을 제공하는 단계를 포함할 수 있다.According to a feature of the present invention, the item evaluation model may be further configured to probabilistically predict whether an item is correct or not. In this case, the concept evaluation model may be further configured to probabilistically predict the degree of understanding of the concept related to the item. In addition, the providing may include providing a probability of correct answer to the question and a probability of understanding a concept.
본 발명의 다른 특징에 따르면, 문항에 대한 개념을 결정하는 단계는, 문항 벡터를 생성하도록, 문항을 벡터화 하는 단계, 문항 벡터 및 상기 잠재 개념과의 유사도를 비교하는 단계, 및 유사도에 기초하여 상기 문항에 대한 개념을 결정하는 단계를 포함할 수 있다.According to another feature of the present invention, the determining of the concept for the item includes: vectorizing the item to generate an item vector, comparing the item vector and the similarity with the latent concept, and based on the similarity It may include determining a concept for the item.
본 발명의 또 다른 특징에 따르면, 상기 문항 평가 방법은, 개념을 결정하는 단계 이후에, 유사도에 따라 잠재 개념 각각에 대한 가중치를 결정하는 단계를 더 포함할 수 있다. 이때, 문항의 정답 여부를 예측하는 단계는, 문항 평가 모델을 이용하여, 개념 학습 상태 및 잠재 개념에 대한 가중치를 기초로 문항의 정답 여부를 예측하는 단계를 포함할 수 있다.According to another feature of the present invention, the item evaluation method may further include, after determining the concept, determining a weight for each potential concept according to the degree of similarity. In this case, predicting whether the item is correct may include predicting whether the item is correct or not based on the concept learning state and the weight for the latent concept using the item evaluation model.
본 발명의 또 다른 특징에 따르면, 개념 학습 상태는, 사용자가 맞춘 정답 문항이 갖는 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의될 수 있다.According to another feature of the present invention, the concept learning state may be defined as a concept memory composed of an absolute value of a concept vector obtained by vectorizing a concept of a correct answer item matched by a user.
본 발명의 또 다른 특징에 따르면, 문항의 정답 여부를 예측하는 단계는, 문항 평가 모델을 이용하여, 개념 메모리 중, 문항과 연관된 메모리를 결정하는 단계, 연관된 메모리에 기초하여 문항 풀이 능력을 결정하는 단계, 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하는 단계를 포함할 수 있다.According to another feature of the present invention, predicting whether an item is correct may include determining a memory associated with an item from among conceptual memories using an item evaluation model, and determining an item solving ability based on the associated memory. It may include a step of predicting whether or not an answer to the question is correct based on the step and the question-solving ability.
본 발명의 또 다른 특징에 따르면, 문항 평가 모델은, 문항의 난이도 및 상기 사용자의 문항 풀이 능력을 기초로 상기 문항의 정답 여부를 예측하도록 더 구성될 수 있다. 이때, 문항의 정답 여부를 예측하는 단계는, 문항의 난이도를 결정하는 단계, 개념 메모리 중, 문항과 연관된 메모리를 결정하는 단계, 연관된 메모리를 기초하여 문항 풀이 능력을 결정하는 단계, 및 문항의 난이도 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the item evaluation model may be further configured to predict whether the item is correct or not based on the difficulty of the item and the user's ability to solve the item. In this case, the step of predicting whether an item is correct may include determining the difficulty level of the item, determining the memory associated with the item from among concept memories, determining the item solving ability based on the associated memory, and the difficulty level of the item and predicting whether an answer to the question is correct based on the question-solving ability.
본 발명의 또 다른 특징에 따르면, 상기 문항 평가 방법은, 사용자로부터 문항에 대한 답을 수신하는 단계, 및 수신된 답의 정답 여부, 및 문항과 연관된 개념을 상기 개념 메모리를 업데이트하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the item evaluation method further includes: receiving an answer to the item from the user; can do.
본 발명의 또 다른 특징에 따르면, 상기 문항 평가 방법은 제공하는 단계 이후에, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이하의 이해도를 갖는 개념과 연관된 문항을 결정하는 단계, 및 연관된 문항을 제공하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the item evaluation method determines, after the providing step, an item related to a concept having a level of understanding below a predetermined level among a plurality of additional items based on the predicted degree of understanding of the user's concept. It may further include the step of, and the step of providing a related item.
본 발명의 또 다른 특징에 따르면, 상기 문항 평가 방법은, 제공하는 단계 이후에, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계, 및 복수의 추가 문항 중, 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계를 더 포함할 수 있다. According to another feature of the present invention, the item evaluation method, after the step of providing, based on the predicted degree of understanding of the user's concept, among a plurality of additional items, the degree of understanding associated with the concept having a degree of understanding above a predetermined level is high The method may further include determining the items and providing the remaining items except for items with high understanding among the plurality of additional items.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 제공한다. 상기 디바이스는, 사용자가 풀어야 할 문항을 수신하도록 구성된 통신부, 및 프로세서를 포함한다. 이때, 프로세서는, 잠재 개념 (latent concepts) 을 기초로 문항에 대한 개념을 결정하도록 구성된 문항 평가 모델을 이용하여 문항에 대한 개념을 결정하고, 결정된 개념 및 사용자에 대한 개념 학습 상태에 기초하여 문항의 정답 여부를 예측하도록 더 구성된 문항 평가 모델을 이용하여 문항의 정답 여부를 예측하고, 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델을 이용하여 사용자에 대한 문항과 관련된 개념의 이해도를 예측하고, 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공하도록 구성된다.In order to solve the above problems, there is provided a device for item evaluation according to an embodiment of the present invention. The device includes a communication unit configured to receive a question to be solved by a user, and a processor. At this time, the processor determines the concept of the item using an item evaluation model configured to determine the concept of the item based on latent concepts, and the concept of the item based on the determined concept and the concept learning state for the user Using the item evaluation model further configured to predict the correct answer, predict whether the item is correct or not, share at least one of the latent concept and the concept learning state, and use the concept evaluation model configured to predict the concept understanding of the item to the user It is configured to predict the degree of understanding of the concepts related to the question, and to provide the correct answer to the question and the degree of understanding of the concept related to the question.
본 발명의 특징에 따르면, 프로세서는, 문항 벡터를 생성하도록, 문항을 벡터화 하고, 문항 벡터 및 상기 잠재 개념과의 유사도를 비교하고, 유사도에 기초하여 문항에 대한 개념을 결정하도록 더 구성될 수 있다.According to a feature of the present invention, the processor may be further configured to vectorize an item to generate an item vector, compare the item vector and the degree of similarity with the latent concept, and determine a concept for the item based on the similarity. .
본 발명의 다른 특징에 따르면, 프로세서는, 유사도에 따라 잠재 개념 각각에 대한 가중치를 결정하고, 문항 평가 모델을 이용하여, 개념 학습 상태 및 잠재 개념에 대한 가중치를 기초로 문항의 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the processor determines a weight for each potential concept according to the degree of similarity, and predicts whether the question is correct based on the concept learning state and the weight for the latent concept by using the item evaluation model. can be further configured.
본 발명의 또 다른 특징에 따르면, 개념 학습 상태는, 사용자가 맞춘 정답 문항이 갖는 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의될 수 있다.According to another feature of the present invention, the concept learning state may be defined as a concept memory composed of an absolute value of a concept vector obtained by vectorizing a concept of a correct answer item matched by a user.
본 발명의 또 다른 특징에 따르면, 프로세서는, 문항 평가 모델을 이용하여, 개념 메모리 중, 문항과 연관된 메모리를 결정하고, 연관된 메모리에 기초하여 상기 문항 풀이 능력을 결정하고, 문항 풀이 능력에 기초하여 상기 문항에 대한 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the processor determines a memory associated with an item from among concept memories using the item evaluation model, determines the item solving ability based on the associated memory, and based on the item solving ability It may be further configured to predict whether the answer to the question is correct.
본 발명의 또 다른 특징에 따르면, 문항 평가 모델은, 문항의 난이도 및 사용자의 문항 풀이 능력을 기초로 상기 문항의 정답 여부를 예측하도록 구성될 수 있다. 이때, 프로세서는, 문항의 난이도를 결정하고, 개념 메모리 중, 문항과 연관된 메모리를 결정하고, 연관된 메모리를 기초하여 문항 풀이 능력을 결정하고, 문항의 난이도 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the item evaluation model may be configured to predict whether the item is correct or not based on the difficulty of the item and the user's ability to solve the item. At this time, the processor determines the difficulty of the item, determines the memory associated with the item among the conceptual memories, determines the item solving ability based on the associated memory, and provides a correct answer to the item based on the difficulty level of the item and the item solving ability It may be further configured to predict whether or not
본 발명의 또 다른 특징에 따르면, 통신부는, 사용자로부터 문항에 대한 답을 수신하도록 더 구성될 수 있다. 이때, 프로세서는, 수신된 답의 정답 여부, 및 상기 문항과 연관된 개념을 기초로 개념 메모리를 업데이트하도록 더 구성될 수 있다.According to another feature of the present invention, the communication unit may be further configured to receive an answer to the question from the user. In this case, the processor may be further configured to update the concept memory based on whether the received answer is correct, and the concept associated with the question.
본 발명의 또 다른 특징에 따르면, 프로세서는, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이하의 이해도를 갖는 개념과 연관된 문항을 결정하고, 연관된 문항을 제공하도록 더 구성될 수 있다. According to another feature of the present invention, the processor is further configured to determine an item related to a concept having a degree of understanding below a predetermined level from among a plurality of additional items based on the predicted degree of understanding of the user's concept, and to provide the related item can be configured.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.
본 발명은, 문항 평가 모델을 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델을 문항 평가 시스템을 제공할 수 있다.The present invention can provide an item evaluation system with a concept evaluation model configured to share at least one of a latent concept and a concept learning state with the item evaluation model, and predict the degree of concept understanding of the item.
본 발명은, 문항 평가 모델이 갖는 히든 개념 레이어 (hidden concept layer) 인, '잠재 개념' 및/또는 '개념 학습 상태'를 공유하여 이들 레이어에 대한 해석 가능성을 높인 개념 평가 모델이 적용된 문항 평가 시스템을 제공함에 따라, 학습자의 학습 상태에 대한 정확한 분석을 진행할 수 있는 효과가 있다.The present invention is an item evaluation system to which a concept evaluation model that increases the interpretability of these layers by sharing 'latent concept' and/or 'concept learning state', which is a hidden concept layer of the item evaluation model, is applied. This has the effect of enabling accurate analysis of the learner's learning state.
더욱이, 본 발명은, 문항 평가 시스템에 학습자에 대한 개념의 이해도를 해석하고 평가하도록 구성된 개념 평가 모델을 함께 적용함에 따라, 단독의 문항 평가 모델을 적용했을 때 보다 높은 문항 예측 성능을 가질 수 있다.Furthermore, the present invention can have higher item prediction performance than when a single item evaluation model is applied by applying a concept evaluation model configured to interpret and evaluate the degree of understanding of a learner in the item evaluation system together.
보다 구체적으로 본 발명은, 사용자에 대한 개념 학습 상태를 공유할 수 있어 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지되는, 문항 평가 모델 및 개념 평가 모델 기반의 문항 평가 시스템을 제공할 수 있다.More specifically, the present invention can share the concept learning state for users, so that the evaluation ability for the items of the concept with low frequency of appearance is higher than that of the single model, and the diagnosis performance is maintained at a high level even if the evaluation of the items is repeated It is possible to provide an item evaluation system based on an item evaluation model and a concept evaluation model.
이에, 본 발명은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있다.Accordingly, the present invention can provide a level of understanding of concepts related to the correct answer to the question output by each model by the item evaluation system and the question, thereby providing a customized e-learning learning environment for each learner.
나아가, 학습자 개개인에 대한 지식 상태에 기초하여 제시될 문항을 평가하도록 구성된 문항 평가 시스템을 제공함에 따라, 학습자 개개인에 대하여 최적화된 학습을 제공하는 1:1 오프라인 수업과 유사한 학습 효율을 제공할 수 있다.Furthermore, by providing an item evaluation system configured to evaluate the items to be presented based on the knowledge status of each learner, it is possible to provide a learning efficiency similar to that of a 1:1 offline class that provides optimized learning for each learner. .
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.The effect according to the present invention is not limited by the contents exemplified above, and more various effects are included in the present invention.
도 1a은 본 발명의 일 실시예에 따른 문항 평가 시스템을 설명하기 위한 개략도이다.
도 1b는 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 설명하기 위한 개략도이다.
도 1c는 본 발명의 실시예에 따른 사용자 장치에 대한 개략도이다.
도 1d 및 1e는 본 발명의 실시예에 따른 사용자 디바이스의 표시부를 예시적으로 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 문항 평가 방법을 설명하기 위한 개략적인 순서도이다.
도 3은 본 발명의 일 실시예에 따른 문항 평가 방법의 절차를 예시적으로 도시한 것이다.
도 4는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 설명하기 위한 개략적인 순서도이다.
도 5는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 예시적으로 도시한 것이다.
도 6a는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델의 구조를 예시적으로 도시한 것이다.
도 6b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트를 위한 구성을 예시적으로 도시한 것이다.
도 7a 및 7b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델에 기초한 문항 평가용 디바이스와 단독의 문항 평가 모델에 대한 성능을 비교하여 도시한 것이다.1A is a schematic diagram illustrating an item evaluation system according to an embodiment of the present invention.
1B is a schematic diagram illustrating a device for item evaluation according to an embodiment of the present invention.
1C is a schematic diagram of a user equipment according to an embodiment of the present invention;
1D and 1E exemplarily show a display unit of a user device according to an embodiment of the present invention.
2 is a schematic flowchart for explaining a method for evaluating an item according to an embodiment of the present invention.
3 exemplarily shows a procedure of an item evaluation method according to an embodiment of the present invention.
4 is a schematic flowchart for explaining an update step of an item evaluation model applied to various embodiments of the present invention.
5 exemplarily shows an update step of an item evaluation model applied to various embodiments of the present invention.
6A exemplarily illustrates the structure of an item evaluation model and a concept evaluation model applied to various embodiments of the present invention.
6B exemplarily illustrates a configuration for updating an item evaluation model applied to various embodiments of the present invention.
7A and 7B are diagrams illustrating comparison of the performance of a device for item evaluation based on an item evaluation model and a concept evaluation model applied to various embodiments of the present invention and a single item evaluation model.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, like reference numerals may be used for like components.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has," "may have," "includes," or "may include" refer to the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as "A or B," "at least one of A and/and B," or "one or more of A or/and B" may include all possible combinations of the items listed together. . For example, "A or B," "at least one of A and B," or "at least one of A or B" means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.As used herein, expressions such as "first," "second," "first," or "second," may modify various elements, regardless of order and/or importance, and refer to one element. It is used only to distinguish it from other components, and does not limit the components. For example, the first user equipment and the second user equipment may represent different user equipment regardless of order or importance. For example, without departing from the scope of the rights described in this document, the first component may be named as the second component, and similarly, the second component may also be renamed as the first component.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component) When referring to "connected to", it will be understood that the certain element may be directly connected to the other element or may be connected through another element (eg, a third element). On the other hand, when it is said that a component (eg, a first component) is "directly connected" or "directly connected" to another component (eg, a second component), the component and the It may be understood that other components (eg, a third component) do not exist between other components.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used herein, the expression "configured to (or configured to)" depends on the context, for example, "suitable for," "having the capacity to ," "designed to," "adapted to," "made to," or "capable of." The term “configured (or configured to)” may not necessarily mean only “specifically designed to” in hardware. Instead, in some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase “a processor configured (or configured to perform) A, B, and C” refers to a dedicated processor (eg, an embedded processor) for performing the operations, or by executing one or more software programs stored in a memory device. , may mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe specific embodiments, and may not be intended to limit the scope of other embodiments. The singular expression may include the plural expression unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meanings as commonly understood by one of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted with the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, ideal or excessively formal meanings is not interpreted as In some cases, even terms defined in this document cannot be construed to exclude embodiments of this document.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention may be partially or wholly combined or combined with each other, and technically various interlocking and driving are possible, as will be fully understood by those skilled in the art, and each embodiment may be independently implemented with respect to each other, It may be possible to implement together in a related relationship.
본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of the present specification, terms used herein will be defined below.
본원 명세서 내에서 이용되는 용어 “문항 평가 모델”은, 문항을 입력으로 하여 문항에 대한 정답 여부, 바람직하게 학습자가 문항에 대한 정답을 맞출 확률을 출력하도록 구성된 인공 신경망 알고리즘 기반의 모델일 수 있다.The term “item evaluation model” used in the present specification may be an artificial neural network algorithm-based model configured to output whether the question is correct or not, preferably, the probability that the learner will correct the correct answer to the question by inputting the question as an input.
한편, 문항 평가 모델은, 사용자인 학습자 각각에 대한 지식 상태에 따라 각각 상이한 조건으로 구축될 수 있다. Meanwhile, the item evaluation model may be constructed under different conditions according to the knowledge state of each learner who is a user.
문항 평가 모델은, “잠재 개념 (latent concepts)”및 “개념 학습 상태”의 히든 레이어를 포함할 수 있다.The item evaluation model may include hidden layers of “latent concepts” and “concept learning states”.
본원 명세서 내에서 이용되는 용어 “잠재 개념”은, 문항 평가 모델의 모델 학습에 의해 형성된 문항과 연관된 개념들을 의미할 수 있다. 보다 구체적으로, 잠재 개념의 크기의 선택이 가능하며, 선택에 기초하여 적절한 임베딩 값이 학습되면 값/크기가 불변할 수 있다. 이때, 잠재 개념은 'Key memory'에 대응할 수 있다.As used herein, the term “latent concept” may refer to concepts related to items formed by model learning of the item evaluation model. More specifically, it is possible to select the size of the latent concept, and if an appropriate embedding value is learned based on the selection, the value/size may be invariant. In this case, the latent concept may correspond to 'Key memory'.
본 발명의 특징에 따르면, 문항 평가 모델은 잠재 개념을 통해, 입력된 문항과 연관된 개념을 결정하도록 구성될 수 있다. According to a feature of the present invention, the item evaluation model may be configured to determine a concept associated with an input item through a latent concept.
본원 명세서 내에서 이용되는 용어 “개념 학습 상태”는, 학습자의 개념들에 대한 학습 상태를 의미할 수 있다. 즉, 개념 학습 상태는 학습자의 지식 상태에 따라 상이할 수 있다. 이때, 개념 학습 상태는, 학습자에 대하여 제시된 문항들의 정답 여부, 상기 문항들에 내재된 개념들에 따라 다양한 값들을 가질 수 있다. 보다 구체적으로, 개념 학습 상태는, 학습자의 지식 상태에 따라 가변적이며, 'KEY'에 대한 절대값을 포함할 수 있다. 이때, 개념 학습 상태는 'Value memory', 또는 '개념 메모리'에 대응할 수 있다.As used herein, the term “concept learning state” may refer to a learning state of a learner's concepts. That is, the concept learning state may be different depending on the learner's knowledge state. In this case, the concept learning state may have various values depending on whether the questions presented to the learner are correct or not, and concepts embedded in the questions. More specifically, the concept learning state is variable according to the learner's knowledge state, and may include an absolute value for 'KEY'. In this case, the concept learning state may correspond to ' value memory ' or 'concept memory'.
본 발명의 특징에 따르면, 개념 학습 상태는, 문항에 대한 학습자의 정답 여부, 나아가 맞춘 문항들이 갖는 개념에 기초하여 업데이트될 수 있다. According to a feature of the present invention, the concept learning state may be updated based on whether the learner has an answer to the question, and furthermore, the concept of the correct questions.
본 발명의 다른 특징에 따르면, 문항 평가 모델은 개념 학습 상태를 통해, 개념 메모리로부터 문항과 연관된 학습자가 가지고 있는 개념을 결정하도록 구성될 수 있다.According to another feature of the present invention, the item evaluation model may be configured to determine the concept that the learner has associated with the item from the concept memory through the concept learning state.
최종적으로, 문항 평가 모델은 문항에 대한 사용자가 정답을 맞출 확률을 출력할 수 있다.Finally, the item evaluation model may output the probability that the user corrects the correct answer for the item.
본원 명세서 내에서 이용되는 용어 “개념 평가 모델”은, 학습자가 풀어야 할 문항에 대하여 결정된 개념을 입력으로 하여 각 개념에 대한 사용자의 이해도를 확률적으로 출력하도록 구성된 인공 신경망 알고리즘 기반의 모델일 수 있다.The term “concept evaluation model” used in this specification may be an artificial neural network algorithm-based model configured to probabilistically output the user's understanding of each concept by inputting the concept determined for the question to be solved by the learner. .
이때, 개념 평가 모델은, 문항 평가 모델의 '잠재 개념' 및 '개념 학습 상태'를 공유하도록 구성될 수 있다. 이에, 개념 평가 모델은, 문항 평가 모델로부터 공유된 잠재 개념 및 개념 학습 상태에 기초하여 문항에 대한 개념의 이해도를 출력할 수 있다. 즉, 개념 평가 모델은, 문항 평가 모델의 '잠재 개념' 및 '개념 학습 상태'를 공유함에 따라, 히든 개념 레이어에 대한 해석 가능성을 높일 수 있어, 학습자의 지식 상태에 대한 섬세한 분석을 제공할 수 있다. 더욱이 학습 단계에서 등장 빈도수가 낮은 개념의 문항에 대한 평가 능력이 우수할 수 있고, 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. 따라서, 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스는, 문항 평가에 있어서 단독의 문항 평가 모델보다 우수한 진단 성능을 가질 수 있다.In this case, the concept evaluation model may be configured to share the 'latent concept' and the 'concept learning state' of the item evaluation model. Accordingly, the concept evaluation model may output the degree of understanding of the concept for the item based on the latent concept and the concept learning state shared from the item evaluation model. In other words, the concept evaluation model can increase the interpretability of the hidden concept layer by sharing the 'latent concept' and 'concept learning state' of the item evaluation model, thereby providing a detailed analysis of the learner's knowledge state. have. Moreover, in the learning stage, the evaluation ability for the items of the concept with a low frequency of appearance may be excellent, and the diagnosis performance may be maintained at a high level even if the evaluation is repeated. Accordingly, the device for item evaluation according to various embodiments of the present disclosure may have better diagnostic performance than a single item evaluation model in item evaluation.
한편, 본원 명세서 내에 개시된 문항 평가 모델 및 개념 평가 모델은 딥러닝 알고리즘에 기초한 모델일 수 있다. 보다 구체적으로, 문항 평가 모델 및 개념 평가 모델은 DKVMN (dynamic key-value memory network), DNN (Deep Neural Network), DCNN (Deep Convolution Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), SSD (Single Shot Detector), 및 SVM (Support Vector Machine) 중 적어도 하나의 알고리즘에 기초할 수 있다. 그러나, 이에 제한되는 것은 아니다. Meanwhile, the item evaluation model and the concept evaluation model disclosed in the present specification may be a model based on a deep learning algorithm. More specifically, the item evaluation model and the concept evaluation model are DKVMN (dynamic key-value memory network), DNN (Deep Neural Network), DCNN (Deep Convolution Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine) , DBN (Deep Belief Network), SSD (Single Shot Detector), and SVM (Support Vector Machine) may be based on at least one algorithm. However, it is not limited thereto.
이하에서는, 도 1a 내지 도 1e를 참조하여, 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스를 상세히 설명한다.Hereinafter, a device for item evaluation according to various embodiments of the present invention will be described in detail with reference to FIGS. 1A to 1E .
도 1a는 본 발명의 일 실시예에 따른 문항 평가 시스템을 설명하기 위한 개략도이다. 도 1b는 본 발명의 일 실시예에 따른 문항 평가용 디바이스를 설명하기 위한 개략도이다. 도 1c는 본 발명의 실시예에 따른 사용자 장치에 대한 개략도이다. 1d 내지 1e는 본 발명의 실시예에 따른 사용자 디바이스의 표시부를 예시적으로 도시한 것이다.1A is a schematic diagram illustrating an item evaluation system according to an embodiment of the present invention. 1B is a schematic diagram illustrating a device for item evaluation according to an embodiment of the present invention. 1C is a schematic diagram of a user equipment according to an embodiment of the present invention; 1d to 1e exemplarily show a display unit of a user device according to an embodiment of the present invention.
먼저, 도 1a을 참조하면, 문항 평가 시스템 (1000) 은, 학습자가 갖는 지식 상태에 기초하여 문항 평가 결과를 제공하는 시스템으로서, 문항 평가용 디바이스 (100), 사용자 디바이스 (200) 및 평가 대상 문항 DB (300) 를 포함할 수 있다.First, referring to FIG. 1A , the
먼저, 문항 평가용 디바이스 (100) 는 평가 대상 문항 DB (300) 로부터 평가 대상 문항을 수신하여 연산을 수행하는 범용 컴퓨터, 랩탑, 및/또는 데이터 서버 등을 포함할 수 있다. 한편, 사용자 디바이스 (200) 는 사용자의 요청에 따라 문항 평가를 위한 서비스에 관한 웹 페이지를 제공하는 웹 서버 (web server) 또는 모바일 웹 사이트를 제공하는 모바일 웹 서버 (mobile web server) 에 접속하기 위한 디바이스일 수 있으나, 이에 한정되지 않는다.First, the
보다 구체적으로, 도 1b를 함께 참조하면, 문항 평가용 디바이스 (100) 는 저장부 (110), 통신부 (120), 및 프로세서 (130) 를 포함한다. More specifically, referring to FIG. 1B , the device for
먼저, 저장부 (110) 는 문항을 분석하여 학습자에게 문항 평가 서비스를 제공하기 위한 다양한 데이터, 예를 들어 평가 대상 문항 DB (300) 로부터 획득된 평가 대상 문항들을 저장할 수 있다. 다양한 실시예에서 저장부 (110) 는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. First, the
다음으로, 통신부 (120) 는 문항 평가용 디바이스 (100) 가 외부 장치와 통신이 가능하도록 연결한다. 예를 들어, 통신부 (120) 는 유/무선 통신을 이용하여 사용자 디바이스 (200) 와 연결되어 평가 문항에 대한 데이터를 송수신할 수 있다. 구체적으로, 통신부 (120) 는 사용자 디바이스 (200) 와 연결되어 평가 결과를 송신하도록 더 구성될 수 있다. Next, the
프로세서 (130) 는 저장부 (110) 및 통신부 (120) 와 동작 가능하게 연결되며, 문항을 분석하여 문항 평가를 위한 서비스를 제공하기 위한 다양한 명령들을 수행할 수 있다. The
구체적으로, 프로세서 (130) 는 통신부 (120) 를 통해 문항을 수신하고, 수신된 문항에 기반하여 문항을 평가할 수 있다. Specifically, the
이를 위해 프로세서 (130) 는 수신된 문항을 분석하여 문항과 연관된 개념을 결정하고, 사용자에 대한 개념 메모리로부터 문항과 연관된 개념을 예측하여 문항을 맞출 확률을 출력하도록 구성된 문항 평가 모델 및, 문항과 연관된 개념의 이해도를 출력하도록 구성된 개념 평가 모델을 이용할 수 있다. 이때, 문항 평가 모델들은 학습자가 풀었던 문항에 기초하여 사전 학습된 모델로서, 학습자의 지식 상태에 따른 평가 문항의 정답 여부를 결정하기 위해 이용될 수 있다.To this end, the
본 발명의 특징에 따르면, 프로세서 (130) 는 문항 벡터를 생성하도록 문항을 벡터화 하고, 문항 벡터 및 상기 잠재 개념과의 유사도를 비교하고, 유사도에 기초하여 상기 문항에 대한 개념을 결정하도록 구성될 수 있다.According to a feature of the present invention, the
본 발명의 다른 특징에 따르면, 프로세서 (130) 는 유사도에 따라 잠재 개념 각각에 대한 가중치를 결정하고, 문항 평가 모델을 이용하여 개념 학습 상태 및 잠재 개념에 대한 가중치를 기초로 상기 문항의 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the
본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 문항 평가 모델을 이용하여, 개념 메모리 중, 문항과 연관된 메모리를 결정하고, 연관된 메모리에 기초하여 문항 풀이 능력을 결정하고, 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the
본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 문항의 난이도를 결정하고, 개념 메모리 중 문항과 연관된 메모리를 결정하고, 연관된 메모리를 기초하여 문항 풀이 능력을 결정하고, 문항의 난이도 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부를 예측하도록 더 구성될 수 있다.According to another feature of the present invention, the
본 발명의 또 다른 특징에 따르면, 프로세서 (130) 는 통신부 (120) 를 통해 수신된 문항에 대한 정답 여부, 및 문항과 연관된 개념을 기초로 개념 메모리를 업데이트하도록 더 구성될 수 있다. According to another feature of the present invention, the
즉, 프로세서 (130) 는 이러한 문항 평가 모델, 및 개념 평가 모델들을 이용함에 따라, 학습자 맞춤형 문항 평가를 진행할 수 있고, 학습자의 학습에 따른 지식 상태의 업데이트를 반영할 수 있다. 더욱이, 프로세서 (130) 는 학습자의 개념 이해도에 따라 추천 문항을 결정하여 제공할 수도 있다. That is, by using the item evaluation model and the concept evaluation models, the
특히, 프로세서 (130) 는, 문항 평가 모델의 개념들 각각에 대한 임베딩 벡터들이 저장된 '잠재 개념' 및 학습자 개개인이 갖고 있는 개념 메모리의 '개념 학습 상태'를 공유하는 개념 평가 모델을 이용함에 따라, 학습자의 지식 상태에 대한 정확한 분석을 제공할 수 있다.In particular, the
하기에서는, 도 1c를 함께 참조하여 사용자 디바이스 (200) 에 대하여 상세하게 설명하도록 한다. Hereinafter, the
도 1c를 함께 참조하면, 사용자 디바이스 (200) 는 통신부 (210), 표시부 (220), 저장부 (230) 및 프로세서 (240) 를 포함한다. 1C , the
먼저, 통신부 (210) 는 사용자 디바이스 (200) 가 외부 장치와 통신이 가능하도록 연결한다. 예를 들어, 통신부 (210) 는 유/무선 통신을 이용하여 문항 평가용 디바이스 (100) 와 연결되어 평가 문항에 대한 데이터를 송수신할 수 있다. 구체적으로, 통신부 (210) 는 문항 평가용 디바이스 (100) 와 연결되어 평가 결과를 수신하도록 더 구성될 수 있다. First, the
표시부 (220) 는 사용자에게 각종 콘텐츠 (예: 텍스트, 이미지, 비디오, 아이콘, 배너 또는 심볼 등) 를 표시할 수 있다. 더욱이, 표시부 (220) 는, 문항 평가용 디바이스 (100) 에 의해 결정된 사용자의 문항 평가 결과 데이터를 나타내기 위한 다양한 인터페이스 화면을 표시할 수 있다. 예를 들어, 표시부 (220) 는 문항에 대한 사용자의 정답 여부, 개념에 대한 이해도, 이해도가 부족한 개념과 연관된 추천 문항 등을 제공하도록 표시하도록 구성될 수 있다. The
다양한 실시예에서 표시부 (220) 는 터치스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치 (touch), 제스처 (gesture), 근접, 드래그 (drag), 스와이프 (swipe) 또는 호버링 (hovering) 입력 등을 수신할 수 있다. In various embodiments, the
저장부 (230) 는 문항 평가를 요청하고, 문항 평가에 대한 결과 데이터를 나타내기 위한 사용자 인터페이스를 제공하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 다양한 실시예에서 저장부 (230) 는 플래시 메모리 타입 (flash memory type), 하드디스크 타입 (hard disk type), 멀티미디어 카드 마이크로 타입 (multimedia card micro type), 카드 타입의 메모리 (예를 들어 SD 또는 XD 메모리 등), 램 (Random Access Memory, RAM), SRAM (Static Random Access Memory), 롬 (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 한편, 문항 평가용 디바이스 (100) 는 인터넷상에서 상기 저장부 (230) 의 저장 기능을 수행하는 웹 스토리지 (web storage) 와 관련되어 동작할 수도 있다.The
프로세서 (240) 는 통신부 (210), 표시부 (220) 및 저장부 (230) 와 동작 가능하게 연결되며, 문항 평가에 대한 결과 데이터를 나타내기 위한 사용자 인터페이스를 제공하기 위한 다양한 명령들을 수행할 수 있다. The
이하에서는, 도 1d 및 도 1e를 참조하여, 본 발명의 일 실시예에 따른 사용자 디바이스의 표시부에 대하여 구체적으로 설명한다. Hereinafter, a display unit of a user device according to an embodiment of the present invention will be described in detail with reference to FIGS. 1D and 1E .
먼저 도 1d를 참조하면, 사용자 디바이스 (200) 의 표시부 (220) 는, 문항 평가용 디바이스 (100) 에 의해 결정된 개념의 이해도가 미리 결정된 수준 이하의 개념과 연관된 문항을 추천하여 출력할 수 있다. 보다 구체적으로, 문항 평가용 디바이스 (100) 에 의해 결정된 개념 a에 대한 학습자의 이해도는 10 %, 개념 b에 대한 학습자의 이해도는 95 %, 개념 c에 대한 학습자의 이해도는 70 %로 나타난다. 이때, 추천 문항으로, 이해도가 상대적으로 저조한 개념 a (예를 들어, 분수의 계산) 와 연관된 문항이 결정되고, 표시부 (220) 를 통해 사용자에게 제공될 수 있다. 반면, 도 1e를 함께 참조하면, 이해도가 상대적으로 높았던 개념 b (예를 들어, 방정식, 수의 곱셈) 와 연관된 문항들은 추천 문항에서 제외될 수도 있다. First, referring to FIG. 1D , the
이에, 학습자는 취약한 개념에 대한 집중적 학습이 가능함에 따라, 개개인에 대한 맞춤형 이러닝 학습 환경을 제공받을 수 있다. Accordingly, the learner can be provided with a customized e-learning learning environment for each individual as intensive learning of weak concepts is possible.
이하에서는 도 2, 도 3을 참조하여 본 발명의 다양한 실시예에 따른 문항 평가 방법을 설명한다.Hereinafter, an item evaluation method according to various embodiments of the present invention will be described with reference to FIGS. 2 and 3 .
도 2는 본 발명의 일 실시예에 따른 문항 평가 방법을 설명하기 위한 개략적인 순서도이다. 도 3은 본 발명의 일 실시예에 따른 문항 평가 방법의 절차를 예시적으로 도시한 것이다.2 is a schematic flowchart for explaining a method for evaluating an item according to an embodiment of the present invention. 3 exemplarily shows a procedure of an item evaluation method according to an embodiment of the present invention.
먼저, 도 2를 참조하면, 먼저 본 발명의 일 실시예에 따른 문항 평가 방법에 따라, 사용자가 풀어야 할 문항이 수신된다 (S210). 그 다음, 문항 평가 모델에 의해 문항에 대한 개념이 결정되고 (S220), 문항의 정답 여부가 예측된다 (S230). 그 다음, 개념 평가 모델에 의해 문항과 관련된 개념의 이해도가 예측되고 (S240) 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공된다 (S250).First, referring to FIG. 2 , according to the item evaluation method according to an embodiment of the present invention, a question to be solved by the user is received ( S210 ). Then, the concept of the item is determined by the item evaluation model (S220), and whether the item is correct or not is predicted (S230). Then, the degree of understanding of the concept related to the question is predicted by the concept evaluation model (S240), and whether the question is correct or not and the degree of understanding of the concept related to the question are provided (S250).
보다 구체적으로, 문항이 수신되는 단계 (S210) 에서 문제 은행과 같은 평가 문항 제공 서버로부터 문항이 수신되거나, 문항 평가용 디바이스의 입력부를 통해 문항을 입력 받을 수 있다.More specifically, in step S210 of receiving the item, the item may be received from an evaluation item providing server such as a question bank, or the item may be input through an input unit of the item evaluation device.
본 발명의 특징에 따르면, 문항이 수신되는 단계 (S210) 가 수행되기 이전에, 복수개의 문항 중 적어도 하나에 대한 선택이 입력되는 단계가 더 수행될 수 있다.According to a feature of the present invention, before the step of receiving the item ( S210 ) is performed, a step of inputting a selection for at least one of a plurality of items may be further performed.
따라서, 문항이 수신되는 단계 (S210) 에서 사용자로부터 선택된 문항이 수신될 수 있다.Accordingly, in the step S210 of receiving the item, the item selected by the user may be received.
그 다음, 문항에 대한 개념이 결정되는 단계 (S220) 에서, 문항이 갖는 개념이 결정될 수 있다. Next, in the step S220 in which the concept of the item is determined, the concept of the item may be determined.
본 발명의 특징에 따르면, 문항에 대한 개념이 결정되는 단계 (S220) 에서, 문항 벡터가 생성하도록, 문항이 벡터화 되고, 문항 벡터 및 잠재 개념과의 유사도가 비교되고, 유사도에 기초하여 문항에 대한 개념이 결정될 수 있다.According to a feature of the present invention, in the step (S220) in which the concept for the item is determined, the item is vectorized so that an item vector is generated, the item vector and the latent concept are compared, and based on the similarity, the item is concept can be determined.
예를 들어, 도 3을 함께 참조하면, 문항이 수신되는 단계 (S210) 를 통해 평가 문항 (310) 이 수신되고, 문항에 대한 개념이 결정되는 단계 (S220) 에서 문항 평가 모델 (400) 에 평가 문항 (310) 이 입력된다. 그 다음, 평가 문항 (310) 이 임베딩 벡터화되어 문항 벡터 (312) 가 생성된다. 그 다음, 문항 평가 모델 (400) 의 잠재 개념 (410) 내의 개념들 각각에 대한 임베딩 벡터들과의 유사도가 비교된다. For example, referring to FIG. 3 together, the
한편, 본 발명의 다른 특징에 따르면, 문항에 대한 개념이 결정되는 단계 (S220) 이후에 잠재 개념 각각에 대한 가중치가 결정될 수 있다. Meanwhile, according to another feature of the present invention, a weight for each potential concept may be determined after the step (S220) in which the concept for the item is determined.
예를 들어, 도 3을 다시 참조하면, 평가 문항 (310) 문항과 연관된 개념에 대하여 가중치가 미리 결정된 수준 이상으로 설정될 있고, 평가 문항 (310) 문항과 연관성이 상대적으로 낮은 개념에 대하여 가중치가 미리 결정된 수준 미만으로 설정될 수 있다. For example, referring back to FIG. 3 , a weight for a concept associated with the
다시 도 2를 참조하면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항에 대하여 사용자가 정답을 맞출지에 대한 확률이 산출될 수 있다. Referring back to FIG. 2 , in the step S230 of predicting whether the question is correct or not, the probability of whether the user answers the question correctly may be calculated.
본 발명의 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 개념 학습 상태 및 잠재 개념에 대하여 결정된 가중치를 기초로 문항의 정답 여부가 예측될 수도 있다. According to a feature of the present invention, in the step (S230) of predicting whether the question is correct, whether the question is correct or not may be predicted based on the weight determined for the concept learning state and the latent concept by the item evaluation model.
본 발명의 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 개념 메모리 중, 문항과 연관된 메모리가 결정되고, 기 연관된 메모리에 기초하여 사용자의 문항 풀이 능력이 결정되고, 문항 풀이 능력에 기초하여 문항에 대한 정답 여부가 예측될 수 있다.According to a feature of the present invention, in the step (S230) of predicting whether the question is correct or not, the memory associated with the question among the conceptual memories is determined by the item evaluation model, and the user's question-solving ability is determined based on the associated memory and the correct answer to the question can be predicted based on the question-solving ability.
본 발명의 다른 특징에 따르면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 문항 평가 모델에 의해 문항의 난이도가 결정되고, 개념 메모리 중, 문항과 연관된 메모리가 결정되고, 연관된 메모리를 기초하여 사용자의 문항 풀이 능력이 결정되고, 문항의 난이도 및 문항 풀이 능력에 기초하여 문항에 대한 정답 여부가 예측될 수 있다.According to another feature of the present invention, in the step (S230) of predicting whether the item is correct or not, the difficulty of the item is determined by the item evaluation model, the memory associated with the item is determined among the concept memories, and based on the associated memory The question-solving ability of the user may be determined, and whether an answer to the question is correct may be predicted based on the difficulty of the question and the question-solving ability.
예를 들어, 도 3을 함께 참조하면, 문항의 정답 여부가 예측되는 단계 (S230) 에서, 사용자의 지식 상태인 개념 메모리에 대응하는 개념 학습 상태 (420) 및 잠재 개념 각각에 대한 가중치에 기초하여, KEY에 대응하는 VALUE 값이 설정될 수 있다. 그 다음, 문항 풀이 능력 결정 네트워크 (430) 에 의해 사용자의 문항 풀이 능력 (316) 이 결정될 수 있다. 이때, 문항 평가 모델 (400) 은 문항 벡터 (312) 에 기초하여 평가 문항 (310) 에 대한 문항 난이도 (314) 를 결정할 수 있다. 한편, 문항 난이도 (314) 는 문항 평가 모델 (400) 과 독립적인 문항 난이도 예측 모델 (미도시) 에 의해 결정되어 문항 평가 모델 (400) 에 송신될 수도 있다. 그 다음, 문항 난이도 (314) 및 사용자의 문항 풀이 능력 (316) 에 기초하여 평가 문항 (310) 을 사용자가 맞출 확률인, 정답 확률 (318) 이 80 %로 결정될 수 있다. For example, referring together with FIG. 3 , in the step S230 in which the correct answer to the question is predicted, based on the
다시 도 2를 참조하면, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 에서, 잠재 개념 및 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델에 의해 사용자에 대한 개념의 이해도가 예측될 수 있다.Referring back to FIG. 2 , in the step S240 of predicting the degree of understanding of the concept related to the item, the user by the concept evaluation model configured to share at least one of the latent concept and the concept learning state and predict the degree of understanding of the concept for the item The degree of understanding of the concept can be predicted.
예를 들어, 도 3을 다시 참조하면, 개념 평가 모델 (500) 은 문항 평가 모델 (400) 과 잠재 개념 (510) 및 사용자에 대한 개념 학습 상태 (520) 를 공유하도록 구성될 수 있다. 이에 따라, 히든 개념 레이어에 대한 해석 가능성을 높일 수 있어, 학습자의 지식 상태에 대한 섬세한 분석이 가능할 수 있다. 더욱이 히든 레이어의 공유에 따라 학습 단계에서 등장 빈도수가 낮은 개념의 문항에 대한 평가 능력이 우수할 수 있고, 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. 한편, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 에서 평가 문항 (310) 과 연관된 개념 (320) 이 개념 평가 모델 (500) 에 입력되고, 연관된 개념 (320) 을 임베딩 벡터화 하여 연관된 개념 (320) 각각에 대한 개념 벡터 (322) 를 획득할 수 있다. 그 다음, 잠재 개념 (510) 내의 개념들 각각에 대한 임베딩 벡터들과의 유사도가 비교되고, 사용자의 지식 상태인 개념 메모리에 대응하는 개념 학습 상태 (520) 및 잠재 개념 각각에 대한 가중치에 기초하여, KEY에 대응하는 VALUE 값이 설정될 수 있다. 그 다음, 개념 이해 능력 결정 네트워크 (530) 에 의해 사용자의 개념 이해 능력 (326) 이 결정될 수 있다. 이때, 개념 평가 모델 (500) 은 개념 벡터 (322) 에 기초하여 평가 문항 (310) 과 연관된 개념 (320) 에 대한 개념 난이도 (324) 를 결정할 수 있다. 한편, 개념 난이도 (324) 는 개념 평가 모델 (500) 과 독립적인 문항 난이도 예측 모델 (미도시) 에 의해 결정되어 개념 평가 모델 (500) 에 송신될 수도 있다. 그 다음, 개념 난이도 (324) 및 사용자의 개념 이해 능력 (326) 에 기초하여 평가 문항 (310) 에 대한 개념 a, b, c의 개념 이해 확률 (328) 이 각각 60 %, 90 %, 85 %로 결정될 수 있다. For example, referring back to FIG. 3 , the
한편, 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 는, 전술한 것에 제한되지 않고, 문항에 대한 개념이 결정되는 단계 (S220) 또는 문항의 정답 여부가 예측되는 단계 (S230) 와 동시에 수행될 수도 있다. On the other hand, the step (S240) of predicting the degree of understanding of the concept related to the question is not limited to the above, and is performed simultaneously with the step (S220) of determining the concept for the question or the step (S230) of predicting whether the question is correct or not could be
다시 도 2를 참조하면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 에서, 문항의 정답 여부가 예측되는 단계 (S230) 및 문항과 관련된 개념의 이해도가 예측되는 단계 (S240) 각각에서 결정된 문항에 대한 정답 여부 및 개념의 이해도가 제공된다.Referring back to FIG. 2 , in the step (S250) in which whether the question is correct or not and the degree of understanding of the concept related to the question is provided, the step (S230) of whether the question is correct or not, the step of predicting the understanding of the concept related to the question ( S240), the correct answer to each determined question and the degree of understanding of the concept are provided.
예를 들어, 도 3을 참조하면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 에서, 문항 평가 모델 (400) 및 개념 평가 모델 (500) 각각에서 의해 출력된 정답 확률 (318) 및 개념 이해도 (328) 가 제공될 수 있다.For example, referring to FIG. 3 , in the step S250 , in which the question is correct and the degree of understanding of the concept related to the question is provided, the probability of correct answers output by each of the
한편, 본 발명의 특징에 따르면, 문항의 정답 여부 및 문항과 관련된 개념의 이해도가 제공되는 단계 (S250) 이후에, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이하의 이해도를 갖는 개념과 연관된 문항을 결정하는 단계, 및 연관된 문항을 제공하는 단계가 더 수행될 수 있다.On the other hand, according to a feature of the present invention, after the step (S250) of whether the question is correct and the degree of understanding of the concept related to the question is provided, based on the predicted degree of understanding of the user's concept, among a plurality of additional questions, the predetermined level or less Determining an item related to a concept having an understanding of , and providing a related item may be further performed.
나아가, 예측된 사용자의 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계, 및 복수의 추가 문항 중, 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계가 더 수행될 수 있다.Further, on the basis of the predicted user's understanding of the concept, from among a plurality of additional questions, determining an item with a high degree of understanding related to a concept having an understanding level higher than or equal to a predetermined level, and selecting an item with a high level of understanding among the plurality of additional items The step of providing the remaining items except for may be further performed.
즉, 학습자는 부족한 개념과 연관된 문항을 제공받을 수 있어, 학습자의 학습 효율이 증대될 수 있다. That is, the learner can be provided with items related to the insufficient concept, so that the learner's learning efficiency can be increased.
한편, 본 발명의 다양한 실시예에 따른 문항 평가 방법에서, 문항에 대한 분석은 하기 수학식 1에 기초하여 수행될 수 있다.Meanwhile, in the item evaluation method according to various embodiments of the present disclosure, the item analysis may be performed based on
[수학식 1][Equation 1]
여기서, BCE는 'binary cross entropy'를 지칭하고, qt는 시간 t에 해당하는 평가 문항을 지칭하며, at는 시간 t에 해당하는 사용자의 답을 지칭하며, Ωt는 qt와 연관된 개념 집합을 지칭한다. 또한 c는 개념을 지칭하고, DKVMN은 문항 풀이 예측 파트, ExpM은 개념 이해도 예측 파트로 정의될 수 있다. 이때, Ωt는 1, 즉 문항과 연관된 개념은 1개일 수 있으나 이에 제한되는 것은 아니다. Here, BCE refers to 'binary cross entropy', q t refers to an evaluation item corresponding to time t, a t refers to a user's answer corresponding to time t, and Ω t is a concept related to q t refers to a set. In addition, c denotes a concept, item pool is DKVMN prediction part, and ExpM may be defined in part also predicted understood concept. In this case, Ω t may be 1, that is, one concept related to the item, but is not limited thereto.
본 발명의 다른 특징에 따르면, 문항에 대한 사용자의 정답 여부, 및 예측된 개념 이해도에 따라 지식 상태의 업데이트를 반영할 수 있다.According to another feature of the present invention, it is possible to reflect the update of the knowledge state according to whether the user's correct answer to the question and the predicted degree of understanding of the concept.
이하에서는, 도 4 및 도 5를 참조하여, 문항 평가 모델의 업데이트에 대하여 구체적으로 설명한다. Hereinafter, the update of the item evaluation model will be described in detail with reference to FIGS. 4 and 5 .
도 4는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 설명하기 위한 개략적인 순서도이다. 도 5는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트 단계를 예시적으로 도시한 것이다.4 is a schematic flowchart for explaining an update step of an item evaluation model applied to various embodiments of the present invention. 5 exemplarily shows an update step of an item evaluation model applied to various embodiments of the present invention.
먼저, 도 4를 참조하면, 문항 평가 모델은 사용자로부터 문항에 대한 답이 수신되고 (S410), 수신된 정답 여부, 및 문항과 연관된 개념에 기초하여 개념 학습 상태가 업데이트될 수 있다 (S420). First, referring to FIG. 4 , in the item evaluation model, an answer to an item is received from a user (S410), and the concept learning state may be updated based on whether the received correct answer and a concept related to the item are received (S420).
예를 들어, 도 5를 함께 참조하면, 문항에 대한 답이 수신되는 단계 (S410) 에서, 평가 문항 및 정답 세트 (620) 가 수신될 수 있다. 그 다음, 개념 학습 상태가 업데이트되는 단계 (S420) 에서, 평가 문항 및 정답 세트 (620) 를 임베딩 벡터화 한 후, 삭제 벡터 (erase vector) 및 추가 벡터 (add vector) 를 각각 생성한다. 그 다음, 평가 문항 (610) 이 문항 평가 모델 (400) 에 입력된 후, 잠재 개념 (410) 과의 유사도에 따라 결정된 가중치가 삭제 벡터 및 추가 벡터 각각에 대하여 곱해진다. 그 다음, 삭제 벡터에 기존의 개념 학습 상태 (t) (420) 가 반영된 후, 두 개의 벡터가 합쳐짐으로써, 새롭게 업데이트된 개념 학습 상태 (t+1) (420') 이 획득될 수 있다. 업데이트된 개념 학습 상태 (420') 는, 평가 문항 (610) 다음에 제시될 문항의 평가에 적용될 수 있다.For example, referring to FIG. 5 together, in step S410 of receiving an answer to an item, an evaluation item and a correct answer set 620 may be received. Next, in step S420 in which the concept learning state is updated, the evaluation item and the correct answer set 620 are embedded vectorized, and then an erase vector and an add vector are generated, respectively. Then, after the
이하에서는, 도 6a 및 6b를 참조하여, 본 발명의 다양한 실시예에 이용되는 문항 평가 모델 및 개념 평가 모델의 구조, 문항 평가 모델의 업데이트를 위한 구성을 구체적으로 설명한다. Hereinafter, the structure of the item evaluation model and the concept evaluation model used in various embodiments of the present invention, and a configuration for updating the item evaluation model, will be described in detail with reference to FIGS. 6A and 6B .
도 6a는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델의 구조를 예시적으로 도시한 것이다. 도 6b는 본 발명의 다양한 실시예에 적용되는 문항 평가 모델의 업데이트를 위한 구성을 예시적으로 도시한 것이다.6A exemplarily illustrates the structure of an item evaluation model and a concept evaluation model applied to various embodiments of the present invention. 6B exemplarily illustrates a configuration for updating an item evaluation model applied to various embodiments of the present invention.
먼저, 도 6a를 참조하면, 문항 평가 모델 (400) 은 크게, 개념들 각각에 대한 임베딩 벡터들을 저장하는 ‘Key memory'인 잠재 개념 (410), 학습자의 지식 상태에 따라 가변적이고 ‘Key'에 대응하는 절대값을 포함하는 ‘Value memory (또는, 개념 메모리)'에 대응하는 개념 학습 상태 (420) 및 사용자에 대한 문항 풀이 능력을 결정하는 문항 풀이 능력 결정 네트워크 (430) 로 구성될 수 있다. 이때, qt에 대응하는 평가 문항 (310) 이 임베딩 벡터화 되어 kt에 대응하는 문항 벡터 (312) 가 생성되고, 이후 C에 대응하는 잠재 개념 (410) 내의 개념 각각에 대한 벡터와 문항 벡터 (312) 의 유사도에 따라, Wt q에 대응하는 가중치 (412) 가 결정될 수 있다. 그 다음, 개념 학습 상태 (420) 및 가중치 (412) 에 기초하여, rt q에 대응하는 리드 벡터 (read vector) (422) 가 생성된다. 그 다음, 문항 벡터 (312) 및 리드 벡터 (read vector) (422) 에 기초하여 ft q 특징 벡터 (feature vector) 에 대응하는 학습자의 문항 풀이 능력을 예측하는 네트워크 (430) 가 생성되고, t q에 대응하는 학습자에 대한 문항 풀이 능력 (316) 이 결정된다. 그 다음, 문항 벡터 (312) 에 기초하여 결정된 q에 대응하는 문항 난이도 (314) 및 문항 풀이 능력 (316) 에 기초하여 pt에 대응하는 정답 확률 (318) 이 최종적으로 산출될 수 있다. 한편, 개념 평가 모델 (500) 및 문항 평가 모델 (400) 은, 싱크가 맞춰진 잠재 개념 (410, 510), 개념 학습 상태 (410, 520) 를 포함할 수 있다. First, referring to FIG. 6A , the
즉, 개념 평가 모델 (500) 은, 문항 평가 모델 (400) 로부터 공유된 잠재 개념 (510) 및 개념 학습 상태 (520), 및 개념 이해 능력 결정 네트워크 (530) 로 이루어질 수 있다. 이때, 전문가에 의해 개념이 태깅된, Ct에 대응하는 문항과 연관된 개념 (320) 이 임베딩 벡터화 되어 h에 대응하는 개념 벡터 (322) 가 생성되고, 이후 C에 대응하는 잠재 개념 (510) 내의 개념 각각에 대한 벡터와 개념 벡터 (322) 의 유사도에 따라, Wt c에 대응하는 가중치 (512) 가 결정될 수 있다. 그 다음, 개념 학습 상태 (520) 및 가중치 (512) 에 기초하여, rt c에 대응하는 리드 벡터 (read vector) (522) 가 생성된다. 그 다음, 개념 벡터 (322) 및 리드 벡터 (read vector) (522) 에 기초하여 ft c 특징 벡터 (feature vector) 에 대응하는 학습자의 개념 이해 능력을 예측하는 네트워크 (530) 가 생성되고, t c에 대응하는 학습자에 대한 사용자의 개념 이해 능력 (326) 이 결정된다. 그 다음, 개념 벡터 (322) 에 기초하여 결정된 c에 대응하는 개념 난이도 (324) 및 개념 이해 능력 (326) 에 기초하여 mt에 대응하는 개념 이해 확률 (318) 이 최종적으로 산출될 수 있다.That is, the
이때, 문항 평가 모델 (400) 및 개념 평가 모델 (500) 은, 히든 개념 레이어를 공유하는 복수의 DKVMN 알고리즘에 기초한 모델일 수 있으나, 이에 제한되는 것은 아니다.In this case, the
한편, 문항 평가 모델 (400) 의 개념 학습 상태 (420) 는 문항에 대한 사용자의 정답 여부, 및 문항과 연관된 개념에 기초하여 업데이트될 수 있고, 업데이트된 개념 학습 상태 (420') 는 개념 평가 모델 (500) 에 공유될 수 있다. On the other hand, the
보다 구체적으로, 도 6b를 참조하면, 개념 학습 상태 (420) 의 업데이트를 위해, 기존 학습된 qt 임베딩 백터와 질문에 대한 사용자의 반응인 at가 결합하고, (qt, at)에 대응하는 평가 문항 및 정답 세트 (620) 가 비-선형 맵핑 (Non-linear mapping) 되어 vt에 대응하는 문항 정답 벡터 (622) 가 생성된다. 이때, 문항 정답 벡터 (622) 는 하기 수학식 2에 의해 생성될 수 있다.More specifically, referring to FIG. 6B , in order to update the
[수학식 2][Equation 2]
vt = tanh(FC(A(qt),at))v t = tanh( FC ( A (q t ),a t ))
즉, 업데이트는, (qt, at)의 평가 문항 및 정답 세트 (620) 에 대한 새로운 임베딩 메트릭스를 생성 및 학습하지 않고, 기존의 평가 문항 (310) 이 임베딩 벡터화된 문항 벡터 (312) 를 at와 결합하면서 개시된다. 이에, 문항 평가 모델은 불 필요한 오버헤드 (overhead) 없이 업데이트 되고, 보다 안정적인 학습 (예를 들어, DKVMN 모델에서) 이 진행될 수 있다. 그 다음, 문항 정답 벡터 (622) 에 시그마 (σ) 가 적용되어 et에 대응하는 삭제 벡터가 생성되고, 문항 정답 벡터 (632) 에 쌍곡선 탄젠트 (tanh) 가 적용되어 추가 벡터 (634) 가 생성된다. 그 다음, 잠재 개념 (410) 과의 유사도에 따라 결정된 가중치 (412) 가 삭제 벡터 (632) 및 추가 벡터 (634) 각각에 대하여 곱해진다. 그 다음, 삭제 벡터 (632) 에 기존의 개념 학습 상태 (420) 가 반영된 후, 두 개의 벡터 (632, 634) 의 값들이 합쳐짐으로써, St+1에 대응하는 새롭게 업데이트된 개념 학습 상태 (420') 이 획득될 수 있다. 업데이트된 개념 학습 상태 (420') 는, 평가 문항 (310) 다음에 제시될 문항의 평가에 적용될 수 있다. 더욱이, 개념 평가 모델 (500) 에 공유될 수 있다.That is, the update does not generate and learn a new embedding matrix for the evaluation item and the correct answer set 620 of (q t , a t ), and the existing evaluation item 310 uses the embedding vectorized item vector 312 . It is initiated by binding with a t . Accordingly, the item evaluation model is updated without unnecessary overhead, and more stable learning (eg, in the DKVMN model) may proceed. Then, a sigma (σ) is applied to the item correct vector 622 to generate a deletion vector corresponding to et, and a hyperbolic tangent (tanh) is applied to the item
비교예: 본 발명의 다양한 실시예에 따른 문항 평가 모델 + 개념 평가 모델, 및 단독 문항 평가 모델의 성능 비교 Comparative Example: Comparison of performance of item evaluation model + concept evaluation model, and single item evaluation model according to various embodiments of the present invention
이하에서는, 도 7a 및 7b를 참조하여 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스에 대한 평가 결과를 설명한다.Hereinafter, evaluation results of the item evaluation device according to various embodiments of the present invention will be described with reference to FIGS. 7A and 7B .
도 7a를 참조하면, DKVMN 알고리즘에 기초한 단독의 문항 평가 모델에 대한 평가 결과가 도시된다. 나아가, 도 7b를 참조하면, 본 발명의 다양한 실시예에 적용되는 문항 평가 모델 및 개념 평가 모델에 기초한 문항 평가용 디바이스의 평가 결과가 도시된다.Referring to FIG. 7A , an evaluation result for a single item evaluation model based on the DKVMN algorithm is shown. Furthermore, referring to FIG. 7B , evaluation results of the item evaluation device based on the item evaluation model and the concept evaluation model applied to various embodiments of the present invention are shown.
도 7a의 (a) 및 7b의 (a)를 참조하면, 본 발명의 다양한 실시예에 따른 문항 평가 모델 + 개념 평가 모델, 및 단독 문항 평가 모델의 분석의 정확도 (accuracy) 는 유사한 수준으로 나타난다. 그러나, 도 7a의 (b) 및 7b의 (b)를 더욱 참조하면, 크로스 엔트로피 손실 (Cross-entropy) 의 loss 값이 문항 평가 모델 + 개념 평가 모델이 단독의 문항 평가 모델보다 유의한 수준으로 낮게 나타난다. 더욱이, 도 7a의 (c) 및 7b의 (c)의 모델의 성능에 대응하는 AUC값을 참조하면, 단독의 문항 평가 모델의 경우 0.8162를 보이다가 평가가 진행될수록 0.76 이하로 하락하는 것으로 나타난다. 그러나, 문항 평가 모델 + 개념 평가 모델의 경우 0.8269의 높은 AUC값이 측정된 후, 0.8 이하로 떨어지지 않고 유지되는 것으로 나타난다. 즉, 이러한 결과는, 문항 평가 모델 + 개념 평가 모델은, 단독의 문항 평가 모델보다 예측의 성능이 우수하며, 문항 평가가 반복되어도 성능이 유지됨을 의미할 수 있다. Referring to FIGS. 7A and 7B , the accuracy of analysis of the item evaluation model + concept evaluation model and the single item evaluation model according to various embodiments of the present invention is shown at a similar level. However, referring further to (b) and 7b (b) of FIGS. 7A and 7B, the loss value of the cross-entropy is significantly lower in the item evaluation model + the concept evaluation model than the item evaluation model alone. appear. Furthermore, referring to the AUC values corresponding to the performance of the models of FIGS. 7A (c) and 7B (c), the single item evaluation model showed 0.8162, but as the evaluation progressed, it was shown to decrease to 0.76 or less. However, in the case of the item evaluation model + concept evaluation model, after a high AUC value of 0.8269 is measured, it appears to be maintained without falling below 0.8. That is, these results may mean that the item evaluation model + the concept evaluation model has better predictive performance than the single item evaluation model, and that the performance is maintained even if the item evaluation is repeated.
이때, 단독의 문항 평가 모델은, 학습 단계에서 자주 등장하는 개념을 갖는 문항으로 인한 오버 핏팅에 의해 등장 빈도수가 낮은 개념에 대한 문항의 평가 능이 저조할 수 있다. 즉, 단독의 문항 평가 모델은, 개념 별 출제 문항의 균형에 따라 성능이 떨어질 수 있다. In this case, the single item evaluation model may have poor evaluation ability of items for concepts with low frequency of appearance due to overfitting due to items having concepts frequently appearing in the learning stage. That is, a single item evaluation model may have poor performance depending on the balance of questions for each concept.
한편, 문항 평가 모델 및 개념 평가 모델은 사용자에 대한 개념 학습 상태를 공유함에 따라, 등장 빈도수가 낮은 개념에 대한 문항에 대한 평가 능력이 단독 모델보다 높고, 문항에 대한 평가가 반복되더라도 진단 성능이 높은 수준으로 유지될 수 있다. On the other hand, as the item evaluation model and the concept evaluation model share the concept learning state for the user, the evaluation ability for the items of the concept with low frequency of appearance is higher than that of the single model, and the diagnosis performance is high even if the evaluation of the item is repeated. level can be maintained.
따라서, 문항 평가 모델 및 개념 평가 모델의 두 개의 모델에 기초한 본 발명의 다양한 실시예에 따른 문항 평가용 디바이스는, 학습자의 학습 상태에 대한 섬세한 분석을 진행할 수 있는 효과가 있다.Accordingly, the device for item evaluation according to various embodiments of the present disclosure based on two models of the item evaluation model and the concept evaluation model has the effect of performing a detailed analysis of the learner's learning state.
이에, 본 발명은, 문항 평가 시스템에 의해 각각의 모델에 의해 출력된 문항의 정답 여부 및 문항과 관련된 개념의 이해도를 제공할 수 있어, 학습자 개개인에 대한 맞춤형 이러닝 학습 환경을 제공할 수 있다.Accordingly, the present invention can provide a level of understanding of concepts related to the correct answer to the question output by each model by the item evaluation system and the question, thereby providing a customized e-learning learning environment for each learner.
이상 첨부된 도면을 참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although one embodiment of the present invention has been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications may be made within the scope without departing from the technical spirit of the present invention. have. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
100: 문항 평가용 디바이스
110, 230: 저장부
120, 210: 통신부
130, 240: 프로세서
200: 사용자 디바이스
220: 표시부
300: 평가 대상 문항 DB
310, 610: 평가 문항
312, 612: 문항 벡터
314, 614: 문항 난이도
316, 616: 문항 풀이 능력
318, 618: 정답 확률
322: 개념 벡터
324: 개념 난이도
326: 개념 이해 능력
328: 개념 이해 확률
410, 510: 잠재 개념
412, 512: 가중치
420, 520: 개념 학습 상태
422, 522: 리드 벡터
420': 업데이트된 개념 학습 상태
430: 문항 풀이 능력 결정 네트워크
530: 개념 이해 능력 결정 네트워크
1000: 문항 평가 시스템100: device for item evaluation
110, 230: storage unit
120, 210: communication unit
130, 240: processor
200: user device
220: display unit
300: DB of items to be evaluated
310, 610: evaluation questions
312, 612: question vector
314, 614: Item difficulty
316, 616: question-solving ability
318, 618: Probability of correct answer
322: Concept Vector
324: Concept Difficulty
326: concept understanding ability
328: concept understanding probability
410, 510: latent concept
412, 512: weight
420, 520: concept learning state
422, 522: lead vector
420': updated concept learning state
430: question-solving ability determination network
530: concept understanding ability determination network
1000: item evaluation system
Claims (18)
사용자가 풀어야 할 문항을 수신하는 단계;
잠재 개념 (latent concepts) 을 기초로 문항에 대한 개념을 결정하도록 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 개념을 결정하는 단계;
결정된 개념 및 상기 사용자에 대한 개념 학습 상태에 기초하여 문항의 정답 여부를 예측하도록 더 구성된 상기 문항 평가 모델을 이용하여, 상기 문항의 정답 여부를 예측하는 단계;
상기 잠재 개념 및 상기 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델을 이용하여, 상기 사용자에 대한 상기 문항과 관련된 개념의 이해도를 예측하는 단계, 및
상기 문항의 정답 여부 및 상기 문항과 관련된 개념의 이해도를 제공하는 단계를 포함하는, 문항 평가 방법.An item evaluation method implemented by a processor, comprising:
receiving a question to be solved by a user;
determining concepts for the items by using an item evaluation model configured to determine concepts for items based on latent concepts;
predicting whether the item is correct or not, using the item evaluation model further configured to predict whether the item is correct based on the determined concept and the concept learning state for the user;
predicting the degree of understanding of the concept related to the item for the user by using a concept evaluation model configured to share at least one of the latent concept and the concept learning state and predict the degree of understanding of the concept for the item, and
An item evaluation method comprising the step of providing a correct answer to the item and a degree of understanding of a concept related to the item.
상기 문항 평가 모델은,
상기 문항의 정답 여부를 확률적으로 예측하도록 더 구성되고,
상기 개념 평가 모델은,
상기 문항과 관련된 개념의 이해도를 확률적으로 예측하도록 더 구성되고,
상기 제공하는 단계는,
상기 문항에 대한 정답 확률 및 개념의 이해 확률을 제공하는 단계를 포함하는, 문항 평가 방법.According to claim 1,
The item evaluation model is
Further configured to probabilistically predict whether the question is correct,
The concept evaluation model is,
It is further configured to probabilistically predict the degree of understanding of the concept related to the item,
The providing step is
An item evaluation method comprising the step of providing a probability of correct answer for the item and a probability of understanding the concept.
상기 문항에 대한 개념을 결정하는 단계는,
문항 벡터를 생성하도록, 상기 문항을 벡터화 하는 단계;
상기 문항 벡터 및 상기 잠재 개념과의 유사도를 비교하는 단계, 및
상기 유사도에 기초하여 상기 문항에 대한 개념을 결정하는 단계를 포함하는, 문항 평가 방법.According to claim 1,
The step of determining the concept for the question is,
vectorizing the items to generate an item vector;
comparing the degree of similarity between the item vector and the latent concept; and
and determining a concept for the item based on the degree of similarity.
상기 개념을 결정하는 단계 이후에,
상기 유사도에 따라 상기 잠재 개념 각각에 대한 가중치를 결정하는 단계를 더 포함하고,
상기 문항의 정답 여부를 예측하는 단계는,
상기 문항 평가 모델을 이용하여, 상기 개념 학습 상태 및 상기 잠재 개념에 대한 가중치를 기초로 상기 문항의 정답 여부를 예측하는 단계를 포함하는, 문항 평가 방법.4. The method of claim 3,
After determining the concept,
Further comprising the step of determining a weight for each of the latent concepts according to the degree of similarity,
Predicting whether the question is correct or not,
Using the item evaluation model, the item evaluation method comprising the step of predicting whether the item is correct based on the weight for the concept learning state and the latent concept.
상기 개념 학습 상태는,
상기 사용자가 맞춘 정답 문항이 갖는 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의되는, 문항 평가 방법.According to claim 1,
The concept learning state is,
An item evaluation method, which is defined as a concept memory consisting of the absolute value of a concept vector obtained by vectorizing the concept of the correct answer item matched by the user.
상기 문항의 정답 여부를 예측하는 단계는,
상기 문항 평가 모델을 이용하여,
상기 개념 메모리 중, 상기 문항과 연관된 메모리를 결정하는 단계;
상기 연관된 메모리에 기초하여 상기 문항 풀이 능력을 결정하는 단계, 및
상기 문항 풀이 능력에 기초하여 상기 문항에 대한 정답 여부를 예측하는 단계를 포함하는, 문항 평가 방법.6. The method of claim 5,
Predicting whether the question is correct or not,
Using the item evaluation model,
determining a memory associated with the item from among the concept memories;
determining the item-solving ability based on the associated memory; and
An item evaluation method comprising the step of predicting whether the item is correct or not based on the item solving ability.
상기 문항 평가 모델은,
상기 문항의 난이도 및 상기 사용자의 문항 풀이 능력을 기초로 상기 문항의 정답 여부를 예측하도록 더 구성되고,
상기 문항의 정답 여부를 예측하는 단계는,
상기 문항의 난이도를 결정하는 단계;
상기 개념 메모리 중, 상기 문항과 연관된 메모리를 결정하는 단계;
상기 연관된 메모리를 기초하여 상기 문항 풀이 능력을 결정하는 단계, 및
상기 문항의 난이도 및 상기 문항 풀이 능력에 기초하여 상기 문항에 대한 정답 여부를 예측하는 단계를 더 포함하는, 문항 평가 방법.6. The method of claim 5,
The item evaluation model is
Further configured to predict whether the question is correct or not based on the difficulty of the question and the user's ability to solve the question,
Predicting whether the question is correct or not,
determining the difficulty level of the question;
determining a memory associated with the item from among the concept memories;
determining the question-solving ability based on the associated memory; and
Further comprising the step of predicting whether the correct answer to the question based on the difficulty of the question and the question-solving ability, the item evaluation method.
상기 사용자로부터 상기 문항에 대한 답을 수신하는 단계, 및
수신된 상기 답의 정답 여부, 및 상기 문항과 연관된 개념을 기초로 상기 개념 메모리를 업데이트하는 단계를 포함하는, 문항 평가 방법.6. The method of claim 5,
receiving an answer to the question from the user; and
Including the step of updating the concept memory based on whether the received answer is correct, and the concept associated with the item, the item evaluation method.
상기 제공하는 단계 이후에,
예측된 상기 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이하의 이해도를 갖는 개념과 연관된 문항을 결정하는 단계, 및
상기 연관된 문항을 제공하는 단계를 더 포함하는, 문항 평가 방법.According to claim 1,
After the step of providing,
determining, from among a plurality of additional items, an item related to a concept having a level of understanding less than or equal to a predetermined level, from among a plurality of additional items based on the predicted level of understanding of the concept; and
Further comprising the step of providing the associated item, item evaluation method.
상기 제공하는 단계 이후에,
예측된 상기 개념의 이해도에 기초하여 복수의 추가 문항 중, 미리 결정된 수준 이상의 이해도를 갖는 개념과 연관된 이해도 높은 문항을 결정하는 단계, 및
상기 복수의 추가 문항 중, 상기 이해도 높은 문항을 제외한 나머지 문항을 제공하는 단계를 더 포함하는, 문항 평가 방법.According to claim 1,
After the step of providing,
predicted recall Determining an item with a high level of understanding related to a concept having a level of understanding higher than or equal to a predetermined level among a plurality of additional items based on the level of understanding of the concept, and
Among the plurality of additional questions, the method further comprising the step of providing the remaining questions except for the high comprehension questions.
프로세서를 포함하고,
상기 프로세서는,
잠재 개념 (latent concepts) 을 기초로 문항에 대한 개념을 결정하도록 구성된 문항 평가 모델을 이용하여, 상기 문항에 대한 개념을 결정하고, 결정된 개념 및 상기 사용자에 대한 개념 학습 상태에 기초하여 문항의 정답 여부를 예측하도록 더 구성된 상기 문항 평가 모델을 이용하여, 상기 문항의 정답 여부를 예측하고, 상기 잠재 개념 및 상기 개념 학습 상태 중 적어도 하나를 공유하고, 문항에 대한 개념 이해도를 예측하도록 구성된 개념 평가 모델을 이용하여, 상기 사용자에 대한 상기 문항과 관련된 개념의 이해도를 예측하고, 문항의 정답 여부 및 상기 문항과 관련된 개념의 이해도를 제공하도록 구성된, 문항 평가용 디바이스.a communication unit configured to receive questions to be solved by the user, and
including a processor;
The processor is
Using the item evaluation model configured to determine the concept of the item based on latent concepts, the concept of the item is determined, and whether the item is correct based on the determined concept and the concept learning state for the user Using the item evaluation model further configured to predict A device for item evaluation, configured to predict a degree of understanding of a concept related to the item for the user by using it, and to provide whether the item is correct or not and a degree of understanding of a concept related to the item.
상기 프로세서는,
문항 벡터를 생성하도록, 상기 문항을 벡터화 하고, 상기 문항 벡터 및 상기 잠재 개념과의 유사도를 비교하고, 상기 유사도에 기초하여 상기 문항에 대한 개념을 결정하도록 더 구성된, 문항 평가용 디바이스.12. The method of claim 11,
The processor is
The device for item evaluation, further configured to vectorize the item to generate an item vector, compare the degree of similarity between the item vector and the latent concept, and determine a concept for the item based on the degree of similarity.
상기 프로세서는, 상기 유사도에 따라 상기 잠재 개념 각각에 대한 가중치를 결정하고,
상기 문항 평가 모델을 이용하여, 상기 개념 학습 상태 및 상기 잠재 개념에 대한 가중치를 기초로 상기 문항의 정답 여부를 예측하도록 더 구성된, 문항 평가용 디바이스.13. The method of claim 12,
The processor determines a weight for each of the latent concepts according to the degree of similarity,
The device for item evaluation, further configured to predict whether the item is correct or not based on the weight for the concept learning state and the latent concept by using the item evaluation model.
상기 개념 학습 상태는,
상기 사용자가 맞춘 정답 문항이 갖는 개념을 벡터화한 개념 벡터의 절대값으로 이루어진 개념 메모리로 정의되는, 문항 평가용 디바이스.12. The method of claim 11,
The concept learning state is,
A device for item evaluation, which is defined as a concept memory consisting of the absolute value of a concept vector obtained by vectorizing the concept of the correct answer item matched by the user.
상기 프로세서는, 상기 문항 평가 모델을 이용하여, 상기 개념 메모리 중, 상기 문항과 연관된 메모리를 결정하고, 상기 연관된 메모리에 기초하여 상기 문항 풀이 능력을 결정하고, 상기 문항 풀이 능력에 기초하여 상기 문항에 대한 정답 여부를 예측하도록 더 구성된, 문항 평가용 디바이스.15. The method of claim 14,
The processor uses the item evaluation model to determine a memory associated with the item from among the conceptual memories, determines the item solving ability based on the associated memory, and applies the item to the item based on the item solving ability. A device for item evaluation, further configured to predict whether the answer is correct or not.
상기 문항 평가 모델은,
상기 문항의 난이도 및 상기 사용자의 문항 풀이 능력을 기초로 상기 문항의 정답 여부를 예측하도록 구성되고,
상기 프로세서는,
상기 문항의 난이도를 결정하고, 상기 개념 메모리 중, 상기 문항과 연관된 메모리를 결정하고, 상기 연관된 메모리를 기초하여 상기 문항 풀이 능력을 결정하고, 상기 문항의 난이도 및 상기 문항 풀이 능력에 기초하여 상기 문항에 대한 정답 여부를 예측하도록 더 구성된, 문항 평가용 디바이스.15. The method of claim 14,
The item evaluation model is
It is configured to predict whether the question is correct or not based on the difficulty of the question and the user's ability to solve the question,
The processor is
Determining the difficulty of the item, determining the memory associated with the item from among the conceptual memories, determining the item solving ability based on the associated memory, and determining the item difficulty and the item solving ability based on the item difficulty and the item solving ability A device for item evaluation, further configured to predict whether the answer is correct or not.
상기 통신부는,
상기 사용자로부터 상기 문항에 대한 답을 수신하도록 더 구성되고,
상기 프로세서는,
수신된 상기 답의 정답 여부, 및 상기 문항과 연관된 개념을 기초로 상기 개념 메모리를 업데이트하도록 더 구성된, 문항 평가용 디바이스.15. The method of claim 14,
The communication unit,
further configured to receive an answer to the question from the user,
The processor is
The device for item evaluation, further configured to update the concept memory based on whether the received answer is correct or not, and a concept associated with the item.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200042704A KR20210125250A (en) | 2020-04-08 | 2020-04-08 | Method for questions assessment and device for questions assessment using the same |
KR1020230041373A KR20230047351A (en) | 2020-04-08 | 2023-03-29 | Method for questions assessment and device for questions assessment using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200042704A KR20210125250A (en) | 2020-04-08 | 2020-04-08 | Method for questions assessment and device for questions assessment using the same |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230041373A Division KR20230047351A (en) | 2020-04-08 | 2023-03-29 | Method for questions assessment and device for questions assessment using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210125250A true KR20210125250A (en) | 2021-10-18 |
Family
ID=78271355
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200042704A KR20210125250A (en) | 2020-04-08 | 2020-04-08 | Method for questions assessment and device for questions assessment using the same |
KR1020230041373A KR20230047351A (en) | 2020-04-08 | 2023-03-29 | Method for questions assessment and device for questions assessment using the same |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230041373A KR20230047351A (en) | 2020-04-08 | 2023-03-29 | Method for questions assessment and device for questions assessment using the same |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR20210125250A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102431603B1 (en) * | 2022-01-13 | 2022-08-11 | (주)개념원리 | Method of creating a learner-specific curriculum in online math learning |
KR102431604B1 (en) * | 2022-01-13 | 2022-08-11 | (주)개념원리 | Method of analyzing learners’achievement in online math learning |
KR102465634B1 (en) * | 2022-07-20 | 2022-11-11 | 주식회사 튜링 | Technique for providing customized problems to improve problem solving skills of users |
KR102509107B1 (en) * | 2022-07-07 | 2023-03-14 | 주식회사 에이치투케이 | AI-Based Device and Method for Evaluating Status of Student |
KR102518474B1 (en) * | 2022-07-21 | 2023-04-05 | 주식회사 튜링 | Technique for updating a skill of a user |
KR102538342B1 (en) * | 2022-10-19 | 2023-06-02 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system using inference of proficiency by curriculum based on diagnostic evaluation data for new learners |
KR102538340B1 (en) * | 2022-10-19 | 2023-06-02 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system that support diagnosis of learning proficiency |
KR102636582B1 (en) * | 2022-10-20 | 2024-02-16 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system that support diagnosis of learning proficiency and collaborative learning |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102015075B1 (en) | 2018-10-16 | 2019-08-27 | (주)뤼이드 | Method, apparatus and computer program for operating a machine learning for providing personalized educational contents based on learning efficiency |
-
2020
- 2020-04-08 KR KR1020200042704A patent/KR20210125250A/en active Application Filing
-
2023
- 2023-03-29 KR KR1020230041373A patent/KR20230047351A/en not_active Application Discontinuation
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102431603B1 (en) * | 2022-01-13 | 2022-08-11 | (주)개념원리 | Method of creating a learner-specific curriculum in online math learning |
KR102431604B1 (en) * | 2022-01-13 | 2022-08-11 | (주)개념원리 | Method of analyzing learners’achievement in online math learning |
KR102509107B1 (en) * | 2022-07-07 | 2023-03-14 | 주식회사 에이치투케이 | AI-Based Device and Method for Evaluating Status of Student |
KR102465634B1 (en) * | 2022-07-20 | 2022-11-11 | 주식회사 튜링 | Technique for providing customized problems to improve problem solving skills of users |
KR102518474B1 (en) * | 2022-07-21 | 2023-04-05 | 주식회사 튜링 | Technique for updating a skill of a user |
KR102538342B1 (en) * | 2022-10-19 | 2023-06-02 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system using inference of proficiency by curriculum based on diagnostic evaluation data for new learners |
KR102538340B1 (en) * | 2022-10-19 | 2023-06-02 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system that support diagnosis of learning proficiency |
KR102636582B1 (en) * | 2022-10-20 | 2024-02-16 | 주식회사 아이스크림에듀 | Artificial intelligence tutoring system that support diagnosis of learning proficiency and collaborative learning |
Also Published As
Publication number | Publication date |
---|---|
KR20230047351A (en) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210125250A (en) | Method for questions assessment and device for questions assessment using the same | |
Tomasevic et al. | An overview and comparison of supervised data mining techniques for student exam performance prediction | |
CN110651280B (en) | Projection neural network | |
Lin et al. | Comparative performance of eight ensemble learning approaches for the development of models of slope stability prediction | |
Lu et al. | Towards interpretable deep learning models for knowledge tracing | |
US20190147369A1 (en) | Rule Determination for Black-Box Machine-Learning Models | |
US20200285934A1 (en) | Capsule neural networks | |
EP4425383A2 (en) | Neural network system | |
Hodnett et al. | R Deep Learning Essentials: A step-by-step guide to building deep learning models using TensorFlow, Keras, and MXNet | |
Lai et al. | Automatic personality identification using students’ online learning behavior | |
JP6848091B2 (en) | Information processing equipment, information processing methods, and programs | |
JP6696257B2 (en) | Vocabulary learning support system | |
Govindarajan et al. | Dynamic learning path prediction—A learning analytics solution | |
US20200327450A1 (en) | Addressing a loss-metric mismatch with adaptive loss alignment | |
US20220180240A1 (en) | Transaction composition graph node embedding | |
CN115298659A (en) | Automatic generation of diversified text | |
WO2024120504A1 (en) | Data processing method and related device | |
KR102537114B1 (en) | Method for determining a confidence level of inference data produced by artificial neural network | |
WO2020159692A1 (en) | Estimating latent reward functions from experiences | |
Adnan et al. | Improving m-learners’ performance through deep learning techniques by leveraging features weights | |
Ganesan | Machine Learning in Mobile Applications | |
Hodnett et al. | Deep Learning with R for Beginners: Design neural network models in R 3.5 using TensorFlow, Keras, and MXNet | |
US10394898B1 (en) | Methods and systems for analyzing discrete-valued datasets | |
Verma et al. | Toward prediction of student’s guardian in the Secondary Schools for the real time | |
KR20220159720A (en) | A system for estimating score of codes based on artificial intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination | ||
A107 | Divisional application of patent |