WO2021251690A1 - 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법 - Google Patents

인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법 Download PDF

Info

Publication number
WO2021251690A1
WO2021251690A1 PCT/KR2021/007001 KR2021007001W WO2021251690A1 WO 2021251690 A1 WO2021251690 A1 WO 2021251690A1 KR 2021007001 W KR2021007001 W KR 2021007001W WO 2021251690 A1 WO2021251690 A1 WO 2021251690A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
learning
information
characteristic model
learning content
Prior art date
Application number
PCT/KR2021/007001
Other languages
English (en)
French (fr)
Inventor
이영남
최영덕
조중현
노현빈
황찬유
이용구
Original Assignee
(주)뤼이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)뤼이드 filed Critical (주)뤼이드
Publication of WO2021251690A1 publication Critical patent/WO2021251690A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education

Definitions

  • the present invention relates to a learning content recommendation system for learning a user characteristic model using an artificial intelligence model, and providing a user-customized learning content based on the learned user characteristic model, and an operating method thereof.
  • LSTM Long Short Term Memory
  • LSTMs have feedback connections and can process not only single data, but entire data sequences.
  • the processed values of previously input data are also input, so it is suitable for long-term storage of sequence data.
  • the processed values of the entire input data are referenced again at every point in time when the output result is predicted, and focus (attention, attention, weight) on the data related to the output result.
  • the artificial neural network may be trained to obtain a desired inference result while adjusting the weights between each node of the artificial neural network.
  • the learning content recommendation method introduces an artificial intelligence model of an interactive LSTM structure having a concept of weight (attention) in the education field, and the problem solved by the user and the problem Based on the response of , it is possible to predict the probability of a user's correct answer to a specific problem with higher accuracy by training the artificial neural network by weighting the forward sequence and the backward sequence according to the degree of influence on the prediction of the correct answer probability.
  • the user's state in order to solve a problem that it is difficult to dynamically update a user's status, the user's state can be defined.
  • the learning content recommendation method has an effect of increasing learning efficiency by introducing a review problem recommendation method using attention in an education field that is difficult and expensive to create new learning content.
  • the method of operating a learning content recommendation system is an invention for predicting the probability of a user's correct answer to a specific problem with higher accuracy and providing learning content with increased efficiency. Transmitting problem information including information on the problems of learning the user characteristic model, wherein the learning of the user characteristic model comprises the steps of giving weight to the user characteristic model based on the degree of influence on the correct answer probability according to the order of the problems input to the user characteristic model include
  • the learning content recommendation system includes a learning information storage unit for storing problem information that is information about a plurality of problems, solution result information that is a user's response to the plurality of problems, or learning content; A user characteristic model learning performing unit for learning a user characteristic model based on problem information and the solving result information, wherein the user characteristic model learning performing unit, according to the order of the problems input to the user characteristic model, affects the probability of correct answers and weighting the user characteristic model based on the degree of influence.
  • the present invention provides a user's correct answer to a specific problem only with limited problem information and user's response information through an artificial intelligence model of a bidirectional LSTM structure in which the problem solved by the user and the response to the problem are weighted with a forward sequence and a backward sequence. There is an effect that the probability can be predicted with higher accuracy. Furthermore, the present invention can express the problem vector so that the characteristics of the problem are better reflected through the artificial intelligence model, so that it is easy to interpret the characteristics of the problem from the problem vector.
  • the learning contents are defined by the user It is effective to provide learning content with increased efficiency by recommending based on a problem that has a high influence on predicting the probability of a correct answer rather than the similarity of the problem vector corresponding to the problem with frequently incorrect .
  • the present invention can provide a method of interpreting a problem vector expressed abstractly through an artificial intelligence model of a bidirectional LSTM structure, and the problem solving result of the problem solved by the user and/or the problem solved by the user It is possible to solve the problem that it is difficult to dynamically update the user's status by defining only have.
  • FIG. 1 is a diagram for explaining a learning content recommendation system according to an embodiment of the present invention.
  • FIG. 2 is a diagram for explaining in detail the operation of the learning content recommendation system of FIG. 1 .
  • FIG. 3 is a diagram for explaining an operation of determining a problem to be recommended by calculating problem information according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a correlation between weighted solution result information and a tag matching ratio, according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an operation of a learning content recommendation system according to an embodiment of the present invention.
  • FIG. 6 is a view for explaining in detail step S505 of FIG. 5 .
  • first and/or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one element from another element, for example, without departing from the scope of the present invention, a first element may be called a second element, and similarly The second component may also be referred to as the first component.
  • FIG. 1 is a diagram for explaining a learning content recommendation system according to an embodiment of the present invention.
  • the learning content recommendation system 50 may include a user characteristic model learning performing unit 100 , a learning information storage unit 200 , and a learning content providing unit 300 .
  • the learning content recommendation system 50 may provide a problem to the user and receive the user's solution result information.
  • the problem information and the solution result information for the corresponding problem may be matched and stored in the user learning information storage unit 230 of the learning information storage unit 200 .
  • Collaborative filtering is a technology that filters unnecessary information based on input of all usage and consumption records of platform users.
  • a user characteristic model is trained based on all problem solving results of a specific user, and each time a new problem or user's solution result information is added, the user characteristic model is re-trained. has been trained on a user characteristic model.
  • this method using collaborative filtering has a problem that is not suitable for real-time user characteristic modeling because the model must be retrained whenever new information is added.
  • the user learning information may include information about a user's solution result information for a specific problem, a user's expected score, information about a weak problem type, information about learning content having an optimal learning efficiency for a specific user, and the like.
  • the learning content recommendation system 50 trains a user characteristic model based on the vast amount of user learning information of other users who have already performed learning, unlike collaborative filtering, which can recommend learning content only when all user learning information of each user is known. Afterwards, through this, it is possible to provide optimized learning content to newly introduced users by solving a minimum number of diagnostic problems.
  • the learning content recommendation system 50 can generate a user vector with a vector of problems solved by a user, individual user learning in real time without a previously learned user vector You can create custom vectors for your information.
  • collaborative filtering requires each user's user vector in advance to predict the probability of a correct answer, there is inefficiency in that new learning must be performed to generate a user vector whenever a new user is introduced.
  • a problem representing the solution result of the problem by the user using a problem vector representing the problem solved by the user at a specific time (or a problem vector expressed in the order of solving the problem solved) It can be generated by dot product with the solution result vector, or can be generated by dot product with the problem vector with weights adjusted to more accurately reflect the user's incorrect answer.
  • a method of generating a user vector using only the problem solving result may vary depending on the embodiment.
  • the learning content recommendation system 50 may add a time index to express user characteristics.
  • the learning content recommendation system 50 may generate a problem and a user model by applying the interactive LSTM-based artificial intelligence model used in the conventional natural language processing field to the education domain.
  • the learning content recommendation system 50 can generate a user vector by embedding the user's problem-solving sequence, and learns an LSTM-based artificial intelligence model in the forward and reverse directions to create a new It is possible to provide the most efficient learning content to new users with only a small amount of data, without the need to newly train the user characteristic model every time a user is introduced.
  • the AI model is trained in the order in which the user solves the current problem in a forward sequence, and at the same time as the backward sequence in the reverse sequence to the user's problem solving order, the correct answer to a specific problem is determined at the time of solving It can be analyzed by correlating with the subsequent problem solving results.
  • the reason why the current question 10 is wrong is because the question 5, which has a similar type to the question 10, is correlated with the reason why the user got it wrong, and vice versa.
  • the artificial neural network model of the bidirectional LSTM structure can analyze the problem solved by the user in the past with the problem solving result currently solved, it can more efficiently identify the user's learning level in the educational domain environment with a limited number of problems.
  • the learning content recommendation system 50 introduces the concept of attention and assigns weights to the problem information according to the degree of influence on the prediction of the correct answer probability to determine the review problem, so the review problem with higher accuracy can be decided
  • Problems that have a high impact on predicting the probability of correct answers may include problems (or problem types) that users often get wrong, problems with the same type of problem but users get it wrong, and problems (or problem types) that users do not get wrong often.
  • the user characteristic model learning performing unit 100 may learn the user characteristic model based on a series of information obtained by matching a plurality of pieces of problem information provided to a plurality of users with the user's solution result information.
  • the learning of the user characteristic model may be an operation of giving weight to the problem information according to the degree of influence on the prediction of the probability of correct answer.
  • the type of problem that the user frequently gets wrong may be the type of problem that is important that reduces the user's total score. These problems are given a high weight, and it can be predicted that the probability of a correct answer is low for a new problem having a similar problem type thereafter.
  • the problem type that the user is not good at may be another meaningful type of problem that increases the user's total score.
  • a high weight may be given to such a problem, and it may be predicted that the probability of a correct answer of the user is high for a new problem having a similar problem type thereafter.
  • a high weight may be given to a problem of the same type but in which the frequency of solving the problem by a user is not constant. This is because the user may not have an established conception of the problem type in question.
  • weights may be assigned to the solution result information.
  • the learning information storage 200 may include a learning content information storage 210 , a problem information storage 210 , and a user learning information storage 230 .
  • the learning content information storage unit 210 may store lectures or explanations of problems in various ways, such as text, video, picture, and voice. When customized learning content is provided to the user based on the learned user characteristic model, the learning content information storage unit 210 may provide the learning content information in response to a request from the learning content providing unit 300 . The learning content information storage unit 210 may be periodically updated and managed according to an administrator's addition or deletion of learning content.
  • the problem information storage unit 220 may store various types of problems to be provided to the user.
  • the problem information storage unit 220 predicts that it will be most helpful if the user solves the problem information provided to the user to learn the user characteristic model, as well as when determining the optimal learning content based on the completed user characteristic model Problems can be saved.
  • the user learning information storage unit 230 may store the user's solution result information for a specific problem. Furthermore, the user learning information storage unit 230 stores the expected score of the user predicted through the user characteristic model based on the solution result information, information about the weak problem type, information about the learning content with the best learning efficiency, and the like. can
  • the user learning information may be updated by reflecting the changed ability of the user whenever the user characteristic model is learned.
  • the new user's pooling result information may be analyzed and additionally stored in the user learning information storage unit 230 .
  • the learning content providing unit 300 may predict the probability of a correct answer to a specific user's specific problem according to the learning result of the user characteristic model learning performing unit 100, and provide learning contents with optimal efficiency based on this. .
  • the probability of a user's correct answer to a specific problem can be predicted with higher accuracy only with limited problem information and user response information through an artificial intelligence model of the interactive LSTM structure.
  • FIG. 2 is a diagram for explaining in detail the operation of the learning content recommendation system 50 of FIG. 1 .
  • learning of the user characteristic model may be performed through an artificial intelligence model based on an interactive LSTM.
  • the question solved by the user and the user's response to the question are embedded as learning data 410 and inputted as a forward sequence and a backward sequence. It can be used to train artificial intelligence models.
  • the problem and the response to the problem may be matched and input to the artificial intelligence model as the learning data 410 .
  • the training data 410 may be composed of a problem already solved by a user expressed as a vector and a response to the problem. Thereafter, when a problem 420 that has not yet been solved by an arbitrary user is input, the user characteristic model may predict a correct answer probability (Output) through an inference process according to weights for the corresponding problem.
  • the problem information and the solution result information may be expressed numerically through the embedding layer 430 .
  • Embedding may be an operation of composing the meaning of words, sentences, and texts while calculating correlations and expressing them through numerical values, even if the expressions or forms input by the user are different.
  • the training data 410 and the unresolved problem 420 may be input to the LSTM layer 440 .
  • the LSTM layer 440 may perform an operation of learning the artificial intelligence model by reflecting different weights for each training data 410 according to the degree of influence on the correct answer probability.
  • the learning content recommendation system 50 may perform a learning and inference process by adding a time index to express a user's characteristics.
  • the problem information and the solution result information may be learned in the artificial intelligence model according to the problem order (forward) input to the user characteristic model.
  • Learning may be an operation in which different weights are given to each user's solution result information for a specific problem based on the degree of influence on the correct answer probability.
  • the learning of the artificial intelligence model may be performed in the reverse order of the problems input to the user characteristic model (Backward).
  • Backward forward and backward learning may be simultaneously performed.
  • the weight may be adjusted while passing through a plurality of forward LSTM cells 441 , 442 , 443 according to the order in which the training data 410 is input, and the order in which the training data 410 is input and the Conversely, it may be adjusted while passing through a plurality of backward LSTM cells 444 , 445 , 446 .
  • the order of the problems input to the user characteristic model may be the order in which the user solves the problems. Whenever a user solves a problem, information on the solution result of the problem may be transmitted to the user characteristic model in real time. Based on this, the probability of correct answers to the next question to be provided to the user can be predicted in real time.
  • the order of the problems input to the user characteristic model may be the order in which the manager inputs the previously accumulated problem information and the solution result information in an arbitrary order to learn artificial intelligence.
  • the user characteristic model according to various algorithms The order of the problems to be entered into the can be determined.
  • the user characteristic model may have a fixed weight. Thereafter, when a new problem, that is, a problem 420 not solved by an arbitrary user is input, the user characteristic model can predict the user's correct answer probability (Output) for the new problem through an inference process according to the weight. .
  • FIG. 3 is a diagram for explaining an operation of analyzing a problem vector using a tag matching ratio and determining a problem to be recommended according to an embodiment of the present invention.
  • Example 1 shows a process of interpreting an arbitrary question (question10301) by combining three questions (question11305, question9420, question3960), and Example 2 (Example 2) shows the other three It shows a process of interpreting an arbitrary question (question2385) by combining the questions (question10365, question4101, and question1570).
  • each problem relates to a subject matter such as to-infinitive, article, gerund, grammar, tense, vocabulary, listening type, key words, e-mails, articles, letters, official documents, etc.
  • the format of the fingerprint, etc. may be stored in a way of tagging the problem.
  • problem 11305 has five tags of double document, email form, announcement, inference, and implication
  • problem 9420 has three tags of double document, email form, detail
  • problem 3960 can include three tags: single document, announcement, and detail.
  • problems 11305, 9420, and 3960 can be expressed as problem vectors 11305, 9420, and 3960 through the interactive LSTM-based AI model according to the embodiment of the present invention. After that, if you calculate "problem vector 11305 - problem vector 9420 + problem vector 3960", you will get a random vector value. At this time, the tag of problem 10301 (question10301) having a vector value with high cosine similarity to the calculated vector value can be checked.
  • tags of issue 10301 i.e., single document, announcement, inference, implication
  • tags of issue 10301 are similar to single document, announcement, inference, implication, detail, which is "tag of issue 11305 - tag of issue 9420 + tag of issue 3960" will be confirmed.
  • the AI model according to the embodiment of the present invention expresses the problem vector to better reflect the characteristics of the problem.
  • problem 10301 may indicate a problem extracted from the above five tags (ie, single document, announcement, inference, implication, detail).
  • problem information storage unit 220 stores many problems, it may be practically impossible for problems including all combinations of numerous tags to exist.
  • problem 10301 may be a problem with the highest similarity to the five tags (ie, single document, announcement, inference, implication, detail). The problem with the highest similarity may be determined from among problems with a tag matching ratio greater than a preset value.
  • question 10365 has four tags: single document, email form, true, NOT/true
  • question 4101 has three tags: single document, email form, and inference.
  • 1570 may include three tags: direct question, when, and true.
  • problems 10365, 4101, and 1570 can be expressed as problem vectors 10365, 4101, and 1570 through the interactive LSTM-based AI model according to the embodiment of the present invention.
  • problems 10365, 4101, and 1570 can be expressed as problem vectors 10365, 4101, and 1570 through the interactive LSTM-based AI model according to the embodiment of the present invention.
  • question 2385 may indicate a problem extracted from the above four tags (ie, direct question, when, true, NOT/true).
  • problem information storage unit 220 stores many problems, it may be practically impossible for problems including all combinations of numerous tags to always exist.
  • Problem 2385 may be a problem with the highest similarity to the four tags (ie, direct question, when, true, NOT/true).
  • the problem recommended in Examples 1 and 2 may be a problem with the highest similarity to the extracted tags.
  • the method of determining the problem with a high degree of similarity may be performed as a method of searching for a problem with the highest tag matching ratio or a method of searching for a problem with a high weight.
  • the tag matching rate may be a value obtained by dividing the intersection of a tag included in a problem that the user has already solved and a tag included in a problem to be provided next by the number of tags included in the problem to be provided next. The higher the tag matching ratio, the more effectively tags included in the problem matched by the user are removed and the tags included in the wrong problems are more accurately reflected.
  • tags included in each problem can be used not only to calculate the tag matching ratio, but also to determine the weight to be given to the AI model.
  • the user's solution result information can be interpreted as the user's correct probability for a specific problem or individual tag.
  • weights are given to the user characteristic model, different weights may be given to tags included in each problem, and through this, a method of searching for problems including a large number of specific tags given a high weight, that is, a low probability of correct answers can determine the recommendation problem.
  • the problem attention may be defined as the importance distribution of the problem data solved by the user, which has an effect on predicting the probability of correct answer to the problem that the user has not solved.
  • the problem information given a high weight (attention) to predict the probability of correct answers to a random problem is dark blue, and the problem information with a high tag matching ratio to the random problem is dark green. is shown as
  • a number from 0 to 49 can indicate the number of a solved problem. However, according to an embodiment, each number may indicate a tag included in one or more problems.
  • the weight and tag matching ratio may have a value between 0 and 1, and the sum of all weights and the sum of all tag matching ratios has a value of 1, respectively. Areas in which the weight and tag matching ratio are reflected relatively higher than other problems are shown by dotted boundary lines 41 , 42 , and 43 .
  • questions 11 to 15 may be problems determined to be problems that have a large influence on the probability of correct answers because their weights are highly reflected. In this case, it can be confirmed that the tag matching ratio also has a high value.
  • questions 8 to 15 may be problems determined to be problems that have a large influence on the probability of correct answers because their weights are highly reflected. In this case as well, it can be seen that the tag matching ratio also has a high value.
  • questions 37 to 49 may be problems determined to be problems that have a large influence on the probability of correct answers because their weights are highly reflected. In this case as well, it can be seen that the tag matching ratio also has a high value.
  • the learning content recommendation system 50 interprets the relationship between the problem previously answered by the user and the problem that can be recommended through a tag matching ratio or weight, so that learning that can maximize the user's potential learning efficiency You can select content and recommend it to users.
  • FIG. 5 is a flowchart for explaining the operation of the learning content recommendation system 50 according to an embodiment of the present invention.
  • the learning content recommendation system 50 may store a plurality of pieces of learning content information and problem information.
  • the learning content recommendation system 50 may receive the user's solution result information.
  • the solution result information may indicate whether the user answered the corresponding problem.
  • the solution result information may indicate which view the user has selected from among a plurality of views for a multiple choice question (MCQ).
  • the view selected by the user may be a correct answer or an incorrect answer, but if the user characteristic model is trained based on the information in both cases, the user's ability can be more accurately reflected.
  • the problem information and the corresponding solution result information can be matched and stored, and then input to the user characteristic model and used for learning the artificial intelligence model.
  • step S505 the learning content recommendation system 50 may learn the user characteristic model according to the degree of influence on the correct answer probability based on the solution result information.
  • the learning of the user characteristic model may be an operation of giving weight to the problem information according to the degree of influence on the prediction of the probability of correct answer.
  • the type of problem that the user frequently gets wrong may be the type of problem that is important that reduces the user's total score. These problems are given a high weight, and it can be predicted that the probability of a correct answer is low for a new problem having a similar problem type thereafter.
  • the problem type that the user is not good at may be another meaningful type of problem that increases the user's total score.
  • a high weight may be given to such a problem, and it may be predicted that the probability of a correct answer of the user is high for a new problem having a similar problem type thereafter.
  • a high weight may be given to a problem of the same type but in which the frequency of solving the problem by a user is not constant. This is because the user may not have an established conception of the problem type in question.
  • weights may be assigned to the solution result information.
  • the learning ( S505 ) of the user characteristic model will be described in detail with reference to FIG. 6 , which will be described later.
  • the learning content recommendation system 50 may calculate a correct answer probability for a specific problem based on the learned user characteristic model.
  • the operation of calculating the correct answer probability may be performed based on a weight.
  • the probability of a correct answer may be calculated through an inference process of performing various calculations by applying a weight to the corresponding problem.
  • the learning content recommendation system 50 may provide learning content expected to have high learning efficiency based on the probability of correct answer.
  • the learning content is not determined according to the probability of a correct answer calculated based on a weight, but problems with a high tag matching ratio may be provided to the user.
  • FIG. 6 is a view for explaining in detail step S505 of FIG. 5 .
  • the learning content providing system 50 may express the problem information and the user's solution result information as a vector.
  • Vector-expressed problem information and solution result information can be embedded and expressed numerically to be input to an artificial intelligence model.
  • step S603 the learning content providing system 50 may assign weights to the user characteristic model based on the degree of influence on the prediction of the correct answer probability according to the order of the problems input to the user characteristic model.
  • the learning content providing system 50 gives weight to problem 1 first and then gives weight to problem 2 in the order of 50
  • the weights can be assigned sequentially up to the first problem.
  • the learning content providing system 50 may assign a weight to the user characteristic model based on the degree of influence on the prediction of the correct answer probability, opposite to the order of the problems input to the user characteristic model.
  • the learning content providing system 50 may give weights sequentially from the 50th problem to the 1st problem in the order of giving weights to the 49th problem next.
  • the order of the problems input to the user characteristic model may be the order in which the user solves the problems. Whenever a user solves a problem, information on the solution result of the problem may be transmitted to the user characteristic model in real time. Based on this, the probability of correct answers to the next question to be provided to the user can be predicted in real time.
  • the order of the problems input to the user characteristic model may be the order in which the manager inputs the previously accumulated problem information and the solution result information in an arbitrary order to learn artificial intelligence.
  • the user characteristic model according to various algorithms The order of the problems to be input to can be determined.
  • the learning content recommendation system and its operating method for providing user-customized learning content as described above can be applied to the online education service field.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은, 특정 문제에 대한 사용자의 정답 확률을 보다 높은 정확도로 예측하고, 보다 증가된 효율성을 가지는 학습 컨텐츠를 제공하기 위한 발명으로, 사용자에게 복수의 문제들에 관한 정보를 포함하는 문제 정보를 전송하는 단계, 상기 복수의 문제들에 대한 사용자의 응답에 관한 풀이 결과 정보를 수신하는 단계 및 상기 문제 정보와 상기 풀이 결과 정보를 기초로 사용자 특성 모델을 학습시키는 단계를 포함하고, 상기 사용자 특성 모델을 학습시키는 단계는, 상기 사용자 특성 모델에 입력되는 문제 순서에 따라, 정답 확률에 영향을 미치는 정도에 기초하여 상기 사용자 특성 모델에 가중치를 부여하는 단계를 포함하는 것을 특징으로 한다.

Description

인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법
본 발명은 인공지능 모델을 이용하여 사용자 특성 모델을 학습하고, 학습된 사용자 특성 모델을 기초로 사용자 맞춤형 학습 컨텐츠를 제공하기 위한 학습 컨텐츠 추천 시스템 및 그것의 동작 방법에 관한 것이다.
최근 4세대 인공 지능(Artificial Intelligence, AI)의 대표 기법이면서 머신 러닝(machine learning)의 한 분야인 딥러닝(deep learning)이 대두되고 있다. 이러한 딥러닝에서는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), LSTM(Long Short Term Memory) 방식의 신경망 등의 단일 망인 신경망을 활용하여 예측 데이터의 추론을 수행한다. 특히 RNN의 경우 다양한 형태의 정보를 사용하여 인공신경망을 학습시킨 후 학습 결과를 사용하여 데이터 예측을 수행한다. 그러나 오래전에 학습된 정보를 잃어버려서 결과적으로 데이터 예측이 제대로 수행되지 않는 문제가 있었다. 이러한 RNN의 단점을 해결하기 위해 LSTM 방식의 신경망이 사용되기 시작하였다.
LSTM은 피드백 연결을 가지며, 단일 데이터뿐만 아니라 전체 데이터 시퀀스도 처리할 수 있다. LSTM에서는 가장 최근에 입력된 데이터를 처리할 때 그 이전에 입력된 데이터들의 처리값들 역시 입력받기 때문에 시퀀스 데이터의 장기 기억을 처리하는데 적합하다. LSTM에서는 출력 결과를 예측하는 매 시점마다 전체 입력 데이터의 처리값들을 다시 참고하는데, 출력 결과와 연관된 데이터에 집중(attention, 어텐션, 가중치)한다. 이러한 학습 과정을 통해 인공 신경망의 각 노드 간의 가중치를 조절하며 원하는 추론 결과를 획득할 수 있도록 인공 신경망이 학습될 수 있다.
종래 전술한 CNN, RNN, LSTM 등 다양한 형태의 인공지능 모델들이 다양한 분야에서 원하는 추론값을 얻기 위해 사용되었다. 그러나, 사용자에게 제공할 수 있는 학습 문제와 이에 대한 사용자의 응답 수가 한정되어 있기 때문에, 학습 문제와 사용자 응답 쌍의 데이터 시퀀스 효율을 극대화하여 학습 컨텐츠와 사용자의 상호 작용을 효율적으로 모델링 하는 것이 핵심인 교육 분야에서, 최적의 인공지능 모델이 무엇인지, 입력되는 데이터 포맷을 어떻게 구성할 경우 보다 높은 정확도로 예측할 수 있는지에 관한 구체적인 연구가 부족한 문제가 있었다.
전술한 문제를 해결하기 위해, 본 발명의 실시 예에 따른 학습 컨텐츠 추천 방법은, 교육 분야에 가중치(attention) 개념을 가지는 양방향 LSTM 구조의 인공지능 모델을 도입하여, 사용자가 풀이한 문제 및 상기 문제의 응답을 기초로 정답 확률 예측에 영향을 미치는 정도에 따라 포워드 시퀀스 및 백워드 시퀀스로 가중치를 부여하여 인공신경망을 학습시킴으로써, 보다 높은 정확도로 특정 문제에 대한 사용자의 정답 확률을 예측할 수 있다.
또한 본 발명의 실시 예에 따른 학습 컨텐츠 추천 방법은, 동적으로 유저의 상태를 업데이트하기 어려운 문제를 해결하기 위해, 유저가 풀이한 문제 및/또는 유저가 풀이한 문제의 문제 풀이 결과만 가지고 유저의 상태를 정의할 수 있다.
또한 본 발명의 실시 예에 따른 학습 컨텐츠 추천 방법은, 새로운 학습 컨텐츠를 만들기 어렵고 비싼 교육 분야에서, 어텐션(attention)을 사용한 복습 문제 추천 방식을 도입하여 학습 효율을 높일 수 있는 효과가 있다.
본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템의 동작 방법은, 특정 문제에 대한 사용자의 정답 확률을 보다 높은 정확도로 예측하고, 보다 증가된 효율성을 가지는 학습 컨텐츠를 제공하기 위한 발명으로, 사용자에게 복수의 문제들에 관한 정보를 포함하는 문제 정보를 전송하는 단계, 상기 복수의 문제들에 대한 사용자의 응답인 풀이 결과 정보를 수신하는 단계 및 상기 문제 정보와 상기 풀이 결과 정보를 기초로 사용자 특성 모델을 학습시키는 단계를 포함하고, 상기 사용자 특성 모델을 학습시키는 단계는, 상기 사용자 특성 모델에 입력되는 문제 순서에 따라, 정답 확률에 영향을 미치는 정도에 기초하여 상기 사용자 특성 모델에 가중치를 부여하는 단계를 포함한다.
본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템은, 복수의 문제들에 관한 정보인 문제 정보, 상기 복수의 문제들에 대한 사용자의 응답인 풀이 결과 정보 또는 학습 컨텐츠를 저장하는 학습 정보 저장부, 상기 문제 정보와 상기 풀이 결과 정보를 기초로 사용자 특성 모델을 학습시키는 사용자 특성 모델 학습 수행부를 포함하고, 상기 사용자 특성 모델 학습 수행부는, 상기 사용자 특성 모델에 입력되는 문제 순서에 따라, 정답 확률에 영향을 미치는 정도에 기초하여 상기 사용자 특성 모델에 가중치를 부여하는 단계를 포함한다.
본 발명은 사용자가 풀이한 문제 및 상기 문제의 응답을 포워드 시퀀스 및 백워드 시퀀스로 가중치를 부여한 양방향 LSTM 구조의 인공지능 모델을 통해, 제한된 문제 정보와 사용자의 응답 정보만으로도 특정 문제에 대한 사용자의 정답 확률을 보다 높은 정확도로 예측할 수 있는 효과가 있다. 나아가 본 발명은 상기 인공지능 모델을 통해 문제 벡터를 문제의 특성이 보다 잘 반영되도록 표현할 수 있어, 문제 벡터로부터 해당 문제의 특성을 해석하기 용이한 효과가 있다.
또한, 본발명을 따르면 교육 도메인에서 가중치 개념을 도입하고, 문제 가중치를 사용자가 풀지 않은 문제에 대한 정답 확률 예측에 영향을 준 상기 사용자가 풀이한 문제 데이터의 중요도 분포로 정의하여, 학습 컨텐츠를 사용자가 자주 틀리는 문제에 대응되는 문제 벡터의 유사성이 아닌 정답 확률을 예측하는데 높은 영향을 준 문제를 기초로 추천함으로써, 보다 증가된 효율성을 가지는 학습 컨텐츠를 제공할 수 있는 효과가 있다.
나아가 본 발명은 양방향 LSTM 구조의 인공지능 모델을 통해 추상화되어 표현된 문제 벡터를 해석하는 방법을 제공할 수 있고, 유저의 상태를 유저가 풀이한 문제 및/또는 유저가 풀이한 문제의 문제 풀이 결과만으로 정의하여 동적으로 유저의 상태를 업데이트하기 어려운 문제를 해결할 수 있으며, 새로운 학습 컨텐츠를 만들기 어렵고 비싼 교육 분야에서, 어텐션(attention)을 사용한 복습 문제 추천 방식을 도입하여 학습 효율을 높일 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 학습 컨텐츠 추천 시스템의 동작을 상세하게 설명하기 위한 도면이다.
도 3은 본 발명의 실시 예에 따른, 문제 정보를 연산하여 추천할 문제를 결정하는 동작을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른, 가중치가 부여된 풀이 결과 정보와 태그 매칭 비율의 상관 관계를 설명하기 위한 도면이다.
도 5는 본 발명의 실시 예에 따른, 학습 컨텐츠 추천 시스템의 동작을 설명하기 위한 순서도이다.
도 6은 도 5의 S505 단계를 상세하게 설명하기 위한 도면이다.
본 명세서 또는 출원에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 내지 단계적 설명들은 단지 본 발명의 개념에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 별명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서 또는 출원에 설명된 실시 예들에 한정되는 것으로 해석되어서는 아니 된다.
본 발명의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 서술된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
실시 예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 학습 컨텐츠 추천 시스템(50)은 사용자 특성 모델 학습 수행부(100), 학습 정보 저장부(200) 및 학습 컨텐츠 제공부(300)을 포함할 수 있다.
본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템(50)은, 사용자에게 문제를 제공하고, 이에 대한 사용자의 풀이 결과 정보를 수신할 수 있다. 문제 정보와 해당 문제에 대한 풀이 결과 정보는 매칭되어 학습 정보 저장부(200)의 사용자 학습 정보 저장부(230)에 저장될 수 있다.
종래 학습 컨텐츠를 제공하기 위한 플랫폼들은 사용자들과 학습 문제들의 연관관계를 분석하기 위해 협업 필터링(Collaborative filtering)을 사용하였다. 협업 필터링은 플랫폼 사용자의 모든 사용 기록 및 소비 기록을 입력시켜 그것을 근거로 불필요한 정보를 필터링해주는 기술이다.
협업 필터링에서는, 특정 사용자의 모든 문제 풀이 결과를 기초로 사용자 특성 모델을 학습(training)하며, 새로운 문제 또는 사용자의 풀이 결과 정보가 추가될 때마다 사용자 특성 모델을 다시 학습(re-training)시키는 방법으로 사용자 특성 모델을 학습시켜왔다. 그러나, 이러한 협업 필터링을 사용한 방법은 새로운 정보가 추가될 때마다 모델을 재학습해야 하므로 실시간 사용자 특성 모델링에 적합하지 않은 문제가 있다.
또한, 인공지능 모델이 최적의 정확도를 가지도록 학습시키기 위해서는 가능한 많은 양의 문제 정보와 이에 대한 사용자의 풀이 결과 정보가 필요하다. 협업 필터링은 기존에 수집된 개개인의 사용자 학습 정보를 기초로, 같은 성향이나 특징을 가진 사용자는 비슷한 선택을 할 것이라는 가정에서 출발한다. 따라서, 해당 사용자의 사용자 학습 정보가 충분히 없는 초기에는 학습 컨텐츠를 제대로 추천할 수 없는 문제가 있다.
늘어나는 사용자 수에 비해 사용자에게 제공되는 문제는 제한적일 수밖에 없다. 따라서, 한정된 수의 문제와 이에 대한 사용자의 응답을 통해 사용자 특성 모델을 학습시키는 것은 사용자의 개별 특성을 분석하기 위해 반드시 풀어야할 숙제이다. 사용자 학습 정보는 특정 문제에 대한 사용자의 풀이 결과 정보, 사용자의 예상 점수, 취약한 문제 유형에 관한 정보, 특정 사용자에게 최적의 학습 효율을 가지는 학습 컨텐츠에 관한 정보 등을 포함할 수 있다.
학습 컨텐츠 추천 시스템(50)은 사용자 개개인의 사용자 학습 정보를 모두 알고 있어야만 학습 컨텐츠의 추천이 가능한 협업 필터링과 다르게, 이미 학습을 수행한 다른 사용자들의 방대한 사용자 학습 정보를 기초로 사용자 특성 모델을 학습시킨 후, 이를 통해 신규 유입된 사용자에게 최소한의 진단 문제 풀이만으로 최적화된 학습 컨텐츠를 제공할 수 있다.
구체적으로, 본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템(50)은 사용자가 풀이한 문제들의 벡터를 가지고 사용자 벡터를 생성할 수 있기 때문에, 사전에 학습된 사용자 벡터가 없어도 실시간으로 개개인의 사용자 학습 정보에 대한 사용자 벡터를 만들 수 있다. 반면, 협업 필터링은 정답 확률을 예측하기 위해 사전에 사용자 개개인의 사용자 벡터가 필요하기 때문에 새로운 사용자가 유입될 때마다 사용자 벡터를 생성하기 위해 새로운 학습을 수행해야 하는 비효율성이 있다.
이처럼 본 발명의 실시 예에 따른 사용자 모델링은 사용자가 풀이한 문제 및/또는 사용자가 풀이한 문제의 문제 풀이 결과만을 가지고 유저의 상태를 정의하기 때문에, 기존에 동적으로 유저의 상태를 업데이트하기 어려운 문제를 해결할 수 있다. 이러한 사용자 모델링에는 다양한 방법이 사용될 수 있는데, 일 실시 예로 사용자가 특정 시점에 사용자가 풀이한 문제를 나타내는 문제 벡터(또는 풀이한 문제 풀이 순서로 표현되는 문제 벡터)를 상기 문제의 풀이 결과를 나타내는 문제 풀이 결과 벡터와 내적하여 생성하거나, 사용자의 정오답 여부를 보다 정확하게 반영할 수 있도록 조정된 가중치를 문제 벡터와 내적하여 생성할 수 있다. 이는 예시일 뿐이며 문제 풀이 결과만 가지고 사용자 벡터를 생성하는 방법은 실시 예에 따라 다양할 수 있다.
본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템(50)은, 협업 필터링과 달리 사용자의 특성을 표현하기 위하여 시간 지수를 추가할 수 있다. 예를 들어, 학습 컨텐츠 추천 시스템(50)은 종래 자연어 처리 분야에서 사용되던 양방향 LSTM 기반의 인공지능 모델을 교육 도메인에 적용하여 문제 및 사용자 모델을 생성할 수 있다.
구체적으로, 본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템(50)은, 해당 사용자의 문제 풀이 시퀀스를 임베딩하여 사용자 벡터를 생성할 수 있으며, 순방향 및 역방향으로 LSTM 기반의 인공지능 모델을 학습시켜 신규 사용자가 유입될 때마다 사용자 특성 모델을 새롭게 학습시킬 필요 없이, 소량의 데이터만으로도 신규 사용자에게 가장 효율적인 학습 컨텐츠를 제공할 수 있다.
양방향 LSTM 구조의 인공지능 모델에서는, 인공지능 모델을 포워드 시퀀스로 사용자가 현재 문제 풀이한 순서대로 학습시키는 동시에 백워드 시퀀스로 사용자의 문제 풀이 순서와 반대로 학습시킴으로써, 특정 문제의 정오답 여부를 풀이시점 이후의 문제 풀이 결과와 연관시켜 분석할 수 있다.
예를 들어, 사용자가 과거에 5번 문제를 틀린 경우, 현재 10번 문제를 틀린 이유가 10번 문제와 유사한 유형을 가지는 5번 문제를 틀린 이유과 상관관계가 있기 때문이라고 해석할 수도 있고, 반대로 사용자가 과거에 5번 문제를 틀렸는데, 5번 문제를 틀린 이유가 현재 10번 문제를 틀린 이유와 상관관계가 있기 때문이라고 해석할 수도 있다.
교육 분야에서 1번부터 시작되는 문제 순서는 출제자가 임의로 결정한 것으로, 사용자의 학습 수준을 정확히 파악하고 최적의 학습 효율을 가지는 컨텐츠를 제공하기 위해서는 모든 문제에 대한 사용자의 풀이 결과를 종합적으로 분석할 필요가 있다.
양방향 LSTM 구조의 인공신경망 모델은 사용자가 과거에 풀이한 문제를 현재 풀이한 문제 풀이 결과를 가지고 분석할 수 있기 때문에 한정된 문제 개수를 가지는 교육 도메인 환경에서 보다 효율적으로 사용자의 학습 수준을 파악할 수 있다.
양방향 LSTM 구조의 인공지능 모델을 사용하면 새로운 학습 컨텐츠를 만들기 어렵고 비싼 교육 분야에서 한정된 학습 컨텐츠만을 가지고 학습 효율을 극대화시킬 수 있다. 특히 본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템(50)은 어텐션 개념을 도입하여 정답 확률 예측에 영향을 미치는 정도에 따라 문제 정보에 가중치를 부여하여 복습 문제를 결정하기 때문에 보다 높은 정확도로 복습 문제를 결정할 수 있다.
나아가 특정 문제의 정오답 여부를 풀이시점 이후의 문제 풀이 결과와 연관시켜 분석할 수 있기 때문에 한정된 학습 컨텐츠로도 사용자가 자주 틀리거나 취약한 문제 유형을 보다 정확히 파악하고 재학습이 필요한 복습 문제를 추천할 수 있다. 정답 확률 예측에 미치는 영향이 높은 문제는 사용자가 자주 틀리는 문제(또는 문제유형), 동일한 유형의 문제이지만 사용자가 맞추는 빈도가 일정하지 않은 문제, 사용자가 잘 틀리지 않는 문제(또는 문제유형)을 포함할 수 있다.
사용자 특성 모델 학습 수행부(100)는 다수의 사용자에게 제공된 복수의 문제 정보와 이에 대한 사용자의 풀이 결과 정보를 매칭시킨 일련의 정보를 기초로 사용자 특성 모델을 학습시킬 수 있다. 사용자 특성 모델의 학습은 정답 확률 예측에 영향을 미치는 정도에 따라 문제 정보에 가중치를 부여하는 동작일 수 있다.
예를 들어, 사용자가 자주 틀리는 문제 유형은 사용자의 총점을 감소시키는 중요 유형의 문제일 수 있다. 이러한 문제는 가중치가 높게 부여되고, 이후 비슷한 문제 유형을 가지는 새로운 문제에 대해서 사용자의 정답 확률이 낮을 것으로 예측될 수 있다.
실시 예에서, 사용자가 잘 틀리지 않는 문제 유형은 사용자의 총점을 증가시키는 또 다른 의미의 중요 유형의 문제일 수 있다. 실시 예에 따라, 이러한 문제에 가중치가 높게 부여될 수도 있으며, 이후 비슷한 문제 유형을 가지는 새로운 문제에 대해서 사용자의 정답 확률이 높을 것으로 예측될 수 있다.
또 다른 실시 예에서, 동일한 유형의 문제이지만 사용자가 맞추는 빈도가 일정하지 않은 문제에도 가중치가 높게 부여될 수 있다. 이는 사용자는 해당 문제 유형에 대해 확립된 개념을 가지고 있지 못할 수 있기 때문이다. 이외에도 다양한 알고리즘에 따라 풀이 결과 정보에 가중치가 부여될 수 있다.
학습 정보 저장부(200)는 학습 컨텐츠 정보 저장부(210), 문제 정보 저장부(210), 사용자 학습 정보 저장부(230)를 포함할 수 있다.
학습 컨텐츠 정보 저장부(210)는 강의 또는 문제에 대한 설명 등을 텍스트, 동영상, 그림, 음성 등 다양한 방식으로 저장하고 있을 수 있다. 학습된 사용자 특성 모델에 기초하여 사용자에게 맞춤형 학습 컨텐츠가 제공될 때, 학습 컨텐츠 정보 저장부(210)는 학습 컨텐츠 제공부(300)의 요청에 응답하여 학습 컨텐츠 정보를 제공할 수 있다. 학습 컨텐츠 정보 저장부(210)는 관리자의 학습 컨텐츠 추가 또는 삭제에 따라 주기적으로 업데이트 되어 관리될 수 있다.
문제 정보 저장부(220)는 사용자에게 제공될 다양한 유형의 문제들을 저장하고 있을 수 있다. 문제 정보 저장부(220)는 사용자 특성 모델을 학습시키기 위해 사용자에게 제공되는 문제뿐만 아니라, 학습이 완료된 사용자 특성 모델을 기초로 최적의 학습 컨텐츠를 결정할 때, 사용자가 풀어보면 가장 도움이 될 것으로 예측되는 문제들을 저장할 수 있다.
사용자 학습 정보 저장부(230)는 특정 문제에 대한 사용자의 풀이 결과 정보를 저장할 수 있다. 나아가, 사용자 학습 정보 저장부(230)는 풀이 결과 정보를 기초로 사용자 특성 모델을 통해 예측된 해당 사용자의 예상 점수, 취약한 문제 유형에 관한 정보, 가장 학습 효율이 좋은 학습 컨텐츠에 관한 정보 등을 저장할 수 있다.
사용자 학습 정보는 사용자 특성 모델이 학습될 때마다 사용자의 변화되는 실력을 반영하여 업데이트 될 수 있다. 또한, 신규 사용자가 유입되면 신규 사용자의 풀이 결과 정보를 분석하여 사용자 학습 정보 저장부(230)에 추가로 저장할 수 있다.
학습 컨텐츠 제공부(300)는 사용자 특성 모델 학습 수행부(100)의 학습 결과에 따라 특정 사용자의 특정 문제에 대한 정답 확률을 예측하고, 이를 기초로 최적의 효율을 가지는 학습 컨텐츠를 제공할 수 있다.
본 발명의 실시 예에 따른 학습 컨텐츠 추천 시스템(50)에 따르면, 양방향 LSTM 구조의 인공지능 모델을 통해 제한된 문제 정보와 사용자의 응답 정보만으로도 특정 문제에 대한 사용자의 정답 확률을 보다 높은 정확도로 예측할 수 있는 효과가 있다.
또한, 학습 컨텐츠를 단순히 사용자가 자주 틀리는 문제에 대응되는 벡터의 유사성이 아닌, 정답 확률을 예측하는데 높은 영향을 준 문제(가중치가 높게 부여된 문제)를 기초로 추천함으로써, 보다 증가된 효율성을 가지는 학습 컨텐츠를 제공할 수 있는 효과가 있다.
도 2는 도 1의 학습 컨텐츠 추천 시스템(50)의 동작을 상세하게 설명하기 위한 도면이다.
도 2를 참조하면, 사용자 특성 모델의 학습은 양방향 LSTM 기반의 인공지능 모델을 통해 수행될 수 있다. 양방향 LSTM 구조의 인공지능 모델에서는, 사용자가 풀이한 문제(Question)와 상기 문제(Question)에 대한 사용자의 응답(Response)이 학습 데이터(410)로서 임베딩되어 입력된 후 포워드 시퀀스 및 백워드 시퀀스로 인공지능 모델의 학습에 사용될 수 있다.
구체적으로, 문제와 해당 문제에 대한 응답은 매칭되어 학습 데이터(410)로서 인공지능 모델에 입력될 수 있다. 학습 데이터(410)는 벡터로 표현된 사용자가 이미 풀이한 문제와 해당 문제에 대한 응답으로 구성될 수 있다. 이후, 임의의 사용자가 아직 풀이하지 않은 문제(420)가 입력되면, 사용자 특성 모델은 해당 문제에 대해 가중치에 따른 추론(inference) 과정을 통해 정답 확률(Output)을 예측할 수 있다.
이때, 문제 정보와 풀이 결과 정보는 임베딩 레이어(430)를 통해 수치화되어 표현될 수 있다. 임베딩은 사용자가 입력한 표현이나 형태가 다르더라도, 연관성을 계산, 수치를 통해 이를 나타내면서 단어, 문장, 글의 의미를 작성하는 동작일 수 있다.
학습 데이터(410)와 풀이하지 않은 문제(420)가 임베딩 레이어(430)에서 임베딩된 후 LSTM 레이어(440)에 입력될 수 있다. LSTM 레이어(440)는 정답 확률에 영향을 미치는 정도에 따라 학습 데이터(410)마다 서로 다른 가중치를 반영하여 인공지능 모델을 학습시키는 동작을 수행할 수 있다.
학습 컨텐츠 추천 시스템(50)은 사용자의 특성을 표현하기 위하여 시간 지수를 추가하여 학습 및 추론 과정을 수행할 수 있다. 구체적으로, 문제 정보와 풀이 결과 정보는 사용자 특성 모델에 입력되는 문제 순서(Forward)에 따라 인공지능 모델에서 학습될 수 있다. 학습은 특정 문제에 대한 사용자의 풀이 결과 정보마다, 정답 확률에 영향을 미치는 정도에 기초하여 서로 다른 가중치를 부여하는 동작일 수 있다.
또한, 인공지능 모델의 학습은 사용자 특성 모델에 입력되는 문제 순서와는 반대로(Backward) 수행될 수 있다. 이때, 반드시 순방향(Forward)으로 먼저 학습이 수행되고 난 후 그와 반대 방향(Backward)으로 학습되는 것이 아니라, 순방향 및 역방향 학습이 동시에 수행될 수 있다.
도 2에서, 가중치는 학습 데이터(410)가 입력되는 순서(Forward)에 따라 복수의 포워드 LSTM 셀(441, 442, 443)을 거치면서 조절될 수 있고, 학습 데이터(410)가 입력되는 순서와 반대로(Backward) 복수의 백워드 LSTM 셀(444, 445, 446)을 거치면서 조절될 수 있다.
사용자 특성 모델에 입력되는 문제의 순서는 사용자가 문제를 풀이하는 순서일 수 있다. 사용자가 문제를 풀이할 때마다 실시간으로 사용자 특성 모델에 해당 문제의 풀이 결과 정보가 전달될 수 있다. 이를 기초로 다음에 사용자에게 제공될 문제에 대한 정답 확률을 실시간으로 예측할 수 있다.
다만, 사용자 특성 모델에 입력되는 문제의 순서는 관리자가 인공지능을 학습시키기 위해 기존에 축적된 문제 정보와 풀이 결과 정보를 임의의 순서로 입력하는 순서일 수도 있으며, 이외에도 다양한 알고리즘에 따라 사용자 특성 모델에 입력되는 문제 순서가 결정될 수 있다.
풀이 결과 정보를 반영하여 학습이 완료된 이후, 사용자 특성 모델은 고정된 가중치를 가질 수 있다. 이후, 새로운 문제, 즉 임의의 사용자가 풀이하지 않은 문제(420)가 입력되면, 사용자 특성 모델은 가중치에 따른 추론(inference) 과정을 통해 새로운 문제에 대한 사용자의 정답 확률(Output)을 예측할 수 있다.
이상, 양방향 LSTM 방식의 인공지능 모델을 기초로 특정 문제에 대한 사용자의 정답 확률을 예측하는 것을 설명하였지만, 이에 한정되지 않고 RNN, 단방향 LSTM, 트랜스포머, CNN 등 다양한 인공지능 모델이 사용될 수 있다.
도 3은 본 발명의 실시 예에 따른, 태그 매칭 비율을 이용해 문제 벡터를 해석하고, 추천할 문제를 결정하는 동작을 설명하기 위한 도면이다.
도 3을 참조하면, 예시1(Example 1)은 세 개의 문제(question11305, question9420, question3960)를 조합하여 임의의 문제(question10301)를 해석하는 과정을 도시하고, 예시2(Example 2)는 다른 세 개의 문제(question10365, question4101, question1570)를 조합하여 임의의 문제 (question2385)을 해석하는 과정을 도시하고 있다.
실시 예에서, 각각의 문제는 to부정사, 관사, 동명사 등 어떤 주제의 문제에 관한 것인지, 문법, 시제, 어휘, 듣기와 같은 문제의 유형, 핵심이 되는 단어, 이메일, 기사, 편지, 공문서와 같은 지문의 형식 등을 해당 문제에 태그하는 방식으로 저장될 수 있다.
예시1을 보면, 문제 11305 (question11305)는 double document, email form, announcement, inference, implication의 다섯 가지 태그를, 문제 9420 (question9420)는 double document, email form, detail의 세 가지 태그를, 문제 3960 (question3960)는 single document, announcement, detail의 세 가지 태그를 포함할 수 있다.
이때, 문제 11305 (question11305)의 태그에서 문제 9420 (question9420)의 태그를 빼고, 문제 3960 (question3960)의 태그를 더하면, 결론적으로 single document, announcement, inference, implication, detail의 다섯 가지 태그가 추출될 수 있을 것이다.
한편 본 발명의 실시예를 따르는 양방향 LSTM 기반의 인공지능 모델을 통해 문제 11305, 9420, 3960을 문제 벡터 11305, 9420, 3960으로 표현할 수 있다. 이후 "문제 벡터 11305 - 문제 벡터 9420 + 문제 벡터 3960"을 연산하면 임의의 벡터값이 나올 것이다. 이때 연산한 벡터값과 코사인 유사성이 높은 벡터 값을 가지는 문제 10301 (question10301)의 태그를 확인할 수 있다. 결과적으로 문제 10301의 태그(즉, single document, announcement, inference, implication)는 "문제 11305의 태그 - 문제 9420의 태그 + 문제 3960의 태그"인 single document, announcement, inference, implication, detail와 유사한 형태로 확인될 것이다. 이는 본 발명의 실시예를 따르는 인공지능 모델이 문제의 특성을 보다 잘 반영하도록 문제 벡터를 표현하기 때문이다.
이러한 특성을 이용하면 문제 벡터를 이용하여 해당 문제의 특성을 인간이 이해할 수 있는 형태로 해석할 수 있는 효과가 있다. 문제의 특성을 해석하여 사람이 인식할 수 있는 형태의 태그로 표현하는 것은 전문가의 수작업이 필요하기 때문에 많은 비용이 들고, 태그 정보가 사람의 주관에 의존하여 신뢰도가 낮다. 그러나 다수의 문제 벡터를 조합한 벡터값과 유사한 벡터값을 가지는 문제에 상기 다수의 문제의 태그를 조합한 결과를 태깅하는 방식으로 문제의 태그 정보를 생성하면 전문가 의존도가 낮아지고, 태그 정보의 정확도가 올라가는 효과가 있다.
나아가 문제 10301 (question10301)은 위 다섯 가지 태그(즉, single document, announcement, inference, implication, detail)로부터 추출된 문제를 나타낼 수 있다. 문제 정보 저장부(220)는 많은 문제를 저장하고 있으나, 수많은 태그들의 조합을 모두 포함하는 문제가 존재하는 것은 현실적으로 불가능할 수 있다. 예시 1에서 문제 10301 (question10301)은 상기 다섯 가지 태그(즉, single document, announcement, inference, implication, detail)와 가장 유사도가 높은 문제일 수 있다. 유사도가 가장 높은 문제는 태그 매칭 비율이 미리 설정된 값보다 큰 문제들 중에서 결정될 수 있다.
마찬가지로, 예시 2를 보면, 문제 10365 (question10365)는 single document, email form, true, NOT/true의 네 가지 태그를, 문제 4101 (question4101)은 single document, email form, inference의 세 가지 태그를, 문제 1570 (question1570)은 direct question, when, true의 세 가지 태그를 포함할 수 있다.
이때, 문제 10365 (question10365)의 태그에서 문제 4101(question4101)의 태그를 빼고, 문제 1570 (question1570)의 태그를 더하면, 결론적으로 direct question, when, true, NOT/true의 네 가지 태그가 추출될 수 있다.
한편 본 발명의 실시예를 따르는 양방향 LSTM 기반의 인공지능 모델을 통해 문제 10365, 4101, 1570을 문제 벡터 10365, 4101, 1570으로 표현할 수 있다. 이후 "문제 벡터 10365 - 문제 벡터 4101 + 문제 벡터 1570"을 연산하면 임의의 벡터값이 나올 것이다. 이때 연산한 벡터값과 코사인 유사성이 높은 벡터 값을 가지는 문제 2385 (question2385)의 태그를 확인할 수 있다. 결과적으로 문제 2385의 태그(즉, direct question, when, true, when vs. where)는 "문제 10365의 태그 - 문제 4101의 태그 + 문제 1570의 태그"인 direct question, when, true, NOT/true과 유사한 형태로 확인될 것이다.
나아가 문제 2385 (question2385)는 위 네 가지 태그(즉, direct question, when, true, NOT/true)로부터 추출된 문제를 나타낼 수 있다. 문제 정보 저장부(220)는 많은 문제를 저장하고 있으나, 수많은 태그들의 조합을 모두 포함하는 문제가 항상 존재하는 것은 현실적으로 불가능할 수 있다. 문제 2385 (question2385)는 상기 네 가지 태그(즉, direct question, when, true, NOT/true)와 가장 유사도가 높은 문제일 수 있다.
예시1과 예시2에서 추천된 문제는 추출된 태그들과 가장 유사도가 높은 문제일 수 있다. 이때, 유사도가 높은 문제를 결정하는 방법은 태그 매칭 비율이 가장 높은 문제를 검색하는 방법 또는 가중치가 높게 부여된 문제를 검색하는 방법으로 수행될 수 있다.
우선, 태그 매칭 비율은 사용자가 이미 푼 문제에 포함된 태그와 다음에 제공될 문제에 포함된 태그의 교집합을 다음에 제공될 문제에 포함된 태그의 수로 나눈 값일 수 있다. 태그 매칭 비율이 높은 문제일수록 사용자가 맞춘 문제에 포함되는 태그들은 효과적으로 제거하고, 틀린 문제들에 포함된 태그들을 보다 정확하게 반영한 문제일 수 있다.
또한, 각 문제에 포함된 태그들은 태그 매칭 비율을 연산하기 위해서 뿐만 아니라, 인공지능 모델에 부여될 가중치를 결정하는 데에도 사용될 수 있다. 사용자의 풀이 결과 정보는 특정 문제 또는 개별 태그에 대한 사용자의 정답 확률로 해석될 수 있다.
사용자 특성 모델에 가중치가 부여될 때, 각 문제에 포함된 태그들마다 상이한 가중치가 부여될 수 있으며, 이를 통해 가중치가 높게 부여된, 즉 정답 확률이 낮은 특정 태그들을 다수 포함하는 문제를 검색하는 방법으로 추천 문제를 결정할 수 있다.
도 4는 본 발명의 실시 예에 따른, 가중치가 부여된 문제 정보와 태그 매칭 비율의 상관 관계를 설명하기 위한 도면이다. 본 발명의 실시예를 따르면, 문제 어텐션 (가중치, attention)은 사용자가 풀지 않은 문제에 대한 정답 확률 예측에 영향을 준 상기 사용자가 풀이한 문제 데이터의 중요도 분포로 정의할 수 있다.
도 4를 참조하면, 임의의 문제에 대한 정답 확률 예측에 가중치(attention)가 높게 부여된 문제 정보는 짙은 파란색으로, 상기 임의의 문제와 태그 매칭 비율(tag matching ratio)이 높은 문제 정보는 짙은 초록색으로 도시되어 있다.
0부터 49까지의 숫자는 풀이된 문제의 번호를 나타낼 수 있다. 다만, 실시 예에 따라 각각의 번호는 하나 이상의 문제에 포함된 태그를 나타낼 수도 있다.
가중치와 태그 매칭 비율은 0과 1 사이의 값을 가질 수 있으며, 모든 가중치의 합과 모든 태그 매칭 비율의 합은 각각 1의 값을 갖는다. 가중치와 태그 매칭 비율이 다른 문제보다 비교적 높게 반영된 부분은 점선 모양의 경계선(41, 42, 43)으로 도시되어 있다.
경계선(41)을 보면, 11~15번 문제는 가중치가 높게 반영되어 정답 확률에 큰 영향을 미치는 문제들이라고 판단된 문제일 수 있다. 이때, 태그 매칭 비율도 높은 값을 갖는 결과를 확인할 수 있다.
경계선(42)을 보면, 8~15번 문제는 가중치가 높게 반영되어 정답 확률에 큰 영향을 미치는 문제들이라고 판단된 문제일 수 있다. 이때도 마찬가지로, 태그 매칭 비율 또한 높은 값을 가짐을 알 수 있다.
경계선(43)을 보면, 37~49번 문제는 가중치가 높게 반영되어 정답 확률에 큰 영향을 미치는 문제들이라고 판단된 문제일 수 있다. 이때도 마찬가지로, 태그 매칭 비율 또한 높은 값을 가짐을 알 수 있다.
이러한 결과를 통해, 학습 컨텐츠 추천 시스템(50)은 이전에 사용자가 답변한 문제와 추천 가능한 문제 사이의 관계를 태그 매칭 비율 또는 가중치를 통해 해석함으로써, 사용자의 잠재된 학습 효율을 극대화할 수 있는 학습 컨텐츠를 선택하고 사용자에게 추천할 수 있다.
또한, 전술한 태그 매칭 비율 또는 가중치를 통해 사용자가 아직 풀지 않은 추천 문제가 결정되면, 결정된 추천 문제에 대해 높은 가중치를 가지는 문제들 중 사용자가 이미 풀어본 문제를 다시 한번 풀어볼 수 있도록 추천 문제로 결정함으로써, 사용자가 취약한 유형의 문제에 대해 효율적인 복습이 가능하도록 할 수 있다.
도 5는 본 발명의 실시 예에 따른, 학습 컨텐츠 추천 시스템(50)의 동작을 설명하기 위한 순서도이다.
도 5를 참조하면, S501 단계에서, 학습 컨텐츠 추천 시스템(50)은 다수의 학습 컨텐츠 정보와 문제 정보를 저장할 수 있다.
S503 단계에서, 학습 컨텐츠 추천 시스템(50)은 사용자의 풀이 결과 정보를 수신할 수 있다. 풀이 결과 정보는 사용자가 해당 문제를 맞혔는지 여부를 나타낼 수 있다. 나아가, 풀이 결과 정보는 사용자가 객관식 문제(Multiple Choice Question, MCQ)에 대한 복수의 보기 중 어떤 보기를 선택했는지를 나타낼 수도 있다. 사용자가 선택한 보기는 정답 또는 오답일 수 있으나, 두 경우 모두의 정보를 기초로 사용자 특성 모델을 학습시키면 사용자의 실력을 보다 정확하게 반영할 수 있기 때문이다.
문제 정보와 이에 대응되는 풀이 결과 정보는 매칭되어 저장될 수 있고, 이후 사용자 특성 모델에 입력되어 인공지능 모델의 학습에 사용될 수 있다.
S505 단계에서, 학습 컨텐츠 추천 시스템(50)은 풀이 결과 정보에 기초하여, 정답 확률에 영향을 미치는 정도에 따라 사용자 특성 모델을 학습시킬 수 있다.
사용자 특성 모델의 학습은 정답 확률 예측에 영향을 미치는 정도에 따라 문제 정보에 가중치를 부여하는 동작일 수 있다.
예를 들어, 사용자가 자주 틀리는 문제 유형은 사용자의 총점을 감소시키는 중요 유형의 문제일 수 있다. 이러한 문제는 가중치가 높게 부여되고, 이후 비슷한 문제 유형을 가지는 새로운 문제에 대해서 사용자의 정답 확률이 낮을 것으로 예측될 수 있다.
실시 예에서, 사용자가 잘 틀리지 않는 문제 유형은 사용자의 총점을 증가시키는 또 다른 의미의 중요 유형의 문제일 수 있다. 실시 예에 따라, 이러한 문제에 가중치가 높게 부여될 수도 있으며, 이후 비슷한 문제 유형을 가지는 새로운 문제에 대해서 사용자의 정답 확률이 높을 것으로 예측될 수 있다.
또 다른 실시 예에서, 동일한 유형의 문제이지만 사용자가 맞추는 빈도가 일정하지 않은 문제에도 가중치가 높게 부여될 수 있다. 이는 사용자는 해당 문제 유형에 대해 확립된 개념을 가지고 있지 못할 수 있기 때문이다. 이외에도 다양한 알고리즘에 따라 풀이 결과 정보에 가중치가 부여될 수 있다.
사용자 특성 모델의 학습(S505)은 후술되는 도 6에 대한 설명에서 자세하게 설명하도록 한다.
S507 단계에서, 학습 컨텐츠 추천 시스템(50)은 학습된 사용자 특성 모델을 기초로 특정 문제에 대한 정답 확률을 연산할 수 있다.
정답 확률을 연산하는 동작은 가중치를 기초로 수행될 수 있다. 정답 확률을 예측하고자 하는 문제가 입력되면, 해당 문제에 가중치를 적용하여 다양한 연산을 수행하는 추론 과정을 통해 정답 확률이 연산될 수 있다.
S509 단계에서, 학습 컨텐츠 추천 시스템(50)은 정답 확률을 기초로 학습 효율이 높을 것으로 예상되는 학습 컨텐츠를 제공할 수 있다.
예를 들어, 정답 확률이 낮을 것으로 예측되는 문제들과 이 문제들의 핵심 개념을 설명하는 강의, 설명 자료들을 중심으로 사용자에게 제공할 수 있다.
또한, 실시 예에 따라 학습 컨텐츠는 가중치를 기초로 연산된 정답 확률에 따라 결정되는 것이 아니라, 태그 매칭 비율이 높은 문제들이 사용자에게 제공될 수도 있다.
도 6은 도 5의 S505 단계를 상세하게 설명하기 위한 도면이다.
도 6을 참조하면, S601 단계에서, 학습 컨텐츠 제공 시스템(50)은 문제 정보와 사용자의 풀이 결과 정보를 벡터로 표현할 수 있다. 벡터로 표현된 문제 정보와 풀이 결과 정보는 임베딩되어 수치로 표현되어 인공지능 모델에 입력될 수 있다.
S603 단계에서, 학습 컨텐츠 제공 시스템(50)은 사용자 특성 모델에 입력되는 문제 순서에 따라, 정답 확률 예측에 영향을 미치는 정도에 기초하여 사용자 특성 모델에 가중치를 부여할 수 있다.
예를 들어, 1번부터 50번 까지의 문제가 순차적으로 사용자 특성 모델에 입력되었다면, 학습 컨텐츠 제공 시스템(50)은 1번 문제에 먼저 가중치를 부여하고 2번 문제에 가중치를 부여하는 순서로 50번 문제까지 차례대로 가중치를 부여할 수 있다.
S605 단계에서, 학습 컨텐츠 제공 시스템(50)은 사용자 특성 모델에 입력되는 문제 순서와 반대로, 정답 확률 예측에 영향을 미치는 정도에 기초하여 사용자 특성 모델에 가중치를 부여할 수 있다.
위의 예에서, 학습 컨텐츠 제공 시스템(50)은 50번 문제부터 가중치를 부여하고 다음에 49번 문제에 가중치를 부여하는 순서로 1번 문제까지 차례대로 가중치를 부여할 수 있다.
사용자 특성 모델에 입력되는 문제의 순서는 사용자가 문제를 풀이하는 순서일 수 있다. 사용자가 문제를 풀이할 때마다 실시간으로 사용자 특성 모델에 해당 문제의 풀이 결과 정보가 전달될 수 있다. 이를 기초로 다음에 사용자에게 제공될 문제에 대한 정답 확률을 실시간으로 예측할 수 있다.
다만, 사용자 특성 모델에 입력되는 문제의 순서는 관리자가 인공지능을 학습시키기 위해 기존에 축적된 문제 정보와 풀이 결과 정보를 임의의 순서로 입력하는 순서일 수도 있으며, 이외에도 다양한 알고리즘에 따라 사용자 특성 모델에 입력되는 문제 순서가 결정될 수 있다.
본 명세서와 도면에 게시된 본 발명의 실시 예들은 본 발명의 기술내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것뿐이며, 본 명의 범위를 한정하고자 하는 것은 아니다. 여기에 게시된 실시 예들 이외에도 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
상술한 바와 같은 사용자 맞춤형 학습 컨텐츠를 제공하기 위한 학습 컨텐츠 추천 시스템 및 그것의 동작 방법은 온라인 교육 서비스 분야에 적용하는 것이 가능하다.

Claims (8)

  1. 사용자에게 복수의 문제들에 관한 정보를 포함하는 문제 정보를 전송하는 단계;
    상기 복수의 문제들에 대한 사용자의 응답인 풀이 결과 정보를 수신하는 단계; 및
    상기 문제 정보와 상기 풀이 결과 정보를 기초로 사용자 특성 모델을 학습시키는 단계;를 포함하고,
    상기 사용자 특성 모델을 학습시키는 단계는,
    상기 사용자 특성 모델에 입력되는 문제 순서에 따라, 정답 확률에 영향을 미치는 정도에 기초하여 상기 사용자 특성 모델에 가중치를 부여하는 단계를 포함하는 학습 컨텐츠 추천 시스템의 동작 방법.
  2. 제1항에 있어서, 상기 사용자 특성 모델을 학습시키는 단계는,
    상기 사용자 특성 모델에 입력되는 문제 순서와 반대로, 정답 확률에 영향을 미치는 정도에 기초하여 상기 사용자 특성 모델에 가중치를 부여하는 단계를 포함하는 학습 컨텐츠 추천 시스템의 동작 방법.
  3. 제1항에 있어서, 상기 문제 정보는,
    어떤 주제의 문제에 관한 것인지, 문제 유형, 핵심이 되는 단어, 지문의 형식에 관한 태그 정보를 포함하는 학습 컨텐츠 추천 시스템의 동작 방법.
  4. 제1항에 있어서,
    상기 사용자 특성 모델을 기초로 특정 문제에 대한 정답 확률을 연산하는 단계; 및
    상기 연산된 정답 확률을 기초로, 학습 효율이 다른 학습 컨텐츠보다 높을 것으로 예상되는 학습 컨텐츠를 제공하는 단계를 더 포함하는 학습 컨텐츠 추천 시스템의 동작 방법.
  5. 제4항에 있어서, 상기 학습 컨텐츠를 제공하는 단계는,
    각 문제마다 포함된 태그 정보를 기초로, 상기 특정 문제와의 태그 매칭 비율을 상기 각 문제마다 연산하는 단계; 및
    상기 특정 문제와 상기 연산된 태그 매칭 비율이 미리 설정된 값보다 큰 문제를 사용자에게 제공하는 단계를 포함하는 학습 컨텐츠 추천 시스템의 동작 방법.
  6. 제1항에 있어서, 상기 가중치를 부여하는 단계는,
    상기 사용자가 자주 틀리는 문제 유형에 대응되는 문제 정보에 가중치를 부여하는 단계를 포함하는 학습 컨텐츠 추천 시스템의 동작 방법.
  7. 제1항에 있어서, 상기 사용자 특성 모델에 입력되는 문제 순서는,
    사용자가 문제를 풀이하는 순서인 학습 컨텐츠 추천 시스템의 동작 방법.
  8. 복수의 문제들에 관한 정보인 문제 정보, 상기 복수의 문제들에 대한 사용자의 응답인 풀이 결과 정보 또는 학습 컨텐츠를 저장하는 학습 정보 저장부;
    상기 문제 정보와 상기 풀이 결과 정보를 기초로 사용자 특성 모델을 학습시키는 사용자 특성 모델 학습 수행부를 포함하고,
    상기 사용자 특성 모델 학습 수행부는,
    상기 사용자 특성 모델에 입력되는 문제 순서에 따라, 정답 확률에 영향을 미치는 정도에 기초하여 상기 사용자 특성 모델에 가중치를 부여하는 단계를 포함하는 학습 컨텐츠 추천 시스템.
PCT/KR2021/007001 2020-06-09 2021-06-04 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법 WO2021251690A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200069409A KR102213476B1 (ko) 2020-06-09 2020-06-09 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법
KR10-2020-0069409 2020-06-09

Publications (1)

Publication Number Publication Date
WO2021251690A1 true WO2021251690A1 (ko) 2021-12-16

Family

ID=74560044

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/007001 WO2021251690A1 (ko) 2020-06-09 2021-06-04 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법

Country Status (3)

Country Link
US (1) US20220398486A1 (ko)
KR (1) KR102213476B1 (ko)
WO (1) WO2021251690A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023130837A1 (zh) * 2022-01-10 2023-07-13 华南理工大学 面向科研应用的自动机器学习实现方法、平台及装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102213476B1 (ko) * 2020-06-09 2021-02-08 (주)뤼이드 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법
KR102344724B1 (ko) * 2021-03-12 2022-01-04 주식회사 노스트라에이아이 인공지능 모델을 통해 학생의 학습을 관리하는 전자 장치, 및 학습 관리 방법
KR20220164186A (ko) 2021-06-04 2022-12-13 주식회사 천재교과서 인공지능 취약 진단 학습 추천 서비스 시스템 및 방법
KR102388909B1 (ko) * 2021-06-21 2022-04-21 (주)뤼이드 외국어 학습자의 어휘 실력 예측과 향상을 위한 딥러닝 기반의 단어 추천 시스템
KR20220169883A (ko) * 2021-06-21 2022-12-28 (주)뤼이드 외국어 학습자의 어휘 실력 예측과 향상을 위한 딥러닝 기반의 단어 추천 방법
KR20230009816A (ko) * 2021-07-09 2023-01-17 (주)뤼이드 학습 능력 평가 방법, 학습 능력 평가 장치, 및 학습 능력 평가 시스템
KR102398318B1 (ko) * 2021-07-09 2022-05-16 (주)뤼이드 학습 능력 평가 방법, 학습 능력 평가 장치, 및 학습 능력 평가 시스템
KR102416852B1 (ko) 2021-07-23 2022-07-05 (주)뤼이드 시험 점수를 예측하는 방법 및 장치
KR102463077B1 (ko) 2021-11-15 2022-11-04 주식회사 천재교과서 사용자에게 다양하고 유용한 컨텐트를 코칭하는 인공지능 스마트 코칭 시스템 및 방법
KR102685537B1 (ko) * 2021-12-02 2024-07-17 (주)나라지식정보 난청환자 재활용 온라인 교육 콘텐츠 제공 방법 및 그 시스템
KR20240011370A (ko) 2022-07-19 2024-01-26 주식회사 유리프트 코딩학습데이터에 기반한 비대면 학습 커리큘럼 생성 및 추천 시스템
KR20240106433A (ko) 2022-12-29 2024-07-08 서울대학교산학협력단 실시간 뇌파 및 학습 상태에 기반한 학습 지원 장치 및 그 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150129496A (ko) * 2014-05-12 2015-11-20 주식회사 와이비엠솔루션 개인별 맞춤 학습 시스템
KR20190123105A (ko) * 2018-04-23 2019-10-31 주식회사 에스티유니타스 사용자 맞춤형 학습 컨텐츠 제공 시스템 및 방법
KR20200048594A (ko) * 2018-10-30 2020-05-08 주식회사 스터디맥스 인공지능을 이용한 사용자 맞춤형 학습 콘텐츠 제공 시스템 및 방법
KR20200064007A (ko) * 2018-11-28 2020-06-05 한국과학기술원 정답을 찾는 질의 응답 시스템 및 그의 훈련 방법
KR102213476B1 (ko) * 2020-06-09 2021-02-08 (주)뤼이드 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150129496A (ko) * 2014-05-12 2015-11-20 주식회사 와이비엠솔루션 개인별 맞춤 학습 시스템
KR20190123105A (ko) * 2018-04-23 2019-10-31 주식회사 에스티유니타스 사용자 맞춤형 학습 컨텐츠 제공 시스템 및 방법
KR20200048594A (ko) * 2018-10-30 2020-05-08 주식회사 스터디맥스 인공지능을 이용한 사용자 맞춤형 학습 콘텐츠 제공 시스템 및 방법
KR20200064007A (ko) * 2018-11-28 2020-06-05 한국과학기술원 정답을 찾는 질의 응답 시스템 및 그의 훈련 방법
KR102213476B1 (ko) * 2020-06-09 2021-02-08 (주)뤼이드 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YOUNGNAM LEE, YOUNGDUCK CHOI, JUNGHYUN CHO, ALEXANDER R. FABBRI, HYUNBIN LOH, CHANYOU HWANG, YONGKU LEE, SANG-WOOK KIM, DRAGOMIR R: "Creating A Neural Pedagogical Agent by Jointly Learning to Review and Assess", 1 July 2019 (2019-07-01), pages 1 - 9, XP055878211, Retrieved from the Internet <URL:https://arxiv.org/pdf/1906.10910.pdf> *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023130837A1 (zh) * 2022-01-10 2023-07-13 华南理工大学 面向科研应用的自动机器学习实现方法、平台及装置

Also Published As

Publication number Publication date
KR102213476B1 (ko) 2021-02-08
US20220398486A1 (en) 2022-12-15

Similar Documents

Publication Publication Date Title
WO2021251690A1 (ko) 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법
Molnár et al. The role of chatbots in formal education
Nghi et al. Applying AI chatbot for teaching a foreign language: An empirical research
WO2021096009A1 (ko) 릴레이션 네트워크에 기반한 지식 보완 방법 및 장치
Belkin et al. Knowledge elicitation using discourse analysis
WO2022059921A1 (ko) 사용자의 학습효과를 반영하여 추천 문제를 결정하는 학습 컨텐츠 추천 장치, 시스템 및 그것의 동작 방법
Wang et al. Attention-based CNN for personalized course recommendations for MOOC learners
CN110189238A (zh) 辅助学习的方法、装置、介质以及电子设备
Alkhoori et al. UniBud: a virtual academic adviser
WO2022145829A1 (ko) 잠재인자에 기반한 협업 필터링을 사용하여 사용자의 정답확률을 예측하는 학습 컨텐츠 추천 시스템 및 그것의 동작방법
Bremgartner et al. An adaptive strategy to help students in e-Learning systems using competency-based ontology and agents
KR20210152981A (ko) 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법
KR20210152927A (ko) 인공 지능 학습 기반의 학습 컨텐츠 추천 시스템 및 그것의 동작 방법
WO2022149758A1 (ko) 풀이 경험이 없는 추가된 문제 컨텐츠에 대한 예측된 정답 확률을 기초로, 문제를 평가하는 학습 컨텐츠 평가 장치, 시스템 및 그것의 동작 방법
Deppe et al. AI-based assistance system for manufacturing
WO2022102966A1 (ko) 점수 확률 분포 형태 통일화를 통해 평가 가능한 문제를 추천하는 학습 문제 추천 시스템 및 이것의 동작 방법
CN114661864A (zh) 一种基于受控文本生成的心理咨询方法、装置及终端设备
Mediani et al. Towards a recommendation system for the learner from a semantic model of knowledge in a collaborative environment
WO2022010151A1 (ko) 다차원 쌍비교를 통해 사용자의 점수를 예측하는 사용자 점수 예측 방법, 장치 및 시스템
WO2022250171A1 (ko) 교육적 요소를 예측하는 사전학습 모델링 시스템 및 방법
Topete et al. ArtSciLab: Experimental publishing and knowledge production in collaborative transdisciplinary practices
WO2022097909A1 (ko) 비지도 기반 질의 생성 모델의 학습 방법 및 장치
Jathushan et al. Smart Teacher-An AI-Based Self-Learning Platform for Grade 10 ICT Students
KR102510998B1 (ko) 학습 유도용 챗봇 시스템
WO2023163265A1 (ko) Ai 기반의 질의 응답 챗봇을 이용한 언어 학습 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21821648

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21821648

Country of ref document: EP

Kind code of ref document: A1