KR20200091537A - An online examination service system based on difficulty of questions - Google Patents

An online examination service system based on difficulty of questions Download PDF

Info

Publication number
KR20200091537A
KR20200091537A KR1020190008300A KR20190008300A KR20200091537A KR 20200091537 A KR20200091537 A KR 20200091537A KR 1020190008300 A KR1020190008300 A KR 1020190008300A KR 20190008300 A KR20190008300 A KR 20190008300A KR 20200091537 A KR20200091537 A KR 20200091537A
Authority
KR
South Korea
Prior art keywords
difficulty
individual
test
question
level
Prior art date
Application number
KR1020190008300A
Other languages
Korean (ko)
Other versions
KR102239667B1 (en
Inventor
한장석
Original Assignee
(주)캠버스
한장석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)캠버스, 한장석 filed Critical (주)캠버스
Priority to KR1020190008300A priority Critical patent/KR102239667B1/en
Publication of KR20200091537A publication Critical patent/KR20200091537A/en
Application granted granted Critical
Publication of KR102239667B1 publication Critical patent/KR102239667B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2053Education institution selection, admissions, or financial aid
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention relates to an online trial examination service providing system based on a difficulty level of questions, which uses a correct answer ratio and an incorrect answer ratio with respect to individual questions of a question bank to automatically calculate a difficulty level, uses the difficulty level to extract the individual question, and considers the difficulty level to analyze a result of an applicant. According to the present invention, the online trial examination service providing system based on a difficulty level of questions comprises: an individual question registering unit establishing question bank by registering individual questions; a trial examination presenting unit extracting individual questions from the question bank to form and provide a trial examination; a trial examination evaluation unit receiving answers of each individual question of the trial examination and comparing the input answer with a stored correct answer corresponding to the individual question to store an evaluation result; an examination result analysis unit calculating an average and ranking of each applicant or all applicants in accordance with the evaluation result of the trial examination; and a difficulty level setting unit setting a difficulty level of each individual question and reflecting a level of the applicant on the evaluation result of the correct or incorrect answer of the applicant with respect to each individual question to set the difficulty level. Accordingly, the difficulty level is set in consideration of the average of the applicant, thereby correctly calculating the difficulty level even if the number of applicant samples of a corresponding question is less.

Description

난이도 기반 온라인 모의시험 제공 시스템 { An online examination service system based on difficulty of questions }Difficulty-based online simulation test delivery system {An online examination service system based on difficulty of questions}

본 발명은 출제자로부터 개별 문제를 시스템에 등록하게 하여 문제 은행을 구축하고, 응시자의 응시 요청에 있으면 문제 은행의 개별 문제들로 모의시험 문제를 구성하여 제공하고, 그 성적 및 분석 결과를 제공하는, 난이도 기반 온라인 모의시험 제공 시스템에 관한 것이다.The present invention is to construct a question bank by registering individual problems from the submitter in the system, and if the candidate has a request to take a test, construct and provide a mock test question with individual problems from the question bank, and provide the results and results of the analysis. Difficulty-based online simulation test delivery system.

특히, 본 발명은 문제 은행의 개별 문제들에 대하여 정답율 또는 오답율을 이용하여 난이도를 자동으로 산출하고, 난이도를 이용하여 개별 문제를 추출하고, 난이도를 반영하여 응시자의 성적을 분석하는, 난이도 기반 온라인 모의시험 제공 시스템에 관한 것이다.In particular, the present invention is based on difficulty level, which automatically calculates a difficulty level using a correct answer rate or a wrong answer rate for individual questions in a question bank, extracts individual questions using the difficulty level, and analyzes the test taker's grades by reflecting the difficulty level. It relates to an online simulation test delivery system.

일반적으로, 초중고 학생들이나 각종 자격시험에 응시하는 응시자들은 시험에 응시하기에 앞서 교과서나 각종 수험서 등을 통해 자신의 학습능력을 높인다. 즉, 학생들은 학교나 학원 등에서 각종 자격시험 응시자들은 학원 등에서 시험을 위한 각종 자료를 얻어 공부를 하고, 예상문제집 등을 통해 각종 시험에 대비하게 된다.In general, elementary, middle and high school students or test takers who take the various qualification tests improve their learning skills through textbooks and various test books before taking the test. In other words, students take various qualification exams in schools and academies, etc., and learn by getting various materials for exams in academies, etc., and prepare for various exams through a collection of expected questions.

이렇게 수험서를 통해 예상문제를 푸는 것만으로는 응시자의 학습능력이나 자격 검증에 충분히 대처하지 못하는 한계가 있다. 즉, 수능시험이나 국가자격시험 등에서는 각 과목의 다양한 시험문제가 정해진 순서에 따라 출제되지 않고 서로 다른 배열로 출제된다.There is a limit to not sufficiently coping with the candidate's learning ability or qualification verification by simply solving the expected problem through the test. That is, in the SAT or National Qualification Test, various test questions in each subject are not presented in a specific order, but are presented in different arrangements.

그러나 학생들이나 자격시험 응시자들은 이러한 방식으로 출제되는 시험문제를 많이 접하지 못하기 때문에 실전에서 당황하여 제실력을 충분히 발휘하지 못하는 경우가 많다. 특히, 자신의 받을 수 있는 예상점수를 알 수 없어 어느 과목, 어느 분야를 더 공부해야 하는지 판단하기 힘들다 문제가 있다.However, students or candidates for qualification exams do not encounter many test questions in this way, so they are often embarrassed in practice and fail to fully demonstrate their skills. In particular, there is a problem in that it is difficult to judge which subject and which field to study further because the expected scores that one can receive are unknown.

뿐만 아니라 위와 같은 방식의 예비시험이 오프라인 상에서 주로 이루어지기 때문에 학생들이나 자격시험 응시자들은 자주 응시할 수 없을 뿐더러 시험 후 채점결과를 확인하는데도 많은 시간이 소요되는 문제점이 있다.In addition, because the preliminary test of the above method is mainly performed offline, students or candidates for the qualification test cannot frequently take the test, and there is a problem in that it takes a lot of time to check the scoring result after the test.

이러한 문제를 해결하고자, 네트워크 상에서 모의시험을 서비스 하는 기술이 제시되고 있다[특허문헌 1,2,3]. 특히, 상기 선행기술들은 난이도를 적용하여, 응시자가 난이도를 설정하면, 난이도에 따라 자동으로 시험문제를 구성한다. 또한, 응시자들의 정답과 오답의 분포 데이터를 축적하여 문제의 난이도를 자동으로 결정하는 기술도 제시되고 있다[특허문헌 4].In order to solve this problem, a technique for providing a simulation test on a network has been proposed [Patent Documents 1,2,3]. In particular, the prior arts apply a difficulty level, and when a candidate sets the difficulty level, a test question is automatically configured according to the difficulty level. In addition, a technique for automatically determining the difficulty level of a problem by accumulating distribution data of correct and incorrect answers of candidates has been proposed [Patent Document 4].

그러나 상기 선행기술들은 모두 서비스 시스템에서 문제를 생성하여 관리하고, 관리자가 각 문제에 대한 난이도를 설정한다. 따라서 관리자가 문제은행의 문제들을 수집해야 하고 각 문제에 대한 난이도 평가를 해야 한다는 부담을 갖는다. 또한, 응시자들의 정답과 오답의 분포 데이터를 이용하여 자동으로 난이도를 생성하는 경우에도, 그 분포 데이터를 축적하기 전까지는 문제의 난이도를 정확하게 설정할 수 없다는 문제점도 있다.However, all of the above prior arts generate and manage a problem in a service system, and an administrator sets a difficulty level for each problem. Therefore, the manager has the burden of collecting problems from the problem bank and evaluating the difficulty of each problem. In addition, even if the difficulty is automatically generated using the distribution data of the correct and incorrect answers of the test takers, there is a problem that the difficulty of the problem cannot be accurately set until the distribution data is accumulated.

한국등록특허공보 제10-1438756호(2014.09.05.공고)Korean Registered Patent Publication No. 10-1438756 (2014.09.05. Announcement) 한국등록특허공보 제10-1101177호(2011.12.30.공고)Korean Registered Patent Publication No. 10-1101177 (2011.12.30. Announcement) 한국등록특허공보 제10-0432148호(2004.05.17.공고)Korean Registered Patent Publication No. 10-0432148 (Announcement of May 17, 2004) 한국공개특허공보 제10-2004-0057219호(2004.07.02.공고)Korean Patent Publication No. 10-2004-0057219 (July 02, 2004)

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 출제자로부터 개별 문제를 시스템에 등록하게 하여 문제 은행을 구축하고, 응시자의 응시 요청에 있으면 문제 은행의 개별 문제들로 모의시험 문제를 구성하여 제공하고, 그 성적 및 분석 결과를 제공하는, 난이도 기반 온라인 모의시험 제공 시스템을 제공하는 것이다.The object of the present invention is to solve the problems as described above, to build a problem bank by registering the individual problems in the system from the submitter, and if the candidate is in the request to take the exam, a mock test problem is composed of the individual problems of the problem bank. It provides a system for providing online simulations based on difficulty, providing the results and results of the analysis.

또한, 본 발명의 목적은 응시자들의 정답률 또는 오답률에 따라 개별 문제의 난이도를 자동으로 산정하되, 응시자의 평균을 반영하여 난이도를 산정하는, 난이도 기반 온라인 모의시험 제공 시스템을 제공하는 것이다.In addition, an object of the present invention is to provide a system for providing a difficulty-based online simulation test, which automatically calculates the difficulty level of an individual problem according to the correct or incorrect answer rate of the candidates, and calculates the difficulty level by reflecting the average of the candidates.

상기 목적을 달성하기 위해 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 관한 것으로서, 개별문제를 등록하여 문제은행을 구축하는 개별문제 등록부; 상기 문제은행에서 개별문제들을 추출하여 모의시험 문제를 구성하여 제공하는 모의시험 출제부; 상기 모의시험 문제의 각 개별문제의 답안을 입력받고, 입력받은 답안과 저장된 해당 개별문제의 정답을 비교하여 평가결과를 저장하는 모의시험 평가부; 상기 모의시험 문제의 평가결과에 따라, 각 응시자 또는 전체 응시자에 대한 평균 및 순위를 산출하는 시험결과 분석부; 및, 각 개별문제의 난이도를 설정하되, 각 개별문제에 대한 응시자의 정답 또는 오답의 평가 결과에 응시자의 수준을 반영하여 난이도를 설정하는 난이도 설정부를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention relates to a system for providing an online simulation test based on a difficulty level, and an individual problem registration unit that registers individual problems to establish a problem bank; A mock test questionnaire for extracting individual questions from the question bank and constructing and providing a mock test question; A simulation test evaluating unit that receives an answer for each individual question in the mock test question and compares the received answer with the correct answer for the stored individual question to store an evaluation result; A test result analysis unit that calculates an average and a rank for each test taker or all test takers according to the evaluation result of the simulation test problem; And, it is characterized in that it comprises a difficulty setting unit for setting the difficulty level of each individual problem, but setting the difficulty level by reflecting the candidate's level in the evaluation result of the correct answer or incorrect answer for each individual problem.

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 개별문제는 분야로 분류되고, 상기 모의시험 출제부는 분야와 난이도에 대한 출제 조건을 입력받아, 상기 출제 조건을 만족하는 개별문제들을 추출하여 모의시험 문제를 구성하는 것을 특징으로 한다.In addition, in the present invention, in the difficulty-based online simulation test providing system, the individual problems are classified into fields, and the mock exam questionnaire receives input conditions for fields and difficulty, and extracts individual problems satisfying the examination conditions It is characterized by constituting a simulation test.

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 시험결과 분석부는 난이도를 반영하여 다음 [수식 1]로 응시자 p의 평균 m(p)을 산출하는 것을 특징으로 한다.In addition, the present invention is characterized in that in the system for providing an online simulation test based on the difficulty level, the test result analysis unit calculates the average m(p) of the test taker p by the following [Equation 1] by reflecting the difficulty level.

[수식 1][Equation 1]

Figure pat00001
Figure pat00001

단, L은 난이도의 개수를 나타내고, k는 난이도 또는 난이도 등급의 인덱스를 나타내고, mk(p)는 응시자 p의 난이도 k의 개별문제 평균을 나타내고, wk는 난이도에 따른 가중치를 나타내며, 난이도 가중치 wk는 난이도가 높을수록 높은 가중치를 갖음.However, L represents the number of difficulties, k represents the index of the difficulty or difficulty class, m k (p) represents the average of individual problems of the difficulty k of the candidate p, and w k represents the weight according to the difficulty, and the difficulty The weight w k has a higher weight as the difficulty is higher.

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 난이도 설정부는 해당 개별문제를 풀은 응시자의 정답 또는 오답 결과에 응시자의 수준을 반영하여 해당 개별문제의 난이도 점수를 산출하되, 상기 응시자가 정답으로 맞춘 경우 상기 응시자의 수준 내의 값으로 난이도 점수를 산출하고, 오답으로 틀린 경우 상기 응시자의 수준 보다 높은 값으로 난이도 점수를 산출하는 것을 특징으로 한다.In addition, in the present invention, in the difficulty-based online simulation test providing system, the difficulty setting unit calculates the difficulty score of the individual problem by reflecting the candidate's level in the correct or incorrect result of the candidate who solved the individual problem, but the candidate It is characterized by calculating a difficulty score with a value within the test taker's level when correct answer is made, and calculating a difficulty score with a value higher than the test taker's level if incorrect answer is given.

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 난이도 설정부는 다음 수식 2으로 응시자 p가 개별문제 i를 풀었을 경우 난이도 점수를 산출하는 것을 특징으로 한다.In addition, in the system for providing an online simulation test based on difficulty, the difficulty setting unit calculates the difficulty score when the candidate p solves the individual problem i with the following Equation 2.

[수식 2][Equation 2]

Figure pat00002
Figure pat00002

단, Qi(p)는 개별문제 i에 대해 응시자 p의 정답 또는 오답에 따른 난이도 점수를 나타내고, Qmax, Qmin 은 응시자 수준의 최대값 또는 최대값이고, Qp는 응시자의 수준을 나타냄.However, Q i (p) represents the difficulty score according to the correct or incorrect answer of candidate p for individual question i, Q max and Q min are the maximum or maximum value of the candidate level, and Q p represents the candidate level .

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 시스템은, 출제자의 개별문제에 대하여 보상점수를 산출하여, 각 출제자에 대한 보상금액을 산정하되, 각 개별문제에 대한 보상점수는 샘플링 횟수에 난이도 점수를 가중하여 산정하는 출제보상 산출부를 더 포함하는 것을 특징으로 한다.In addition, in the present invention, in the system for providing a difficulty-based online simulation test, the system calculates a reward score for each question of the submitter, and calculates a reward amount for each question, but the reward score for each individual question is sampled. It is characterized in that it further comprises a question-and-compensation calculator that calculates a weighted difficulty score.

상술한 바와 같이, 본 발명에 따른 난이도 기반 온라인 모의시험 제공 시스템에 의하면, 출제자가 출제한 개별 문제를 직접 등록하게 하여 문제 은행을 구축함으로써, 문제 은행의 문제들을 여러 소스에서 공급받아 다양한 문제들을 확보할 수 있는 효과가 얻어진다.As described above, according to the difficulty-based online simulation test providing system according to the present invention, the problem banks are supplied from various sources to secure various problems by constructing the problem banks by directly registering the individual problems submitted by the submitter The effect that can be obtained is obtained.

또한, 본 발명에 따른 난이도 기반 온라인 모의시험 제공 시스템에 의하면, 응시자의 평균을 반영하여 난이도를 산정함으로써, 해당 문제의 응시자 샘플이 많지 않더라도 난이도를 보다 정확하게 산정할 수 있는 효과가 얻어진다.In addition, according to the difficulty-based online simulation test providing system according to the present invention, by calculating the difficulty by reflecting the average of the candidates, even if there are not many test takers of the problem, an effect capable of accurately calculating the difficulty is obtained.

도 1은 본 발명을 실시하기 위한 전체 시스템에 대한 구성도.
도 2는 본 발명의 일실시예에 따른 난이도 기반 온라인 모의시험 제공 시스템의 구성에 대한 블록도.
도 3은 본 발명의 일실시예에 따른 난이도를 등급으로 나타낸 예시 표.
도 4는 본 발명의 일실시예에 따른 응시자의 수준을 반영하여 개별문제의 난이도를 산출하는 개념을 나타낸 도면.
1 is a configuration diagram of an entire system for carrying out the present invention.
Figure 2 is a block diagram of the configuration of a system for providing a difficulty-based online simulation test according to an embodiment of the present invention.
Figure 3 is an exemplary table showing the degree of difficulty according to an embodiment of the present invention.
4 is a view showing the concept of calculating the difficulty of individual problems by reflecting the level of the test taker according to an embodiment of the present invention.

이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.Hereinafter, specific contents for carrying out the present invention will be described in accordance with the drawings.

또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.In describing the present invention, the same parts are denoted by the same reference numerals, and repeated explanation is omitted.

먼저, 본 발명을 실시하기 위한 전체 시스템의 구성을 도 1을 참조하여 설명한다.First, the configuration of the entire system for carrying out the present invention will be described with reference to FIG. 1.

도 1에서 보는 바와 같이, 본 발명을 실시하기 위한 전체 시스템은 모의시험을 응시하는 응시자 단말(10), 개별 문제를 서버에 등록하는 출제자 단말(20), 및, 개별 문제를 등록하게 하여 문제 은행을 구축하고 문제 은행으로부터 개별 문제들을 추출하여 모의시험을 생성하여 제공하는 모의시험 서버(30)로 구성된다. 추가적으로, 문제 은행, 응시자의 시험 결과, 출제자의 정보 등을 저장하는 데이터베이스(40)를 더 포함하여 구성될 수 있다.As shown in FIG. 1, the entire system for implementing the present invention includes a test taker terminal 10 taking a mock test, a test taker terminal 20 registering individual problems on a server, and a problem bank by registering individual problems. It consists of a mock test server 30 that builds and extracts individual questions from the question bank to generate and provide a mock test. Additionally, it may be configured to further include a database 40 for storing question banks, test results of test takers, information of test takers, and the like.

먼저, 응시자 단말(10)은 응시자가 이용하는 컴퓨팅 단말로서, 스마트폰, 패블릿, 태블릿PC, PC, 노트북 등 통상의 컴퓨팅 기능을 구비한 단말이다. 응시자는 모의시험과 관련된 작업을 수행할 때 응시자 단말(10)을 통해 해당 작업을 수행한다. 따라서 이하에서 설명의 편의를 위해 응시자가 수행하는 것으로 설명되나, 해당 작업들은 응시자 단말(10)에 의해 수행되는 것으로 간주한다.First, the candidate terminal 10 is a computing terminal used by the candidate, and is a terminal equipped with normal computing functions such as a smartphone, phablet, tablet PC, PC, and laptop. The candidate performs the corresponding task through the candidate terminal 10 when performing the task related to the mock test. Therefore, for convenience of explanation, it will be described below that the candidate performs, but the corresponding tasks are considered to be performed by the candidate terminal 10.

한편, 응시자 단말(10)은 모의시험 서버(30)에 접속하여 모의시험을 요청한다. 이때, 모의시험의 시험 범위, 난이도 등 출제 조건을 응시자로부터 입력받아 모의시험 서버(30)로 전송한다.Meanwhile, the test taker terminal 10 connects to the simulation test server 30 to request a simulation test. At this time, the test conditions, such as the test range and difficulty of the mock test, are input from the test taker and transmitted to the mock test server 30.

또한, 응시자 단말(10)은 모의시험 서버(30)로부터 가져온 모의시험 문제들을 단말 상 화면에 표시하고, 사용자가 입력하는 각 문제의 답안을 입력받는다. 입력된 응시자의 답안은 모의시험 서버(30)로 전송된다.In addition, the test taker terminal 10 displays the mock test questions obtained from the mock test server 30 on a screen on the terminal, and receives an answer for each question input by the user. The input test taker's answer is sent to the mock test server 30.

또한, 응시자 단말(10)은 모의시험 서버(30)로부터 응시자의 모의시험 결과를 수신하여, 그 결과를 화면 상에 표시할 수 있다. 이때 모의시험 결과는 해당 모의시험에 대한 개별 모의시험 분석결과, 또는, 누적된 모의시험 결과에 대한 분석결과 등으로 구성된다.In addition, the test taker terminal 10 may receive the test result of the test taker from the simulation test server 30, and display the result on the screen. At this time, the simulation test results consist of individual simulation test analysis results, or accumulated simulation test results.

다음으로, 출제자 단말(20)은 출제자가 이용하는 컴퓨팅 단말로서, 스마트폰, 패블릿, 태블릿PC, PC, 노트북 등 통상의 컴퓨팅 기능을 구비한 단말이다. 출제자는 모의시험과 관련된 작업을 수행할 때 출제자 단말(20)을 통해 해당 작업을 수행한다. 따라서 이하에서 설명의 편의를 위해 출제자가 수행하는 것으로 설명되나, 해당 작업들은 출제자 단말(20)에 의해 수행되는 것으로 간주한다.Next, the presenter terminal 20 is a computing terminal used by the presenter, and is a terminal having normal computing functions such as a smartphone, phablet, tablet PC, PC, and laptop. When performing the work related to the mock test, the submitter performs the corresponding work through the submitter terminal 20. Therefore, hereinafter, it is described as being performed by the submitter for convenience of description, but the corresponding tasks are considered to be performed by the submitter terminal 20.

출제자 단말(20)은 출제자에 의해 출제된 개별 문제를 모의시험 서버(30)에 등록한다. 즉, 개별 문제와 해당 문제의 정답을 함께 모의시험 서버(30)에 등록된다. 등록된 개별 문제는 문제 은행에 등록되어, 모의시험을 구성할 때 샘플링 되어 모의시험의 문제로 이용될 수 있다.The presenter terminal 20 registers the individual questions raised by the presenter in the mock test server 30. That is, the individual questions and the correct answers to the questions are registered in the simulation server 30 together. Each registered question is registered with the question bank and can be sampled and used as a test question when constructing a simulation.

또한, 출제자의 등록된 개별 문제는 모의시험으로 샘플링된 횟수, 난이도 등(이하 개별 문제의 이용 정보)이 계산된다. 출제자 단말(20)은 등록된 출제자의 개별 문제들의 목록을 요청하여 화면상에 표시할 수 있다. 이때, 각 개별 문제의 횟수, 난이도 등 이용정보도 수신하여 표시될 수 있다.In addition, the number of times sampled by the mock test, difficulty, etc. (hereinafter referred to as the use information of the individual questions) are calculated for the individual questions registered by the examinee. The submitter terminal 20 may request a list of individual problems of the registered submitter and display it on the screen. At this time, usage information such as the number and difficulty of each individual problem may also be received and displayed.

한편, 출제자의 개별 문제들은 샘플링 횟수와 난이도에 따라 보상이 부여된다. 출제자의 모든 개별 문제들의 보상이 합산되어 출제자의 보상이 산출된다. 출제자 단말(20)은 출제자의 요청에 따라 출제자의 보상이 화면상에 표시될 수 있다.On the other hand, individual problems of the submitter are compensated according to the sampling frequency and difficulty. The compensation of all the individual problems of the submitter is summed up and the reward of the submitter is calculated. The presenter terminal 20 may display the reward of the presenter on the screen at the request of the presenter.

다음으로, 모의시험 서버(30)는 웹 상에서 제공되는 통상의 서비스 서버로서, 모의시험을 위하여 개별문제를 등록시키고, 모의시험을 구성하여 제공한다. 또한, 모의시험 결과를 수신하여 모의시험 결과를 산출하거나 분석하고, 분석 결과를 응시자에게 제공한다.Next, the mock test server 30 is a general service server provided on the web, and registers individual questions for the mock test, and configures and provides the mock test. In addition, the simulation test results are received and the simulation test results are calculated or analyzed, and the analysis results are provided to test takers.

즉, 모의시험 서버(30)는 출제자 단말(20)로부터 개별 문제들을 등록받는다. 이때, 개별 문제와 그 정답을 수신하여 등록한다. 또한, 바람직하게는, 개별 문제의 분야(또는 시험과목, 단원 등)를 입력받는다. 각 개별 문제는 적어도 1개의 분야를 갖으며, 복수 개의 분야를 갖을 수 있다.That is, the simulation server 30 receives individual problems from the submitter terminal 20. At this time, register by receiving individual questions and their correct answers. In addition, preferably, fields of individual problems (or test subjects, units, etc.) are input. Each individual problem has at least one field and can have multiple fields.

또한, 모의시험 서버(30)는 등록된 개별 문제들을 데이터베이스 화하여 문제 은행으로 구축한다. 문제 은행은 다수의 개별 문제들로 구성되고, 각 개별 문제들은 분야에 따라 분류되어 저장된다.In addition, the simulation server 30 builds into a question bank by making database of registered individual problems. The question bank is composed of a number of individual problems, and each individual problem is classified and stored according to the field.

또한, 모의시험 서버(30)는 응시자 단말(10)의 요청에 따라 모의시험 문제를 구성하여, 응시자 단말(10)에 해당 모의시험 문제를 제공한다. 이때, 모의시험 문제는 문제 은행에서 개별 문제들을 랜덤하게 추출하여 구성된다.In addition, the mock test server 30 constructs a mock test question at the request of the candidate terminal 10, and provides the mock test question to the candidate terminal 10. At this time, the mock test question is constructed by randomly extracting individual questions from the question bank.

특히, 응시 요청시, 응시자 단말(10)로부터 모의시험 문제의 분야(시험과목, 단원 등)를 입력받고, 해당 분야에 속하는 개별 문제들을 문제은행으로부터 추출하여 모의시험 문제가 구성된다.In particular, upon requesting a test, a simulated test question is constructed by receiving a field of a simulated test question (test subject, unit, etc.) from the candidate terminal 10 and extracting individual questions belonging to the field from the question bank.

또한, 바람직하게는, 응시자 단말(10)은 모의시험 문제의 난이도를 설정할 수 있고, 난이도에 따라 모의시험 문제를 구성한다.In addition, preferably, the test taker terminal 10 may set the difficulty level of the simulation test question and constitute a simulation test question according to the difficulty level.

그리고 모의시험 서버(30)는 모의시험 문제의 답안을 수신하여, 해당 모의시험 문제를 채점하고 그 결과를 응시자 단말(10)에 제공한다. 즉, 수신한 문제의 답안과, 저장된 해당 문제의 정답과 비교하여 채점을 수행한다.And the simulation server 30 receives the answer of the simulation test questions, scores the corresponding simulation test questions and provides the results to the candidate terminal 10. That is, scoring is performed by comparing the answer to the received problem with the correct answer to the stored problem.

또한, 모의시험 서버(30)는 모의시험 문제의 각 개별 문제에 대한 분석을 수행하거나, 해당 응시자의 그동안 누적된 모의시험 결과에 대하여 분석한다. 그리고 분석결과를 응시자 단말(10)에 전송할 수 있다.In addition, the simulation server 30 performs analysis on each individual problem of the simulation test questions, or analyzes the accumulated test results of the test takers. In addition, the analysis result may be transmitted to the candidate terminal 10.

또한, 모의시험 서버(30)는 각 개별 문제의 이용 현황(또는 샘플링 현황)을 산출한다. 즉, 각 개별문제의 샘플링 횟수나 난이도 등을 산출한다. 그리고 샘플링 횟수나 난이도를 이용하여 각 개별문제의 보상 점수를 산출한다. 그리고 각 출제자의 모든 개별문제의 보상 점수를 합산하여 출제자의 보상 점수를 산출한다. 출제자의 보상점수는 합산되어 출제자의 보상 금액이 결정된다.In addition, the simulation server 30 calculates the usage status (or sampling status) of each individual problem. In other words, the sampling frequency and difficulty of each individual problem are calculated. Then, the reward score of each individual problem is calculated using the sampling number or difficulty. In addition, the reward scores of all the individual problems of each examiner are added up to calculate the reward scores of the examinees. The reward scores of the submitters are summed to determine the amount of the rewards.

다음으로, 데이터베이스(40)는 모의시험을 위한 개별 문제들을 저장하는 문제은행DB(41), 각 응시자의 모의시험 결과 및 분석결과를 저장하는 응시결과DB(42), 각 개별 문제의 이용 정보 및 보상 정보 등을 저장하는 출제보상DB(43)로 구성될 수 있다. 그러나 상기 데이터베이스(40)의 구성은 바람직한 일실시예일 뿐이며, 구체적인 장치를 개발하는데 있어서, 접근 및 검색의 용이성 및 효율성 등을 감안하여 데이터베이스 구축이론에 의하여 다른 구조로 구성될 수 있다.Next, the database 40 includes a question bank DB 41 that stores individual questions for the mock test, a test result DB 42 that stores each test taker's mock test results and analysis results, usage information of each individual question, and It may be composed of a question compensation DB (43) for storing reward information. However, the configuration of the database 40 is only a preferred embodiment, and in developing a specific device, it may be configured in a different structure according to a database construction theory in consideration of the ease and efficiency of access and search.

다음으로, 본 발명의 일실시예에 따른 난이도 기반 온라인 모의시험 제공 시스템을 도 2를 참조하여 설명한다. Next, a system for providing a difficulty-based online simulation test according to an embodiment of the present invention will be described with reference to FIG. 2.

도 2에서 바와 같이, 본 발명에 따른 난이도 기반 온라인 모의시험 제공 시스템(30)은 사용자에 대한 정보를 수집하는 사용자정보 수집부(31), 의류에 대한 정보를 수집하는 의류정보 수집부(32); 사용자의 움직임 정도를 산출하는 움직임지수 산출부(33); 의류의 활동성 정도를 산출하는 의류지수 산출부(34); 및, 사용자의 움직임 지수에 맞는 의류 지수를 가지는 의류를 추천하는 의류 추천부(35)로 구성된다.2, the difficulty-based online simulation test providing system 30 according to the present invention includes a user information collection unit 31 for collecting information about a user, and a clothing information collection unit 32 for collecting information about clothing. ; A motion index calculator 33 for calculating a user's motion level; A clothing index calculating unit 34 for calculating a degree of activity of clothing; And a clothing recommendation unit 35 that recommends clothing having a clothing index that matches a user's movement index.

먼저, 개별문제 등록부(31)는 출제자 단말(20)로부터 개별문제를 수신받아 문제 은행에 개별문제를 등록한다.First, the individual problem registration unit 31 receives the individual problems from the submitter terminal 20 and registers the individual problems in the problem bank.

즉, 개별 문제와 해당 문제의 정답을 수신하여 등록한다. 또한, 개별 문제의 분야를 입력받는다. 분야는 과목(시험과목), 단원 등으로 분류된다. 바람직하게는, 분야는 과목-대단원-중단원-소단원 등 단계적으로 분류될 수 있다. 또한, 개별 문제에 대한 분야는 복수 개로 입력되어 설정될 수 있다.That is, an individual question and a correct answer of the question are received and registered. Also, the field of the individual problem is entered. The field is divided into subjects (test subjects) and units. Preferably, the field can be categorized step-by-step, such as subject-end-to-end-to-end. Further, a plurality of fields for individual problems may be input and set.

또한, 개별문제 등록부(31)는 각 개별 문제에 대해 출제자 정보도 저장한다. 따라서 데이터베이스(40)를 참조하여, 각 출제자 별로 해당 출제자가 출제한 개별 문제들이 관리될 수 있다.In addition, the individual problem registration unit 31 also stores information about each individual problem. Therefore, with reference to the database 40, for each submitter, the individual problems that the submitter can submit can be managed.

또한, 개별문제 등록부(31)는 각 개별 문제에 대한 난이도를 초기화 하여 설정한다. 바람직하게는, 초기값을 난이도의 평균값으로 설정하거나, 출제자가 설정한 난이도 값으로 설정할 수 있다.In addition, the individual problem registration unit 31 initializes and sets the difficulty level for each individual problem. Preferably, the initial value may be set as the average value of the difficulty, or may be set as the difficulty value set by the submitter.

다음으로, 모의시험 출제부(32)는 응시자 단말(10)로부터 모의시험 요청을 받으면, 문제은행에서 개별 문제들을 추출하여 모의시험 문제를 구성한다.Next, the mock test submission unit 32 constructs a mock test question by extracting individual questions from the question bank when a mock test request is received from the candidate terminal 10.

즉, 모의시험 출제부(32)는 응시자 단말(10)로부터 모의시험의 출제 조건을 입력받아, 출제 조건에 맞는 개별 문제들을 문제 은행에서 랜덤하게 추출한다.That is, the mock exam questionnaire 32 receives the exam conditions of the mock exam from the test taker terminal 10 and randomly extracts individual problems that meet the exam conditions from the question bank.

출제 조건은 개별 문제의 분야를 제한하는 시험 범위, 개별 문제의 난이도를 정하는 난이도 조건을 포함한다. 그 외에도 문제의 개수 등도 더 포함될 수 있다.Examination conditions include test coverage that limits the field of individual problems, and difficulty conditions that determine the difficulty of individual problems. In addition, the number of problems may be further included.

시험 범위는 적어도 1개의 분야로 설정되며, 복수로 선택될 수 있다.The test range is set to at least one field, and may be selected in plural.

도 3에서 보는 바와 같이, 난이도는 등급으로 구분되어 등급에 따라 구분될 수 있다. 즉, 난이도 점수가 일정한 범위에 속하면, 해당 범위의 등급으로 난이도가 설정된다. 이와 같이 난이도가 등급으로 구성되는 경우, 응시자는 특정 난이도(난이도 등급)를 선택한다.As shown in FIG. 3, the difficulty levels are divided into grades and may be classified according to grades. That is, if the difficulty score falls within a certain range, the difficulty level is set as the grade of the corresponding range. In this case, when the difficulty level is configured as a grade, the candidate selects a specific difficulty level (difficulty level).

모의시험 출제부(32)는 해당 난이도(또는 등급)에 속하는 개별 문제들을 랜덤하게 추출하여, 추출된 다수의 개별문제들로 구성되는 모의시험 문제를 생성(출제)한다.The mock test questionnaire 32 randomly extracts individual problems belonging to a corresponding difficulty (or class), and generates (submits) a mock exam question composed of a plurality of extracted individual problems.

모의시험 출제부(32)는 생성된(출제된) 모의시험 문제를 응시자 단말(10)로 제공한다.The mock test submission unit 32 provides the generated (exposed) mock test questions to the candidate terminal 10.

다음으로, 모의시험 평가부(33)는 응시자 단말(10)로부터 모의시험 문제의 답안을 입력받고, 해당 응시자의 모의시험 문제의 결과를 평가한다. 즉, 입력받은 답안과, 저장된 해당 문제들의 정답을 비교하여, 동일하면 맞은 것으로 판단하고 다르면 틀린 것으로 판단한다.Next, the simulation test evaluating unit 33 receives an answer of a mock test question from the test taker terminal 10, and evaluates the result of the test taker's mock test question. That is, it compares the input answer with the correct answer of the stored questions, and if it is the same, it determines that it is correct, and if it is different, it determines that it is wrong.

즉, 모의시험 평가부(33)의 모의시험 문제의 각 개별 문제들의 정답 여부를 판단하여, 전체 모의시험 문제의 점수를 산출한다.That is, the simulation test evaluator 33 determines whether each of the individual questions in the simulation test is correct or not, and then calculates the scores of the simulation questions.

또한, 모의시험 평가부(33)는 응시자의 모의시험 문제의 평가 결과를 저장한다. 이때, 전체 점수 외에도, 각 개별 문제별로 정답 또는 오답 여부 등을 함께 기록하여 저장한다.In addition, the simulation test evaluation unit 33 stores the test result of the test taker's simulation test. At this time, in addition to the total score, whether or not the correct answer or incorrect answer is recorded for each individual question is stored together.

다음으로, 시험결과 분석부(34)는 각 응시자에 대한 모의시험 문제의 평가결과에 대하여 분석하고, 분석결과를 저장하거나, 응시자 단말(10)의 요청에 따라 분석결과를 제공한다.Next, the test result analysis unit 34 analyzes the evaluation results of the mock test questions for each test taker, saves the analysis result, or provides the analysis result at the request of the test taker terminal 10.

특히, 시험결과 분석부(34)는 특정 모의시험 문제에 대한 개별시험에 대한 분석, 또는, 해당 응시자의 누적된 모의시험 결과에 대하여 분석을 수행한다. 전자를 개별분석이라 하고, 후자를 누적분석이라고 부르기로 한다.In particular, the test result analysis unit 34 analyzes an individual test for a specific mock test problem, or an analysis of the accumulated test results of the candidate. The former is called individual analysis, and the latter is called cumulative analysis.

먼저, 분석결과는 평균 점수, 정답율, 순위 등의 결과를 포함하며, 각 결과는 분야, 난이도 등에 따라 세분화된 결과를 포함할 수 있다. 또한, 각 결과는 다른 모든 응시자들의 성적 결과에 대비되어 분석될 수 있다.First, the analysis results include results such as average score, correct answer rate, ranking, etc., and each result may include results subdivided according to field, difficulty, and the like. In addition, each result can be analyzed against the results of all other candidates.

즉, 각 모의시험에 대하여 전체 평균점수, 정답율, 순위 등 결과를 산출한다. 또한, 그동안 누적된 시험에 대하여 평균점수, 정답율, 순위 등 결과를 산출할 수 있다. 순위는 다른 응시자들의 평균점수를 대비하여 평균점수에 의한 순위를 산정한다. 정답율, 순위, 평균 외에도 표준편차, 분산 등 다른 통계치도 산출할 수 있다. 또한, 다른 전체 응시자들의 전체 평균점수나, 정답율 등과 대비하는 대비 분석결과를 획득할 수 있다.That is, for each mock test, results such as overall average score, correct answer rate, and ranking are calculated. In addition, the average score, correct answer rate, ranking, etc. can be calculated for the accumulated tests. The ranking is based on the average score of other test takers. In addition to the correct answer rate, ranking, and average, other statistical values such as standard deviation and variance can also be calculated. In addition, it is possible to obtain a contrast analysis result in comparison with the overall average score or correct answer rates of other test takers.

또한, 각 분야별로 모의시험의 결과를 분석하여 제공할 수 있다. 즉, 특정 분야(특정 과목 및 단원) 내에서의 평균점수, 정답율, 순위 등을 결과를 산출할 수 있다. 즉, 특정 분야에 속하는 개별 문제들의 정답 또는 오답 여부를 추출하여, 이들 결과에 대하여 평균을 구하여 점수(평균)를 구하거나 정답율을 계산하거나, 순위를 산출한다.In addition, it is possible to analyze and provide the results of simulation tests for each field. In other words, the average score, correct answer rate, ranking, etc. within a specific field (specific subjects and units) can be calculated. That is, whether the correct or incorrect answers of individual questions belonging to a specific field are extracted, the average of these results is obtained to obtain a score (average), a correct answer rate, or a ranking is calculated.

또한, 난이도별로 모의시험의 결과를 분석하여 제공할 수 있다. 즉, 특정 난이도(예를 들어, 난이도 B) 내에서의 평균점수, 정답율, 순위 등 결과를 산출한다.In addition, it is possible to analyze and provide the results of simulation tests by difficulty level. That is, the average score, correct answer rate, ranking, etc. within a specific difficulty (for example, difficulty B) are calculated.

또한, 모든 모의시험의 평가결과를 누적하여, 누적된 결과에 대한 평균점수, 정답율, 순위 등 누적결과를 산출할 수 있다. 또한, 누적된 결과에 대하여 분야(특정 과목 및 단원), 또는, 난이도로 세분화 하여 분석결과(평균점수, 정답율, 순위 등)를 산출할 수 있다. 즉, 모든 개별 문제는 난이도가 정해져 있고, 난이도별로 정답율이 있으며, 난이도별 순위를 산출할 수 있다.In addition, by accumulating the evaluation results of all simulation tests, it is possible to calculate the cumulative results such as average score, correct answer rate, and ranking for the accumulated results. In addition, analysis results (average score, correct answer rate, ranking, etc.) can be calculated by subdividing the accumulated results into fields (specific subjects and units) or difficulty. That is, all individual problems have a difficulty level, a correct answer rate for each difficulty level, and a ranking for each difficulty level.

예를 들어, 고3 수험생이 수학모의고사를 응시하는데, 수학과목 내 방정식이 단원으로 분류되어 있다면, 이 수험생은 고3 성적, 수학성적, 방정식 성적에 대한 평균, 순위 등 성적 통계(성적 통계치)를 알 수 있다. 또한, 위 세가지 분야 문제에서 난이도 A, B, C. D형의 문제로 분류되고, 전체 응시자들의 정답율과 해당 응시자의 정답율을 비교할 수 있다.For example, if a high school examinee takes a mathematics exam, and the equations in the mathematics subject are classified as units, the examinee will report performance statistics (sexual statistics) such as high school grades, mathematics grades, averages, rankings for the grades of the equations, etc. Able to know. In addition, in the above three field problems, it is classified as a difficulty A, B, C. D type, and the correct answer rate of all test takers can be compared with the correct answer rate of the test takers.

한편, 시험결과 분석부(34)는 난이도를 반영하여 각 응시자의 평균, 정답율, 순위 등을 결과를 산출한다. 이러한 결과를 난이도 반영 평가결과(분석결과)라고 부르기로 한다.On the other hand, the test result analysis unit 34 reflects the difficulty level and calculates the result of the average, correct answer rate, ranking, and the like of each candidate. These results will be called evaluation results (analysis results) reflecting the difficulty.

특히, 응시자 p의 난이도 반영 평균 m(p)는 다음 수학식에 의해 산출된다.In particular, the average m(p) reflecting the difficulty level of the test taker p is calculated by the following equation.

[수학식 1][Equation 1]

Figure pat00003
Figure pat00003

여기서, L은 난이도의 개수를 나타내고, k는 난이도 또는 난이도 등급의 인덱스를 나타낸다. 앞서 도 3의 예에서는 4개의 난이도를 나타내므로, L = 4이다. 바람직하게는, k의 값이 높을수록 난이도가 높은 것을 나타낸다.Here, L denotes the number of difficulty levels, and k denotes an index of difficulty level or difficulty level. In the previous example of FIG. 3, since 4 difficulties are represented, L=4. Preferably, the higher the value of k, the higher the difficulty.

mk(p)는 응시자 p의 난이도 k의 개별문제 평균을 나타내고, wk는 난이도에 따른 가중치를 나타낸다. 난이도 가중치 wk는 난이도가 높을수록 높은 가중치를 갖는다. 따라서 난이도의 k 인덱스 값이 높을수록 난이도가 높으면, 난이도 가중치 wk는 다음 수학식을 만족한다.m k (p) represents the average of individual problems of the difficulty k of test taker p, and w k represents the weight according to the difficulty. The difficulty weight w k has a higher weight as the difficulty is higher. Therefore, the higher the k-index value of the difficulty, the higher the difficulty, the difficulty weight w k satisfies the following equation.

[수학식 2][Equation 2]

w1 < w2 < w3 < ... < wL w 1 <w 2 <w 3 <... <w L

난이도 반영 정답율도 앞서 수학식 1과 같이, 난이도에 따라 가중치를 부여하여 산출한다.The correct answer rate reflecting the difficulty is calculated by assigning a weight according to the difficulty as in Equation 1 above.

또한, 난이도 반영 순위는 난이도 반영 평균에 의하여, 모든 응시자의 난이도 반영 평균을 구한다. 그리고 난이도 반영 평균에 의하여, 각 응시자의 순위를 결정한다. 이때 결정된 순위가 난이도 반영 순위이다.In addition, as for the ranking of reflecting the difficulty, the average reflecting the difficulty of all test takers is determined by the average reflecting the difficulty. In addition, the ranking of each candidate is determined by the average reflecting the difficulty. At this time, the determined rank is the rank reflecting the difficulty.

앞서 일반적인 분석결과 산출 방법과 같이, 난이도 반영 분석결과(평균, 정답율, 순위)는 분야(과목 및 단원)별로 산출될 수 있다.As in the previous method of calculating the general analysis results, the analysis results reflecting the difficulty (average, correct answer rate, ranking) can be calculated for each field (subject and unit).

다음으로, 난이도 설정부(35)는 각 개별문제에 대한 난이도를 설정한다.Next, the difficulty setting unit 35 sets the difficulty level for each individual problem.

제1 실시예에 따른 개별문제의 난이도 또는 난이도 점수(이하 제1 난이도 점수)를 구하는 방법은 해당 개별문제의 오답율을 이용한다. 즉, 개별문제에 대하여 해당 문제를 푼 모든 응시자의 오답률을 난이도 점수로 산정한다.The method of obtaining the difficulty or difficulty score (hereinafter referred to as the first difficulty score) of an individual problem according to the first embodiment uses a wrong answer rate of the individual problem. In other words, for each problem, the incorrect answer rate of all candidates who solved the problem is calculated as the difficulty score.

예를 들어, 개별문제 A를 푼 응시자가 모두 1,000명이고 이중에서 350명이 오답이었다면, 오답률인 35% 또는 35이 난이도 점수이다. 또한, 개별문제 B를 푼 응시자가 모두 2,000명이고 이중에서 1,500명이 오답이었다면, 오답률인 75% 또는 75가 난이도 점수이다.For example, if there were 1,000 test takers who solved individual question A and 350 of them were incorrect, the incorrect answer rate of 35% or 35 is the difficulty score. In addition, if there were 2,000 test takers who solved individual question B, and 1,500 of them were incorrect, 75% or 75 of the incorrect answer rate is the difficulty score.

그리고 도 3과 같이, 해당 다수의 난이도 등급에서, 해당되는 등급이 난이도로 설정된다. 앞서 예에서, 개별문제 A는 난이도 점수가 35이므로, 난이도는 등급 B이고, 개별문제 B는 난이도 점수가 75이므로 난이도는 등급 D이다.And, as shown in FIG. 3, in a plurality of difficulty levels, the corresponding level is set as the difficulty level. In the previous example, since the individual problem A has a difficulty score of 35, the difficulty is grade B, and the individual problem B has a difficulty score of 75, so the difficulty is grade D.

그런데 오답률은 해당 개별문제를 응시한 응시자의 수(또는 개별문제의 샘플링 횟수)가 일정 횟수 이상이어야 한다. 즉, 확률로서 의미를 가지려면 샘플링 크기가 최소한 기준치 이상이어야 한다. 여기서 샘플링이란 해당 개별문제가 모의시험 문제로서 추출된 것을 의미하며, 응시자에 의해 개별문제가 풀어지고 정답 또는 오답의 결과가 나오는 것을 말한다. 즉, 10명의 응시자에 의해 해당 개별문제가 모의시험으로 채택되고, 10개의 정답 또는 오답 결과가 얻어지면, 샘플링 개수 또는 샘플링 크기는 10이다.However, the incorrect answer rate must be more than a certain number of test takers (or the number of sampling times of individual questions). That is, in order to have a meaning as a probability, the sampling size must be at least a reference value. Here, the sampling means that the individual question is extracted as a mock test question, and the individual question is solved by the candidate and the result of the correct answer or incorrect answer appears. That is, if 10 individual candidates are selected as the simulated test and 10 correct or incorrect answers are obtained, the number of samples or the sampling size is 10.

다음으로, 제2 실시예에 따른 개별문제의 난이도 또는 난이도 점수(이하 제2 난이도 점수)를 구하는 방법은 응시자의 정답 또는 오답 결과에 응시자의 수준을 반영한다.Next, the method of obtaining the difficulty or difficulty score (hereinafter referred to as the second difficulty score) of the individual problem according to the second embodiment reflects the candidate's level in the correct or incorrect result of the candidate.

도 4에서 보는 바와 같이, 응시자 A의 수준이 Q라고 가정한다. 최소 수준이 0이고, 최대 수준이 100이라면, 도 4와 같이, 0과 100 사이의 어느 한 지점에 Q가 위치할 것이다.As shown in Fig. 4, it is assumed that the level of candidate A is Q. If the minimum level is 0 and the maximum level is 100, as shown in FIG. 4, Q will be located at any point between 0 and 100.

여기서, 응시자 수준은 응시자의 시험결과에 따른 수준으로서, 바람직하게는, 응시자의 평균점수로 산정한다. 더욱 바람직하게는, 응시자 수준은 난이도 반영 평균으로 설정한다.Here, the test taker level is a level according to the test result of the test taker, and is preferably calculated as the average score of the test taker. More preferably, the test taker level is set to the difficulty reflecting average.

도 4(a)에서, 만약 응시자 A가 개별문제를 풀었는데 정답으로 맞았다면, 해당 개별문제의 난이도(또는 수준)은 0과 Q 사이의 어느 한 지점일 것이다. 즉, 응시자가 정답으로 맞춘 경우 상기 응시자의 수준 내의 값으로 난이도 점수를 산출한다. 도 4(a)에서 굵은 검은 지점 X가 평균적으로 예측되는 난이도일 것이다.In Fig. 4(a), if candidate A solves an individual problem and is correct, the difficulty (or level) of the individual problem will be any point between 0 and Q. That is, when the candidate is correct, the difficulty score is calculated from the values in the candidate's level. In FIG. 4(a), the thick black point X will be the predicted difficulty level on average.

또한, 도 4(b)에서, 응시자 A가 개별문제를 오답으로 틀렸다면, 해당 개별문제의 난이도(또는 수준)은 응시자의 수준 Q를 넘어설 것이다. 즉, 오답으로 틀린 경우 상기 응시자의 수준 보다 높은 값으로 난이도 점수를 산출한다. 따라서 도 4(b)에서 굵은 검은 지점 X가 평균적으로 예측되는 난이도일 것이다. In addition, in FIG. 4(b), if candidate A is wrong about the individual problem, the difficulty (or level) of the individual problem will exceed the candidate's level Q. In other words, if the answer is incorrect, the difficulty score is calculated to be higher than the test taker's level. Therefore, the thick black point X in FIG. 4(b) will be the difficulty predicted on average.

따라서 바람직하게는, 어느 한 응시자가 개별문제를 푼 경우의 해당 개별문제의 난이도 점수를 다음과 같은 수학식으로 정의할 수 있다.Therefore, preferably, the difficulty score of the individual problem in case one candidate solves the individual problem can be defined by the following equation.

[수학식 3][Equation 3]

Figure pat00004
Figure pat00004

여기서, p는 응시자를 나타내고, i는 개별문제를 나타내는 인덱스이다.Here, p is the candidate and i is the index representing the individual problem.

Qi(p)는 개별문제 i에 대해 응시자 p의 정답 또는 오답에 따른 난이도 점수를 나타낸다. Qmax, Qmin 은 응시자 수준의 최대값 또는 최대값으로서, 바람직하게는, 100 또는 0을 나타낸다. 또한, Qp는 응시자의 수준을 나타낸다. 바람직하게는, 응시자의 수준은 응시자의 평균이다.Q i (p) represents the difficulty score according to the correct or incorrect answer of test taker p for individual question i. Q max and Q min are the maximum or maximum values of the test taker level, and preferably represent 100 or 0. In addition, Q p represents the test taker's level. Preferably, the candidate's level is the average of the candidate.

만약 개별문제 i에 대하여 N명의 응시자가 풀어 정답 또는 오답의 결과가 나왔다면, N명의 개별문제 난이도 점수를 평균한 값을 해당 개별문제의 난이도로 설정한다.If N test takers solve for individual question i and the result of the correct or incorrect answer is obtained, the average value of N individual difficulty scores is set as the difficulty of the individual problem.

한편, 난이도 설정부(35)는 제1 난이도 점수와 제2 난이도 점수를 가중 합산하여 최종 난이도 점수를 산출한다. 바람직하게는, 샘플링 크기에 따라 가중치를 부여하여 최종 난이도 점수를 구한다.Meanwhile, the difficulty setting unit 35 weights and sums the first difficulty score and the second difficulty score to calculate a final difficulty score. Preferably, the final difficulty score is obtained by weighting according to the sampling size.

즉, 샘플링 크기가 작을수록 제2 난이도 점수의 가중치를 높게 하고, 샘플링 크기가 클수록 제1 난이도 점수의 가중치를 높게 설정한다.That is, the smaller the sampling size, the higher the weight of the second difficulty score, and the larger the sampling size, the higher the weight of the first difficulty score.

다음으로, 출제보상 산출부(36)는 출제자의 개별문제에 대하여 보상점수를 산출하여, 각 출제자에 대한 보상금액을 산정한다.Next, the questionnaire compensation calculation unit 36 calculates a reward score for each question of the questionnaire and calculates the amount of compensation for each questionnaire.

각 개별문제에 대한 보상점수는 샘플링 횟수에 난이도 점수를 가중하여 산정한다. 즉, 보상점수는 샘플링 횟수와 난이도 점수에 비례한다.The compensation score for each individual problem is calculated by adding a difficulty score to the number of sampling times. That is, the reward score is proportional to the sampling number and the difficulty score.

출제된 개별문제가 많이 샘플링될수록 출제자에게 보다 많은 보상금액이 주어져야 한다. 따라서 샘플링 횟수에 비례하여 보상점수가 산출된다.The more sampled individual questions are, the more rewards must be given to participants. Therefore, the compensation score is calculated in proportion to the sampling frequency.

또한, 난이도가 높은 문제는 출제하기 어렵기 때문에, 난이도가 높은 개별문제에 대해 더 많은 보상점수를 부여한다. In addition, since problems with high difficulty are difficult to ask, more reward points are given to individual problems with high difficulty.

이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.Above, although the invention made by the present inventors has been specifically described according to the above-described embodiments, the present invention is not limited to the above-described embodiments, and it is needless to say that the invention can be changed in various ways without departing from the gist thereof.

10 : 응시자 단말 20 : 출제자 단말
30 : 모의시험 서버 31 : 개별문제 등록부
32 : 모의시험 출제부 33 : 모의시험 평가부
34 : 시험결과 분석부 35 : 난이도 설정부
36 : 출제보상 산출부
40 : 데이터베이스 80 : 네트워크
10: test taker terminal 20: test taker terminal
30: mock test server 31: individual question register
32: mock test submission section 33: mock test evaluation section
34: test result analysis unit 35: difficulty setting unit
36: questionnaire compensation calculation unit
40: database 80: network

Claims (6)

난이도 기반 온라인 모의시험 제공 시스템에 있어서,
개별문제를 등록하여 문제은행을 구축하는 개별문제 등록부;
상기 문제은행에서 개별문제들을 추출하여 모의시험 문제를 구성하여 제공하는 모의시험 출제부;
상기 모의시험 문제의 각 개별문제의 답안을 입력받고, 입력받은 답안과 저장된 해당 개별문제의 정답을 비교하여 평가결과를 저장하는 모의시험 평가부;
상기 모의시험 문제의 평가결과에 따라, 각 응시자 또는 전체 응시자에 대한 평균 및 순위를 산출하는 시험결과 분석부; 및,
각 개별문제의 난이도를 설정하되, 각 개별문제에 대한 응시자의 정답 또는 오답의 평가 결과에 응시자의 수준을 반영하여 난이도를 설정하는 난이도 설정부를 포함하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
In the difficulty-based online simulation test providing system,
An individual problem register that registers individual problems to build a problem bank;
A mock test questionnaire for extracting individual questions from the question bank and constructing and providing a mock test question;
A simulation test evaluating unit that receives an answer for each individual question in the mock test question and compares the received answer with the correct answer for the stored individual question to store an evaluation result;
A test result analysis unit that calculates an average and a rank for each test taker or all test takers according to the evaluation result of the simulation test problem; And,
A difficulty-based online simulation test providing system comprising setting a difficulty level for each individual problem, and including a difficulty setting unit for setting the difficulty level by reflecting the candidate's level in the evaluation result of the correct or incorrect answer for each individual problem.
제1항에 있어서,
상기 개별문제는 분야로 분류되고,
상기 모의시험 출제부는 분야와 난이도에 대한 출제 조건을 입력받아, 상기 출제 조건을 만족하는 개별문제들을 추출하여 모의시험 문제를 구성하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
According to claim 1,
The individual problems are classified into fields,
The mock test questionnaire is a difficulty-based online mock test providing system characterized by constructing a mock test question by extracting individual questions satisfying the test conditions by receiving the test conditions for the field and difficulty.
제1항에 있어서,
상기 시험결과 분석부는 난이도를 반영하여 다음 [수식 1]로 응시자 p의 평균 m(p)을 산출하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
[수식 1]
Figure pat00005

단, L은 난이도의 개수를 나타내고, k는 난이도 또는 난이도 등급의 인덱스를 나타내고, mk(p)는 응시자 p의 난이도 k의 개별문제 평균을 나타내고, wk는 난이도에 따른 가중치를 나타내며, 난이도 가중치 wk는 난이도가 높을수록 높은 가중치를 갖음.
According to claim 1,
The test result analysis unit reflects the difficulty level, the difficulty-based online simulation test providing system, characterized in that for calculating the average m (p) of the candidate p by the following [Equation 1].
[Equation 1]
Figure pat00005

However, L represents the number of difficulties, k represents the index of the difficulty or difficulty class, m k (p) represents the average of individual problems of the difficulty k of the candidate p, and w k represents the weight according to the difficulty, and the difficulty The weight w k has a higher weight as the difficulty is higher.
제1항에 있어서,
상기 난이도 설정부는 해당 개별문제를 풀은 응시자의 정답 또는 오답 결과에 응시자의 수준을 반영하여 해당 개별문제의 난이도 점수를 산출하되, 상기 응시자가 정답으로 맞춘 경우 상기 응시자의 수준 내의 값으로 난이도 점수를 산출하고, 오답으로 틀린 경우 상기 응시자의 수준 보다 높은 값으로 난이도 점수를 산출하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
According to claim 1,
The difficulty setting unit calculates the difficulty score of the individual problem by reflecting the candidate's level in the correct or incorrect answer result of the candidate who solved the individual problem. Difficulty-based online simulation test providing system, characterized in that for calculating the wrong score, the difficulty score is higher than the test taker's level.
제4항에 있어서,
상기 난이도 설정부는 다음 수식 2으로 응시자 p가 개별문제 i를 풀었을 경우 난이도 점수를 산출하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
[수식 2]
Figure pat00006

단, Qi(p)는 개별문제 i에 대해 응시자 p의 정답 또는 오답에 따른 난이도 점수를 나타내고, Qmax, Qmin 은 응시자 수준의 최대값 또는 최대값이고, Qp는 응시자의 수준을 나타냄.
According to claim 4,
The difficulty setting unit is a difficulty-based online simulation test providing system, characterized in that for the candidate p to solve the individual problem i in the following formula (2).
[Equation 2]
Figure pat00006

However, Q i (p) represents the difficulty score according to the correct or incorrect answer of candidate p for individual question i, Q max and Q min are the maximum or maximum value of the candidate level, and Q p represents the candidate level .
제1항에 있어서,
상기 시스템은, 출제자의 개별문제에 대하여 보상점수를 산출하여, 각 출제자에 대한 보상금액을 산정하되, 각 개별문제에 대한 보상점수는 샘플링 횟수에 난이도 점수를 가중하여 산정하는 출제보상 산출부를 더 포함하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
According to claim 1,
The system calculates a reward score for each problem of the submitter, and calculates a reward amount for each submitter, but the reward score for each individual problem further includes a question compensation calculation unit for weighting the difficulty score to the sampling number Difficulty-based online simulation test providing system, characterized in that.
KR1020190008300A 2019-01-22 2019-01-22 An online examination service system based on difficulty of questions KR102239667B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008300A KR102239667B1 (en) 2019-01-22 2019-01-22 An online examination service system based on difficulty of questions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008300A KR102239667B1 (en) 2019-01-22 2019-01-22 An online examination service system based on difficulty of questions

Publications (2)

Publication Number Publication Date
KR20200091537A true KR20200091537A (en) 2020-07-31
KR102239667B1 KR102239667B1 (en) 2021-04-14

Family

ID=71834863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008300A KR102239667B1 (en) 2019-01-22 2019-01-22 An online examination service system based on difficulty of questions

Country Status (1)

Country Link
KR (1) KR102239667B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220031816A (en) * 2020-09-04 2022-03-14 선문대학교 산학협력단 Automatic setting questions for examination
KR20230033918A (en) * 2021-09-02 2023-03-09 한성대학교 산학협력단 Apparatus and method for learning coordinating
KR20230067184A (en) * 2021-11-09 2023-05-16 주식회사 한글과컴퓨터 Rating prediction service server that predicts a rating rating for an exam based on a sample question associated with the test and operating method thereof
KR102561666B1 (en) * 2022-05-09 2023-07-28 김나현 Efficiently study method of problem-bank presenting problems style using Artificial intelligence algorithm

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100432148B1 (en) 2001-04-13 2004-05-17 주식회사 케이티랩 A Trial Examination of Automatic Making questions System Using Internet
KR20040057219A (en) 2002-12-26 2004-07-02 (주) 이티씨에듀 The system and method under the computer based examination which is the adaptive system
KR101030577B1 (en) * 2010-02-03 2011-04-21 주식회사 네오패드 Learner adaptive system and method for e-learning
KR101101177B1 (en) 2003-11-21 2011-12-30 주식회사 유웨이중앙교육 System and method for providing additional studying data based on learning level
KR20130026027A (en) * 2011-09-05 2013-03-13 강대식 Hierarchical problem setting and automatic test paper forming system using internet multiple servers
KR20140082560A (en) * 2012-12-24 2014-07-02 주식회사 테라클 Method and apparatus for administering learning contents
KR101438756B1 (en) 2012-01-19 2014-09-05 최내윤 Method for Providing Mock Test in Network, and Web-Server Used Therein
KR20150072937A (en) * 2013-12-20 2015-06-30 권재원 Education system and method for the same
KR20150135584A (en) * 2014-05-22 2015-12-03 이원영 A Difficulty Level Based Question Posing Study System Which Self-renews The Difficulty Level of Questions Based on Standard Average Hit Rate and Standard Average Solving Time of Students

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100432148B1 (en) 2001-04-13 2004-05-17 주식회사 케이티랩 A Trial Examination of Automatic Making questions System Using Internet
KR20040057219A (en) 2002-12-26 2004-07-02 (주) 이티씨에듀 The system and method under the computer based examination which is the adaptive system
KR101101177B1 (en) 2003-11-21 2011-12-30 주식회사 유웨이중앙교육 System and method for providing additional studying data based on learning level
KR101030577B1 (en) * 2010-02-03 2011-04-21 주식회사 네오패드 Learner adaptive system and method for e-learning
KR20130026027A (en) * 2011-09-05 2013-03-13 강대식 Hierarchical problem setting and automatic test paper forming system using internet multiple servers
KR101438756B1 (en) 2012-01-19 2014-09-05 최내윤 Method for Providing Mock Test in Network, and Web-Server Used Therein
KR20140082560A (en) * 2012-12-24 2014-07-02 주식회사 테라클 Method and apparatus for administering learning contents
KR20150072937A (en) * 2013-12-20 2015-06-30 권재원 Education system and method for the same
KR20150135584A (en) * 2014-05-22 2015-12-03 이원영 A Difficulty Level Based Question Posing Study System Which Self-renews The Difficulty Level of Questions Based on Standard Average Hit Rate and Standard Average Solving Time of Students

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220031816A (en) * 2020-09-04 2022-03-14 선문대학교 산학협력단 Automatic setting questions for examination
KR20230033918A (en) * 2021-09-02 2023-03-09 한성대학교 산학협력단 Apparatus and method for learning coordinating
KR20230067184A (en) * 2021-11-09 2023-05-16 주식회사 한글과컴퓨터 Rating prediction service server that predicts a rating rating for an exam based on a sample question associated with the test and operating method thereof
KR102561666B1 (en) * 2022-05-09 2023-07-28 김나현 Efficiently study method of problem-bank presenting problems style using Artificial intelligence algorithm

Also Published As

Publication number Publication date
KR102239667B1 (en) 2021-04-14

Similar Documents

Publication Publication Date Title
Cimermanová The Effect of Learning Styles on Academic Achievement in Different Forms of Teaching.
Mao et al. Validation of automated scoring for a formative assessment that employs scientific argumentation
Kersting et al. Measuring usable knowledge: Teachers’ analyses of mathematics classroom videos predict teaching quality and student learning
KR102239667B1 (en) An online examination service system based on difficulty of questions
KR101058741B1 (en) Study habits testing system and method
Hardegree Standards-based assessment and high stakes testing: Accuracy of standards-based grading
Ichsan et al. Designing an Innovative Assessment of HOTS in the Science Learning for the 21st Century
Verhaeghe et al. Diversity in school performance feedback systems
Frischemeier Primary school students’ reasoning when comparing groups using modal clumps, medians, and hatplots
Cutsinger et al. Differences of Instructor Presence Levels in Predominately Online Versus Predominantly Not Online Courses within the Community College Setting.
Schildkamp et al. The use of data across countries: Development and application of a data use framework
Camacho et al. Interactional quality in middle schools: Latent profiles and their associations with teacher, classroom, and school compositional factors
Naicker Educator's pedagogy influencing the effective use of computers for teaching purposes in classrooms: lessons learned from secondary schools in South Africa
Evans Value-added in English schools
Zapata-Cáceres et al. Understanding Teachers’ Attitudes and Self-Assessment Towards Computational Thinking
Kwiatkowska Measuring the difficulty of test items in computing science education
JP6644315B2 (en) Server device and self-scoring support method
CN111985793A (en) Online student evaluation and education method
Ferand et al. The relationship of prior FFA membership on perceived ability to manage an FFA chapter
Oti et al. Learning opportunities and diversity of engineering students’ background in interdisciplinary group projects
Souzandehfar et al. Authenticity of “Language Town” as an Innovation in Assessing Learners’ Speaking Ability: Moving towards a Virtual Language Town (VLT)
Akveld et al. Improving mathematics diagnostic tests using item analysis
Suzi et al. How Can Learner Analytics Data Inform Language MOOC Design?
Ofem et al. Predictive Analysis of Research Competence on Thesis Completion Rate among Postgraduate Students in Universities in South-South Geopolitical Region, Nigeria.
Widiastuty Students’ English learning motivaton at the Tenth Grade of SMK Karsa Mulya Palangka Raya

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant