KR102569339B1 - Speaking test system - Google Patents

Speaking test system Download PDF

Info

Publication number
KR102569339B1
KR102569339B1 KR1020230030971A KR20230030971A KR102569339B1 KR 102569339 B1 KR102569339 B1 KR 102569339B1 KR 1020230030971 A KR1020230030971 A KR 1020230030971A KR 20230030971 A KR20230030971 A KR 20230030971A KR 102569339 B1 KR102569339 B1 KR 102569339B1
Authority
KR
South Korea
Prior art keywords
learner
word
equation
terminal
response
Prior art date
Application number
KR1020230030971A
Other languages
Korean (ko)
Inventor
정인수
Original Assignee
주식회사 공터영어
정인수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 공터영어, 정인수 filed Critical 주식회사 공터영어
Priority to KR1020230030971A priority Critical patent/KR102569339B1/en
Application granted granted Critical
Publication of KR102569339B1 publication Critical patent/KR102569339B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Marketing (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Mathematics (AREA)
  • Economics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)

Abstract

본 발명은 인공 신경망을 통해 발음의 정확도를 측정하여 발음과 어조에 대한 세부적인 분석 결과를 제공하는 스피킹 테스트 시스템에 관한 것이다.The present invention relates to a speaking test system that provides detailed analysis results on pronunciation and tone by measuring pronunciation accuracy through an artificial neural network.

Description

스피킹 테스트 시스템{Speaking test system}Speaking test system {Speaking test system}

본 발명은 스피킹 테스트 시스템에 관한 것으로, 더욱 상세하게는 인공 신경망을 통해 발음의 정확도를 측정하여 발음과 어조에 대한 세부적인 분석 결과를 제공하는 스피킹 테스트 시스템에 관한 것이다.The present invention relates to a speaking test system, and more particularly, to a speaking test system that measures pronunciation accuracy through an artificial neural network and provides detailed analysis results on pronunciation and tone.

일반적으로 오프라인(off-line) 학습은 학교와 일반 사설학원, 그리고 과외 및 기타 학습지 시장을 통해 교육서비스 영역을 확보해왔다. 그러나, PBT(paper based training) 학습을 기초로 하는 학교 등의 집합교육은 동일한 공간에서 동일한 교과과정을 학습하는 형태로써 개개인의 학습수준을 고려하지 않고, 교수자의 단편적 시간제약과 일방적 학습제공으로 인해 학습자의 성취도가 고려되지 않는 교육이었다. 즉, 수업 종료 후 수업 내용을 이해하는 학생들도 있지만, 이해하지 못하는 학생들의 경우는 대부분이 내용에 대한 재확인 없이 그 과정을 그냥 지나치게 된다.In general, off-line learning has secured an educational service area through schools, general private academies, and tutoring and other home study materials markets. However, collective education such as schools based on PBT (paper based training) learning is a form of learning the same curriculum in the same space, and does not consider individual learning levels, due to the fragmentary time constraints of the instructor and unilateral learning It was an education in which the achievement of learners was not considered. In other words, some students understand the contents of the class after the end of the class, but in the case of students who do not understand, most of them pass the process without reconfirming the contents.

이러한 구성주의 학습의 가장 큰 문제점은 또래집단 간의 우열상황이 발생할 경우, 열등감을 지닌 구성원이 수업종료 후 자신의 미흡한 부분에 대해 교수자에게 재수강을 요청하는 데에는 많은 어려움이 따른다는 것이다.The biggest problem with constructivist learning is that when a superiority/inferiority situation occurs between peer groups, it is very difficult for members with a sense of inferiority to ask the instructor to retake the course for their insufficient part after the end of the class.

그리하여 이를 학원이나 과외 및 학습지를 통해 재습득하고자 하는 경우가 발생하게 되므로, 학습과정에서 많은 기회비용이 발생하여 사교육비가 증가하게 되고, 가계에도 주요 부담원이 되고 있다.As a result, there are cases in which students want to reacquire it through private academies, private tutoring, or study materials, which incurs a lot of opportunity costs in the course of learning, increasing private education expenses and becoming a major burden on households.

한편, 이러한 오프라인 학습은 IT 산업이 발달함에 따라 2001년부터 온라인서비스라는 새로운 방식을 통해 학습할 수 있는 인터넷 등을 통한 온라인 학습(e-Learning)으로 확대되고 있다.On the other hand, such offline learning has been expanded to online learning (e-Learning) through the Internet, etc., which can be learned through a new method called online service since 2001 as the IT industry develops.

이러한 온라인 학습 방법은 반복학습이 가능하고, 시간이나 장소에 구애받지 않으며, 이미 촬영된 강좌를 수강하기 때문에 선행학습이 가능하다는 장점이 있다.This online learning method has the advantage of being able to perform repeated learning, regardless of time or place, and being able to learn in advance by taking lectures that have already been filmed.

이러한 연유로 온라인 학습은 이러한 지속적인 성장을 통해 오프라인 학습의 보완재 및 대체재로서 오프라인 학습방법과 대등한 학습방법의 하나로 교육산업의 한 축을 이루게 되었다.For this reason, online learning has become an axis of the education industry as one of the learning methods equivalent to the offline learning method as a supplement or alternative to offline learning through such continuous growth.

그러나, 종래의 온라인을 통한 실시간 교육은 학습자의 상태를 오로지 모니터에 의존할 수밖에 없기 때문에 오프라인상에서의 교육과 달리 수업을 듣고 있는 학습자에 대한 지도가 극히 제한적이다. However, since conventional real-time education through online has no choice but to rely solely on the monitor for the learner's condition, unlike offline education, guidance for learners taking classes is extremely limited.

특히, 교육자와 학습자의 관계가 일 대 다수인 경우 학습자에 대한 통제가 거의 불가능하여 학습자가 졸거나 학습에 불필요한 언행을 하는 경우에도 오프라인상에서와 같이 교육자가 이를 감지하여 학습에 집중토록 유도하는 것이 어려워 오프라인상에서와 같은 학습효과를 달성할 수 없는 치명적인 문제가 있었다.In particular, when the relationship between educators and learners is one-to-many, it is almost impossible to control the learners, so it is difficult for the educator to detect and induce the learner to focus on learning even when the learners doze off or do unnecessary words and actions like offline. There was a fatal problem that the same learning effect as offline could not be achieved.

한편, 전술한 배경 기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background art is technical information that the inventor possessed for derivation of the present invention or acquired in the process of derivation of the present invention, and cannot necessarily be said to be known art disclosed to the general public prior to filing the present invention. .

한국공개특허 제10-2022-0126412호Korean Patent Publication No. 10-2022-0126412

본 발명의 일측면은 인공 신경망을 통해 발음의 정확도를 측정하여 발음과 어조에 대한 세부적인 분석 결과를 제공하는 스피킹 테스트 시스템을 제공한다.One aspect of the present invention provides a speaking test system that measures pronunciation accuracy through an artificial neural network and provides detailed analysis results for pronunciation and tone.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problem mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 스피킹 테스트 시스템은 디스플레이 모듈을 통해 출력되는 텍스트 또는 스피커 모듈을 통해 출력되는 사운드에 대응하여 발화하는 학습자의 음성을 인식하는 학습자 단말; 및 상기 학습자 단말로부터 수신되는 음성 데이터를 미리 학습된 인공 신경망을 통해 분석하여, 발음과 어조에 대한 세부적인 분석 결과를 제공하는 교육 콘텐츠 관리서버를 포함한다.A speaking test system according to an embodiment of the present invention includes a learner terminal for recognizing a learner's voice spoken in response to text output through a display module or sound output through a speaker module; and an educational content management server that analyzes voice data received from the learner terminal through a pre-learned artificial neural network and provides detailed analysis results on pronunciation and tone.

상기 교육 콘텐츠 관리서버는,The educational content management server,

미리 설정된 평가 기준에 따라 학습자의 능력을 평가하여 학습자 단말별로 분석 보고서를 생성하는 학습자 분석부를 포함하고,A learner analysis unit that evaluates the learner's ability according to preset evaluation criteria and generates an analysis report for each learner terminal;

상기 학습자 분석부는,The learner analysis unit,

학습자의 스피킹 능력을 테스트하기 위한 평가 콘텐츠를 학습자 단말로 전송하여, 상기 사전 평가 콘텐츠에 대하여 학습자 단말로부터 수신되는 응답 데이터를 인공 신경망을 통해 분석하여 발음 및 어조의 정확도에 대한 세부적인 분석 결과가 포함된 테스트 보고서를 생성하되,Evaluation content for testing the learner's speaking ability is transmitted to the learner's terminal, and the response data received from the learner's terminal for the pre-evaluation content is analyzed through an artificial neural network, and detailed analysis results for pronunciation and tone accuracy are included. generate test reports,

상기 응답 데이터를 인공 신경망을 통해 분석하는 것은,Analyzing the response data through an artificial neural network,

특정 테스트 문항에 대해 학습자 단말로부터 수신된 음성 데이터를 단어별로 구분하고, 각각의 단어별로 단어가 가진 의미를 나타내는 제1 특징벡터와, 단어의 어조 특징을 나타내는 제2 특징벡터를 추출하고, For a specific test item, the voice data received from the learner's terminal is classified into words, and a first feature vector representing the meaning of the word and a second feature vector representing the tone characteristics of the word are extracted for each word,

특정 테스트 문항에 대해 미리 저장된 정답 데이터를 단어별로 구분하고, 각각의 단어별로 단어가 가진 의미를 나타내는 제1 특징벡터와, 단어의 어조 특징을 나타내는 제2 특징벡터를 추출하고,Dividing pre-stored answer data for a specific test item into words, extracting a first feature vector representing the meaning of the word for each word and a second feature vector representing the tone characteristics of the word,

정답 단어로부터 추출된 제1 특징벡터와 제2 특징벡터 및 학습자의 음성 데이터 중 정답 단어와 대응되는 단어로부터 추출된 제1 특징벡터와 제2 특징벡터를 미리 학습된 인공 신경망에 입력하여, 인공 신경망으로부터 정답 단어와 발음 단어 간의 발음 유사도 및 어조 유사도를 산출한다.The first feature vector and the second feature vector extracted from the correct word and the first feature vector and the second feature vector extracted from the word corresponding to the correct word among the learner's voice data are input to the artificial neural network trained in advance. From this, the phonetic similarity and the tonal similarity between the correct word and the pronunciation word are calculated.

상기 학습자 분석부는, The learner analysis unit,

하기 수학식 1을 이용하여 학습자 단말별로 평가점수를 산출한다.An evaluation score is calculated for each learner terminal using Equation 1 below.

[수학식 1][Equation 1]

여기서, St는 학습자 단말의 최종 평가점수, S1는 하기 수학식 2를 통해 산출되는 1차 평가점수, S2는 하기 수학식 3을 통해 산출되는 2차 평가점수, S3는 하기 수학식 4을 통해 산출되는 3차 평가점수, α는 제1 가중치, β는 제2 가중치, γ는 제3 가중치이다.Here, St is the final evaluation score of the learner terminal, S1 is the first evaluation score calculated through Equation 2 below, S2 is the second evaluation score calculated through Equation 3 below, and S3 is calculated through Equation 4 below. 3rd evaluation score, α is the first weight, β is the second weight, and γ is the third weight.

[수학식 2][Equation 2]

여기서, S1은 1차 평가점수, Nic는 i번째 문항의 정답 단어의 개수, Nia는 i번째 문항에 대해서 학습자 단말로부터 수신된 응답 단어의 개수, Ti는 i번째 문항을 풀이하는 데 소요된 시간, n은 문제 데이터의 개수, la는 다른 학습자의 평균 응답 단어의 개수, Na는 문제 데이터의 평균 단어 개수, wi는 문제 데이터별로 부여되는 가중치, wa는 평균 가중치이다.Here, S1 is the primary evaluation score, Nic is the number of correct words for the ith question, Nia is the number of response words received from the learner terminal for the ith question, Ti is the time required to solve the ith question, n is the number of problem data, la is the average number of response words of other learners, Na is the average number of words in problem data, wi is the weight assigned to each problem data, and wa is the average weight.

[수학식 3][Equation 3]

여기서, S2는 2차 평가점수, ts는 문항별 응답 임계시간, tr는 문항별 실제 응답 시간, w1은 제1 상수, tsn은 평균 응답 임계시간, trn은 다른 학습자들의 평균 응답 시간이다.Here, S2 is the secondary evaluation score, ts is the critical response time for each item, tr is the actual response time for each item, w1 is the first constant, tsn is the average response critical time, and trn is the average response time of other learners.

[수학식 4][Equation 4]

여기서, S3은 2차 평가점수, vs는 정답 단어의 임베딩 벡터, vr은 응답 단어의 임베딩 벡터, vsn은 정답 단어 다음에 위치한 단어의 임베딩 벡터, vt는 함정 단어의 임베딩 벡터, vtn은 함정 단어 다음에 위치한 단어의 임베딩 벡터이다.Here, S3 is the secondary evaluation score, vs is the embedding vector of the correct word, vr is the embedding vector of the response word, vsn is the embedding vector of the word located next to the correct word, vt is the embedding vector of the trap word, vtn is the embedding vector of the trap word is the embedding vector of the word located at .

상술한 본 발명의 일측면에 따르면 학습자의 사전 테스트 결과에 기초하여 현재 레벨을 점수화하여 산출하고, 산출된 결과에 기초한 학습 문제를 맞춤형으로 제공할 수 있다.According to one aspect of the present invention described above, the current level is scored and calculated based on the result of the pre-test of the learner, and a learning problem based on the calculated result can be customized.

도 1은 본 발명의 일 실시예에 따른 학습자 테스트 점수에 기반한 문제 제공 시스템의 개략적인 구성이 도시된 도면이다.
도 2는 도 1에 도시된 교육 콘텐츠 관리서버의 구체적인 구성이 도시된 도면이다.
1 is a diagram showing a schematic configuration of a problem providing system based on learner test scores according to an embodiment of the present invention.
FIG. 2 is a diagram showing a specific configuration of the educational content management server shown in FIG. 1 .

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description of the present invention which follows refers to the accompanying drawings which illustrate, by way of illustration, specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable one skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different from each other but are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in another embodiment without departing from the spirit and scope of the invention in connection with one embodiment. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description set forth below is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all equivalents as claimed by those claims. Like reference numbers in the drawings indicate the same or similar function throughout the various aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 스피킹 테스트 시스템의 개략적인 구성이 도시된 도면이다.1 is a diagram showing a schematic configuration of a speaking test system according to an embodiment of the present invention.

본 발명에 따른 스피킹 테스트 시스템은 인공 신경망을 통해 발음의 정확도를 측정하여 발음과 어조에 대한 세부적인 분석 결과를 제공하는 것을 목적으로 한다.The speaking test system according to the present invention aims to provide detailed analysis results on pronunciation and tone by measuring pronunciation accuracy through an artificial neural network.

구체적으로, 본 발명에 따른 스피킹 테스트 시스템은 학습자 단말(100) 및 교육 콘텐츠 관리서버(200)를 포함한다.Specifically, the speaking test system according to the present invention includes a learner terminal 100 and an educational content management server 200.

학습자 단말(100)은 온라인 학습 서비스를 제공받기 희망하는 학습자가 소지한 전자장치로, 외부기기와 유무선 통신이 가능하며 정보의 입출력 및 처리가 가능한 스마트폰, PC, 랩탑, 태블릿 PC, 웨어러블 디바이스, 키오스크 등과 같은 형태일 수 있다.The learner terminal 100 is an electronic device possessed by a learner who wishes to receive online learning services, and is capable of wired and wireless communication with external devices and capable of inputting and processing information, such as smartphones, PCs, laptops, tablet PCs, wearable devices, It may be in the form of a kiosk or the like.

학습자는 학습자 단말(100)을 통해 교육 콘텐츠 관리서버(200)로 접속하여, 본 발명에 따른 온라인 기반 멀티 학습 서비스를 교육 콘텐츠 관리서버(200)로부터 제공받는다.The learner accesses the educational content management server 200 through the learner terminal 100 and receives the online-based multi-learning service according to the present invention from the educational content management server 200.

교육 콘텐츠 관리서버(200)는 복수의 학습자 단말(100)와 유선 또는 무선 통신으로 연결되어 학습자 단말(100)별로 맞춤형 온라인 교육 서비스를 제공한다.The educational content management server 200 is connected to a plurality of learner terminals 100 through wired or wireless communication and provides customized online education services for each learner terminal 100 .

도 2는 이러한 교육 콘텐츠 관리서버(200)의 구체적인 구성이 도시된 도면이다.2 is a diagram showing a specific configuration of such an educational content management server 200.

도시된 바와 같이, 교육 콘텐츠 관리서버(200)는 학습자 분석부(210) 및 학습 콘텐츠 관리부(220)를 포함한다. As shown, the educational content management server 200 includes a learner analysis unit 210 and a learning content management unit 220.

학습자 분석부(210)는 교육 콘텐츠 관리서버(200)에 저장된 학습자 데이터에 기초하여 학습자 단말별로 평가점수를 산출한다. The learner analysis unit 210 calculates an evaluation score for each learner terminal based on the learner data stored in the educational content management server 200 .

여기서, 교육 콘텐츠 관리서버(200)에 저장된 학습자 데이터라 함은 과제 수행 데이터, 테스트 데이터, 학습이력 데이터 등 학습자가 본 발명에 따른 온라인 기반 멀티 학습 시스템을 이용하기 위해 입력되는 정보와, 온라인 기반 멀티 학습 시스템을 이용하는 과정에서 발생되는 정보를 모두 포함한다.Here, the learner data stored in the educational content management server 200 refers to information input for the learner to use the online-based multi-learning system according to the present invention, such as task performance data, test data, and learning history data, and online-based multi-learning data. It includes all information generated in the process of using the learning system.

구체적으로, 학습자 분석부(210)는 1차 테스트 문항 그룹, 2차 테스트 문항 그룹 및 3차 테스트 문항 그룹으로 구성된 사전 평가 콘텐츠를 생성하여 학습자 단말로 전송하여, 상기 사전 평가 콘텐츠에 대하여 학습자 단말로부터 수신되는 응답 데이터에 기초하여 평가 점수를 산출한다.Specifically, the learner analysis unit 210 generates pre-evaluation content consisting of a 1st test item group, a 2nd test item group, and a 3rd test item group, transmits it to the learner terminal, and receives the pre-evaluation content from the learner terminal. An evaluation score is calculated based on the received response data.

이때, 학습자 분석부(210)는 문항반응이론에 입각하여 각각의 문항 그룹을 구성한다.At this time, the learner analysis unit 210 configures each item group based on item response theory.

검사를 구성하고 있는 문항 하나하나에 초점을 두고 각 문항마다의 고유한 문항특성곡선에 의하여 피험자의 잠재적 특성 혹은 능력과 문항의 특성을 추정하는 검사이론이다. 문항반응이론의 핵심요소인 문항특성곡선은 피험자의 잠재적 특성 혹은 능력과 문항의 답을 맞힐 확률 간의 함수관계를 나타낸다. 이러한 함수관계는 피험자의 잠재적 특성 혹은 능력으로 문항점수를 예측할 수 있고, 어떤 능력을 가진 피험자의 한 문항에 대한 응답과 다른 문항에 대한 응답은 상호 독립적이라는 지역독립성을 기본 가정으로 이론을 전개한다.It is a test theory that focuses on each item constituting the test and estimates the potential characteristics or abilities of the test subject and the characteristics of the items according to the unique item characteristic curve for each item. The item characteristic curve, a key element of item response theory, represents the functional relationship between the subject's latent characteristics or abilities and the probability of answering the item correctly. This functional relationship develops the theory based on the basic assumption of regional independence, that item scores can be predicted with the subject's latent characteristics or abilities, and that the response to one question and the response to another question of a subject with a certain ability are mutually independent.

예를 들어, 1차 테스트 문항 그룹은 기본 문제들로 구성되도록 하고, 2차 테스트 문항은 질문을 읽고 올바른 답을 고르는 문제들로 구성되도록 하며, 3차 테스트 문항은 문제의 단어를 듣고 단어의 첫 소리를 고르는 문제들로 구성되도록 한다.For example, let the first test item group consist of basic questions, the second test item consist of questions about reading a question and choosing the correct answer, and the third test item consist of listening to the word in the question and the first word in the word. It consists of problems of choosing sounds.

학습자 분석부(210)는 이러한 문항들로 구성된 사전 평가 콘텐츠를 생성하여 학습자 단말로 전송하여, 상기 사전 평가 콘텐츠에 대하여 학습자 단말로부터 수신되는 응답 데이터에 기초하여 평가 점수를 산출한다. 평가점수를 산출하는 구체적인 과정은 후술하기로 한다.The learner analysis unit 210 generates pre-evaluation content composed of these questions, transmits it to the learner terminal, and calculates an evaluation score based on response data received from the learner terminal for the pre-evaluation content. A detailed process of calculating the evaluation score will be described later.

또한, 학습자 분석부는 학습자의 스피킹 능력을 측정하여 평가하기 위해, 학습자의 스피킹 능력을 테스트하기 위한 평가 콘텐츠를 학습자 단말로 전송하여, 상기 사전 평가 콘텐츠에 대하여 학습자 단말로부터 수신되는 응답 데이터를 인공 신경망을 통해 분석하여 발음 및 어조의 정확도에 대한 세부적인 분석 결과가 포함된 테스트 보고서를 생성한다.In addition, the learner analysis unit transmits evaluation contents for testing the learner's speaking ability to the learner terminal in order to measure and evaluate the learner's speaking ability, and transmits response data received from the learner terminal with respect to the pre-evaluation content to the artificial neural network. It generates a test report with detailed analysis results on pronunciation and tone accuracy.

이를 위해, 학습자 분석부는 특정 테스트 문항에 대해 학습자 단말로부터 수신된 음성 데이터를 단어별로 구분하고, 각각의 단어별로 단어가 가진 의미를 나타내는 제1 특징벡터와, 단어의 어조 특징을 나타내는 제2 특징벡터를 추출한다.To this end, the learner analysis unit classifies voice data received from the learner terminal for a specific test item into words, and for each word, a first feature vector representing the meaning of the word and a second feature vector representing the tone characteristics of the word. extract

이와 동시에, 학습자 분석부는 특정 테스트 문항에 대해 미리 저장된 정답 데이터를 단어별로 구분하고, 각각의 단어별로 단어가 가진 의미를 나타내는 제1 특징벡터와, 단어의 어조 특징을 나타내는 제2 특징벡터를 추출한다.At the same time, the learner analysis unit divides the pre-stored correct answer data for a specific test item by word, and extracts a first feature vector representing the meaning of the word and a second feature vector representing the tone characteristics of the word for each word. .

이후, 학습자 분석부는 정답 단어로부터 추출된 제1 특징벡터와 제2 특징벡터 및 학습자의 음성 데이터 중 정답 단어와 대응되는 단어로부터 추출된 제1 특징벡터와 제2 특징벡터를 미리 학습된 인공 신경망에 입력하여, 인공 신경망의 출력값에 기초하여 정답 단어와 발음 단어 간의 발음 유사도 및 어조 유사도를 산출한다.Thereafter, the learner analysis unit transmits the first feature vector and the second feature vector extracted from the correct word and the first feature vector and the second feature vector extracted from the word corresponding to the correct word among the learner's voice data to the pre-learned artificial neural network. and the phonetic similarity and tonal similarity between the correct word and the pronunciation word are calculated based on the output value of the artificial neural network.

여기서, 인공 신경망은 입력층, 은닉층 및 출력층으로 구성된 심층 신경망의 형태일 수 있다.Here, the artificial neural network may be in the form of a deep neural network composed of an input layer, a hidden layer, and an output layer.

이후, 학습자 분석부는 산출된 유사도에 기초하여 학습자의 발음 정확도 및 어조 정확도에 대한 정보가 포함된 테스트 보고서를 생성한다.Thereafter, the learner analysis unit generates a test report including information on pronunciation accuracy and tone accuracy of the learner based on the calculated similarity.

도 3 및 도 4는 학습자 분석부에 의해 생성된 테스트 보고서의 구체적인 일 예가 도시된 도면이다. 3 and 4 are diagrams showing specific examples of test reports generated by the learner analysis unit.

도시된 바와 같이, 학습자 분석부는 학습자가 발음한 특정 단어가 어떠한 단어처럼 들렸는지에 대한 분석 결과를 테스트 보고서에 포함시킬 수 있으며, 이에 따라 학습자는 테스트 보고서를 통해 자신이 고쳐야 할 발음 습관에 대한 정보를 구체적으로 제공받을 수 있다.As shown, the learner analysis unit may include in the test report an analysis result of how the specific word pronounced by the learner sounded like, and accordingly, the learner may include information about pronunciation habits to be corrected through the test report. can be provided in detail.

또한, 학습자 분석부는 학습자별로 생성되는 테스트 보고서를 누적하여 저장함으로써, 학습자는 시간이 흐름에 따라 자신의 스피킹 실력의 변화를 한 눈에 확인할 수 있다.In addition, the learner analysis unit accumulates and stores test reports generated for each learner, so that the learner can check the change in his or her speaking ability at a glance over time.

이 외에도, 교육 콘텐츠 관리서버(200)는 도시되지는 않았으나 학습 콘텐츠 관리부, 라이브 클래스 관리부, 퀴즈 콘텐츠 관리부, 게이미피케이션 콘텐츠 관리부, 프로젝트 관리부, 온라인 몰 관리부 등과 같은 구성을 더 포함할 수 있다.In addition, although not shown, the educational content management server 200 may further include components such as a learning content management unit, a live class management unit, a quiz content management unit, a gamification content management unit, a project management unit, and an online mall management unit.

학습 콘텐츠 관리부는 상기 학습자 분석부에 의해 평가된 학습자의 역량에 대응되는 온라인 학습 콘텐츠를 학습자 단말로 제공한다.The learning content management unit provides online learning content corresponding to the learner's competency evaluated by the learner analysis unit to the learner's terminal.

학습 콘텐츠 관리부는 E-Library Channel, US School Channel, Game Channel, Toon Channel, Media Channel 등 학습자의 수준에 맞게, 단계에 맞게 흥미를 유발하는 다채로운 디지털 콘텐츠로 최적화된 교육 코스를 제공한다.The learning content management department provides an optimized education course with colorful digital contents such as E-Library Channel, US School Channel, Game Channel, Toon Channel, and Media Channel that arouse interest according to the level and stage of the learner.

라이브 클래스 관리부(230)는 상기 온라인 학습 콘텐츠를 강의하는 강사 단말과 상기 학습자 단말 간의 라이브 수업이 이루어질 수 있도록 실시간 화상 회의 서비스를 제공한다.The live class management unit 230 provides a real-time video conference service so that live classes can be made between the instructor terminal and the learner terminal that lectures the online learning content.

퀴즈 콘텐츠 관리부(240)는 상기 학습자 분석부에 의해 평가된 학습자의 역량에 대응되는 성취도 확인용 퀴즈를 학습자 단말로 제공한다.The quiz content management unit 240 provides a quiz for checking achievement corresponding to the learner's competency evaluated by the learner analysis unit to the learner terminal.

퀴즈 콘텐츠 관리부(240)는 만들어지는 모든 문제를 디지털화하여 메타정보와 함께 데이터베이스에 축적함으로써 문제관리의 효율을 극대화할 수 있다.The quiz content management unit 240 can maximize the efficiency of problem management by digitizing all problems created and accumulating them together with meta information in a database.

게이미피케이션 콘텐츠 관리부(250)는 상기 온라인 학습 콘텐츠와 관련된 게임 콘텐츠를 학습자 단말로 제공한다.The gamification content management unit 250 provides game content related to the online learning content to a learner terminal.

게이미피케이션 콘텐츠 관리부(250)는 Unscramble Words, Unscramble Sentence, Sentence Speaking, Sentence Typing, Word Typing와 같이 5개의 학습 유형 중 어느 하나의 유형에 맞는 게임 콘텐츠가 학습자 단말(100)에서 출력되도록 제어한다.The gamification content management unit 250 controls game content suitable for any one of five learning types such as Unscramble Words, Unscramble Sentence, Sentence Speaking, Sentence Typing, and Word Typing to be output from the learner terminal 100.

프로젝트 관리부(260)는 학습자 주도형 학습 콘텐츠를 생성한다.The project management unit 260 creates learner-directed learning content.

구체적으로, 프로젝트 관리부는, 상기 학습자 단말을 통해 학습 목표를 설정하는 단계, 설정된 학습 목표를 달성하기 위한 주별 프로젝트를 설정하는 단계, 학습자가 주별 프로젝트별로 배경지식을 습득할 수 있도록, 주별 프로젝트와 관련된 배경지식 정보를 학습자 단말로 제공하는 단계 및 학습자 단말에 미리 설치된 애플리케이션을 통해 생성된 발표자료를 수신하는 단계 를 통해 상기 학습자 주도형 학습 콘텐츠를 생성하는 것을 특징으로 한다.Specifically, the project management unit sets a learning goal through the learner terminal, sets a weekly project to achieve the set learning goal, so that the learner can acquire background knowledge for each weekly project, related to the weekly project. It is characterized in that the learner-directed learning content is created through the step of providing background knowledge information to the learner's terminal and the step of receiving presentation materials created through an application pre-installed on the learner's terminal.

온라인 몰 관리부는 학습 과정에서 발생되는 리워드(포인트)를 학습자별로 누적 관리하고, 누적된 리워드를 이용하여 다양한 상품을 구매할 수 있도록 하며, 학습자가 직접 기획, 제작한 상품을 교육 콘텐츠 관리서버(200)와 연동되는 웹페이지에 등록하여 온라인 몰을 통해 판매 및 구매할 수 있도록 한다.The online mall management unit accumulates and manages the rewards (points) generated in the learning process for each learner, uses the accumulated rewards to purchase various products, and the learners plan and produce products themselves through the educational content management server (200). Register on the web page linked to and sell and purchase through the online mall.

한편, 교육 콘텐츠 관리서버(200)는 데이터베이스에 축적된 학습자의 빅데이터를 데이터 마이닝을 거쳐 맞춤형 학습을 추천하며, 학생의 흥미도와 성향, 학습 내용 등을 분석하여 학생에게 적합한 맞춤 교육 콘텐츠를 추천한다.On the other hand, the educational content management server 200 recommends customized learning through data mining of the learner's big data accumulated in the database, and recommends customized educational content suitable for the student by analyzing the student's interest, tendency, and learning content. .

이를 위해, 학습자 분석부는 하기 수학식 1을 이용하여 학습자 단말별로 평가점수를 산출한다.To this end, the learner analysis unit calculates an evaluation score for each learner terminal using Equation 1 below.

[수학식 1][Equation 1]

여기서, St는 학습자 단말의 최종 평가점수, S1는 하기 수학식 2를 통해 산출되는 1차 평가점수, S2는 하기 수학식 3을 통해 산출되는 2차 평가점수, S3는 하기 수학식 4을 통해 산출되는 3차 평가점수, α는 제1 가중치, β는 제2 가중치, γ는 제3 가중치이다.Here, St is the final evaluation score of the learner terminal, S1 is the first evaluation score calculated through Equation 2 below, S2 is the second evaluation score calculated through Equation 3 below, and S3 is calculated through Equation 4 below. 3rd evaluation score, α is the first weight, β is the second weight, and γ is the third weight.

[수학식 2][Equation 2]

여기서, S1은 1차 평가점수, Nic는 i번째 문항의 정답 단어의 개수, Nia는 i번째 문항에 대해서 학습자 단말로부터 수신된 응답 단어의 개수, Ti는 i번째 문항을 풀이하는 데 소요된 시간, n은 문제 데이터의 개수, la는 다른 학습자의 평균 응답 단어의 개수, Na는 문제 데이터의 평균 단어 개수, wi는 문제 데이터별로 부여되는 가중치, wa는 평균 가중치이다.Here, S1 is the primary evaluation score, Nic is the number of correct words for the ith question, Nia is the number of response words received from the learner terminal for the ith question, Ti is the time required to solve the ith question, n is the number of problem data, la is the average number of response words of other learners, Na is the average number of words in problem data, wi is the weight assigned to each problem data, and wa is the average weight.

[수학식 3][Equation 3]

여기서, S2는 2차 평가점수, ts는 문항별 응답 임계시간, tr는 문항별 실제 응답 시간, w1은 제1 상수, tsn은 평균 응답 임계시간, trn은 다른 학습자들의 평균 응답 시간이다.Here, S2 is the secondary evaluation score, ts is the critical response time for each item, tr is the actual response time for each item, w1 is the first constant, tsn is the average response critical time, and trn is the average response time of other learners.

[수학식 4][Equation 4]

여기서, S3은 2차 평가점수, vs는 정답 단어의 임베딩 벡터, vr은 응답 단어의 임베딩 벡터, vsn은 정답 단어 다음에 위치한 단어의 임베딩 벡터, vt는 함정 단어의 임베딩 벡터, vtn은 함정 단어 다음에 위치한 단어의 임베딩 벡터이다.Here, S3 is the secondary evaluation score, vs is the embedding vector of the correct word, vr is the embedding vector of the response word, vsn is the embedding vector of the word located next to the correct word, vt is the embedding vector of the trap word, vtn is the embedding vector of the trap word is the embedding vector of the word located at .

이와 같이, 학습자 분석부는 3차 반응형 문제에 대한 평가에서, 정답으로 설정된 단어와 학습자가 응답한 단어 간의 유사성, 정답으로 오인되기 쉬운 발음의 단어인 함정 단어와 학습자가 응답한 단어 간의 유사성을 종합적으로 고려하여 3차 반응형 문제 영역을 평가함으로써 평가의 신뢰성을 향상시킬 수 있다.In this way, in the evaluation of the third-order responsive problem, the learner analysis unit comprehensively measures the similarity between the word set as the correct answer and the word the learner responded to, and the similarity between the trap word, which is a pronunciation word that is easily misunderstood as the correct answer, and the word the learner responded to. It is possible to improve the reliability of evaluation by evaluating the third-order responsive problem area in consideration of

한편, 수학식 1에 기재된 제1 가중치(α), 제2 가중치(β), 및 제3 가중치(γ)는 하기 수학식에 의해 산출될 수 있다.Meanwhile, the first weight (α), the second weight (β), and the third weight (γ) described in Equation 1 may be calculated by the following equation.

[수학식 5][Equation 5]

여기서, α는 제1 가중치, n은 전체 문항 수, qi는 i번째 문항의 배점점수이다. Here, α is the first weight, n is the total number of items, and qi is the score of the ith item.

[수학식 6][Equation 6]

여기서, β는 제2 가중치 h, k, q는 상수로, h는 k보다 작고, q는 0보다 큰 수인 것을 특징으로 한다.Here, β is characterized in that the second weights h, k, and q are constants, h is less than k, and q is a number greater than 0.

도 5는 수학식 6에 기재된 hx3+kx2+q의 일 예가 도시된 도면으로, y축은 문항의 난이도, x축은 문항을 의미한다. 예를 들어, 2차 테스트가 j번째 문항부터 k번째 문항으로 구성된 경우, 제2 가중치는 이 문항별 난이도 함수를 적분한 결과에 대응됨을 뜻한다.5 is a diagram showing an example of hx 3 +kx 2 +q described in Equation 6, the y-axis represents the difficulty of the question, and the x-axis represents the question. For example, if the second test consists of the j-th item to the k-th item, the second weight corresponds to the result of integrating the difficulty function for each item.

[수학식 7][Equation 7]

이와 같이, 학습자 분석부는 상술한 수학식들을 이용하여 1차 테스트 결과에 대한 제1 평가점수, 2차 테스트 결과에 대한 제2 평가점수, 3차 테스트 결과에 대한 제3 평가점수를 산출하고, 산출된 평가점수들을 연산하여 최종 평가점수를 산출한다. In this way, the learner analysis unit calculates and calculates the first evaluation score for the first test result, the second evaluation score for the second test result, and the third evaluation score for the third test result using the above-described equations. The calculated evaluation scores are calculated to calculate the final evaluation score.

또한, 교육 콘텐츠 관리서버(200)는 교육 콘텐츠별로 레벨 점수를 미리 부여하여 관리하고 있다가, 산출된 평가점수에 대응되는 레벨 점수를 갖는 온라인 교육 콘텐츠를 학습자 단말로 제공함으로써 학습자 맞춤형 교육 콘텐츠를 제공할 수 있으며, 분석 과정의 신뢰성이 향상될 수 있다.In addition, the educational content management server 200 pre-assigns and manages level scores for each educational content, and provides learner-customized educational content by providing online educational content having a level score corresponding to the calculated evaluation score to the learner terminal. and the reliability of the analysis process can be improved.

몇몇 다른 실시예에서, 교육 콘텐츠 관리서버(200)는 학습자 단말(100)로부터 수신되는 강사별 리뷰 데이터를 분석하여 강사별 평점을 산출하는 강사 평가부(미도시)를 더 포함할 수 있다.In some other embodiments, the educational content management server 200 may further include an instructor evaluation unit (not shown) that analyzes review data for each instructor received from the learner terminal 100 and calculates a rating for each instructor.

예를 들면, 강사 평가부는 입력 데이터에 대하여 문맥 정보를 추출하는 인공 신경망을 구축할 수 있다.For example, the instructor evaluator may build an artificial neural network that extracts contextual information from input data.

여기서, 입력 데이터는 강사에 대한 리뷰 데이터일 수 있다.Here, the input data may be review data for the instructor.

강사 평가부는 학습자 단말(100)로부터 수신하는 리뷰 데이터를 강사별로 분류하여 누적하여 저장할 수 있으며, 저장한 리뷰 데이터를 학습 데이터로 추출할 수 있다.The instructor evaluation unit may classify review data received from the learner terminal 100 for each instructor, accumulate and store the review data, and extract the stored review data as learning data.

강사 평가부는 Word2Vec 알고리즘으로 학습 데이터를 학습하여 입력 데이터에 대하여 문맥 정보를 추출하는 신경망을 구축할 수 있다.The instructor evaluation unit may build a neural network that learns the learning data using the Word2Vec algorithm and extracts contextual information from the input data.

Word2Vec 알고리즘은 신경망 언어 모델(NNLM : Neural Network Language Model)을 포함할 수 있다. 신경망 언어 모델은 기본적으로 Input Layer, Projection Layer, Hidden Layer, Output Layer로 이루어진 Neural Network이다. 신경망 언어 모델은 단어를 벡터화하는 방법에 사용되는 것이다. 신경망 언어 모델은 공지된 기술이므로 보다 자세한 설명은 생략하기로 한다.The Word2Vec algorithm may include a Neural Network Language Model (NNLM). The neural network language model is basically a neural network consisting of an input layer, a projection layer, a hidden layer, and an output layer. A neural network language model is what is used to vectorize words. Since the neural network language model is a well-known technology, a detailed description thereof will be omitted.

Word2vec 알고리즘은, 텍스트마이닝을 위한 것으로, 각 단어 간의 앞, 뒤 관계를 보고 근접도를 정하는 알고리즘이다. Word2vec 알고리즘은 비지도 학습 알고리즘이다. Word2vec 알고리즘은 이름이 나타내는 바와 같이 단어의 의미를 벡터형태로 표현하는 계량기법일 수 있다. Word2vec 알고리즘은 각 단어를 200차원 정도의 공간에서 백터로 표현할 수 있다. Word2vec 알고리즘을 이용하면, 각 단어마다 단어에 해당하는 벡터를 구할 수 있다.The Word2vec algorithm, for text mining, is an algorithm that determines the degree of proximity by looking at the relationship between each word before and after it. Word2vec algorithm is an unsupervised learning algorithm. As the name suggests, the Word2vec algorithm may be a metric technique that expresses the meaning of a word in a vector form. The Word2vec algorithm can represent each word as a vector in a space of about 200 dimensions. Using the Word2vec algorithm, a vector corresponding to a word can be obtained for each word.

Word2vec 알고리즘은 종래의 다른 알고리즘에 비해 자연어 처리 분야에서 비약적인 정밀도 향상을 가능하게 할 수 있다. Word2vec은 입력한 말뭉치의 문장에 있는 단어와 인접 단어의 관계를 이용해 단어의 의미를 학습할 수 있다. Word2vec 알고리즘은 인공 신경망에 근거한 것으로, 같은 맥락을 지닌 단어는 가까운 의미를 지니고 있다는 전제에서 출발한다. Word2vec 알고리즘은 텍스트 문서를 통해 학습을 진행하며, 한 단어에 대해 근처(전후 5 내지 10 단어 정도)에 출현하는 다른 단어들을 관련 단어로서 인공 신경망에 학습시킨다. 연관된 의미의 단어들은 문서상에서 가까운 곳에 출현할 가능성이 높기 때문에 학습을 반복해 나가는 과정에서 두 단어는 점차 가까운 벡터를 지닐 수 있다.The Word2vec algorithm can dramatically improve precision in the field of natural language processing compared to other conventional algorithms. Word2vec can learn the meaning of words by using the relationship between words in the sentences of the input corpus and adjacent words. The Word2vec algorithm is based on an artificial neural network and starts from the premise that words with the same context have close meanings. The Word2vec algorithm learns through text documents, and learns other words that appear nearby (about 5 to 10 words before and after) a word as related words to the artificial neural network. Since words with related meanings are highly likely to appear close to each other in the document, the two words can gradually have close vectors in the process of repeating learning.

Word2vec 알고리즘의 학습 방법은 CBOW(Continuous Bag Of Words) 방식과 skip-gram 방식이 있다. CBOW 방식은 주변 단어가 만드는 맥락을 이용해 타겟 단어를 예측하는 것이다. skip-gram 방식은 한 단어를 기준으로 주변에 올 수 있는 단어를 예측하는 것이다. 대규모 데이터셋에서는 skip-gram 방식이 더 정확한 것으로 알려져 있다.The learning method of the Word2vec algorithm includes the CBOW (Continuous Bag Of Words) method and the skip-gram method. The CBOW method predicts a target word using the context created by surrounding words. The skip-gram method predicts words that may come around based on one word. For large datasets, the skip-gram method is known to be more accurate.

따라서, 본 발명의 실시 예에서는 skip-gram 방식을 이용한 Word2vec 알고리즘을 사용한다. 예컨대, Word2vec 알고리즘을 통해 학습이 잘 완료되면, 고차원 공간에서 비슷한 단어는 근처에 위치할 수 있다. 상술한 바와 같은 Word2vec 알고리즘에 따르면 학습 문서 내 주위 단어의 분포가 가까운 단어일수록 산출되는 벡터값은 유사해질 수 있으며, 산출된 벡터값이 비슷한 단어는 유사한 것으로 간주할 수 있다. Word2vec 알고리즘은 공지된 기술이므로 벡터값 계산과 관련한 보다 상세한 설명은 생략하기로 한다.Therefore, in the embodiment of the present invention, the Word2vec algorithm using the skip-gram method is used. For example, if learning is successfully completed through the Word2vec algorithm, similar words in a high-dimensional space can be located nearby. According to the above-described Word2vec algorithm, the calculated vector value may be similar to a word having a closer distribution of neighboring words in a learning document, and words having similar calculated vector values may be regarded as similar. Since the Word2vec algorithm is a well-known technology, a detailed description of vector value calculation will be omitted.

강사 평가부는 평점 단계를 복수 개로 나누고, 각 평점 단계에 해당하는 평가 기준 텍스트를 설정 할 수 있다. 예컨대, 강사 평가부는 리뷰 데이터에 기반한 평가 결과에 따라 전문가에 의해 평점이 부여된 외부 서버에 접속하여 복수의 평점 단계 별 평가 기준 텍스트를 획득할 수 있다.The instructor evaluation unit may divide the evaluation level into a plurality of evaluation levels and set evaluation standard text corresponding to each evaluation level. For example, the instructor evaluator may access an external server to which a rating has been assigned by an expert according to an evaluation result based on review data, and may obtain evaluation criterion text for each of a plurality of rating stages.

강사 평가부는 신경망에 복수의 평점 단계 별 평가 기준 텍스트를 각각 입력하여, 평점 단계 별평가 기준 텍스트에 대한 문맥 정보를 나타내는 평점 단계 별 기준 벡터 값을 추출할 수 있다.The instructor evaluator may input evaluation criterion text for each rating level into the neural network, and extract a reference vector value for each rating level representing context information about the evaluation standard text for each rating level.

강사 평가부는 신경망에 학습자 단말(100)로부터 수신하는 리뷰 데이터에 대한 평가결과 텍스트를 입력하여 문맥 정보를 나타내는 평가 결과 벡터 값을 추출할 수 있다.The instructor evaluation unit may extract an evaluation result vector value representing context information by inputting evaluation result text for the review data received from the learner terminal 100 to the neural network.

강사 평가부는 평가 결과 벡터 값과 복수의 기준 벡터 값 각각의 유사도를 산출하고, 복수의 기준벡터 값 중 평가 결과 벡터 값과의 유사도가 가장 높은 기준 벡터 값을 추출할 수 있다. 이때, 유사도 산출 방법에는 유클리디안 거리(Euclidean distance), 코사인 유사도(Cosine similarity), 타니모토 계수(Tanimoto coeffieient) 등이 채택될 수 있다.The instructor evaluation unit may calculate a similarity between the evaluation result vector value and a plurality of reference vector values, and extract a reference vector value having the highest similarity with the evaluation result vector value among the plurality of reference vector values. In this case, as a similarity calculation method, Euclidean distance, cosine similarity, Tanimoto coeffieient, and the like may be adopted.

강사 평가부는 평가 결과 벡터 값과의 유사도가 가장 높은 기준 벡터 값에 해당하는 평점 단계를 해당 강사의 평점으로 산출할 수 있다.The instructor evaluation unit may calculate a rating level corresponding to a criterion vector value having the highest similarity with the evaluation result vector value as a rating of the corresponding instructor.

강사 평가부는 강사별로 산출한 평점을 매칭하여 저장할 수 있으며, 학습자(100)에서 실행하는 어플리케이션을 통해 강사별 별 평점을 안내할 수 있다.The instructor evaluation unit may match and store the calculated ratings for each instructor, and guide the ratings for each instructor through an application executed by the learner 100 .

이와 같은, 본 발명에 따른 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such technology according to the present invention may be implemented as an application or implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those produced by a compiler. The hardware device may be configured to act as one or more software modules to perform processing according to the present invention and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 공간으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and space of the present invention described in the claims below. You will be able to.

100: 학습자 단말
200: 교육 콘텐츠 관리서버
100: learner terminal
200: educational content management server

Claims (3)

디스플레이 모듈을 통해 출력되는 텍스트 또는 스피커 모듈을 통해 출력되는 사운드에 대응하여 발화하는 학습자의 음성을 인식하는 학습자 단말; 및
상기 학습자 단말로부터 수신되는 음성 데이터를 미리 학습된 인공 신경망을 통해 분석하여, 발음과 어조에 대한 세부적인 분석 결과를 제공하는 교육 콘텐츠 관리서버를 포함하는, 스피킹 테스트 시스템에 있어서,
상기 교육 콘텐츠 관리서버는,
미리 설정된 평가 기준에 따라 학습자의 능력을 평가하여 학습자 단말별로 분석 보고서를 생성하는 학습자 분석부를 포함하고,
상기 학습자 분석부는,
학습자의 스피킹 능력을 테스트하기 위한 평가 콘텐츠를 학습자 단말로 전송하여, 사전 평가 콘텐츠에 대하여 학습자 단말로부터 수신되는 응답 데이터를 인공 신경망을 통해 분석하여 발음 및 어조의 정확도에 대한 세부적인 분석 결과가 포함된 테스트 보고서를 생성하되,
상기 응답 데이터를 인공 신경망을 통해 분석하는 것은,
특정 테스트 문항에 대해 학습자 단말로부터 수신된 음성 데이터를 단어별로 구분하고, 각각의 단어별로 단어가 가진 의미를 나타내는 제1 특징벡터와, 단어의 어조 특징을 나타내는 제2 특징벡터를 추출하고,
특정 테스트 문항에 대해 미리 저장된 정답 데이터를 단어별로 구분하고, 각각의 단어별로 단어가 가진 의미를 나타내는 제1 특징벡터와, 단어의 어조 특징을 나타내는 제2 특징벡터를 추출하고,
정답 단어로부터 추출된 제1 특징벡터와 제2 특징벡터 및 학습자의 음성 데이터 중 정답 단어와 대응되는 단어로부터 추출된 제1 특징벡터와 제2 특징벡터를 미리 학습된 인공 신경망에 입력하여, 인공 신경망으로부터 정답 단어와 발음 단어 간의 발음 유사도 및 어조 유사도를 산출하고,
상기 학습자 분석부는,
하기 수학식 1을 이용하여 학습자 단말별로 평가점수를 산출하는, 스피킹 테스트 시스템.

[수학식 1]

여기서, St는 학습자 단말의 최종 평가점수, S1는 하기 수학식 2를 통해 산출되는 1차 평가점수, S2는 하기 수학식 3을 통해 산출되는 2차 평가점수, S3는 하기 수학식 4을 통해 산출되는 3차 평가점수, α는 하기 수학식 5를 통해 산출되는 제1 가중치, β는 하기 수학식 6을 통해 산출되는 제2 가중치, γ는 제3 가중치이다.

[수학식 2]

여기서, S1은 1차 평가점수, Nic는 i번째 문항의 정답 단어의 개수, Nia는 i번째 문항에 대해서 학습자 단말로부터 수신된 응답 단어의 개수, Ti는 i번째 문항을 풀이하는 데 소요된 시간, n은 문제 데이터의 개수, la는 다른 학습자의 평균 응답 단어의 개수, Na는 문제 데이터의 평균 단어 개수, wi는 문제 데이터별로 부여되는 가중치, wa는 평균 가중치이다.

[수학식 3]

여기서, S2는 2차 평가점수, ts는 문항별 응답 임계시간, tr는 문항별 실제 응답 시간, w1은 제1 상수, tsn은 평균 응답 임계시간, trn은 다른 학습자들의 평균 응답 시간이다.

[수학식 4]

여기서, S3은 2차 평가점수, vs는 정답 단어의 임베딩 벡터, vr은 응답 단어의 임베딩 벡터, vsn은 정답 단어 다음에 위치한 단어의 임베딩 벡터, vt는 함정 단어의 임베딩 벡터, vtn은 함정 단어 다음에 위치한 단어의 임베딩 벡터이다.

[수학식 5]

여기서, α는 제1 가중치, n은 전체 문항 수, qi는 i번째 문항의 배점점수이다.

[수학식 6]

여기서, β는 제2 가중치이고, h, k 및 q는 상수로, h는 k보다 작고, q는 0보다 큰 수인 것을 특징으로 한다.
a learner terminal for recognizing a learner's voice uttered in response to text output through a display module or sound output through a speaker module; and
In the speaking test system including an educational content management server that analyzes the voice data received from the learner terminal through a pre-learned artificial neural network and provides detailed analysis results for pronunciation and tone,
The educational content management server,
A learner analysis unit that evaluates the learner's ability according to preset evaluation criteria and generates an analysis report for each learner terminal;
The learner analysis unit,
The evaluation content for testing the learner's speaking ability is transmitted to the learner's terminal, and the response data received from the learner's terminal for the pre-evaluation content is analyzed through an artificial neural network, which includes detailed analysis results on the accuracy of pronunciation and tone. Generate a test report,
Analyzing the response data through an artificial neural network,
For a specific test item, the voice data received from the learner's terminal is classified into words, and a first feature vector representing the meaning of the word and a second feature vector representing the tone characteristics of the word are extracted for each word,
Dividing pre-stored answer data for a specific test item into words, extracting a first feature vector representing the meaning of the word for each word and a second feature vector representing the tone characteristics of the word,
The first feature vector and the second feature vector extracted from the correct word and the first feature vector and the second feature vector extracted from the word corresponding to the correct word among the learner's voice data are input to the artificial neural network trained in advance. Calculate the phonetic similarity and the tonal similarity between the correct word and the pronunciation word from
The learner analysis unit,
A speaking test system that calculates an evaluation score for each learner terminal using Equation 1 below.

[Equation 1]

Here, St is the final evaluation score of the learner terminal, S1 is the first evaluation score calculated through Equation 2 below, S2 is the second evaluation score calculated through Equation 3 below, and S3 is calculated through Equation 4 below. A third evaluation score, α is a first weight calculated through Equation 5 below, β is a second weight calculated through Equation 6 below, and γ is a third weight.

[Equation 2]

Here, S1 is the primary evaluation score, Nic is the number of correct words for the ith question, Nia is the number of response words received from the learner terminal for the ith question, Ti is the time required to solve the ith question, n is the number of problem data, la is the average number of response words of other learners, Na is the average number of words in problem data, wi is the weight assigned to each problem data, and wa is the average weight.

[Equation 3]

Here, S2 is the secondary evaluation score, ts is the critical response time for each item, tr is the actual response time for each item, w1 is the first constant, tsn is the average response critical time, and trn is the average response time of other learners.

[Equation 4]

Here, S3 is the secondary evaluation score, vs is the embedding vector of the correct word, vr is the embedding vector of the response word, vsn is the embedding vector of the word located next to the correct word, vt is the embedding vector of the trap word, vtn is the embedding vector of the trap word is the embedding vector of the word located at .

[Equation 5]

Here, α is the first weight, n is the total number of items, and qi is the score of the ith item.

[Equation 6]

Here, β is a second weight, h, k, and q are constants, h is less than k, and q is a number greater than 0.
삭제delete 삭제delete
KR1020230030971A 2023-03-09 2023-03-09 Speaking test system KR102569339B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230030971A KR102569339B1 (en) 2023-03-09 2023-03-09 Speaking test system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230030971A KR102569339B1 (en) 2023-03-09 2023-03-09 Speaking test system

Publications (1)

Publication Number Publication Date
KR102569339B1 true KR102569339B1 (en) 2023-08-22

Family

ID=87799450

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230030971A KR102569339B1 (en) 2023-03-09 2023-03-09 Speaking test system

Country Status (1)

Country Link
KR (1) KR102569339B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210051948A (en) * 2019-10-31 2021-05-10 주식회사 엘지씨엔에스 Apparatus for studying foreign language and method for providing foreign language study service by using the same
KR102410644B1 (en) * 2022-02-16 2022-06-22 주식회사 알투스 Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence
KR20220126412A (en) 2021-03-09 2022-09-16 주식회사 퍼넥티브 method and server for providing English education services through an online learning platform

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210051948A (en) * 2019-10-31 2021-05-10 주식회사 엘지씨엔에스 Apparatus for studying foreign language and method for providing foreign language study service by using the same
KR20220126412A (en) 2021-03-09 2022-09-16 주식회사 퍼넥티브 method and server for providing English education services through an online learning platform
KR102410644B1 (en) * 2022-02-16 2022-06-22 주식회사 알투스 Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence

Similar Documents

Publication Publication Date Title
Kelly et al. Automatically measuring question authenticity in real-world classrooms
Settles et al. Machine learning–driven language assessment
Lynch et al. Listening
Donnelly et al. Automatic teacher modeling from live classroom audio
CA2474840C (en) Automatic reading teaching system and methods
KR101182390B1 (en) Apparatus and Method for learning foreign language words seamlessly
KR101635144B1 (en) Language learning system using corpus and text-to-image technique
Goodwin et al. Explorations of classroom talk and links to reading achievement in upper elementary classrooms.
KR20190080314A (en) Method and apparatus for providing segmented internet based lecture contents
Evanini et al. Approaches to automated scoring of speaking for K–12 English language proficiency assessments
Chaichumpa et al. Assessment of student competency for personalised online learning using objective distance
Ercikan et al. Optimizing implementation of artificial‐intelligence‐based automated scoring: An evidence centered design approach for designing assessments for AI‐based scoring
KR20220053982A (en) Method for recommanding educational institute based on artificial intelligence
KR102569339B1 (en) Speaking test system
Franklin et al. Evaluating metrics for automatic mind map assessment in various classes
US20210056957A1 (en) Ability Classification
CN110826796A (en) Score prediction method
Aziz et al. Adaptive E-learning recommendation model based on the knowledge level and learning style
CN111260518B (en) Campus information management system
KR20140051607A (en) Apparatus providing analysis information based on level of a student and method thereof
CN113408810A (en) Intelligent course management system
US10453354B2 (en) Automatically generated flash cards
Gong et al. GRE: An adaptive and personalized exercise model for K-12 online education
Fernando et al. Innovative, Integrated and Interactive (3I) LMS for Learners and Trainers
KR102658252B1 (en) Video education content providing method and apparatus based on artificial intelligence natural language processing using characters

Legal Events

Date Code Title Description
GRNT Written decision to grant