KR20090102088A - Language training method and system based sound analysis on internet - Google Patents

Language training method and system based sound analysis on internet

Info

Publication number
KR20090102088A
KR20090102088A KR1020080027328A KR20080027328A KR20090102088A KR 20090102088 A KR20090102088 A KR 20090102088A KR 1020080027328 A KR1020080027328 A KR 1020080027328A KR 20080027328 A KR20080027328 A KR 20080027328A KR 20090102088 A KR20090102088 A KR 20090102088A
Authority
KR
South Korea
Prior art keywords
learner
learning
sound
analysis
language learning
Prior art date
Application number
KR1020080027328A
Other languages
Korean (ko)
Other versions
KR100995847B1 (en
Inventor
이기원
Original Assignee
이기원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이기원 filed Critical 이기원
Priority to KR20080027328A priority Critical patent/KR100995847B1/en
Priority to PCT/KR2009/001394 priority patent/WO2009119991A2/en
Publication of KR20090102088A publication Critical patent/KR20090102088A/en
Application granted granted Critical
Publication of KR100995847B1 publication Critical patent/KR100995847B1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE: A language learning method and a system thereof based on sound analysis on the internet for improving speaking learning effect are provided to maintain the learning volition of a learner and speak the sound of English. CONSTITUTION: A language studying method is as follows. A learner(110) connects a language learning service system through a learner computer(S1). The language training service system provides the learner page(S2). The learner selects a learning function on a learner page screen(S3). The study page in which it learns the language training service system fits to the transfer studying progress of the corresponding learner is provided. The language training service system evaluates it compares with the correct answer the examination paper is inputted a learner learns in the study page. The analyzed result is provided as a learner(S13).

Description

인터넷상에서의 소리분석 기반 어학 학습방법 및 시스템{ LANGUAGE TRAINING METHOD AND SYSTEM BASED SOUND ANALYSIS ON INTERNET }LANGUAGE TRAINING METHOD AND SYSTEM BASED SOUND ANALYSIS ON INTERNET}

본 발명은 컴퓨터를 이용한 온라인 어학학습 방법 및 시스템에 관한 것으로, 더욱 상세하게는 학습자의 올바른 어학습득을 위해 학습자의 소리를 과학적으로 분석하여 학습자가 체계적으로 학습할 수 있도록 하는 인터넷상에서의 소리분석 기반 어학 학습방법 및 시스템에 관한 것이다.The present invention relates to a computer-based online language learning method and system, and more particularly, based on sound analysis on the Internet, which enables the learner to systematically learn by analyzing the learner's sound for the learner's correct language acquisition. The present invention relates to a language learning method and system.

최근 들어, 교통 및 통신수단이 발전함에 따라 기업활동과 개인의 일상생활이 글로벌화되면서 외국어를 가르치는 어학 교육의 중요성이 매우 강조되고 있다. 종래의 전통적인 어학교육은 학원을 통해 이루어졌으나 인터넷이 널리 보급되면서 인터넷을 이용한 어학학습이 점차 각광을 받고 있다.Recently, with the development of transportation and communication means, the importance of language education to teach foreign languages has been very emphasized as business activities and individual daily lives are globalized. Conventional language education has been conducted through academy, but as the Internet is widely used, language learning using the Internet is in the spotlight.

하지만 인터넷을 이용한 종래의 어학학습은 컨텐츠가 부실함과 단순한 반복 기능을 통해 언어를 습득하려 하며, 아울러 언어 습득에 가장 중요한 학습자 자신이 직접 말해보는 체계적인 훈련을 할 수 없을 뿐 아니라, 학습에 대한 과학적인 분석이 없이 단지 어학학원에서 진행하던 어학 학습 내용을 동영상으로 제공하거나 단순 반복 혹은 원어민의 말을 따라 하기 방식이어서 학습자의 학습욕구를 충족시켜주지 못하는 문제점이 있다. However, the conventional language learning using the Internet attempts to acquire a language through poor content and simple repetition function, and also cannot systematically train the learner himself, who is most important in language acquisition, and learns scientifically about learning. There is a problem in that it does not satisfy the learner's learning needs because it provides a video of the language learning content that has been progressed at the language school without analysis or simply repeats or follows a native speaker's words.

또한 한국어에 익숙한 한국인에게는 영어의 소리에 들어 있는 발음이나 리듬뿐 아니라 언어의 가장 기본인 소리의 근원(한국어는 목에서, 영어는 배에서 소리가 남) 등이 한국어와 현격하게 다르므로, 아무리 영어를 공부해도 듣고 말하는 영어를 능숙하게 하는 것이 불가능하다. In addition, for Koreans who are familiar with Korean, not only pronunciation and rhythm in English sounds, but also the source of the most basic sounds (Korean is from the neck and English are from the belly) are significantly different from Korean. Even if you study English, it is impossible to be good at listening and speaking English.

본 발명은 상기와 같은 문제점을 해결하기 위하여 제안된 것으로, 본 발명의 목적은 다양한 학습 기능을 이용하여 학습자의 소리와 학습결과에 대한 과학적인 분석을 통해 학습자 스스로 언어 훈련을 하며, 원어민에 가까운 영어의 소리를 낼 수 있도록 하고, 학습자의 학습의욕을 지속적으로 유지시킬 수 있는 인터넷상에서의 소리분석 기반 어학 학습 방법 및 시스템을 제공하는 것이다. The present invention has been proposed to solve the above problems, an object of the present invention is to train the language of the learner himself through the scientific analysis of the learner's sound and learning results using a variety of learning functions, English near native speakers It is to provide a sound analysis-based language learning method and system on the Internet that can make the sound of the voice and keep the learner's motivation to learn continuously.

본 발명의 다른 목적은 학습자의 말하기 학습 효과를 향상시키기 위해 녹음시 시간을 제한하고 학습자의 녹음 데이터를 정밀하게 소리 분석하여 구체적인 분석 항목으로 평가하는 인터넷상에서의 소리분석 기반 어학 학습 방법 및 시스템을 제공하는 것이다.Another object of the present invention is to provide a sound analysis-based language learning method and system based on sound analysis on the Internet to limit the time at the time of recording to improve the learner's speech learning effect and to accurately analyze the learner's recorded data and evaluate them as specific analysis items. It is.

상기와 같은 목적을 달성하기 위하여 본 발명의 방법은 학습자 컴퓨터와 어학학습 서비스 시스템이 인터넷으로 연결되어 학습자에게 어학학습을 제공할 수 있는 어학 학습방법에 있어서, 학습자가 학습자 컴퓨터로 어학학습 서비스 시스템에 접속하여 로그인하면, 어학학습 서비스 시스템이 학습자 페이지를 제공하는 단계; 학습자가 상기 학습자 페이지 화면에서 학습하기를 선택하면, 어학학습 서비스 시스템이 해당 학습자의 이전 학습진도에 맞춰 학습할 학습 페이지를 제공하는 단계; 학습자가 상기 학습 페이지에서 학습한 후 답안을 입력하면, 어학학습 서비스 시스템이 정답과 비교하여 평가하고, 평가 결과에 따라 소정 기준치 이상일 경우에만 다음 학습 페이지를 제공하는 단계; 학습자가 상기 학습 페이지에서 녹음을 선택하면, 어학학습 서비스 시스템이 소정 시간의 시간제한 마크를 작동시키고 제한된 시간 안에 학습자의 음성을 녹음하는 단계; 어학학습 서비스 시스템이 상기 녹음된 학습자의 음성을 소리분석하는 단계; 및 어학학습 서비스 시스템이 상기 소리분석결과를 데이터베이스에 저장하여 관리하고 분석결과를 상기 학습자측으로 제공하는 단계를 구비한다.In order to achieve the above object, the method of the present invention provides a language learning method in which a learner computer and a language learning service system are connected to the Internet to provide language learning to a learner. Accessing and logging in, the language learning service system providing a learner page; If a learner selects learning on the learner page screen, the language learning service system provides a learning page for learning according to a previous learning progress of the learner; When a learner learns from the learning page and inputs an answer, the language learning service system evaluates the answer with the correct answer, and provides the next learning page only when the learning result is greater than or equal to a predetermined reference value according to the evaluation result; When a learner selects recording on the learning page, the language learning service system activates a time limit mark of a predetermined time and records the learner's voice within a limited time; Analyzing a sound of the recorded learner by a language learning service system; And storing, by the language learning service system, the sound analysis result in a database, and providing the analysis result to the learner.

상기 학습자의 음성을 녹음하는 단계는 학습 페이지의 화면에서 녹음버튼을 선택받는 단계와, 녹음버튼이 선택되면 소정 시간의 시간제한마크를 표시하여 시간경과를 카운트하는 단계와, 시간제한마크의 시간경과 표시가 시작되면 학습자의 음성을 입력받아 녹음하는 단계와, 소정 시간이 경과되면 시간제한마크의 시간경과 표시를 종료시키고, 녹음을 정지하는 단계와, 업로드버튼이 선택되면 녹음된 학습자의 음성데이터를 소리분석서버로 전송하는 단계로 이루어진다. 상기 학습자의 음성을 녹음하는 단계는 어학학습 서비스 시스템이 보이스 레코딩 시스템 화면을 제공하여 제한시간에 녹음하게 하고, 업로드를 선택하면 녹음된 학습자의 음성데이터를 소리분석서버로 전송하는 것이다.The recording of the learner's voice includes selecting a recording button on a screen of a learning page, counting a time elapsed by displaying a time limit mark of a predetermined time when the record button is selected, and time elapsed by the time limit mark. When the display starts, the learner's voice is input and recorded; when the predetermined time elapses, the time-out display of the time limit mark is terminated, the recording is stopped, and when the upload button is selected, the recorded learner's voice data is recorded. It consists of transmitting to the sound analysis server. In the recording of the learner's voice, the language learning service system provides a voice recording system screen to record the time limit, and when uploading is selected, the recorded learner's voice data is transmitted to the sound analysis server.

또한 상기 학습자의 음성을 소리분석하는 단계는 학습자의 음성데이터를 표준음 데이터와 비교하여 발음을 분석하는 발음분석단계와, 학습자의 음성데이터를 표준음 데이터의 리듬과 비교하여 리듬을 분석하는 리듬분석단계와, 학습자의 음성 데이터를 소정의 기준치와 비교하여 소리의 근원이 복부인지 성대인지를 판단하여 소리의 근원을 분석하는 소리근원분석단계로 이루어진다.The sound analysis of the learner's voice may include a pronunciation analysis step of analyzing the pronunciation by comparing the learner's voice data with the standard sound data, and a rhythm analysis analyzing the rhythm by comparing the learner's voice data with the rhythm of the standard sound data. And a sound source analysis step of analyzing the source of the sound by determining whether the source of the sound is the abdomen or the vocal cords by comparing the learner's voice data with a predetermined reference value.

상기 리듬분석단계는 표준음 파형을 분석하여 처음에 무음이 아닌 곳을 찾아 연속하는 다음 3개의 점에 무음이 없으면 시작점으로 정하고, 무음이 3개 이상 연속되고 시작점과 끝점이 10픽셀 이상인 점을 봉우리의 끝점으로 정하는 단계; 학습자 파형을 분석하여 처음에 무음이 아닌 곳을 찾아 연속하는 다음 3개의 점에 무음이 없으면 시작점으로 정하고, 무음이 3개 이상 연속되고, 시작점과 끝점이 10픽셀 이상인 점을 봉우리의 끝점으로 정하는 단계; 상기 표준음 파형과 학습자 파형의 시작점이 같은가 판단하여 같으면, 표준음과 학습자의 파형면적을 비율로 계산하고, 무성음처리부분이면 표준음과 학습자의 파형의 끝점을 비교하여 무성음 처리가 되어 있는지 확인하는 단계; 상기 봉우리의 개수를 비교하여 일정구간의 매칭율을 계산하고, 악센트 구간을 찾기 위해 해쉬 테이블에 넣으면서 인덱스를 산출하는 단계; 상기 해쉬 테이블에서 비교시작점과 비교종료점을 찾아 악센트가 일치하는 비율을 산출하는 단계; 및 상기 표준음 파형과 학습자의 파형 면적 비율과 일정구간 매칭율과 악센트가 일치하는 비율을 평균하여 점수를 산출하는 단계로 구성된다.The rhythm analysis step analyzes the standard sound waveform, finds the first non-silent place, and sets the starting point if there are no next three points in succession, and the point where the three or more silences are continuous and the starting point and the end point are 10 pixels or more. Determining the end point of; Analyze the learner's waveform to find the first non-silent point and determine if the next three consecutive points have no silence, start point, and determine the end point of the peak with at least three consecutive silence points and at least 10 pixels of start and end points. ; If it is determined that the starting point of the standard sound waveform and the learner waveform is the same, if it is the same, it calculates the waveform area of the standard sound and the learner as a ratio, and if the unvoiced sound processing part compares the end points of the standard sound and the learner's waveform to check whether the unvoiced sound processing is performed. step; Comparing the number of peaks to calculate a matching rate of a predetermined period, and calculating an index while putting the hash table into a hash table to find an accent interval; Finding a comparison start point and a comparison end point in the hash table and calculating a ratio of matching accents; And calculating a score by averaging a ratio between the standard sound waveform and the learner's waveform area ratio, a predetermined section matching ratio, and an accent.

상기 발음분석단계는 원본 문장파일을 음성인식엔진이 인식할 수 있도록 XML 파일로 변환하는 단계; 연음으로 인해 비슷하게 발음되는 단어를 인식하기 위해 특정 단어 및 구절을 입력하여 옵션 테이블을 만드는 단계; 학습자의 녹음 문장을 가져와 음성인식엔진에서 인식한 문장을 단어별로 분리하여 철자가 2개 이상되는 단어만 세팅하는 단계; 인식된 단어의 개수를 추출하는 단계; 추출한 단어에서 문장부호와 중복단어를 제거하는 단계; 원본 문장을 해쉬 테이블에 넣으면서 인덱스를 구하는 단계; 녹음 문장을 다른 해쉬 테이블에 넣으면서 인덱스를 구하는 단계; 원본 문장과 녹음 문장을 차례로 비교하면서 해쉬 테이블의 인덱스를 비교하는 단계; 및 상기 인덱스 비교 결과, 단어의 일치도에 따라 발음분석 점수를 산출하는 단계로 구성된다.The pronunciation analysis step may include converting the original sentence file into an XML file so that the speech recognition engine can recognize it; Creating a table of options by inputting specific words and phrases to recognize words that are similarly pronounced due to the ringtone; Bringing the learner's recorded sentences to separate sentences recognized by the voice recognition engine for each word and setting only words that have two or more spellings; Extracting the number of recognized words; Removing punctuation and duplicate words from the extracted words; Obtaining an index while putting the original statement into a hash table; Obtaining an index while inserting the recorded sentence into another hash table; Comparing the indexes of the hash table while comparing the original sentence with the recorded sentence in sequence; And calculating a pronunciation analysis score according to the degree of word match as a result of the index comparison.

상기 소리근원분석단계는 학습자 음성 데이터를 불러와 잡음을 제거하는 단계; 주파수분석을 위해 상기 학습자 음성 데이터에 FFT를 적용하여 전처리하는 단계; 상기 FFT변환된 데이터의 주파수 특성을 분석하여 특정 주파수대역의 비율로 소리의 근원을 판단하는 단계로 구성된다.The sound source analyzing step may include: removing noise by reading learner voice data; Preprocessing by applying an FFT to the learner speech data for frequency analysis; And analyzing the frequency characteristics of the FFT-converted data to determine the source of sound at a ratio of a specific frequency band.

또한 상기와 같은 목적을 달성하기 위하여 본 발명의 시스템은 학습자 컴퓨터와 어학학습 서비스 시스템이 인터넷으로 연결되어 학습자에게 어학학습을 제공할 수 있는 어학학습 서비스 시스템에 있어서, 상기 학습자 컴퓨터는, 상기 어학학습 서비스 시스템으로부터 어학학습을 위한 클라이언트 모듈을 다운로드받아 실행하고, 상기 어학학습 서비스 시스템이 제공하는 학습 페이지를 디스플레이하며, 학습자가 녹음을 선택하면 화면에 시간제한마크를 표시함과 아울러 학습자의 음성데이터를 입력받아 저장한 후 학습자가 업로드를 선택하면 녹음된 학습자의 음성데이터를 상기 어학학습 서비스 시스템으로 전송하고, 상기 어학학습 서비스 시스템으로부터 소리분석결과를 수신받아 화면에 표시하고, 상기 어학학습 서비스 시스템은, 학습 컨텐츠를 저장하고 있는 컨텐츠 데이터베이스와, 회원으로 가입된 학습자를 관리하기 위한 회원관리 데이터베이스와, 학습자의 음성 데이터를 수신받아 발음분석, 리듬분석, 소리의 근원분석을 하고 상기 회원관리 데이터베이스의 해당 학습자 영역에 저장하는 소리분석서버와, 인터넷을 통해 접속된 학습자 컴퓨터로 상기 컨텐츠 데이터베이스에 저장된 학습 페이지를 제공하고 상기 학습자 컴퓨터로부터 전달된 학습자의 조작에 따라 해당 학습기능을 제공하며, 상기 학습자 컴퓨터로부터 학습자의 음성데이터가 수신되면 상기 소리분석서버로 전달하여 소리분석을 요구하고 분석결과를 수신받아 해당 학습자 컴퓨터로 전달해주는 웹서버를 포함하는 것을 특징으로 한다.In addition, in order to achieve the above object, the system of the present invention is a language learning service system in which a learner computer and a language learning service system are connected to the Internet to provide a learner to the learner, wherein the learner computer is the language learning. Download and execute the client module for language learning from the service system, display the learning page provided by the language learning service system, display the time limit mark on the screen when the learner selects the recording, and display the learner's voice data. After receiving and storing the input, the learner selects upload to transmit the recorded learner's voice data to the language learning service system, receives a sound analysis result from the language learning service system, and displays the sound analysis result on the screen. , Learning content Receives pronunciation data, rhythm analysis, sound source analysis, and stores in the corresponding learner area of the member management database by receiving a content database, a member management database for managing learners registered as members, and voice data of the learners Providing a learning page stored in the content database to a learner computer connected through the Internet and a learner computer connected through the Internet, and providing a corresponding learning function according to a learner's manipulation transmitted from the learner computer, and the learner's voice data from the learner computer. When received, the sound analysis server is characterized in that it comprises a web server for requesting sound analysis and receiving the analysis results and delivers them to the learner computer.

본 발명은 학습자가 학습한 내용을 거리에 상관없이 학습관리자가 확인할 수 있을 뿐 아니라 아울러 학습자의 학습내용을 구체적으로 파악할 수 있게 하여 학습자에게 맞는 학습지도를 가능하게 한다. 또한 학습자가 학습 페이지에서 학습하는 중에 오답을 입력하면 소정 횟수 반복 학습하도록 한 후, 정답을 제공하여 스스로 정답을 찾는 능력을 향상시킬 수 있고, 이전 과정을 완전히 학습한 후에만 다음 학습 페이지로 이동할 수 있도록 함으로써 철저한 학습이 이루어지도록 하는 효과가 있다. The present invention enables the learning manager not only to check the content learned by the learner regardless of distance, but also to learn the learner's learning content in detail, thereby enabling the learning guidance that is suitable for the learner. In addition, if a learner enters an incorrect answer while learning on the learning page, the learner can repeat the learning a certain number of times, and then provide the correct answer to improve his or her ability to find the correct answer. By doing so, there is an effect that thorough learning is achieved.

그리고 본 발명에 따르면 학습과정에서 학습 페이지를 보고 듣고 따라 하는 훈련뿐만 아니라 마이크(녹음) 기능 및 음성인식을 이용하여 시간제한 하에서 학습자 자신이 따라 하며 연습한 문장을 실제로 말하게 (녹음시에는 따라하지 않음) 훈련하고 (제한 시간 내에 소정의 내용을 녹음하지 못하면 할 수 있을 때까지 계속 훈련함), 학습자의 음성데이터를 소리분석 알고리즘에 따라 과학적으로 분석하여 어학 학습 효과를 향상시킬 수 있다. And according to the present invention, in addition to the training to see and listen to the learning page in the learning process, using the microphone (recording) function and voice recognition, the learner himself to follow the practice under the time limit to actually speak the sentence (not recording during recording) Training) (continue training until you can do it if you can't record certain content within the time limit), and improve the language learning effect by scientifically analyzing the learner's voice data according to the sound analysis algorithm.

도 1은 본 발명에 따른 어학학습 서비스 시스템의 전체 구성을 도시한 개략도,1 is a schematic diagram showing the overall configuration of a language learning service system according to the present invention;

도 2는 본 발명에 따른 어학학습방법에서 관리자 레벨의 처리 절차를 도시한 순서도,2 is a flow chart showing a manager-level processing procedure in the language learning method according to the present invention;

도 3은 본 발명에 따른 어학학습방법에서 학습자가 '학습하기'를 선택한 경우의 처리 절차를 도시한 순서도,3 is a flowchart illustrating a processing procedure when a learner selects 'learning' in the language learning method according to the present invention;

도 4는 본 발명에 따른 어학학습방법에서 학습자가 '학습정보'를 선택한 경우의 처리 절차를 도시한 순서도,4 is a flowchart illustrating a processing procedure when a learner selects 'learning information' in the language learning method according to the present invention;

도 5는 본 발명에 따라 학습자 음성 녹음에 시간제한을 갖는 어학학습방법의 실시예를 도시한 순서도,Figure 5 is a flow chart showing an embodiment of a language learning method having a time limit to learner voice recording in accordance with the present invention,

도 6은 본 발명에 따른 소리분석 기반 어학학습 절차를 도시한 순서도,6 is a flowchart illustrating a sound analysis-based language learning procedure according to the present invention;

도 7은 본 발명에 따른 소리분석 중 리듬분석의 세부절차를 도시한 흐름,7 is a flow chart showing the detailed procedure of the rhythm analysis of sound analysis according to the present invention,

도 8은 본 발명에 따른 소리분석 중 발음분석의 세부절차를 도시한 흐름도, 8 is a flowchart illustrating a detailed procedure of pronunciation analysis of sound analysis according to the present invention;

도 9는 본 발명에 따른 소리분석 중 소리근원분석의 세부절차를 도시한 흐름도,9 is a flowchart showing the detailed procedure of the sound source analysis of sound analysis in accordance with the present invention;

도 10은 본 발명에 따른 학습영역보기 화면의 예,10 is an example of a learning area view screen according to the present invention;

도 11은 본 발명에 따른 페이지보기 화면의 예,11 is an example of a page view screen according to the present invention;

도 12는 본 발명에 따른 페이지별 성적 화면의 예,12 is an example of a grade-by-page screen according to the present invention;

도 13은 본 발명에 따른 디테일 화면의 예,13 is an example of a detail screen according to the present invention;

도 14는 본 발명에 따른 학습자 기본화면의 예,14 is an example of a learner basic screen according to the present invention;

도 15는 본 발명에 따른 학습 페이지 화면의 예,15 is an example of a learning page screen according to the present invention;

도 16은 본 발명에 따른 학습내용 다시 보기 화면의 예,16 is an example of a learning content review screen according to the present invention;

도 17은 본 발명에 따른 보이스 레코딩 시스템 화면의 예,17 is an example of a voice recording system screen according to the present invention;

도 18은 본 발명에 따라 소리분석결과를 표시하는 보이스 레코딩 시스템 화면의 예,18 is an example of a voice recording system screen displaying a sound analysis result according to the present invention;

도 19는 본 발명에 따른 소리분석결과 평가항목의 예,19 is an example of a sound analysis result evaluation item according to the present invention;

도 20은 본 발명에 따른 소리분석결과 평가항목의 다른 예.20 is another example of a sound analysis result evaluation item according to the present invention.

*도면의 주요부분에 대한 부호의 설명 * Explanation of symbols for main parts of the drawings

102: 인터넷 110: 학습자 컴퓨터102: Internet 110: Learner Computer

120: 학습 관리자 컴퓨터 130: 어학학습 서비스 시스템120: learning manager computer 130: language learning service system

132: 웹서버 134: 컨텐츠 DB132: web server 134: content DB

136: 회원관리 DB 138: 소리분석서버136: member management DB 138: sound analysis server

본 발명과 본 발명의 실시에 의해 달성되는 기술적 과제는 다음에서 설명하는 본 발명의 바람직한 실시예들에 의하여 보다 명확해질 것이다. 다음의 실시예들은 단지 본 발명을 설명하기 위하여 예시된 것에 불과하며, 본 발명의 범위를 제한하기 위한 것은 아니다. The technical problems achieved by the present invention and the practice of the present invention will be more clearly understood by the preferred embodiments of the present invention described below. The following examples are merely illustrated to illustrate the present invention and are not intended to limit the scope of the present invention.

도 1은 본 발명에 따른 어학학습 서비스 시스템의 전체 구성을 도시한 개략도이다.1 is a schematic diagram showing the overall configuration of a language learning service system according to the present invention.

본 발명에 따른 어학학습 서비스 시스템은 도 1에 도시된 바와 같이, 인터넷(102)을 통해 연결되는 어학학습 서비스 시스템(130)과, 어학학습 서비스 시스템(130)에 회원으로 가입하여 어학학습을 수행하는 학습자의 컴퓨터(110), 어학학습 서비스 시스템(130)에 등록하여 담당 학습자의 학습과정을 지도 및 관리하는 학습 관리자의 컴퓨터(120)로 구성된다.As shown in FIG. 1, the language learning service system according to the present invention joins the language learning service system 130 and the language learning service system 130 connected through the Internet 102 to perform language learning. The learner's computer 110 and the language learning service system 130 are registered to the computer of the learning manager 120 to guide and manage the learning process of the learner in charge.

도 1을 참조하면, 어학학습 서비스 시스템(130)은 학습 컨텐츠를 저장하고 있는 컨텐츠 데이터베이스(134)와, 회원으로 가입된 학습자를 관리하기 위한 회원관리 데이터베이스(136)와, 학습자의 음성 데이터를 수신받아 발음분석, 리듬분석, 소리의 근원분석을 하고 회원관리 데이터베이스(136)의 해당 학습자 영역에 저장하는 소리분석서버(138)와, 인터넷(102)을 통해 접속된 학습자의 컴퓨터(110)로 컨텐츠 데이터베이스(134)에 저장된 학습 페이지를 제공하고 학습자의 컴퓨터(110)로부터 전달된 학습자의 조작에 따라 해당 학습기능을 제공하며, 학습자의 컴퓨터(110)로부터 학습자의 음성데이터가 수신되면 소리분석서버(138)로 전달하여 소리분석을 요구하고 분석결과를 수신받아 해당 학습자의 컴퓨터(110)로 전달해주는 웹서버(132)로 구성된다. 그리고 소리분석서버(138)는 학습자의 음성데이터를 표준음 데이터와 비교하여 발음을 분석하고, 학습자의 음성데이터를 표준음 데이터의 리듬과 비교하여 리듬을 분석하며, 학습자의 음성 데이터를 소정의 기준치와 비교하여 소리의 근원이 복부인지 성대인지를 판단하여 소리의 근원을 분석한다.Referring to FIG. 1, the language learning service system 130 receives a content database 134 storing learning content, a member management database 136 for managing learners subscribed as members, and voice data of learners. The sound analysis server 138 receives the pronunciation analysis, the rhythm analysis, the source analysis of the sound, and stores it in the corresponding learner area of the member management database 136, and the contents of the learner's computer 110 connected through the Internet 102. Providing the learning page stored in the database 134 and provides the corresponding learning function according to the learner's operation transmitted from the learner's computer 110, and when the learner's voice data is received from the learner's computer 110, the sound analysis server ( 138) to request a sound analysis and receive the analysis result is composed of a web server 132 to deliver to the learner's computer (110). The sound analysis server 138 compares the learner's voice data with the standard sound data to analyze the pronunciation, compares the learner's voice data with the rhythm of the standard sound data, and analyzes the rhythm, and compares the learner's voice data with a predetermined reference value. The sound source is analyzed by judging whether the sound source is the abdomen or vocal cords.

학습자의 컴퓨터(110)는 어학학습 서비스 시스템(130)으로부터 어학학습을 위한 클라이언트 모듈을 다운로드받아 실행하고, 어학학습 서비스 시스템(130)이 제공하는 학습 페이지를 디스플레이하며, 학습자가 녹음을 선택하면 화면에 시간제한마크를 표시함과 아울러 학습자의 음성데이터를 입력받아 저장한 후 학습자가 업로드를 선택하면 녹음된 학습자의 음성데이터를 어학학습 서비스 시스템(130)으로 전송하고, 어학학습 서비스 시스템(130)으로부터 소리분석결과를 수신받아 화면에 표시한다.The learner's computer 110 downloads and executes a client module for language learning from the language learning service system 130, displays a learning page provided by the language learning service system 130, and displays a screen when the learner selects a recording. In addition to displaying the time limit mark, and after receiving and storing the learner's voice data, if the learner selects upload, the recorded learner's voice data is transmitted to the language learning service system 130, and the language learning service system 130 is displayed. Receive sound analysis result from and display on screen.

학습 관리자 혹은 선생님은 컴퓨터(120)를 이용하여 인터넷(102)을 통해 어학학습 서비스 시스템(130)에 접속하여 본인이 담당하는 학습자의 학습정보 혹은 기록을 통하여 학습과정을 지도 혹은 관리한다.The learning manager or teacher connects to the language learning service system 130 through the Internet 102 using the computer 120 to guide or manage the learning process through the learner's learning information or records.

본 발명에 따른 어학학습 서비스 시스템(130)에 접속하여 로그인할 경우에는 어학학습을 실행하는 학습자 모드와, 학습자의 학습과정을 관리 및 지도할 수 있는 학습관리자 모드로 구분되어 로그인할 수 있고, 모드에 따라 제공되는 화면 혹은 접근할 수 있는 영역에서 차이가 있다.When accessing and logging in to the language learning service system 130 according to the present invention, a learner mode for executing language learning and a learning manager mode for managing and teaching a learner's learning process can be logged in. Depending on the screen provided or the accessible area, there is a difference.

도 2는 본 발명에 따른 어학학습방법에서 관리자 레벨의 처리 절차를 도시한 순서도이다.2 is a flowchart illustrating a manager-level processing procedure in the language learning method according to the present invention.

도 2를 참조하면, 본 발명에 따른 어학학습 서비스를 제공하는 시스템(130)에 접속하여 등록된 학습관리자가 로그인하면, 관리자 기본화면을 제공한다(201,202). 관리자 기본화면에는 로그인 로그와 레슨 로그, 회원리스트, 컨텐츠 보기가 준비되어 있다.Referring to FIG. 2, when a registered learning manager logs in to the system 130 for providing a language learning service according to the present invention, the administrator provides basic screens (201 and 202). In the administrator base screen, login log, lesson log, member list, and contents view are prepared.

학습관리자가 로그인 로그를 선택하면, 학습자 로그인 정보를 표시한다(203,204). 학습자 로그인 정보에는 아이디(ID)와, 로그인시간(Login Time), 로그아웃시간(Logout Time) 등이 표시되어 담당 학습자의 로그 정보를 확인할 수 있다.When the learning manager selects the login log, the learner login information is displayed (203, 204). In the learner login information, an ID, a login time, a logout time, etc. may be displayed to check the log information of the learner.

학습관리자가 레슨 로그를 선택하면, 학습자의 레슨 로그정보를 표시한다(205,206). 학습자의 레슨 로그에는 학습자 성명 및 아이디와 학습과정(진도), 학습시간이 표시되어 담당 학습자의 학습내용을 파악할 수 있다.When the learning manager selects a lesson log, the learner's lesson log information is displayed (205, 206). The learner's lesson log displays the learner's name and ID, the learning process (progress), and the learning time so that the learner's contents can be grasped.

학습관리자가 회원리스트를 선택하면, 회원리스트를 표시한다(217,218). 회원리스트에는 순번과 아이디, 이름, 공부진도/상태, 연락처, 등록일, 수정, 삭제, 코멘트가 표시되고, 회원리스트에서 특정 회원을 선택하면 해당 회원의 학습정보화면이 표시된다. When the learning manager selects the member list, the member list is displayed (217 and 218). The member list displays the sequence number, ID, name, study progress / status, contact information, registration date, modification, deletion, and comment. If a specific member is selected from the member list, the member's learning information screen is displayed.

학습관리자가 해당 회원의 학습정보화면에서 '학습영역보기'를 선택하면 도 8에 도시된 바와 같이, 해당 학습자의 학습영역별 성적을 표시하고, '페이지보기'를 선택하면 도 9에 도시된 바와 같이 해당 학습자의 레벨별 능력을 표시한다. 도 8을 참조하면, 학습영역보기 화면에는 해당 학습자의 학습영역(쓰기, 발음,독해, 듣기 등)과 영역별 성적그래프가 표시된다. 그리고 도 9를 참조하면 페이지보기 화면에서는 레벨과 능력평가그래프, 평균점수가 표시된다.When the learning manager selects 'learning area view' from the member's learning information screen, as shown in FIG. 8, the learner displays grades for each learning area and selects 'page view' as shown in FIG. 9. Likewise, the learner's level ability is displayed. Referring to FIG. 8, the learning area view screen displays a learning area (writing, pronunciation, reading, listening, etc.) of the corresponding learner and a grade graph for each area. 9, the level, ability evaluation graph, and average score are displayed on the page view screen.

이어 학습관리자가 해당 회원의 학습정보화면에서 페이지별 성적을 선택하면, 도 10에 도시된 바와 같이 페이지별 성적화면을 표시한다. 도 10을 참조하면, 페이지별 성적화면에는 학습한 페이지와 페이지의 능력평가 그래프, 평균점수, 디테일(Detail), 사운드 프리뷰(Sound Preview)가 표시되고, 페이지별 성적 화면에서 페이지를 선택하면 해당 학습 페이지를 표시한다. 그리고 페이지별 성적화면에서 디테일을 선택하면 도 11에 도시된 바와 같이 시도횟수, 점수, 학습자가 입력한 답안 등을 표시하고, 사운드 프리뷰의 플레이 버튼을 선택하면 학습자가 업로드한 발음 혹은 음성을 반복해서 들을 수 있다. 이에 따라 학습관리자는 학습자가 어떤 문제에 대해서 어떤 답을 입력했는지, 그리고 학습자의 발음이 어떠하지를 파악하여 보다 정확하게 학습을 지도 및 상담할 수 있다.Then, when the learning manager selects the grades for each page in the learning information screen of the member, as shown in FIG. 10, the grades screen for each page is displayed. Referring to FIG. 10, the graded screen for each page displays the learned page and the ability evaluation graph, average score, detail, and sound preview of the page. Display the page. And if you select the detail in the grades screen by page, as shown in Figure 11, the number of attempts, scores, answers entered by the learner, etc. are displayed, and if the play button of the sound preview is selected, the pronunciation or voice uploaded by the learner repeatedly I can hear it. Accordingly, the learning manager can guide and consult the learning more accurately by grasping which answer the learner has entered, what answer, and the learner's pronunciation.

도 3은 본 발명에 따른 어학학습방법에서 학습자가 '학습하기'를 선택한 경우의 처리 절차를 도시한 순서도이다.3 is a flowchart illustrating a processing procedure when a learner selects 'learning' in the language learning method according to the present invention.

도 3을 참조하면, 본 발명의 어학학습 서비스를 제공하는 어학학습 서비스 시스템(130)에 가입된 학습자가 로그인하면, 도 14에 도시된 바와 같이 학습자 기본화면을 제공한다(301,302). 학습자 기본화면에는 적어도 '학습하기' 버튼과 '학습정보' 버튼이 준비되어 있다.Referring to FIG. 3, when a learner subscribed to the language learning service system 130 that provides a language learning service of the present invention logs in, a learner basic screen is provided as shown in FIG. 14 (301, 302). At least the 'learn' button and 'learning information' button are prepared on the learner's basic screen.

학습자가 '학습하기'를 선택하면, 도 15에 도시된 바와 같이 학습페이지 화면을 제공하여 학습을 할 수 있도록 한다(303,304). 도 15에 도시된 학습 페이지는 컨텐츠 DB에 저장된 학습 페이지 중 하나의 예로서, 도움말부와, 학습 컨텐츠 그림, 답안 입력부, 마이크버튼, 재생 버튼, 업로드 버튼, 이전 페이지 이동(<) 등이 표시된다. 도 15에는 다음 페이지로 이동하는 버튼(>)이 표시되어 있으나 학습자 모드에서는 해당 학습 페이지의 학습에 성공하여 모두 정답을 맞출 경우에만 나타나도록 되어 있다. 이와 같은 학습 페이지 화면에서 학습을 수행한 후, 답안을 입력한다(305).When the learner selects 'learning', a learning page screen is provided as shown in FIG. 15 to allow learning (303, 304). The learning page illustrated in FIG. 15 is an example of one of the learning pages stored in the content DB. The help page, a picture of the learning content, an answer input unit, a microphone button, a play button, an upload button, and a previous page movement (<) are displayed. . In FIG. 15, a button (>) for moving to the next page is displayed, but in the learner mode, the button is displayed only when the learning of the corresponding learning page is successful and all the correct answers are corrected. After the learning is performed in the learning page screen as described above, the answer is input (305).

답안을 입력한 후, '결과보기' 버튼을 클릭하면, 입력한 답안을 미리 등록된 정답과 비교하여 평가한 후 입력된 답안에 오답이 있으면 오답 횟수를 체크하여 소정 횟수(본 발명의 실시예에서는 6회) 이내이면 재학습요구 메시지를 출력하여 재학습을 요구하고, 6회이면 정답을 안내한 후 재학습을 요구한다(306~312). 이와 같이 본 발명에서는 학습자가 오답을 입력할 경우에 바로 정답을 알려주지 않고 자신의 노력으로 풀 수 있도록 유도한 후 3회에 걸쳐 오답이 나올 경우 오답 문제 번호를 안내하고, 오답이 6회 반복되면 정답을 알려주고, 다시 학습하도록 함으로써 스스로 학습이 가능하도록 되어 있다.After entering the answer, if you click the 'View Results' button, the answer is entered and compared with the pre-registered correct answer, and if there is an incorrect answer in the entered answer is checked the number of incorrect answers a predetermined number of times (in the embodiment of the present invention) If it is within 6 times), re-learning request is output by requesting re-learning, and if it is 6 times, the correct answer is guided and re-learning is required (306 ~ 312). As described above, in the present invention, when a learner inputs an incorrect answer, the learner is guided to solve the problem without giving the correct answer immediately, and if the incorrect answer appears three times, the incorrect answer number is guided, and the correct answer is repeated six times. By letting them know and letting them learn again, they can learn by themselves.

그리고 학습자가 모두 정답을 입력한 경우에만 다음 페이지로 갈 수 있는 이동버튼(>)을 화면에 표시하여 다음 학습 페이지로 이동할 수 있게 하고, 만일 이전 페이지의 학습이 완료되지 않으면 다음 학습 페이지로 이동을 불가능하게 하여 효과적인 학습이 가능하게 한다(313,314). 이러한 본 발명의 특징은 어학학습에 대한 과학적인 연구분석을 통해 도달된 학습방식으로서, 학습자의 학습효과를 높일 수 있는 장점을 제공한다.In addition, if the learner enters the correct answer, the Go button (>) is displayed on the screen so that the user can go to the next learning page. If the previous learning is not completed, the next learning page is displayed. Impossible makes effective learning possible (313,314). Such a feature of the present invention is a learning method reached through scientific research analysis on language learning, and provides an advantage of increasing the learning effect of the learner.

도 4는 본 발명에 따른 어학학습방법에서 학습자가 '학습정보'를 선택한 경우의 처리 절차를 도시한 순서도이다.4 is a flowchart illustrating a processing procedure when a learner selects 'learning information' in the language learning method according to the present invention.

학습자가 로그인 후 학습자 기본화면에서 '학습정보'를 선택하면, 리포트카드(315-1)와 학습시간(315-2), 학습내용(315-3), 학습상담 버튼(315-4)이 있는 회원의 학습정보화면이 표시된다(315). 이에 따라 학습자는 자신의 학습정보화면에서 리포트 카드를 선택하면 '학습영역보기', '페이지 보기', '페이지별 성적' 버튼이 있는 해당 학습자의 학습 성적화면이 표시된다.When the learner logs in and selects 'learning information' from the learner's main screen, the report card (315-1), study time (315-2), study contents (315-3), and learning counseling button (315-4) The member's learning information screen is displayed (315). Accordingly, when a learner selects a report card from his or her learning information screen, the learner's learning grade screen including the 'learning area view', 'page view', and 'page grades' button is displayed.

'학습영역보기'를 선택하면, 도 10에 도시된 바와 같이 해당 학습자의 학습영역별 성적을 표시하고, '페이지 보기'를 선택하면 도 11에 도시된 바와 같이 해당 학습자의 레벨별 능력을 표시한다(316~319).If the 'learning area view' is selected, as shown in FIG. 10, the learner's grades are displayed according to the learning area, and if the 'page view' is selected, the ability of each learner's level is displayed as shown in FIG. (316--319).

이어 학습자가 자신의 학습정보화면에서 '페이지별 성적'을 선택하면, 도 12에 도시된 바와 같이 페이지별 학습정보를 표시한다. 그리고 페이지별 학습정보화면에서 페이지를 선택하면 해당 학습페이지를 표시하여 복습을 할 수 있고, 페이지별 학습정보화면에서 디테일을 선택하면 도 13에 도시된 바와 같이 시도횟수, 점수, 학습자가 입력한 답안 등을 표시한다. 이에 따라 학습자는 자신이 어떤 문제에 대해서 어떤 답을 입력했는지 파악하여 보다 정확하게 학습할 수 있다(320~325).Next, when the learner selects 'grades by page' on his or her learning information screen, the learner displays information on each page as shown in FIG. 12. If you select a page in the learning information screen for each page, you can display the corresponding learning page for review, and if you select the detail in the learning information screen for each page, the number of attempts, scores, and answers entered by the learners as shown in FIG. And so on. Accordingly, learners can learn more accurately by finding out which answer they have entered for a problem (320 ~ 325).

한편, 학습자가 학습시간(315-2)을 선택하면 학습시간 달력을 제공하고, 학습내용(315-3)을 선택하면 도 16에 도시된 바와 같이 학습내용 다시보기 화면을 제공하며, 학습상담 버튼(315-4)을 선택하면 학습상담을 위한 게시판을 제공한다(326~328). 학습내용 다시보기 화면에서 보기를 클릭하면 해당 학습 내용을 다시 볼 수 있다.On the other hand, if the learner selects the learning time (315-2) provides a learning time calendar, selecting the learning content (315-3) provides a learning content review screen as shown in Figure 16, the learning counseling button Choosing (315-4) provides a bulletin board for learning counseling (326–328). If you click View on the Review Contents screen, you can see the relevant contents again.

도 5는 본 발명에 따라 학습자 음성 녹음에 시간제한을 갖는 어학학습 방법의 실시예를 도시한 순서도이다.Figure 5 is a flow chart illustrating an embodiment of a language learning method having a time limit to learner voice recording in accordance with the present invention.

학습자가 컴퓨터(110) 화면에서 '학습하기'를 선택하면 어학학습 서비스 시스템(130)은 이전의 학습내용을 기억하고 있다가 학습 진도에 맞춰 학습할 학습 페이지(예컨대, 도 15 참조)를 표시한다(401). 학습 페이지는 학습 컨텐츠 데이터베이스(134)에 저장되어 있으며, 전체 학습과정은 레벨로 구분되어 다수의 학습 페이지들로 이루어져 있다. 또한 각 학습과정에서 일정 학습 페이지 후에 학습자의 흥미를 유발하기 위하여 다양한 퀴즈풀이 및 게임방식의 학습화면을 제공할 수 있다.When the learner selects 'learn' on the computer 110 screen, the language learning service system 130 displays a learning page (for example, FIG. 15) to learn according to the learning progress while memorizing the previous learning contents. (401). The learning page is stored in the learning content database 134, and the entire learning process is divided into levels and is composed of a plurality of learning pages. In addition, in order to induce the learner's interest after a certain learning page in each learning process, it is possible to provide a learning screen of various quiz pools and game methods.

이와 같은 학습 페이지에서 학습자가 컨텐츠 그림을 클릭하면, 해당 그림과 관련된 단어/문장의 원어민 발음을 출력한다(402,403).When the learner clicks on the content picture in the learning page, the native speaker's pronunciation of words / phrases related to the picture is output (402 and 403).

학습자가 학습 페이지에서 답안을 선택하거나, 답안을 입력할 수 있다(404,405). 답안 입력방식은 학습내용에 따라 키보드로 단어를 입력하거나 방향키로 설정하는 방식 등 매우 다양하게 구현될 수 있다. 학습자가 학습화면에서 사전을 클릭하면, 해당 컨텐츠에 대한 한국어 단어/문장을 표시한다(406,407).The learner may select an answer from the learning page or input an answer (404, 405). The answer input method may be implemented in various ways, such as a method of inputting a word using a keyboard or setting a direction key according to a learning content. When the learner clicks on the dictionary in the learning screen, Korean words / phrases for the corresponding content are displayed (406 and 407).

학습자가 마이크를 클릭하면 시간제한마크의 시간경과 표시가 작동을 시작하고 이 제한시간 안에 학습자 마이크를 통해 학습자 음성을 녹음하며, 제한시간이 경과되면 녹음이 종료되고 시간제한마크의 시간경과 표시가 정지한다. 본 발명의 실시예에서는 문장 하나가 대략 5개의 단어로 이루어질 때 한 문장의 시간제한은 약 1.5초 정도이고, 문장이 4 내지 6개일 때 시간제한은 약 10초 정도가 바람직하다.When the learner clicks the microphone, the time-out display of the time-out mark starts to operate and the learner's voice is recorded through the learner's microphone within this time-out period.When the time-out expires, the recording ends and the time-out display of the time-out mark stops. do. In the embodiment of the present invention, when one sentence is composed of approximately five words, the time limit of one sentence is about 1.5 seconds, and the time limit of about 4 seconds is about 10 seconds.

이후 업로드를 선택하면 녹음된 학습자 음성 데이터가 어학학습 서비스 시스템(130)으로 전송된다(408~414). 이때 학습자는 녹음에 시간제한을 받기 때문에 학습효과를 높일 수 있고, 제한시간은 필요에 따라 시스템 운영자가 조정할 수 있다. 학습 관리자(120)는 담당 학습자의 녹음 음성을 듣고 보다 정확하게 학습을 지도할 수 있다.After the upload is selected, the recorded learner voice data is transmitted to the language learning service system 130 (408 ~ 414). In this case, the learner receives a time limit for recording, thereby improving the learning effect, and the time limit can be adjusted by the system operator as needed. The learning manager 120 may listen to the recorded voice of the learner and guide the learning more accurately.

학습자가 학습화면에서 프린터를 클릭하면, 현재의 학습 페이지에 맞는 쓰기 연습장을 인쇄하여 학습자가 프린트된 연습장에 직접 쓸 수 있도록 한다(415,416). 이와 같이 본 발명에 따르면 학습자가 오프라인에서 실제로 학습 내용을 쓸 수 있도록 함으로써 단순히 듣고 보는 것에 더하여 직접 쓰기 학습을 할 수 있다.When the learner clicks the printer in the learning screen, the learner prints a writing exercise book corresponding to the current learning page so that the learner can write directly to the printed exercise book (415,416). As described above, according to the present invention, the learner can actually write the learning content by offline, and in addition to simply listening, the learner can directly write learning.

도 6은 본 발명에 따른 소리분석을 이용한 어학학습방법의 전체 절차를 도시한 개략도이다.Figure 6 is a schematic diagram showing the overall procedure of the language learning method using sound analysis according to the present invention.

도 6을 참조하면, 학습자가 컴퓨터(110)를 통해 어학학습 서비스 시스템(130)의 웹 서버(132)에 로그인하면 학습 페이지를 제공하고, 학습 페이지에 따라 학습자가 학습한 후 보이스 레코딩시스템을 구동하면 도 17에 도시된 바와 같이 보이스 레코딩 시스템 화면을 제공한다(S1~S4).Referring to FIG. 6, when a learner logs in to the web server 132 of the language learning service system 130 through the computer 110, the learner provides a learning page and drives the voice recording system after the learner learns according to the learning page. 17, a voice recording system screen is provided (S1 to S4).

보이스 레코딩 시스템 화면에서 마이크 기능을 통해 녹음하여 학습자의 음성데이터를 업로드하면 녹음된 음성데이터가 소리분석서버(138)로 전송되어 평가된다(S5,S7). When the user's voice data is uploaded by recording through the microphone function on the voice recording system screen, the recorded voice data is transmitted to the sound analysis server 138 and evaluated (S5, S7).

학습자의 음성데이터는 소리분석서버(138)에 의해 자동으로 분석되는데, 본 발명의 실시예에서는 발음분석과 리듬분석, 및 소리의 근원분석으로 구분되어 각각 평가된다. 즉, 소리분석서버(138)의 음성인식모듈에 의한 자동분석은 발음분석과 리듬분석, 소리의 근원분석으로 구분되어 이루어지는데, 발음분석은 엑센트 분석이나 억양분석 등을 포함할 수 있다. 그리고 소리분석서버(138)는 학습자의 음성데이터를 표준음 데이터와 비교하여 발음을 분석하고, 학습자의 음성데이터를 표준음 데이터의 리듬과 비교하여 리듬을 분석하며, 학습자의 음성 데이터를 소정의 기준치와 비교하여 소리의 근원이 복부인지 성대인지를 판단하여 소리의 근원을 분석한다.The learner's voice data is automatically analyzed by the sound analysis server 138. In the exemplary embodiment of the present invention, the learner's voice data is divided into a pronunciation analysis, a rhythm analysis, and a root analysis of the sound. That is, the automatic analysis by the voice recognition module of the sound analysis server 138 is divided into a pronunciation analysis, a rhythm analysis, a source analysis of the sound, and the pronunciation analysis may include an accent analysis or an intonation analysis. The sound analysis server 138 compares the learner's voice data with the standard sound data to analyze the pronunciation, compares the learner's voice data with the rhythm of the standard sound data, and analyzes the rhythm, and compares the learner's voice data with a predetermined reference value. The sound source is analyzed by judging whether the source of the sound is the abdomen or vocal cords.

한편, 경우에 따라서는 학습자의 녹음 데이터는 학습관리자(120)에게 전송되어 학습관리자(120)가 학습자(110)의 녹음을 듣고 수동으로 소리분석하고 분석결과를 소리분석서버(138)에 부가할 수도 있다(S6,S8~S10). 학습관리자에 의한 보충분석은 자음/모음분석과 연음분석 등을 포함할 수 있으며 자동분석에 대한 보완기술로 부가될 수 있다.On the other hand, in some cases, the recording data of the learner is transmitted to the learning manager 120, the learning manager 120 listens to the recording of the learner 110 and manually analyzes the sound and adds the analysis result to the sound analysis server 138. It may also be (S6, S8 to S10). The supplementary analysis by the learning manager may include consonant / vowel analysis and annual analysis, and may be added as a complementary technology to automatic analysis.

소리분석서버(138)에 의한 분석결과는 종합평가된 후 학습자가 직관적으로 이해할 수 있도록 스펙트럼이나 그래프, 그래픽 형태로 처리되어 도 18에 도시된 바와 같이 보이스 레코딩 시스템 화면 상에 표시된다(S11~S13). 도 18을 참조하면, 화면의 좌측에 학습자의 음성 스펙트럼이 표시되고, 우측 상단에 평가결과가 그래픽으로 표시된다.The analysis result by the sound analysis server 138 is comprehensively evaluated and then processed in a spectrum, graph, or graphic form so that the learner can intuitively understand it, and is displayed on the voice recording system screen as shown in FIG. 18 (S11 to S13). ). Referring to FIG. 18, the learner's voice spectrum is displayed on the left side of the screen, and the evaluation result is graphically displayed on the upper right side.

그리고 학습자의 평가결과는 도 19에 도시된 바와 같이 페이지별 평가결과 영역에 발음분석, 리듬분석, 소리근원 분석 항목으로 구분되어 점수로서 표시된다. 그리고 도 20에 도시된 바와 같이 페이지별 성적 결과에서 플레이(Play) 버튼을 클릭하면 자신이 녹음한 음성을 다시 들을 수 있다(S14).The learner's evaluation result is divided into pronunciation analysis, rhythm analysis, and sound source analysis in the evaluation result area for each page, and is displayed as a score. As shown in FIG. 20, when the user clicks the Play button in the results of each page, the user may again hear the recorded voice (S14).

이와 같이 본 발명에 따르면 학습자의 음성은 발음분석과, 리듬분석, 소리의 근원 분석으로 구분되어 세부적으로 분석되어 자신이 부족한 부분을 정확하게 인식할 수 있고, 학습 관리자는 담당 학생의 부족한 부분을 과학적으로 관리하여 정확한 발음이 가능하도록 한다.As described above, according to the present invention, the learner's voice is divided into pronunciation analysis, rhythm analysis, and source analysis to be analyzed in detail, thereby accurately recognizing the shortcomings, and the learning manager scientifically recognizes the shortage of the student in charge. To ensure accurate pronunciation.

도 7은 본 발명에 따른 소리분석 중 리듬분석의 세부절차를 도시한 흐름도이다. 7 is a flowchart illustrating a detailed procedure of the rhythm analysis of sound analysis according to the present invention.

도 7을 참조하면, 먼저 표준음 파형을 메모리 버퍼로 불러온다(S701). 표준음 파형을 분석하여 처음에 무음이 아닌 곳을 찾아 연속하는 다음 3개의 점에 무음이 없으면 시작점으로 정한다(S702). 표준음 파형에서 무음이 3개 이상 연속되고 시작점과 끝점이 10픽셀 이상인 점을 봉우리의 끝점으로 정한다(S703).Referring to FIG. 7, first, a standard sound waveform is loaded into a memory buffer (S701). By analyzing the standard sound waveform, the first non-silent place is searched for and if there are no subsequent three points of silence, it is determined as a starting point (S702). In the standard sound waveform, three or more continuous silences and a start point and an end point of 10 pixels or more are determined as the end points of the peak (S703).

이어 학습자의 소리 파형을 메모리 버퍼로 불러온다(S704). 학습자 파형을 분석하여 처음에 무음이 아닌 곳을 찾아 연속하는 다음 3개의 점에 무음이 없으면 시작점으로 정한다(S705). 학습자의 파형에서 무음이 3개 이상 연속되고, 시작점과 끝점이 10 픽셀 이상인 점을 봉우리의 끝점으로 정한다(S706).Then, the learner's sound waveform is loaded into the memory buffer (S704). The learner analyzes the waveform first to find a non-silent place, and if there is no silence in the next three points in succession, the start point is set (S705). In the learner's waveform, three or more silences are continuous, and a point at which the start point and the end point are 10 pixels or more is determined as the end point of the peak (S706).

이어 표준음과 학습자의 파형 시작점이 같은가 판단하여 같으면, 표준음과 학습자의 파형 면적을 비율로 계산하고, 무성음 처리부분이면 표준음과 학습자의 파형의 끝점을 비교하여 무성음 처리가 되어 있는지 확인한다(S707~S709).Then, if the standard sound and the learner's waveform start point are the same, if it is the same, the standard area and the learner's waveform area are calculated by the ratio, and in the case of the unvoiced sound part, the sound is processed by comparing the end point of the standard sound and the learner's waveform. S707-S709).

그리고 봉우리의 개수를 비교하여 일정구간의 매칭율을 계산하고, 악센트 구간을 찾기 위해 해쉬 테이블에 넣으면서 인덱스를 구한다(S710,S711). 해쉬 테이블에서 비교 시작점과 비교 종료점을 찾아 악센트가 일치하는 비율을 구한다(S712). 표준음과 학습자의 파형 면적 비율과 일정구간 매칭율과 악센트가 일치하는 비율을 평균하여 점수를 계산한다(S713).The number of peaks is compared to calculate a matching rate of a predetermined section, and an index is obtained by putting the hash table into a hash table to find an accent section (S710 and S711). The comparison start point and the comparison end point are found in the hash table to obtain a ratio of matching accents (S712). The score is calculated by averaging the ratio between the standard sound and the waveform area ratio of the learner and the matching ratio and the accent of the predetermined section (S713).

도 8은 본 발명에 따른 소리분석 중 발음분석의 세부절차를 도시한 흐름도이다. 8 is a flowchart illustrating a detailed procedure of pronunciation analysis of sound analysis according to the present invention.

도 8을 참조하면, 원본 문장파일을 음성인식엔진이 인식할 수 있도록 XML 파일로 변환한다(S801). 연음으로 인해 비슷하게 발음되는 단어를 인식하기 위한 옵션 적용으로 특정단어 및 구절을 5개까지 입력하여 옵션테이블을 만든다(S802).Referring to FIG. 8, the original sentence file is converted into an XML file so that the speech recognition engine can recognize it (S801). The option table is input by inputting up to five specific words and phrases by applying an option for recognizing words that are similarly pronounced due to the sound (S802).

이어 학습자의 소리 데이터를 불러온다(S803). 음성인식엔진에서 인식한 문장을 단어별로 분리하여 철자가 2개 이상되는 단어만 세팅한다(S804).Then, the learner's sound data is loaded (S803). The sentences recognized by the voice recognition engine are separated by words and set only words that have two or more spells (S804).

이어 단어의 개수를 추출한다(S805). 추출한 단어에서 문장부호(".","?","!")와 중복단어를 제거한다(S806). 원본문장을 해쉬 테이블에 넣으면서 인덱스를 구한다(S807).Then, the number of words is extracted (S805). The punctuation marks (".", "?", "!") And duplicate words are removed from the extracted words (S806). The index is obtained by inserting the original statement into the hash table (S807).

녹음된 단어맵 문장을 다른 해쉬 테이블에 넣으면서 인덱스를 구한다(S808).The index is obtained by inserting the recorded word map sentence into another hash table (S808).

원본 문장과 녹음문장을 차례로 비교하면서 해쉬 테이블의 인덱스를 비교한다(S809). 인식단어가 있으면, 인식문장의 순차적 인덱스를 추출하고, 중복문장별로 비교한다(S810~S812). 2 단어 이상 일치하고 바로 다음 연결되는 단어가 일치하는지 판단하여 일치하면 포인트를 증가시키고, 발음 분석 점수를 계산한다(S813~S815).The indexes of the hash table are compared while comparing the original sentence with the recording sentence (S809). If there is a recognition word, the sequential index of the recognition sentence is extracted and compared for each of the duplicate sentences (S810 to S812). It is determined by matching two or more words and immediately following the next connected word, if the match is increased, and the pronunciation analysis score is calculated (S813 ~ S815).

도 9는 본 발명에 따른 소리분석 중 소리근원분석의 세부절차를 도시한 흐름도이다. 9 is a flowchart illustrating a detailed procedure of sound source analysis during sound analysis according to the present invention.

도 9를 참조하면, 분석할 학습자 음성 데이터를 불러온다(S901). 음성 데이터로부터 저주파 노이즈와 고주파 노이즈를 제거한다(S902).Referring to FIG. 9, learner voice data to be analyzed is called up (S901). Low frequency noise and high frequency noise are removed from the voice data (S902).

주파수 분석을 위해 학습자 음성 데이터에 고속프리에변환(FFT)을 적용하여 전처리한다(S903).In order to analyze the frequency, a fast free transform (FFT) is applied to the learner's speech data and preprocessed (S903).

특정 대역별 주파수의 분석을 수행하고, 분석주파수의 히스토그램 분석을 하여 특정 주파수 대역(예컨대, 영어의 경우 소리의 근원이 배로서 대략 2500Hz~3500Hz대역의 레벨이 높음)이 소정 비율(50%) 이상인지를 판단한다(S904~S906). 특정 주파수 대역이 일정비율 이상이면 학습자 음성의 소리근원을 배로 판단하고, 그 이하이면 목으로 판단하여 알려준다(S907). 그리고 필요시 2500Hz~3500Hz 대역의 비율을 점수화하여 점수로 나타낼 수도 있다.Analyze frequencies for specific bands, and perform histogram analysis of the analyzed frequencies so that a specific frequency band (e.g. in English, the source of sound is twice as high as the level of approximately 2500 Hz to 3500 Hz band is high) is above a predetermined rate (50%). Determine the recognition (S904 ~ S906). If the specific frequency band is more than a certain ratio, the sound source of the learner's voice is determined twice, and if it is less than that it is determined by the neck (S907). If necessary, the ratio of the 2500 Hz to 3500 Hz band may be scored and expressed as a score.

이상에서 본 발명은 도면에 도시된 일 실시예를 참고로 설명되었으나, 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. The present invention has been described above with reference to one embodiment shown in the drawings, but those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom.

Claims (11)

학습자 컴퓨터와 어학학습 서비스 시스템이 인터넷으로 연결되어 학습자에게 어학학습을 제공할 수 있는 어학 학습방법에 있어서,In the language learning method that the learner computer and language learning service system can be connected to the Internet to provide language learning to learners, 학습자가 학습자 컴퓨터로 어학학습 서비스 시스템에 접속하여 로그인하면, 어학학습 서비스 시스템이 학습자 페이지를 제공하는 단계;When the learner accesses and logs in to the language learning service system using the learner computer, the language learning service system providing a learner page; 학습자가 상기 학습자 페이지 화면에서 학습하기를 선택하면, 어학학습 서비스 시스템이 해당 학습자의 이전 학습진도에 맞춰 학습할 학습 페이지를 제공하는 단계;If a learner selects learning on the learner page screen, the language learning service system provides a learning page for learning according to a previous learning progress of the learner; 학습자가 상기 학습 페이지에서 학습한 후 답안을 입력하면, 어학학습 서비스 시스템이 정답과 비교하여 평가하고, 평가 결과에 따라 소정 기준치 이상일 경우에만 다음 학습 페이지를 제공하는 단계;When a learner learns from the learning page and inputs an answer, the language learning service system evaluates the answer with the correct answer, and provides the next learning page only when the learning result is greater than or equal to a predetermined reference value according to the evaluation result; 학습자가 상기 학습 페이지에서 녹음을 선택하면, 어학학습 서비스 시스템이 소정 시간의 시간제한 마크를 작동시키고 제한된 시간 안에 학습자의 음성을 녹음하는 단계; When a learner selects recording on the learning page, the language learning service system activates a time limit mark of a predetermined time and records the learner's voice within a limited time; 어학학습 서비스 시스템이 상기 녹음된 학습자의 음성을 소리분석하는 단계; 및Analyzing a sound of the recorded learner by a language learning service system; And 어학학습 서비스 시스템이 상기 소리분석결과를 데이터베이스에 저장하여 관리하고 분석결과를 상기 학습자측으로 제공하는 단계를 구비한 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.And a language learning service system storing and managing the sound analysis result in a database and providing the result of analysis to the learner. 제1항에 있어서, 상기 학습자의 음성을 녹음하는 단계는The method of claim 1, wherein the recording of the learner's voice is performed. 학습 페이지의 화면에서 녹음버튼을 선택받는 단계와, 녹음버튼이 선택되면 소정 시간의 시간제한마크를 표시하여 시간경과를 카운트하는 단계와, 시간제한마크의 시간경과 표시가 시작되면 학습자의 음성을 입력받아 녹음하는 단계와, 소정 시간이 경과되면 시간제한마크의 시간경과 표시를 종료시키고, 녹음을 정지하는 단계와, 업로드버튼이 선택되면 녹음된 학습자의 음성데이터를 소리분석서버로 전송하는 단계로 이루어진 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.Selecting a recording button on the screen of the learning page; displaying a time limit mark of a predetermined time when the recording button is selected; counting time elapse; and inputting a learner's voice when the time limit display of the time limit mark starts. Receiving and recording, Ending the time-lapse display of the time limit mark when a predetermined time has elapsed, Stop recording, and If the upload button is selected, and transmits the recorded learner's voice data to the sound analysis server Sound analysis based language learning method on the Internet, characterized in that. 제1항에 있어서, 상기 학습자의 음성을 녹음하는 단계는The method of claim 1, wherein the recording of the learner's voice is performed. 어학학습 서비스 시스템이 보이스 레코딩 시스템 화면을 제공하여 제한시간에 녹음하게 하고, 업로드를 선택하면 녹음된 학습자의 음성데이터를 소리분석서버로 전송하는 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.The language learning service system provides a voice recording system screen for recording in a limited time, and when upload is selected, the voice analysis based language learning method on the Internet, characterized by transmitting the recorded learner's voice data to a sound analysis server. 제1항에 있어서, 학습자의 음성을 소리분석하는 단계는The method of claim 1, wherein the sound analyzing of the learner's voice is performed. 학습자의 음성데이터를 표준음 데이터의 리듬과 비교하여 리듬을 분석하는 리듬분석단계와,A rhythm analysis step of analyzing the rhythm by comparing the learner's voice data with the rhythm of the standard sound data; 학습자의 음성데이터를 표준음 데이터와 비교하여 발음을 분석하는 발음분석단계와,Pronunciation analysis step of analyzing the pronunciation by comparing the learner's voice data with the standard sound data, 학습자의 음성 데이터를 소정의 기준치와 비교하여 소리의 근원이 복부인지 성대인지를 판단하여 소리의 근원을 분석하는 소리근원분석단계로 이루어진 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.A sound analysis based language learning method on the Internet, comprising a sound source analysis step of analyzing a sound source by determining whether a sound source is an abdomen or a vocal cord by comparing a learner's voice data with a predetermined reference value. 제4항에 있어서, 상기 리듬분석단계는The method of claim 4, wherein the rhythm analysis step 표준음 파형을 분석하여 처음에 무음이 아닌 곳을 찾아 연속하는 다음 3개의 점에 무음이 없으면 시작점으로 정하고, 무음이 3개 이상 연속되고 시작점과 끝점이 10픽셀 이상인 점을 봉우리의 끝점으로 정하는 단계;Analyze the standard sound waveform to find the first non-silent point and determine if the next three consecutive points have no silence, starting point, and determine the end point of the peak with three or more consecutive silences and a starting point and ending point of 10 pixels or more. ; 학습자 파형을 분석하여 처음에 무음이 아닌 곳을 찾아 연속하는 다음 3개의 점에 무음이 없으면 시작점으로 정하고, 무음이 3개 이상 연속되고, 시작점과 끝점이 10픽셀 이상인 점을 봉우리의 끝점으로 정하는 단계;Analyze the learner's waveform to find the first non-silent point and determine if the next three consecutive points have no silence, start point, and determine the end point of the peak with at least three consecutive silence points and at least 10 pixels of start and end points. ; 상기 표준음 파형과 학습자 파형의 시작점이 같은가 판단하여 같으면, 표준음과 학습자의 파형면적을 비율로 계산하고, 무성음처리부분이면 표준음과 학습자의 파형의 끝점을 비교하여 무성음 처리가 되어 있는지 확인하는 단계;If it is determined that the starting point of the standard sound waveform and the learner waveform is the same, if it is the same, it calculates the waveform area of the standard sound and the learner as a ratio, and if the unvoiced sound processing part compares the end points of the standard sound and the learner's waveform to check whether the unvoiced sound processing is performed. step; 상기 봉우리의 개수를 비교하여 일정구간의 매칭율을 계산하고, 악센트 구간을 찾기 위해 해쉬 테이블에 넣으면서 인덱스를 산출하는 단계;Comparing the number of peaks to calculate a matching rate of a predetermined period, and calculating an index while putting the hash table into a hash table to find an accent interval; 상기 해쉬 테이블에서 비교시작점과 비교종료점을 찾아 악센트가 일치하는 비율을 산출하는 단계; 및Finding a comparison start point and a comparison end point in the hash table and calculating a ratio of matching accents; And 상기 표준음 파형과 학습자의 파형 면적 비율과 일정구간 매칭율과 악센트가 일치하는 비율을 평균하여 점수를 산출하는 단계를 포함하는 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.And calculating a score by averaging the standard sound waveform and the proportion of the waveform area of the learner and the proportion of the matching interval and the accent of the predetermined section. 제4항에 있어서, 상기 발음분석단계는The method of claim 4, wherein the pronunciation analysis step 원본 문장파일을 음성인식엔진이 인식할 수 있도록 XML 파일로 변환하는 단계;Converting the original sentence file into an XML file for speech recognition engine recognition; 연음으로 인해 비슷하게 발음되는 단어를 인식하기 위해 특정 단어 및 구절을 입력하여 옵션 테이블을 만드는 단계;Creating a table of options by inputting specific words and phrases to recognize words that are similarly pronounced due to the ringtone; 학습자의 녹음 문장을 가져와 음성인식엔진에서 인식한 문장을 단어별로 분리하여 철자가 2개 이상되는 단어만 세팅하는 단계;Bringing the learner's recorded sentences to separate sentences recognized by the voice recognition engine for each word and setting only words that have two or more spellings; 인식된 단어의 개수를 추출하는 단계;Extracting the number of recognized words; 추출한 단어에서 문장부호와 중복단어를 제거하는 단계;Removing punctuation and duplicate words from the extracted words; 원본 문장을 해쉬 테이블에 넣으면서 인덱스를 구하는 단계;Obtaining an index while putting the original statement into a hash table; 녹음 문장을 다른 해쉬 테이블에 넣으면서 인덱스를 구하는 단계;Obtaining an index while inserting the recorded sentence into another hash table; 원본 문장과 녹음 문장을 차례로 비교하면서 해쉬 테이블의 인덱스를 비교하는 단계; 및Comparing the indexes of the hash table while comparing the original sentence with the recorded sentence in sequence; And 상기 인덱스 비교 결과, 단어의 일치도에 따라 발음분석 점수를 산출하는 단계를 포함하는 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.The sound analysis-based language learning method on the Internet, characterized in that it comprises the step of calculating the pronunciation analysis score according to the degree of word matching. 제4항에 있어서, 상기 소리근원분석단계는The method of claim 4, wherein the sound source analysis step 학습자 음성 데이터를 불러와 잡음을 제거하는 단계;Importing learner voice data to remove noise; 주파수분석을 위해 상기 학습자 음성 데이터에 FFT를 적용하여 전처리하는 단계;Preprocessing by applying an FFT to the learner speech data for frequency analysis; 상기 FFT변환된 데이터의 주파수 특성을 분석하여 특정 주파수대의 비율로 소리의 근원을 판단하는 단계를 구비한 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.And analyzing the frequency characteristics of the FFT-converted data to determine the source of sound at a specific frequency ratio. 제7항에 있어서, 상기 특정 주파수대역은 2500Hz~3500Hz인 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.The method of claim 7, wherein the specific frequency band is 2500Hz to 3500Hz. 제1항에 있어서, 상기 인터넷상에서의 소리분석 기반 어학 학습방법은,The method of claim 1, wherein the sound analysis-based language learning method on the Internet comprises: 상기 학습 페이지에 도움말부와, 컨텐츠 그림, 답안 입력부, 마이크버튼, 업로드버튼, 이전 페이지 이동(<)을 표시하고,The help page, the content picture, the answer input unit, the microphone button, the upload button, the previous page (<) is displayed on the learning page, 학습자가 상기 학습 페이지의 화면에서 컨텐츠 그림을 클릭하면, 해당 그림과 관련된 단어/문장의 원어민 발음을 출력하고,When the learner clicks on the content picture on the screen of the learning page, the native speaker's pronunciation of the word / sentence associated with the picture is outputted, 학습자가 상기 학습 페이지의 화면에서 상기 사전을 클릭하면, 해당 컨텐츠에 대한 한국어 단어/문장을 표시하여 학습자의 이해를 증진시키고 한글을 영어로 말해 보도록 훈련하고, When the learner clicks the dictionary on the screen of the learning page, the Korean word / sentence for the corresponding content is displayed to enhance the learner's understanding and to train the Hangul in English. 학습자가 상기 학습 페이지의 화면에서 마이크를 클릭하면, 마이크를 통해 학습자 음성을 녹음한 후 업로드버튼이 선택되면, 상기 녹음된 학습자 음성 데이터를 서버로 전송하고,When the learner clicks the microphone on the screen of the learning page, if the upload button is selected after recording the learner voice through the microphone, the recorded learner voice data is transmitted to the server, 학습자가 상기 학습 페이지의 화면에서 프린터를 선택하면, 현재의 학습 페이지에 맞는 쓰기 연습장을 인쇄하는 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습방법.When the learner selects a printer on the screen of the learning page, the sound analysis-based language learning method on the Internet, characterized in that for printing the writing exercise book suitable for the current learning page. 학습자 컴퓨터와 어학학습 서비스 시스템이 인터넷으로 연결되어 학습자에게 어학학습을 제공할 수 있는 어학학습 서비스 시스템에 있어서,In the language learning service system that can provide language learning to learners by connecting the learner computer and language learning service system to the Internet, 상기 학습자 컴퓨터는, The learner computer, 상기 어학학습 서비스 시스템으로부터 어학학습을 위한 클라이언트 모듈을 다운로드받아 실행하고, 상기 어학학습 서비스 시스템이 제공하는 학습 페이지를 디스플레이하며, 학습자가 녹음을 선택하면 화면에 시간제한마크를 표시함과 아울러 학습자의 음성데이터를 입력받아 저장한 후 학습자가 업로드를 선택하면 녹음된 학습자의 음성데이터를 상기 어학학습 서비스 시스템으로 전송하고, 상기 어학학습 서비스 시스템으로부터 소리분석결과를 수신받아 화면에 표시하고,Download and execute a client module for language learning from the language learning service system, display a learning page provided by the language learning service system, display a time limit mark on the screen when the learner selects recording, and After receiving and storing the voice data, when the learner selects upload, the voice data of the recorded learner is transmitted to the language learning service system, the sound analysis result is received from the language learning service system, and displayed on the screen. 상기 어학학습 서비스 시스템은,The language learning service system, 학습 컨텐츠를 저장하고 있는 컨텐츠 데이터베이스와, 회원으로 가입된 학습자를 관리하기 위한 회원관리 데이터베이스와, 학습자의 음성 데이터를 수신받아 발음분석, 리듬분석, 소리의 근원분석을 하고 상기 회원관리 데이터베이스의 해당 학습자 영역에 저장하는 소리분석서버와, 인터넷을 통해 접속된 학습자 컴퓨터로 상기 컨텐츠 데이터베이스에 저장된 학습 페이지를 제공하고 상기 학습자 컴퓨터로부터 전달된 학습자의 조작에 따라 해당 학습기능을 제공하며, 상기 학습자 컴퓨터로부터 학습자의 음성데이터가 수신되면 상기 소리분석서버로 전달하여 소리분석을 요구하고 분석결과를 수신받아 해당 학습자 컴퓨터로 전달해주는 웹서버를 포함하는 것을 특징으로 하는 인터넷상에서의 소리분석 기반 어학 학습 시스템.A content database that stores learning content, a member management database for managing learners subscribed as members, and voice data of the learners to receive pronunciation analysis, rhythm analysis, and sound source analysis, and the corresponding learners in the member management database. It provides a sound analysis server to be stored in the area, the learning page stored in the content database to the learner computer connected through the Internet, and provides the corresponding learning function according to the learner's operation delivered from the learner computer, the learner from the learner computer The sound analysis-based language learning system on the Internet, characterized in that it comprises a web server for transmitting the sound analysis server to the sound analysis server to receive a sound analysis and receive the analysis result and deliver it to the learner computer. 제10항에 있어서, 상기 소리분석서버는The method of claim 10, wherein the sound analysis server 학습자의 음성데이터를 표준음 데이터와 비교하여 발음을 분석하고,Analyze pronunciation by comparing learner's voice data with standard sound data, 학습자의 음성데이터를 표준음 데이터의 리듬과 비교하여 리듬을 분석하며,Analyzes the rhythm by comparing the learner's voice data with the rhythm of standard sound data, 학습자의 음성 데이터를 소정의 기준치와 비교하여 소리의 근원이 복부인지 성대인지를 판단하여 소리의 근원을 분석하는 것을 특징으로 인터넷상에서의 소리분석 기반 어학 학습 시스템.A sound analysis-based language learning system on the Internet, characterized in that the sound source is analyzed by comparing the learner's voice data with a predetermined reference value to determine whether the sound source is the abdomen or vocal cords.
KR20080027328A 2008-03-25 2008-03-25 Language training method and system based sound analysis on internet KR100995847B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20080027328A KR100995847B1 (en) 2008-03-25 2008-03-25 Language training method and system based sound analysis on internet
PCT/KR2009/001394 WO2009119991A2 (en) 2008-03-25 2009-03-19 Method and system for learning language based on sound analysis on the internet

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20080027328A KR100995847B1 (en) 2008-03-25 2008-03-25 Language training method and system based sound analysis on internet

Publications (2)

Publication Number Publication Date
KR20090102088A true KR20090102088A (en) 2009-09-30
KR100995847B1 KR100995847B1 (en) 2010-11-23

Family

ID=41114439

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20080027328A KR100995847B1 (en) 2008-03-25 2008-03-25 Language training method and system based sound analysis on internet

Country Status (2)

Country Link
KR (1) KR100995847B1 (en)
WO (1) WO2009119991A2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110062094A (en) * 2009-12-02 2011-06-10 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20160064287A (en) * 2014-11-27 2016-06-08 김무현 Method of creating and spreading project audio text using smart phone
KR20160086152A (en) * 2015-01-09 2016-07-19 이호진 English trainning method and system based on sound classification in internet
KR20200029128A (en) * 2018-09-10 2020-03-18 신한대학교 산학협력단 Apparatus for Providing Learning Service
KR102129825B1 (en) * 2019-09-17 2020-07-03 (주) 스터디티비 Machine learning based learning service system for improving metacognitive ability
CN112837679A (en) * 2020-12-31 2021-05-25 北京策腾教育科技集团有限公司 Language learning method and system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101411039B1 (en) * 2012-02-07 2014-07-07 에스케이씨앤씨 주식회사 Method for evaluating pronunciation with speech recognition and electronic device using the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100568167B1 (en) * 2000-07-18 2006-04-05 한국과학기술원 Method of foreign language pronunciation speaking test using automatic pronunciation comparison method
KR20040040979A (en) * 2002-11-08 2004-05-13 주식회사 유니북스 Method and System for Providing Language Training Service by Using Telecommunication Network
KR20050061227A (en) * 2003-12-18 2005-06-22 주식회사 와이비엠시사닷컴 Service method of training pronounciation using internet
KR20050062898A (en) * 2003-12-19 2005-06-28 주식회사 언어과학 System and method for combining studying language with searching dictionary
KR100687442B1 (en) * 2006-03-23 2007-02-27 장성옥 A foreign language studying method and system for student-driven type

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110062094A (en) * 2009-12-02 2011-06-10 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20160064287A (en) * 2014-11-27 2016-06-08 김무현 Method of creating and spreading project audio text using smart phone
KR20160086152A (en) * 2015-01-09 2016-07-19 이호진 English trainning method and system based on sound classification in internet
KR20200029128A (en) * 2018-09-10 2020-03-18 신한대학교 산학협력단 Apparatus for Providing Learning Service
KR102129825B1 (en) * 2019-09-17 2020-07-03 (주) 스터디티비 Machine learning based learning service system for improving metacognitive ability
CN112837679A (en) * 2020-12-31 2021-05-25 北京策腾教育科技集团有限公司 Language learning method and system

Also Published As

Publication number Publication date
WO2009119991A3 (en) 2009-12-30
WO2009119991A2 (en) 2009-10-01
WO2009119991A4 (en) 2010-03-04
KR100995847B1 (en) 2010-11-23

Similar Documents

Publication Publication Date Title
Lynch et al. Listening
Field Cognitive validity
CN110782921B (en) Voice evaluation method and device, storage medium and electronic device
Moyer Foreign accent: The phenomenon of non-native speech
CN105792752B (en) Computing techniques for diagnosing and treating language-related disorders
US20170287356A1 (en) Teaching systems and methods
KR100995847B1 (en) Language training method and system based sound analysis on internet
CN101551947A (en) Computer system for assisting spoken language learning
US20140141392A1 (en) Systems and Methods for Evaluating Difficulty of Spoken Text
JP2009503563A (en) Assessment of spoken language proficiency by computer
Yeldham Techniques for researching L2 listeners
CN111833853A (en) Voice processing method and device, electronic equipment and computer readable storage medium
Simasangyaporn The effect of listening strategy instruction on Thai learners’ self-efficacy, English listening comprehension and reported use of listening strategies
Van Moere et al. 21. Technology and artificial intelligence in language assessment
Havron et al. Reading between the words: The effect of literacy on second language lexical segmentation
Bernstein et al. ARTIFICIAL INTELLIGENCE FORSCORING ORAL READING FLUENCY
Xiao et al. Pinyin spelling promotes reading abilities of adolescents learning Chinese as a foreign language: Evidence from mediation models
Anckar Assessing foreign language listening comprehension by means of the multiple-choice format: Processes and products
CN113205729A (en) Foreign student-oriented speech evaluation method, device and system
Hönig Automatic assessment of prosody in second language learning
Kowalski et al. Statistical Modeling of Student Performance to Improve Chinese Dictation Skills with an Intelligent Tutor.
US20220230626A1 (en) Creative work systems and methods thereof
Stephen The importance of teaching listening
Szyszka Pronunciation learning strategies
Cai Chinese listening comprehension: research and pedagogy

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131108

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141029

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151116

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee