KR100405061B1 - Apparatus for training language and Method for analyzing language thereof - Google Patents

Apparatus for training language and Method for analyzing language thereof Download PDF

Info

Publication number
KR100405061B1
KR100405061B1 KR10-2001-0008911A KR20010008911A KR100405061B1 KR 100405061 B1 KR100405061 B1 KR 100405061B1 KR 20010008911 A KR20010008911 A KR 20010008911A KR 100405061 B1 KR100405061 B1 KR 100405061B1
Authority
KR
South Korea
Prior art keywords
voice information
learner
data memory
sample data
native language
Prior art date
Application number
KR10-2001-0008911A
Other languages
Korean (ko)
Other versions
KR20010088350A (en
Inventor
이동익
박천보
Original Assignee
문창호
박천보
이동익
양영근
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 문창호, 박천보, 이동익, 양영근 filed Critical 문창호
Priority to KR10-2001-0008911A priority Critical patent/KR100405061B1/en
Priority to JP2001068335A priority patent/JP2001318592A/en
Publication of KR20010088350A publication Critical patent/KR20010088350A/en
Application granted granted Critical
Publication of KR100405061B1 publication Critical patent/KR100405061B1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages

Abstract

본 발명은 모국어 사용자와 학습자의 보이스 정보를 저장한 후, 주파수 특성을 비교하여 발음을 분석하고, 보이스 출력 파형의 포락선을 비교하여 강세와 리듬을 분석한 결과를 출력하며, 기록된 음성과 녹음된 입 모양을 출력함으로써, 학습효과를 개선한 언어 학습장치 및 그것의 언어 분석방법에 관한 것이다.The present invention stores voice information of native language users and learners, analyzes pronunciation by comparing frequency characteristics, and outputs a result of analyzing stresses and rhythms by comparing envelopes of voice output waveforms. By outputting a mouth shape, the present invention relates to a language learning apparatus and a language analysis method thereof having improved learning effects.

본 발명은 마이크와 카메라를 이용하여 유저데이터 메모리에 학습자의 보이스정보와 입 모양 이미지데이터를 기록하고, 유저데이터 메모리에 기록된 학습자의 보이스정보와 샘플데이터 메모리에 기록된 모국어 사용자의 보이스정보를 발음, 억양, 리듬으로 구분하여 분석하여, 분석된 결과를 차트형태로 표시하도록 한 것을 특징으로 한다.The present invention records the learner's voice information and mouth shape image data in the user data memory using a microphone and a camera, and pronounces the voice information of the native language user recorded in the sample data memory and the learner's voice information recorded in the user data memory. Analysis by dividing into intonation, intonation, rhythm, characterized in that to display the analyzed results in the form of a chart.

따라서, 본 발명은 학습자가 학습한 단어 또는 문장에 대한 발음, 억양 및 리듬에 대한 객관적 분석 자료를 확인하고, 상술한 분석 자료를 반복 학습에 도입함으로서, 모국어 사용자의 발음에 가깝게 학습할 수 있어서 언어 학습 효과를 증진시킬 수 있는 효과가 있다.Therefore, the present invention checks the objective analysis data on pronunciation, intonation, and rhythm of the words or sentences learned by the learner, and introduces the above-described analysis data into the repetitive learning, so that the pronunciation of the native language user can be learned close to the language. There is an effect that can enhance the learning effect.

Description

언어 학습장치 및 그것의 언어 분석방법{Apparatus for training language and Method for analyzing language thereof}Apparatus for training language and Method for analyzing language etc}

본 발명은 본 발명은 언어 학습장치 및 그것의 언어 분석방법에 관한 것으로서, 보다 상세하게는 모국어 사용자와 학습자의 보이스 정보를 저장한 후, 주파수 특성을 비교하여 발음을 분석하고, 보이스 출력 파형의 포락선을 비교하여 강세와 리듬을 분석한 결과를 출력하며, 기록된 음성과 녹음된 입 모양을 출력함으로써, 학습효과를 개선한 언어 학습장치 및 그것의 언어 분석방법에 관한 것이다.The present invention relates to a language learning apparatus and a method for analyzing a language thereof, and more particularly, to store voice information of a native language user and a learner, analyze a pronunciation by comparing frequency characteristics, and encode an envelope of a voice output waveform. The present invention relates to a language learning apparatus and a method for analyzing the language, which outputs a result of analyzing stress and rhythm, and outputs a recorded voice and a recorded mouth shape.

현재 일반적으로 통용되는 언어 학습방법으로서, 첫째, 대인 학습법과, 둘째, 오디오 테이프의 음성만을 이용한 문장 반복형 학습법, 및 셋째, 비디오 테이프를 이용한 시청각 학습법과, 넷째, 서적이나 PC 등을 이용한 온라인 또는 오프라인을 이용한 학습법 등이 일반적이다.Language learning methods currently commonly used include first, interpersonal learning, second, sentence repetitive learning using audio tape audio only, and third, audiovisual learning using video tape, and fourth, online or offline using books or PC. Learning method using is common.

상술한 다양한 학습방법의 등장에도 불구하고, 각 방법별로 취약성이 있으며, 각 방법별로 기준(reference)은 제공하고 있으나, 학습자의 발음, 강세 및 입 모양 등을 정확히 분석해주는 방법은 제공되지 않고 있다.Despite the emergence of the various learning methods described above, there are vulnerabilities for each method and reference is provided for each method, but a method for accurately analyzing learners' pronunciation, stress, and mouth shape is not provided.

따라서, 학습자는 자신의 발음과 강세가 원음과 얼마나 다르며 어디가 틀렸는지 정확히 인식할 수 없었으며, 그에 따라서 학습이 비효율적으로 진행되는 결과를 초래하고, 언어를 학습하는데 상당한 노력과 투자가 요구되고 있다.Therefore, the learner could not accurately recognize how different the pronunciation and stress from the original sound and where it was wrong. Therefore, the result of learning is inefficiently progressed, and considerable effort and investment are required to learn the language.

따라서, 본 발명은 이와 같은 문제점(들)을 해결하기 위한 것으로서, 본 발명의 목적은 학습자가 학습한 단어 또는 문장에 대한 발음을 주파수 특성에 따라서 분석하며, 강세와 리듬을 포락선을 갖는 보이스 파형으로 분석하여 그 결과를 표시해줌으로써, 발음과 강세, 리듬 및 입 모양 등을 객관적으로 분석할 수 있도록 한 언어 학습장치를 제공함에 있다.Accordingly, an object of the present invention is to solve such problem (s), and an object of the present invention is to analyze pronunciation of a word or sentence learned by a learner according to frequency characteristics, and stress and rhythm into a voice waveform having an envelope. The present invention provides a language learning apparatus for objectively analyzing pronunciation, stress, rhythm, and mouth shape by analyzing and displaying the result.

또한, 본 발명의 다른 목적은 학습자가 학습한 단어 또는 문장 중의 일부분만을 학습자가 선택적으로 재생할 수 있도록 함으로써, 특정한 단어 또는 선택 영역에 대하여 학습효과를 배가할 수 있도록 한 언어 학습장치를 제공함에 있다.Another object of the present invention is to provide a language learning apparatus that enables a learner to selectively reproduce only a part of a word or sentence learned by the learner, thereby doubling the learning effect on a specific word or selection area.

또한, 본 발명의 또 다른 목적은 학습자가 학습한 내용을 저장하고 반복 재생하여 교정할 수 있고, 학습 결과를 저장하여 학습자의 진척도를 이력 관리할 수 있도록 한 언어 학습장치를 제공함에 있다.In addition, another object of the present invention is to provide a language learning apparatus that allows the learner to store and repeat the content of the learner to repeat the correction, and to store the learning result to manage the progress of the learner.

또한, 본 발명의 또 다른 목적은 상기한 각 목적들을 달성하기 위한 언어 학습장치의 언어 분석방법을 제공함에 있다.Further, another object of the present invention is to provide a language analysis method of a language learning apparatus for achieving each of the above objects.

도 1은 본 발명에 의한 언어 학습장치의 개략적 블럭도이고,1 is a schematic block diagram of a language learning apparatus according to the present invention,

도 2는 본 발명에 의한 언어 분석방법의 수행과정을 나타내는 동작흐름도이며,2 is an operation flowchart showing a process of performing a language analysis method according to the present invention,

도 3은 본 발명에 의한 보이스 파형 분석 방법을 설명하는 파형도이고,3 is a waveform diagram illustrating a voice waveform analysis method according to the present invention;

도 4는 본 발명에 의한 발음 분석 차트를 나타내는 도면이며,4 is a diagram showing a pronunciation analysis chart according to the present invention,

도 5는 파형 분석 결과에 따라 디스플레이부에 표시되는 표시상태도이고,5 is a display state diagram displayed on a display unit according to a waveform analysis result;

도 6은 본 발명에 의한 언어 학습장치를 전자영한사전으로 적용한 예시도이며,6 is an exemplary view of applying the language learning apparatus according to the present invention as an electronic-English-Korean dictionary.

도 7은 본 발명에 의한 언어 학습장치를 전자회화수첩으로 적용한 예시도이다.7 is an exemplary view of applying the language learning apparatus according to the present invention as an electronic conversation notebook.

<도면의 주요부분에 대한 부호의 설명><Description of the code | symbol about the principal part of drawing>

101: 마이크 102: 아날로그/디지털 변환부101: microphone 102: analog / digital conversion unit

103: 카메라 104: 비디오신호 입력부103: camera 104: video signal input unit

105: 인터페이스부 106: 조작부105: interface unit 106: operation unit

107: 유저데이터 메모리 108: 샘플데이터 메모리107: user data memory 108: sample data memory

109: 디지털/아날로그 변환부 110: 스피커109: digital / analog converter 110: speaker

111: 분석부 112: 비디오 출력부111: analysis unit 112: video output unit

113: 디스플레이부 114: 제어부113: display unit 114: control unit

이와 같은 목적(들)을 달성하기 위한 본 발명의 특징은, 마이크로부터 입력되는 학습자의 아날로그형태의 보이스신호를 디지털형태의 보이스정보로 변환하여 출력하는 보이스 입력수단과; 보이스 입력수단으로부터 제공된 학습자의 보이스정보가 저장되는 유저데이터 메모리와; 모국어 사용자의 보이스정보를 포함한 샘플데이터가 저장되는 샘플데이터 메모리와; 샘플데이터 메모리로부터 검출된 모국어 사용자의 보이스정보를 재생하여 아날로그신호로 변환한 후 스피커로 출력하는 보이스 출력수단과; 보이스 출력수단에 의해 재생되는 모국어 사용자의 보이스정보와, 보이스 입력수단으로부터 제공된 학습자의 보이스정보에 대한 발음의 주파수 특성을 분석하고, 분석된 결과에 따른 발음 분석 차트를 생성하는 분석부와; 분석부에서 생성된 발음 분석 차트를 미리 정해진 영역에 디스플레이하는 디스플레이부와; 재생 모드에서 샘플데이터 메모리에 저장된 모국어 사용자의 보이스정보를 보이스 출력수단으로 출력하고, 기록 모드에서 보이스 입력수단으로부터 입력된 학습자의 보이스정보를 유저데이터 메모리에 저장하며, 분석 모드에서 샘플데이터 메모리에 저장된 모국어 사용자의 보이스정보와 유저데이터 메모리에 저장된 학습자의 보이스정보를 분석부로 출력하는 제어수단을 포함하는 점에 있다.A feature of the present invention for achieving the above object (s) is a voice input means for converting the analog voice signal of the learner input from the microphone into digital voice information; A user data memory for storing voice information of the learner provided from the voice input means; A sample data memory for storing sample data including voice information of a native language user; Voice output means for reproducing voice information of the native language user detected from the sample data memory, converting the voice information into an analog signal, and outputting the same to a speaker; An analysis unit for analyzing the voice information of the native language user reproduced by the voice output means and the frequency characteristics of the pronunciation of the voice information of the learner provided from the voice input means, and generating a pronunciation analysis chart according to the analyzed result; A display unit which displays the pronunciation analysis chart generated by the analysis unit in a predetermined area; Voice information of the native language user stored in the sample data memory in the playback mode is output to the voice output means, voice information of the learner inputted from the voice input means in the recording mode is stored in the user data memory, and stored in the sample data memory in the analysis mode. And control means for outputting voice information of the native language user and voice information of the learner stored in the user data memory to the analysis unit.

여기서, 모국어 사용자의 보이스정보를 포함하는 샘플데이터를 온라인으로 수신하는 인터페이스부를 더 포함하며; 제어부는 인터페이스부에 수신된 샘플데이터를 샘플데이터 메모리에 저장하는 것이 바람직하다.The apparatus may further include an interface unit that receives online sample data including voice information of a native language user. The control unit preferably stores the sample data received in the interface unit in the sample data memory.

또한, 분석부는, 학습자의 보이스정보 파형에 대한 제1 포락선을 검출하고; 모국어 사용자의 보이스정보 파형에 대한 제2 포락선을 검출하며; 제1 포락선과 제2 포락선의 차를 구하여 강세에 대한 제1 분석 차트로 출력하는 것이 바람직하다.The analyzer may detect the first envelope of the learner's voice information waveform; Detect a second envelope of a voice information waveform of a native language user; It is preferable to obtain the difference between the first envelope and the second envelope and output the first analysis chart for stress.

또한, 분석부는, 제1 포락선의 어절의 시작점과 제2 포락선의 어절의 시작점을 비교하고, 그 시간차를 구하여 리듬에 대한 제2 분석 차트로 출력하는 것이 바람직하다.In addition, it is preferable that the analysis unit compares the start point of the word of the first envelope with the start point of the word of the second envelope, obtains the time difference, and outputs the time difference as a second analysis chart for the rhythm.

또한, 카메라로 녹화된 학습자의 입 모양 이미지의 해상도를 조정하고 압축을 수행하는 녹화수단과; 학습자의 보이스정보에 해당하는 학습자의 입 모양 이미지와, 모국어 사용자의 보이스정보에 해당하는 모국어 사용자의 입 모양 이미지를 디스플레이하기 신호로 변환하여 디스플레이부에 출력하는 비디오 출력수단을 더 포함하며; 제어부는 기록 모드에서 녹화수단에서 출력되는 학습자의 입 모양 이미지를 유저데이터 메모리에 저장하고, 분석 모드에서 학습자의 입 모양 이미지와 모국어 사용자의 입 모양 이미지를 비디오 출력부로 출력하는 것이 바람직하다.In addition, recording means for adjusting the resolution of the mouth-shaped image of the learner recorded by the camera and performing compression; A video output means for converting the learner's mouth image corresponding to the learner's voice information and the native language user's mouth image corresponding to the voice information of the native language user into a display signal and outputting the signal to the display unit; The controller may store the learner's mouth image output from the recording unit in the recording mode in the user data memory, and output the learner's mouth image and the native language user's mouth image to the video output unit in the analysis mode.

또한, 샘플데이터 메모리에 저장된 샘플데이터 중 분석하고자 하는 문장을 검색하기 위한 이동키와, 검색된 문장단위로 재생 및 분석하기 위해 해당 문장을 선택하는 선택키를 갖는 조작부를 더 포함하며; 제어부는 조작부로부터의 조작신호에 대응하여 샘플데이터 메모리에 저장된 샘플데이터 중 학습자가 선택한 문장을 재생 및 분석하도록 한 것이 바람직하다.The apparatus may further include an operation unit having a moving key for searching for a sentence to be analyzed among sample data stored in the sample data memory, and a selection key for selecting a corresponding sentence for reproducing and analyzing in the retrieved sentence unit; The controller may be configured to reproduce and analyze a sentence selected by the learner among sample data stored in the sample data memory in response to an operation signal from the operation unit.

또한, 조작부내의 선택키는 검색된 문장에 포함된 다수개의 단어 중 학습자가 선택한 적어도 하나 이상의 단어를 재생 및 분석하기 위해 해당 단어를 선택하는 기능을 더 포함하며; 제어부는 조작부로부터의 조작신호에 대응하여 샘플데이터 메모리에 저장된 샘플데이터 중 학습자가 선택한 문장내의 단어를 재생 및 분석하도록 한 것이 바람직하다.The selection key in the operation unit may further include a function of selecting a corresponding word to reproduce and analyze at least one word selected by the learner among a plurality of words included in the searched sentence; The controller may be configured to reproduce and analyze a word in a sentence selected by the learner among sample data stored in the sample data memory in response to an operation signal from the operation unit.

또한, 조작부내의 선택키는 검색된 문장 중 학습자가 임의의 영역을 선택하여 재생 및 분석하기 위해 임의의 영역을 선택하는 기능을 더 포함하며; 제어부는 조작부로부터의 조작신호에 대응하여 샘플데이터 메모리에 저장된 샘플데이터 중 학습자가 선택한 영역을 재생 및 분석하도록 한 것이 바람직하다.In addition, the selection key in the operation unit further includes a function of selecting an arbitrary region for the learner to select and reproduce and analyze an arbitrary region among the searched sentences; The controller may be configured to reproduce and analyze a region selected by the learner among sample data stored in the sample data memory in response to an operation signal from the operation unit.

한편, 본 발명의 다른 특징은, 유저데이터 메모리에 저장된 학습자의 보이스정보를 검출하고, 검출된 학습자의 보이스정보에 대한 파형을 시간 도메인에서 주파수 도메인으로 표현되도록 학습자의 보이스정보에 대한 주파수 특성을 분석하고; 샘플데이터 메모리에 저장된 모국어 사용자의 보이스정보를 검출하고, 검출된 모국어 사용자의 보이스정보에 대한 파형을 시간 도메인에서 주파수 도메인으로 표현되도록 모국어 사용자의 보이스정보에 대한 주파수 특성을 분석하며; 학습자의 보이스정보에 대한 주파수와 모국어 사용자의 보이스정보에 대한 주파수를 대역별 출력 파형을 나타내는 발음 분석 차트를 생성하여 출력하도록 한 점에 있다.On the other hand, another feature of the present invention, the voice information of the learner stored in the user data memory is detected, and the frequency characteristics of the voice information of the learner so as to represent the waveform of the detected voice information of the learner in the frequency domain in the time domain and; Detecting voice information of the native language user stored in the sample data memory, and analyzing frequency characteristics of the voice information of the native language user such that the waveform of the detected native language user's voice information is represented in the frequency domain in the time domain; The frequency of the voice information of the learner and the voice information of the native language user is generated by generating a pronunciation analysis chart showing the output waveform for each band.

여기서, 학습자의 보이스정보에 대한 출력 파형의 제1 포락선을 검출하고; 모국어 사용자의 보이스정보에 대한 출력 파형의 제2 포락선을 검출하며; 제1 포락선과 제2 포락선의 차를 검출하고; 검출된 제1 포락선과 제2 포락선의 차를 나타내는 강세 분석 차트를 생성하여 출력할 수도 있다.Wherein a first envelope of an output waveform for voice information of the learner is detected; Detect a second envelope of an output waveform with respect to voice information of the native language user; Detect a difference between the first envelope and the second envelope; A stress analysis chart showing the difference between the detected first envelope and the second envelope may be generated and output.

또한, 학습자의 보이스정보에 대한 출력 파형에서 최초 어절에 이어지는 다음 어절의 제1 시작점을 검출하고; 모국어 사용자의 보이스정보에 대한 출력 파형에서 최초 어절에 이어지는 다음 어절의 제2 시작점을 검출하며; 제1 시작점과 제2 시작점의 시간차를 검출하고; 검출된 제1 시작점과 제2 시작점의 시간차를 나타내는 리듬 분석 차트를 생성하여 출력할 수도 있다.Further detecting a first starting point of the next word following the first word in the output waveform for the voice information of the learner; Detecting a second starting point of the next word following the first word in the output waveform for the voice information of the native language user; Detecting a time difference between the first starting point and the second starting point; A rhythm analysis chart indicating a time difference between the detected first start point and the second start point may be generated and output.

또한, 학습자의 보이스정보에 대한 출력 파형에서 최초 어절에 이어지는 다음 어절 사이의 제1 무신호 구간을 검출하고; 모국어 사용자의 보이스정보에 대한 출력 파형에서 최초 어절에 이어지는 다음 어절 사이의 제2 무신호 구간을 검출하며; 제1 무신호 구간과 제2 무신호 구간의 시간차를 검출하고; 검출된 제1 무신호 구간과 제2 무신호 구간의 시간차를 나타내는 리듬 분석 차트를 생성하여 출력할 수도 있다.Detecting a first non-signal interval between the next word following the first word in the output waveform of the learner's voice information; Detecting a second non-signal interval between the next word following the first word in the output waveform for the voice information of the native language user; Detecting a time difference between the first no-signal section and the second no-signal section; A rhythm analysis chart indicating a time difference between the detected first no-signal section and the second no-signal section may be generated and output.

이하, 본 발명의 바람직한 실시예(들)에 대하여 첨부도면을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호로 표기되었음에 유의하여야 한다. 또한, 하기의 설명에서는 구체적인 회로의 구성소자 등과 같은 많은 특정사항들이 도시되어 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들 없이도 본 발명이 실시될 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.Hereinafter, exemplary embodiment (s) of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the elements of each drawing, it should be noted that the same elements are denoted by the same reference numerals as much as possible even if they are displayed on different drawings. In addition, in the following description there are shown a number of specific details, such as components of the specific circuit, which are provided only to help a more general understanding of the present invention that the present invention may be practiced without these specific details. It is self-evident to those of ordinary knowledge in Esau. In describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 1에는 본 발명에 의한 언어 학습장치의 개략적 블럭도가 도시되어 있고, 도 2에는 본 발명에 의한 언어 분석방법의 수행과정을 나타내는 동작흐름도가 도시되어 있으며, 도 3에는 본 발명에 의한 보이스 파형 분석 방법을 설명하는 파형도가 도시되어 있고, 도 4에는 본 발명에 의한 발음 분석 차트를 나타내는 도면이 도시되어 있으며, 도 5에는 파형 분석 결과에 따라 디스플레이부에 표시되는 표시상태도가 도시되어 있고, 도 6에는 본 발명에 의한 언어 학습장치를 전자영한사전으로 적용한 예시도가 도시되어 있으며, 도 7에는 본 발명에 의한 언어 학습장치를 전자회화수첩으로 적용한 예시도가 도시되어 있다.Figure 1 is a schematic block diagram of a language learning apparatus according to the present invention, Figure 2 is an operational flow diagram showing the performance of the language analysis method according to the present invention, Figure 3 voice waveforms according to the present invention A waveform diagram illustrating an analysis method is shown, FIG. 4 is a diagram illustrating a pronunciation analysis chart according to the present invention, and FIG. 5 is a display state diagram displayed on a display unit according to a waveform analysis result. 6 illustrates an example of applying the language learning apparatus according to the present invention as an electronic-English-English dictionary, and FIG. 7 illustrates an example of applying the language learning apparatus according to the present invention as an electronic conversation notebook.

도 1을 참조하여 본 발명의 구성을 설명하면 다음과 같다.Referring to Figure 1, the configuration of the present invention will be described.

마이크(101)는 학습자의 보이스를 집음하여 아날로그형태의 전기적인 신호로 변환한다.The microphone 101 collects the learner's voice and converts it into an electrical signal in an analog form.

아날로그/디지털 변환기(102)는 마이크(101)로부터 입력된 아날로그형태의 보이스신호를 디지털형태로 변환하여 출력한다.The analog-digital converter 102 converts the analog voice signal input from the microphone 101 into a digital form and outputs the digital signal.

카메라(103)는 피사체인 학습자를 촬영하여 얻어진 이미지정보를 비디오신호로 변환한다. 특히, 본 발명에 있어서, 카메라(103)는 학습자가 자신의 입 모양을시각적으로 확인할 수 있도록 학습자의 입 모양을 촬영한다.The camera 103 converts image information obtained by photographing a learner as a subject into a video signal. In particular, in the present invention, the camera 103 photographs the learner's mouth shape so that the learner can visually check the shape of his or her mouth.

비디오신호 입력부(104)는 카메라(103)로부터 입력된 학습자의 입 모양에 대한 이미지정보의 해상도 조정과 데이터 압축을 수행한다.The video signal input unit 104 adjusts the resolution and data compression of image information about the shape of the learner's mouth input from the camera 103.

인터페이스부(105)는 컴퓨터나 인터넷에 접속하기 위한 연결부로서, 온라인으로 전송되는 샘플데이터를 인터페이스하는 역할을 담당한다.The interface unit 105 is a connection unit for connecting to a computer or the Internet, and serves to interface sample data transmitted online.

조작부(106)는 어학 학습장치의 동작을 제어하기 위한 복수개의 기능 키가 배열되어 있으며, 특히, 샘플데이터 메모리(108)에 저장된 샘플데이터(모국어 사용자의 보이스정보 및 입 모양을 나타내는 이미지데이터) 중 임의의 문장을 검색하기 위한 이동키와, 이동키에 의해 표시된 임의의 문장 전체 또는 문장에 포함된 단어 또는 문장의 소정 영역을 선택하기 위한 선택키를 포함하며, 선택키에 의해 선택된 문장, 단어, 소정 영역 중 어느 하나를 재생하기 위한 재생키와, 학습자의 보이스정보 및 입 모양을 나타내는 이미지데이터를 기록하기 위한 기록키와, 샘플데이터와 학습자의 유저데이터를 분석하기 위한 분석키를 포함한다.The operation unit 106 is arranged with a plurality of function keys for controlling the operation of the language learning apparatus. In particular, among the sample data (voice information of the native language user and image data representing the mouth shape) stored in the sample data memory 108 is arranged. A movement key for searching for an arbitrary sentence, and a selection key for selecting a predetermined region of a whole word or sentence included in the sentence or a sentence indicated by the movement key, and includes a sentence, a word, and a predetermined region selected by the selection key. A playback key for reproducing any one of them, a recording key for recording image information representing the voice information and mouth shape of the learner, and an analysis key for analyzing the sample data and the user data of the learner.

유저데이터 메모리(107)는 유저인 학습자가 기록한 보이스정보, 이미지데이터와 학습 이력데이터를 저장한다.The user data memory 107 stores voice information, image data and learning history data recorded by a learner who is a user.

샘플데이터 메모리(108)는 모국어 사용자에 의해 직접 녹음되어 입력되거나 인터페이스부(105)에 접속 가능한 컴퓨터나 인터넷 단말기를 통하여 온라인으로 다운로드된 모국어 사용자의 보이스정보, 이미지데이터를 저장한다.The sample data memory 108 stores voice information and image data of a native language user that is recorded and input directly by the native language user or downloaded online through a computer or an Internet terminal accessible to the interface unit 105.

디지털/아날로그 변환부(109)는 유저데이터 메모리(107) 및 샘플데이터 메모리(108)에 저장된 디지털형태의 보이스정보 중 학습자에 의해 재생기능이 선택된보이스정보를 아날로그형태의 보이스신호로 변환하여 스피커(110)로 출력한다.The digital / analog converting unit 109 converts the voice information in which the playback function is selected by the learner among the digital voice information stored in the user data memory 107 and the sample data memory 108 into an analog voice signal and converts the voice information into a speaker ( Output to 110).

분석부(111)는 유저데이터 메모리(107) 및 샘플데이터 메모리(108)에 저장된 보이스정보 중 학습자에 의해 재생기능이 선택된 보이스정보에 대한 발음 분석을 위한 주파수 변환 알고리즘(예를 들면, 푸리에 변환 알고리즘)을 이용하여 주파수 특성을 검출하고, 강세 분석 및 리듬 분석을 위한 포락선을 검출하며, 검출된 결과를 정해진 양식의 차트로 변환하여 출력한다.The analysis unit 111 may perform a frequency conversion algorithm (eg, Fourier transform algorithm) for pronunciation analysis on voice information selected by a learner among voice information stored in the user data memory 107 and the sample data memory 108. ), Frequency characteristics are detected, envelopes for stress analysis and rhythm analysis are detected, and the detected results are converted into a chart in a predetermined format and output.

비디오 출력부(112)는 유저데이터 메모리(107) 및 샘플데이터 메모리(108)에 저장된 입 모양에 대한 이미지데이터 중 학습자에 의해 재생기능이 선택된 이미지데이터를 선별적으로 검출하여 복원(압축 해제)한 후, 출력한다.The video output unit 112 selectively detects and restores (decompresses) image data of which the playback function is selected by the learner among the image data of the mouth shape stored in the user data memory 107 and the sample data memory 108. Then output.

디스플레이부(113)는 유저데이터 메모리(107)에 저장된 학습자의 보이스정보 중 조작부(106)를 이용하여 학습자가 선택한 보이스정보에 대한 문자정보와 분석부(111)에 의해 분석된 분석 결과 및 비디오 출력부(112)에서 출력된 이미지데이터를 기 정의된 소정의 영역에 배치하여 표시한다.The display unit 113 outputs the character information of the voice information selected by the learner using the operator 106 among the voice information of the learner stored in the user data memory 107, and the analysis result and the video analyzed by the analyzer 111. The image data output from the unit 112 is arranged and displayed in a predetermined area.

제어부(114)는 언어 학습장치의 동작상태를 전반적으로 제어한다. 특히, 제어부(114)는 아날로그/디지털 변환부(102)에 의해 변환된 디지털형태의 보이스정보를 유저데이터 메모리(107)에 어드레스를 지정하여 저장하고, 비디오신호 입력부(104)에 의해 디지털형태로 압축된 입 모양 이미지데이터를 유저 데이터 메모리(107)에 저장한다. 이때, 제어부(114)는 유저데이터 메모리(107)에 입 모양 이미지데이터를 저장할 때, 보이스정보의 어드레스와 입 모양 이미지데이터의 어드레스를 링크시켜 저장함으로써, 재생과정에서 보이스정보가 선택되었을 때 링크된입 모양 이미지데이터가 동시에 검출될 수 있도록 한다.The controller 114 generally controls the operation state of the language learning apparatus. In particular, the controller 114 stores the digital voice information converted by the analog / digital converter 102 in the user data memory 107 by specifying an address and stores the digital voice information in the digital form by the video signal input unit 104. The compressed mouth image data is stored in the user data memory 107. At this time, the controller 114 stores the image information of the mouth shape in the user data memory 107 by linking and storing the address of the voice information and the address of the mouth shape image data so that the voice information is selected when the voice information is selected in the reproduction process. The mouth image data can be detected at the same time.

또한, 제어부(114)는 인터페이스부(105)를 통하여 다운로드된 샘플데이터를 샘플데이터 메모리(108)에 어드레스를 지정하여 저장하며, 조작부(106)의 조작신호에 따라 학습자가 선택한 단어, 문장, 영역에 따라 유저데이터 메모리(107)와 샘플데이터 메모리(108)에 저장된 보이스정보와 이미지데이터를 선택적으로 검출하여 각각 디지털/아날로그 변환부(109)와 분석부(111) 및 비디오 출력부(112)에 출력한다.In addition, the controller 114 stores the sample data downloaded through the interface unit 105 in the sample data memory 108 by specifying an address, and selects a word, sentence, or region selected by the learner according to an operation signal of the operation unit 106. Voice information and image data stored in the user data memory 107 and the sample data memory 108 are selectively detected, and the digital / analog converter 109, the analyzer 111, and the video output 112 are respectively detected. Output

상기한 바와 같은 구성을 갖는 언어 학습장치는, 전자수첩이나 전자회화사전과 같은 개별 단말기로 제작될 수도 있으며, 컴퓨터에 적용되어 인터넷상으로 또는 개별 데스크탑 단말기에서 구현될 수도 있다.The language learning apparatus having the configuration as described above may be manufactured by an individual terminal such as an electronic organizer or an electronic conversation dictionary, and may be applied to a computer and implemented on the Internet or in an individual desktop terminal.

이와 같은 구성을 갖는 본 발명의 동작에 대하여 도 2 내지 도 7을 참조하여 설명하면 다음과 같다.An operation of the present invention having such a configuration will be described below with reference to FIGS. 2 to 7.

본 발명에 의한 언어 분석장치의 동작은 선택모드, 재생 모드, 기록 모드, 분석 모드로 구분되며, 분석 모드는 강세 분석 모드, 리듬 분석 모드, 발음 분석 모드로 구분된다.The operation of the language analyzing apparatus according to the present invention is divided into a selection mode, a reproduction mode, a recording mode, and an analysis mode, and the analysis mode is classified into a stress analysis mode, a rhythm analysis mode, and a pronunciation analysis mode.

먼저, 모국어 사용자의 샘플데이터(보이스정보와 입 모양 이미지데이터)는 인터페이스부(105)를 통하여 접속된 컴퓨터나 인터넷 단말기로부터 다운로드되며, 이를 위하여 인터페이스부(105)는 컴퓨터에 케이블을 통하여 접속하거나 또는 인터넷 단말기를 통하여 인터넷에 접속될 때 프로토콜을 만족할 수 있도록 구성된다. 제어부(114)는 인터페이스부(105)를 통하여 다운로드된 모국어 사용자의 보이스정보와 이미지데이터를 저장할 샘플데이터 메모리(108)에 어드레스를 지정한 후, 샘플데이터 메모리(108)의 지정된 영역에 저장한다. 따라서, 인터페이스부(105)를 통해 다운로드된 샘플데이터는 샘플데이터 메모리(108)에 저장된다.First, sample data (voice information and mouth-shaped image data) of a native language user are downloaded from a computer or an Internet terminal connected through the interface unit 105. For this purpose, the interface unit 105 is connected to a computer through a cable or It is configured to satisfy the protocol when connected to the Internet through an Internet terminal. The controller 114 assigns an address to the sample data memory 108 to store voice information and image data of the native language user downloaded through the interface unit 105 and stores the address in the designated area of the sample data memory 108. Therefore, the sample data downloaded through the interface unit 105 is stored in the sample data memory 108.

한편, 선택 모드와 재생 모드를 설명하면, 학습자는 조작부(106)내의 특정 키를 눌러 문장표시 기능을 선택하면, 제어부(114)는 조작부(106)의 조작신호에 대응하여 샘플데이터 메모리(108)에 저장된 다수의 샘플데이터에 대응하는 문자정보를 디스플레이부(113)에 표시한다. 이에, 학습자가 이동키 및 선택키를 이용하여 디스플레이부(113)에 표시된 샘플데이터(모국어 사용자의 보이스정보 및 입 모양 이미지데이터) 중 임의의 문장이나 문장에 포함된 단어 혹은 임의의 영역을 선택하면, 제어부(114)는 조작부(106)로부터의 조작신호에 대응하여 학습자가 선택한 문장이나 단어 혹은 영역에 대응하는 어드레스정보를 검출하여 샘플데이터 메모리(108)로부터 해당 문장이나 단어 혹은 영역에 대응하는 보이스정보를 검출한다.On the other hand, when the selection mode and the reproduction mode are described, the learner presses a specific key in the operation unit 106 to select the sentence display function, and the control unit 114 responds to the operation signal of the operation unit 106 by the sample data memory 108. Character information corresponding to the plurality of sample data stored in the display unit 113 is displayed. Accordingly, when the learner selects a word or any region included in any sentence or sentence among the sample data (voice information of the native language user and mouth shape image data) displayed on the display unit 113 using the moving key and the selection key, The controller 114 detects address information corresponding to a sentence, word, or region selected by the learner in response to an operation signal from the operation unit 106, and voice information corresponding to the sentence, word, or region from the sample data memory 108. Detect.

이후, 학습자가 조작부(106)의 재생키를 조작하면, 제어부(114)는 조작부(106)의 재생키 조작신호에 대응하여 샘플데이터 메모리(108)로부터 검출된 해당 문장이나 단어 혹은 영역에 대응하는 디지털형태의 보이스정보를 디지털/아날로그 변환부(109)에 출력하고, 디지털/아날로그 변환부(109)는 제어부(114)로부터전송된 디지털형태의 보이스정보를 아날로그형태의 보이스신호로 변환한 후, 스피커(110)를 통해 출력한다. 따라서, 학습자는 학습하고자 하는 문장이나 단어 혹은 영역에 대응하는 샘플데이터를 청각적으로 확인할 수 있다.Subsequently, when the learner manipulates the play key of the operation unit 106, the control unit 114 corresponds to the sentence, word or region detected from the sample data memory 108 in response to the play key operation signal of the operation unit 106. After outputting the digital voice information to the digital-to-analog converter 109, the digital-to-analog converter 109 converts the digital voice information transmitted from the controller 114 into an analog voice signal, Output through the speaker 110. Therefore, the learner can visually confirm the sample data corresponding to the sentence, word or region to be learned.

다음으로, 기록 모드를 설명하면, 학습자가 기록키를 누른 상태에서 재생 모드에 의해 스피커(110)로 출력된 문장이나 단어 혹은 영역에 대한 보이스를 듣고, 이를 발음하면, 학습자의 발음과 입 모양은 마이크(101)와 카메라(103)에 의해 검출된다. 즉, 학습자가 조작부(106)의 각종 기능 키 중 기록키를 선택한 후, 재생 모드에 의해 스피커(110)로 출력된 문장이나 단어 혹은 영역에 대한 보이스를 발음하면, 학습자의 발음은 마이크(101)에 의해 아날로그형태의 보이스신호로 감지되고, 아날로그형태의 보이스신호는 아날로그/디지털 변환부(102)에서 디지털형태의 보이스정보로 변환된 후, 제어부(114)에 전송된다. 제어부(114)는 아날로그/디지털 변환부(102)에서 출력된 보이스정보를 저장할 유저데이터 메모리(107)의 어드레스를 지정한 후, 유저데이터 메모리(107)의 지정된 영역에 저장한다.Next, when the recording mode is described, the learner hears a voice about a sentence, a word or an area output to the speaker 110 by the playback mode while pressing the record key, and pronounces it. It is detected by the microphone 101 and the camera 103. That is, when a learner selects a recording key among various function keys of the operation unit 106 and pronounces a voice for a sentence, a word, or an area output to the speaker 110 by the playback mode, the learner's pronunciation is the microphone 101. Is detected as an analog voice signal, and the analog voice signal is converted into digital voice information by the analog / digital converter 102 and then transmitted to the controller 114. The controller 114 designates an address of the user data memory 107 to store voice information output from the analog / digital converter 102 and stores the address in the designated area of the user data memory 107.

또한, 학습자의 입 모양은 카메라(103)에 의해 촬영되며, 촬영된 이미지는 비디오신호 입력부(104)에 의해 해상도가 조정되고 압축 과정을 거친 후, 제어부(114)로 전송된다. 제어부(114)는 비디오신호 입력부(104)에서 입력된 이미지데이터를 저장할 유저데이터 메모리(107)의 어드레스를 지정한 후, 유저데이터 메모리(107)의 지정된 영역에 저장한다. 이때, 입 모양 이미지데이터는 보이스정보의 어드레스와 연계된 어드레스가 할당되어 저장된다. 따라서, 학습자의 유저데이터(보이스정보 및 입 모양을 나타내는 이미지데이터)는 유저데이터 메모리(107)에 저장된다.In addition, the shape of the learner's mouth is photographed by the camera 103, and the captured image is transmitted to the controller 114 after the resolution is adjusted by the video signal input unit 104 and undergoes a compression process. The control unit 114 designates an address of the user data memory 107 to store the image data input from the video signal input unit 104, and stores the address in the designated area of the user data memory 107. At this time, the mouth-shaped image data is assigned an address associated with the address of the voice information is stored. Therefore, the user data of the learner (image data representing voice information and mouth shape) is stored in the user data memory 107.

다음으로, 분석모드에 대하여 설명하면, 학습자가 분석키를 선택하면, 제어부(114)는 학습자가 선택 모드에서 선택한 문장이나 단어 혹은 임의의 영역에 대응하는 샘플데이터와 학습자에 의해 기록된 유저데이터를 각각 샘플데이터 메모리(108)와 유전데이터 메모리(107)로부터 검출하고, 검출된 샘플데이터 및 유저데이터를 분석부(111)와 비디오 출력부(112)로 출력한다.Next, when the analysis mode is described, when the learner selects the analysis key, the controller 114 displays the sample data corresponding to the sentence or word selected by the learner in the selection mode or the user data recorded by the learner. The sample data memory 108 and the genetic data memory 107 are respectively detected, and the detected sample data and the user data are output to the analyzing unit 111 and the video output unit 112.

여기서, 분석부(111)는 강세와 리듬 및 발음을 각각 분석하는데, 이에 대하여 도 3 내지 도 5를 참조하여 상세하게 설명하기로 한다.Here, the analysis unit 111 analyzes stress, rhythm, and pronunciation, respectively, which will be described in detail with reference to FIGS. 3 to 5.

우선, 분석부(111)는 샘플데이터 중 모국어 사용자의 보이스정보와, 유저데이터 중 학습자의 보이스정보를 검출하고(S101), 검출된 각각의 보이스정보의 파형을 분석하며(S102), 분석된 결과에 따라 각각의 보이스정보의 파형에 대한 포락선을 검출한다(S103).First, the analysis unit 111 detects voice information of a native language user from sample data and voice information of a learner from user data (S101), analyzes waveforms of detected voice information (S102), and analyzes the result. In operation S103, the envelope of the waveform of each voice information is detected.

여기서, 도 3의 상부에 도시된 파형은 모국어 사용자의 보이스정보 파형이며, 도 3의 하부에 도시된 파형은 학습자의 보이스정보 파형이다. 이때, 각 보이스정보의 파형은 출력의 크기 대 시간의 상관관계로 표시된다.Here, the waveform shown at the top of FIG. 3 is the voice information waveform of the native language user, and the waveform shown at the bottom of FIG. 3 is the voice information waveform of the learner. At this time, the waveform of each voice information is represented by the correlation of the magnitude of the output versus the time.

즉, 분석부(111)는 제어부(114)로부터 제공된 샘플데이터 중 모국어 사용자의 보이스정보 파형 P1을 분석하고, 피크치를 산출하여 그에 대한 포락선 E1을 추정하여 구하며, 최초 어절의 시작점 S1을 구한다. 또한, 분석부(111)는제어부(114)로부터 제공된 유저데이터 중 학습자의 보이스 출력 파형 P2를 분석하고, 피크치를 산출하여 그에 대한 포락선 E2를 추정하여 구하며, 최초 어절의 시작점 S2를 구한다.That is, the analysis unit 111 analyzes the voice information waveform P1 of the native language user among the sample data provided from the control unit 114, calculates a peak value, estimates the envelope E1, and obtains the starting point S1 of the first word. In addition, the analysis unit 111 analyzes the voice output waveform P2 of the learner among the user data provided from the control unit 114, calculates peak values, estimates the envelope E2, and obtains the starting point S2 of the first word.

이후, 분석부(111)는 모국어 사용자의 최초 어절 시작점 S1과 학습자의 최초 어절 시작점 S2 간에 존재하는 시차 Sd를 '0' 상태로 조절한 후, 모국어 사용자의 포락선 E1과 학습자 포락선 E2의 차를 구한다(S104).Thereafter, the analyzer 111 adjusts the parallax Sd existing between the first word start point S1 of the mother tongue user and the first word start point S2 of the learner to '0', and then obtains the difference between the envelope E1 of the native language user and the learner envelope E2. (S104).

결국, 상술한 포락선의 차가 모국어 사용자와 학습자간의 강세의 차가 되며, 분석부(111)는 포락선의 차를 그래프화된 강세 분석 차트로 구현하여 디스플레이부(113)의 소정 위치에 표시한다(S105). 따라서, 디스플레이부(113)에는 강세 분석 결과가 차트로 표시되며(도 5의 'A' 참조), 학습자는 분석 차트를 통하여 강세의 차이점을 시각적으로 분석할 수 있다.As a result, the difference of the above-described envelope becomes the difference between the stresses between the native language user and the learner, and the analyzing unit 111 implements the difference of the envelope into a graph of the stressed analysis chart and displays it at a predetermined position of the display unit 113 (S105). . Accordingly, the stress analysis result is displayed on the display 113 as a chart (see 'A' in FIG. 5), and the learner may visually analyze the difference in stress through the analysis chart.

다음으로, 분석부(111)는 모국어 사용자의 이어지는 어절의 시작점 S3과 학습자의 이어지는 어절의 시작점 S4를 구하여 리듬을 분석하거나, 어절과 어절간의 무신호 구간의 시간차를 구하여 리듬을 분석하고(S106), 분석된 결과에 따라 리듬 분석 차트를 생성하여 디스플레이부(113)에 표시한다(S107).Next, the analysis unit 111 analyzes the rhythm by obtaining the starting point S3 of the next word of the native language user and the starting point S4 of the next word of the learner, or analyzing the rhythm by obtaining the time difference between the no word and the word (S106). In operation S107, the rhythm analysis chart is generated according to the analyzed result and displayed on the display 113.

즉, 시작점으로 리듬을 분석하는 방법을 설명하면, 모국어 사용자가 최초 어절을 발음한 후 다음 어절을 시작한 시점이 S3이고 학습자가 최초 어절을 발음한 후 다음 어절을 시작한 시점이 S4이므로, 그에 대한 차만큼 학습자는 빠르거나 느리게 리듬을 가진 결과를 얻을 수 있다. 결국, 분석부(111)는 이어지는 어절의 시작점의 차를 그래프화된 리듬 분석 차트로 구현하여 디스플레이부(113)의 소정 위치에 표시하고, 따라서, 디스플레이부(113)에는 리듬 분석 결과가 차트로 표시되며(도 5의 'B' 참조), 학습자는 분석 차트를 통하여 리듬의 차이점을 시각적으로 분석할 수 있다.In other words, the method of analyzing the rhythm as a starting point is S3 when the native speaker pronounces the first word and starts the next word, and S4 starts the next word after the learner pronounces the first word. As long as the learner can get results with rhythm fast or slow. As a result, the analysis unit 111 implements the difference between the starting points of the following words into a graphed rhythm analysis chart and displays the result at a predetermined position of the display unit 113. Therefore, the display unit 113 displays the result of the rhythm analysis as a chart. It is displayed (see 'B' of FIG. 5), the learner can visually analyze the difference between the rhythm through the analysis chart.

또한, 무신호 구간으로 리듬을 분석하는 방법을 설명하면, 모국어 사용자의 최초 어절을 종료한 후 다음 어절 시작 전 가진 무신호 구간이 d1이고, 학습자의 최초 어절을 종료한 후 다음 어절 시작 전 가진 무신호 구간이 d2이다. 그러므로, 그에 대한 차만큼 학습자는 다음 어절을 빠르거나 느리게 리듬을 가진 결과를 얻을 수 있다. 결국, 분석부(111)는 무신호 구간의 시간차를 그래프화된 리듬 분석 차트로 구현하여 디스플레이부(113)의 소정 위치에 표시하고, 따라서, 디스플레이부(113)에는 리듬 분석 결과가 차트로 표시되며(도 5의 'B' 참조), 학습자는 분석 차트를 통하여 리듬의 차이점을 시각적으로 분석할 수 있다.In addition, when explaining the method of analyzing the rhythm in the no-signal interval, after the first word of the native language user is finished, the non-signal period is the d1 before the start of the next word, and after the end of the first word of the learner, The signal interval is d2. Therefore, by the difference between them, the learner can get the result with the rhythm quickly or slowly. As a result, the analysis unit 111 implements the time difference of the no-signal section as a graphed rhythm analysis chart and displays it at a predetermined position of the display unit 113. Accordingly, the display unit 113 displays the rhythm analysis result as a chart. (See 'B' of FIG. 5), the learner may visually analyze the difference in rhythm through the analysis chart.

마지막으로, 도 4를 참조하여 발음 분석방법을 설명하면, 도 4의 상부는 모국어 사용자의 발음 분석 차트이며, 하부는 학습자의 발음 분석 차트이다.Finally, referring to FIG. 4, the pronunciation analysis method is described above. The upper part of FIG. 4 is a pronunciation analysis chart of a native language user, and the lower part is a pronunciation analysis chart of a learner.

즉, 분석부(111)는 도 3의 보이스 출력 파형 P1, P2를 푸리에 변환과 같은 알고리즘에 의하여 시간 도메인에서 주파수 도메인으로 표현될 수 있도록 주파수 분석을 수행하면, 도 4와 같은 주파수 대역별 출력 파형을 얻을 수 있다(S108). 결국, 분석부(111)는 단계(S108)에 의해 얻어진 주파수 대역별 출력 파형을 그래프화된 발음 분석 차트로 구현하여 디스플레이부(113)의 소정 위치에표시하고(S109), 따라서, 디스플레이부(113)에는 발음 분석 결과가 차트로 표시되며, 학습자는 발음 분석 차트에 표시된 모국어 사용자의 발음과 학습자의 발음을 비교하여 각각의 유성 자음 또는 유성 모음에 해당하는 주파수 영역별 크기가 다름에 의하여 발생되는 발음의 차이를 시각적으로 확인할 수 있다.That is, when the analysis unit 111 performs frequency analysis so that the voice output waveforms P1 and P2 of FIG. 3 can be represented in the frequency domain in the time domain by an algorithm such as a Fourier transform, the output waveform for each frequency band as shown in FIG. 4. It can be obtained (S108). As a result, the analysis unit 111 implements the output waveform for each frequency band obtained by the step S108 as a graphed pronunciation analysis chart and displays it at a predetermined position of the display unit 113 (S109), thus, the display unit ( In 113), the pronunciation analysis results are displayed in a chart, and the learner compares the pronunciation of the native language user and the learner's pronunciation shown in the pronunciation analysis chart, and is generated due to the different frequency domain size corresponding to each voiced consonant or voiced vowel. You can visually check the difference in pronunciation.

또한, 비디오 출력부(112)는 제어부(114)로부터 제공된 샘플데이터 중 모국어 사용자의 입 모양을 나타내는 이미지데이터와, 유저데이터 중 학습자의 입 모양을 나타내는 이미지데이터를 검출하고(S110), 검출된 이미지데이터를 복원(압축 해제)한 후(S111), 복원된 이미지를 디스플레이부(113)에 출력하며, 디스플레이부(113)는 비디오 출력부(112)로부터 제공된 이미지를 분석부(111)로부터 제공된 각종 차트정보와 조합하여 표시한다(S112).In addition, the video output unit 112 detects image data indicating a mouth shape of a native language user among sample data provided from the controller 114 and image data indicating a mouth shape of a learner among user data (S110). After restoring (uncompressing) the data (S111), the restored image is output to the display unit 113, and the display unit 113 outputs the image provided from the video output unit 112 to the various units provided from the analysis unit 111. Displayed in combination with the chart information (S112).

한편, 상술한 바와 같은 강세, 리듬, 발음 분석 차트 및 입 모양을 나타내는 이미지는 도 5에 도시된 바와 같이, 디스플레이부(113)에서 조합되어 학습자가 인식하기 쉬운 화면으로 구성될 수 있다.On the other hand, the stress, rhythm, pronunciation analysis chart and the image showing the shape of the mouth as described above may be combined in the display unit 113, as shown in FIG.

도 5를 참조하면, 모국어 사용자의 보이스 파형이 'original sound'로 표기된 영역의 우측에 출력되고, 그 하부에 학습자의 보이스 파형이 'my voice'로 표기된 영역의 우측에 출력된다. 보이스 파형은 보이스 출력 파형과 포락선 파형이 중첩된 형상을 가지며 시간축으로 표시된다.Referring to FIG. 5, a voice waveform of a native language user is output on the right side of an area marked 'original sound', and a voice waveform of the learner is output on the right side of an area labeled 'my voice'. The voice waveform has a shape in which the voice output waveform and the envelope waveform overlap each other and are displayed on the time axis.

그리고, 모국어 사용자의 파형 상부에는 'Can you speak English?'라는 보이스에 해당되는 문자가 출력되고, 지시선이 보이스의 출력 상태에 맞게 이동하도록구성될 수 있다. 이때, 지시선은 모국어 사용자의 보이스 파형과 학습자의 보이스 파형에 걸쳐서 형성될 수 있다.In addition, a character corresponding to a voice of 'Can you speak English?' Is output on the upper part of the waveform of the native language user, and the leader may be configured to move according to the output state of the voice. In this case, the leader line may be formed over the voice waveform of the native language user and the voice waveform of the learner.

그리고, 학습자 보이스 파형의 하부에는 강세 분석 차트 A와 리듬 분석 차트 B가 출력될 수 있고, 모국어 사용자의 보이스 파형 우측과 학습자의 보이스 파형 우측에는 각각에 해당하는 입 모양을 나타내는 이미지가 출력되도록 구성될 수 있다.The stress analysis chart A and the rhythm analysis chart B may be output at the lower part of the learner voice waveform, and an image representing a mouth shape corresponding to the right side of the voice waveform of the native language user and the right side of the voice waveform of the learner may be output. Can be.

그리고, 조작부(106)에 발음 분석 차트 버튼을 더 구성하여, 학습자가 발음 분석 차트 버튼을 선택하였을 때, 발음에 대한 도 4와 같은 발음 분석 차트가 단일 화면에 출력되도록 구성될 수 있다.Further, by configuring the pronunciation analysis chart button on the operation unit 106, when the learner selects the pronunciation analysis chart button, the pronunciation analysis chart as shown in FIG. 4 for the pronunciation may be output on a single screen.

한편, 제어부(114)는 분석된 결과(강세 분석 차트와 리듬 분석 차트 및 발음 분석 차트)를 유저데이터 메모리(107)에 저장한다(S113). 따라서, 유저데이터 메모리(107)에 저장된 분석 결과는 학습자의 이력관리에 활용될 수 있고, 학습자는 동일한 문장이나 단어 혹은 소정의 영역에 대한 발음의 개선 상황을 이로써 확인함으로써, 보다 효과적인 학습 효과를 향유할 수 있다.On the other hand, the control unit 114 stores the analyzed results (emphasis analysis chart, rhythm analysis chart and pronunciation analysis chart) in the user data memory 107 (S113). Therefore, the analysis result stored in the user data memory 107 can be utilized for the learner's history management, and the learner can thereby confirm the improvement of pronunciation of the same sentence or word or a predetermined region, thereby enjoying a more effective learning effect. can do.

한편, 본 발명의 기술적 사상을 이해한 자라면, 본 발명의 기술적 사상을 이용하여 언어 학습장치를 다양하게 구현할 수 있으며, 그 구현 예로써 도 6과 같은 전자수첩과 도 7과 같은 언어학습사전이 제시될 수 있다.On the other hand, if you understand the technical idea of the present invention, it is possible to implement a variety of language learning apparatus using the technical idea of the present invention, as an example of the implementation of the electronic notebook and the language learning dictionary as shown in FIG. Can be presented.

도 6의 전자수첩의 경우에는 디스플레이 영역에 단어와 발음부호 및 해석 등이 문자로 표시될 수 있으며, 그 하부에 분석 차트가 디스플레이될 수 있다. 그리고, 발음의 입력을 위하여 마이크가 연결되도록 구성될 수 있다.In the case of the electronic notebook of FIG. 6, a word, a pronunciation code, an interpretation, and the like may be displayed in letters in a display area, and an analysis chart may be displayed below. And, the microphone may be configured to be connected for input of the pronunciation.

또한, 도 7의 언어학습사전의 경우에 디스플레이 영역에 원문과 번역문이 디스플레이될 수 있고, 그 하부에 분석 차트가 디스플레이될 수 있다. 그리고, 발음의 입력을 위한 마이크가 구성될 수 있으며, 컴퓨터와 접속을 위한 연결단자가 구성될 수 있다.In addition, in the case of the language learning dictionary of FIG. 7, the original text and the translated text may be displayed in the display area, and an analysis chart may be displayed at the bottom thereof. In addition, a microphone for input of a pronunciation may be configured, and a connection terminal for connection with a computer may be configured.

이와 같이, 본 발명의 상세한 설명에서는 구체적인 실시예(들)에 관해 설명하였으나, 본 발명의 범주에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시예(들)에 국한되어 정해져서는 안되며, 후술하는 특허청구범위 뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, although the specific embodiment (s) have been described in the detailed description of the present invention, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiment (s), but should be defined by the claims below and equivalents thereof.

결국, 본 발명에 의한 언어 학습장치 및 그것의 언어 분석방법에 따르면 다음과 같은 이점(들)이 발생한다.As a result, according to the language learning apparatus and its language analysis method according to the present invention, the following advantage (s) occurs.

즉, 학습자가 학습한 단어 또는 문장에 대한 발음, 억양 및 리듬에 대한 객관적 분석 자료를 확인하고, 상술한 분석 자료를 반복 학습에 도입함으로서, 모국어 사용자의 발음에 가깝게 학습할 수 있어서 언어 학습 효과가 증진된다.That is, by confirming the objective analysis data on pronunciation, intonation and rhythm of the words or sentences learned by the learner, and introducing the above analysis data into the repetitive learning, the language learning effect can be learned close to the pronunciation of the native language user. Promoted.

또한, 학습자가 학습한 단어 또는 문장 중의 일부분만을 학습자가 선택적으로 재생할 수 있도록 함으로써, 특정한 단어 또는 선택 영역에 대하여 학습효과가 배가된다.In addition, by allowing the learner to selectively reproduce only a part of the word or sentence learned by the learner, the learning effect is doubled for a specific word or selection area.

또한, 학습자의 학습 결과가 이력 관리됨으로써, 언어 학습 효과를 향상시킬 수 있다.In addition, since the learner's learning results are history-managed, it is possible to improve the language learning effect.

Claims (12)

마이크로부터 입력되는 학습자의 아날로그형태의 보이스신호를 디지털형태의 보이스정보로 변환하여 출력하는 보이스 입력수단;Voice input means for converting the learner's analog voice signal input from the microphone into digital voice information and outputting the voice information; 상기 보이스 입력수단으로부터 제공된 학습자의 보이스정보가 저장되는 유저데이터 메모리;A user data memory storing voice information of the learner provided from the voice input means; 모국어 사용자의 보이스정보를 포함한 샘플데이터가 저장되는 샘플데이터 메모리;A sample data memory for storing sample data including voice information of a native language user; 상기 샘플데이터 메모리로부터 검출된 상기 모국어 사용자의 보이스정보를 재생하여 아날로그신호로 변환한 후 스피커로 출력하는 보이스 출력수단;Voice output means for reproducing the voice information of the native language user detected from the sample data memory, converting the voice information into an analog signal, and outputting the same to a speaker; 상기 보이스 출력수단에 의해 재생되는 상기 모국어 사용자의 보이스정보와, 상기 보이스 입력수단으로부터 제공된 상기 학습자의 보이스정보에 대한 발음의 주파수 특성을 분석하고, 분석된 결과에 따른 발음 분석 차트를 생성하는 분석부;An analyzer for analyzing the voice information of the native language user reproduced by the voice output means and the frequency characteristics of the pronunciation of the learner's voice information provided from the voice input means, and generating a pronunciation analysis chart according to the analyzed result ; 상기 분석부에서 생성된 상기 발음 분석 차트를 미리 정해진 영역에 디스플레이하는 디스플레이부; 및A display unit configured to display the pronunciation analysis chart generated by the analysis unit in a predetermined area; And 재생 모드에서 상기 샘플데이터 메모리에 저장된 상기 모국어 사용자의 보이스정보를 상기 보이스 출력수단으로 출력하고, 기록 모드에서 상기 보이스 입력수단으로부터 입력된 상기 학습자의 보이스정보를 상기 유저데이터 메모리에 저장하며, 분석 모드에서 상기 샘플데이터 메모리에 저장된 상기 모국어 사용자의 보이스정보와 상기 유저데이터 메모리에 저장된 상기 학습자의 보이스정보를 상기 분석부로 출력하는 제어수단을 포함하는 언어 학습장치.Outputting voice information of the native language user stored in the sample data memory to the voice output means in a reproduction mode, storing voice information of the learner input from the voice input means in the user data memory in an analysis mode, and analyzing mode And control means for outputting voice information of the native language user stored in the sample data memory and voice information of the learner stored in the user data memory to the analyzing unit. 제 1 항에 있어서,The method of claim 1, 상기 모국어 사용자의 보이스정보를 포함하는 상기 샘플데이터를 온라인으로 수신하는 인터페이스부를 더 포함하며;An interface unit for receiving online the sample data including voice information of the native language user; 상기 제어부는 상기 인터페이스부에 수신된 상기 샘플데이터를 상기 샘플데이터 메모리에 저장하는 것을 특징으로 하는 언어 학습장치.And the control unit stores the sample data received in the interface unit in the sample data memory. 제 1 항에 있어서, 상기 분석부는,The method of claim 1, wherein the analysis unit, 상기 학습자의 보이스정보 파형에 대한 제1 포락선을 검출하고;Detect a first envelope of the learner's voice information waveform; 상기 모국어 사용자의 보이스정보 파형에 대한 제2 포락선을 검출하며;Detect a second envelope of a voice information waveform of the native language user; 상기 제1 포락선과 상기 제2 포락선의 차를 구하여 강세에 대한 제1 분석 차트로 출력함을 특징으로 하는 언어 학습장치.Obtaining the difference between the first envelope and the second envelope language learning apparatus, characterized in that for outputting the first analysis chart for stress. 제 3 항에 있어서, 상기 분석부는,The method of claim 3, wherein the analysis unit, 상기 제1 포락선의 어절의 시작점과 상기 제2 포락선의 어절의 시작점을 비교하고, 그 시간차를 구하여 리듬에 대한 제2 분석 차트로 출력함을 특징으로 하는언어 학습장치.And a start point of a word of the first envelope and a start point of a word of the second envelope, and calculate a time difference to output the second analysis chart of the rhythm. 제 1 항에 있어서,The method of claim 1, 카메라로 녹화된 상기 학습자의 입 모양 이미지의 해상도를 조정하고 압축을 수행하는 녹화수단;Recording means for adjusting the resolution of the mouth-shaped image recorded by the camera and performing compression; 상기 학습자의 보이스정보에 해당하는 상기 학습자의 입 모양 이미지와, 상기 모국어 사용자의 보이스정보에 해당하는 상기 모국어 사용자의 입 모양 이미지를 디스플레이하기 신호로 변환하여 상기 디스플레이부에 출력하는 비디오 출력수단을 더 포함하며;A video output means for converting the learner's mouth shape image corresponding to the learner's voice information and the native language user's mouth image image corresponding to the voice information of the native language user into a display signal and outputting the signal to the display unit; Includes; 상기 제어부는 상기 기록 모드에서 상기 녹화수단에서 출력되는 상기 학습자의 입 모양 이미지를 상기 유저데이터 메모리에 저장하고, 상기 분석 모드에서 상기 학습자의 입 모양 이미지와 상기 모국어 사용자의 입 모양 이미지를 상기 비디오 출력부로 출력하는 것을 특징으로 하는 언어 학습장치.The controller stores the learner's mouth shape image output from the recording unit in the recording mode in the user data memory, and outputs the video of the learner's mouth image and the native language user's mouth image in the analysis mode. Language learning apparatus characterized in that the output to the negative. 제 1 항에 있어서,The method of claim 1, 상기 샘플데이터 메모리에 저장된 상기 샘플데이터 중 분석하고자 하는 문장을 검색하기 위한 이동키와, 상기 검색된 문장단위로 재생 및 분석하기 위해 해당 문장을 선택하는 선택키를 갖는 조작부를 더 포함하며;An operation unit having a moving key for searching for a sentence to be analyzed among the sample data stored in the sample data memory and a selection key for selecting a corresponding sentence for reproducing and analyzing in the retrieved sentence unit; 상기 제어부는 상기 조작부로부터의 조작신호에 대응하여 상기 샘플데이터 메모리에 저장된 상기 샘플데이터 중 상기 학습자가 선택한 문장을 재생 및 분석하도록 한 것을 특징으로 하는 언어 학습장치.And the controller is configured to reproduce and analyze a sentence selected by the learner among the sample data stored in the sample data memory in response to an operation signal from the operation unit. 제 6 항에 있어서,The method of claim 6, 상기 조작부내의 선택키는 상기 검색된 문장에 포함된 다수개의 단어 중 학습자가 선택한 적어도 하나 이상의 단어를 재생 및 분석하기 위해 해당 단어를 선택하는 기능을 더 포함하며;The selection key in the operation unit further includes a function of selecting a corresponding word to reproduce and analyze at least one word selected by a learner among a plurality of words included in the searched sentence; 상기 제어부는 상기 조작부로부터의 조작신호에 대응하여 상기 샘플데이터 메모리에 저장된 상기 샘플데이터 중 상기 학습자가 선택한 문장내의 단어를 재생 및 분석하도록 한 것을 특징으로 하는 언어 학습장치.And the controller is configured to reproduce and analyze a word in a sentence selected by the learner among the sample data stored in the sample data memory in response to an operation signal from the operation unit. 제 6 항에 있어서,The method of claim 6, 상기 조작부내의 선택키는 상기 검색된 문장 중 학습자가 임의의 영역을 선택하여 재생 및 분석하기 위해 임의의 영역을 선택하는 기능을 더 포함하며;The selection key in the operation unit further includes a function of selecting an arbitrary region for the learner to select, reproduce and analyze an arbitrary region among the searched sentences; 상기 제어부는 상기 조작부로부터의 조작신호에 대응하여 상기 샘플데이터 메모리에 저장된 상기 샘플데이터 중 상기 학습자가 선택한 상기 영역을 재생 및 분석하도록 한 것을 특징으로 하는 언어 학습장치.And the controller is configured to reproduce and analyze the region selected by the learner among the sample data stored in the sample data memory in response to an operation signal from the operation unit. 유저데이터 메모리에 저장된 학습자의 보이스정보를 검출하고, 검출된 상기 학습자의 보이스정보에 대한 파형을 시간 도메인에서 주파수 도메인으로 표현되도록 상기 학습자의 보이스정보에 대한 주파수 특성을 분석하는 단계;Detecting voice information of a learner stored in a user data memory, and analyzing frequency characteristics of the voice information of the learner such that the detected waveform of the voice information of the learner is represented in a frequency domain in a time domain; 샘플데이터 메모리에 저장된 모국어 사용자의 보이스정보를 검출하고, 검출된 상기 모국어 사용자의 보이스정보에 대한 파형을 상기 시간 도메인에서 상기 주파수 도메인으로 표현되도록 상기 모국어 사용자의 보이스정보에 대한 주파수 특성을 분석하는 단계; 및Detecting voice information of a native language user stored in a sample data memory, and analyzing frequency characteristics of voice information of the native language user such that the detected waveform of the voice information of the native language user is represented in the frequency domain in the time domain; ; And 상기 학습자의 보이스정보에 대한 주파수와 상기 모국어 사용자의 보이스정보에 대한 주파수를 대역별 출력 파형을 나타내는 발음 분석 차트를 생성하여 출력하는 단계를 포함하는 언어 학습장치의 언어 분석방법.And generating and outputting a pronunciation analysis chart indicating a frequency-specific output waveform of the frequency of the voice information of the learner and the voice information of the native language user. 제 9 항에 있어서,The method of claim 9, 상기 학습자의 보이스정보에 대한 출력 파형의 제1 포락선을 검출하는 단계;Detecting a first envelope of an output waveform with respect to voice information of the learner; 상기 모국어 사용자의 보이스정보에 대한 출력 파형의 제2 포락선을 검출하는 단계;Detecting a second envelope of an output waveform of voice information of the native language user; 상기 제1 포락선과 상기 제2 포락선의 차를 검출하는 단계; 및Detecting a difference between the first envelope and the second envelope; And 검출된 상기 제1 포락선과 상기 제2 포락선의 차를 나타내는 강세 분석 차트를 생성하여 출력하는 단계를 더 포함하는 언어 학습장치의 언어 분석방법.And generating and outputting an accent analysis chart indicating a difference between the detected first envelope and the second envelope. 제 9 항 또는 제 10 항에 있어서,The method according to claim 9 or 10, 상기 학습자의 보이스정보에 대한 출력 파형에서 최초 어절에 이어지는 다음 어절의 제1 시작점을 검출하는 단계;Detecting a first starting point of a next word following the first word in an output waveform for the voice information of the learner; 상기 모국어 사용자의 보이스정보에 대한 출력 파형에서 최초 어절에 이어지는 다음 어절의 제2 시작점을 검출하는 단계;Detecting a second starting point of a next word following the first word in an output waveform of voice information of the native language user; 상기 제1 시작점과 상기 제2 시작점의 시간차를 검출하는 단계; 및Detecting a time difference between the first starting point and the second starting point; And 검출된 상기 제1 시작점과 상기 제2 시작점의 시간차를 나타내는 리듬 분석 차트를 생성하여 출력하는 단계를 더 포함하는 언어 학습장치의 언어 분석방법.And generating and outputting a rhythm analysis chart indicating a time difference between the detected first starting point and the second starting point. 제 9 항 또는 제 10 항에 있어서,The method according to claim 9 or 10, 상기 학습자의 보이스정보에 대한 출력 파형에서 최초 어절에 이어지는 다음 어절 사이의 제1 무신호 구간을 검출하는 단계;Detecting a first non-signal interval between the next word following the first word in the output waveform for the voice information of the learner; 상기 모국어 사용자의 보이스정보에 대한 출력 파형에서 최초 어절에 이어지는 다음 어절 사이의 제2 무신호 구간을 검출하는 단계;Detecting a second non-signal interval between the next word following the first word in the output waveform of the voice information of the native language user; 상기 제1 무신호 구간과 상기 제2 무신호 구간의 시간차를 검출하는 단계; 및Detecting a time difference between the first no-signal section and the second no-signal section; And 검출된 상기 제1 무신호 구간과 상기 제2 무신호 구간의 시간차를 나타내는 리듬 분석 차트를 생성하여 출력하는 단계를 더 포함하는 언어 학습장치의 언어 분석방법.And generating and outputting a rhythm analysis chart indicating a time difference between the detected first non-signal section and the second no-signal section.
KR10-2001-0008911A 2000-03-10 2001-02-22 Apparatus for training language and Method for analyzing language thereof KR100405061B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR10-2001-0008911A KR100405061B1 (en) 2000-03-10 2001-02-22 Apparatus for training language and Method for analyzing language thereof
JP2001068335A JP2001318592A (en) 2000-03-10 2001-03-12 Device for language study and method for language analysis

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020000012133 2000-03-10
KR1020000012133 2000-03-10
KR10-2001-0008911A KR100405061B1 (en) 2000-03-10 2001-02-22 Apparatus for training language and Method for analyzing language thereof

Publications (2)

Publication Number Publication Date
KR20010088350A KR20010088350A (en) 2001-09-26
KR100405061B1 true KR100405061B1 (en) 2003-11-10

Family

ID=26637434

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0008911A KR100405061B1 (en) 2000-03-10 2001-02-22 Apparatus for training language and Method for analyzing language thereof

Country Status (2)

Country Link
JP (1) JP2001318592A (en)
KR (1) KR100405061B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210008688A (en) 2019-07-15 2021-01-25 주식회사 이볼케이노 Language acquisition assistance system using frequency bands by language
KR20210086182A (en) 2019-12-31 2021-07-08 (주)헤이스타즈 System and method for studying korean pronunciation using voice analysis

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030064116A (en) * 2002-01-25 2003-07-31 주식회사 엠티컴 Methods for analyzing human voice and systems thereof
KR20030078493A (en) * 2002-03-29 2003-10-08 박성기 Foreign language study apparatus
JP3814575B2 (en) * 2002-11-27 2006-08-30 研一郎 中野 Language learning computer system
JP3569278B1 (en) * 2003-10-22 2004-09-22 有限会社エース Pronunciation learning support method, learner terminal, processing program, and recording medium storing the program
KR100815115B1 (en) 2006-03-31 2008-03-20 광주과학기술원 An Acoustic Model Adaptation Method Based on Pronunciation Variability Analysis for Foreign Speech Recognition and apparatus thereof
KR101155856B1 (en) * 2010-06-09 2012-06-20 윤창훈 Foreign language learnning method
KR20110065276A (en) * 2010-06-25 2011-06-15 서동혁 Method and apparatus for pronunciation exercise using comparison video
KR101478459B1 (en) * 2013-09-05 2014-12-31 한국과학기술원 Language delay treatment system and control method for the same
JP2016157097A (en) * 2015-02-24 2016-09-01 ブラザー工業株式会社 Reading-aloud evaluation device, reading-aloud evaluation method, and program
CN105070118B (en) * 2015-07-30 2019-01-11 广东小天才科技有限公司 A kind of method and device to correct one's pronunciation for class of languages study
CN114842690B (en) * 2022-04-26 2024-03-01 深圳市企鹅网络科技有限公司 Pronunciation interaction method, system, electronic equipment and storage medium for language courses

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210008688A (en) 2019-07-15 2021-01-25 주식회사 이볼케이노 Language acquisition assistance system using frequency bands by language
KR20210086182A (en) 2019-12-31 2021-07-08 (주)헤이스타즈 System and method for studying korean pronunciation using voice analysis
KR20220039679A (en) 2019-12-31 2022-03-29 (주)헤이스타즈 Method for providing personalized problems for pronunciation evaluation

Also Published As

Publication number Publication date
JP2001318592A (en) 2001-11-16
KR20010088350A (en) 2001-09-26

Similar Documents

Publication Publication Date Title
KR100405061B1 (en) Apparatus for training language and Method for analyzing language thereof
KR20070095332A (en) System and method for music score capture and synthesized audio performance with synchronized presentation
KR100659212B1 (en) Language learning system and voice data providing method for language learning
US20090197224A1 (en) Language Learning Apparatus, Language Learning Aiding Method, Program, and Recording Medium
US20180082607A1 (en) Interactive Video Captioning Program
KR101992370B1 (en) Method for learning speaking and system for learning
KR200197477Y1 (en) Apparatus for training language
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
KR100898104B1 (en) Learning system and method by interactive conversation
KR20010092176A (en) Method for educating a language, method for emboding the same using a internet and system for emboding the same
US20070061139A1 (en) Interactive speech correcting method
WO2023276539A1 (en) Voice conversion device, voice conversion method, program, and recording medium
KR20030065259A (en) Apparatus and method of learnning languages by sound recognition and sotring media of it
KR20030079497A (en) service method of language study
JP3930402B2 (en) ONLINE EDUCATION SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROVIDING METHOD, AND PROGRAM
CN100353358C (en) Image apparatus with education function and its controlling method
KR101920653B1 (en) Method and program for edcating language by making comparison sound
JP2006139162A (en) Language learning system
JP2000206987A (en) Voice recognition device
JP2008032788A (en) Program for creating data for language teaching material
KR20140082127A (en) Apparatus and method for learning word by using native speaker&#39;s pronunciation data and origin of a word
JPH0816089A (en) Pronunciation comparing learning device
JP4543919B2 (en) Language learning device
KR20170043101A (en) Mobile english education method
KR102025903B1 (en) Apparatus and method for language learning

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee