KR20090081046A - Language learning system using internet network - Google Patents
Language learning system using internet network Download PDFInfo
- Publication number
- KR20090081046A KR20090081046A KR1020080006903A KR20080006903A KR20090081046A KR 20090081046 A KR20090081046 A KR 20090081046A KR 1020080006903 A KR1020080006903 A KR 1020080006903A KR 20080006903 A KR20080006903 A KR 20080006903A KR 20090081046 A KR20090081046 A KR 20090081046A
- Authority
- KR
- South Korea
- Prior art keywords
- pronunciation
- voice
- learner
- sentence
- language learning
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 41
- 238000004891 communication Methods 0.000 claims description 20
- 230000033764 rhythmic process Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000001755 vocal effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
- G06Q50/2057—Career enhancement or continuing education service
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 언어 학습 시스템에 관한 것으로, 보다 상세하게는 원격지의 학습자 단말기를 통해 학습자가 발화한 음성에 대한 발음을 분석 및 평가하고, 올바른 발음을 제시할 수 있는 인터넷을 이용한 언어 학습 시스템 및 방법에 관한 것이다.The present invention relates to a language learning system, and more particularly, to a language learning system and method using the Internet capable of analyzing and evaluating a pronunciation of a voice spoken by a learner through a remote learner terminal and presenting a correct pronunciation. It is about.
인터넷 이용자의 수가 급증하고, 유무선 인터넷 기술이 발달하여 초고속의 데이터 송수신이 가능해 지면서 인터넷을 통한 다양한 컨텐츠들을 원격지에 있는 컴퓨터로 제공하는 인터넷 시스템(사용자 측면에서는 "사이트"라고도 함)들이 증가하고 있다. 이러한 컨텐츠들 중 하나가 교육, 즉 학습이다. 인터넷 학습 분야들로는 어학, 법, 수능 등 그 분야가 다양하다. 또한, 초고속 유무선 통신망이 형성됨에 따라 데이터의 량이 많은 멀티미디어의 전송이 가능해지면서 이러한 학습 컨텐츠들도 다양해지고 확대되고 있는 추세에 있다. 특히, 이와 같은 학습 컨텐츠들 중에는 외국어와 같은 어학에 대한 학습 콘텐츠가 상당 부분을 차지한다. 그런데 이와 같은 인터넷을 이용한 어학 학습을 위한 컨텐츠들은 대부분은 동영상을 통한 학습이 대부분이다. 이러한 동영상을 통한 학습만으로는 문법이나 듣기 능력을 향상 시킬 수는 있으나 말하기 능력을 향상시키기는 어려운 문제점이 있었다.As the number of Internet users is rapidly increasing and wired / wireless internet technologies are developed to enable high-speed data transmission and reception, an increasing number of Internet systems (also referred to as "sites" in terms of users) that provide various contents via the Internet to a remote computer are provided. One of these contents is education, or learning. There are many areas of internet learning such as language, law and SAT. In addition, as the high-speed wired and wireless communication network is formed, as the multimedia data having a large amount of data can be transmitted, these learning contents are also diversified and expanded. In particular, among such learning contents, the learning contents for a language such as a foreign language make up a large part. However, most of the content for language learning using the Internet is mostly through video. Learning through these videos alone can improve grammar and listening skills, but it was difficult to improve speaking skills.
이러한 문제점을 해소하기 위해 최근에는 제시한 문장에 대해 학습자가 발화한 상기 문장에 대한 발음과 원어민의 발음을 들려주어 학습자가 스스로 자신의 발음과 원어민의 발음을 비교하도록 하는 시스템이 제공되고 있다.In order to solve such a problem, a system for allowing a learner to compare his / her own pronunciation with the native speaker's pronunciation by presenting a pronunciation of the native speaker and the pronunciation of the sentence spoken by the learner has been provided.
그러나 이 또한, 학습자가 스스로 판단하여야 하므로 학습자가 잘못된 부분을 명확하게 찾기 어려우며, 어떻게 해야 잘못된 발음을 고칠 수 있는지 알 수 없는 문제점이 있었다.However, this also has a problem that it is difficult for the learner to find the wrong part clearly because the learner has to judge for themselves, and how to correct the wrong pronunciation.
따라서, 본 발명의 목적은 원격지의 학습자 단말기를 통해 학습자가 발화한 음성에 대한 발음을 분석 및 평가하고, 올바른 발음을 제시할 수 있는 인터넷을 이용한 언어 학습 시스템 및 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a language learning system and method using the Internet that can analyze and evaluate a pronunciation of a voice spoken by a learner through a remote learner terminal and present a correct pronunciation.
상기한 목적을 달성하기 위한 본 발명의 장치는; 수신된 문장을 표시한 후, 표시된 문장에 대해 발음한 학습자의 음성을 음성데이터로 변환하여 송신하고, 상기 송신된 음성 데이터에 대한 발음 평가 결과를 수신하여 표시하는 학습자 단말과, 상기 학습자 단말로 문장을 송신하여 제시하고, 상기 문장에 대한 음성 데이터가 수신되면 상기 음성 데이터의 제1발음 특징들을 검출하고, 검출된 제1음성 특징들과 의해 상기 제시한 문장에 대한 원어민의 음성에 대한 제2발음 특징들을 비교하여 발음 평가를 수행하고, 상기 원어민의 음성을 포함하는 발음 평가 결과를 상 기 학습자 단말기로 송신하는 언어 학습 센터를 포함한다.The apparatus of the present invention for achieving the above object; After the received sentence is displayed, the learner terminal converts and transmits the learner's voice to the voice data for the displayed sentence, and receives and displays the pronunciation evaluation result of the transmitted voice data, and the sentence to the learner terminal. Transmits and presents the speech data, and if the speech data for the sentence is received, detects the first speech features of the speech data, and detects the second speech for the native speaker's speech for the presented sentence by the detected first speech features. Comprising a pronunciation evaluation by comparing the features, and includes a language learning center for transmitting the pronunciation evaluation results including the native speaker's voice to the learner terminal.
상기한 목적을 달성하기 위한 본 발명의 다른 장치는; 학습자로부터 발화된 음성을 음성데이터로 변환하여 송신하고, 상기 송신된 음성 데이터에 대한 발음 평가 결과를 수신하여 표시하는 학습자 단말과, 상기 음성 데이터가 수신되면 상기 음성 데이터의 제1발음 특징들을 검출하고, 상기 제1발음 특징들에 의해 음성인식을 수행한 후, 문자 변환하여 상기 음성데이터에 대한 문장을 생성하며, 상기 검출된 제1음성 특징들과 상기 생성된 문장에 대한 원어민의 음성에 대한 제2발음 특징들을 비교하여 발음 평가를 수행하고, 상기 원어민의 음성을 포함하는 발음 평가 결과를 상기 학습자 단말기로 송신하는 언어 학습 센터를 포함한다.Another apparatus of the present invention for achieving the above object; The learner terminal converts the speech spoken by the learner into speech data and transmits the received speech data, and receives and displays a pronunciation evaluation result of the transmitted speech data, and detects first speech characteristics of the speech data when the speech data is received. And, after performing voice recognition based on the first phonetic features, converts the text to generate a sentence for the voice data, and generates a first speech feature for the native speaker's voice with respect to the detected first voice features and the generated sentence. Comprising a pronunciation evaluation by comparing the two phonetic features, and includes a language learning center for transmitting the pronunciation evaluation results including the native speaker's voice to the learner terminal.
상기한 목적을 달성하기 위한 본 발명의 방법은; 학습자 단말이 언어 학습 센터에 접속 후, 언어 학습 센터로 발음 학습을 요청하는 제1과정과, 언어 학습 센터가 상기 발음 학습 요청 수신 시 상기 학습자 단말에 대한 학습 문장을 송신하여 제시하는 제2과정과, 상기 학습자 단말이 수신된 문장을 표시한 후, 표시된 문장에 대해 발화한 학습자의 음성을 음성데이터로 변환하여 송신하는 제3과정과, 상기 제시한 문장에 대한 음성 데이터가 수신되면 상기 음성 데이터의 제1발음 특징들을 검출하고, 검출된 제1음성 특징들과 의해 상기 제시한 문장에 대한 원어민의 음성에 대한 제2발음 특징들을 비교하여 발음 평가를 수행하고, 상기 원어민의 음성을 포함하는 발음 평가 결과를 상기 학습자 단말기로 송신하는 제4과정과, 상기 학습자 단말이 상기 송신된 음성 데이터에 대한 발음 평가 결과를 수신하여 표시하는 제5과정을 포함한다.The method of the present invention for achieving the above object; After the learner terminal accesses the language learning center, the first process of requesting pronunciation learning to the language learning center, and the second process of transmitting and presenting a learning sentence for the learner terminal when the language learning center receives the pronunciation learning request; And, after the learner terminal displays the received sentence, converts the learner's voice spoken with respect to the displayed sentence into voice data, and transmits the voice data. Pronunciation evaluation is performed by detecting first phonetic features, comparing the first phonetic features with the second phonetic features of the native speaker's voice to the sentence presented above, and performing a phonetic evaluation including the native speaker's voice A fourth process of transmitting a result to the learner terminal, and the learner terminal receiving a pronunciation evaluation result of the transmitted voice data; A fifth process of displaying is included.
상술한 목적을 달성하기 위한 본 발명의 다른 방법은; 학습자 단말이 언어 학습 센터에 접속 후, 언어 학습 센터로 발음 학습을 요청하는 제1과정과, 상기 언어 학습 센터가 상기 발음 학습 요청이 발생하면 음성데이터 수신 대기모드를 설정하는 제2과정과, 상기 학습자 단말이 상기 발음 학습 요청 후 학습자로부터 발화된 음성을 음성데이터로 변환하여 송신하는 제3과정과, 상기 음성 데이터가 수신되면 상기 음성 데이터의 제1발음 특징들을 검출하고, 상기 제1발음 특징들에 의해 음성인식을 수행한 후, 문자 변환하여 상기 음성데이터에 대한 문장을 생성하며, 상기 검출된 제1음성 특징들과 상기 생성된 문장에 대한 원어민의 음성에 대한 제2발음 특징들을 비교하여 발음 평가를 수행하고, 상기 원어민의 음성을 포함하는 발음 평가 결과를 상기 학습자 단말기로 송신하는 제4과정과, 상기 학습자 단말이 상기 송신된 음성 데이터에 대한 발음 평가 결과를 수신하여 표시하는 제5과정을 포함한다.Another method of the present invention for achieving the above object is; After the learner terminal accesses the language learning center, a first process of requesting pronunciation learning to a language learning center; and a second process of setting a voice data reception standby mode when the language learning center generates the pronunciation learning request; A third process of the learner terminal converting the speech spoken by the learner into voice data after the pronunciation learning request; and detecting the first sounding features of the voice data when the voice data is received, and detecting the first sounding features. After the speech recognition by the voice conversion, the text is converted to generate a sentence for the voice data, and compared with the detected first speech features and the second pronunciation features of the native speaker's voice for the generated sentence A fourth process of performing an evaluation and transmitting a pronunciation evaluation result including the native speaker's voice to the learner terminal; And a fifth process of receiving and displaying a pronunciation evaluation result of the transmitted voice data.
본 발명은 학습자가 발화한 문장에 대한 정확하게 발음을 평가하고, 학습자에게 올바른 발음법을 제시할 수 있는 이점을 가진다.The present invention has the advantage of accurately assessing the pronunciation of the sentence spoken by the learner and presenting the correct pronunciation to the learner.
또한, 본 발명은 음성인식을 수행하므로 써 제시되는 문장뿐만 아니라 학습자가 임의로 발음한 문장에 대해서도 발음평가를 수행하고, 이에 대한 올바른 발음법을 제시할 수 있는 이점을 가진다.In addition, the present invention has the advantage that it is possible to present the correct pronunciation method, and to perform the pronunciation evaluation for the sentences randomly pronounced by the learner as well as the sentences presented by performing the speech recognition.
이하, 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 벗어나지 않도록 생략될 것이라는 것을 유의하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that in the following description, only parts necessary for understanding the operation according to the present invention will be described, and descriptions of other parts will be omitted so as not to deviate from the gist of the present invention.
도 1은 본 발명의 제1실시 예에 따른 인터넷을 이용한 어학 학습 시스템의 구성을 나타낸 도면이다.1 is a view showing the configuration of a language learning system using the Internet according to a first embodiment of the present invention.
도 1을 참조하면, 본 발명에 따른 어학 학습 시스템은 학습자 단말(10)과 언어 학습 센터(40)와 상기 학습자 단말(10)과 언어 학습 센터(40)를 유선/무선으로 연결하기 위한 인터넷망(20) 및 인터넷망(20)과 연결되는 무선망(30)으로 구성된다.Referring to FIG. 1, the language learning system according to the present invention is an internet network for connecting the
학습자 단말(10)은 학습자로부터 발화되는 음성을 녹음하고 얼굴, 특히 입모양을 녹화하여 인터넷망(20) 또는 무선망(30)과 인터넷망(20)을 통해 언어 학습 센터(40)로 전송한다. 학습자 단말(10)은 또한 언어 학습 센터(40)로부터 수신되는 발음 평가 결과를 수신하여 표시한다. 상기 학습자 단말(10)은 가정용 컴퓨터(10-1) 또는 핸드폰, 개인휴대용정보단말기(Personal Digital Assistant: PDA) 등의 휴대통신단말기(10-2)가 될 수 있다. 상기 음성은 펄스코드변조(Pulse Code Modulation: PCM)된 데이터로 전송될 수 있으며 EVRC(Enhanced Variable Rate Coder) 포맷의 데이터로 전송될 수도 있다. 또한, 상기 음성은 엠피3(MP3) 포맷으로 전송될 수도 있다. 상기 발음 평가 결과는 또한, 상기 발음 평과 결과는 학습자가 발화한 발음에 대한 문장 및 원어민 발음을 포함하며, 원어민 발음을 기준으로 한 발음된 전체 문장 및 단어들의 발음 속도, 억양, 리듬 및 입모양에 대한 비교 결과를 포함한다. 비교 결과에 따른 올바른 발음 속도, 억양, 리듬, 구강구조 및 단어와 단어의 연음 정보 및 입모양을 포함하는 올바른 발음법 정보를 포함한다. 상기 학습자 단말(10)은 학습자의 발음에 대한 파형, 원어민의 발음에 대한 파형, 입모양, 억양 및 리듬을 그래픽적으로 표시한다. 또한, 학습자 단말은 학습자의 옵션 설정에 의해 상기 언어 학습 센터(40)로부터 상기 구강구조 및 입모양 등에 대한 3D 와이어 프레임, 쉐이드 및 크로스 섹션(단면 보기) 및 실사 정보를 수신받아 표시한다.The
언어 학습 센터(40)는 인터넷망(20)을 통해 학습자 단말(10)의 접속 및 인증을 수행하고, 인증된 학습자로부터 발화된 발음을 PCM, EVRC 또는 MP3 포맷 등으로 수신받아 학습자의 발음을 평가한다. 언어 학습 센터(40)는 발음을 평가하기 위해 해당 언어에 대한 단어별 속도, 리듬 및 억양 등의 발음 및 입모양 등의 정보를 포함하는 발음 사전 DB(Database) 및 전체 문장에 대한 속도, 리듬 및 억양 등의 정보를 포함하는 문법 정보를 가지는 문법 DB(Database)를 포함한다. 또한, 상기 발음 사전 DB에는 단어와 단어를 연결하는 연음 발음 및 연음 발음에 따른 입모양 정보도 포함된다. 예를 들어, 발음 사전 DB에는 [g i v e u p] -> [ g i v Λ p ]과 같이 연음 정보 및 이에 따른 입모양이 포함된다. 또한, 언어 학습 센터(40)는 수신된 학습자의 발음에 대한 음성인식 및 문자 변환을 수행하여 발음 평가에 이용하고 학습자 단말(10)로 제공한다. 또한, 언어 학습 센터(40)는 학습자 단말(10)로 학습자 옵션 설정에 따른 구강구조 및 입모양들에 대한 3D 와이어 프레임을 DB화하고 있으며, 상기 3D 와이어 프레임을 근거로 한 쉐이드, 실사 퀄리티, 크로스섹션 처리를 수행하여, 학습자 단말(10)로 제공한다.The
무선망(30)은 무선 근거리통신망(Wireless Local Area Network:WLAN)일 수도 있고, 언어 학습 센터(40)와 직접 연결되거나 인터넷망(20)을 통해 연결되는 이동통신망이 될 수도 있다.The
상기 도 1에서는 전체 시스템의 구성을 설명하였다. 이하 도 2를 참조하여 학습자 단말(10)의 구체적인 구성을 설명한다. 도 2는 본 발명에 제1실시 예에 따른 어학 학습 시스템의 학습자 단말의 구성을 나타낸 도면이다.In FIG. 1, the configuration of the entire system has been described. Hereinafter, a detailed configuration of the
학습자 단말(10)은 단말 제어부(11)와 단말 저장부(12)와 입력부(13)와 디스플레이부(14)와 음성처리부(15)와 데이터 통신부(16)와 카메라부(17)로 구성된다.The
단말 제어부(11)는 본 발명에 따른 언어 학습을 수행하기 위한 전반적인 동작을 제어한다.The
단말 저장부(12)는 본 발명에 따른 인터넷망(20)과 접속하는 어학 학습 센터(40)를 통한 어학 학습을 수행하기 위한 제어프로그램을 저장하는 제어프로그램 저장영역과, 상기 제어프로그램 수행중에 발생하는 데이터들을 일시 저장하기 위한 임시 영역과, 평가된 결과정보를 저장하는 데이터 영역으로 구성된다.The
입력부(13)는 학습자 단말(10)의 동작을 제어하기 위한 다수의 키들을 구비하고, 키들 중 학습자에 의해 눌려진 키에 대한 키데이터를 단말 제어부(11)로 출력한다. 상기 입력부(13)는 학습자 단말(10)이 개인용 컴퓨터인 경우 키보드가 될 수 있다.The
디스플레이부(14)는 액정표시장치(Liquid Crystal Display: LCD) 또는 터치 스크린(Touch Screen) 또는 CRT 모니터로서, 단말 제어부(11)의 제어를 받아 다양한 정보들을 텍스트 및 그래픽으로 표시한다.The display unit 14 is a liquid crystal display (LCD), a touch screen, or a CRT monitor, and displays various pieces of information in text and graphics under the control of the
음성처리부(15)는 마이크(MIC) 및 스피커(SP)와 연결되고, 마이크를 통해 입력하는 음성을 음성처리하여 단말 제어부(11)로 출력한다. 상기 음성 처리는 상술한 바와 같이 입력되는 아날로그 음성을 PCM, EVRC 또는 MP3 포맷으로 처리하는 것이다.The
데이터 통신부(16)는 단말 제어부(11)의 제어를 받아 인터넷망(20) 또는 무선망(30)을 통한 인터넷망(20)에 접속하여 인터넷망(20)에 접속되어 있는 언어 학습 센터(40)와 데이터 통신을 수행한다.The
카메라부(17)는 카메라를 통해 촬영된 영상 데이터를 단말 제어부(10)로 제공한다. 본 발명에 따라 카메라부(17)에 구성된 카메라는 학습자의 얼굴, 특히 입모양을 촬영한 영상 데이터를 출력할 수 있도록 학습자에 의해 조절되어야 한다.The
도 3은 본 발명의 제1실시 예에 따른 어학 학습 시스템의 학습 센터의 구성을 나타낸 도면이다.3 is a diagram illustrating a configuration of a learning center of a language learning system according to a first embodiment of the present invention.
이하 도 3을 참조하면, 본 발명에 따른 어학 학습 센터(40)는 센터 제어부(41)와 센터 저장부(42)와 데이터 통신부(43)와 음성 특징 검출부(44)와 음성인식부(45)와 기준발음정보 생성부(46)와 발음 분석부(47)와 입모양 분석부(48)와 발음 데이터베이스(Dababase: DB)와 학습자 DB(50)로 구성된다.3, the
센터 제어부(41)는 본 발명에 따른 어학 학습의 발음 평가를 위한 전반적인 동작을 제어한다.The
센터 저장부(42)는 어학 학습의 발음 평가를 위한 동작을 제어하기 위한 제어프로그램을 저장하는 프로그램 영역과, 상기 제어프로그램 수행중에 발생하는 데이터를 일시 저장하기 위한 임시 영역을 구비한다.The
데이터 통신부(43)는 인터넷망(20) 또는 이동통신망(25)과 접속하여 학습자 단말(10)과 데이터 통신을 수행한다.The
음성 특징 검출부(44)는 제어부(41)의 제어를 받아 데이터 통신부(43)를 통해 수신된 학습자의 음성데이터로부터 음성 특징을 검출한다. 상기 음성 특징이란 음성인식을 위한 성도 모델 특성에 근거한 음성 특징(Pitch) 추출 뿔만 아니라 전체 음성의 속도, 억양을 판단하기 위한 특징 및 리듬을 판단하기 위한 음도 특징과 상기 전체 음성 내의 각 단어의 속도 및 단어와 단어 사이의 간격 시간 등이다. 상기 성도 모델 특성에 근거한 음성 특징은 음성 인식부(45)로 입력하고, 그 이외의 정보들은 발음 정보 생성부(46)로 입력한다.The
음성인식부(45)는 상기 성도 모델 특성에 근거한 음성 특징 정보를 입력받고, 음성인식을 수행한 후 음성인식된 음성을 문자로 변환하여 센터 제어부(41) 및 발음 정보 생성부(46)로 출력한다.The
기준발음정보 생성부(46)는 발음 DB(49)에 근거하여 상기 음성인식부(45)로부터 입력하는 문장에 대한 상기 음성 특징들을 검출하여 발음 분석부(47)로 출력한다.The reference
발음 분석부(47)는 상기 음성 특징 검출부(44)로부터 출력되는 음성특징(이하 "제1 음성 특징"이라 함)과 기준발음 정보 생성부(46)로부터 출력되는 음성특 징(이하 "제2 음성특징"이라 함)을 비교·분석하고, 발음 DB(49)에 근거한 분석된 결과를 센터 제어부(41)로 출력한다. 상기 분석된 결과는 상기 음성인식한 문자, 학습자가 발화한 문장 전체의 속도, 억양 및 리듬과 단어별 속도, 억양, 리듬 및 구강구조 그리고 제2음성 특징과 비교하여 차이가 발생하는 부분들 및 차이가 발생한 부분에 대한 올바른 발음법 및 구강 구조 등이 포함된다. 상기 올바른 발음법 및 구강 구조는 발음 DB(49)에서 얻을 수 있다. 또한, 상기 분석 결과에는 단어와 단어를 연결하는 연음에 대한 발음 정보가 포함된다.The
발음 DB(49)는 음성인식을 수행하기 위한 성도 모델 특성에 근거한 음성 사전 DB, 해당 언어에 대한 문법 DB, 음절단위의 구강구조 및 기준 발음법과 학습자가 발음한 발음간에 발생할 수 있는 차이점들에 대한 올바른 발음 정보를 포함하는 기준 발음 DB 등과 같은 서브 DB들을 포함한다. 상기 구강구조는 목구멍의 형태뿐만 아니라 혀의 입내에서의 위치 정보도 포함한다. 또한, 상기 문법 DB에는 문장 및 단어의 억양, 속도 및 리듬 정보를 포함하며, 단어와 단어 사이의 연음 및 연음 발음 정보를 포함한다. 또한, 발음 DB(49)는 입모양 및 구강구조들에 대한 3D 와이어 프레임들을 저장한다.Pronunciation DB (49) is a phonetic dictionary DB based on the characteristics of the vocal model to perform speech recognition, a grammar DB for the language, oral structure of syllable units, and the differences between the pronunciation of pronunciation and the pronunciation of the pronunciation of the learner. Sub-DBs, such as a reference pronunciation DB, including correct pronunciation information. The oral structure includes not only the shape of the throat but also the positional information in the mouth of the tongue. In addition, the grammar DB includes information of intonation, speed, and rhythm of sentences and words, and includes information about the pronunciation of the words and the tonal sounds between words. The
입모양 분석부(48)는 학습자 단말(10)로부터 입모양에 대한 정지 또는 동영상 데이터를 센터 제어부(41)를 통해 입력받고, 변화되는 입모양을 캡처하고, 캡처된 입모양과 음성인식부(45)로부터 입력하는 학습자가 발화한 음성에 대한 문장을 매칭하고, 상기 문장에 대한 기준, 즉 올바른 입모양을 발음 DB(49)로부터 읽어와 센터 제어부(41)로 출력한다. 이를 위해 발음 DB(49)에는 음절 단위의 기준 입모양 들과 기준 입모양들과 학습자의 상기 문장 발화시의 입모양에 의해 발생할 수 있는 차이점에 대한 올바른 입모양법에 대한 정보를 가지고 있어야 한다.The
센터 제어부(41)는 상기 발음 분석부(47)와 입모양 분석부(48)로부터 입력되는 정보들에 근거하여 발음 평가 정보를 생성하고, 생성된 정보를 학습자 DB(50)의 해당 학습자 데이터 영역에 저장 후, 데이터 통신부(43)를 통해 학습자 단말(10)로 송신한다. 센터 제어부(41)는 상기 학습자 단말(10)의 옵션 설정에 따라 대한 발음 결과에 포함되는 입모양 및 구강구조에 대한 3D 와이어 프레임을 발음 DB(49)에 찾고, 쉐이드 처리, 크로스섹션 처리 또는 실사 퀄리티 처리 등을 수행하여 발음 결과에 포함시켜 송신한다. 상기 3D 와이어 프레임의 쉐이드 처리, 그로스 섹션 처리 또는 실사 퀄리티 처리 등은 별도의 3D 그래픽 처리기(도시하지 않음)를 구비하여 수행한 후 센터 제어부(41)로 제공하도록 구성될 수도 있다.The
도 4는 본 발명의 제1실시 예에 대한 학습 센터에 의한 문장 제시 시의 언어 학습 방법을 나타낸 절차도이다.4 is a flowchart illustrating a language learning method when a sentence is presented by a learning center according to a first embodiment of the present invention.
도 4를 참조하면, 우선, 학습자 단말(10)은 단계411에서 인터넷망(20) 및 무선망(30)을 통해 언어 학습 센터(40)에 접속한다. 상기 접속은 학습자가 학습자 단말(10)을 통해 학습자의 고유 아이디(ID) 및 비밀번호를 입력하여 로그온 한 상태를 의미한다.Referring to FIG. 4, first, the
상기 단계411에서 학습자 단말(10)이 언어 학습 센터(40)에 접속 후, 학습자 단말(10)은 단계413에서 발음 학습을 요청한다.After the
언어 학습 센터(40)는 임의의 학습자 단말(10)로부터 발음 학습 요청이 발생 하면 미리 저장되어 있는 문장을 발음 학습 DB(도시하지 않음)로부터 읽어와 단계415에서 학습자 단말(10)로 송신한다. 언어 학습 센터(40)는 상기 문장과 함께 상기 문장에 대한 발음 데이터도 같이 전송할 수도 있다.The
학습자 단말(10)은 발음 학습할 문장이 수신되면 디스플레이부(14)에 학습할 문장을 표시하고, 마이크를 통해 학습자의 상기 문장에 대해 발화한 음성을 음성처리부(15)를 통해 입력받아 단계417에서 데이터 통신부(16)를 통해 언어 학습 센터(40)로 송신한다. 상기 학습자 단말(10)은 상기 문장 수신 시 상기 문장의 발음데이터도 수신되면 학습자의 선택에 따라 상기 발음데이터를 음성처리부(15)와 스피커(SP)를 통해 발음을 청취할 수도 있다. 이때 학습자 단말(10)이 카메라부(17)를 구비하고 있는 경우 상기 음성과 함께 카메라부(17)를 통해 촬영된 영상데이터도 함께 송신된다.When the
상기 언어 학습 센터(40)는 상기 음성 데이터가 수신되면 상기 도 3에서와 같이 학습자가 발화한 음성의 발음과 상기 학습자 단말로 제시한 문장에 대한 기준 발음을 비교하여 발음 평가 결과를 생성하고 단계419에서 원어민, 즉 기준 음성의 음성데이터를 포함하는 발음 결과 정보를 학습자 단말(10)로 송신한다.When the voice data is received, the
그러면 이때 학습자 단말(40)은 상기 발음 결과 정보를 디스플레이부(14)에 그래픽 및 텍스트로 디스플레이 하여 학습자의 발음 결과를 보여준다.Then, the
상기 도4에서 언어 학습 센터(40)가 학습자가 발화할 문장을 제시하므로 도 4의 경우에는 음성인식부(45)를 통한 음성인식 및 문자변환은 수행하지 않는다.In FIG. 4, since the
도 5는 본 발명의 제1실시 예에 따른 임의 문장의 발화에 대한 언어 학습 방 법을 나타낸 절차도이다.5 is a flowchart illustrating a language learning method for utterance of an arbitrary sentence according to the first embodiment of the present invention.
우선, 학습자 단말(10)은 단계511에서 인터넷망(20) 및 무선망(30)을 통해 언어 학습 센터(40)에 접속한다.First, the
상기 접속 후 학습자 단말(10)은 단계513에서 언어 학습 센터(40)로 발음 학습을 요청한다. 상기 발음 학습 요청을 수신한 언어 학습 센터(40)는 음성 데이터 수신 대기 모드로 전환한다.After the access, the
단계513 후 학습자 단말(10)은 마이크(MIC)와 오디오 처리부(15)를 통해 음성데이터가 입력하면 단계515에서 상기 음성데이터를 데이터 통신부(16)를 통해 언어 학습 센터(40)로 송신한다.After the
상기 음성데이터를 수신한 언어 학습 센터(40)는 도 3의 구성을 통해 학습자 발음 평가 결과를 생성하고, 단계517에서 상기 발음 평가 결과를 학습자 단말(10)로 전송한다. 상기 발음 평가 결과를 생성하기 위해 언어 학습 센터(40)는 제시된 문장이 없기 때문에 음성인식부(45)를 통한 음성인식 및 문자변환을 수행하여 학습자가 발화한 음성에 대한 문장을 생성한다.The
또한, 도면으로 나타내지는 않았지만 학습자 단말(10) 상에서 오프라인으로 상술한 기능을 동일하게 수행하도록 구성할 수도 있다. 그러기 위해서는 학습자 단말(10)가 도3의 음성특징 검출부(44), 음성인식부(45), 기준발음 정보 생성부(46) 및 발음분석부(47) 및 입모양 분석부(48)에 대응하는 구성을 포함하여야 하며, 도3의 발음 DB를 학습자 단말(10)의 내외장 저장장치에 저장하고 있어야 한다.In addition, although not shown in the drawings, the
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the scope of the following claims, but also by the equivalents of the claims.
도 1은 본 발명의 제1실시 예에 따른 인터넷을 이용한 어학 학습 시스템의 구성을 나타낸 도면1 is a view showing the configuration of a language learning system using the Internet according to a first embodiment of the present invention
도 2는 본 발명에 제1실시 예에 따른 어학 학습 시스템의 학습자 단말의 구성을 나타낸 도면2 is a diagram showing the configuration of a learner terminal of a language learning system according to a first embodiment of the present invention;
도 3은 본 발명의 제1실시 예에 따른 어학 학습 시스템의 학습 센터의 구성을 나타낸 도면3 is a diagram showing the configuration of a learning center of a language learning system according to a first embodiment of the present invention;
도 4는 본 발명의 제1실시 예에 대한 학습 센터에 의한 문장 제시 시의 언어 학습 방법을 나타낸 절차도4 is a flowchart illustrating a language learning method when a sentence is presented by a learning center according to the first embodiment of the present invention.
도 5는 본 발명의 제1실시 예에 따른 임의 문장 발화 대한 언어 학습 방법을 나타낸 절차도5 is a flowchart illustrating a language learning method for arbitrary sentence utterance according to the first embodiment of the present invention.
<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>
10: 학습자 단말 20: 인터넷망10: learner terminal 20: Internet network
30: 무선망 40: 언어 학습 센터30: Wireless Network 40: Language Learning Center
11: 단말 제어부 12: 단말 저장부11: terminal control unit 12: terminal storage unit
13: 입력부 14: 디스플레이부13: input unit 14: display unit
15: 음성처리부 16: 데이터 통신부15: voice processing unit 16: data communication unit
41: 센터 제어부 42: 센터 저장부41: center control unit 42: center storage unit
43: 데이터 통신부 44: 음성 특징 검출부43: data communication unit 44: voice feature detection unit
45: 음성인식부 46: 기준발음 정보 생성부45: voice recognition unit 46: reference sound information generation unit
47: 발음 분석부 48: 입모양 분석부47: pronunciation analyzer 48: mouth analysis
49: 발음 DB49: pronunciation DB
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080006903A KR20090081046A (en) | 2008-01-23 | 2008-01-23 | Language learning system using internet network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080006903A KR20090081046A (en) | 2008-01-23 | 2008-01-23 | Language learning system using internet network |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20090081046A true KR20090081046A (en) | 2009-07-28 |
Family
ID=41292073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080006903A KR20090081046A (en) | 2008-01-23 | 2008-01-23 | Language learning system using internet network |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20090081046A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011162508A2 (en) * | 2010-06-25 | 2011-12-29 | Seo Dong-Hyuck | Method and device for learning pronunciation by using comparison images |
KR102508656B1 (en) * | 2022-10-26 | 2023-03-10 | 양동효 | Method, device and system for providing customized language ability test learning service based on problem analysis through artificial intelligence |
-
2008
- 2008-01-23 KR KR1020080006903A patent/KR20090081046A/en active Search and Examination
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011162508A2 (en) * | 2010-06-25 | 2011-12-29 | Seo Dong-Hyuck | Method and device for learning pronunciation by using comparison images |
WO2011162508A3 (en) * | 2010-06-25 | 2012-04-12 | Seo Dong-Hyuck | Method and device for learning pronunciation by using comparison images |
KR102508656B1 (en) * | 2022-10-26 | 2023-03-10 | 양동효 | Method, device and system for providing customized language ability test learning service based on problem analysis through artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5750380B2 (en) | Speech translation apparatus, speech translation method, and speech translation program | |
US20070033039A1 (en) | Systems and methods for speech recognition using dialect data | |
JP6172417B1 (en) | Language learning system and language learning program | |
US10026329B2 (en) | Intralingual supertitling in language acquisition | |
JPH10507536A (en) | Language recognition | |
CN110600013B (en) | Training method and device for non-parallel corpus voice conversion data enhancement model | |
JP2008309856A (en) | Speech recognition device and conference system | |
TW201214413A (en) | Modification of speech quality in conversations over voice channels | |
JP2002040926A (en) | Foreign language-pronunciationtion learning and oral testing method using automatic pronunciation comparing method on internet | |
JP2023539888A (en) | Synthetic data augmentation using voice conversion and speech recognition models | |
KR102444012B1 (en) | Device, method and program for speech impairment evaluation | |
Shahriar et al. | A communication platform between bangla and sign language | |
KR101959439B1 (en) | Method for interpreting | |
KR20220054964A (en) | Foreign language pronunciation training and evaluation system | |
Kabashima et al. | Dnn-based scoring of language learners’ proficiency using learners’ shadowings and native listeners’ responsive shadowings | |
KR20090081046A (en) | Language learning system using internet network | |
EP2541544A1 (en) | Voice sample tagging | |
JP2006195094A (en) | Pronunciation learning support device | |
JP4626310B2 (en) | Pronunciation evaluation device | |
JP4779365B2 (en) | Pronunciation correction support device | |
JP2016186646A (en) | Voice translation apparatus, voice translation method and voice translation program | |
US20030167169A1 (en) | Method of nonvisual enrollment for speech recognition | |
JPH07199989A (en) | Speech recognition device | |
JP2014153479A (en) | Diagnosis system, diagnosis method, and program | |
TWI768412B (en) | Pronunciation teaching method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
E801 | Decision on dismissal of amendment | ||
B601 | Maintenance of original decision after re-examination before a trial | ||
J301 | Trial decision |
Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20150226 Effective date: 20160129 |
|
J2X1 | Appeal (before the patent court) |
Free format text: APPEAL AGAINST DECISION TO DECLINE REFUSAL |