KR102019613B1 - Method for learning and practicing pronunciation based on tongue movement - Google Patents

Method for learning and practicing pronunciation based on tongue movement Download PDF

Info

Publication number
KR102019613B1
KR102019613B1 KR1020180160474A KR20180160474A KR102019613B1 KR 102019613 B1 KR102019613 B1 KR 102019613B1 KR 1020180160474 A KR1020180160474 A KR 1020180160474A KR 20180160474 A KR20180160474 A KR 20180160474A KR 102019613 B1 KR102019613 B1 KR 102019613B1
Authority
KR
South Korea
Prior art keywords
tongue
pronunciation
movement
shape
learner
Prior art date
Application number
KR1020180160474A
Other languages
Korean (ko)
Inventor
김대호
Original Assignee
김대호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김대호 filed Critical 김대호
Priority to KR1020180160474A priority Critical patent/KR102019613B1/en
Application granted granted Critical
Publication of KR102019613B1 publication Critical patent/KR102019613B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Abstract

The present invention relates to a method for practicing and learning pronunciation based on tongue motility. The method comprises the steps of: displaying, on a user interface screen, a word or a sentence desired to be pronounced; providing a character configured to visually display with emphasis, on the user interface screen, a position and a shape of a tongue according to phonemes of the word or the sentence; and outputting, when the phonemes of the word or the sentence displayed on the user interface screen are selected, pronunciation of a native speaker while movements according to tongue motility regarding the position and the shape of a tongue in the mouth of the character, corresponding to sound characteristics of the selected phonemes, are visually displayed through the character so as to enable a learner to copy the movement. According to the present invention, the learn can hear the pronunciation according to phonetic symbols while watching the position and the motion of the tongue of the word or the sentence desired to be pronounced so that the learner is able to learn and copy the pronunciation of a native speaker according to movements of a tongue of the native speaker like mimicking a song. In addition, the learner can be heard the pronunciation of a native speaker and the pronunciation of the learner at the same time, so that the learner can sensibly learn a difference between the pronunciation of a native speaker and the pronunciation of the learner. Thus, the learner is able to practice pronunciation through effective feedback of the movements of the tongue or changes in the position and the shape of the tongue.

Description

혀 운동성에 기반한 발음 연습 및 학습 방법{Method for learning and practicing pronunciation based on tongue movement}Method for learning and practicing pronunciation based on tongue movement}

본 발명은 발음 학습 및 연습에 관한 것으로서, 특히 혀 운동성에 기반한 발음 연습 및 학습 방법에 관한 것이다.The present invention relates to pronunciation learning and practice, and more particularly, to pronunciation practice and learning method based on tongue motility.

언어의 말하기 기본은 발음이다. 그래서 모든 언어를 배울 때 파닉스(phonics) 부터 가르치지만 제대로 가르치기 어렵다. 그 이유 중 하나는 혀를 설명하기 어렵다는 것이다. 그리고 발음은 언어학이 아니라 역학(물리)나 근육학에 가깝다. 언어를 배울 때 입 모양, 유성음, 비음 등은 겉으로 드러나 따라하기는 쉽지만 상대적으로 혀의 모양과 움직임에 따른 발음의 문제점을 파악하기는 쉽지 않다. 특히 연음의 경우 혀의 움직임을 모르면 제대로 발음할 수 없다.The basics of speaking a language are pronunciation. So when I learn all languages, I teach phonics, but it's hard to teach properly. One reason is that it is difficult to explain the tongue. And pronunciation is closer to mechanics (physics) and anthropology, not linguistics. When learning a language, mouth shapes, voiced sounds, and nasal sounds are easy to follow while they are relatively easy to follow, but it is not easy to grasp pronunciation problems due to tongue shape and movement. Especially in the case of yinyeon can not pronounce properly without knowing the movement of the tongue.

요즘은 언어를 배우는 학원에서는 음성인식을 통해 말하기 학습을 하고 있다. 점수와 파장 그래프를 보여주지만 파장 그래프를 이해하기 어렵고 어디를 고쳐야 할지 알기가 쉽지 않다. 언어에서 말하기 연습은 파장 그래프나 점수를 보고 연구나 분석을 하는 사색적인 부분이 아니라 반복적으로 훈련을 통한 습득의 과정이다.Nowadays, language schools are learning to speak through voice recognition. It shows scores and wavelength graphs, but it's hard to understand the wavelength graph and it's hard to know where to fix it. Speaking practice in language is not a speculative part of researching or analyzing wavelength graphs or scores, but rather learning repeatedly through training.

세종 대왕이 한글을 발음 기관을 보고 만들었 듯이 원어민처럼 발음하기 위해서는 원어민의 혀 모양을 알아야 한다. 즉, 혀나 입, 발성 기관에 대한 이해가 필요하다. 예를 들어, 한글 발음은 권투의 잽같이 가벼운 직선이라면 영어 발음은 훅 같이 무겁고 꺾여서 발음된다. As Sejong the Great made Hangeul through pronunciation organs, in order to pronounce it like a native speaker, you must know the tongue of the native speaker. In other words, it is necessary to understand the tongue, mouth and vocal organs. For example, if the Hangul pronunciation is a light straight line like boxing, the English pronunciation is heavy and broken like a hook.

같은 음이라고 생각되어도 혀의 모양을 습득해야 연음이 가능해지고 리듬을 탈 수 있다. 지금도 언어 교육에서 형식상 녹음 파일은 제공하지만 멀티미디어 도구가 발달된 지금도 수 많은 영어 리듬감 연습 교재는 글로 학습한다. 그리고 중국에서는 아직 글로 중국어를 가르치기 때문에 알파벳을 먼저 배워야하는 문제를 안고 있다. 언어는 아기가 모국어를 배우듯 훈련하는 것이 가장 좋다.Even if you think it's the same note, you need to learn the shape of the tongue so that you can play the rhythm. Even though language teaching still provides format recordings, many of the English rhythmic exercise books are still written in the form of multimedia tools. And in China, we still have to learn the alphabet first because we still teach Chinese in writing. Language is best trained as a baby learns his or her native language.

결국, 외국어를 배울 때 맨 처음 배우는 것이 파닉스이지만 파닉스를 제대로 가르치기가 쉽지 않아 설명으로 끝내기 일쑤다. 어쩌면 가르쳐야 하기보다는 많은 시간을 들여 노력과 훈련을 통해 반사적으로 입에 붙도록 스스로 터득해야 하는 부분이다. 특히 밖으로 드러나는 성대의 울림이나 입, 비음 등 보다 잘 느낄 수 없는 혀가 소리에 미치는 영향을 이해해야만 올바른 발음을 할 수 있고 원활하 소통이 가능하다.After all, the first thing you learn when learning a foreign language is phonics, but it's not easy to teach it. Perhaps you have to spend a lot of time trying to reflex yourself through effort and training rather than teaching. In particular, it is possible to speak correctly and communicate smoothly only by understanding the effect of the tongue, which cannot be felt more easily, such as the vocal vocals of the vocal cords, mouth, and nasal cavities.

공개특허공보 제10-2015-0076125호(2015.07.06)Publication No. 10-2015-0076125 (2015.07.06)

본 발명이 해결하고자 하는 과제는 상술한 발음을 학습하고 연습할 때의 한계와 문제점을 해결하기 위해 창출된 것으로서, 사람의 혀를 강조한 캐릭터를 이용하여 아기가 언어를 배우는 과정처럼 음성 각인과 복제(모창)의 과정을 반복함으로써 혀 위치와 모양에 따라 원어민의 혀 움직임 대로 발음을 익힐 수 있게 하고 원어민 발음 그대로 따라 할 수 있는, 혀 운동성에 기반한 발음 연습 및 학습 방법을 제공하는 것이다.The problem to be solved by the present invention was created to solve the limitations and problems when learning and practicing the above-described pronunciation, using a voice emphasizing and duplication (like the process of learning a language using a character that emphasizes the tongue of a person) By repeating the process of speaking, it is possible to learn pronunciation according to the tongue movements of native speakers according to tongue position and shape, and to provide pronunciation practice and learning method based on tongue motility that can be followed by native speaker's pronunciation.

상기 기술적 과제를 이루기 위한 본 발명에 의한 혀 운동성에 기반한 발음 연습 및 학습 방법은, 발음하고자 하는 단어나 문장이 사용자 인터페이스 화면에 디스플레이 되는 단계; 상기 사용자 인터페이스 화면에 단어나 문장의 음소에 따른 혀의 위치와 모양을 시각적으로 강조하여 디스플레이하는 캐릭터가 제공되는 단계: 상기 사용자 인터페이스 화면에 디스플레이된 단어나 문장의 음소가 선택되면 상기 캐릭터를 통해 상기 선택된 음소의 소리 특성에 상응하는, 상기 캐릭터의 입 안에서의 혀의 위치와 모양에 대한 혀의 운동성에 따른 움직임이 학습자가 모방할 수 있도록 시각적으로 디스플레이되면서 원어민 발음이 출력되는 단계를 포함한다. According to an embodiment of the present invention, a pronunciation exercise and learning method based on tongue mobility includes displaying a word or sentence to be pronounced on a user interface screen; Providing a character for visually emphasizing the position and shape of the tongue according to the phoneme of the word or sentence on the user interface screen: when the phoneme of the word or sentence displayed on the user interface screen is selected, A native speaker's pronunciation is output while the movement according to the tongue's motility relative to the position and shape of the tongue in the character's mouth corresponding to the selected phoneme is visually displayed for the learner to imitate.

본 발명에 의한 혀 운동성에 기반한 발음 연습 및 학습 방법은, 상기 사용자 인터페이스 화면에 디스플레이된 상기 발음하고자 하는 단어나 문장에서 음소를 복수개 선택할 수 있는 도구가 제공되고, 상기 단어나 문장의 음소가 복수개 선택되면, 상기 선택된 복수개의 음소에 상응하는, 상기 캐릭터의 입 안에서의 혀의 위치와 모양에 대한 혀의 움직임이 연속적으로 디스플레이되면서 발음이 출력되는 단계를 더 포함할 수 있다. The pronunciation practice and learning method based on tongue mobility according to the present invention is provided with a tool for selecting a plurality of phonemes from the words or sentences to be pronounced displayed on the user interface screen, and selecting a plurality of phonemes of the words or sentences. The method may further include outputting a pronunciation while continuously displaying the movement of the tongue with respect to the position and shape of the tongue in the character's mouth, corresponding to the selected plurality of phonemes.

본 발명에 의한 혀 운동성에 기반한 발음 연습 및 학습 방법은, 사용자 인터페이스 화면에 느린 그림(slow video) 메뉴가 제공되고, 상기 느린 그림(slow video) 메뉴가 선택되면 상기 캐릭터의 입 안에서의 혀의 위치와 모양에 대한 혀의 움직임이 연속적으로 디스플레이되는 것을 시각적으로 느린 그림으로 천천히 디스플레이되는 것을 특징으로 한다. 상기 혀의 위치와 모양에 대한 혀의 운동성은 혀의 입술 쪽에 설정되는 점을 혀의 끝점(end point), 혀의 목구멍 쪽에 설정되는 포인트를 혀의 시작점(start point), 상기 혀의 끝점과 시작점 사이에 설정되는 혀의 중간점(middle point)이라 할 때, 상기 혀의 끝점과 시작점과 중간점의 움직임으로 표현되고, 상기 느린 그림(slow video) 메뉴가 선택되면 상기 혀의 끝점과 시작점과 중간점의 움직임을 추적해서 입 안에서의 입술, 치아(tooth) 및 입천장과의 접촉점을 포함하여 상기 혀의 끝점과 시작점과 중간점의 궤적을 시각적으로 확대하여 느린 그림으로 디스플레이하는 것을 특징으로 한다.According to the present invention, the practice and learning method of pronunciation based on tongue motility is provided with a slow video menu on a user interface screen, and the position of the tongue in the mouth of the character when the slow video menu is selected. The movement of the tongue with respect to the shape of the and the continuous display of the visually slow picture is characterized in that it is displayed slowly. The motility of the tongue relative to the position and shape of the tongue is the end point of the tongue, the point set on the lip side of the tongue, the point set on the throat side of the tongue, the start point of the tongue, the end point and the starting point of the tongue. The middle point of the tongue, which is set in between, is expressed as the movement of the end point and the starting point and the middle point of the tongue, and when the slow video menu is selected, the end point and the starting point and the middle point of the tongue are selected. By tracking the movement of the point, the trajectory of the end point, the starting point and the middle point of the tongue, including the contact point with the lips, the tooth and the palate in the mouth, is visually enlarged and displayed as a slow picture.

본 발명에 의한 혀 운동성에 기반한 발음 연습 및 학습 방법은, 학습자의 발음을 녹음할 수 있는 메뉴를 제공하고, 녹음 메뉴가 선택되어 학습자의 발음이 녹음되면, 녹음된 학습자의 발음이 상기 원어민 발음과 동시에 출력되는 단계를 더 포함하는 것을 특징으로 한다.The pronunciation practice and learning method based on tongue motility according to the present invention provides a menu for recording a learner's pronunciation, and when the recording menu is selected and the learner's pronunciation is recorded, the recorded learner's pronunciation is compared with the native speaker's pronunciation. And at the same time outputting.

삭제delete

본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에 의하면, 발음하고자 하는 단어와 문장에서 바로 혀의 위치와 모양의 움직임을 보면서 발음기호에 맞는 발음을 들을 수 있어 모창을 하듯 원어민의 혀의 움직임 대로 발음을 익힐 수 있고 원어민 발음 그대로 따라 할 수 있다. According to the practice and learning method of pronunciation based on the tongue motility according to the present invention, you can hear the pronunciation of the pronunciation symbol while watching the movement of the position and shape of the tongue in the words and sentences to be pronounced, the movement of the tongue of the native speaker You can learn how to pronounce and follow the native pronunciation.

그리고 본 발명에 의하면, 원어민의 발음과 학습자의 발음을 동시에 들려 줌으로써, 감각적으로 원어민의 발음과 차이를 알 수 있어 혀의 이동이나 변화에 대한 효과적인 피드백을 통해 발음을 연습할 수 있다. In addition, according to the present invention, by listening to the pronunciation of the native speaker and the learner's pronunciation at the same time, you can sense the pronunciation and the difference of the native speaker can practice pronunciation through effective feedback on the movement or change of the tongue.

또한 본 발명에 의하면 혀의 움직임과 모양을 알고 원어민의 발음을 들으면 왜 다르게 느껴지는지 이해할 수 있게 되고 훈련을 통해 원어민의 발음을 따라 할 수 있게 된다.In addition, according to the present invention, if you know the movement and shape of the tongue and hear the native speaker's pronunciation, you can understand why it feels different and can follow the native speaker's pronunciation through training.

도 1은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에 대한 일실시예를 흐름도로 나타낸 것이다.
도 2는 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에 대한 일실시예의 부가기능을 흐름도로 나타낸 것이다.
도 3은 개별 음소에 대한 혀의 모양을 사람의 머리를 해부한 것 같은 이미지로 나타낸 것이다.
도 4는 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 캐릭터를 이용하여 각 음소에 대한 혀의 모양과 위치를 강조하여 나타낸 이미지이다.
도 5는 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 캐릭터를 이용하여 각 음소에 대한 혀의 모양과 위치를 시작점, 중간점, 끝점의 궤적을 강조하여 나타낸 이미지이다.
도 6은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 사용자 인터페이스 화면에서 단어가 선택 되었을 경우의 일 예를 나타낸 것이다.
도 7은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 사용자 인터페이스 화면에서 음소가 선택 되었을 경우의 일 예를 나타낸 것이다.
도 8은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 사용자 인터페이스 화면에서 문장이 선택 되었을 경우의 일 예를 나타낸 것이다.
도 9는 Car[ka:r] 발음에 대해 원어민과 한국인 혀의 운동과 상태를 혀의 이미지로 비교한 것이다.
도 10은 연음 될 때 혀의 운동성의 일 예로 Car to [ka:r t

Figure 112018124991290-pat00001
:]에 대한 원어민과 한국인의 혀의 이미지를 나타낸 것이다.1 is a flowchart illustrating an embodiment of a pronunciation practice and learning method based on tongue mobility according to the present invention.
2 is a flowchart illustrating an additional function of an embodiment of a pronunciation practice and learning method based on tongue mobility according to the present invention.
Figure 3 shows the shape of the tongue for individual phonemes as an image of a human head dissected.
Figure 4 is an image showing the shape and position of the tongue for each phoneme using the character provided by the pronunciation practice and learning method based on the tongue mobility in accordance with the present invention.
5 is an image showing the shape and position of the tongue for each phoneme by emphasizing the trajectory of the starting point, the middle point, and the end point by using the character provided by the pronunciation exercise and learning method based on the tongue motility according to the present invention.
6 illustrates an example of a case where a word is selected on a user interface screen provided by a pronunciation exercise and learning method based on tongue mobility according to the present invention.
7 illustrates an example of a case where a phoneme is selected on a user interface screen provided by a pronunciation exercise and learning method based on tongue mobility according to the present invention.
8 illustrates an example of a case where a sentence is selected on a user interface screen provided by a pronunciation exercise and learning method based on tongue mobility according to the present invention.
Figure 9 compares the motion and state of the native tongue and Korean tongue for Car [ka: r] pronunciation with the image of the tongue.
10 shows an example of the motility of the tongue when the carnality is car to [ka: rt
Figure 112018124991290-pat00001
It shows the images of native speakers and Koreans' tongues for:].

이하, 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Configurations shown in the embodiments and drawings described herein are only one preferred embodiment of the present invention, and do not represent all of the technical spirit of the present invention, various equivalents that may be substituted for them at the time of the present application It should be understood that there may be variations and examples.

일본의 한 방송에서 “왜 일본인은 영어를 못하는가”라는 제목으로 흥미로운 실험을 하였는데, 먼저 영어의 소리 파장을 측정하고, 일본어와 한국어 중국어까지 소리의 파장을 측정하였다. 그 결과가 놀라운 결과로 영어는 3000hz인데 반해, 일본어는 1500hz, 한국어는 1800hz, 중국어는 2200hz의 음역을 가지고 있었다.An interesting experiment was conducted in a Japanese broadcast entitled "Why Japanese Do Not Speak English." First, we measured the wavelength of sound in English and then measured the wavelength of sound from Japanese to Korean and Chinese. The result was astonishing as it was 3000hz in English, while 1500hz in Japanese, 1800hz in Korean, and 2200hz in Chinese.

이 실험을 통해서 알게 된 것은 각국 언어의 주파수가 상당히 다르다는 것이고 중국인이 일본인이나 한국인보다 영어를 잘하는 이유가 단순히 어순이 비슷해서 만이 아니라 중국어의 소리 특성이 영어와 가까워 영어를 자연스럽게 받아들일 수 있다는 것이다. 곧 일본인이나 한국인은 자국어에 익숙하면 익숙해질수록 영어에 대한 청각 장애를 갖게 된다는 것이다. What I learned from this experiment is that the frequencies of each language are quite different, and the reason why Chinese speak English better than Japanese or Korean is not only because of similar word order but also because the sound characteristics of Chinese are close to English so that they can accept English naturally. In other words, Japanese and Koreans are more likely to experience hearing impairments in English as they become more familiar with their own language.

인간은 언어에 대한 천재적 소질을 가지고 있다고 한다. 그러나 특정한 소리에 익숙해지면 청각에 장애가 발생하게 되고, 곧 특정한 소리에 길들여지면 구성이 다른 소리는 쉽게 듣지 못한다. 미국인과 한국인은 같은 동물 소리도 다르게 표현하는데 그것은 익숙한 대로 듣고 표현하기 때문이다. 곧 중국어의 다른 소리체계습득을 위하여 4성 성조를 하듯, 우리말과 확연히 다른 영어의 다른 소리 체계를 습득하기 위해서 발성과 같은 기초 연습이 필요하다. 이 결과는 혀의 운동성에 따른 파장 변화로 나타난다. Humans are said to have genius for language. However, getting used to a certain sound causes hearing impairment, and if you are tamed with a particular sound, you can't easily hear a different sound. Americans and Koreans express the same animal sounds differently because they listen and express themselves as they are used to. In order to acquire different sound system of Chinese, it is necessary to practice basic skills such as vocalization in order to acquire different sound system of English that is significantly different from Korean. The result is a change in wavelength depending on the motility of the tongue.

“하나의 음소를 조음하고자 할 때, 사람의 혀는 즉시 목표한 자세를 취할 수 없다. 혀는 필요한 위치로 들어올리기에는 어느 정도의 시간이 소요되는 무거운 살덩어리이다. 그러므로 사람이 혀를 움직이는 동안, 뇌는 궤도를 계획하면서 다음 자세를 예상한다.” ('언어 본능', 263쪽 참조) “When trying to articulate a phoneme, a person's tongue cannot immediately take the desired posture. The tongue is a heavy mass that takes some time to lift to the required position. Therefore, while the person moves his tongue, the brain plans orbits and anticipates the next posture ”(see 'Language Instinct', p. 263).

어른이 되어 원어민의 말을 하기 위해서는 권투선수가 팔을 훈련하듯 혀 훈련이 필요하다. 본 발명은 '언어 본능'에서 말하는 혀를 훈련 시킴으로 원어민의 발음을 할 수 있도록 하는 것을 기술적 사상으로 한다.To speak a native speaker as an adult, you need to train your tongue like a boxer trains his arms. The present invention is intended to enable the pronunciation of native speakers by training the tongue spoken in 'language instincts'.

도 1은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에 대한 일실시예를 흐름도로 나타낸 것이다. 그리고 도 2는 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에 대한 일실시예의 부가기능을 흐름도로 나타낸 것이다.1 is a flowchart illustrating an embodiment of a pronunciation practice and learning method based on tongue mobility according to the present invention. 2 is a flowchart illustrating an additional function of an embodiment of a pronunciation practice and learning method based on tongue motility according to the present invention.

도 1 및 도 2를 참조하여 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에 대한 일실시예를 설명하기로 한다. With reference to Figures 1 and 2 will be described an embodiment of the pronunciation practice and learning method based on tongue mobility in accordance with the present invention.

먼저, 발음하고자 하는 단어나 문장이 사용자 인터페이스(User Interface, UI) 화면에 디스플레이 된다.(S110단계) 상기 사용자 인터페이스 화면에 단어나 문장의 음소에 따른 혀의 위치와 모양을 시각적으로 강조하여 디스플레이하는 캐릭터가 제공된다.(S120단계)First, a word or sentence to be pronounced is displayed on a user interface (UI) screen. (S110) Visually highlighting the position and shape of the tongue according to phonemes of the word or sentence on the user interface screen. A character is provided. (Step S120)

도 3은 개별 음소에 대한 혀의 모양을 사람의 머리를 해부한 것 같은 이미지로 나타낸 것이다. 즉, 도 3은 사람의 혀의 움직임으로 발음 공부를 할 때 한번씩 볼 수 있는 이미지이다. 하지만 사람의 머리를 해부해 놓은 것 같은 이미지로 보기에 좋지 않다. 도 4는 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 캐릭터를 이용하여 각 음소에 대한 혀의 모양과 위치를 강조하여 나타낸 이미지이다. 즉, 도 4는 혀의 모양과 위치를 잘 나타낼 수 있는 캐릭터를 통해 혀의 위치와 모양을 강조하여 보여준다.Figure 3 shows the shape of the tongue for individual phonemes as an image of a human head dissected. That is, Figure 3 is an image that can be seen once when studying pronunciation by the movement of the human tongue. However, it is not good to see as if the human head is dissected. Figure 4 is an image showing the shape and position of the tongue for each phoneme using the character provided by the pronunciation practice and learning method based on the tongue mobility in accordance with the present invention. That is, Figure 4 highlights the position and shape of the tongue through the character that can represent the shape and position of the tongue well.

상기 사용자 인터페이스 화면에 디스플레이된 단어나 문장의 음소가 선택되면(S130단계), 상기 캐릭터를 통해 상기 선택된 음소의 소리 특성에 상응하는, 상기 캐릭터의 입 안에서의 혀의 위치와 모양에 대한 혀의 운동성에 따른 움직임이 학습자가 모방할 수 있도록 시각적으로 디스플레이되면서 원어민 발음이 출력된다.(S140단계) When the phoneme of the word or sentence displayed on the user interface screen is selected (step S130), the motility of the tongue with respect to the position and shape of the tongue in the mouth of the character corresponding to the sound characteristics of the selected phoneme through the character The native speaker's pronunciation is output while visually displaying the motion according to the learner to imitate (S140).

도 6은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 사용자 인터페이스 화면에서 단어가 선택 되었을 경우의 일 예를 나타낸 것이다. 참조번호 610은 단어(kangaroo)의 음소(r)에 따른 혀 위치와 모양을 보여주고 소리를 들려준다. 참조번호 620은 자신의 녹음상태를 나타낸다. 참조번호 630은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 사용자 인터페이스 화면을 통해 제공되는 다양한 메뉴를 나타낸 것으로서, 단어나 문장에서의 음소선택, 캐릭터를 통한 혀의 운동성을 느린 그림으로 볼 수 있는 느린 그림, 학습자의 발음을 녹음할 수 있는 녹음, SNS를 통해 질의 응답을 통한 원어민의 발음을 들을 수 있는 SNS, 선택된 음소나 단어 및 문장에 대한 원어민의 발음을 들을 수 원어민 발음(남), 원어민 발음(여), 단어 단위로 발음을 학습하는 단어선택, 문장 단위로 발음을 학습하는 문장선택, 원어민 발음과 녹음된 내 발음을 동시에 들을 수 있는 원어민 발음과 내 발음 동시 듣기 메뉴를 제공할 수 있다.6 illustrates an example of a case where a word is selected on a user interface screen provided by a pronunciation exercise and learning method based on tongue mobility according to the present invention. Reference numeral 610 shows and sounds the tongue position and shape according to the phoneme (r) of the word (kangaroo). Reference numeral 620 denotes a recording state of the user. Reference numeral 630 shows various menus provided through the user interface screen provided by the pronunciation exercise and learning method based on the tongue motility according to the present invention. Slow picture that can be seen by using, recording to record learner's pronunciation, SNS to hear native speaker's pronunciation through SNS, native speaker's pronunciation to hear selected phonemes or words and sentences Male), native speaker pronunciation (female), word selection to learn pronunciation by word unit, sentence selection to learn pronunciation by sentence unit, native speaker pronunciation and my pronunciation simultaneously listen to native speaker pronunciation and recorded my pronunciation at the same time Can provide.

도 7은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 사용자 인터페이스 화면에서 음소가 선택 되었을 경우의 일 예를 나타낸 것이다. 도 7을 참조하면, 참조번호 710은 캐릭터를 통해 R(r) 발음에 대한 혀의 위치와 모양을 나타내며, 참조번호 720은 사용자 인터페이스 화면에서 제공하는 음소선택 메뉴를 나타낸다.7 illustrates an example of a case where a phoneme is selected on a user interface screen provided by a pronunciation exercise and learning method based on tongue mobility according to the present invention. Referring to FIG. 7, reference numeral 710 denotes the position and shape of the tongue for R (r) pronunciation through a character, and reference numeral 720 denotes a phoneme selection menu provided on a user interface screen.

한편, 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법은 상기 사용자 인터페이스 화면에 디스플레이된 상기 발음하고자 하는 단어나 문장에서 음소를 복수개 선택할 수 있는 도구가 제공될 수 있다.(S150단계) 상기 단어나 문장의 음소가 복수개 선택되면, 상기 선택된 복수개의 음소에 상응하는, 상기 캐릭터의 입 안에서의 혀의 위치와 모양에 대한 혀의 움직임이 연속적으로 디스플레이되면서 발음이 출력된다.(S160단계)On the other hand, the pronunciation exercise and learning method based on the tongue mobility according to the present invention may be provided with a tool for selecting a plurality of phonemes from the words or sentences to be pronounced displayed on the user interface screen (step S150). When a plurality of phonemes of a sentence is selected, the pronunciation of the tongue is displayed while continuously displaying the movement of the tongue with respect to the position and shape of the tongue in the character's mouth corresponding to the selected plurality of phonemes (step S160).

본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법의 실시예는 사용자 인터페이스 화면에 느린 그림(slow video), 녹음, SNS 메뉴 등이 제공될 수 있다. 도 6을 참조하면, 사용자 인터페이스 화면에 느린 그림(slow video) 메뉴(632)가 제공될 수 있다.(S210단계) 느린 그림(slow video) 메뉴(632)가 선택되면 상기 캐릭터의 입 안에서의 혀의 위치와 모양에 대한 혀의 움직임이 시각적으로 느린 그림으로 천천히 연속적으로 디스플레이된다.(S220단계) 여기서 상기 혀의 위치와 모양에 대한 혀의 운동성은 혀의 입술 쪽에 설정되는 점을 혀의 끝점(end point), 혀의 목구멍 쪽에 설정되는 포인트를 혀의 시작점(start point), 상기 혀의 끝점과 시작점 사이의 입천장 쪽에 설정되는 포인트를 혀의 중간점(middle point)이라 할 때, 상기 혀의 끝점과 시작점과 중간점의 움직임으로 표현되고, 상기 느린 그림(slow video) 메뉴가 선택되면 상기 혀의 끝점과 시작점과 중간점의 움직임을 추적해서 입 안에서의 입천장과의 접촉점을 포함하여 상기 혀의 끝점과 시작점과 중간점의 궤적을 시각적으로 확대하여 느린 그림으로 디스플레이될 수 있다. 도 5는 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 캐릭터를 이용하여 각 음소에 대한 혀의 모양과 위치를 시작점, 중간점, 끝점의 물리적 모션트위닝으로 다양한 음과 음 사이 궤도에 중간 단계를 실재 혀의 움직임('언어 본능'에서 말하는 혀의 궤도)과 같이 나타내어 원어민 혀의 궤도를 인식할 수 있게 나타낸다.An embodiment of the pronunciation practice and learning method based on tongue mobility according to the present invention may be provided with a slow video, recording, SNS menu, etc. on the user interface screen. Referring to FIG. 6, a slow video menu 632 may be provided on a user interface screen (step S210). When a slow video menu 632 is selected, the tongue in the mouth of the character is selected. The movement of the tongue with respect to the position and shape of is slowly and continuously displayed in a visually slow picture (step S220). Here, the motility of the tongue with respect to the position and shape of the tongue is set on the lip side of the tongue. end point, the point set at the throat of the tongue is the start point of the tongue, and the point set at the palate between the end point and the starting point of the tongue is the middle point of the tongue. And the movement of the starting point and the middle point, and when the slow video menu is selected, the end point of the tongue and the movement of the starting point and the middle point are tracked to include the contact point of the palate in the mouth. Visually expanding the end point and locus of the start point and the midpoint of the tongue group can be displayed as slow picture. 5 is a trajectory between various sounds and sounds by the physical motion tweening of the starting point, the middle point, and the end point of the tongue for each phoneme using the character provided by the pronunciation practice and learning method based on the tongue motility according to the present invention. Intermediate steps are shown as the movement of the tongue (the tongue's trajectory in 'language instinct') so that the native tongue's orbit can be recognized.

참조번호 510은 시작점, 참조번호 520은 중간점, 참조번호 530은 끝점, 참조번호 540은 접촉점을 나타낸다.Reference numeral 510 denotes a starting point, reference numeral 520 denotes an intermediate point, reference numeral 530 denotes an end point, and reference numeral 540 denotes a contact point.

또한, 사용자 인터페이스 화면에 학습자의 발음을 녹음할 수 있는 녹음 메뉴(633)가 제공될 수 있다.(S210단계) 녹음 메뉴(633)가 선택되어 학습자의 발음이 녹음되고, 원어민 발음과 내 발음 동시 듣기 메뉴(639)가 선택되면 녹음된 학습자의 발음이 상기 원어민 발음과 동시에 출력될 수 있다.(S230단계)In addition, a recording menu 633 may be provided on the user interface screen to record the learner's pronunciation. In operation S210, the recording menu 633 is selected to record the learner's pronunciation and simultaneously pronounce the native speaker's pronunciation and my pronunciation. When the listening menu 639 is selected, the recorded learner's pronunciation may be output simultaneously with the native speaker's pronunciation (step S230).

또한, 사용자 인터페이스 화면에 소셜네트워크서비스(SNS)에서의 질의 응답을 통해 원어민의 발음을 학습할 수 있는 SNS 메뉴(634)가 제공될 수 있다.(S210단계) 소셜네트워크서비스(SNS)를 통해 다수의 가입자(member)에게 원어로 질문하고, 가입자가 원어로 응답할 수 있다.(S240단계) 상기 응답된 원어 중 미리 저장되어 있는 특정 단어가 존재하면 상기 특정단어에 상응하는 원어민의 발음과 함께 상기 특정 단어에 대한 상기 캐릭터의 혀 모양 및 혀 위치를 디스플레이 한다.(S250단계) In addition, the user interface screen may be provided with an SNS menu 634 for learning the pronunciation of the native speaker through a question and answer in the social network service (SNS). (Step S210) A plurality of social network services (SNS) through The member may ask a question in a native language, and the subscriber may respond in the original language (step S240). If there is a specific word stored in advance among the answered original words, the native language may be pronounced along with the pronunciation of the native speaker corresponding to the specific word. The tongue shape and tongue position of the character with respect to the specific word are displayed.

도 8은 본 발명에 따른 혀 운동성에 기반한 발음 연습 및 학습 방법에서 제공하는 사용자 인터페이스 화면에서 문장이 선택 되었을 경우의 일 예를 나타낸 것이다. 도 8을 참조하면, 사용자 인터페이스 화면에 디스플레이된 문장들 중에서 My fellow citizens:(810)가 선택되어 원어민 발음이 출력되는 것을 나타내고 있다.8 illustrates an example of a case where a sentence is selected on a user interface screen provided by a pronunciation exercise and learning method based on tongue mobility according to the present invention. Referring to FIG. 8, My fellow citizens: 810 is selected from the sentences displayed on the UI screen to output native speaker pronunciations.

도 9는 Car[kaːr] 발음에 대해 원어민과 한국인 혀의 운동과 상태를 혀의 이미지로 비교한 것이다. 도 9를 참조하면, 한국인의 발음은 혀의 이동이나 형태의 변화가 거의 없기 때문에 아주 짧은 시간에 조음 된다.(920) 하지만, 영어는 각각의 음소가 다른 혀 모양을 하고 있어 혀의 이동 시간이 필요하고 이동에 따른 시간과 파장이 달라진다.(910) 이 차이가 영어 3요소 ‘발성 · 강세 · 리듬’ 차이를 가져온다. Figure 9 compares the motion and state of the native tongue and Korean tongue for Car [kaːr] pronunciation with the image of the tongue. Referring to FIG. 9, the pronunciation of Koreans is articulated in a very short time because there is little change of tongue or change of shape. (920) In English, however, each phoneme has a different tongue shape. It is necessary and the time and wavelength are different according to the movement. (910) This difference brings about the difference between the three elements of English, 'voice, stress, and rhythm'.

도 10은 연음 될 때 혀의 운동성의 일 예로 Car to [kaːr t

Figure 112018124991290-pat00002
ː]에 대한 원어민과 한국인의 혀의 이미지를 나타낸 것이다. 도 10을 참조하면, Car to [kaːr t
Figure 112018124991290-pat00003
ː]에 대한 한국인의 발음은 다른 소리가 나고 억지로 따라하면 혀가 꼬이게 되어 있다.(1020) 비슷한 것 같지만 결국 원어민이 이해 할 수 없는 발음이 된다.(1010)10 shows an example of the motility of the tongue when the carnality is car to [kaːr t
Figure 112018124991290-pat00002
It shows the images of native speakers and Koreans' tongues. Referring to Figure 10, Car to [kaːr t
Figure 112018124991290-pat00003
Korean pronunciation of] sounds different and if you force it along, your tongue is twisted. (1020) It seems similar, but it becomes a pronunciation that native speakers cannot understand. (1010)

본 발명은 디지털디바이스에서 모든 단어와 문장에 캐릭터를 통해 혀의 위치와 모양을 확인하고 원어민 발음 그대로 따라 할 수 있는 연습방법이다. 또한 이 방법은 모든 언어를 문법이나 글이 아니라 듣기와 말하기를 통해 언어를 가르치는 것이다. 이는 아기가 어머니로부터 언어를 배우는 이치와 같다.The present invention is a practice method that can check the position and shape of the tongue through the characters in all words and sentences in the digital device and follow the pronunciation of native speakers. This method also teaches language through listening and speaking rather than grammar or writing. It's like having a baby learn a language from her mother.

본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터(정보 처리 기능을 갖는 장치를 모두 포함한다)가 읽을 수 있는 코드로서 구현될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다. 또한, 본 명세서에서, “부”는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.The present invention can be embodied as code that can be read by a computer (including all devices having an information processing function) on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording devices include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like. Further, in this specification, “unit” may be a hardware component such as a processor or a circuit, and / or a software component executed by a hardware component such as a processor.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

510 : 혀의 시작점 520 : 혀의 중간점
530 : 혀의 끝점 540 : 입천장 접촉점
610 : 혀 위치 및 모양 620 : 자신의 녹음 상태
630 : UI의 메뉴 710 : R발음의 혀 위치 및 모양
720 : UI의 음소 선택 메뉴 810 : UI의 문장 선택
910 : 원어민 발음에 대한 혀의 모양 및 이동시간
920 : 한국인 발음에 대한 혀의 모양 및 이동시간
1010 : 연음에 대한 원어민 혀의 운동성
1020 : 연음에 대한 한국인 혀의 운동성
510: starting point of the tongue 520: midpoint of the tongue
530: end point of the tongue 540: palate contact point
610: tongue position and shape 620: his recording state
630: menu of the UI 710: tongue position and shape of the R pronunciation
720: UI phoneme selection menu 810: sentence selection of the UI
910: Tongue shape and travel time for native speakers
920: Tongue Shape and Travel Time for Korean Pronunciation
1010: Native tongue motility for softening
1020: Korean Tongue Motivation for Softening

Claims (6)

발음하고자 하는 단어나 문장이 사용자 인터페이스 화면에 디스플레이 되는 단계;
상기 사용자 인터페이스 화면에 단어나 문장의 음소에 따른 혀의 위치와 모양을 시각적으로 강조하여 디스플레이하는 캐릭터가 제공되는 단계;
상기 사용자 인터페이스 화면에 디스플레이된 단어나 문장에서 음소를 복수개 선택할 수 있는 도구와 느린 그림(Slow Video) 메뉴가 제공되는 단계; 및
상기 사용자 인터페이스 화면에 디스플레이된 단어나 문장에서 연속적으로 이어지는 복수개의 음소가 선택되면, 상기 선택된 복수개의 음소 각각이 개별적으로 존재할 때 나타내는 혀의 위치와 모양과는 다르게 나타나는 원어민의 리듬과 연음을 혀의 운동성에 기반하여 연음 고유의 음소와 음소 간의 혀의 이동시간이 반영되고 이동방향을 나타내는 움직임 궤적을 추적하면서 시각적으로 혀의 위치와 모양을 디스플레이하고, 동시에 원어민의 발음이 오디오로 출력되는 단계를 포함하고,
느린 그림 메뉴가 선택되면, 상기 원어민 특유의 리듬과 연음에 대한 혀의 운동성은
혀의 입술 쪽에 설정되는 점을 혀의 끝점(end point), 혀의 목구멍 쪽에 설정되는 포인트를 혀의 시작점(start point), 상기 혀의 끝점과 시작점 사이의 입천장 쪽에 설정되는 포인트를 혀의 중간점(middle point)이라 할 때, 상기 연음을 구성하는 발음과 발음 사이의 운동성을 혀의 이동 시간과 혀의 움직이는 이동 방향이 포함된 동적 움직임을 나타내는 물리적 모션 트위닝(motion tweening)을 통해 한 음소에서 다른 음소로 이동하는 시간과 음소의 혀 모양과 궤도의 중간단계를 실제 원어민 혀의 이동 시간과 모양과 궤도로 인식할 수 있도록 상기 혀의 끝점과 시작점과 중간점의 움직임을 시간과 이동방향을 추적해서 입 안에서의 입천장과의 접촉점과 혀의 이동시간을 포함하여 상기 혀의 끝점과 시작점과 중간점의 이동 궤적 및 혀 모양을 시각적으로 확대하여 느린 그림으로 디스플레이하는, 혀 운동성에 기반한 발음 연습 및 학습 방법.
Displaying a word or sentence to be pronounced on a user interface screen;
Providing a character for visually emphasizing the position and shape of the tongue according to phonemes of words or sentences on the user interface screen;
Providing a slow video menu and a tool for selecting a plurality of phonemes from a word or sentence displayed on the user interface screen; And
When a plurality of phonemes consecutively selected from a word or sentence displayed on the user interface screen are selected, the rhythm and soft sound of the native speaker appearing differently from the position and shape of the tongue indicated when each of the selected phonemes are individually present. Based on the mobility, the movement of the tongue between the phonemes and the phonemes is reflected, and the position and shape of the tongue is visually displayed while tracking the movement trajectory indicating the movement direction, and at the same time, the pronunciation of the native speaker is output as audio. and,
When the slow picture menu is selected, the motility of the tongue for the native speaker's rhythm and tone
The point set on the lip side of the tongue is the end point of the tongue, the point set on the throat side of the tongue is the start point of the tongue, and the point set on the palate side between the end point and the starting point of the tongue is the midpoint of the tongue. When referred to as a middle point, the phonetic to the other through physical motion tweening, which represents the dynamic movement including the movement time of the tongue and the direction of movement of the tongue, the motility between the pronunciation and the constituents of the softening The time and direction of movement of the end point, starting point and midpoint of the tongue are tracked so that the time to move to the phoneme and the intermediate stage of the phoneme's tongue shape and trajectory can be recognized as the movement time, shape and orbit of the native native tongue. Visually enlarges the trajectory and tongue shape of the end, start and midpoints of the tongue, including the contact point of the palate and the movement time of the tongue in the mouth. Pronunciation practice and learning methods based on tongue movement for displaying a picture.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
학습자의 발음을 녹음할 수 있는 메뉴가 제공되는 단계; 및
녹음 메뉴가 선택되어 학습자의 발음이 녹음되면, 녹음된 학습자의 발음이 상기 원어민 발음과 동시에 출력되는 단계를 더 포함하는 것을 특징으로 하는, 혀 운동성에 기반한 발음 연습 및 학습 방법.
The method of claim 1,
Providing a menu for recording a learner's pronunciation; And
When the recording menu is selected and the learner's pronunciation is recorded, the recorded learner's pronunciation is further output at the same time as the native speaker's pronunciation, pronunciation exercise and learning method based on tongue motility.
삭제delete
KR1020180160474A 2018-12-13 2018-12-13 Method for learning and practicing pronunciation based on tongue movement KR102019613B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180160474A KR102019613B1 (en) 2018-12-13 2018-12-13 Method for learning and practicing pronunciation based on tongue movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180160474A KR102019613B1 (en) 2018-12-13 2018-12-13 Method for learning and practicing pronunciation based on tongue movement

Publications (1)

Publication Number Publication Date
KR102019613B1 true KR102019613B1 (en) 2019-09-06

Family

ID=67950029

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160474A KR102019613B1 (en) 2018-12-13 2018-12-13 Method for learning and practicing pronunciation based on tongue movement

Country Status (1)

Country Link
KR (1) KR102019613B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014066793A (en) * 2012-09-25 2014-04-17 Chikara International Company English pronunciation learning device, method, and program
KR20140087956A (en) * 2013-01-01 2014-07-09 주홍찬 Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data
KR20150046803A (en) * 2013-10-22 2015-05-04 강정현 System and method for learning foreign languages conversation based on social networking service
KR20150076125A (en) 2013-12-26 2015-07-06 강진호 System and method on education supporting of pronunciation using 3 dimensional panorama multimedia

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014066793A (en) * 2012-09-25 2014-04-17 Chikara International Company English pronunciation learning device, method, and program
KR20140087956A (en) * 2013-01-01 2014-07-09 주홍찬 Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data
KR20150046803A (en) * 2013-10-22 2015-05-04 강정현 System and method for learning foreign languages conversation based on social networking service
KR20150076125A (en) 2013-12-26 2015-07-06 강진호 System and method on education supporting of pronunciation using 3 dimensional panorama multimedia

Similar Documents

Publication Publication Date Title
Engwall et al. Designing the user interface of the computer-based speech training system ARTUR based on early user tests
Trofimovich Interactive alignment: A teaching-friendly view of second language pronunciation learning
Huenerfauth et al. Evaluating importance of facial expression in American Sign Language and pidgin signed English animations
JP6976996B2 (en) Dynamic story-oriented digital language education methods and systems
KR20190041105A (en) Learning system and method using sentence input and voice input of the learner
US20040248068A1 (en) Audio-visual method of teaching a foreign language
Wik The Virtual Language Teacher: Models and applications for language learning using embodied conversational agents
KR20140004541A (en) Method for providing foreign language phonics training service based on feedback for each phoneme using speech recognition engine
Yusuf English pronunciation based on the phonetic transcription application (Study of ToPhonetics. App)
Indah The Communication Methods in English Classroom for Indonesian Deaf Students
KR102019613B1 (en) Method for learning and practicing pronunciation based on tongue movement
KR20140087956A (en) Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data
Hanson Computing technologies for deaf and hard of hearing users
JP6656529B2 (en) Foreign language conversation training system
Meisarah Mobile-assisted pronunciation training: the google play pronunciation and phonetics application
Kissova The role and goals in teaching English pronunciation
KR101681673B1 (en) English trainning method and system based on sound classification in internet
Levis et al. Pronunciation and technology
Adamu et al. The roles of the language laboratory in teaching languages: A case study of Bayero University, Kano
JP2004101637A (en) Online educational system, information processor, information providing method and program
KR20210131698A (en) Method and apparatus for teaching foreign language pronunciation using articulator image
Wald et al. Using automatic speech recognition to assist communication and learning
Wik The virtual language teacher
CN112863267B (en) English man-machine conversation system and learning method
Steinfeld The benefit to the deaf of real-time captions in a mainstream classroom environment

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
GRNT Written decision to grant
X701 Decision to grant (after re-examination)