KR102542602B1 - Method for providing personalized problems for pronunciation evaluation - Google Patents
Method for providing personalized problems for pronunciation evaluation Download PDFInfo
- Publication number
- KR102542602B1 KR102542602B1 KR1020220031498A KR20220031498A KR102542602B1 KR 102542602 B1 KR102542602 B1 KR 102542602B1 KR 1020220031498 A KR1020220031498 A KR 1020220031498A KR 20220031498 A KR20220031498 A KR 20220031498A KR 102542602 B1 KR102542602 B1 KR 102542602B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- pronunciation
- sentence
- pronunciation evaluation
- evaluation problem
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 12
- 238000011835 investigation Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 abstract description 24
- 230000004044 response Effects 0.000 abstract description 2
- 230000014509 gene expression Effects 0.000 description 6
- 238000007405 data analysis Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000013480 data collection Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 1
- 210000000959 ear middle Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/02—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
- G09B7/04—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 사용자가 개인정보를 시스템에 업로드하는 단계와, 시스템이 사용자에게 한국 영상 컨텐츠를 제공한 후 발음 평가 문제를 제시한 후 피드백을 요청하는 단계와, 상기 피드백에 대응하여 사용자 음성 데이터가 수집된 후 사용자의 발음이 평가되는 단계와, 사용자 단말기에 상기 사용자 음성 데이터 및 상기 평가 점수가 저장되는 단계와, 일정 주기를 가지고 상기 저장된 평가 점수가 서버에 취합되는 단계와, 서버가 상기 취합된 정보를 이용하여 사용자에게 제공하는 발음 평가 문제를 보정하는 단계를 포함하는 음성 분석을 통한 한국어 발음 학습 방법을 제공한다. The present invention includes the steps of a user uploading personal information to the system, the system providing Korean video content to the user, presenting a pronunciation evaluation problem and requesting feedback, and collecting user voice data in response to the feedback. After the user's pronunciation is evaluated, the user's voice data and the evaluation score are stored in the user terminal, the stored evaluation score is collected in the server at a certain period, and the collected information is collected by the server Provided is a Korean pronunciation learning method through voice analysis, including the step of correcting a pronunciation evaluation problem provided to a user using
Description
본 발명은 한국어 발음 학습 방법 및 시스템에 관한 것으로서, 보다 자세하게는 학습자의 음성, 국적, 성별, 나이 등의 데이터를 토대로 외국인들이 한국어 학습을 할 때 틀리기 쉬운 단어 또는 문장을 집중적으로 학습할 수 있게 하여 학습 효과를 극대화 할 수 있는 음성 분석을 통한 한국어 발음 학습 시스템에 관한 것이다.The present invention relates to a method and system for learning Korean pronunciation, and more specifically, based on data such as voice, nationality, gender, age, etc. It is about a Korean pronunciation learning system through voice analysis that can maximize the learning effect.
세계에는 다양한 언어가 존재하며 언어마다 강세, 억양, 성조 등 서로 다른 특징을 갖기 때문에 그 사람이 살아온 환경에 따라 잘 듣고 말할 수 있는 단어(문장)와 잘 듣지 못하고 말하기도 어려운 단어(문장)가 존재한다. There are various languages in the world, and each language has different characteristics such as stress, intonation, and intonation. Depending on the environment in which the person has lived, there are words (sentences) that can be heard and spoken well, and words (sentences) that are difficult to hear and difficult to speak. do.
이는 인종에 따른 귀의 해부학적인 구조 뿐 아니라 후천적인 상황에도 많은 영향을 받는 것으로 언어 사용 환경에 따라 사람들은 특정 발음을 더 잘 듣거나 말할 수 있게 될 수 있다. This is influenced not only by the anatomical structure of the ear according to race, but also by acquired circumstances, and depending on the environment in which language is used, people may be able to hear or speak certain pronunciations better.
후천적인 변화는 사람의 생활 환경에 기인한다. 즉, 사람의 청각은 자주 듣는 소리는 더 잘 듣도록 하고, 평소 잘 듣지 않는 소리는 잘 들리지 않도록 조절한다. 예를 들어, 사람의 신체구조 중 '중이'는 평소 잘 듣지 않는 소리는 귀를 보호하기 위해 차단한다. 평소 잘 듣지 않는 주파수 대역의 소리에는 무뎌지게 되는 것이다. Acquired changes are caused by a person's living environment. In other words, the human hearing adjusts to hear sounds that are often heard more clearly and not to hear sounds that are not normally heard. For example, the 'middle ear' of a person's body structure blocks sounds that are not normally heard to protect the ears. It becomes insensitive to sounds in a frequency band that is not normally heard.
언어마다 또는 사람마다 말을 할 때 발음이나 억양이 서로 다르기 때문에 상기와 같은 특성을 이용하여 듣기 능력을 향상시키는 것이 가능하다. Since pronunciation or intonation differs from language to language or from person to person, it is possible to improve listening ability by using the characteristics described above.
대한민국 등록특허 제10-0405061호 '언어 학습장치 및 그것의 언어 분석방법'(이하 '특허문헌 1'이라 함)에서는 학습자가 학습한 단어 또는 문장에 대한 발음을 분석하며, 강세와 리듬을 포락선을 갖는 보이스 파형으로 분석하여 그 결과를 표시해줌으로써, 발음과 강세, 리듬 및 입 모양 등을 객관적으로 분석할 수 있게 한다. Republic of Korea Patent Registration No. 10-0405061 'Language learning device and its language analysis method' (hereinafter referred to as 'Patent Document 1') analyzes the pronunciation of a word or sentence learned by a learner, and measures the stress and rhythm By analyzing the voice waveform and displaying the result, it is possible to objectively analyze pronunciation, stress, rhythm, and mouth shape.
하지만, 특허문헌 1에 개시된 내용은 학습자가 학습한 단어 또는 문장의 주파수 특성을 분석하여 학습 성과를 확인하는 것에 불과할 뿐, 학습 전 특정 언어에 대한 듣기 능력을 향상시켜 학습 효율을 향상시킬 수 있는 방안에 대해서는 개시되어 있지 않다. However, the content disclosed in
또한, 대한민국 등록특허 제10-1983772호 '듣기 학습 시스템'(이하, '특허문헌 2'라 함)에서는 제1 주파수 대역의 오디오 신호를 제2 주파수 대역의 오디오 신호로 천이 시켜 특정 주파수 대역에 익숙한 사람들이 다른 주파수 대역을 주로 사용하는 외국어를 잘 들을 수 있게 한다. In addition, in Korean Patent Registration No. 10-1983772 'Listening Learning System' (hereinafter referred to as 'Patent Document 2'), an audio signal of a first frequency band is shifted to an audio signal of a second frequency band so that a person familiar with a specific frequency band It enables people to listen well to foreign languages that mainly use different frequency bands.
하지만, 특허문헌 2에 따르면 외국어의 주파수 대역을 천이 시키면서 학습자가 듣는 문장의 어감이나 어조가 원래의 문장과는 달라져 버리게 된다. 이 경우 그 순간 외국어 문장을 잘 들을 수는 있어도 학습자의 듣기 능력이 더 낮아질 수 있다는 문제가 있다. However, according to Patent Literature 2, while shifting the frequency band of a foreign language, the tone or tone of the sentence heard by the learner becomes different from the original sentence. In this case, there is a problem that the learner's listening ability may be lowered even though he can listen to the foreign language sentence well at that moment.
본 발명은 학습자의 음성, 국적, 성별, 나이 등의 데이터를 토대로 외국인들이 한국어 학습을 할 때 틀리기 쉬운 단어 또는 문장을 집중적으로 학습할 수 있게 하여 학습 효과를 극대화 할 수 있는 음성 분석을 통한 한국어 발음 학습 시스템에 관한 것이다. The present invention is based on data such as the learner's voice, nationality, gender, age, etc., so that foreigners can intensively learn words or sentences that are easy to miss when learning Korean, thereby maximizing the learning effect. Korean pronunciation through voice analysis It is about learning systems.
본 발명은 사용자가 개인정보를 시스템에 업로드하는 단계와, 시스템이 사용자에게 한국 영상 컨텐츠를 제공한 후 발음 평가 문제를 제시한 후 피드백을 요청하는 단계와, 상기 피드백에 대응하여 사용자 음성 데이터가 수집된 후 사용자의 발음이 평가되는 단계와, 사용자 단말기에 상기 사용자 음성 데이터 및 상기 평가 점수가 저장되는 단계와, 일정 주기를 가지고 상기 저장된 평가 점수가 서버에 취합되는 단계와, 서버가 상기 취합된 정보를 이용하여 사용자에게 제공하는 발음 평가 문제를 보정하는 단계를 포함하는 음성 분석을 통한 한국어 발음 학습 방법을 제공한다. The present invention includes the steps of a user uploading personal information to the system, the system providing Korean video content to the user, presenting a pronunciation evaluation problem and requesting feedback, and collecting user voice data in response to the feedback. After the user's pronunciation is evaluated, the user's voice data and the evaluation score are stored in the user terminal, the stored evaluation score is collected in the server at a certain period, and the collected information is collected by the server Provided is a Korean pronunciation learning method through voice analysis, including the step of correcting a pronunciation evaluation problem provided to a user using
본 발명의 일 실시예에 따르면, 상기 사용자 발음 평가는 STT(Speak to text) 기술에 의하여 이루어진다. According to an embodiment of the present invention, the evaluation of the user's pronunciation is performed using STT (Speak to text) technology.
본 발명의 일 실시예에 따르면, 상기 발음 평가는 STT 서버가 외국인의 발음 입력 시 몇 글자를 정확하게 한글로 인식할 수 있는지 여부에 의하여 결정된다. According to an embodiment of the present invention, the pronunciation evaluation is determined by whether or not the STT server can accurately recognize several letters as Hangul when a foreigner inputs pronunciation.
본 발명의 일 실시예에 따르면, 상기 평가 점수는 사용자의 성별, 거주지역, 국적, 연령에 따라 무기명으로 취합된다. According to one embodiment of the present invention, the evaluation scores are collected anonymously according to the user's gender, residence area, nationality, and age.
본 발명의 일 실시예에 따르면, 시스템은 사용자에게 레벨 테스트용 발음 평가 문제를 제시한 후 사용자 레벨을 구분하며, 레벨이 구분된 사용자에게 동일 레벨에 해당하며 성별, 거주지역, 국적, 연령 중 적어도 2이상의 항목이 동일한 사용자들에게 낮은 점수를 받은 발음 평가 문제를 제시한다. According to an embodiment of the present invention, the system classifies user levels after presenting pronunciation evaluation problems for level tests to users, and corresponds to the same level for users who have been classified, and at least among gender, region of residence, nationality, and age. Two or more items present a pronunciation evaluation problem that received a low score to the same users.
본 발명의 일 실시예에 따른 서버에 의해 수행되는 개인화된 발음 평가 문제 제공 방법은, 사용자 단말기로부터 하나 이상의 발음 평가 문제에 대한 사용자의 피드백을 수신하는 단계; 상기 피드백에 기반하여 상기 사용자 단말기에 제공되는 발음 평가 문제를 개인화 하는 단계로써, 상기 사용자의 단어 별 오답률 및 상기 사용자의 모국어의 특성 중 적어도 하나에 기반하여 상기 사용자에게 제공되는 발음 평가 문제를 선택하고; 및 상기 개인화된 발음 평가 문제를 상기 사용자 단말기에 제공하는 단계;를 포함할 수 있다.A method for providing personalized pronunciation evaluation problems performed by a server according to an embodiment of the present invention includes receiving feedback from a user on one or more pronunciation evaluation problems from a user terminal; Personalizing a pronunciation evaluation problem provided to the user terminal based on the feedback, selecting a pronunciation evaluation problem provided to the user based on at least one of an error rate per word of the user and a characteristic of the user's native language; ; and providing the personalized pronunciation evaluation problem to the user terminal.
상기 발음 평가 문제를 개인화 하는 단계는 상기 사용자가 자주 틀리는 단어가 서로 다른 형태로 들어간 하나 이상의 문장을 상기 개인화된 발음 평가 문제로 결정하는 단계;를 포함할 수 있다.The personalizing the pronunciation evaluation problem may include determining one or more sentences in which the user often misspells words in different forms as the personalized pronunciation evaluation problem.
상기 개인화된 발음 평가 문제로 결정하는 단계는 상기 자주 틀리는 단어 뒤에 다른 단어가 오는 문장, 상기 자주 틀리는 단어 뒤에 조사가 오는 문장, 상기 자주 틀리는 단어가 문장의 마지막에 배치된 문장, 상기 자주 틀리는 단어를 포함하는 의문문 형태의 문장 및 상기 자주 틀리는 단어를 포함하는 감탄문 형태의 문장 중 적어도 하나를 상기 개인화된 발음 평가 문제로 결정하는 단계;를 포함할 수 있다.The step of determining the personalized pronunciation evaluation problem includes a sentence in which another word follows the frequently misspelled word, a sentence in which an investigation comes after the frequently incorrect word, a sentence in which the frequently incorrect word is placed at the end of a sentence, and the frequently incorrect word. and determining at least one of a sentence in the form of a question sentence and a sentence in the form of an exclamation sentence including the frequently misspelled word as the personalized pronunciation evaluation problem.
상기 발음 평가 문제를 개인화 하는 단계는 상기 사용자의 모국어 특성의 분석 결과에 기초하여, 한국어와 상기 모국어의 차이에 대한 학습이 강화되도록 상기 개인화된 발음 평가 문제를 결정하는 단계;를 포함할 수 있다.Personalizing the pronunciation evaluation problem may include determining the personalized pronunciation evaluation problem so as to enhance learning about the difference between Korean and the native language, based on an analysis result of the user's native language characteristics.
상기 개인화된 발음 평가 문제를 결정하는 단계는 상기 모국어의 강세 패턴의 주기, 상기 모국어의 발음 시 사용되는 주파수 대역 중 적어도 하나를 고려하여 상기 발음 평가 문제를 결정하는 단계;를 포함할 수 있다.The determining of the personalized pronunciation evaluation problem may include determining the pronunciation evaluation problem in consideration of at least one of a period of a stress pattern of the native language and a frequency band used for pronunciation of the native language.
상기 개인화된 발음 평가 문제를 결정하는 단계는 상기 강세 패턴의 주기를 참조하여, 상기 강세의 위치에 중요 단어를 배치한 학습 문장을 상기 발음 평가 문제로 결정할 수 있다.In the determining of the personalized pronunciation evaluation problem, a learning sentence in which an important word is disposed at a position of the stress may be determined as the pronunciation evaluation problem by referring to the period of the stress pattern.
본 발명에 따르면 사용자의 발음평가 점수 데이터가 메인서버에 복제되고 집계되어 사용자의 성별, 거주지역, 국적, 연령 등에 따라 무기명으로 취합된 후 국가별, 연령별, 성별 등에 따라 자주 틀리는 단어, 문장, 표현 등으로 구분될 수 있으며 전체 이용자들의 발음 시도 회수 중 몇 명의 사용자가 틀리게 발음하는지를 수치화하여 빅데이터 분석을 가능하게 한다. According to the present invention, the user's pronunciation evaluation score data is replicated and aggregated in the main server and collected anonymously according to the user's gender, region of residence, nationality, age, etc., and words, sentences, and expressions that are frequently incorrect according to country, age, gender, etc. It can be divided into categories such as, etc., and it quantifies how many users pronounce incorrectly among the number of pronunciation attempts of all users, enabling big data analysis.
또한, 본 발명은 사용자의 국적, 성별, 나이 등을 정확하게 입력하면 비슷한 사용자 이용 환경에서 어려워하는 발음, 문장과 표현 등을 집중 훈련할 수 있는 효과가 있다.In addition, according to the present invention, if the user's nationality, gender, age, etc. are accurately input, pronunciation, sentences and expressions that are difficult in a similar user environment can be intensively trained.
도 1은 본 발명의 일 실시예에 따른 음성 분석을 통한 한국어 발음 학습 시스템의 개념도.
도 2는 본 발명의 일 실시예에 따른 음성 분석을 통한 한국어 발음 학습 방법의 순서도.
도 3은 빅데이터 분석을 통해 학습자에게 맞춤형으로 제공되는 컨텐츠의 일 실시예를 나타내는 개념도.
도 4는 맞춤형 컨텐츠 제공을 위한 발음 패턴 분석의 일 실시예를 나타내는 개념도.1 is a conceptual diagram of a Korean pronunciation learning system through voice analysis according to an embodiment of the present invention.
2 is a flowchart of a Korean pronunciation learning method through voice analysis according to an embodiment of the present invention.
3 is a conceptual diagram illustrating an embodiment of content customized to learners through big data analysis;
4 is a conceptual diagram illustrating an embodiment of pronunciation pattern analysis for providing customized content;
이하, 본 발명에 대하여 도면을 참조하여 보다 상세하게 설명한다. 본 명세서에서는 서로 다른 실시예라도 동일·유사한 구성에 대해서는 동일·유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Hereinafter, the present invention will be described in more detail with reference to the drawings. In this specification, the same or similar reference numerals are assigned to the same or similar components even in different embodiments, and the description is replaced with the first description. Singular expressions used herein include plural expressions unless the context clearly dictates otherwise.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves.
도 1은 본 발명의 일 실시예에 따른 음성 분석을 통한 한국어 발음 학습 시스템의 개념도이다. 1 is a conceptual diagram of a Korean pronunciation learning system through voice analysis according to an embodiment of the present invention.
본 발명의 시스템에 따르면 학습자에게 맞춤형 발음 학습 컨텐츠를 제공하여 외국인 학습자가 한국어에 대한 듣기/말하기 능력을 향상시킬 수 있게 한다. According to the system of the present invention, customized pronunciation learning contents are provided to learners so that foreign learners can improve their listening/speaking skills in Korean.
학습자들은 사용자 단말기를 통해 언어 학습 컨텐츠를 제공받을 수 있다. 사용자 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등의 이동 단말기나 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기가 포함될 수 있다. Learners may receive language learning content through a user terminal. User terminals include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, slate PCs, and tablet PCs. PC), ultrabook, wearable device (e.g., watch type terminal (smartwatch), glass type terminal (smart glass), HMD (head mounted display)), digital TV, desktop Fixed terminals such as computers and digital signage may be included.
도 1을 참조하면, 시스템(100)은 제어모듈(110)과, 데이터수집모듈(120)과, 데이터베이스(130)와, 문장 생성 모듈(140), 분석모듈(150) 등을 포함할 수 있다. Referring to FIG. 1 , the
이하에서는 설명의 편의를 위해 각 모듈을 구분하여 설명하고 있지만 실제 제어모듈(110)이 다른 모듈들을 기능을 포함하도록 형성되는 것이 가능하다. Hereinafter, although each module is separately described for convenience of description, it is possible that the
도 1에서는 시스템이 서버, 사용자 단말기와 분리된 것으로 도시되어 있지만, 본 발명에서 지칭하는 시스템(100)은 상기 모듈들을 포함하는 특정 서버 또는 상기 모듈들을 포함하는 사용자 단말기일 수 있다. Although the system is shown as being separated from a server and a user terminal in FIG. 1, the
예를 들어, 중앙 서버를 통해 분석이 이루어진 후 사용자 단말기로 컨텐츠가 전달되거나, 응용프로그램(어플리케이션)이 설치된 사용자 단말기에서 분석 및 컨텐츠 실행이 이루어질 수도 있다.For example, content may be delivered to a user terminal after analysis is performed through a central server, or analysis and content execution may be performed in a user terminal in which an application program (application) is installed.
본 발명에서는 제어모듈이 분석모듈, 문장 생성 모듈 등을 통해 생성된 읽기 요청 문장을 학습자에게 제공하여 한국어 듣기/말하기 능력을 향상시킬 수 있다. In the present invention, the control module can improve Korean listening/speaking ability by providing the learner with a reading request sentence generated through an analysis module, a sentence generation module, and the like.
데이터수집모듈(120)은 온라인 상에 노출되는 문장에 대한 데이터를 수집하여 사용자 단말기에 공급할 수 있다. The
데이터베이스(130)에는 시스템(100)을 구동시키기 위한 각종 데이터들이 저장된다. 예를 들어, 데이터베이스(130)에는 단어들에 대응되는 복수의 음성 데이터들이 저장될 수 있다. 또한, 데이터베이스(130)에는 언어별 사용 주파수 대역에 대한 정보와, 특정 지문에서 사용되는 주파수 대역에 대한 정보 등이 저장될 수 있다. Various data for driving the
또한, 데이터베이스에는 사용자들이 시스템이 제공하는 발음 피드백에 따라 평가 받은 평가 점수 데이터(131)와, 사용자들이 시스템의 피드백에 따라 사용자 단말기에 저장해 두었던 음성 데이터(131)도 저장될 수 있다. In addition,
문장 생성 모듈(140)은 사용자 개인 정보 또는 데이터베이스에 보관된 빅데이터 분석 결과를 토대로 학습자에게 제공하는 따라 읽기 요청 문장을 생성한다. The
도 2는 본 발명의 일 실시예에 따른 음성 분석을 통한 한국어 발음 학습 방법의 순서도이다. 2 is a flowchart of a Korean pronunciation learning method through voice analysis according to an embodiment of the present invention.
도 2를 참조하면, 한국어 발음 학습 방법은 한국 영상 컨텐츠를 제공하고 사용자에게 발음 피드백을 요청하는 단계(S100)와, STT 시스템을 통해 사용자의 발음을 평가하는 단계(S200)와, 사용자 단말기에 사용자의 발음과 평가 데이터를 저장하는 단계(S300)와, 메인서버에 사용자들의 데이터들을 취합하는 단계(S400)와, 취합된 빅데이터를 분석한 후 사용자별로 커스터마이징 하여 제공하는 단계(S500) 등을 포함할 수 있다. Referring to FIG. 2, the Korean pronunciation learning method includes providing Korean video content and requesting pronunciation feedback from the user (S100), evaluating the user's pronunciation through the STT system (S200), and providing the user terminal with the user. Including the step of storing pronunciation and evaluation data of (S300), the step of collecting users' data in the main server (S400), and the step of customizing and providing data for each user after analyzing the collected big data (S500). can do.
학습자는 학습을 시작하기 전 본인의 국적, 성별, 나이 등의 개인 정보를 입력할 수 있다. Learners can enter personal information such as their nationality, gender, and age before starting learning.
시스템은 학습자 개인정보와 서버(또는 데이터베이스)에 저장된 학습 관련 빅데이터를 분석하여 학습자 개인에게 커스터마이징 된 학습 컨텐츠를 제공한다. The system analyzes learner personal information and learning-related big data stored in the server (or database) to provide customized learning contents to individual learners.
한국어 발음 학습 방법은 한국 영상 컨텐츠를 제공하고 사용자에게 발음 피드백을 요청하는 단계(S100)에서는 데이터수집모듈(120)을 통해 수집된 한국어 영상 컨텐츠 또는 어플리케이션을 통해 사용자 단말기에 저장된 한국어 영상 컨텐츠가 사용자에게 제공된다. Korean pronunciation learning method provides Korean video contents and requests pronunciation feedback from the user (S100), Korean video contents collected through the
학습자가 영상을 시청한 후 시스템은 학습자에게 문장 생성 모듈(140)이 생성한 문장에 대한 발음 피드백을 요청한다. After the learner watches the video, the system requests pronunciation feedback on the sentence generated by the
STT 시스템을 통해 사용자의 발음을 평가하는 단계(S200)에서는 글로벌 발음 평가 시스템 (구글, 마인즈랩 등 전문 AI 개발사) 들이 제공하는 STT(Speak to Text) 기술을 이용하여 어플리케이션을 사용하는 외국인 사용자들이 한국어를 얼마나 정확하게 발음하는지를 평가한다. In the step of evaluating the user's pronunciation through the STT system (S200), foreign users using the application use STT (Speak to Text) technology provided by global pronunciation evaluation systems (Professional AI developers such as Google and Minds Lab) Evaluate how accurately you pronounce it.
발음 평가 기준은 사용자 단말기의 마이크를 통하여 입력된 외국인의 발음을 STT 시스템을 이용하여 어플리케이션에서 제시한 따라 읽기 요청 문장을 STT API 를 통해 서버로 전송한 후 STT 서버를 통해 외국인의 발음을 입력하였을 때 몇 글자를 정확하게 한글로 인식할 수 있는지를 수치로 평가하는 방법을 이용한다.The pronunciation evaluation criterion is when a foreigner's pronunciation input through the microphone of the user terminal is transmitted to the server through the STT API according to the reading request sentence suggested by the application using the STT system, and then the foreigner's pronunciation is input through the STT server. A method of numerically evaluating how many characters can be accurately recognized as Hangul is used.
사용자 단말기에 사용자의 발음과 평가 데이터를 저장하는 단계(S300)에서 어플리케이션은 외국인 사용자가 발음한 음성 데이터를 사용자의 모바일 기기 안에 보관한다. In the step of storing the user's pronunciation and evaluation data in the user terminal (S300), the application stores the voice data pronounced by the foreign user in the user's mobile device.
시스템은 사용자가 본인 발음 다시 듣기를 지원하는 음성 데이터 저장 공간 및 발음 평가 점수를 저장하는 발음 평가 점수 데이터 저장 공간을 생성하고, 외국인 사용자가 발음을 반복하여 훈련할 때마다 원음 음성 데이터를 음성 데이터 저장 공간에 압축 보관한다. The system creates a voice data storage space that supports users to listen to their own pronunciation again and a pronunciation evaluation point data storage space that stores pronunciation evaluation scores, and stores the original sound voice data whenever a foreign user repeats pronunciation training. compressed into space.
평가 점수 역시 발음 시점 및 문장에 맞춰 점수 관리 공간에 동시에 히스토리형으로 저장된다. 이 데이터는 히스토리에 맞춰 본인이 다시 들어보고 발음을 교정하는데 사용된다. The evaluation score is also stored in a history type at the same time in the score management space according to the pronunciation time and sentence. This data is used to listen again and correct pronunciation according to the history.
메인서버에 사용자들의 데이터들을 취합하는 단계(S400)에서는 사용자 단말기에 저장된 평가 점수 데이터가 서버로 전송된다. In the step of collecting user data in the main server (S400), the evaluation score data stored in the user terminal is transmitted to the server.
어플리케이션 설치 시 평가 점수 데이터의 통계적 사용(어플리케이션 기능 및 문장 추천 서비스 개선을 위한 무기명 데이터의 활용) 에 대한 사용자의 동의를 사전에 받게 되며, 특정 시점(Ex. Wi-Fi 환경 접속 시)에 사용자의 발음평가 점수 데이터가 메인서버에 복제되고 집계된다. 이 평가 데이터는 사용자의 성별, 거주지역, 국적, 연령 등에 따라 무기명으로 취합될 수 있다. When installing the application, the user's consent is obtained in advance for the statistical use of evaluation score data (use of anonymous data to improve application function and sentence recommendation service), and at a specific point in time (Ex. Wi-Fi environment access) Pronunciation evaluation score data is replicated and aggregated on the main server. This evaluation data can be anonymously collected according to the user's gender, region of residence, nationality, age, etc.
취합된 빅데이터를 분석한 후 사용자별로 커스터마이징 하여 제공하는 단계(S500)에서는 사용자의 개인정보에 따라 최적화된 컨텐츠를 제공한다. After analyzing the collected big data, in step S500, which is customized for each user and provided (S500), optimized content is provided according to the user's personal information.
예를 들어, 학습자가 베트남 국적의 20대 여성이라면 시스템은 S300 단계에서 취합된 데이터 분석을 통해 베트남 국적의 20대 여성들이 자주 틀리는 발음(ex.'운명')을 포함하는 문장을 학습자에게 제시한다(도 3참조). For example, if the learner is a female of Vietnamese nationality in her 20s, the system presents a sentence containing a pronunciation (ex. 'destiny') that Vietnamese women in their 20s often make incorrectly through data analysis collected in step S300. (See Figure 3).
또한, 본 발명의 일 실시예에 따르면 자주 틀리는 단어가 다른 형태로 들어가 있는 문장들을 순차적으로 제시하여 발음의 변화 방식을 체득할 수 있게 할 수 있다. 예를 들어, 시스템은 선택된 단어의 뒤에 다른 단어가 오는 경우, 선택된 단어 뒤에 조사가 오는 경우, 선택된 단어가 문장의 마지막에 오는 경우, 선택된 단어가 의문문에 들어간 경우, 선택된 단어가 감탄문에 들어간 경우 등 다양한 형태의 문장을 학습자에게 제시할 수 있다. In addition, according to an embodiment of the present invention, it is possible to learn how to change pronunciation by sequentially presenting sentences in which frequently misspelled words are entered in different forms. For example, the system determines if the selected word is followed by another word, if the selected word is followed by an investigation, if the selected word is at the end of a sentence, if the selected word is in an interrogative sentence, if the selected word is in an exclamation sentence, etc. Various types of sentences can be presented to learners.
또한, 본 발명의 다른 실시예에 따르면 시스템은 학습자가 주로 사용하는 언어의 발음 패턴을 분석하여 학습 컨텐츠를 제공하는 것이 가능하다. In addition, according to another embodiment of the present invention, the system can provide learning content by analyzing a pronunciation pattern of a language mainly used by a learner.
도 4는 맞춤형 컨텐츠 제공을 위한 발음 패턴 분석의 일 실시예를 나타내는 개념도이다. 4 is a conceptual diagram illustrating an embodiment of pronunciation pattern analysis for providing customized content.
도 4를 참조하면, 주기적으로 강세를 가지는 언어(영어 등)를 사용하는 사용자에게 익숙한 발음 패턴을 확인할 수 있다. 여기서 Δt는 강세 패턴의 메인 주기를 의미한다. Referring to FIG. 4 , it is possible to check a pronunciation pattern familiar to a user who uses a language (such as English) with a periodic stress. Here, Δt means the main period of the bullish pattern.
시스템은 사용자가 모국어로 사용하는 언어의 주된 주파수 대역 및 강세 패턴을 분석하여 한국어의 그것과 차이가 나는 문장 성분에 대한 학습을 강화하는 것이 가능하다. The system analyzes the main frequency band and stress pattern of the language used by the user in the native language to reinforce learning about sentence components that differ from those of Korean.
주파수대역 사운드를 이용하여 한국어 듣기/말하기 능력 향상시키는 원리는 다음과 같다. The principle of improving Korean listening/speaking ability using frequency band sounds is as follows.
각 나라의 언어는 언어별로 사용하는 주파수가 상이하다.Each country's language uses a different frequency for each language.
예를 들어, 한국어에서는 500 내지 2200 Hz 대역의 소리를 사용하여 의사소통을 하는 반면, 영어(미국식)에서는 800 내지 3500 Hz 대역의 소리를 사용하여 의사소통을 한다. For example, in Korean, sounds in the 500 to 2200 Hz band are used for communication, whereas in English (American style), sounds in the 800 to 3500 Hz band are used for communication.
각국의 사람들은 자기가 사용하는 언어의 주파수 대역에 익숙해지며, 이 주파수 대역을 벗어나는 소리는 잘 인지하지 못하게 된다. 이로 인해 같은 소리도 사람마다 다르게 들릴 수 있다. 소리를 듣지 못하면 그 소리를 내는 것도 불가능하기 때문에 위와 같이 잘 들을 수 있는 주파수 대역의 차이는 모국어가 아닌 언어를 배우는데 장애가 될 수 있다. People in each country become accustomed to the frequency band of the language they use, and they do not recognize sounds outside this frequency band. Because of this, the same sound can be heard differently from person to person. Since it is impossible to make the sound without hearing it, the difference in frequency bands that can be heard well as above can be an obstacle to learning a language other than the mother tongue.
그런데 배우려는 언어가 사용하는 주파수가 주로 사용하는 언어의 주파수와 다른 경우 주로 사용하는 언어의 주파수에서 벗어나는 주파수 부분에 대해서는 정확히 듣지 못하게 되며, 그로 인해 발음하기도 어려워진다. However, if the frequency used in the language to be learned is different from the frequency of the language mainly used, it is impossible to accurately hear the frequency part that deviate from the frequency of the language mainly used, and it becomes difficult to pronounce as a result.
예를 들어, 한국 사람은 평상시에 500 내지 2200 Hz의 소리를 사용하기 때문에 영어(미국식)에서 사용하는 800 내지 3500 Hz 중 겹치지 않는 2200 내지 3500 Hz 사이의 소리가 정확하게 들리지 않거나 구분이 어렵게 된다. For example, since Koreans usually use sounds between 500 and 2200 Hz, sounds between 2200 and 3500 Hz, which do not overlap among 800 to 3500 Hz used in English (American style), cannot be heard accurately or are difficult to distinguish.
이러한 원리를 활용하여 시스템은 학습자의 모국어에서 주로 사용하는 주파수 대역에서 벗어난 단어 또는 문장에 대한 학습을 강화할 수 있다. Using this principle, the system can reinforce learning for words or sentences that are out of the frequency band mainly used in the learner's native language.
또한, 언어의 종류는 일정 간격으로 반복되는 운율(문장에서 강세의 주기가 없음)이 없이 단순히 음절이 나열되는 실러블 랭귀지(syllable language)와 일정한 패턴의 운율(문장에서 일정한 주기의 강세가 반복되어 나타남)이 존재하는 스트레스 랭귀지(stress language)로 나뉠 수 있다. In addition, the types of language include syllable language in which syllables are simply arranged without rhyme (without stress cycles in sentences) repeated at regular intervals, and rhyme in regular patterns (stress cycles are repeated in sentences). It can be divided into the stress language in which (appears) exists.
스트레스 랭귀지에서는 상황에 따라 음절의 길이는 상이하지만 스트레스(강세)를 주는 간격이 일정하다. 즉, 스트레스를 주는 음절끼리의 시간 간격이 비슷하고 그 사이 음절들은 몇 개가 들어가던 시간 간격을 맞추기 위해 압축되어 발음된다. In stressed language, the length of syllables varies depending on the situation, but the stress (stress) interval is constant. That is, the time intervals between the stressed syllables are similar, and the syllables in between are compressed and pronounced to match the time intervals of several stressed syllables.
분석모듈은 언어종류 분석모듈과 강세 패턴 분석모듈을 포함하여 문장이 어느 국가의 언어에 해당하는지, 상기 언어가 스트레스 랭귀지에 해당하는지, 그리고 문장에서 강세 패턴이 어떻게 되는지를 분석한다. The analysis module includes a language type analysis module and a stress pattern analysis module to analyze which language the sentence corresponds to, whether the language corresponds to a stress language, and what the stress pattern is in the sentence.
구체적으로, 분석모듈은 외국인이 사용하는 언어의 종류, 단어, 어순 등의 데이터에 기반하여 문장이 어떤 종류의 언어로 이루어졌는지와 해당 언어에 대한 수집 데이터를 기반으로 해당 언어가 실러블 랭귀지에 속하는지 스트레스 랭귀지에 속하는지를 판단할 수 있다. Specifically, the analysis module analyzes what kind of language the sentence is made of based on data such as the type of language used by foreigners, words, word order, etc. It can be judged whether it belongs to the stress language.
분석모듈은 문장의 음성출력 데이터를 분석하여 화자가 문장을 끊어 읽는 위치, 출력되는 dB 값, 성조나 억양 등을 분석하여 학습자가 청취하고자 하는 문장의 강세 패턴을 판단할 수 있다. The analysis module analyzes the speech output data of the sentence to determine the accent pattern of the sentence the learner wants to listen to by analyzing the position where the speaker cuts and reads the sentence, the output dB value, tone or intonation, etc.
강세 패턴의 주기는 사용자 또는 문장마다 다소 차이가 있을 수 있지만 시스템은 수집된 해당 외국어 문장들의 주기의 평균 또는 가장 높은 빈도로 발생하는 주기를 메인 주기로 파악하는 것이 가능하다. Although the period of the stress pattern may be slightly different for each user or each sentence, the system can determine the average period of collected foreign language sentences or a period that occurs with the highest frequency as the main period.
시스템은 이러한 메인 주기에 해당하는 위치에 중요 단어를 배치하여 학습자에게 제공하여 학습자가 익숙하게 한국어 문장을 학습할 수 있게 할 수도 있다. The system may place important words at positions corresponding to these main cycles and provide them to learners so that learners can learn Korean sentences with familiarity.
위에서 살펴본 본 발명의 실시예들에 따르면, 사용자의 발음평가 점수 데이터가 메인서버에 복제되고 집계되어 사용자의 성별, 거주지역, 국적, 연령 등에 따라 무기명으로 취합된 후 국가별, 연령별, 성별 등에 따라 자주 틀리는 단어, 문장, 표현 등으로 구분될 수 있으며 전체 이용자들의 발음 시도 회수 중 몇 명의 사용자가 틀리게 발음하는지를 수치화하여 빅데이터 분석을 가능하게 하며, 사용자의 국적, 성별, 나이 등을 정확하게 입력하면 비슷한 사용자 이용 환경에서 어려워하는 발음, 문장과 표현 등을 집중 훈련할 수 있는 등 종래 기술과는 차별되는 효과를 기대할 수 있다. According to the embodiments of the present invention described above, the user's pronunciation evaluation score data is replicated and aggregated in the main server, collected anonymously according to the user's gender, residential area, nationality, age, etc., and then classified according to country, age, gender, etc. It can be classified into frequently misspelled words, sentences, expressions, etc., and it quantifies how many users pronounce incorrectly out of the total number of pronunciation attempts of all users, enabling big data analysis. Differentiating effects from the prior art can be expected, such as intensive training of pronunciation, sentences and expressions, etc., which are difficult in the user environment.
이상에서 설명한 본 발명은 위에서 설명된 실시예들의 구성과 방법에 한정되는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The present invention described above is not limited to the configuration and method of the embodiments described above, but the embodiments may be configured by selectively combining all or part of each embodiment so that various modifications can be made.
100 : 시스템 110 : 제어모듈
120 : 데이터수집모듈 130 : 데이터베이스
131 : 평가 점수 데이터 132 : 음성 데이터
140 : 문장생성모듈 150 : 분석모듈
151 : 발음 분석 모듈 152 : 사용자 분석 모듈100: system 110: control module
120: data collection module 130: database
131: evaluation score data 132: voice data
140: sentence generation module 150: analysis module
151: pronunciation analysis module 152: user analysis module
Claims (6)
사용자 단말기로부터 하나 이상의 발음 평가 문제에 대한 사용자의 피드백을 수신하는 단계;
상기 피드백에 기반하여 상기 사용자 단말기에 제공되는 발음 평가 문제를 개인화 하는 단계로써, 상기 사용자의 단어 별 오답률 및 상기 사용자의 모국어의 특성 중 적어도 하나에 기반하여 상기 사용자에게 제공되는 발음 평가 문제를 선택하고; 및
상기 개인화된 발음 평가 문제를 상기 사용자 단말기에 제공하는 단계;를 포함하고,
상기 발음 평가 문제를 개인화 하는 단계는
상기 모국어의 강세 패턴의 주기를 참조하여, 상기 모국어의 강세의 위치에 중요 단어를 배치한 학습 문장을 상기 발음 평가 문제로 결정하는 단계;를 포함하는, 개인화된 발음 평가 문제 제공 방법.A method for providing personalized pronunciation evaluation problems performed by a server,
receiving user feedback on one or more pronunciation evaluation problems from a user terminal;
Personalizing a pronunciation evaluation problem provided to the user terminal based on the feedback, selecting a pronunciation evaluation problem provided to the user based on at least one of an error rate per word of the user and a characteristic of the user's native language; ; and
Including; providing the personalized pronunciation evaluation problem to the user terminal;
The step of personalizing the pronunciation evaluation problem is
and determining, as the pronunciation evaluation problem, a learning sentence in which an important word is disposed at a position of stress in the native language with reference to a period of the stress pattern of the native language.
상기 발음 평가 문제를 개인화 하는 단계는
상기 사용자가 자주 틀리는 단어가 서로 다른 형태로 들어간 하나 이상의 문장을 상기 개인화된 발음 평가 문제로 결정하는 단계;를 포함하는, 개인화된 발음 평가 문제 제공 방법.According to claim 1,
The step of personalizing the pronunciation evaluation problem is
and determining, as the personalized pronunciation evaluation problem, one or more sentences in which words that the user frequently misses are included in different forms.
상기 개인화된 발음 평가 문제로 결정하는 단계는
상기 자주 틀리는 단어 뒤에 다른 단어가 오는 문장, 상기 자주 틀리는 단어 뒤에 조사가 오는 문장, 상기 자주 틀리는 단어가 문장의 마지막에 배치된 문장, 상기 자주 틀리는 단어를 포함하는 의문문 형태의 문장 및 상기 자주 틀리는 단어를 포함하는 감탄문 형태의 문장 중 적어도 하나를 상기 개인화된 발음 평가 문제로 결정하는 단계;를 포함하는, 개인화된 발음 평가 문제 제공 방법.According to claim 2,
The step of determining the personalized pronunciation evaluation problem
A sentence in which another word follows the frequently misspelled word, a sentence in which an investigation is followed by the frequently misspelled word, a sentence in which the frequently misspelled word is placed at the end of a sentence, a sentence in question form including the frequently misspelled word, and the frequently misspelled word and determining at least one of exclamatory sentences as the personalized pronunciation evaluation problem.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220031498A KR102542602B1 (en) | 2019-12-31 | 2022-03-14 | Method for providing personalized problems for pronunciation evaluation |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190179952A KR102396833B1 (en) | 2019-12-31 | 2019-12-31 | System and method for studying korean pronunciation using voice analysis |
KR1020220031498A KR102542602B1 (en) | 2019-12-31 | 2022-03-14 | Method for providing personalized problems for pronunciation evaluation |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190179952A Division KR102396833B1 (en) | 2019-12-31 | 2019-12-31 | System and method for studying korean pronunciation using voice analysis |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220039679A KR20220039679A (en) | 2022-03-29 |
KR102542602B1 true KR102542602B1 (en) | 2023-06-14 |
Family
ID=76686944
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190179952A KR102396833B1 (en) | 2019-12-31 | 2019-12-31 | System and method for studying korean pronunciation using voice analysis |
KR1020220031498A KR102542602B1 (en) | 2019-12-31 | 2022-03-14 | Method for providing personalized problems for pronunciation evaluation |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190179952A KR102396833B1 (en) | 2019-12-31 | 2019-12-31 | System and method for studying korean pronunciation using voice analysis |
Country Status (2)
Country | Link |
---|---|
KR (2) | KR102396833B1 (en) |
WO (1) | WO2021137534A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230018095A (en) | 2021-07-29 | 2023-02-07 | 케이랩 주식회사 | Method of Korean Postposition Study for Non-native Learners |
KR102631382B1 (en) * | 2023-06-16 | 2024-01-31 | 주식회사 미카 | System for providing korean education service for korean native speaker |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003066818A (en) * | 2001-08-27 | 2003-03-05 | Advanced Telecommunication Research Institute International | Foreign language learning device |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100238451B1 (en) * | 1997-12-02 | 2000-01-15 | 정선종 | A computer aided education system and control techniques for korean |
KR100405061B1 (en) | 2000-03-10 | 2003-11-10 | 문창호 | Apparatus for training language and Method for analyzing language thereof |
KR20040073291A (en) * | 2004-01-08 | 2004-08-19 | 정보통신연구진흥원 | appraisal system of foreign language pronunciation and method thereof |
KR101048214B1 (en) * | 2008-12-30 | 2011-07-08 | 주식회사 케이티 | Pronunciation Correction Service Device Using Social Learning and Semantic Technology |
KR101071392B1 (en) * | 2009-04-16 | 2011-10-12 | 전일호 | Learner centered foreign language Education system and its teaching method |
KR101211796B1 (en) * | 2009-12-16 | 2012-12-13 | 포항공과대학교 산학협력단 | Apparatus for foreign language learning and method for providing foreign language learning service |
KR20160008949A (en) * | 2014-07-15 | 2016-01-25 | 한국전자통신연구원 | Apparatus and method for foreign language learning based on spoken dialogue |
KR101983772B1 (en) | 2016-02-26 | 2019-05-29 | 소리노리닷컴(주) | Learning system for listening |
KR20190041772A (en) * | 2017-10-13 | 2019-04-23 | 주식회사 하얀마인드 | Apparatus and method for evaluating linguistic performance based on silence interval using comparison with other users |
-
2019
- 2019-12-31 KR KR1020190179952A patent/KR102396833B1/en active IP Right Grant
-
2020
- 2020-12-24 WO PCT/KR2020/019110 patent/WO2021137534A1/en active Application Filing
-
2022
- 2022-03-14 KR KR1020220031498A patent/KR102542602B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003066818A (en) * | 2001-08-27 | 2003-03-05 | Advanced Telecommunication Research Institute International | Foreign language learning device |
Also Published As
Publication number | Publication date |
---|---|
KR102396833B1 (en) | 2022-05-13 |
WO2021137534A1 (en) | 2021-07-08 |
KR20210086182A (en) | 2021-07-08 |
KR20220039679A (en) | 2022-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Investigating college EFL learners’ perceptions toward the use of Google Assistant for foreign language learning | |
US20190385480A1 (en) | System to evaluate dimensions of pronunciation quality | |
US6953343B2 (en) | Automatic reading system and methods | |
KR102321194B1 (en) | Computing technologies for diagnosis and therapy of language-related disorders | |
US10121388B2 (en) | Methods, systems, and apparatuses to convey chorded input | |
KR102542602B1 (en) | Method for providing personalized problems for pronunciation evaluation | |
Bashori et al. | ‘Look, I can speak correctly’: learning vocabulary and pronunciation through websites equipped with automatic speech recognition technology | |
JP2005517213A5 (en) | ||
Fager et al. | Evaluation of a speech recognition prototype for speakers with moderate and severe dysarthria: A preliminary report | |
US11210964B2 (en) | Learning tool and method | |
US20160045142A1 (en) | Hearing examination device, hearing examination method, and method for generating words for hearing examination | |
KR20210003326A (en) | System for language study service for learning korean as a foreign language | |
Strange et al. | Cross-language categorization of French and German vowels by naïve American listeners | |
de Vargas et al. | Speaking haptically: from phonemes to phrases with a mobile haptic communication system | |
KR102389153B1 (en) | Method and device for providing voice responsive e-book | |
Chen | Acoustic analyses and intelligibility assessments of timing patterns among Chinese English learners with different dialect backgrounds | |
KR20140004541A (en) | Method for providing foreign language phonics training service based on feedback for each phoneme using speech recognition engine | |
KR101333946B1 (en) | Apparatus for studying engligh speaking based on drawing method using smart device | |
US11562819B2 (en) | Method and system for determining and improving behavioral index | |
KR20080100857A (en) | Service system for word repetition study using round type | |
Walesiak | Mobile apps for pronunciation training | |
Viebahn et al. | Where is the disadvantage for reduced pronunciation variants in spoken-word recognition? On the neglected role of the decision stage in the processing of word-form variation | |
KR102236861B1 (en) | Language acquisition assistance system using frequency bands by language | |
JP7537464B2 (en) | Information processing device, information processing system, information processing method, and program | |
KR102685537B1 (en) | Method and system for providing online education contents for rehabilitation of hearing loss patients |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |