KR102542602B1 - Method for providing personalized problems for pronunciation evaluation - Google Patents

Method for providing personalized problems for pronunciation evaluation Download PDF

Info

Publication number
KR102542602B1
KR102542602B1 KR1020220031498A KR20220031498A KR102542602B1 KR 102542602 B1 KR102542602 B1 KR 102542602B1 KR 1020220031498 A KR1020220031498 A KR 1020220031498A KR 20220031498 A KR20220031498 A KR 20220031498A KR 102542602 B1 KR102542602 B1 KR 102542602B1
Authority
KR
South Korea
Prior art keywords
user
pronunciation
sentence
pronunciation evaluation
evaluation problem
Prior art date
Application number
KR1020220031498A
Other languages
Korean (ko)
Other versions
KR20220039679A (en
Inventor
송진주
Original Assignee
(주)헤이스타즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)헤이스타즈 filed Critical (주)헤이스타즈
Priority to KR1020220031498A priority Critical patent/KR102542602B1/en
Publication of KR20220039679A publication Critical patent/KR20220039679A/en
Application granted granted Critical
Publication of KR102542602B1 publication Critical patent/KR102542602B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • G09B7/04Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 사용자가 개인정보를 시스템에 업로드하는 단계와, 시스템이 사용자에게 한국 영상 컨텐츠를 제공한 후 발음 평가 문제를 제시한 후 피드백을 요청하는 단계와, 상기 피드백에 대응하여 사용자 음성 데이터가 수집된 후 사용자의 발음이 평가되는 단계와, 사용자 단말기에 상기 사용자 음성 데이터 및 상기 평가 점수가 저장되는 단계와, 일정 주기를 가지고 상기 저장된 평가 점수가 서버에 취합되는 단계와, 서버가 상기 취합된 정보를 이용하여 사용자에게 제공하는 발음 평가 문제를 보정하는 단계를 포함하는 음성 분석을 통한 한국어 발음 학습 방법을 제공한다. The present invention includes the steps of a user uploading personal information to the system, the system providing Korean video content to the user, presenting a pronunciation evaluation problem and requesting feedback, and collecting user voice data in response to the feedback. After the user's pronunciation is evaluated, the user's voice data and the evaluation score are stored in the user terminal, the stored evaluation score is collected in the server at a certain period, and the collected information is collected by the server Provided is a Korean pronunciation learning method through voice analysis, including the step of correcting a pronunciation evaluation problem provided to a user using

Description

개인화된 발음 평가 문제 제공 방법{Method for providing personalized problems for pronunciation evaluation}Method for providing personalized pronunciation evaluation problems {Method for providing personalized pronunciation evaluation problems}

본 발명은 한국어 발음 학습 방법 및 시스템에 관한 것으로서, 보다 자세하게는 학습자의 음성, 국적, 성별, 나이 등의 데이터를 토대로 외국인들이 한국어 학습을 할 때 틀리기 쉬운 단어 또는 문장을 집중적으로 학습할 수 있게 하여 학습 효과를 극대화 할 수 있는 음성 분석을 통한 한국어 발음 학습 시스템에 관한 것이다.The present invention relates to a method and system for learning Korean pronunciation, and more specifically, based on data such as voice, nationality, gender, age, etc. It is about a Korean pronunciation learning system through voice analysis that can maximize the learning effect.

세계에는 다양한 언어가 존재하며 언어마다 강세, 억양, 성조 등 서로 다른 특징을 갖기 때문에 그 사람이 살아온 환경에 따라 잘 듣고 말할 수 있는 단어(문장)와 잘 듣지 못하고 말하기도 어려운 단어(문장)가 존재한다. There are various languages in the world, and each language has different characteristics such as stress, intonation, and intonation. Depending on the environment in which the person has lived, there are words (sentences) that can be heard and spoken well, and words (sentences) that are difficult to hear and difficult to speak. do.

이는 인종에 따른 귀의 해부학적인 구조 뿐 아니라 후천적인 상황에도 많은 영향을 받는 것으로 언어 사용 환경에 따라 사람들은 특정 발음을 더 잘 듣거나 말할 수 있게 될 수 있다. This is influenced not only by the anatomical structure of the ear according to race, but also by acquired circumstances, and depending on the environment in which language is used, people may be able to hear or speak certain pronunciations better.

후천적인 변화는 사람의 생활 환경에 기인한다. 즉, 사람의 청각은 자주 듣는 소리는 더 잘 듣도록 하고, 평소 잘 듣지 않는 소리는 잘 들리지 않도록 조절한다. 예를 들어, 사람의 신체구조 중 '중이'는 평소 잘 듣지 않는 소리는 귀를 보호하기 위해 차단한다. 평소 잘 듣지 않는 주파수 대역의 소리에는 무뎌지게 되는 것이다. Acquired changes are caused by a person's living environment. In other words, the human hearing adjusts to hear sounds that are often heard more clearly and not to hear sounds that are not normally heard. For example, the 'middle ear' of a person's body structure blocks sounds that are not normally heard to protect the ears. It becomes insensitive to sounds in a frequency band that is not normally heard.

언어마다 또는 사람마다 말을 할 때 발음이나 억양이 서로 다르기 때문에 상기와 같은 특성을 이용하여 듣기 능력을 향상시키는 것이 가능하다. Since pronunciation or intonation differs from language to language or from person to person, it is possible to improve listening ability by using the characteristics described above.

대한민국 등록특허 제10-0405061호 '언어 학습장치 및 그것의 언어 분석방법'(이하 '특허문헌 1'이라 함)에서는 학습자가 학습한 단어 또는 문장에 대한 발음을 분석하며, 강세와 리듬을 포락선을 갖는 보이스 파형으로 분석하여 그 결과를 표시해줌으로써, 발음과 강세, 리듬 및 입 모양 등을 객관적으로 분석할 수 있게 한다. Republic of Korea Patent Registration No. 10-0405061 'Language learning device and its language analysis method' (hereinafter referred to as 'Patent Document 1') analyzes the pronunciation of a word or sentence learned by a learner, and measures the stress and rhythm By analyzing the voice waveform and displaying the result, it is possible to objectively analyze pronunciation, stress, rhythm, and mouth shape.

하지만, 특허문헌 1에 개시된 내용은 학습자가 학습한 단어 또는 문장의 주파수 특성을 분석하여 학습 성과를 확인하는 것에 불과할 뿐, 학습 전 특정 언어에 대한 듣기 능력을 향상시켜 학습 효율을 향상시킬 수 있는 방안에 대해서는 개시되어 있지 않다. However, the content disclosed in Patent Document 1 is only to confirm the learning performance by analyzing the frequency characteristics of the word or sentence learned by the learner, and to improve the learning efficiency by improving the listening ability for a specific language before learning is not disclosed.

또한, 대한민국 등록특허 제10-1983772호 '듣기 학습 시스템'(이하, '특허문헌 2'라 함)에서는 제1 주파수 대역의 오디오 신호를 제2 주파수 대역의 오디오 신호로 천이 시켜 특정 주파수 대역에 익숙한 사람들이 다른 주파수 대역을 주로 사용하는 외국어를 잘 들을 수 있게 한다. In addition, in Korean Patent Registration No. 10-1983772 'Listening Learning System' (hereinafter referred to as 'Patent Document 2'), an audio signal of a first frequency band is shifted to an audio signal of a second frequency band so that a person familiar with a specific frequency band It enables people to listen well to foreign languages that mainly use different frequency bands.

하지만, 특허문헌 2에 따르면 외국어의 주파수 대역을 천이 시키면서 학습자가 듣는 문장의 어감이나 어조가 원래의 문장과는 달라져 버리게 된다. 이 경우 그 순간 외국어 문장을 잘 들을 수는 있어도 학습자의 듣기 능력이 더 낮아질 수 있다는 문제가 있다. However, according to Patent Literature 2, while shifting the frequency band of a foreign language, the tone or tone of the sentence heard by the learner becomes different from the original sentence. In this case, there is a problem that the learner's listening ability may be lowered even though he can listen to the foreign language sentence well at that moment.

대한민국 등록특허 제10-0405061호Republic of Korea Patent No. 10-0405061 대한민국 등록특허 제10-1983772호Republic of Korea Patent Registration No. 10-1983772

본 발명은 학습자의 음성, 국적, 성별, 나이 등의 데이터를 토대로 외국인들이 한국어 학습을 할 때 틀리기 쉬운 단어 또는 문장을 집중적으로 학습할 수 있게 하여 학습 효과를 극대화 할 수 있는 음성 분석을 통한 한국어 발음 학습 시스템에 관한 것이다. The present invention is based on data such as the learner's voice, nationality, gender, age, etc., so that foreigners can intensively learn words or sentences that are easy to miss when learning Korean, thereby maximizing the learning effect. Korean pronunciation through voice analysis It is about learning systems.

본 발명은 사용자가 개인정보를 시스템에 업로드하는 단계와, 시스템이 사용자에게 한국 영상 컨텐츠를 제공한 후 발음 평가 문제를 제시한 후 피드백을 요청하는 단계와, 상기 피드백에 대응하여 사용자 음성 데이터가 수집된 후 사용자의 발음이 평가되는 단계와, 사용자 단말기에 상기 사용자 음성 데이터 및 상기 평가 점수가 저장되는 단계와, 일정 주기를 가지고 상기 저장된 평가 점수가 서버에 취합되는 단계와, 서버가 상기 취합된 정보를 이용하여 사용자에게 제공하는 발음 평가 문제를 보정하는 단계를 포함하는 음성 분석을 통한 한국어 발음 학습 방법을 제공한다. The present invention includes the steps of a user uploading personal information to the system, the system providing Korean video content to the user, presenting a pronunciation evaluation problem and requesting feedback, and collecting user voice data in response to the feedback. After the user's pronunciation is evaluated, the user's voice data and the evaluation score are stored in the user terminal, the stored evaluation score is collected in the server at a certain period, and the collected information is collected by the server Provided is a Korean pronunciation learning method through voice analysis, including the step of correcting a pronunciation evaluation problem provided to a user using

본 발명의 일 실시예에 따르면, 상기 사용자 발음 평가는 STT(Speak to text) 기술에 의하여 이루어진다. According to an embodiment of the present invention, the evaluation of the user's pronunciation is performed using STT (Speak to text) technology.

본 발명의 일 실시예에 따르면, 상기 발음 평가는 STT 서버가 외국인의 발음 입력 시 몇 글자를 정확하게 한글로 인식할 수 있는지 여부에 의하여 결정된다. According to an embodiment of the present invention, the pronunciation evaluation is determined by whether or not the STT server can accurately recognize several letters as Hangul when a foreigner inputs pronunciation.

본 발명의 일 실시예에 따르면, 상기 평가 점수는 사용자의 성별, 거주지역, 국적, 연령에 따라 무기명으로 취합된다. According to one embodiment of the present invention, the evaluation scores are collected anonymously according to the user's gender, residence area, nationality, and age.

본 발명의 일 실시예에 따르면, 시스템은 사용자에게 레벨 테스트용 발음 평가 문제를 제시한 후 사용자 레벨을 구분하며, 레벨이 구분된 사용자에게 동일 레벨에 해당하며 성별, 거주지역, 국적, 연령 중 적어도 2이상의 항목이 동일한 사용자들에게 낮은 점수를 받은 발음 평가 문제를 제시한다. According to an embodiment of the present invention, the system classifies user levels after presenting pronunciation evaluation problems for level tests to users, and corresponds to the same level for users who have been classified, and at least among gender, region of residence, nationality, and age. Two or more items present a pronunciation evaluation problem that received a low score to the same users.

본 발명의 일 실시예에 따른 서버에 의해 수행되는 개인화된 발음 평가 문제 제공 방법은, 사용자 단말기로부터 하나 이상의 발음 평가 문제에 대한 사용자의 피드백을 수신하는 단계; 상기 피드백에 기반하여 상기 사용자 단말기에 제공되는 발음 평가 문제를 개인화 하는 단계로써, 상기 사용자의 단어 별 오답률 및 상기 사용자의 모국어의 특성 중 적어도 하나에 기반하여 상기 사용자에게 제공되는 발음 평가 문제를 선택하고; 및 상기 개인화된 발음 평가 문제를 상기 사용자 단말기에 제공하는 단계;를 포함할 수 있다.A method for providing personalized pronunciation evaluation problems performed by a server according to an embodiment of the present invention includes receiving feedback from a user on one or more pronunciation evaluation problems from a user terminal; Personalizing a pronunciation evaluation problem provided to the user terminal based on the feedback, selecting a pronunciation evaluation problem provided to the user based on at least one of an error rate per word of the user and a characteristic of the user's native language; ; and providing the personalized pronunciation evaluation problem to the user terminal.

상기 발음 평가 문제를 개인화 하는 단계는 상기 사용자가 자주 틀리는 단어가 서로 다른 형태로 들어간 하나 이상의 문장을 상기 개인화된 발음 평가 문제로 결정하는 단계;를 포함할 수 있다.The personalizing the pronunciation evaluation problem may include determining one or more sentences in which the user often misspells words in different forms as the personalized pronunciation evaluation problem.

상기 개인화된 발음 평가 문제로 결정하는 단계는 상기 자주 틀리는 단어 뒤에 다른 단어가 오는 문장, 상기 자주 틀리는 단어 뒤에 조사가 오는 문장, 상기 자주 틀리는 단어가 문장의 마지막에 배치된 문장, 상기 자주 틀리는 단어를 포함하는 의문문 형태의 문장 및 상기 자주 틀리는 단어를 포함하는 감탄문 형태의 문장 중 적어도 하나를 상기 개인화된 발음 평가 문제로 결정하는 단계;를 포함할 수 있다.The step of determining the personalized pronunciation evaluation problem includes a sentence in which another word follows the frequently misspelled word, a sentence in which an investigation comes after the frequently incorrect word, a sentence in which the frequently incorrect word is placed at the end of a sentence, and the frequently incorrect word. and determining at least one of a sentence in the form of a question sentence and a sentence in the form of an exclamation sentence including the frequently misspelled word as the personalized pronunciation evaluation problem.

상기 발음 평가 문제를 개인화 하는 단계는 상기 사용자의 모국어 특성의 분석 결과에 기초하여, 한국어와 상기 모국어의 차이에 대한 학습이 강화되도록 상기 개인화된 발음 평가 문제를 결정하는 단계;를 포함할 수 있다.Personalizing the pronunciation evaluation problem may include determining the personalized pronunciation evaluation problem so as to enhance learning about the difference between Korean and the native language, based on an analysis result of the user's native language characteristics.

상기 개인화된 발음 평가 문제를 결정하는 단계는 상기 모국어의 강세 패턴의 주기, 상기 모국어의 발음 시 사용되는 주파수 대역 중 적어도 하나를 고려하여 상기 발음 평가 문제를 결정하는 단계;를 포함할 수 있다.The determining of the personalized pronunciation evaluation problem may include determining the pronunciation evaluation problem in consideration of at least one of a period of a stress pattern of the native language and a frequency band used for pronunciation of the native language.

상기 개인화된 발음 평가 문제를 결정하는 단계는 상기 강세 패턴의 주기를 참조하여, 상기 강세의 위치에 중요 단어를 배치한 학습 문장을 상기 발음 평가 문제로 결정할 수 있다.In the determining of the personalized pronunciation evaluation problem, a learning sentence in which an important word is disposed at a position of the stress may be determined as the pronunciation evaluation problem by referring to the period of the stress pattern.

본 발명에 따르면 사용자의 발음평가 점수 데이터가 메인서버에 복제되고 집계되어 사용자의 성별, 거주지역, 국적, 연령 등에 따라 무기명으로 취합된 후 국가별, 연령별, 성별 등에 따라 자주 틀리는 단어, 문장, 표현 등으로 구분될 수 있으며 전체 이용자들의 발음 시도 회수 중 몇 명의 사용자가 틀리게 발음하는지를 수치화하여 빅데이터 분석을 가능하게 한다. According to the present invention, the user's pronunciation evaluation score data is replicated and aggregated in the main server and collected anonymously according to the user's gender, region of residence, nationality, age, etc., and words, sentences, and expressions that are frequently incorrect according to country, age, gender, etc. It can be divided into categories such as, etc., and it quantifies how many users pronounce incorrectly among the number of pronunciation attempts of all users, enabling big data analysis.

또한, 본 발명은 사용자의 국적, 성별, 나이 등을 정확하게 입력하면 비슷한 사용자 이용 환경에서 어려워하는 발음, 문장과 표현 등을 집중 훈련할 수 있는 효과가 있다.In addition, according to the present invention, if the user's nationality, gender, age, etc. are accurately input, pronunciation, sentences and expressions that are difficult in a similar user environment can be intensively trained.

도 1은 본 발명의 일 실시예에 따른 음성 분석을 통한 한국어 발음 학습 시스템의 개념도.
도 2는 본 발명의 일 실시예에 따른 음성 분석을 통한 한국어 발음 학습 방법의 순서도.
도 3은 빅데이터 분석을 통해 학습자에게 맞춤형으로 제공되는 컨텐츠의 일 실시예를 나타내는 개념도.
도 4는 맞춤형 컨텐츠 제공을 위한 발음 패턴 분석의 일 실시예를 나타내는 개념도.
1 is a conceptual diagram of a Korean pronunciation learning system through voice analysis according to an embodiment of the present invention.
2 is a flowchart of a Korean pronunciation learning method through voice analysis according to an embodiment of the present invention.
3 is a conceptual diagram illustrating an embodiment of content customized to learners through big data analysis;
4 is a conceptual diagram illustrating an embodiment of pronunciation pattern analysis for providing customized content;

이하, 본 발명에 대하여 도면을 참조하여 보다 상세하게 설명한다. 본 명세서에서는 서로 다른 실시예라도 동일·유사한 구성에 대해서는 동일·유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Hereinafter, the present invention will be described in more detail with reference to the drawings. In this specification, the same or similar reference numerals are assigned to the same or similar components even in different embodiments, and the description is replaced with the first description. Singular expressions used herein include plural expressions unless the context clearly dictates otherwise.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves.

도 1은 본 발명의 일 실시예에 따른 음성 분석을 통한 한국어 발음 학습 시스템의 개념도이다. 1 is a conceptual diagram of a Korean pronunciation learning system through voice analysis according to an embodiment of the present invention.

본 발명의 시스템에 따르면 학습자에게 맞춤형 발음 학습 컨텐츠를 제공하여 외국인 학습자가 한국어에 대한 듣기/말하기 능력을 향상시킬 수 있게 한다. According to the system of the present invention, customized pronunciation learning contents are provided to learners so that foreign learners can improve their listening/speaking skills in Korean.

학습자들은 사용자 단말기를 통해 언어 학습 컨텐츠를 제공받을 수 있다. 사용자 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등의 이동 단말기나 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기가 포함될 수 있다. Learners may receive language learning content through a user terminal. User terminals include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, slate PCs, and tablet PCs. PC), ultrabook, wearable device (e.g., watch type terminal (smartwatch), glass type terminal (smart glass), HMD (head mounted display)), digital TV, desktop Fixed terminals such as computers and digital signage may be included.

도 1을 참조하면, 시스템(100)은 제어모듈(110)과, 데이터수집모듈(120)과, 데이터베이스(130)와, 문장 생성 모듈(140), 분석모듈(150) 등을 포함할 수 있다. Referring to FIG. 1 , the system 100 may include a control module 110, a data collection module 120, a database 130, a sentence generation module 140, an analysis module 150, and the like. .

이하에서는 설명의 편의를 위해 각 모듈을 구분하여 설명하고 있지만 실제 제어모듈(110)이 다른 모듈들을 기능을 포함하도록 형성되는 것이 가능하다. Hereinafter, although each module is separately described for convenience of description, it is possible that the actual control module 110 is formed to include functions of other modules.

도 1에서는 시스템이 서버, 사용자 단말기와 분리된 것으로 도시되어 있지만, 본 발명에서 지칭하는 시스템(100)은 상기 모듈들을 포함하는 특정 서버 또는 상기 모듈들을 포함하는 사용자 단말기일 수 있다. Although the system is shown as being separated from a server and a user terminal in FIG. 1, the system 100 referred to in the present invention may be a specific server including the modules or a user terminal including the modules.

예를 들어, 중앙 서버를 통해 분석이 이루어진 후 사용자 단말기로 컨텐츠가 전달되거나, 응용프로그램(어플리케이션)이 설치된 사용자 단말기에서 분석 및 컨텐츠 실행이 이루어질 수도 있다.For example, content may be delivered to a user terminal after analysis is performed through a central server, or analysis and content execution may be performed in a user terminal in which an application program (application) is installed.

본 발명에서는 제어모듈이 분석모듈, 문장 생성 모듈 등을 통해 생성된 읽기 요청 문장을 학습자에게 제공하여 한국어 듣기/말하기 능력을 향상시킬 수 있다. In the present invention, the control module can improve Korean listening/speaking ability by providing the learner with a reading request sentence generated through an analysis module, a sentence generation module, and the like.

데이터수집모듈(120)은 온라인 상에 노출되는 문장에 대한 데이터를 수집하여 사용자 단말기에 공급할 수 있다. The data collection module 120 may collect data on sentences exposed online and supply the collected data to a user terminal.

데이터베이스(130)에는 시스템(100)을 구동시키기 위한 각종 데이터들이 저장된다. 예를 들어, 데이터베이스(130)에는 단어들에 대응되는 복수의 음성 데이터들이 저장될 수 있다. 또한, 데이터베이스(130)에는 언어별 사용 주파수 대역에 대한 정보와, 특정 지문에서 사용되는 주파수 대역에 대한 정보 등이 저장될 수 있다. Various data for driving the system 100 are stored in the database 130 . For example, a plurality of voice data corresponding to words may be stored in the database 130 . In addition, the database 130 may store information on frequency bands used for each language, information on frequency bands used in a specific fingerprint, and the like.

또한, 데이터베이스에는 사용자들이 시스템이 제공하는 발음 피드백에 따라 평가 받은 평가 점수 데이터(131)와, 사용자들이 시스템의 피드백에 따라 사용자 단말기에 저장해 두었던 음성 데이터(131)도 저장될 수 있다. In addition, evaluation score data 131 evaluated by users according to pronunciation feedback provided by the system and voice data 131 stored by users in the user terminal according to feedback provided by the system may also be stored in the database.

문장 생성 모듈(140)은 사용자 개인 정보 또는 데이터베이스에 보관된 빅데이터 분석 결과를 토대로 학습자에게 제공하는 따라 읽기 요청 문장을 생성한다. The sentence generation module 140 generates a reading request sentence according to the information provided to the learner based on the user's personal information or the big data analysis result stored in the database.

도 2는 본 발명의 일 실시예에 따른 음성 분석을 통한 한국어 발음 학습 방법의 순서도이다. 2 is a flowchart of a Korean pronunciation learning method through voice analysis according to an embodiment of the present invention.

도 2를 참조하면, 한국어 발음 학습 방법은 한국 영상 컨텐츠를 제공하고 사용자에게 발음 피드백을 요청하는 단계(S100)와, STT 시스템을 통해 사용자의 발음을 평가하는 단계(S200)와, 사용자 단말기에 사용자의 발음과 평가 데이터를 저장하는 단계(S300)와, 메인서버에 사용자들의 데이터들을 취합하는 단계(S400)와, 취합된 빅데이터를 분석한 후 사용자별로 커스터마이징 하여 제공하는 단계(S500) 등을 포함할 수 있다. Referring to FIG. 2, the Korean pronunciation learning method includes providing Korean video content and requesting pronunciation feedback from the user (S100), evaluating the user's pronunciation through the STT system (S200), and providing the user terminal with the user. Including the step of storing pronunciation and evaluation data of (S300), the step of collecting users' data in the main server (S400), and the step of customizing and providing data for each user after analyzing the collected big data (S500). can do.

학습자는 학습을 시작하기 전 본인의 국적, 성별, 나이 등의 개인 정보를 입력할 수 있다. Learners can enter personal information such as their nationality, gender, and age before starting learning.

시스템은 학습자 개인정보와 서버(또는 데이터베이스)에 저장된 학습 관련 빅데이터를 분석하여 학습자 개인에게 커스터마이징 된 학습 컨텐츠를 제공한다. The system analyzes learner personal information and learning-related big data stored in the server (or database) to provide customized learning contents to individual learners.

한국어 발음 학습 방법은 한국 영상 컨텐츠를 제공하고 사용자에게 발음 피드백을 요청하는 단계(S100)에서는 데이터수집모듈(120)을 통해 수집된 한국어 영상 컨텐츠 또는 어플리케이션을 통해 사용자 단말기에 저장된 한국어 영상 컨텐츠가 사용자에게 제공된다. Korean pronunciation learning method provides Korean video contents and requests pronunciation feedback from the user (S100), Korean video contents collected through the data collection module 120 or Korean video contents stored in the user terminal through an application are provided to the user. Provided.

학습자가 영상을 시청한 후 시스템은 학습자에게 문장 생성 모듈(140)이 생성한 문장에 대한 발음 피드백을 요청한다. After the learner watches the video, the system requests pronunciation feedback on the sentence generated by the sentence generating module 140 from the learner.

STT 시스템을 통해 사용자의 발음을 평가하는 단계(S200)에서는 글로벌 발음 평가 시스템 (구글, 마인즈랩 등 전문 AI 개발사) 들이 제공하는 STT(Speak to Text) 기술을 이용하여 어플리케이션을 사용하는 외국인 사용자들이 한국어를 얼마나 정확하게 발음하는지를 평가한다. In the step of evaluating the user's pronunciation through the STT system (S200), foreign users using the application use STT (Speak to Text) technology provided by global pronunciation evaluation systems (Professional AI developers such as Google and Minds Lab) Evaluate how accurately you pronounce it.

발음 평가 기준은 사용자 단말기의 마이크를 통하여 입력된 외국인의 발음을 STT 시스템을 이용하여 어플리케이션에서 제시한 따라 읽기 요청 문장을 STT API 를 통해 서버로 전송한 후 STT 서버를 통해 외국인의 발음을 입력하였을 때 몇 글자를 정확하게 한글로 인식할 수 있는지를 수치로 평가하는 방법을 이용한다.The pronunciation evaluation criterion is when a foreigner's pronunciation input through the microphone of the user terminal is transmitted to the server through the STT API according to the reading request sentence suggested by the application using the STT system, and then the foreigner's pronunciation is input through the STT server. A method of numerically evaluating how many characters can be accurately recognized as Hangul is used.

사용자 단말기에 사용자의 발음과 평가 데이터를 저장하는 단계(S300)에서 어플리케이션은 외국인 사용자가 발음한 음성 데이터를 사용자의 모바일 기기 안에 보관한다. In the step of storing the user's pronunciation and evaluation data in the user terminal (S300), the application stores the voice data pronounced by the foreign user in the user's mobile device.

시스템은 사용자가 본인 발음 다시 듣기를 지원하는 음성 데이터 저장 공간 및 발음 평가 점수를 저장하는 발음 평가 점수 데이터 저장 공간을 생성하고, 외국인 사용자가 발음을 반복하여 훈련할 때마다 원음 음성 데이터를 음성 데이터 저장 공간에 압축 보관한다. The system creates a voice data storage space that supports users to listen to their own pronunciation again and a pronunciation evaluation point data storage space that stores pronunciation evaluation scores, and stores the original sound voice data whenever a foreign user repeats pronunciation training. compressed into space.

평가 점수 역시 발음 시점 및 문장에 맞춰 점수 관리 공간에 동시에 히스토리형으로 저장된다. 이 데이터는 히스토리에 맞춰 본인이 다시 들어보고 발음을 교정하는데 사용된다. The evaluation score is also stored in a history type at the same time in the score management space according to the pronunciation time and sentence. This data is used to listen again and correct pronunciation according to the history.

메인서버에 사용자들의 데이터들을 취합하는 단계(S400)에서는 사용자 단말기에 저장된 평가 점수 데이터가 서버로 전송된다. In the step of collecting user data in the main server (S400), the evaluation score data stored in the user terminal is transmitted to the server.

어플리케이션 설치 시 평가 점수 데이터의 통계적 사용(어플리케이션 기능 및 문장 추천 서비스 개선을 위한 무기명 데이터의 활용) 에 대한 사용자의 동의를 사전에 받게 되며, 특정 시점(Ex. Wi-Fi 환경 접속 시)에 사용자의 발음평가 점수 데이터가 메인서버에 복제되고 집계된다. 이 평가 데이터는 사용자의 성별, 거주지역, 국적, 연령 등에 따라 무기명으로 취합될 수 있다. When installing the application, the user's consent is obtained in advance for the statistical use of evaluation score data (use of anonymous data to improve application function and sentence recommendation service), and at a specific point in time (Ex. Wi-Fi environment access) Pronunciation evaluation score data is replicated and aggregated on the main server. This evaluation data can be anonymously collected according to the user's gender, region of residence, nationality, age, etc.

취합된 빅데이터를 분석한 후 사용자별로 커스터마이징 하여 제공하는 단계(S500)에서는 사용자의 개인정보에 따라 최적화된 컨텐츠를 제공한다. After analyzing the collected big data, in step S500, which is customized for each user and provided (S500), optimized content is provided according to the user's personal information.

예를 들어, 학습자가 베트남 국적의 20대 여성이라면 시스템은 S300 단계에서 취합된 데이터 분석을 통해 베트남 국적의 20대 여성들이 자주 틀리는 발음(ex.'운명')을 포함하는 문장을 학습자에게 제시한다(도 3참조). For example, if the learner is a female of Vietnamese nationality in her 20s, the system presents a sentence containing a pronunciation (ex. 'destiny') that Vietnamese women in their 20s often make incorrectly through data analysis collected in step S300. (See Figure 3).

또한, 본 발명의 일 실시예에 따르면 자주 틀리는 단어가 다른 형태로 들어가 있는 문장들을 순차적으로 제시하여 발음의 변화 방식을 체득할 수 있게 할 수 있다. 예를 들어, 시스템은 선택된 단어의 뒤에 다른 단어가 오는 경우, 선택된 단어 뒤에 조사가 오는 경우, 선택된 단어가 문장의 마지막에 오는 경우, 선택된 단어가 의문문에 들어간 경우, 선택된 단어가 감탄문에 들어간 경우 등 다양한 형태의 문장을 학습자에게 제시할 수 있다. In addition, according to an embodiment of the present invention, it is possible to learn how to change pronunciation by sequentially presenting sentences in which frequently misspelled words are entered in different forms. For example, the system determines if the selected word is followed by another word, if the selected word is followed by an investigation, if the selected word is at the end of a sentence, if the selected word is in an interrogative sentence, if the selected word is in an exclamation sentence, etc. Various types of sentences can be presented to learners.

또한, 본 발명의 다른 실시예에 따르면 시스템은 학습자가 주로 사용하는 언어의 발음 패턴을 분석하여 학습 컨텐츠를 제공하는 것이 가능하다. In addition, according to another embodiment of the present invention, the system can provide learning content by analyzing a pronunciation pattern of a language mainly used by a learner.

도 4는 맞춤형 컨텐츠 제공을 위한 발음 패턴 분석의 일 실시예를 나타내는 개념도이다. 4 is a conceptual diagram illustrating an embodiment of pronunciation pattern analysis for providing customized content.

도 4를 참조하면, 주기적으로 강세를 가지는 언어(영어 등)를 사용하는 사용자에게 익숙한 발음 패턴을 확인할 수 있다. 여기서 Δt는 강세 패턴의 메인 주기를 의미한다. Referring to FIG. 4 , it is possible to check a pronunciation pattern familiar to a user who uses a language (such as English) with a periodic stress. Here, Δt means the main period of the bullish pattern.

시스템은 사용자가 모국어로 사용하는 언어의 주된 주파수 대역 및 강세 패턴을 분석하여 한국어의 그것과 차이가 나는 문장 성분에 대한 학습을 강화하는 것이 가능하다. The system analyzes the main frequency band and stress pattern of the language used by the user in the native language to reinforce learning about sentence components that differ from those of Korean.

주파수대역 사운드를 이용하여 한국어 듣기/말하기 능력 향상시키는 원리는 다음과 같다. The principle of improving Korean listening/speaking ability using frequency band sounds is as follows.

각 나라의 언어는 언어별로 사용하는 주파수가 상이하다.Each country's language uses a different frequency for each language.

예를 들어, 한국어에서는 500 내지 2200 Hz 대역의 소리를 사용하여 의사소통을 하는 반면, 영어(미국식)에서는 800 내지 3500 Hz 대역의 소리를 사용하여 의사소통을 한다. For example, in Korean, sounds in the 500 to 2200 Hz band are used for communication, whereas in English (American style), sounds in the 800 to 3500 Hz band are used for communication.

각국의 사람들은 자기가 사용하는 언어의 주파수 대역에 익숙해지며, 이 주파수 대역을 벗어나는 소리는 잘 인지하지 못하게 된다. 이로 인해 같은 소리도 사람마다 다르게 들릴 수 있다. 소리를 듣지 못하면 그 소리를 내는 것도 불가능하기 때문에 위와 같이 잘 들을 수 있는 주파수 대역의 차이는 모국어가 아닌 언어를 배우는데 장애가 될 수 있다. People in each country become accustomed to the frequency band of the language they use, and they do not recognize sounds outside this frequency band. Because of this, the same sound can be heard differently from person to person. Since it is impossible to make the sound without hearing it, the difference in frequency bands that can be heard well as above can be an obstacle to learning a language other than the mother tongue.

그런데 배우려는 언어가 사용하는 주파수가 주로 사용하는 언어의 주파수와 다른 경우 주로 사용하는 언어의 주파수에서 벗어나는 주파수 부분에 대해서는 정확히 듣지 못하게 되며, 그로 인해 발음하기도 어려워진다. However, if the frequency used in the language to be learned is different from the frequency of the language mainly used, it is impossible to accurately hear the frequency part that deviate from the frequency of the language mainly used, and it becomes difficult to pronounce as a result.

예를 들어, 한국 사람은 평상시에 500 내지 2200 Hz의 소리를 사용하기 때문에 영어(미국식)에서 사용하는 800 내지 3500 Hz 중 겹치지 않는 2200 내지 3500 Hz 사이의 소리가 정확하게 들리지 않거나 구분이 어렵게 된다. For example, since Koreans usually use sounds between 500 and 2200 Hz, sounds between 2200 and 3500 Hz, which do not overlap among 800 to 3500 Hz used in English (American style), cannot be heard accurately or are difficult to distinguish.

이러한 원리를 활용하여 시스템은 학습자의 모국어에서 주로 사용하는 주파수 대역에서 벗어난 단어 또는 문장에 대한 학습을 강화할 수 있다. Using this principle, the system can reinforce learning for words or sentences that are out of the frequency band mainly used in the learner's native language.

또한, 언어의 종류는 일정 간격으로 반복되는 운율(문장에서 강세의 주기가 없음)이 없이 단순히 음절이 나열되는 실러블 랭귀지(syllable language)와 일정한 패턴의 운율(문장에서 일정한 주기의 강세가 반복되어 나타남)이 존재하는 스트레스 랭귀지(stress language)로 나뉠 수 있다. In addition, the types of language include syllable language in which syllables are simply arranged without rhyme (without stress cycles in sentences) repeated at regular intervals, and rhyme in regular patterns (stress cycles are repeated in sentences). It can be divided into the stress language in which (appears) exists.

스트레스 랭귀지에서는 상황에 따라 음절의 길이는 상이하지만 스트레스(강세)를 주는 간격이 일정하다. 즉, 스트레스를 주는 음절끼리의 시간 간격이 비슷하고 그 사이 음절들은 몇 개가 들어가던 시간 간격을 맞추기 위해 압축되어 발음된다. In stressed language, the length of syllables varies depending on the situation, but the stress (stress) interval is constant. That is, the time intervals between the stressed syllables are similar, and the syllables in between are compressed and pronounced to match the time intervals of several stressed syllables.

분석모듈은 언어종류 분석모듈과 강세 패턴 분석모듈을 포함하여 문장이 어느 국가의 언어에 해당하는지, 상기 언어가 스트레스 랭귀지에 해당하는지, 그리고 문장에서 강세 패턴이 어떻게 되는지를 분석한다. The analysis module includes a language type analysis module and a stress pattern analysis module to analyze which language the sentence corresponds to, whether the language corresponds to a stress language, and what the stress pattern is in the sentence.

구체적으로, 분석모듈은 외국인이 사용하는 언어의 종류, 단어, 어순 등의 데이터에 기반하여 문장이 어떤 종류의 언어로 이루어졌는지와 해당 언어에 대한 수집 데이터를 기반으로 해당 언어가 실러블 랭귀지에 속하는지 스트레스 랭귀지에 속하는지를 판단할 수 있다. Specifically, the analysis module analyzes what kind of language the sentence is made of based on data such as the type of language used by foreigners, words, word order, etc. It can be judged whether it belongs to the stress language.

분석모듈은 문장의 음성출력 데이터를 분석하여 화자가 문장을 끊어 읽는 위치, 출력되는 dB 값, 성조나 억양 등을 분석하여 학습자가 청취하고자 하는 문장의 강세 패턴을 판단할 수 있다. The analysis module analyzes the speech output data of the sentence to determine the accent pattern of the sentence the learner wants to listen to by analyzing the position where the speaker cuts and reads the sentence, the output dB value, tone or intonation, etc.

강세 패턴의 주기는 사용자 또는 문장마다 다소 차이가 있을 수 있지만 시스템은 수집된 해당 외국어 문장들의 주기의 평균 또는 가장 높은 빈도로 발생하는 주기를 메인 주기로 파악하는 것이 가능하다. Although the period of the stress pattern may be slightly different for each user or each sentence, the system can determine the average period of collected foreign language sentences or a period that occurs with the highest frequency as the main period.

시스템은 이러한 메인 주기에 해당하는 위치에 중요 단어를 배치하여 학습자에게 제공하여 학습자가 익숙하게 한국어 문장을 학습할 수 있게 할 수도 있다. The system may place important words at positions corresponding to these main cycles and provide them to learners so that learners can learn Korean sentences with familiarity.

위에서 살펴본 본 발명의 실시예들에 따르면, 사용자의 발음평가 점수 데이터가 메인서버에 복제되고 집계되어 사용자의 성별, 거주지역, 국적, 연령 등에 따라 무기명으로 취합된 후 국가별, 연령별, 성별 등에 따라 자주 틀리는 단어, 문장, 표현 등으로 구분될 수 있으며 전체 이용자들의 발음 시도 회수 중 몇 명의 사용자가 틀리게 발음하는지를 수치화하여 빅데이터 분석을 가능하게 하며, 사용자의 국적, 성별, 나이 등을 정확하게 입력하면 비슷한 사용자 이용 환경에서 어려워하는 발음, 문장과 표현 등을 집중 훈련할 수 있는 등 종래 기술과는 차별되는 효과를 기대할 수 있다. According to the embodiments of the present invention described above, the user's pronunciation evaluation score data is replicated and aggregated in the main server, collected anonymously according to the user's gender, residential area, nationality, age, etc., and then classified according to country, age, gender, etc. It can be classified into frequently misspelled words, sentences, expressions, etc., and it quantifies how many users pronounce incorrectly out of the total number of pronunciation attempts of all users, enabling big data analysis. Differentiating effects from the prior art can be expected, such as intensive training of pronunciation, sentences and expressions, etc., which are difficult in the user environment.

이상에서 설명한 본 발명은 위에서 설명된 실시예들의 구성과 방법에 한정되는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The present invention described above is not limited to the configuration and method of the embodiments described above, but the embodiments may be configured by selectively combining all or part of each embodiment so that various modifications can be made.

100 : 시스템 110 : 제어모듈
120 : 데이터수집모듈 130 : 데이터베이스
131 : 평가 점수 데이터 132 : 음성 데이터
140 : 문장생성모듈 150 : 분석모듈
151 : 발음 분석 모듈 152 : 사용자 분석 모듈
100: system 110: control module
120: data collection module 130: database
131: evaluation score data 132: voice data
140: sentence generation module 150: analysis module
151: pronunciation analysis module 152: user analysis module

Claims (6)

서버에 의해 수행되는 개인화된 발음 평가 문제 제공 방법에 있어서,
사용자 단말기로부터 하나 이상의 발음 평가 문제에 대한 사용자의 피드백을 수신하는 단계;
상기 피드백에 기반하여 상기 사용자 단말기에 제공되는 발음 평가 문제를 개인화 하는 단계로써, 상기 사용자의 단어 별 오답률 및 상기 사용자의 모국어의 특성 중 적어도 하나에 기반하여 상기 사용자에게 제공되는 발음 평가 문제를 선택하고; 및
상기 개인화된 발음 평가 문제를 상기 사용자 단말기에 제공하는 단계;를 포함하고,
상기 발음 평가 문제를 개인화 하는 단계는
상기 모국어의 강세 패턴의 주기를 참조하여, 상기 모국어의 강세의 위치에 중요 단어를 배치한 학습 문장을 상기 발음 평가 문제로 결정하는 단계;를 포함하는, 개인화된 발음 평가 문제 제공 방법.
A method for providing personalized pronunciation evaluation problems performed by a server,
receiving user feedback on one or more pronunciation evaluation problems from a user terminal;
Personalizing a pronunciation evaluation problem provided to the user terminal based on the feedback, selecting a pronunciation evaluation problem provided to the user based on at least one of an error rate per word of the user and a characteristic of the user's native language; ; and
Including; providing the personalized pronunciation evaluation problem to the user terminal;
The step of personalizing the pronunciation evaluation problem is
and determining, as the pronunciation evaluation problem, a learning sentence in which an important word is disposed at a position of stress in the native language with reference to a period of the stress pattern of the native language.
제1 항에 있어서,
상기 발음 평가 문제를 개인화 하는 단계는
상기 사용자가 자주 틀리는 단어가 서로 다른 형태로 들어간 하나 이상의 문장을 상기 개인화된 발음 평가 문제로 결정하는 단계;를 포함하는, 개인화된 발음 평가 문제 제공 방법.
According to claim 1,
The step of personalizing the pronunciation evaluation problem is
and determining, as the personalized pronunciation evaluation problem, one or more sentences in which words that the user frequently misses are included in different forms.
제2 항에 있어서,
상기 개인화된 발음 평가 문제로 결정하는 단계는
상기 자주 틀리는 단어 뒤에 다른 단어가 오는 문장, 상기 자주 틀리는 단어 뒤에 조사가 오는 문장, 상기 자주 틀리는 단어가 문장의 마지막에 배치된 문장, 상기 자주 틀리는 단어를 포함하는 의문문 형태의 문장 및 상기 자주 틀리는 단어를 포함하는 감탄문 형태의 문장 중 적어도 하나를 상기 개인화된 발음 평가 문제로 결정하는 단계;를 포함하는, 개인화된 발음 평가 문제 제공 방법.
According to claim 2,
The step of determining the personalized pronunciation evaluation problem
A sentence in which another word follows the frequently misspelled word, a sentence in which an investigation is followed by the frequently misspelled word, a sentence in which the frequently misspelled word is placed at the end of a sentence, a sentence in question form including the frequently misspelled word, and the frequently misspelled word and determining at least one of exclamatory sentences as the personalized pronunciation evaluation problem.
삭제delete 삭제delete 삭제delete
KR1020220031498A 2019-12-31 2022-03-14 Method for providing personalized problems for pronunciation evaluation KR102542602B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220031498A KR102542602B1 (en) 2019-12-31 2022-03-14 Method for providing personalized problems for pronunciation evaluation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190179952A KR102396833B1 (en) 2019-12-31 2019-12-31 System and method for studying korean pronunciation using voice analysis
KR1020220031498A KR102542602B1 (en) 2019-12-31 2022-03-14 Method for providing personalized problems for pronunciation evaluation

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190179952A Division KR102396833B1 (en) 2019-12-31 2019-12-31 System and method for studying korean pronunciation using voice analysis

Publications (2)

Publication Number Publication Date
KR20220039679A KR20220039679A (en) 2022-03-29
KR102542602B1 true KR102542602B1 (en) 2023-06-14

Family

ID=76686944

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190179952A KR102396833B1 (en) 2019-12-31 2019-12-31 System and method for studying korean pronunciation using voice analysis
KR1020220031498A KR102542602B1 (en) 2019-12-31 2022-03-14 Method for providing personalized problems for pronunciation evaluation

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190179952A KR102396833B1 (en) 2019-12-31 2019-12-31 System and method for studying korean pronunciation using voice analysis

Country Status (2)

Country Link
KR (2) KR102396833B1 (en)
WO (1) WO2021137534A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230018095A (en) 2021-07-29 2023-02-07 케이랩 주식회사 Method of Korean Postposition Study for Non-native Learners
KR102631382B1 (en) * 2023-06-16 2024-01-31 주식회사 미카 System for providing korean education service for korean native speaker

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066818A (en) * 2001-08-27 2003-03-05 Advanced Telecommunication Research Institute International Foreign language learning device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100238451B1 (en) * 1997-12-02 2000-01-15 정선종 A computer aided education system and control techniques for korean
KR100405061B1 (en) 2000-03-10 2003-11-10 문창호 Apparatus for training language and Method for analyzing language thereof
KR20040073291A (en) * 2004-01-08 2004-08-19 정보통신연구진흥원 appraisal system of foreign language pronunciation and method thereof
KR101048214B1 (en) * 2008-12-30 2011-07-08 주식회사 케이티 Pronunciation Correction Service Device Using Social Learning and Semantic Technology
KR101071392B1 (en) * 2009-04-16 2011-10-12 전일호 Learner centered foreign language Education system and its teaching method
KR101211796B1 (en) * 2009-12-16 2012-12-13 포항공과대학교 산학협력단 Apparatus for foreign language learning and method for providing foreign language learning service
KR20160008949A (en) * 2014-07-15 2016-01-25 한국전자통신연구원 Apparatus and method for foreign language learning based on spoken dialogue
KR101983772B1 (en) 2016-02-26 2019-05-29 소리노리닷컴(주) Learning system for listening
KR20190041772A (en) * 2017-10-13 2019-04-23 주식회사 하얀마인드 Apparatus and method for evaluating linguistic performance based on silence interval using comparison with other users

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066818A (en) * 2001-08-27 2003-03-05 Advanced Telecommunication Research Institute International Foreign language learning device

Also Published As

Publication number Publication date
KR102396833B1 (en) 2022-05-13
WO2021137534A1 (en) 2021-07-08
KR20210086182A (en) 2021-07-08
KR20220039679A (en) 2022-03-29

Similar Documents

Publication Publication Date Title
Chen et al. Investigating college EFL learners’ perceptions toward the use of Google Assistant for foreign language learning
US20190385480A1 (en) System to evaluate dimensions of pronunciation quality
US6953343B2 (en) Automatic reading system and methods
KR102321194B1 (en) Computing technologies for diagnosis and therapy of language-related disorders
US10121388B2 (en) Methods, systems, and apparatuses to convey chorded input
KR102542602B1 (en) Method for providing personalized problems for pronunciation evaluation
Bashori et al. ‘Look, I can speak correctly’: learning vocabulary and pronunciation through websites equipped with automatic speech recognition technology
JP2005517213A5 (en)
Fager et al. Evaluation of a speech recognition prototype for speakers with moderate and severe dysarthria: A preliminary report
US11210964B2 (en) Learning tool and method
US20160045142A1 (en) Hearing examination device, hearing examination method, and method for generating words for hearing examination
KR20210003326A (en) System for language study service for learning korean as a foreign language
Strange et al. Cross-language categorization of French and German vowels by naïve American listeners
de Vargas et al. Speaking haptically: from phonemes to phrases with a mobile haptic communication system
KR102389153B1 (en) Method and device for providing voice responsive e-book
Chen Acoustic analyses and intelligibility assessments of timing patterns among Chinese English learners with different dialect backgrounds
KR20140004541A (en) Method for providing foreign language phonics training service based on feedback for each phoneme using speech recognition engine
KR101333946B1 (en) Apparatus for studying engligh speaking based on drawing method using smart device
US11562819B2 (en) Method and system for determining and improving behavioral index
KR20080100857A (en) Service system for word repetition study using round type
Walesiak Mobile apps for pronunciation training
Viebahn et al. Where is the disadvantage for reduced pronunciation variants in spoken-word recognition? On the neglected role of the decision stage in the processing of word-form variation
KR102236861B1 (en) Language acquisition assistance system using frequency bands by language
JP7537464B2 (en) Information processing device, information processing system, information processing method, and program
KR102685537B1 (en) Method and system for providing online education contents for rehabilitation of hearing loss patients

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right