KR20240033423A - System and Method for Providing speaking practice solution of foreign language - Google Patents

System and Method for Providing speaking practice solution of foreign language Download PDF

Info

Publication number
KR20240033423A
KR20240033423A KR1020220112063A KR20220112063A KR20240033423A KR 20240033423 A KR20240033423 A KR 20240033423A KR 1020220112063 A KR1020220112063 A KR 1020220112063A KR 20220112063 A KR20220112063 A KR 20220112063A KR 20240033423 A KR20240033423 A KR 20240033423A
Authority
KR
South Korea
Prior art keywords
native speaker
learner
voice
foreign language
native
Prior art date
Application number
KR1020220112063A
Other languages
Korean (ko)
Inventor
천혜진
Original Assignee
천혜진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 천혜진 filed Critical 천혜진
Priority to KR1020220112063A priority Critical patent/KR20240033423A/en
Publication of KR20240033423A publication Critical patent/KR20240033423A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063112Skill-based matching of a person or a group to a task
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 다수의 원어민 강사로부터 외국어 학습 콘텐츠를 제공받는 외국어 발화 훈련 솔루션 제공 시스템 및 방법에 관한 것으로, 적어도 한명 이상의 원어민의 연령, 성별, 음성 샘플 데이터를 입력받아 원어민 데이터베이스를 구축하는 원어민 정보 입력부, 외국어 학습자의 연령, 성별, 음성 샘플 데이터를 입력받은 학습자 정보 입력부, 원어민 정보 입력부에서 구축된 원어민 데이터베이스에서 상기 학습자 정보 입력부로 입력받은 학습자 정보에 매칭시켜 정보 일치율이 높은 순으로 적어도 한명 이상의 원어민을 선별하여 추천하는 매칭부 및 학습자 단말로부터 상기 매칭부에서 추천한 원어민들 중 하나에 대한 선택 신호가 입력되면, 선택받은 원어민과의 발화 훈련 학습 콘텐츠를 제공하는 콘텐츠 제공부를 포함하는 외국어 발화 훈련 솔루션 제공 시스템에 의해 학습자와 원어민 영상 데이터간 음성적 차이를 최소화하고 동기화율을 극대화하여 원어민에 근접하는 유창한 발음, 억양, 발성으로 영어를 구사할 수 있는 수준에 이르도록 하는 외국어 발화 훈련 솔루션 제공 시스템 및 그 구동방법을 제공하는 효과가 도출된다. The present invention relates to a system and method for providing a foreign language speech training solution that receives foreign language learning content from a plurality of native speaker instructors, and includes a native speaker information input unit that constructs a native speaker database by inputting the age, gender, and voice sample data of at least one native speaker; The foreign language learner's age, gender, and voice sample data are matched to the learner information entered through the learner information input section and the native speaker database built from the native speaker information input section, and at least one native speaker is selected in the order of the highest information match rate. A system for providing a foreign language speech training solution, including a matching unit that recommends and a content provider that provides speech training learning content with the selected native speaker when a selection signal for one of the native speakers recommended by the matching unit is input from the learner terminal. A foreign language speech training solution providing system and driving method that minimizes the phonetic difference between the learner and native speaker video data and maximizes the synchronization rate to reach the level of speaking English with fluent pronunciation, intonation, and vocalization approaching that of a native speaker. The effect provided is derived.

Description

외국어 발화 훈련 솔루션 제공 시스템 및 방법{System and Method for Providing speaking practice solution of foreign language}{System and Method for Providing speaking practice solution of foreign language}

본 발명은 외국어 발화 훈련 솔루션 제공 시스템 및 방법에 관한 것으로 보다 상세하게는, 다수의 원어민 강사로부터 외국어 학습 콘텐츠를 제공받는 외국어 발화 훈련 솔루션 제공 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for providing a foreign language pronunciation training solution, and more specifically, to a system and method for providing a foreign language pronunciation training solution in which foreign language learning content is provided from a plurality of native speaking instructors.

일반적으로 외국어 학습에 대한 중요성이 높아지고있고, 이러한 중요성에 따라 많은 사람들이 외국어 학습에 많은 시간과 노력을 할애하고 있다. 이에 따라 다양한 온/오프라인 외국어 강좌들이 개설되고 있다. In general, the importance of learning foreign languages is increasing, and due to this importance, many people are devoting a lot of time and effort to learning foreign languages. Accordingly, various online and offline foreign language courses are being offered.

외국어 학습의 다양한 영역 중에 문법 및 어휘학습의 경우는 모국어와 외국어에 정확한 의미 및 구조상의 차이를 문서화된 서적 등을 통해서 이해하기가 용이하지만 의사소통의 가장 기본적인 수단 중 하나인 발음 학습의 경우에는 학습하는 외국어의 특정 발음들이 모국어에 존재 하지 않으면 정확하게 모방하여 말하기가 어렵다. 또한 영어의 경우에는 영어를 모국어로 하는 각 국가 마다 특정 음소들은 발음하는 방식에 차이가 있고 철자를 소리내는 규칙(phonics)에도 차이가 존재하기 때문에 문서화된 학습 자료가 어떠한 국가의 영어 발음으로 표기가 되었고 기술되었느냐에 따라서 내용이 상이할 수가 있다. Among the various areas of foreign language learning, in the case of grammar and vocabulary learning, it is easy to understand the exact meaning and structural differences between the native language and the foreign language through written books, but in the case of pronunciation learning, which is one of the most basic means of communication, learning If certain pronunciations of a foreign language do not exist in your native language, it is difficult to accurately imitate them. Additionally, in the case of English, there are differences in the way certain phonemes are pronounced in each country where English is the native language, and there are also differences in the rules for sounding letters (phonics), so the documented learning materials are not written in the English pronunciation of any country. The content may differ depending on how it was written and described.

영어가 모국어라고 하더라도 각 국가별 발음 차이 및 출신지 역 특유의 방언(dilect) 및 액센트(accent)의 차이를 정확하게 이해하지 못하고 학습하게 되면 대화 시에 정확한 정보를 전달하고 이해하는데 어려움이 있을 수 있다. 이러한 이유로 인하여 영어 발음 학습의 경우는 초기 학습 때부터 전세계적으로 사용빈도가 가장 높은 북미식 또는 영국식 발음 등을 정확한 표준 영어 발음으로 학습하는 것이 학습 효율성을 배가시키는데 중요시되고 있으며 그러한 이유로 학령 전 유아기때부터 이러한 정확한 외국어의 input과 output 능력을 형성하기 위하여 영어 유치원, 영어 학원 및 재택 방문 1:1 파닉스(Phonics) 학습 등을 통해서 막대한 지출이 소요되고 있는 실정이다.Even if English is your native language, if you learn it without accurately understanding the differences in pronunciation in each country and the differences in dialects and accents unique to your region of origin, you may have difficulty conveying and understanding accurate information during conversations. For this reason, in the case of learning English pronunciation, it is important to double the learning efficiency by learning accurate standard English pronunciation, such as North American or British pronunciation, which are most frequently used throughout the world, from the early stage of learning. In order to form accurate foreign language input and output skills, a huge amount of money is being spent through English kindergartens, English academies, and at-home 1:1 phonics learning.

또한 일반적으로 발음이나 발음에 대한 교정은 외국인 강사와의 1:1 지도방식에 의해 이루어지고 있는데, 이 경우 영어 학습에 많은 비용이 소요된다는 문제점이 있으며, 특별히 정해진 시간에 교육이 이루어지기 때문에 직장인 등과 같은 바쁜 일상생활을 영위하는 사람들에게는 그 학습에의 참여가 극히 제한적이라는 한계가 있다.In addition, correction of pronunciation or pronunciation is generally done through 1:1 instruction with a foreign instructor, but in this case, there is a problem in that it costs a lot of money to learn English, and since the training is provided at a specially designated time, it is not suitable for office workers, etc. For people who lead busy daily lives, participation in learning is extremely limited.

이러한 요구에 부응하기 위하여 현재에는 음성 인식 또는 음성 파형분석을 이용한 다양한 어학용 프로그램들을 탑재한 어학용 학습기가 개발되어 보급되고 있다. 상기와 같은 어학용 학습기의 영어 발음 평가방법은 음성 신호 처리기술을 이용한 발음 비교방법에 의하며, 여기에는 은닉 마코브 모델(Hidden Markov Model, 이하 HMM 이라 함)을 이용하여 학습자의 발음을 인식한 후, 이를 원어민의 음성과 비교하여 그 결과를 알려주는 프로그램들을 이용하여 실시하고 있다.In order to meet these demands, language learning devices equipped with various language learning programs using voice recognition or voice waveform analysis are being developed and distributed. The English pronunciation evaluation method of the language learning device described above is based on a pronunciation comparison method using voice signal processing technology, which involves recognizing the learner's pronunciation using a Hidden Markov Model (hereinafter referred to as HMM), This is done using programs that compare the voice of a native speaker and report the results.

그러나 PC 및 스마트 기기를 통해 실행되는 기존의 영어 말하기학습 서비스들은 학습자의 언어적 특성을 전혀 고려하지 않은 채 애니메이션이나 부자연스러운 AI 음성, 더빙 음성 등 일방적이고 무작위적인 영상을 제공하기 때문에 학습자의 영어구사력 모방학습을 통한 원어민 동기화에 어려움을 겪고 있다. 국내에서 가장 효율적인 영어구사력 체득 방법은 원어민 영상을 시청하며 실시간으로 따라하는 모방방식(쉐도잉)인데 학습자 자신의 음성학적 요소의 특징과 상이한 소리를 모방학습할 경우 동기화율이 매우 낮아지는 결과를 보인다. 즉, 정확한 세부발음이나 발성, 억양과 강세 등의 요소를 정확히 모방하여 체화하기가 어렵고 그 정확도와 효율성이 떨어진다고 할 수 있다.However, existing English speaking learning services run through PCs and smart devices provide one-sided and random videos such as animations, unnatural AI voices, and dubbed voices without any consideration of the learner's linguistic characteristics, thereby affecting the learner's English proficiency. It is difficult to synchronize with native speakers through imitation learning. The most efficient method of acquiring English proficiency in Korea is the imitation method (shadowing), which involves watching videos of native speakers and imitating them in real time. However, when imitating sounds that are different from the characteristics of the learner's own phonetic elements, the synchronization rate is very low. . In other words, it can be said that it is difficult to accurately imitate and embody elements such as accurate detailed pronunciation, vocalization, intonation, and stress, and its accuracy and efficiency are low.

국내공개특허공보 제10-2012-0040174Domestic Patent Publication No. 10-2012-0040174

본 발명은 이 같은 기술적 배경에서 도출된 것으로, 원어민 영상을 통한 모방 훈련을 함에 있어 학습자의 음성적 조건과 유사한 음성값의 원어민 멘토를 추천하고, 훈련함으로써 학습자와 원어민 영상 데이터간 음성적 차이를 최소화하고 동기화율을 극대화하여 원어민에 근접하는 유창한 발음, 억양, 발성으로 영어를 구사할 수 있는 수준에 이르도록 하는 외국어 발화 훈련 솔루션 제공 시스템 및 그 구동방법을 제공함에 그 목적이 있다. The present invention was derived from this technical background. In imitation training using native speaker videos, it recommends and trains native speaker mentors with phonetic values similar to the learner's phonetic conditions, thereby minimizing and synchronizing phonetic differences between the learner and native speaker video data. The purpose is to provide a foreign language pronunciation training solution provision system and method of operation that maximizes the rate and reaches a level of speaking English with fluent pronunciation, intonation, and vocalization that is close to that of a native speaker.

또한, 학습자가 직접 원어민을 선택하여 훈련함으로써 모방학습에 더 효과적인 동기부여를 줄 수 있는 외국어 발화 훈련 솔루션 제공 시스템 및 그 구동방법을 제공하고자 한다. In addition, we aim to provide a system for providing a foreign language pronunciation training solution and its operation method that can provide more effective motivation for imitation learning by allowing learners to directly select and train native speakers.

또한 뇌의 브로카 영역의 강화 학습 훈련 콘텐츠를 제공하고, 영어 발성과 발음에 관여하는 주변 근육 및 구강 근육의 직접 강화 훈련을 통한 운동 영역 집중 강화 훈련 등의 학습 서비스를 제공하는 외국어 발화 훈련 솔루션 제공 시스템 및 그 구동방법을 제공함에 그 목적이 있다.In addition, a foreign language speech training solution providing system that provides learning services such as strengthening learning training content in Broca's area of the brain and intensive strengthening training of motor areas through direct strengthening training of surrounding muscles and oral muscles involved in English speech and pronunciation. The purpose is to provide and a driving method thereof.

상기의 과제를 달성하기 위한 본 발명은 다음과 같은 구성을 포함한다. The present invention for achieving the above problems includes the following configuration.

즉 본 발명의 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 시스템은 적어도 한명 이상의 원어민의 연령, 성별, 음성 샘플 데이터를 입력받아 원어민 데이터베이스를 구축하는 원어민 정보 입력부, 외국어 학습자의 연령, 성별, 음성 샘플 데이터를 입력받은 학습자 정보 입력부, 원어민 정보 입력부에서 구축된 원어민 데이터베이스에서 상기 학습자 정보 입력부로 입력받은 학습자 정보에 매칭시켜 정보 일치율이 높은 순으로 적어도 한명 이상의 원어민을 선별하여 추천하는 매칭부 및 학습자 단말로부터 상기 매칭부에서 추천한 원어민들 중 하나에 대한 선택 신호가 입력되면, 선택받은 원어민과의 발화 훈련 학습 콘텐츠를 제공하는 콘텐츠 제공부를 포함한다.That is, the system for providing a foreign language speech training solution according to an embodiment of the present invention includes a native speaker information input unit that constructs a native speaker database by receiving the age, gender, and voice sample data of at least one native speaker, and the foreign language learner's age, gender, and voice sample data. From the learner information input unit and the native speaker database constructed from the native speaker information input unit, the matching unit selects and recommends at least one native speaker in the order of the information match rate by matching the learner information input to the learner information input unit, and the learner terminal. When a signal to select one of the native speakers recommended by the matching unit is input, it includes a content providing unit that provides speech training learning content with the selected native speaker.

한편, 외국어 발화 훈련 솔루션 제공 방법은 적어도 한명 이상의 원어민의 연령, 성별, 음성 샘플 데이터를 입력받아 원어민 데이터베이스를 구축하는 원어민 정보 입력 단계, 외국어 학습자의 연령, 성별, 음성 샘플 데이터를 입력받은 학습자 정보 입력 단계, 상기 원어민 정보 입력 단계에서 구축된 원어민 데이터베이스에서 상기 학습자 정보 입력 단계로 입력받은 학습자 정보에 매칭시켜 정보 일치율이 높은 순으로 적어도 한 명 이상의 원어민을 선별하여 추천하는 매칭 단계 및 학습자 단말로부터 상기 매칭부에서 추천한 원어민들 중 하나에 대한 선택 신호가 입력되면, 선택받은 원어민의 발화 훈련 학습 콘텐츠를 제공하는 콘텐츠 제공 단계를 포함한다.Meanwhile, the method of providing a foreign language speech training solution includes a native speaker information input step of building a native speaker database by receiving the age, gender, and voice sample data of at least one native speaker, and inputting the learner information by receiving the foreign language learner's age, gender, and voice sample data. A matching step of selecting and recommending at least one native speaker in the order of the information matching rate by matching the native speaker database constructed in the native speaker information input step with the learner information inputted in the learner information input step, and matching from the learner terminal. When a selection signal for one of the native speakers recommended by the department is input, it includes a content provision step of providing speech training learning content for the selected native speaker.

본 발명에 의하면 원어민 영상을 통한 모방 훈련을 함에 있어 학습자의 음성적 조건과 유사한 음성값의 원어민 멘토를 추천하고, 훈련함으로써 학습자와 원어민 영상 데이터간 음성적 차이를 최소화하고 동기화율을 극대화하여 원어민에 근접하는 유창한 발음, 억양, 발성으로 영어를 구사할 수 있는 수준에 이르도록 하는 외국어 발화 훈련 솔루션 제공 시스템 및 그 구동방법을 제공하는 효과가 도출된다. According to the present invention, when performing imitation training through native speaker videos, a native speaker mentor with voice values similar to the learner's phonetic conditions is recommended and trained to minimize the phonetic difference between the learner and native speaker video data and maximize the synchronization rate to approach the native speaker. The effect of providing a foreign language speech training solution providing system and its operation method to reach the level of speaking English with fluent pronunciation, intonation, and vocalization is derived.

또한, 학습자가 직접 원어민을 선택하여 훈련함으로써 모방학습에 더 효과적인 동기부여를 줄 수 있는 외국어 발화 훈련 솔루션 제공 시스템 및 그 구동방법을 제공할 수 있다.In addition, it is possible to provide a system for providing a foreign language pronunciation training solution and its operation method that can provide more effective motivation for imitation learning by allowing learners to directly select and train native speakers.

또한 뇌의 브로카 영역의 강화 학습 훈련 콘텐츠를 제공하고, 영어 발성과 발음에 관여하는 주변 근육 및 구강 근육의 직접 강화 훈련을 통한 운동 영역 집중 강화 훈련 등의 학습 서비스를 제공하는 외국어 발화 훈련 솔루션 제공 시스템 및 그 구동방법을 제공하는 효과가 있다.In addition, a foreign language speech training solution providing system that provides learning services such as strengthening learning training content in Broca's area of the brain and intensive strengthening training of motor areas through direct strengthening training of surrounding muscles and oral muscles involved in English speech and pronunciation. and its driving method.

도 1 은 본 발명의 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 시스템의 구성을 도시한 블록도이다.
도 2 는 일 실시예에 따른 외국어 발화 훈련 서비스 제공 웹페이지 또는 어플리케이션에서 원어민 그룹의 성별 및 나이 입력 화면의 예시도이다.
도 3 은 일 실시예에 따른 외국어 발화 훈련 서비스 제공 웹페이지 또는 어플리케이션에서 학습자의 성별 및 나이 입력 화면의 예시도이다.
도 4 는 본 발명의 일 실시예에 따른 음성 분석부의 음성 분석 기능을 설명하기 위한 레이더 차트 예시도이다.
도 5 는 본 발명의 일 실시예에 따른 외국어 발화 훈련 서비스 제공 웹페이지 또는 어플리케이션에서 원어민 매칭 결과 화면의 예시도이다.
도 6 은 본 발명의 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 방법의 흐름도이다.
Figure 1 is a block diagram showing the configuration of a system for providing a foreign language speech training solution according to an embodiment of the present invention.
Figure 2 is an example of a screen for entering gender and age of a native speaker group on a web page or application providing a foreign language pronunciation training service according to an embodiment.
Figure 3 is an example of a learner's gender and age input screen on a web page or application providing a foreign language speech training service according to an embodiment.
Figure 4 is an example radar chart for explaining the voice analysis function of the voice analysis unit according to an embodiment of the present invention.
Figure 5 is an example of a native speaker matching result screen on a web page or application providing a foreign language speech training service according to an embodiment of the present invention.
Figure 6 is a flowchart of a method for providing a foreign language speech training solution according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. It should be noted that the technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention, unless specifically defined in a different sense in the present invention, should be interpreted as meanings generally understood by those skilled in the art in the technical field to which the present invention pertains, and are not overly comprehensive. It should not be interpreted in a literal or excessively reduced sense.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings.

도 1 은 본 발명의 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 시스템의 구성을 도시한 블록도이다. Figure 1 is a block diagram showing the configuration of a system for providing a foreign language speech training solution according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 시스템은 원어민 강사의 영상 데이터를 기반으로 특화된 말하기 훈련 전용 컨텐츠를 제공하는 발화 전용 시뮬레이터를 제공한다. 또한 학습자의 표정과 제스처에 대한 실물 영상 쉐도잉을 통해 멘토의 언어적 특질을 학습하도록 하는 학습자 맞춤형 맨토링 기능, 상호 간 연령대와 성별에 따른 멘토 매칭 기능, 음성/발음/어속/표정/동작에 다른 원어민의 언어적 특질을 학습하고, 청취 동시 발화(오버래핑)를 통한 음성 정보 손실 최소화 기능을 구비한 음성 인식 모듈을 포함한다.A system for providing a foreign language speech training solution according to an embodiment of the present invention provides a speech simulator that provides specialized speaking training content based on video data of a native speaker instructor. In addition, there is a customized mentoring function for learners to learn the linguistic characteristics of the mentor through real-life video shadowing of the learner's facial expressions and gestures, a mentor matching function according to each other's age and gender, and a function for different voice/pronunciation/speech/expression/movement. It includes a speech recognition module that learns the linguistic characteristics of native speakers and has a function to minimize speech information loss through simultaneous listening and speech (overlapping).

특히 운동성 언어 영역으로 알려진 뇌의 브로카 영역의 강화 학습 훈련 콘텐츠를 제공하고, 영어 발성과 발음에 관여하는 주변 근육 및 구강 근육의 직접 강화 훈련을 통한 운동 영역 집중 강화 훈련 등의 학습 서비스를 제공할 수 있다.In particular, it provides strengthening learning training content for the Broca's area of the brain, known as the motor language area, and provides learning services such as intensive strengthening training for motor areas through direct strengthening training of surrounding muscles and oral muscles involved in English speech and pronunciation. there is.

즉, 학습자 음성 맞춤형 외국어 발화 훈련 솔루션 제공 시스템(10)은 원어민 강사 그룹의 성별/나이를 입력받고, 학습자의 성별/나이를 입력받는다.In other words, the system 10 for providing a foreign language speech training solution tailored to the learner's voice receives input of the gender/age of the native speaker instructor group and inputs the gender/age of the learner.

그리고 원어민 강사의 학습 콘텐츠 영상을 녹취하여 생성된 원어민 음성 데이터를 저장하고, 학습자의 발화 데이터를 녹취하여 생성된 학습자 음성 데이터를 수신한다. Then, native speaker voice data generated by recording the learning content video of a native speaker instructor is stored, and learner voice data generated by recording the learner's speech data is received.

그리고 학습자의 음성 데이터를 분석하여 획득한 학습자의 음성 요소 및 남/여 각 100명의 원어민 강사의 영상 데이터 대조군 음성요소를 비교하여 학습자 음성 요소값에 가장 근접하는 원어민 영상 추천군을 출력해줄 수 있다. In addition, by comparing the learner's voice elements obtained by analyzing the learner's voice data and the voice elements of the video data control group of 100 male and female native speaker instructors, a native speaker video recommendation group that is closest to the learner's voice element value can be output.

도 1 과 같이 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 시스템(10)은 통신부(110), 원어민 정보 입력부(120), 학습자 정보 입력부(130), 매칭부(140), 콘텐츠 제공부(150), 음성 분석부(145), 평가부(160) 및 저장부(170)를 포함한다. As shown in Figure 1, the foreign language speech training solution providing system 10 according to an embodiment includes a communication unit 110, a native speaker information input unit 120, a learner information input unit 130, a matching unit 140, and a content provision unit 150. , includes a voice analysis unit 145, an evaluation unit 160, and a storage unit 170.

통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. The communication unit 110 communicates with any internal component or at least one external terminal through a wired/wireless communication network. Here, wireless Internet technologies include Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet Access). ), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS), etc. The communication unit 110 transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above.

또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.In addition, short-range communication technologies include Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and Near Field Communication (NFC). , Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, etc. may be included. Additionally, wired communication technologies may include Power Line Communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cables, etc.

외부의 임의의 적어도 하나의 단말기는 원어민 단말(20) 또는 학습자 단말(30)일 수 있다. At least one external terminal may be a native speaker terminal 20 or a learner terminal 30.

원어민 단말(20)과 학습자 단말(30)은 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 휴대성과 이동성이 보장되는 무선 통신 장치일 수 있다. 또는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수도 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. The native speaker terminal 20 and the learner terminal 30 are terminals that can access a remote server or terminal through a network and may be wireless communication devices that ensure portability and mobility. Alternatively, it may be implemented as a computer that can access a remote server or terminal through a network. Here, the computer may include, for example, a laptop, desktop, laptop, etc. equipped with a web browser.

원어민 단말(20)과 학습자 단말(30)은 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 폴더블 단말기(Foldable Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal), 디지털 사이니지 장치 등과 같은 다양한 단말기에 적용될 수 있다. The native speaker terminal 20 and the learner terminal 30 are a smart phone, a portable terminal, a mobile terminal, a foldable terminal, and a personal digital assistant (PDA). ), PMP (Portable Multimedia Player) terminal, telematics terminal, navigation terminal, personal computer, laptop computer, Slate PC, Tablet PC, ultrabook ), wearable devices (e.g., including watch type terminal (Smartwatch), glass type terminal (Smart Glass), HMD (Head Mounted Display), etc.), Wibro terminal, IPTV (Internet Protocol Television) terminal , can be applied to various terminals such as smart TVs, digital broadcasting terminals, AVN (Audio Video Navigation) terminals, A/V (Audio/Video) systems, flexible terminals, and digital signage devices.

일 실시예에 있어서 원어민 단말(20)은 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 시스템이 제공하는 외국어 발화 훈련 프로그램이나 앱, 웹페이지를 통해 교수자 역할을 할 수 있는 원어민이 소지하는 단말이고, 학습자 단말(30)은 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 시스템이 제공하는 외국어 발화 훈련 프로그램이나 앱, 웹페이지를 통해 외국어 학습을 하고자하는 학습자가 소지하는 단말로 기술적 구성은 동일하지만, 발명의 이해를 돕기위해 구분하여 설명한다. In one embodiment, the native speaker terminal 20 is a terminal owned by a native speaker who can act as an instructor through a foreign language speech training program, app, or web page provided by the foreign language pronunciation training solution providing system according to one embodiment, and is a terminal owned by a learner. The terminal 30 is a terminal owned by a learner who wants to learn a foreign language through a foreign language speech training program, app, or web page provided by the foreign language pronunciation training solution provision system according to an embodiment. Although the technical configuration is the same, the terminal 30 is used for understanding the invention. To help, it is explained separately.

원어민 단말(20) 및 학습자 단말(30) 각각은 다른 단말들과의 통신 기능을 수행하기 위한 통신부(미도시), 다양한 정보 및 프로그램(또는 애플리케이션)을 저장하기 위한 저장부(미도시), 다양한 정보 및 프로그램 실행 결과를 표시하기 위한 표시부(미도시), 상기 다양한 정보 및 프로그램 실행 결과에 대응하는 음성 정보를 출력하기 위한 음성 출력부(미도시), 각 단말의 다양한 구성 요소 및 기능을 제어하기 위한 제어부(미도시) 등을 포함할 수 있다.The native speaker terminal 20 and the learner terminal 30 each include a communication unit (not shown) for performing communication functions with other terminals, a storage unit (not shown) for storing various information and programs (or applications), and various A display unit (not shown) for displaying information and program execution results, an audio output unit (not shown) for outputting audio information corresponding to the various information and program execution results, and controlling various components and functions of each terminal. It may include a control unit (not shown), etc.

원어민 정보 입력부(120)는 적어도 하나 이상의 원어민 단말(20)로부터 원어민의 연령, 성별, 음성 샘플 데이터를 입력받아 원어민 데이터베이스를 구축한다. 일 실시예에 있어서 원어민 정보 입력부(120)는 원어민 단말(20)로부터 원어민 각각에 대해 성별, 나이 정보를 입력받는다. 그리고 원어민 단말(20)로부터 원어민 영상을 녹취한 학습 콘텐츠를 더 수신할 수 있다. The native speaker information input unit 120 receives the native speaker's age, gender, and voice sample data from at least one native speaker terminal 20 and constructs a native speaker database. In one embodiment, the native speaker information input unit 120 receives gender and age information for each native speaker from the native speaker terminal 20. Additionally, learning content recorded from a native speaker's video can be received from the native speaker terminal 20.

원어민 정보 입력부(120)는 관리자 웹페이지에서 원어민이 멘토 회원으로 등록시에 원어민 데이터베이스 구축을 위한 정보들을 입력받을 수 있다. The native speaker information input unit 120 can receive information for building a native speaker database when a native speaker registers as a mentor member on the administrator web page.

도 2 는 일 실시예에 따른 외국어 발화 훈련 서비스 제공 웹페이지 또는 어플리케이션에서 원어민 그룹의 성별 및 나이 입력 화면의 예시도이다. Figure 2 is an example of a screen for entering gender and age of a native speaker group on a web page or application providing a foreign language pronunciation training service according to an embodiment.

원어민 정보 수정은 관리자가 하거나 원어민이 원어민 단말(20)에서 직접 수행할 수 있다. Native speaker information can be modified by an administrator or by a native speaker directly on the native speaker terminal 20.

학습자 정보 입력부(130)는 학습자 단말(30)로부터 외국어 학습자의 연령, 성별, 음성 샘플 데이터를 입력받는다. 일 실시예에 있어서, 학습자 정보 입력부(130)는 관리자 웹페이지에서 학습자 단말(30)로부터 학습자의 성별, 나이 정보를 입력받고 회원 가입요청에 따라 ID를 생성할 수 있다. 그리고 학습자 정보 입력부(130)는 학습자 ID와 함께 학습자의 성별 및 나이 정보를 함께 매칭시켜 저장한다. The learner information input unit 130 receives the foreign language learner's age, gender, and voice sample data from the learner terminal 30. In one embodiment, the learner information input unit 130 may receive the learner's gender and age information from the learner terminal 30 on the administrator web page and generate an ID according to a member registration request. And the learner information input unit 130 matches and stores the learner's gender and age information along with the learner ID.

또한 학습자 정보 입력부(130)는 학습자의 음성 샘플 데이터를 입력받는다. 학습자의 음성 샘플 데이터는 회원 가입시에 소정의 텍스트 문장을 제공하여 해당 문장을 말하도록 함으로써 입력받을 수 있다. Additionally, the learner information input unit 130 receives the learner's voice sample data. The learner's voice sample data can be input by providing a certain text sentence when registering as a member and having the learner speak the sentence.

도 3 은 일 실시예에 따른 외국어 발화 훈련 서비스 제공 웹페이지 또는 어플리케이션에서 학습자의 성별 및 나이 입력 화면의 예시도이다. Figure 3 is an example of a learner's gender and age input screen on a web page or application providing a foreign language speech training service according to an embodiment.

학습자는 일 실시예에 따른 외국어 발화 훈련 서비스 제공 웹페이지 또는 어플리케이션에 회원 가입시에 또는 회원가입시에 정보 수정 메뉴를 통해 학습자 개인 정보를 생성하거나 편집할 수 있다. 이때 외국어 발화 훈련 서비스를 제공하는 학습자가 속한 학원이나 단체 정보를 함께 입력할 수 있다. The learner may create or edit the learner's personal information through the information modification menu when registering or registering as a member on a web page or application providing a foreign language pronunciation training service according to an embodiment. At this time, information about the academy or organization to which the learner belongs that provides foreign language pronunciation training services can be entered.

매칭부(140)는 원어민 정보 입력부(120)에서 구축된 원어민 데이터베이스에서 학습자 정보 입력부(130)로 입력받은 학습자 정보에 매칭시켜 정보 일치율이 높은 순으로 적어도 한 명 이상의 원어민을 선별하여 추천해준다. The matching unit 140 matches the native speaker database built in the native speaker information input unit 120 with the learner information input to the learner information input unit 130, and selects and recommends at least one native speaker in order of the highest information match rate.

일 실시예에 있어서 매칭부(140)는 먼저 학습자 단말(30)로부터 학습 콘텐츠의 학습레벨이나 주제와 같은 카테고리 정보를 입력받고, 해당 카테고리에 해당되는 학습 콘텐츠를 업로드한 원어민들 중 적어도 한 명 이상의 원어민을 선별한다. 예를 들어 학습자의 학습 수준이나 원하는 학습 주제에 따라 1차적으로 해당 학습 수준이나 학습 주제에 해당하는 학습 콘텐츠를 업로드 한 원어민 그룹을 형성하고, 형성된 원어민 그룹에서 학습자 정보에 매칭되는 원어민을 선별할 수 있다. In one embodiment, the matching unit 140 first receives category information such as the learning level or topic of the learning content from the learner terminal 30, and matches at least one of the native speakers who uploaded the learning content corresponding to the category. Select native speakers. For example, depending on the learner's learning level or desired learning topic, you can initially form a native speaker group that uploads learning content corresponding to that learning level or learning topic, and select native speakers who match the learner's information from the formed native speaker group. there is.

본 발명의 특징적인 양상에 있어서, 매칭부(140)는 학습자 정보 입력부(130)로 입력받은 음성 샘플 데이터를 분석하여 음성 요소를 추출하고, 원어민 정보 입력부(120)로 입력받은 음성 샘플 데이터로부터 추출된 대조군 음성 요소를 비교하는 음성 분석부(145)를 포함한다. In a characteristic aspect of the present invention, the matching unit 140 analyzes voice sample data input to the learner information input unit 130 to extract voice elements, and extracts voice elements from the voice sample data input to the native speaker information input unit 120. It includes a voice analysis unit 145 that compares the control voice elements.

도 4 는 본 발명의 일 실시예에 따른 음성 분석부의 음성 분석 기능을 설명하기 위한 레이더 차트 예시도이다. Figure 4 is an example radar chart for explaining the voice analysis function of the voice analysis unit according to an embodiment of the present invention.

도 4 에서와 같이 일 실시예에 따른 음성 분석부(145)는 원어민과 학습자의 음성 샘플 데이터로부터 음성 주파수(pitch)값, 음성 크기(volume)값, 음성 강도(pressure)값, 음색(tone) 및 어속(tempo)에 대한 음성 요소를 추출하여 비교한다. As shown in FIG. 4, the voice analysis unit 145 according to one embodiment calculates voice frequency (pitch) value, voice volume (volume) value, voice intensity (pressure) value, and tone (tone) from voice sample data of native speakers and learners. and voice elements for tempo are extracted and compared.

음성 주파수(pitch)값은 음의 높낮이로 주파수나 성대 진동에 연관된 값이다. 평균적으로 남자는 100~150Hz, 여자는 200~250Hz의 값을 갖는다.The voice frequency (pitch) value is the pitch of the sound and is a value related to the frequency or vocal cord vibration. On average, men have a value of 100 to 150 Hz and women have a value of 200 to 250 Hz.

그리고 음성 크기(volume)값은 소리의 크기값으로 보통 20~120dB(데시벨) 사이이다. 소리의 음성 강도(pressure)값은 소리의 세기 즉 음압에 관한 값으로 일반적으로는 1/1,000Pa~1Pa(파스칼)사이이다. And the voice volume value is the volume of the sound and is usually between 20 and 120 dB (decibel). The pressure value of sound is a value related to the intensity of sound, that is, sound pressure, and is generally between 1/1,000 Pa and 1 Pascal (Pascal).

음색(tone)은 성대접지 유무에 따른 질감을 나타낼 수 있는 값으로 기준음과 배음(기준음의 n배)의 합 또는 dB와 Hz의 함수로 나타낼 수 있다. 어속(tempo)은 말의 빠르기를 나타는 값으로 1초당 발화되는 단어 또는 음소의 개수이다. 일반적으로 1 내지 6개 사이일 수 있다. Tone is a value that can express the texture depending on the presence or absence of vocal cord grounding, and can be expressed as the sum of the reference tone and overtone (n times the reference tone) or as a function of dB and Hz. Tempo is a value that indicates the speed of speech and is the number of words or phonemes uttered per second. Typically there may be between 1 and 6.

음성 분석부(145)는 학습자의 음성 샘플 데이터를 도 2 와 같이 각 요소들의 값으로 레이더 차트 위에 도형화할 수 있다. 즉 음성 분석부(145)는 학습자의 음성 샘플 데이터를 수신하여 각 요소 값을 추출하고, 분석하여 도출되는 레이더 차트의 데이터 도형과 근접한 데이터 도형을 갖는 원어민의 음성 데이터를 추출할 수 있다. The voice analysis unit 145 can graphically represent the learner's voice sample data on a radar chart with the values of each element, as shown in FIG. 2 . That is, the voice analysis unit 145 can receive the learner's voice sample data, extract the value of each element, and extract the native speaker's voice data having a data shape close to the data shape of the radar chart derived through analysis.

즉 음성 분석부(145)는 각 원어민들의 음성 샘플 데이터에 대해 요소별 분석 결과로 레이더 차트에 표시되는 데이터 도형들 중에서 학습자의 음성 샘플 데이터에 대해 요소별 분석결과로 레이더 차트에 표시되는 데이터 도형과 일치도가 높은 원어민의 데이터 도형을 추출한다. That is, the voice analysis unit 145 selects the data figures displayed on the radar chart as a result of an element-by-element analysis of the learner's voice sample data among the data shapes displayed on the radar chart as a result of an element-by-element analysis of each native speaker's voice sample data. Extract data figures from native speakers with high agreement.

콘텐츠 제공부(150)는 학습자 단말(30)로부터 매칭부(140)에서 추천한 원어민들 중 하나에 대한 선택 신호가 입력되면, 선택받은 원어민과의 발화 훈련 학습 콘텐츠를 제공한다.When a signal to select one of the native speakers recommended by the matching unit 140 is input from the learner terminal 30, the content provider 150 provides speech training learning content with the selected native speaker.

콘텐츠 제공부(150)는 학습자의 음색에 맞는 특정인의 음색으로 학습이 가능한 콘텐츠를 제공함으로써 영어 모방도 정확도를 향상시킬 수 있다. 콘텐츠 제공부(150)는 특정 원어민이 발음한 문장에 대해 학습자의 동시 발화 학습 횟수가 설정된 값에 도달하면 다음 문장으로 넘어가는 식의 콘텐츠를 제공할 수 있다. 즉 학습자와 음색이 유사한 원어민이 외국어 문장을 출력하면 학습자가 따라서 또는 원어민과 동시에 발화하는 유형의 콘텐츠를 제공한다. The content provider 150 can improve English imitation accuracy by providing content that can be learned in a specific person's tone that matches the learner's tone. The content provider 150 may provide content that moves to the next sentence when the number of times the learner learns simultaneous speech for a sentence pronounced by a specific native speaker reaches a set value. In other words, when a native speaker with a similar tone of voice to the learner outputs a foreign language sentence, it provides the type of content that the learner can utter along with or at the same time as the native speaker.

도 5 는 본 발명의 일 실시예에 따른 외국어 발화 훈련 서비스 제공 웹페이지 또는 어플리케이션에서 원어민 매칭 결과 화면의 예시도이다. Figure 5 is an example of a native speaker matching result screen on a web page or application providing a foreign language speech training service according to an embodiment of the present invention.

도 5 와 같이 매칭부(140)는 전체 원어민 그룹에서 학습자의 음성 데이터와 매칭결과, 일치도가 높은 적어도 하나 이상의 원어민을 선별하여 추천해줄 수 있다. 그리고 선별된 적어도 하나 이상의 원어민들 중 하나에 대한 선택신호를 입력받는다. As shown in Figure 5, the matching unit 140 may select and recommend at least one native speaker with a high degree of agreement between the learner's voice data and the matching result from the entire native speaker group. Then, a selection signal for one of the selected at least one native speakers is input.

즉 학습자와 상호 간 연령대와 성별이 유사한 원어민 멘토와의 매칭을 통해 음성/발음/어속/표정/동작에 다른 원어민의 언어적 특질을 학습할 수 있다. In other words, through matching with a native speaker mentor of similar age and gender to each other, learners can learn the linguistic characteristics of native speakers that differ in voice/pronunciation/word slang/facial expression/movement.

콘텐츠 제공부(150)는 운동성 언어 영역으로 알려진 뇌의 브로카 영역의 강화 학습 훈련 콘텐츠를 제공하고, 영어 발성과 발음에 관여하는 주변 근육 및 구강 근육의 직접 강화 훈련을 통한 운동 영역 집중 강화 훈련 등의 학습 서비스를 제공한다. The content provider 150 provides strengthening learning training content for Broca's area of the brain, known as the motor language area, and provides intensive strengthening training for motor areas through direct strengthening training of surrounding muscles and oral muscles involved in English speech and pronunciation. Provides learning services.

추가적으로 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 시스템(10)은 외국어 발화 훈련 서비스 제공 웹페이지 또는 어플리케이션을 통해 선택받은 원어민과의 통신 채널을 형성할 수 있다. 1:1 채팅 학습방을 개설하거나, 실시간 화상통화 연결 스케줄을 세팅하도록 구현될 수 있다. 학습자가 매칭된 원어민에게 질문을 하거나 부족한 부분에 대한 보충을 용이하게 할 수 있어 학습 효율을 높일 수 있다. Additionally, the foreign language pronunciation training solution providing system 10 according to one embodiment may form a communication channel with a native speaker selected through a foreign language pronunciation training service providing webpage or application. It can be implemented to open a 1:1 chat learning room or set a real-time video call connection schedule. Learning efficiency can be increased as learners can easily ask questions to matched native speakers or supplement their shortcomings.

본 발명의 추가적인 양상에 있어서, 매칭부(140)는 원어민 강사 선택에 있어 학습자가 입력한 추가 정보를 더 반영하여 선별할 수 있다. In an additional aspect of the present invention, the matching unit 140 may select a native speaker instructor by further reflecting additional information input by the learner.

예를 들어 학습자에게 맞는 원어민 강사를 선별함에 있어서, 발음이나 다른 여타적 요소에 대해서 학습자로부터 직접 설정값을 입력받고 이를 더 반영해서 학습자에 매칭되는 원어민을 선별하도록 구현될 수 있다. For example, when selecting a native speaker instructor suitable for a learner, settings for pronunciation or other factors can be input directly from the learner and further reflected to select a native speaker who matches the learner.

나아가 학습자로부터 원어민 매칭 요소가 되는 적어도 하나 이상의 항목들을 제시하고 학습자가 중요하게 생각하는 요소 순으로 가중치를 부여하도록 하여 학습자가 설정한 가중치에 따라 매칭되는 원어민을 선택하는 것도 가능하다. Furthermore, it is also possible to present at least one item that becomes a native speaker matching element from the learner and assign weights in the order of elements that the learner considers important, so that a matching native speaker can be selected according to the weight set by the learner.

학습자마다 성별이나 연령과 같은 기준에 우선권을 둘지, 발음 유사도에 우선권을 둘지를 학습자가 직접 설정하여 입력할 수 있다. 발음 유사도 중에서도 특히 음성 주파수(pitch)값, 음성 크기(volume)값, 음성 강도(pressure)값, 음색(tone) 및 어속(tempo) 항목들 중 어느 요소에 비중을 두고 유사도가 높은 원어민을 선정할지를 학습자가 직접 설정할 수 있다. Each learner can set and enter whether to give priority to criteria such as gender or age, or to pronunciation similarity. Among pronunciation similarities, which factor should be given more weight to select a native speaker with high similarity, especially among the voice frequency (pitch) value, voice volume (voice volume), voice intensity (pressure), tone, and tempo? Learners can set it themselves.

본 발명의 일 양상에 있어서 평가부(160)는 콘텐츠 제공부(150)가 제공한 선택 받은 원어민과의 발화 훈련 학습 콘텐츠를 제공하고, 학습자로부터 발화 데이터를 수신하여 원어민의 발화데이터와 비교하여 일치도 정도를 평가하여 평가 결과를 제공해준다. 구체적으로 발화시 유사도(%), 반복횟수, 평가 포인트를 산출하여 결과를 제공해줄 수 있다. In one aspect of the present invention, the evaluation unit 160 provides speech training learning content with a selected native speaker provided by the content provider 150, receives speech data from the learner, and compares it with the native speaker's speech data to determine the degree of agreement. Evaluates the degree and provides evaluation results. Specifically, the similarity (%), number of repetitions, and evaluation points can be calculated during utterance and the results can be provided.

이에 따라 보기, 듣기, 발화, 판정, 모니터링을 동시에 수행하여 오버랩핑 훈련이 가능하여 학습 효율을 높일 수 있다. Accordingly, overlapping training is possible by performing viewing, listening, speaking, judging, and monitoring simultaneously, thereby improving learning efficiency.

즉, 학습자가 원어민의 학습 콘텐츠를 통해 청취와 동시에 발화(오버래핑)를 수행함으로써, 음성 정보 손실 최소화 기능을 구비한 음성 인식 모듈을 포함하여 학습자의 발화 능력을 효율적으로 평가할 수 있다. In other words, by allowing the learner to listen and simultaneously speak (overlapping) through the learning content of a native speaker, the learner's speech ability can be efficiently evaluated by including a speech recognition module with a function to minimize speech information loss.

이에 따라 언어의 생성 및 구사 능력을 담당하는 브로카 영역(Broca's area)의 강화 훈련 및 발성에 관여하는 성대와 주변 근육의 직접적 강화 훈련을 통해 영어 구사 능력을 활성화시키는 알고리즘을 실현할 수 있다. 즉 학습자와 원어민 간에 구사력 격차를 최소화하고 일치율을 최대치까지 끌어오려서 학습자 맞춤형 솔루션으로 학습 능률을 극대화시킬 수 있다. Accordingly, an algorithm that activates English speaking ability can be realized through strengthening training of Broca's area, which is responsible for language production and speaking ability, and direct strengthening training of the vocal cords and surrounding muscles involved in vocalization. In other words, by minimizing the gap in speaking skills between learners and native speakers and maximizing the agreement rate, learning efficiency can be maximized with a customized solution.

도 6 은 본 발명의 일 실시예에 따른 외국어 발화 훈련 솔루션 제공 방법의 흐름도이다.Figure 6 is a flowchart of a method for providing a foreign language speech training solution according to an embodiment of the present invention.

일 실시예에 따른 외국어 발화 훈련 솔루션 제공 방법은 먼저, 적어도 한명 이상의 원어민의 연령, 성별, 음성 샘플 데이터를 입력받아 원어민 데이터베이스를 구축한다(S600). A method of providing a foreign language speech training solution according to an embodiment first constructs a native speaker database by inputting the age, gender, and voice sample data of at least one native speaker (S600).

일 실시예에 있어서 원어민 단말로부터 원어민 각각에 대해 성별, 나이 정보를 입력받는다. 그리고 원어민 단말로부터 원어민 영상을 녹취한 학습 콘텐츠를 더 수신할 수 있다. In one embodiment, gender and age information is input for each native speaker from the native speaker terminal. Additionally, you can receive additional learning content recorded from a native speaker's video from the native speaker's terminal.

원어민 정보 입력 단계는 관리자 웹페이지에서 원어민이 멘토 회원으로 등록시에 원어민 데이터베이스 구축을 위한 정보들을 입력받을 수 있다. In the native speaker information input step, when a native speaker registers as a mentor member on the administrator web page, information for building a native speaker database can be entered.

그리고 외국어 학습자의 연령, 성별, 음성 샘플 데이터를 입력받는다(S610). Then, the foreign language learner's age, gender, and voice sample data are input (S610).

일 실시예에 있어서, 학습자 정보 입력 단계 관리자 웹페이지에서 학습자 단말로부터 학습자의 성별, 나이 정보를 입력받고 회원 가입요청에 따라 ID를 생성할 수 있다. 그리고 생성된 학습자 ID와 함께 학습자의 성별 및 나이 정보를 함께 매칭시켜 저장한다. In one embodiment, the learner's gender and age information can be input from the learner's terminal in the learner information input step manager web page, and an ID can be generated according to the member registration request. Then, the learner's gender and age information are matched and stored together with the created learner ID.

또한 학습자의 음성 샘플 데이터를 입력받는다. 학습자의 음성 샘플 데이터는 회원 가입시에 소정의 텍스트 문장을 제공하여 해당 문장을 말하도록 함으로써 입력받을 수 있다. Additionally, the learner's voice sample data is input. The learner's voice sample data can be input by providing a certain text sentence when registering as a member and having the learner speak the sentence.

그리고 학습자 정보 입력 단계로 입력받은 음성 샘플 데이터를 분석하여 음성 요소를 추출하고, 상기 원어민 정보 입력 단계로 입력받은 음성 샘플 데이터로부터 추출된 대조군 음성 요소를 비교 분석한다(S620).Then, voice elements are extracted by analyzing the voice sample data input in the learner information input step, and control voice elements extracted from the voice sample data input in the native speaker information input step are compared and analyzed (S620).

음성 분석 단계는 학습자의 음성 샘플 데이터를 도 2 와 같이 각 요소들의 값으로 레이더 차트 위에 도형화할 수 있다. 즉 음성 분석 단계는 학습자의 음성 샘플 데이터를 수신하여 각 요소 값을 추출하고, 분석하여 도출되는 레이더 차트의 데이터 도형과 근접한 데이터 도형을 갖는 원어민의 음성 데이터를 추출할 수 있다. In the voice analysis step, the learner's voice sample data can be graphicized on a radar chart with the values of each element, as shown in Figure 2. In other words, the voice analysis step can receive the learner's voice sample data, extract the value of each element, and extract native speaker's voice data that has a data shape close to the data shape of the radar chart derived through analysis.

음성 분석 단계는 각 원어민들의 음성 샘플 데이터에 대해 요소별 분석 결과로 레이더 차트에 표시되는 데이터 도형들 중에서 학습자의 음성 샘플 데이터에 대해 요소별 분석결과로 레이더 차트에 표시되는 데이터 도형과 일치도가 높은 원어민의 데이터 도형을 추출한다. The voice analysis stage is the result of an element-by-element analysis of each native speaker's voice sample data. Among the data shapes displayed on the radar chart, the learner's voice sample data is analyzed by element, and a native speaker with a high degree of agreement with the data shape displayed on the radar chart is selected. Extract the data shape.

본 발명의 일 양상에 있어서, 분석 단계는, 음성 샘플 데이터로부터 음성 주파수(pitch)값, 음성 크기(volume)값, 음성 강도(pressure)값, 음색(tone) 및 어속(tempo)에 대한 음성 요소를 추출하여 비교하여 분석한다.In one aspect of the present invention, the analysis step includes voice elements for voice frequency (pitch), voice volume (volume), voice intensity (pressure), timbre (tone), and tempo from voice sample data. Extract, compare and analyze.

이후에 원어민 정보 입력 단계에서 구축된 원어민 데이터베이스에서 상기 학습자 정보 입력 단계로 입력받은 학습자 정보에 매칭시켜 정보 일치율이 높은 순으로 적어도 한 명 이상의 원어민을 선별하여 추천한다(S630). Afterwards, the native speaker database constructed in the native speaker information input step is matched with the learner information entered in the learner information input step, and at least one native speaker is selected and recommended in order of the information matching rate (S630).

이때 매칭 단계는 먼저 학습자 단말로부터 학습 콘텐츠의 학습레벨이나 주제와 같은 카테고리 정보를 입력받고, 해당 카테고리에 해당되는 학습 콘텐츠를 업로드한 원어민들 중 적어도 한 명 이상의 원어민을 선별한다. 예를 들어 학습자의 학습 수준이나 원하는 학습 주제에 따라 1차적으로 해당 학습 수준이나 학습 주제에 해당하는 학습 콘텐츠를 업로드 한 원어민 그룹을 형성하고, 형성된 원어민 그룹에서 학습자 정보에 매칭되는 원어민을 선별할 수 있다. At this time, the matching step first receives category information such as the learning level or topic of the learning content from the learner terminal, and selects at least one native speaker among the native speakers who uploaded the learning content corresponding to the category. For example, depending on the learner's learning level or desired learning topic, you can initially form a native speaker group that uploads learning content corresponding to that learning level or learning topic, and select native speakers who match the learner's information from the formed native speaker group. there is.

그리고 학습자 단말로부터 매칭단계에서 추천한 원어민들 중 하나에 대한 선택 신호가 입력되면(S640), 선택받은 원어민의 발화 훈련 학습 콘텐츠를 제공한다(S650).And when a selection signal for one of the native speakers recommended in the matching step is input from the learner terminal (S640), speech training learning content for the selected native speaker is provided (S650).

즉 학습자와 상호 간 연령대와 성별이 유사한 원어민 멘토와의 매칭을 통해 음성/발음/어속/표정/동작에 다른 원어민의 언어적 특질을 학습할 수 있다. In other words, through matching with a native speaker mentor of similar age and gender to each other, learners can learn the linguistic characteristics of native speakers that differ in voice/pronunciation/word slang/facial expression/movement.

콘텐츠 제공 단계는 운동성 언어 영역으로 알려진 뇌의 브로카 영역의 강화 학습 훈련 콘텐츠를 제공하고, 영어 발성과 발음에 관여하는 주변 근육 및 구강 근육의 직접 강화 훈련을 통한 운동 영역 집중 강화 훈련 등의 학습 서비스를 제공한다.The content provision stage provides strengthening learning training content in Broca's area of the brain, known as the motor language area, and provides learning services such as intensive strengthening training in motor areas through direct strengthening training of surrounding muscles and oral muscles involved in English speech and pronunciation. to provide.

이후에 콘텐츠 제공 단계가 제공한 선택받은 원어민과의 발화 훈련 학습 콘텐츠를 제공하고, 학습자로부터 발화 데이터를 수신하여 원어민의 발화데이터와 비교하여 일치도 정도를 평가하여 평가 결과를 제공해준다(S660).Afterwards, the learning content for speech training with the selected native speaker provided in the content provision step is provided, speech data is received from the learner, compared with the native speaker's speech data, the degree of agreement is evaluated, and an evaluation result is provided (S660).

이에 따라 보기, 듣기, 발화, 판정, 모니터링을 동시에 수행하여 오버랩핑 훈련이 가능하여 학습 효울을 높일 수 있다. Accordingly, overlapping training is possible by performing viewing, listening, speaking, judging, and monitoring simultaneously, thereby improving learning efficiency.

즉, 학습자가 원어민의 학습 콘텐츠를 통해 청취와 동시에 발화(오버래핑)를 수행함으로써, 음성 정보 손실 최소화 기능을 구비한 음성 인식 모듈을 포함하여 학습자의 발화 능력을 효율적으로 평가할 수 있다. In other words, by allowing the learner to listen and simultaneously speak (overlapping) through the learning content of a native speaker, the learner's speech ability can be efficiently evaluated by including a speech recognition module with a function to minimize speech information loss.

전술한 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.The above-described method may be implemented as an application or in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention, or may be known and usable by those skilled in the computer software field.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and perform program instructions, such as ROM, RAM, flash memory, etc.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the invention and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the following patent claims. You will be able to.

10 : 시스템 20 : 원어민 단말
30 : 학습자 단말 110 : 통신부
120 : 원어민 정보 입력부 130 : 학습자 정보 입력부
140 : 매칭부 150 : 콘텐츠 제공부
145 : 음성 분석부 160 : 평가부
180 : 저장부
10: System 20: Native speaker terminal
30: Learner terminal 110: Communication department
120: native speaker information input unit 130: learner information input unit
140: Matching unit 150: Content provision unit
145: Voice analysis unit 160: Evaluation unit
180: storage unit

Claims (8)

적어도 한명 이상의 원어민의 연령, 성별, 음성 샘플 데이터를 입력받아 원어민 데이터베이스를 구축하는 원어민 정보 입력부
외국어 학습자의 연령, 성별, 음성 샘플 데이터를 입력받은 학습자 정보 입력부;
원어민 정보 입력부에서 구축된 원어민 데이터베이스에서 상기 학습자 정보 입력부로 입력받은 학습자 정보에 매칭시켜 정보 일치율이 높은 순으로 적어도 한명 이상의 원어민을 선별하여 추천하는 매칭부; 및
학습자 단말로부터 상기 매칭부에서 추천한 원어민들 중 하나에 대한 선택 신호가 입력되면, 선택받은 원어민과의 발화 훈련 학습 콘텐츠를 제공하는 콘텐츠 제공부;를 포함하는, 외국어 발화 훈련 솔루션 제공 시스템.
Native speaker information input unit that constructs a native speaker database by inputting the age, gender, and voice sample data of at least one native speaker
A learner information input unit that receives the foreign language learner's age, gender, and voice sample data;
a matching unit that selects and recommends at least one native speaker in the order of the highest information matching rate by matching the learner information inputted through the learner information input section from the native speaker database built in the native speaker information input section; and
When a selection signal for one of the native speakers recommended by the matching unit is input from the learner terminal, a content providing unit that provides speech training learning content with the selected native speaker; a foreign language speech training solution providing system comprising a.
제 1 항에 있어서,
상기 매칭부는,
상기 학습자 정보 입력부로 입력받은 음성 샘플 데이터를 분석하여 음성 요소를 추출하고, 상기 원어민 정보 입력부로 입력받은 음성 샘플 데이터로부터 추출된 대조군 음성 요소를 비교하는 음성 분석부를 포함하는, 외국어 발화 훈련 솔루션 제공 시스템.
According to claim 1,
The matching unit,
A system for providing a foreign language speech training solution, comprising a voice analysis unit that analyzes voice sample data input to the learner information input unit to extract voice elements, and compares control voice elements extracted from the voice sample data input to the native speaker information input unit. .
제 2 항에 있어서,
상기 음성 분석부는,
음성 샘플 데이터로부터 음성 주파수(pitch)값, 음성 크기(volume)값, 음성 강도(pressure)값, 음색(tone) 및 어속(tempo)에 대한 음성 요소를 추출하여 비교하는, 외국어 발화 훈련 솔루션 제공 시스템.
According to claim 2,
The voice analysis unit,
A system that provides a foreign language speech training solution that extracts and compares voice elements for voice frequency (pitch), voice volume (volume), voice intensity (pressure), tone, and tempo from voice sample data. .
제 1 항에 있어서,
상기 콘텐츠 제공부가 제공한 선택받은 원어민과의 발화 훈련 학습 콘텐츠를제공하고, 학습자로부터 발화 데이터를 수신하여 원어민의 발화데이터와 비교하여 일치도 정도를 평가하여 평가 결과를 제공해주는 평가부;를 더 포함하는, 외국어 발화 훈련 솔루션 제공 시스템.
According to claim 1,
An evaluation unit that provides speech training learning content with the selected native speaker provided by the content provider, receives speech data from the learner, compares it with the speech data of the native speaker, evaluates the degree of agreement, and provides an evaluation result; further comprising; , a system that provides foreign language speaking training solutions.
적어도 한명 이상의 원어민의 연령, 성별, 음성 샘플 데이터를 입력받아 원어민 데이터베이스를 구축하는 원어민 정보 입력 단계;
외국어 학습자의 연령, 성별, 음성 샘플 데이터를 입력받은 학습자 정보 입력 단계;
상기 원어민 정보 입력 단계에서 구축된 원어민 데이터베이스에서 상기 학습자 정보 입력 단계로 입력받은 학습자 정보에 매칭시켜 정보 일치율이 높은 순으로 적어도 한 명 이상의 원어민을 선별하여 추천하는 매칭 단계; 및
학습자 단말로부터 상기 매칭단계에서 추천한 원어민들 중 하나에 대한 선택 신호가 입력되면, 선택받은 원어민의 발화 훈련 학습 콘텐츠를 제공하는 콘텐츠 제공 단계;를 포함하는, 외국어 발화 훈련 솔루션 제공 방법.
A native speaker information input step of constructing a native speaker database by inputting age, gender, and voice sample data of at least one native speaker;
A learner information input step in which the foreign language learner's age, gender, and voice sample data are input;
A matching step of selecting and recommending at least one native speaker in the order of the highest information matching rate by matching the native speaker database constructed in the native speaker information input step with the learner information input in the learner information input step; and
A content providing step of providing speech training learning content of the selected native speaker when a selection signal for one of the native speakers recommended in the matching step is input from the learner terminal.
제 5 항에 있어서,
상기 매칭 단계는,
상기 학습자 정보 입력 단계로 입력받은 음성 샘플 데이터를 분석하여 음성 요소를 추출하고, 상기 원어민 정보 입력 단계로 입력받은 음성 샘플 데이터로부터 추출된 대조군 음성 요소를 비교하는 음성 분석 단계를 포함하는, 외국어 발화 훈련 솔루션 제공 방법.
According to claim 5,
The matching step is,
Foreign language speech training comprising a voice analysis step of extracting voice elements by analyzing the voice sample data input in the learner information input step and comparing control voice elements extracted from the voice sample data input in the native speaker information input step. How to provide solutions.
제 6 항에 있어서,
상기 분석 단계는,
음성 샘플 데이터로부터 음성 주파수(pitch)값, 음성 크기(volume)값, 음성 강도(pressure)값, 음색(tone) 및 어속(tempo)에 대한 음성 요소를 추출하여 비교하는, 외국어 발화 훈련 솔루션 제공 방법.
According to claim 6,
The analysis step is,
A method of providing a foreign language speech training solution that extracts and compares voice elements for voice frequency (pitch), voice volume (volume), voice intensity (pressure), timbre (tone), and tempo from voice sample data. .
제 5 항에 있어서,
상기 콘텐츠 제공 단계가 제공한 선택받은 원어민과의 발화 훈련 학습 콘텐츠를 제공하고, 학습자로부터 발화 데이터를 수신하여 원어민의 발화데이터와 비교하여 일치도 정도를 평가하여 평가 결과를 제공해주는 평가 단계;를 더 포함하는, 외국어 발화 훈련 솔루션 제공 방법.
According to claim 5,
It further includes an evaluation step of providing speech training learning content with the selected native speaker provided by the content provision step, receiving speech data from the learner, comparing it with the speech data of the native speaker, evaluating the degree of agreement, and providing an evaluation result. How to provide a foreign language speaking training solution.
KR1020220112063A 2022-09-05 2022-09-05 System and Method for Providing speaking practice solution of foreign language KR20240033423A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220112063A KR20240033423A (en) 2022-09-05 2022-09-05 System and Method for Providing speaking practice solution of foreign language

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220112063A KR20240033423A (en) 2022-09-05 2022-09-05 System and Method for Providing speaking practice solution of foreign language

Publications (1)

Publication Number Publication Date
KR20240033423A true KR20240033423A (en) 2024-03-12

Family

ID=90300044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220112063A KR20240033423A (en) 2022-09-05 2022-09-05 System and Method for Providing speaking practice solution of foreign language

Country Status (1)

Country Link
KR (1) KR20240033423A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120040174A (en) 2012-03-26 2012-04-26 조문경 System for correcting english pronunciation using analysis of user's voice-information and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120040174A (en) 2012-03-26 2012-04-26 조문경 System for correcting english pronunciation using analysis of user's voice-information and method thereof

Similar Documents

Publication Publication Date Title
US11527174B2 (en) System to evaluate dimensions of pronunciation quality
US20180061256A1 (en) Automated digital media content extraction for digital lesson generation
KR102302137B1 (en) Apparatus for studying foreign language and method for providing foreign language study service by using the same
US11145222B2 (en) Language learning system, language learning support server, and computer program product
US11605384B1 (en) Duplex communications for conversational AI by dynamically responsive interrupting content
CN110867177A (en) Voice playing system with selectable timbre, playing method thereof and readable recording medium
Daniels et al. The suitability of cloud-based speech recognition engines for language learning.
RU2692051C1 (en) Method and system for speech synthesis from text
CN111711834A (en) Recorded broadcast interactive course generation method and device, storage medium and terminal
Saito et al. Automated assessment of second language comprehensibility: Review, training, validation, and generalization studies
Tao et al. DNN Online with iVectors Acoustic Modeling and Doc2Vec Distributed Representations for Improving Automated Speech Scoring.
KR20220011109A (en) Digital english learning service method and system
Ockey et al. Evaluating technology-mediated second language oral communication assessment delivery models
KR100997255B1 (en) Language learning system of simultaneous interpretation type using voice recognition
Niebuhr et al. PASCAL and DPA: A pilot study on using prosodic competence scores to predict communicative skills for team working and public speaking
KR20240033423A (en) System and Method for Providing speaking practice solution of foreign language
US20220208190A1 (en) Information providing method, apparatus, and storage medium, that transmit related information to a remote terminal based on identification information received from the remote terminal
Johnson An integrated approach for teaching speech spectrogram analysis to engineering students
KR20240033425A (en) System and Method for matching of voice for speaking practice of foreign language
KR101873379B1 (en) Language learning system with dialogue
CN114255759A (en) Method, apparatus and readable storage medium for spoken language training using machine
Levis et al. Pronunciation and technology
KR20140075994A (en) Apparatus and method for language education by using native speaker's pronunciation data and thought unit
Liu Application of speech recognition technology in pronunciation correction of college oral English teaching
CN109903594A (en) Spoken language exercise householder method, device, equipment and storage medium