KR102361205B1 - method for operating pronunciation correction system - Google Patents

method for operating pronunciation correction system Download PDF

Info

Publication number
KR102361205B1
KR102361205B1 KR1020200091342A KR20200091342A KR102361205B1 KR 102361205 B1 KR102361205 B1 KR 102361205B1 KR 1020200091342 A KR1020200091342 A KR 1020200091342A KR 20200091342 A KR20200091342 A KR 20200091342A KR 102361205 B1 KR102361205 B1 KR 102361205B1
Authority
KR
South Korea
Prior art keywords
pronunciation
candidate
text
voice data
candidate pronunciation
Prior art date
Application number
KR1020200091342A
Other languages
Korean (ko)
Other versions
KR20210011896A (en
Inventor
전성국
Original Assignee
전성국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전성국 filed Critical 전성국
Publication of KR20210011896A publication Critical patent/KR20210011896A/en
Application granted granted Critical
Publication of KR102361205B1 publication Critical patent/KR102361205B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명에서 제공하는 발음 교정 시스템의 구동 방법은 평가 본문을 기준으로 평가 본문샘플 본문 발음 본문을 형성하는 단계, 발음 본문을 기준으로 유사하게 잘못 발음될 수 있는 복수개의 후보 발음 본문을 포함하는 후보 발음 본문 그룹을 형성하는 단계, 후보 발음 본문 그룹의 후보 발음 본문에 해당하는 후보 발음 음성 데이터를 포함하는 후보 발음 음성 데이터 그룹을 형성하는 단계, 입력된 사용자 음성 데이터와 후보 발음 음성 데이터 그룹의 후보 발음 음성 데이터의 일치도를 비교하여, 최우선 발음 음성 데이터를 선정하는 단계 및 최우선 발음 음성 데이터과 매칭되는 최종 후보 발음 본문을 선정하는 단계를 포함한다.A method of driving a pronunciation correction system provided in the present invention includes the steps of forming an evaluation text sample body pronunciation text based on an assessment text; candidate pronunciation including a plurality of candidate pronunciation texts that may be similarly mispronounced based on the pronunciation text forming a body group; forming a candidate pronunciation voice data group including candidate pronunciation voice data corresponding to the candidate pronunciation body of the candidate pronunciation body group; input user voice data and candidate pronunciation voices of the candidate pronunciation voice data group Comparing the degree of matching of data, selecting the highest-priority pronunciation voice data and selecting a final candidate pronunciation body matching the highest-priority pronunciation voice data.

Description

발음 교정 시스템의 구동 방법 {method for operating pronunciation correction system}Method for operating pronunciation correction system {method for operating pronunciation correction system}

본 발명은 발음 교정 시스템의 구동 방법에 관한 것이다. 보다 자세하게는, 잘못된 발음을 표시하고 교정할 수 있게 도와주는 발음 교정 시스템의 구동 방법에 관한 것이다.The present invention relates to a method of driving a pronunciation correction system. More particularly, it relates to a driving method of a pronunciation correction system that helps to display and correct incorrect pronunciation.

청각 장애인은 자신의 발음을 들을 수 없거나, 듣기가 어렵기 때문에, 자신이 올바르게 발음했는지를 알기 어렵다. 대부분의 청각 장애인이 말을 배우기 어려운 것은 자신의 발음이 올바르게 되었는지를 들어서 알 수 없기 때문이다.Deaf people cannot hear their pronunciation, or it is difficult to hear, so it is difficult to know whether they pronounce it correctly. The reason that most of the deaf people have difficulty learning to speak is because they cannot tell whether their pronunciation is correct or not.

한편, 음성인식을 위한 기술은 최근 많은 발전을 보이고 있다. 이러한 모든 음성인식 시스템은 해당 단어와 이러한 단어와 관련 되는 음성 데이터들을 매칭하여 가장 가까운 단어들을 찾는 것이다. 따라서 음성 데이터가 입력되었을 때에 결과 값은 입력된 음성 데이터를 기준으로 가장 가까운 단어를 찾는 것이며, 이것에 대한 발음이 올바른 지의 유무를 판단하지는 않는다. 이것은 입력 수단으로서 음성 인식을 이용하기 때문이다. 하지만 이를 통해서는 올바른 음성이 발음되었는지는 판정하기 어렵다.On the other hand, the technology for voice recognition is showing a lot of development in recent years. All of these speech recognition systems match the corresponding word and voice data related to the word to find the closest words. Therefore, when voice data is input, the result value is to find the closest word based on the input voice data, and it is not determined whether the pronunciation is correct. This is because voice recognition is used as an input means. However, it is difficult to determine whether the correct voice is pronounced through this.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 제시된 본문을 올바르게 발음했는지를 판정하는 발음 교정 시스템의 구동 방법을 제공하고자 한다. An object of the present invention is to solve the above problems, and it is an object of the present invention to provide a method of driving a pronunciation correction system for determining whether a presented text is correctly pronounced.

이러한 과제를 해결하고자, 본 발명에서 제공하는 발음 교정 시스템의 구동 방법은 평가 본문을 기준으로 평가 본문의 발음 형태인 발음 본문을 형성하는 단계, 발음 본문을 기준으로 유사하게 잘못 발음될 수 있는 복수개의 후보 발음 본문을 포함하는 후보 발음 본문 그룹을 형성하는 단계, 후보 발음 본문 그룹의 후보 발음 본문에 해당하는 후보 발음 음성 데이터를 포함하는 후보 발음 음성 데이터 그룹을 형성하는 단계, 입력된 사용자 음성 데이터와 후보 발음 음성 데이터 그룹의 후보 발음 음성 데이터의 일치도를 비교하여, 최우선 발음 음성 데이터를 선정하는 단계 및 최우선 발음 음성 데이터과 매칭되는 최종 후보 발음 본문을 선정하는 단계를 포함한다.In order to solve this problem, the driving method of the pronunciation correction system provided by the present invention includes the steps of forming a pronunciation text, which is a pronunciation form of the assessment text, based on the assessment text; forming a candidate pronunciation body group including a candidate pronunciation body group; forming a candidate pronunciation speech data group including candidate pronunciation speech data corresponding to a candidate pronunciation body of the candidate pronunciation body group; Comparing the degree of matching of candidate pronunciation voice data of the pronunciation voice data group, selecting the highest-priority pronunciation voice data and selecting a final candidate pronunciation body matching the highest-priority pronunciation voice data.

일 실시예에 있어서, 복수개의 샘플 본문과 샘플 본문에 대응되는 발음 음성 데이터를 이용하여 해당 샘플 본문에 대응하는 발음 음성 데이터를 학습시키는 학습 단계를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment, the method may further include a learning step of learning pronunciation voice data corresponding to the sample body by using a plurality of sample bodies and pronunciation voice data corresponding to the sample body.

일 실시예에 있어서, 발음 본문을 기준으로 유사하게 잘못 발음될 수 있는 복수개의 후보 발음 본문을 포함하는 후보 발음 본문 그룹을 형성하는 단계는, 발음 본문에서 적어도 하나 이상의 음소를 교체하여 형성하는 것을 특징으로 할 수 있다.In an embodiment, the forming of the candidate pronunciation text group including a plurality of candidate pronunciation texts that may be similarly erroneously pronounced based on the pronunciation text includes forming by replacing at least one phoneme in the pronunciation text. can be done with

일 실시예에 있어서, 후보 발음 음성 데이터 그룹을 형성하는 단계는, 후보 발음 본문을 음절 단위로 분할하여 이에 대응하는 음성 데이터를 조합하여, 후보 발음 본문에 대한 후보 발음 음성 데이터를 형성하는 것을 특징으로 할 수 있다.In an embodiment, the forming of the candidate pronunciation voice data group comprises dividing the candidate pronunciation body into syllable units and combining the corresponding voice data to form candidate pronunciation voice data for the candidate pronunciation text. can do.

일 실시예에 있어서, 후보 발음 본문 그룹을 형성하는 단계는, 제한된 개수의 후보 발음 본문을 포함하는 선별된 후보 발음 본문 그룹을 형성하는 것을 특징으로 할 수 있다.In an embodiment, the forming of the candidate pronunciation text group may include forming a selected candidate pronunciation text group including a limited number of candidate pronunciation texts.

일 실시예에 있어서, 최종 후보 발음 본문과 평가 본문을 비교하여 잘못된 발음 부분을 표시하는 단계를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment, the method may further include displaying an incorrect pronunciation part by comparing the final candidate pronunciation text with the evaluation text.

일 실시예에 있어서, 잘못된 발음 부분을 표시하는 단계는, 최종 후보 발음 본문과 평가 본문의 비교는 음절을 기준으로 표시되는 것을 특징으로 할 수 있다.In an embodiment, the displaying of the incorrect pronunciation part may include displaying a comparison between the final candidate pronunciation text and the evaluation text based on a syllable.

일 실시예에 있어서, 후보 발음 음성 데이터 그룹을 형성하는 단계는, 후보 발음 본문에 대응하는 조합되지 않은 단일 음성 데이터로 후보 발음 본문에 대한 후보 발음 음성 데이터를 형성하는 것을 특징으로 할 수 있다.In an embodiment, the forming of the candidate pronunciation voice data group may include forming the candidate pronunciation voice data for the candidate pronunciation body as uncombined single voice data corresponding to the candidate pronunciation body.

일 실시예에 있어서, 후보 발음 본문 그룹을 형성하는 단계는, 제한된 개수의 후보 발음 본문을 포함하는 선별된 후보 발음 본문 그룹을 형성하고, 후보 발음 음성 데이터 그룹을 형성하는 단계는, 선별된 후보 발음 본문 그룹 내의 후보 발음 본문에 해당하는 후보 발음 음성 데이터를 외부로부터 전송 받아 선별된 후보 발음 음성 데이터 그룹을 형성하는 것을 특징으로 할 수 있다.In an embodiment, the forming of the candidate pronunciation body group includes forming a selected candidate pronunciation body group including a limited number of candidate pronunciation texts, and the forming of the candidate pronunciation voice data group includes: The candidate pronunciation voice data corresponding to the candidate pronunciation body in the body group may be received from the outside to form a selected candidate pronunciation voice data group.

일 실시예에 있어서, 후보 발음 본문 그룹을 형성하는 단계는, 제한된 개수의 후보 발음 본문을 포함하는 선별된 후보 발음 본문 그룹을 형성하고, 제한된 개수의 후보 발음 본문은 상기 발음 본문의 음성 데이터와 유사도가 높은 음성 데이터를 가지는 후보 발음 본문을 선별하여 선별된 후보 발음 본문 그룹을 형성하는 것을 특징으로 할 수 있다.In an embodiment, the forming of the candidate pronunciation text group comprises forming a selected candidate pronunciation text group including a limited number of candidate pronunciation texts, and the limited number of candidate pronunciation texts is similar to voice data of the pronunciation text. It may be characterized in that the selected candidate pronunciation text group is formed by selecting candidate pronunciation texts having speech data having a high value.

상기와 같은 본 발명에 따르면, 발음 교정 시스템의 구동 방법은 단어 기준으로 음성을 인식하지 않고, 발음 기준으로 음성을 인식하여 잘못된 발음을 인지할 수 있다.According to the present invention as described above, in the method of driving the pronunciation correction system, the wrong pronunciation can be recognized by recognizing the voice based on the pronunciation standard without recognizing the voice based on the word.

이를 통해, 사용자는 자신이 어떤 부분에서 어떻게 발음을 잘 못 하였는지를 인식하고, 이를 교정할 수 있는 근거로 활용할 수 있다. 반복적인 음성인식을 통해 잘못된 발음에서 올바른 발음으로 교정하는 단계를 사용자가 인지하고 학습할 수 있다.Through this, the user can recognize how and where he or she made a mistake in pronunciation and use it as a basis for correcting it. Through repeated voice recognition, the user can recognize and learn the steps to correct from incorrect pronunciation to correct pronunciation.

특히, 대용량의 음성 데이터를 모두 사용자 단말에 내장하거나, 서버로 전달받는 것이 아니라, 해당 단어 중 선별된 일부 후보 본문에 대한 음성 데이터를 활용하기 때문에, 빠른 속도로 잘못된 발음을 인지할 수 있다.In particular, instead of embedding a large amount of voice data in the user terminal or receiving it to the server, voice data for some candidate texts selected from among the corresponding words are utilized, so that incorrect pronunciation can be recognized at a high speed.

또한, 휴대폰을 사용하는 경우에는 이러한 제한된 리소스에서도 적용할 수 있어, 대용량 처리 시스템을 사용하지 않고도, 이동형 단말기 시스템 상에서 잘못된 발음에 대한 교정이 가능하다.In addition, when a mobile phone is used, it can be applied even with such limited resources, so that incorrect pronunciation can be corrected on a mobile terminal system without using a large-capacity processing system.

도 1은 본 발명의 일 실시예에 따른 발음 교정 시스템의 구동 방법이 적용되는 순서도이다.
도 2는 도 1의 실시예에 따른 발음 교정 시스템을 설명하는 도면이다.
도 3 내지 도 6은 도 1의 실시예에 따른 발음 교정 시스템의 구동 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 발음 교정 시스템의 구동 방법이 적용되는 순서도이다.
1 is a flowchart to which a method of driving a pronunciation correction system according to an embodiment of the present invention is applied.
FIG. 2 is a view for explaining a pronunciation correction system according to the embodiment of FIG. 1 .
3 to 6 are diagrams for explaining a method of driving the pronunciation correction system according to the embodiment of FIG. 1 .
7 is a flowchart to which a method of driving a pronunciation correction system according to another embodiment of the present invention is applied.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.

또한, 본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Also, throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless specifically stated to the contrary.

본 발명은 본 발명의 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention.

이하, 도면들을 참조하여 본 발명의 실시 예에 대해 상세히 설명하기로 한다. 도면상에서 동일 부호는 동일한 요소를 지칭한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the drawings, like reference numerals refer to like elements.

용어의 정의와 해설Definition and Explanation of Terms

평가 본문은 발음 평가의 기준이 되는 문장, 단어, 어절 등을 의미한다. 예를 들어, '오랜만이야'에 대한 발음을 평가하는 경우 평가 본문은 '오랜만이야'이다.The evaluation text refers to sentences, words, phrases, etc. that are the criteria for pronunciation evaluation. For example, when evaluating the pronunciation of 'It's been a while', the evaluation text is 'It's been a while'.

발음 본문은 해당 본문을 발음되는 형태로 변환한 본문을 의미한다. 예를 들어, '오랜만이야'에 대한 발음을 평가하는 경우, 발음 본문은 '오랜마니야'이다.The pronunciation text refers to a text converted into a pronunciation form. For example, when evaluating the pronunciation of 'It's been a while', the pronunciation text is 'It's been a while'.

후보 발음 본문은 해당 발음 본문을 기준으로 잘못 발음될 수 있는 여러 후보들의 발음을 의미하며, 단일 또는 복수개가 될 수 있다. 예를 들어, '오랜마니야'의 발음 본문을 기준으로, 후보 발음 본문은 '오랜마이야', '노랭마니야' 등이 있을 수 있다.The candidate pronunciation text refers to pronunciations of several candidates that may be erroneously pronounced based on the corresponding pronunciation text, and may be single or plural. For example, based on the pronunciation text of 'A long time ago', the candidate pronunciation text may include 'A long time ago', 'Noraengmaniya', and the like.

발음 교정 시스템의 구동 방법How the pronunciation correction system works

도 1은 본 발명의 일 실시예에 따른 발음 교정 시스템의 구동 방법이 적용되는 순서도이다. 도 2는 도 1의 실시예에 따른 발음 교정 시스템을 설명하는 도면이다.1 is a flowchart to which a method of driving a pronunciation correction system according to an embodiment of the present invention is applied. FIG. 2 is a view for explaining a pronunciation correction system according to the embodiment of FIG. 1 .

도 1을 참조하면, 본 실시예에 따른 발음 교정 시스템의 구동 방법은 평가 본문을 기준으로 상기 평가 본문의 발음 형태인 발음 본문을 형성하는 단계(S100), 상기 발음 본문을 기준으로 유사하게 잘못 발음될 수 있는 복수개의 후보 발음 본문을 포함하는 후보 발음 본문 그룹을 형성하는 단계(S200), 상기 후보 발음 본문 그룹의 후보 발음 본문에 해당하는 후보 발음 음성 데이터를 포함하는 후보 발음 음성 데이터 그룹을 형성하는 단계(S300), 입력된 사용자 음성 데이터와 상기 후보 발음 음성 데이터 그룹의 후보 발음 음성 데이터의 일치도를 비교하여, 최우선 발음 음성 데이터를 선정하는 단계(S400) 및 상기 최우선 발음 음성 데이터과 매칭되는 최종 후보 발음 본문을 선정하는 단계(S500)를 포함한다.Referring to FIG. 1 , the method of driving the pronunciation correction system according to the present embodiment includes the steps of forming a pronunciation text, which is a pronunciation form of the assessment text, based on the assessment text (S100), and similarly incorrect pronunciation based on the pronunciation text Forming a candidate pronunciation body group including a plurality of possible candidate pronunciation texts (S200), forming a candidate pronunciation speech data group including candidate pronunciation speech data corresponding to the candidate pronunciation text of the candidate pronunciation text group Step S300, comparing the degree of matching between the input user voice data and the candidate pronunciation voice data of the candidate pronunciation voice data group to select the highest-priority pronunciation voice data (S400), and the final candidate pronunciation matching the highest-priority pronunciation voice data It includes the step of selecting the text (S500).

각 단계의 구동 방법에 대해서는 추후 구체적으로 설명하나, 전체적인 구동을 간략히 설명하면, 평가 본문(100)을 발음 형태인 발음 본문(200)으로 변형한 후, 이를 기준으로 다양한 후보 발음 본문 그룹을 형성한다. 후보 발음 본문은 텍스트 자료이므로, 이를 다시 음성 데이터 그룹으로 변환하거나 관련 데이터들을 조합한 후, 입력된 음성으로부터 이러한 음성 데이터 그룹 내에 속한 최적의 유사 데이터를 선별한다. 이를 통해 최종 후보 발음 본문을 선정한다.The driving method of each step will be described in detail later, but if the overall driving is briefly described, the evaluation text 100 is transformed into the pronunciation text 200 in the pronunciation form, and various candidate pronunciation text groups are formed based on this. . Since the candidate pronunciation body is text data, it is converted back into a voice data group or related data is combined, and then optimal similar data belonging to the voice data group is selected from the input voice. Through this, the final candidate pronunciation text is selected.

도 2를 참조하여 설명하면, 사용자는 평가 본문(100)을 제시 받고, 이를 바탕으로 계산된 발음 본문(200)을 같이 제시 받는다. 사용자는 평가 본문(100) 또는 발음 본문(200)을 보고 단말기의 마이크를 통해 음성을 입력하고, 이를 통해 판별된 최종 후보 발음 본문 표시 형태(601)를 볼 수 있다. 이로써 잘못된 부분이 어떤 부분이며, 어떻게 잘못 발음 되었는지를 판정할 수 있다.Referring to FIG. 2 , the user is presented with the evaluation text 100 , and the pronunciation text 200 calculated based on this is presented together. The user may view the evaluation text 100 or the pronunciation text 200, input a voice through the microphone of the terminal, and see the final candidate pronunciation text display form 601 determined through this. In this way, it is possible to determine which part is the wrong part and how it was pronounced incorrectly.

아래의 다시하기 버튼을 이용하여, 추가적으로 반복적인 음성 입력을 통하여 자신의 발음을 계속적으로 교정하는 것이 가능하다. 이로써, 실제 음성을 듣지 않더라도 눈으로 보는 것 만으로 잘못된 발음을 교정할 수 있게 된다.By using the redo button below, it is possible to continuously correct one's own pronunciation through additional repetitive voice input. Accordingly, even if the actual voice is not heard, it is possible to correct the wrong pronunciation just by looking at it.

발음 교정 시스템의 구체적인 구동 방법Specific driving method of pronunciation correction system

도 3 내지 도 6은 도 1의 실시예에 따른 발음 교정 시스템의 구동 방법을 설명하기 위한 도면이다. 3 to 6 are diagrams for explaining a method of driving the pronunciation correction system according to the embodiment of FIG. 1 .

도 3을 먼저 참조하면, '오랜만이야'라는 문장을 기준으로 어떠한 프로세스로 진행되는지를 알 수 있다. 평가 본문(100)은 '오랜만이야'이다. 이것은 발음 본문(200)으로는 '오랜마니야'로 변환 된다.Referring to FIG. 3 first, it can be seen what kind of process is performed based on the sentence 'It's been a while'. The evaluation text 100 is 'It's been a while'. This is converted to 'a long time ago' as the pronunciation text 200.

발음 본문(200)을 형성하는 것은 구개 음화와 같은 국문 발음 체계의 다양한 법칙이 적용된다. 내부의 알고리즘을 이용하여 이러한 국문 발음 법칙이 적용된 발음 본문(200)을 계산한다.To form the pronunciation body 200, various laws of the Korean pronunciation system such as palatal phonetics are applied. Using an internal algorithm, the pronunciation body 200 to which the Korean pronunciation rules are applied is calculated.

도 4는 본 실시예에 따른 후보 발음 본문 그룹(300)을 설명하기 위한 도면이다. 4 is a view for explaining the candidate pronunciation body group 300 according to the present embodiment.

도 4를 참조하면, 발음 본문(200)을 기준으로 복수개의 후보 발음 본문을 계산하고, 이를 포함하는 후보 발음 본문 그룹(300)을 형성한다. 국어는 하나의 음절 내에 포함되는 음소를 가지고 있으므로, 이를 바탕으로 가능한 모든 경우의 수를 고려하여 후보 발음 본문을 계산할 수 있다. 기본적인 후보 발음 본문 그룹(300) 내에서는 가능한 모든 변형이 적용되는 후보 발음 본문을 포함한다. Referring to FIG. 4 , a plurality of candidate pronunciation texts are calculated based on the pronunciation text 200 , and a candidate pronunciation text group 300 including them is formed. Since the Korean language has phonemes included in one syllable, a candidate pronunciation body can be calculated by considering all possible cases based on this. The basic candidate pronunciation text group 300 includes candidate pronunciation texts to which all possible variations are applied.

대신, 발음 본문(200)을 참조하여, 글자수를 동일하게 하는 등의 제한이 가능하다. 또는 모든 경우의 수를 고려하지 않고, 기본적인 발음 본문(200)을 기준으로 변형이 가능한 차수(depth)를 선정하여 1차, 2차… n차 변형까지만 허용하는 제한을 둘 수 있다.Instead, it is possible to limit the number of characters by referring to the pronunciation text 200 . Alternatively, without considering the number of all cases, the primary, secondary… A restriction can be placed that allows only the nth-order transformation.

언급해야 할 것은 후보 발음 본문 그룹(300) 내에 포함되는 본문은 일반적으로 평문에서 사용되는 본문이 아니라, 발음을 기준으로 형성된다는 점이다. 예를 들어, 받침의 발음은 'ㄱ, ㄴ, ㄷ, ㄹ, ㅁ, ㅂ, ㅇ'의 7개 자음만 발음한다. 따라서 후보 발음 본문도 이러한 제한 속에서 변형된다.It should be noted that the text included in the candidate pronunciation text group 300 is generally formed based on pronunciation, not text used in plain text. For example, only the 7 consonants of 'ㄱ, ㄴ, ㄴ, ㄹ, ㅁ, ㅇ, ㅇ' are pronounced for the consonant. Therefore, the candidate pronunciation text is also transformed within this limitation.

도 5는 본 실시예에 따른 후보 발음 음성데이터 그룹(400)을 설명하기 위한 도면이다.5 is a diagram for explaining a candidate pronunciation voice data group 400 according to the present embodiment.

도 5를 참조하면, 후보 발음 본문 그룹(300)의 후보 발음 본문은 텍스트를 기반으로 형성된 것이며, 실제 발음 데이터를 포함하고 있지 않다. 후보 발음 음성 데이터 그룹(400)은 후보 발음 본문을 기준으로 일대일 매칭이 되는 음성 데이터를 준비한다. Referring to FIG. 5 , the candidate pronunciation body of the candidate pronunciation body group 300 is formed based on text and does not include actual pronunciation data. The candidate pronunciation voice data group 400 prepares voice data with one-to-one matching based on the candidate pronunciation text.

또한 후보 발음 음성 데이터는 별도의 프로세스를 통하여 계속적인 학습을 통하여 업데이트 될 수 있다. 이러한 학습을 누적하는 만큼 정확한 발음에 대한 평가의 정확도가 상승한다. Also, the candidate pronunciation voice data may be updated through continuous learning through a separate process. As such learning is accumulated, the accuracy of evaluation of correct pronunciation increases.

후보 발음 음성 데이터는 이미 발음이 학습된 모델 내에서, 음소를 기준으로 조합하거나, 음절을 기준으로 조합하거나, 본문을 기준으로 선정 또는 조합하여 형성할 수 있다. 자주 사용되는 것은 음절을 기준으로 후보 발음 본문으로부터 해당 음절에 해당하는 음성 데이터를 조합하고, 필요한 경우 후처리하여, 이를 형성할 수 있다.Candidate pronunciation voice data may be formed by combining based on phonemes, combining based on syllables, or selecting or combining based on text in a model in which pronunciation is already learned. A frequently used one may be formed by combining voice data corresponding to the corresponding syllable from the candidate pronunciation body based on the syllable and, if necessary, post-processing.

도 6은 본 실시예에 따른 최우선 발음 음성 데이터(500) 선정을 설명하기 위한 도면이다.6 is a view for explaining the selection of the highest-priority pronunciation voice data 500 according to the present embodiment.

도 6을 참조하면, 최우선 발음 음성 데이터(500)는 마이크 등을 통해 사용자의 발음이 입력되고, 입력된 사용자의 발음 데이터와 후보 발음 음성데이터 그룹(400) 내에 있는 가장 일치하는 발음 데이터를 선별하여 결정한다.Referring to FIG. 6 , for the highest-priority pronunciation voice data 500, the user’s pronunciation is input through a microphone, etc., and the most matching pronunciation data in the inputted user’s pronunciation data and the candidate pronunciation voice data group 400 is selected. decide

후보 발음 음성데이터 그룹(400)은 방대한 양의 후보 발음 음성 데이터를 포함할 수 있고, 음성 데이터의 품질에 따라 일치성을 비교하는 프로세스는 매우 높은 용량의 리소스를 사용하거나, 오랜 시간이 걸릴 수 있다. 이를 최적화 하는 방법이 요구될 수 있으며, 이는 후술될 실시예에서 설명한다.The candidate pronunciation voice data group 400 may include a huge amount of candidate pronunciation voice data, and the process of comparing the correspondence according to the quality of the voice data may use a very high capacity resource or may take a long time. . A method of optimizing this may be required, which will be described in an embodiment to be described later.

최우선 발음 음성 데이터(500)가 선정된 경우 이와 매칭되는 최종 후보 발음 본문(600)을 선택하여 결정한다. 실제로 사용자가 어떠한 발음을 진행하였는지를 판별할 수 있다.When the highest-priority pronunciation voice data 500 is selected, the final candidate pronunciation text 600 matching the selected final pronunciation body 600 is selected and determined. It is possible to determine what kind of pronunciation the user actually made.

부가적으로 최초 발음 본문(200)과 최종 후보 발음 본문(600)을 비교하여, 잘 발음된 부분과 잘못 발음된 부분을 선별하여 표시할 수 있다. 이것은 음소 단위에서부터 가능하며, 음절 단위로 보통 표시될 수 있다. 음절 단위로 올바르게 발음된 음절과 잘못 발음된 음절을 다르게 표시하여 사용자는 자신이 틀리게 발음한 부분을 파악할 수 있다.Additionally, the first pronunciation text 200 and the final candidate pronunciation text 600 may be compared to select and display a well-pronounced portion and an erroneously-pronounced portion. This is possible from phoneme units, and can usually be expressed in units of syllables. By displaying correctly and incorrectly pronounced syllables in units of syllables, the user can identify the part where he or she pronounces incorrectly.

리소스 최적화를 위한 실시예Examples for Resource Optimization

도 7은 본 발명의 다른 실시예에 따른 발음 교정 시스템의 구동 방법이 적용되는 순서도이다.7 is a flowchart to which a method of driving a pronunciation correction system according to another embodiment of the present invention is applied.

도 7을 도 1과 비교하여 살펴보면, 선별된 후보 발음 본문 그룹 형성 단계(S210) 및 선별된 후보 발음 음성 데이터 그룹 형성 단계(S310)이 다르며, 이외의 단계는 동일하게 적용된다. 따라서 중복되는 설명은 생략한다.7 compared with FIG. 1 , the step of forming the selected candidate pronunciation body group ( S210 ) and the step of forming the selected candidate pronunciation voice data group ( S310 ) are different, except for the same steps are applied. Therefore, the overlapping description will be omitted.

후보 발음 본문 그룹(300)은 발음 본문(200)을 기준으로 변형 가능한 다양한 후보 본문을 포함할 수 있다. 하지만, 초성-중성-종성 기준으로 형성되는 음절 내 음소 단위의 변형을 고려하면, 일반적인 단말기의 처리 용량을 초과하는 음성 데이터가 필요하고, 처리 시간이 필요할 수 있다. 따라서 사용자는 한번 발음을 입력한 후 매우 오랜 시간동안 기다려야 하거나, 대용량의 컴퓨터를 사용해야할 수 있다.The candidate pronunciation text group 300 may include various candidate texts that can be modified based on the pronunciation text 200 . However, considering the transformation of the phoneme unit in a syllable formed based on the leading-neutral-final voice, voice data exceeding the processing capacity of a general terminal is required, and processing time may be required. Therefore, the user may have to wait for a very long time after inputting the pronunciation once or use a large-capacity computer.

이러한 처리 용량의 한계점은 후보 발음 본문 그룹(300)을 선별하는 과정에서 최적화가 가능하다. 가능한 모든 경우의 후보 발음 본문을 포함하여 후보 발음 본문 그룹(300)을 형성하는 것이 아니라, 특정한 조건에 부합하는 선별된 후보 발음 본문 그룹(300)을 마련할 수 있다. 따라서 비교할 대상의 개수가 줄어들게 되므로, 적은 리소스를 가지는 단말기 등에서도 사용이 가능하다.This limitation of processing capacity can be optimized in the process of selecting the candidate pronunciation body group 300 . Instead of forming the candidate pronunciation text group 300 including the candidate pronunciation text in all possible cases, the selected candidate pronunciation text group 300 satisfying a specific condition may be provided. Accordingly, since the number of objects to be compared is reduced, it can be used even in a terminal having a small amount of resources.

선별된 후보 발음 본문 그룹(300)을 형성하는 기준은 발음 본문을 기준으로 변형이 적은 후보들을 선별하는 방법이 적용될 수 있다. 한편으로는 발음 본문(200)의 음성 데이터를 기준으로 해당 음성 데이터와 유사한 값의 음성 데이터를 가지는 후보 발음 본문으로 선별된 후보 발음 본문 그룹(300)을 형성할 수 있다.As a criterion for forming the selected candidate pronunciation text group 300 , a method of selecting candidates with little deformation based on the pronunciation text may be applied. On the other hand, on the basis of the voice data of the pronunciation body 200 , the candidate pronunciation body group 300 selected as candidate pronunciation texts having voice data having a value similar to that of the corresponding voice data may be formed.

또 다른 한편으로는 축적되는 사용자의 데이터를 학습하여, 사용자들이 틀리기 쉬운 형태의 후보 발음 본문을 추출하여 학습된 결과에 의해 선별된 후보 발음 본문 그룹(300)을 형성할 수 있다.On the other hand, it is possible to form the candidate pronunciation text group 300 selected according to the learned result by learning the accumulated user data, extracting the candidate pronunciation text in a form that is easy for users to make a mistake.

바람직한 선별된 후보 발음 본문 그룹(300)의 후보 발음 본문의 수는 수개에서 수십 개 내로 제한할 수 있다.The number of candidate pronunciation texts in the preferred selected candidate pronunciation text group 300 may be limited from several to several tens.

특히, 고품질의 음성 데이터는 많은 용량을 필요로 하므로, 휴대폰 단말기에서 사용하고자 하는 경우 모든 음성 데이터를 저장하는 것은 불가능할 수 있다. 따라서, 선별된 후보 발음 본문 그룹(300)을 기준으로 이에 해당하는 후보 발음 음성 데이터는 서버로부터 단말기 또는 PC로 전송하여 사용할 수 있게 한다. 이를 통해 휴대폰 단말기에서도 다양한 형태의 평가 본문에 대한 후보 발음 음성 데이터를 활용할 수 있게 된다.In particular, since high-quality voice data requires a lot of capacity, it may be impossible to store all voice data in case of using it in a mobile phone terminal. Accordingly, candidate pronunciation voice data corresponding to the selected candidate pronunciation body group 300 is transmitted from the server to the terminal or PC for use. Through this, it is possible to utilize candidate pronunciation voice data for various types of evaluation texts in mobile phone terminals as well.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above embodiments and the accompanying drawings. For those of ordinary skill in the art to which the present invention pertains, it will be apparent that the components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.

100 : 평가 본문
200 : 발음 본문
300 : 후보 발음 본문 그룹
400 : 후보 발음 음성 데이터 그룹
500 : 최우선 발음 음성 데이터
600 : 최종 후보 발음 본문
601 : 최종 후보 발음 본문 표시 형태
100: evaluation body
200 : Pronunciation text
300: candidate pronunciation body group
400: candidate pronunciation voice data group
500: priority pronunciation voice data
600: Finalist pronunciation text
601: final candidate pronunciation text display form

Claims (10)

평가 본문을 기준으로 상기 평가 본문의 발음 형태인 발음 본문을 형성하는 단계(S100);
상기 발음 본문을 기준으로 유사하게 잘못 발음될 수 있는 복수개의 후보 발음 본문을 포함하는 후보 발음 본문 그룹을 형성하는 단계(S200);
상기 후보 발음 본문 그룹의 후보 발음 본문에 해당하는 후보 발음 음성 데이터를 포함하는 후보 발음 음성 데이터 그룹을 형성하는 단계(S300);
입력된 사용자 음성 데이터와 상기 후보 발음 음성 데이터 그룹의 후보 발음 음성 데이터의 일치도를 비교하여, 최우선 발음 음성 데이터를 선정하는 단계(S400); 및
상기 최우선 발음 음성 데이터과 매칭되는 최종 후보 발음 본문을 선정하는 단계(S500);를 포함하는 발음 교정 시스템의 구동 방법.
Forming a pronunciation text, which is a pronunciation form of the assessment text, based on the assessment text (S100);
forming a candidate pronunciation body group including a plurality of candidate pronunciation texts that may be similarly erroneously pronounced based on the pronunciation text (S200);
forming a candidate pronunciation voice data group including candidate pronunciation voice data corresponding to the candidate pronunciation body of the candidate pronunciation body group (S300);
selecting the highest-priority pronunciation voice data by comparing the degree of matching between the input user voice data and the candidate pronunciation voice data of the candidate pronunciation voice data group (S400); and
and selecting a final candidate pronunciation text matching the highest priority pronunciation voice data (S500).
제1항에 있어서,
상기 발음 본문을 형성하는 단계(S100)이전에,
복수개의 샘플 본문과 상기 샘플 본문에 대응되는 발음 음성 데이터를 이용하여 해당 샘플 본문에 대응하는 발음 음성 데이터를 학습시키는 학습 단계(S10)를 더 포함하는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.
According to claim 1,
Before the step (S100) of forming the pronunciation text,
The method of driving a pronunciation correction system according to claim 1, further comprising: a learning step (S10) of learning pronunciation voice data corresponding to the sample body by using a plurality of sample bodies and pronunciation voice data corresponding to the sample body.
제2항에 있어서,
상기 발음 본문을 기준으로 유사하게 잘못 발음될 수 있는 복수개의 후보 발음 본문을 포함하는 후보 발음 본문 그룹을 형성하는 단계(S200)는,
상기 발음 본문에서 적어도 하나 이상의 음소를 교체하여 형성하는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.
3. The method of claim 2,
Forming a candidate pronunciation text group including a plurality of candidate pronunciation texts that may be similarly erroneously pronounced based on the pronunciation text (S200),
A method of driving a pronunciation correction system, characterized in that the pronunciation correction system is formed by replacing at least one phoneme in the pronunciation body.
제2항에 있어서,
상기 후보 발음 음성 데이터 그룹을 형성하는 단계(S300)는,
상기 후보 발음 본문을 음절 단위로 분할하여 이에 대응하는 음성 데이터를 조합하여, 상기 후보 발음 본문에 대한 후보 발음 음성 데이터를 형성하는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.
3. The method of claim 2,
Forming the candidate pronunciation voice data group (S300),
and dividing the candidate pronunciation body into syllable units and combining corresponding voice data to form candidate pronunciation voice data for the candidate pronunciation body.
제2항에 있어서,
상기 후보 발음 본문 그룹을 형성하는 단계(S200)는,
제한된 개수의 후보 발음 본문을 포함하는 선별된 후보 발음 본문 그룹을 형성하는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.
3. The method of claim 2,
Forming the candidate pronunciation text group (S200),
A method of driving a pronunciation correction system, comprising forming a selected candidate pronunciation text group including a limited number of candidate pronunciation texts.
제2항에 있어서,
상기 최종 후보 발음 본문과 상기 발음 본문을 비교하여 잘못된 발음 부분을 표시하는 단계(S600)를 더 포함하는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.
3. The method of claim 2,
and comparing the final candidate pronunciation text with the pronunciation text and displaying an incorrect pronunciation portion (S600).
제6항에 있어서,
상기 잘못된 발음 부분을 표시하는 단계(S600)는,
상기 최종 후보 발음 본문과 상기 발음 본문의 비교는 음절을 기준으로 표시되는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.
7. The method of claim 6,
The step of displaying the wrong pronunciation part (S600) is,
The method of driving a pronunciation correction system, characterized in that the comparison between the final candidate pronunciation text and the pronunciation text is displayed based on syllables.
제2항에 있어서,
상기 후보 발음 음성 데이터 그룹을 형성하는 단계(S300)는,
상기 후보 발음 본문에 대응하는 조합되지 않은 단일 음성 데이터로 상기 후보 발음 본문에 대한 후보 발음 음성 데이터를 형성하는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.
3. The method of claim 2,
Forming the candidate pronunciation voice data group (S300),
and forming candidate pronunciation speech data for the candidate pronunciation body as uncombined single speech data corresponding to the candidate pronunciation body.
제8항에 있어서,
상기 후보 발음 본문 그룹을 형성하는 단계(S200)는,
제한된 개수의 후보 발음 본문을 포함하는 선별된 후보 발음 본문 그룹을 형성하고,
상기 후보 발음 음성 데이터 그룹을 형성하는 단계(S300)는,
상기 선별된 후보 발음 본문 그룹 내의 후보 발음 본문에 해당하는 후보 발음 음성 데이터를 외부로부터 전송 받아 선별된 후보 발음 음성 데이터 그룹을 형성하는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.
9. The method of claim 8,
Forming the candidate pronunciation text group (S200),
forming a selected candidate phonetic text group comprising a limited number of candidate phonetic texts;
Forming the candidate pronunciation voice data group (S300),
and receiving candidate pronunciation voice data corresponding to the candidate pronunciation body in the selected candidate pronunciation body group from the outside to form the selected candidate pronunciation voice data group.
제8항에 있어서,
상기 후보 발음 본문 그룹을 형성하는 단계(S200)는,
제한된 개수의 후보 발음 본문을 포함하는 선별된 후보 발음 본문 그룹을 형성하고,
상기 제한된 개수의 후보 발음 본문은 상기 발음 본문의 음성 데이터와 유사도가 높은 음성 데이터를 가지는 후보 발음 본문을 선별하여 선별된 후보 발음 본문 그룹을 형성하는 것을 특징으로 하는 발음 교정 시스템의 구동 방법.


9. The method of claim 8,
Forming the candidate pronunciation text group (S200),
forming a selected candidate phonetic text group comprising a limited number of candidate phonetic texts;
The method of driving a pronunciation correction system according to claim 1, wherein, from the limited number of candidate pronunciation texts, candidate pronunciation texts having speech data having a high degree of similarity to speech data of the pronunciation text are selected to form a selected candidate pronunciation text group.


KR1020200091342A 2019-07-23 2020-07-23 method for operating pronunciation correction system KR102361205B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190088912 2019-07-23
KR1020190088912 2019-07-23

Publications (2)

Publication Number Publication Date
KR20210011896A KR20210011896A (en) 2021-02-02
KR102361205B1 true KR102361205B1 (en) 2022-02-11

Family

ID=74559889

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200091342A KR102361205B1 (en) 2019-07-23 2020-07-23 method for operating pronunciation correction system

Country Status (1)

Country Link
KR (1) KR102361205B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101562222B1 (en) 2014-07-22 2015-10-23 조광호 Apparatus for evaluating accuracy of pronunciation and method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101411039B1 (en) * 2012-02-07 2014-07-07 에스케이씨앤씨 주식회사 Method for evaluating pronunciation with speech recognition and electronic device using the same
KR20160072877A (en) * 2014-12-15 2016-06-24 중앙대학교 산학협력단 English pronunciation training method and apparatus
KR20170090815A (en) * 2016-01-29 2017-08-08 한국전자통신연구원 Speech recognition device and operating method thereof
KR102615290B1 (en) * 2016-09-01 2023-12-15 에스케이텔레콤 주식회사 Apparatus and Method for Learning Pronunciation Dictionary

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101562222B1 (en) 2014-07-22 2015-10-23 조광호 Apparatus for evaluating accuracy of pronunciation and method thereof

Also Published As

Publication number Publication date
KR20210011896A (en) 2021-02-02

Similar Documents

Publication Publication Date Title
CN110648690B (en) Audio evaluation method and server
US7277851B1 (en) Automated creation of phonemic variations
US8126714B2 (en) Voice search device
US7996209B2 (en) Method and system of generating and detecting confusing phones of pronunciation
KR102191425B1 (en) Apparatus and method for learning foreign language based on interactive character
US7529678B2 (en) Using a spoken utterance for disambiguation of spelling inputs into a speech recognition system
CN103714048B (en) Method and system for correcting text
JP4680714B2 (en) Speech recognition apparatus and speech recognition method
US20030130847A1 (en) Method of training a computer system via human voice input
US7624013B2 (en) Word competition models in voice recognition
US9984689B1 (en) Apparatus and method for correcting pronunciation by contextual recognition
US20210082311A1 (en) Computer implemented method and apparatus for recognition of speech patterns and feedback
CN111177324A (en) Method and device for classifying intentions based on voice recognition result
US7406408B1 (en) Method of recognizing phones in speech of any language
KR20200080914A (en) Free dialogue system and method for language learning
CN110866100A (en) Phonetics generalization method and device and electronic equipment
Kyriakopoulos et al. Automatic detection of accent and lexical pronunciation errors in spontaneous non-native English speech
KR102361205B1 (en) method for operating pronunciation correction system
US11341961B2 (en) Multi-lingual speech recognition and theme-semanteme analysis method and device
Kabra et al. Auto spell suggestion for high quality speech synthesis in hindi
Réveil et al. Improving proper name recognition by means of automatically learned pronunciation variants
KR101983031B1 (en) Language teaching method and language teaching system
JP2015099335A (en) Information processing device and method thereof
Bodenstab et al. Multi-pass pronunciation adaptation
KR20220033186A (en) Server, method and computer program for providing education service for english pronunciation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant