KR102442020B1 - Method and apparatus for automatic proficiency evaluation of speech - Google Patents

Method and apparatus for automatic proficiency evaluation of speech Download PDF

Info

Publication number
KR102442020B1
KR102442020B1 KR1020200005874A KR20200005874A KR102442020B1 KR 102442020 B1 KR102442020 B1 KR 102442020B1 KR 1020200005874 A KR1020200005874 A KR 1020200005874A KR 20200005874 A KR20200005874 A KR 20200005874A KR 102442020 B1 KR102442020 B1 KR 102442020B1
Authority
KR
South Korea
Prior art keywords
fluency
data
voice
native speaker
acoustic model
Prior art date
Application number
KR1020200005874A
Other languages
Korean (ko)
Other versions
KR20210059581A (en
Inventor
오유리
박기영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20210059581A publication Critical patent/KR20210059581A/en
Application granted granted Critical
Publication of KR102442020B1 publication Critical patent/KR102442020B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/12Score normalisation

Abstract

본 발명의 말하기의 유창성 평가 방법은, 입력 음성 데이터로부터 음성 특징 데이터를 추출하는 단계; 원어민 음향 모델 및 비원어민 음향 모델을 기반으로, 입력 텍스트 데이터와 상기 추출된 음성 특징 데이터에 대하여 강제 정렬을 수행하여, 시간-정렬된 문자열 정보를 획득하는 단계; 및 상기 시간-정렬된 문자열 정보와 선형 회귀 기반의 유창성 점수 모델을 이용하여 상기 입력 음성 데이터에 대한 유창성을 평가하는 단계를 포함한다.A speaking fluency evaluation method of the present invention comprises the steps of: extracting voice feature data from input voice data; obtaining time-aligned character string information by performing forced alignment on the input text data and the extracted speech feature data based on the native speaker and non-native speaker acoustic models; and evaluating the fluency of the input speech data using the time-aligned character string information and a linear regression-based fluency score model.

Description

말하기의 자동 유창성 평가 방법 및 그 장치{Method and apparatus for automatic proficiency evaluation of speech}Method and apparatus for automatic proficiency evaluation of speech

본 발명은 음성 인식 기술을 이용하여 자동 말하기의 유창성을 평가하는 기술에 관한 것이다.The present invention relates to a technique for evaluating the fluency of automatic speech using speech recognition technology.

일반적으로 비원어민 음성은 자동 음성 인식(Automatic Speech Recognition)의 성능을 크게 저하시킨다. 이는 기존의 자동 음성 인식이 원어민 음성을 중심으로 학습되어 있기 때문에, 비원어민 음성의 다양한 변이를 반영하지 못하기 때문이다. 따라서, ASR기반의 학습자 음성을 위한 자동 유창성 평가 시스템은, ASR의 성능 저하에 영향을 받을 수 밖에 없다. 결국, 기존의 ASR 기술로는 정확한 유창성 평가가 어렵다.In general, a non-native speaker's speech greatly degrades the performance of Automatic Speech Recognition. This is because the existing automatic speech recognition is learned based on the native speaker's voice, and thus does not reflect the various variations of the non-native speaker's voice. Therefore, the automatic fluency evaluation system for the learner's voice based on ASR is inevitably affected by the performance degradation of ASR. After all, it is difficult to accurately evaluate fluency with the existing ASR technology.

본 발명의 목적은, 정확한 유창성 평가를 획득하기 위해, 미리 정해진 발성 스크립트(또는 발성 문자열)가 존재하는 경우에서 증강된 데이터로 학습된 음향 모델을 이용하여 말하기의 유창성을 평가하기 위한 시스템 및 그 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a system and method for evaluating the fluency of speaking using an acoustic model trained with augmented data in the presence of a predetermined speech script (or speech string) in order to obtain an accurate fluency assessment. is to provide

본 발명의 전술한 목적들 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부된 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. The above and other objects, advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

상술한 목적을 달성하기 위한 본 발명의 일면에 따른 말하기의 유창성 평가 방법은, 입력 음성 데이터로부터 음성 특징 데이터를 추출하는 단계; 원어민 음향 모델 및 비원어민 음향 모델을 기반으로, 입력 텍스트 데이터와 상기 추출된 음성 특징 데이터에 대하여 강제 정렬을 수행하여, 시간-정렬된 문자열 정보를 획득하는 단계; 및 상기 시간-정렬된 문자열 정보와 선형 회귀 기반의 유창성 점수 모델을 이용하여 상기 입력 음성 데이터에 대한 유창성을 평가하는 단계를 포함한다.According to an aspect of the present invention, there is provided a speaking fluency evaluation method, comprising: extracting voice feature data from input voice data; obtaining time-aligned character string information by performing forced alignment on the input text data and the extracted speech feature data based on the native speaker and non-native speaker acoustic models; and evaluating the fluency of the input speech data using the time-aligned character string information and a linear regression-based fluency score model.

본 발명의 다른 일면에 따른 컴퓨팅 장치는 말하기의 유창성 평가를 위해, 프로세서, 메모리, 스토리지 및 이들을 연결하는 시스템 버스를 포함하는 컴퓨팅 장치로서, 상기 프로세서에 실행되는 소프트웨어 모듈은, 입력 음성 데이터로부터 음성 특징 데이터를 추출하는 음성 특징 추출 모듈; 원어민 음향 모델 및 비원어민 음향 모델을 기반으로, 입력 텍스트 데이터와 상기 추출된 음성 특징 데이터에 대하여 강제 정렬을 수행하여, 시간-정렬된 문자열 정보를 획득하는 강제 정렬 처리 모듈; 및 상기 시간-정렬된 문자열 정보와 선형 회귀 기반의 유창성 점수 모델을 이용하여 상기 입력 음성 데이터에 대한 유창성을 평가하는 유창성 평가 모듈을 포함한다.A computing device according to another aspect of the present invention is a computing device including a processor, a memory, a storage, and a system bus connecting them to evaluate speaking fluency, wherein a software module executing on the processor includes: a voice feature extraction module for extracting data; a forced alignment processing module for obtaining time-aligned character string information by performing forced alignment on the input text data and the extracted voice feature data based on the native speaker acoustic model and the non-native speaker acoustic model; and a fluency evaluation module for evaluating the fluency of the input speech data using the time-aligned character string information and a linear regression-based fluency score model.

본 발명의 또 다른 일면에 따른 말하기의 유창성 평가 방법은, 학습자가 미리 정해진 발성 스크립트를 낭독하여 발생한 입력 음성으로부터 음성 특징을 추출하는 단계; 원어민 음향 모델 및 비원어민 음향 모델을 기반으로, 입력 텍스트 데이터와 상기 추출된 음성 특징에 대하여 강제 정렬을 수행하여, 상기 입력 음성을 문자열 단위로 인식하는 단계; 및 상기 입력 음성을 문자열 단위로 인식한 결과와 유창성 점수 모델을 이용하여 상기 입력 음성에 대한 유창성을 평가하는 단계를 포함한다.According to another aspect of the present invention, there is provided a speaking fluency evaluation method, comprising: extracting voice features from an input voice generated by a learner reading a predetermined voice script; recognizing the input voice in string units by performing forced alignment on the input text data and the extracted voice features based on the native speaker acoustic model and the non-native speaker acoustic model; and evaluating the fluency of the input voice by using a result of recognizing the input voice in units of character strings and a fluency score model.

본 발명에 의하면, 증강된 데이터로 학습된 음향 모델을 이용하여 말하기의 유창성을 평가함으로써, 말하기 평가의 신뢰도를 크게 개선할 수 있다. According to the present invention, it is possible to significantly improve the reliability of the speaking evaluation by evaluating the fluency of speaking using the acoustic model learned with the augmented data.

도 1은 본 발명의 실시 예에 따른 학습자(비원어민) 말하기의 자동 유창성 평가 방법을 나타내는 전체 프로세스를 개략적으로 나타내는 도면.
도 2는 본 발명의 실시 예에 따라 수정 및 변경된 시간/주파수 마스킹 기법의 알고리즘에 따른 의사코드(pseudocode)를 나타내는 도면.
도 3은 본 발명의 실시 예에 따른 유창성 평가 특징 중에서 빈도 및 길이에 기반한 특징을 테이블로 나타낸 도면.
도 4는 본 발명의 실시 예에 따른 유창성 평가 특징 중에서 음절에 기반한 특징을 테이블로 나타낸 도면.
도 5는 본 발명의 실시 예에 따른 유창성 평가 특징 중에서 음향학적 특징을 테이블로 나타낸 도면.
도 6은 본 발명의 일 실시 예에 따른 자동 유창성 평가 방법의 Pearson 상관계수 평균에 대한 성능을 테이블로 나타낸 도면.
도 7은 본 발명의 말하기의 자동 유창성 평가 방법이 적용될 수 있는 컴퓨팅 장치를 도시한 도면.
1 is a diagram schematically illustrating an overall process illustrating an automatic fluency evaluation method of a learner (non-native speaker) speaking according to an embodiment of the present invention.
2 is a diagram illustrating a pseudocode according to an algorithm of a modified and changed time/frequency masking technique according to an embodiment of the present invention.
3 is a table showing features based on frequency and length among fluency evaluation features according to an embodiment of the present invention.
4 is a table showing syllable-based features among fluency evaluation features according to an embodiment of the present invention.
5 is a table showing acoustic characteristics among fluency evaluation characteristics according to an embodiment of the present invention.
6 is a table showing the performance of the Pearson correlation coefficient average of the automatic fluency evaluation method according to an embodiment of the present invention.
7 is a diagram illustrating a computing device to which the automatic speaking fluency evaluation method of the present invention can be applied.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

본 발명은 미리 정해진 발성 스크립트가 존재하는 경우에서 비원어민의 구어체 발성(말하기)에 대한 유창성을 자동으로 평가한다. 즉, 본 발명에 따른 비원어민의 구어체 발성(말하기)에 대한 자동 유창성 평가 방법은, 외래어 학습자(비원어민)가 미리 정해진 발성 문장(발성 스크립트)을 낭독하여 발생한 입력 음성의 유창성을 자동 평가하는 방법이다. The present invention automatically evaluates the fluency of a non-native speaker's colloquial vocalization (speaking) in the presence of a predetermined vocal script. That is, the automatic fluency evaluation method for colloquial vocalization (speaking) of a non-native speaker according to the present invention is a method of automatically evaluating the fluency of an input voice generated by a foreign language learner (non-native speaker) reading a predetermined spoken sentence (voice script). to be.

도 1은 본 발명의 실시 예에 따른 학습자 말하기의 자동 유창성 평가 방법을 나타내는 전체 프로세스를 개략적으로 나타내는 도면이다.1 is a diagram schematically illustrating an overall process illustrating a method for automatic fluency evaluation of learner speaking according to an embodiment of the present invention.

도 1을 참조하면, 실시 예에 따른 학습자(비원어민) 말하기의 자동 유창성 평가 방법은 음성 특징 추출 단계(S110, Speech feature extraction step), 강제 정렬 단계(S130, forced-alignment step) 및 선형회귀(linear-regression, LR) 기반 유창성 평가 단계(S150, proficiency evaluation step)를 포함한다.Referring to FIG. 1 , the automatic fluency evaluation method of a learner (non-native speaker) speaking according to an embodiment includes a speech feature extraction step (S110, Speech feature extraction step), a forced-alignment step (S130, forced-alignment step) and linear regression ( linear-regression, LR)-based fluency evaluation step (S150, proficiency evaluation step) is included.

음성 특징 추출 단계(S110)에서는, 학습자가 발성 스크립트를 낭독하여 발생한 입력 음성 데이터(input speech data)부터 음성 특징 데이터(speech feature data)를 추출하는 프로세스가 수행된다. 즉, 입력 음성으로부터 강제 정렬(forced-alignment)을 위한 음성 특징을 추출한다.In the speech feature extraction step S110, a process of extracting speech feature data from input speech data generated by a learner reading a speech script is performed. That is, a speech feature for forced-alignment is extracted from the input speech.

강제 정렬 단계(S130)에서는, 발성 스크립트에 대응하는 입력 텍스트 데이터(input text data)와 음성 특징 추출 단계(S110)에서 추출한 음성 특징 데이터에 대해 원어민 음성으로 학습된 양방향 장단기 기억(bidirectional long short-term memory: BLSTM) 기반 음향 모델(132, 이하, '원어민 음향 모델'이라 함)을 이용하여 강제 정렬을 처리하는 프로세스가 수행된다. 동시에, 상기 입력 텍스트 데이터와 상기 음성 특징 데이터에 대해 비원어민 음성으로 학습된 BLSTM 기반 음향 모델(134, 이하, '비원어민 음향 모델'이라 함)을 이용하여 강제 정렬을 처리하는 프로세스가 수행된다. 여기서, 원어민 음향 모델(132, acoustic model for native speech)은 원어민 음성 코퍼스만으로 학습된다. 반면에, 비원어민 음향모델(134, acoustic model for nonnative speech)은 비원어민 음성 코퍼스와 비원어민 음성 코퍼스의 증강 데이터로 학습된다. 음성 데이터의 증강을 위해, 예를 들면, 속도 섭동(speed perturbation) 기법과 시간-주파수 마스킹(time-frequency masking) 기법이 이용된다. 강제 정렬을 처리하는 프로세스는 입력 텍스트 데이터(발성 스크립트)와 입력 음성 데이터를 강제 정렬하여 입력 음성 데이터를 문자열 단위로 인식하는 과정이다. 이러한 인식 과정을 통해, 시간-정렬된 문자열 정보(time-aligned string information)가 획득된다. 즉, 강제 정렬 단계(S130)에서는, 입력 텍스트 데이터와 음성 특징 데이터에 대해, 원어민 음향 모델 기반의 강제 정렬에 따른 시간-정렬된 문자열 정보(time-aligned string information)(이하, 제1 시간-정렬된 문자열 정보)와 비원어민 음향 모델 기반의 강제 정렬에 따른 시간-정렬된 문자열 정보(time-aligned string information)(이하, 제2 시간-정렬된 문자열 정보)가 획득된다. In the forced alignment step (S130), the bidirectional long short-term memory (bidirectional long short-term) learned from the voice of a native speaker with respect to the input text data (input text data) corresponding to the spoken script and the voice feature data extracted in the voice feature extraction step (S110) A process of processing forced alignment using a memory: BLSTM) based acoustic model (132, hereinafter referred to as a 'native speaker acoustic model') is performed. At the same time, a process of processing forced alignment using a BLSTM-based acoustic model 134 (hereinafter referred to as a 'non-native speaker acoustic model') trained with a non-native speaker's voice is performed on the input text data and the speech feature data. Here, the native speaker acoustic model 132 (acoustic model for native speech) is learned only from the native speaker's speech corpus. On the other hand, an acoustic model for nonnative speech (134) is trained with augmented data of the non-native speaker corpus and the non-native speaker corpus. For augmentation of voice data, for example, a speed perturbation technique and a time-frequency masking technique are used. The forced sorting process is a process of recognizing the input voice data in string units by forcibly aligning the input text data (voice script) and the input voice data. Through this recognition process, time-aligned string information is obtained. That is, in the forced alignment step (S130), time-aligned string information (hereinafter, first time-aligned) according to the forced alignment based on the native speaker acoustic model with respect to the input text data and the voice feature data string information) and time-aligned string information (hereinafter, second time-aligned string information) according to forced alignment based on a non-native speaker acoustic model are obtained.

유창성 평가 단계(S150)는 유창성 평가용 특징을 추출하는 단계(S151, feature extraction step for proficiency evaluation)와 유창성 점수 계산 단계(S153, proficiency scoring step)를 포함한다. 유창성 평가용 특징 추출 단계(S151)에서는, 상기 강제 정렬 단계(S130)에서 획득된 제1 및 제2 시간-정렬된 문자열 정보로부터 음성학적 특징 및 음향학적 특징을 포함하는 상기 유창성 평가용 특징을 추출하는 프로세스가 수행된다. 유창성 점수 계산 단계(S153)에서는, 복수의 선형 회귀(linear-regression, LR) 기반 유창성 평가 모델들을 이용하여 복수의 유창상 평가 점수를 계산하는 프로세스가 수행된다. 본 실시 예에서는 5개의 유창성 평가 모델들(153_1, 153_2, 153_3, 153_4, 153_5)이 이용되며, 이에 따라, 5개의 유창성 평가 점수들이 계산된다. 5개의 유창성 평가 점수들은 총체적 유창성 점수(Sholistic), 음절 정확도(segmental accuracy)에 대한 점수(Ssegment), 음운 정확도(phonological accuracy)에 대한 점수(Sphonology), 유창성 점수(Sfluency) 및 강세와 악센트 정확도(pitch and accent accuracy)에 대한 점수(Spitch)를 포함한다. The fluency evaluation step S150 includes a feature extraction step for proficiency evaluation (S151) and a fluency score calculation step (S153, proficiency scoring step). In the feature extraction step (S151) for fluency evaluation, the fluency evaluation features including phonetic features and acoustic features are extracted from the first and second time-aligned character string information obtained in the forced alignment step (S130). process is performed. In the fluency score calculation step S153 , a process of calculating a plurality of fluency evaluation scores using a plurality of linear-regression (LR)-based fluency evaluation models is performed. In this embodiment, five fluency evaluation models 153_1, 153_2, 153_3, 153_4, and 153_5 are used, and accordingly, five fluency evaluation scores are calculated. The five fluency evaluation scores are the overall fluency score (S holistic ), the score for segmental accuracy (S segment ), the score for phonological accuracy (S phonology ), the fluency score (S fluency ), and stress and a score for pitch and accent accuracy (S pitch ).

이하, 각 단계들(S110, S130 및 S150)을 더욱 자세히 기술한다.Hereinafter, each step ( S110 , S130 , and S150 ) will be described in more detail.

음성 특징 추출 단계(S110)Speech feature extraction step (S110)

전술한 바와 같이, 음성 특징 추출 단계(S110)는, 외국어를 학습하고자 하는 학습자가 미리 정해진 발성 스크립트를 낭독하여 발생한 입력 음성 데이터로부터 음성 특징 데이터(speech feature)을 추출하는 프로세스이다.As described above, the step of extracting speech features ( S110 ) is a process of extracting speech features from input speech data generated when a learner who wants to learn a foreign language reads a predetermined speech script.

음성 특징을 추출하기 위해, 예를 들면, 멜 필터 뱅크(Mel Filter Bank)가 이용될 수 있다. 멜 필터 뱅크(Mel Filter Bank)가 이용되는 경우, 다음과 같은 단계들을 통해 음성 특징 데이터가 추출될 수 있다. For extracting speech features, for example, a Mel Filter Bank may be used. When a Mel filter bank is used, voice feature data may be extracted through the following steps.

먼저, 시간 도메인의 입력 음성 데이터가 10ms 단위의 프레임들로 분할한다. 이어, 각 프레임에 대하여 파워 스펙트럼(power spectrum)(또는 주파수)을 계산한 후, 계산한 파워 스펙트럼(또는 주파수)에 멜 필터 뱅크를 적용하여, 40-차 멜 필터 뱅크(40-dimensional Mel Filter Bank) 값을 추출한다. 이어, 상기 추출한 40-차 멜 필터 뱅크 값에 이전 7개 프레임과 이후 7개 프레임의 40-차 멜 필터 뱅크 값을 결합한다(concatenate). 이렇게 함으로써, 각 프레임에 대하여, 600-차 멜 필터 뱅크 값(= 40-차 멜 필터 뱅크 값 + 280-차 멜 필터 뱅크 값 + 280-차 멜 필터 뱅크 값)을 포함하는 음성 특징 데이터가 추출된다.First, input speech data in the time domain is divided into frames in units of 10 ms. Then, after calculating a power spectrum (or frequency) for each frame, a Mel filter bank is applied to the calculated power spectrum (or frequency), and a 40-dimensional Mel Filter Bank ) to extract the value. Next, the 40-order Mel filter bank values of the previous 7 frames and the following 7 frames are concatenated with the extracted 40-th order Mel filter bank values. By doing so, for each frame, speech feature data including 600-order Mel filter bank values (= 40-th order Mel filter bank values + 280-th order Mel filter bank values + 280-th order Mel filter bank values) are extracted .

강제 정렬 단계(S130)Forced alignment step (S130)

강제 정렬 단계(S130)에서는, 전술한 바와 같이, 입력 텍스트 데이터와 음성 특징 데이터에 대해, BLSTM 기반 원어민 음향 모델(132)과 BLSTM 기반 비원어민 음향 모델(134)을 이용하여, 강제 정렬을 각각 수행하여 제1 및 제2 시간-정렬된 문자열 정보가 획득된다. In the forced alignment step (S130), as described above, forced alignment is performed on the input text data and voice feature data using the BLSTM-based native speaker acoustic model 132 and the BLSTM-based non-native speaker acoustic model 134, respectively. Thus, first and second time-aligned character string information is obtained.

강제 정렬은 음성 데이터 중 발화 문자열에 해당하는 구간을 정확히 일치시키는 과정이다. 먼저, 발화 문자열은 발음 변환기(grapheme to pheneme)를 이용하여 음소 기반 탐색 공간(search space)으로 확장된다.Forced sorting is a process of exactly matching a section corresponding to an utterance string among voice data. First, the speech string is expanded into a phoneme-based search space using a grapheme to pheneme.

상기 입력 음성 데이터로부터 추출된 상기 음성 특징 데이터는 상기 발화 문자열로부터 확장된 상기 탐색 공간에 대하여, 원어민 음향 모델(132)을 기반으로 강제 정렬된다. 동시에 또는 순차적으로, 상기 입력 음성 데이터로부터 추출된 상기 음성 특징 데이터는 상기 발화 문자열로부터 확장된 상기 탐색 공간에 대하여, 비원어민 음향 모델(134)을 기반으로 강제 정렬된다.The speech feature data extracted from the input speech data is forcibly aligned based on the native speaker acoustic model 132 in the search space extended from the speech string. Simultaneously or sequentially, the speech feature data extracted from the input speech data are forcibly aligned based on the non-native speaker acoustic model 134 with respect to the search space extended from the speech string.

이러한 음향 모델 별로 수행된 강제 정렬에 따라, 제1 및 제2 시간-정렬된 문자열 정보가 각각 획득되고, 제1 및 제2 시간-정렬된 문자열 정보 각각은, (a) 발성 스크립트에 대응하는 입력 텍스트 데이터에 포함된 각 단어에 대한 시작 시간과 끝 시간(start/end time per word), (b) 발성 스크립트에 대응하는 입력 텍스트 데이터에 포함된 각 단어의 각 음소에 대한 시작 시간과 끝 시간(start/end time per phoneme of each word), (c) 귀무가설(null hypothesis, H0)에 따른 음향 모델 기반의 확률 값, (d) 대립가설(alternative hypothesis, H1)에 따른 음향 모델 기반의 확률 값 등을 포함한다.According to the forced alignment performed for each acoustic model, first and second time-aligned character string information is respectively obtained, and each of the first and second time-aligned character string information is (a) an input corresponding to a speech script start/end time per word for each word included in the text data, (b) the start time and end time for each phoneme of each word included in the input text data corresponding to the speech script ( start/end time per phoneme of each word), (c) the acoustic model-based probability value according to the null hypothesis (H0), (d) the acoustic model-based probability value according to the alternative hypothesis (H1) etc.

이하, BLSTM 기반 원어민 음향 모델(132)과 BLSTM 기반 비원어민 음향 모델(134)에 대해 상세히 기술한다.Hereinafter, the BLSTM-based native speaker acoustic model 132 and the BLSTM-based non-native speaker acoustic model 134 will be described in detail.

강제 정렬을 위한BLSTM 기반 원어민 음향 모델(132)은 입력 음성 데이터(Input speech)가 원어민 음성과 유사한지를 판별하는데 사용된다. 강제 정렬을 위한 BLSTM 기반 비원어민 음향 모델(134)은 입력 텍스트 데이터(Input text)의 단어 및 음소에 대한 시간 정보를 정확하게 획득하는데 사용된다.The BLSTM-based native speaker acoustic model 132 for forced alignment is used to determine whether input speech data is similar to a native speaker's speech. The BLSTM-based non-native speaker acoustic model 134 for forced alignment is used to accurately acquire temporal information about words and phonemes of input text data.

BLSTM 기반 원어민 음향 모델(132)은, 예를 들면, 1개의 입력층, 4개의 BLSTM층, 1개의 완전 연결층, 1개의 소프트맥스(softmax) 층 등을 포함한다. BLSTM 기반 원어민 음향 모델(132)은 다른 종류의 딥러닝 기반 음향 모델일 수 있다. BLSTM 기반 원어민 음향 모델(132)은 사무실 환경 등의 조용한 환경에서 녹음된 원어민 발화로 학습된다. 이처럼, 원어민 음성과의 유사성을 판별하는데 사용되는 원어민 음향 모델(132)은 잡음 환경에서 녹음된 음성 데이터나 증강된 음성 데이터로 학습되는 경우, 유사성 판별에 혼잡도를 증가시켜 유사성 판별 성능을 저하시킬 수 있다. 그러므로, 원어민 음향 모델(132)에 대한 학습에서는 잡음 환경에서 수집된 음성 데이터나 증강된 데이터가 학습 데이터(훈련 데이터)로 이용되지 않는다. BLSTM 기반 비원어민 음향 모델(134)은 BLSTM 기반 원어민 음향 모델(132)와 동일한 구성을 가질 수 있다. BLSTM 기반 비원어민 음향 모델(134)도 1개의 입력층, 4개의 BLSTM층, 1개의 완전 연결층, 1개의 소프트맥스(softmax) 층 등을 포함한다.The BLSTM based native speaker acoustic model 132 includes, for example, 1 input layer, 4 BLSTM layers, 1 fully connected layer, 1 softmax layer, and the like. The BLSTM-based native speaker acoustic model 132 may be another type of deep learning-based acoustic model. The BLSTM-based native speaker acoustic model 132 is learned from native speaker utterances recorded in a quiet environment such as an office environment. As such, when the native speaker acoustic model 132 used to determine the similarity with the native speaker's voice is learned from the recorded voice data or the augmented voice data in a noisy environment, the degree of congestion in the similarity discrimination can be increased to reduce the similarity discrimination performance. have. Therefore, in learning the native speaker acoustic model 132, voice data or augmented data collected in a noisy environment is not used as training data (training data). The BLSTM-based non-native speaker acoustic model 134 may have the same configuration as the BLSTM-based native speaker acoustic model 132 . The BLSTM-based non-native speaker acoustic model 134 also includes 1 input layer, 4 BLSTM layers, 1 fully connected layer, 1 softmax layer, and the like.

비원어민 음향 모델(134)은 사무실 환경 및 잡음 환경을 포함하는 다양한 환경에서 녹음된 비원어민 발화(비원어민 음성 코퍼스)로 학습된다. 추가적으로, 단어 및 음소에 대한 시간 정보(발화 문자열의 구간)를 정확하게 획득하기 위해 사용되는 비원어민 음향 모델(134)은 딥러닝 기반 음향 모델의 성능 향상을 위해 적용되는 음성 데이터 증강 기법에 따라 증강된 음성 데이터로 학습된다. 참고로, 딥러닝 기반 음향모델은 기존의 GMM 기반 음향모델과 비교하였을 때 보다 많은 양의 음성데이터로 학습한 경우 안정적인 성능을 보여주기 때문에, 증강된 음성데이터를 다양하게 활용한다.The non-native speaker acoustic model 134 is trained from non-native utterances (non-native speaker corpus) recorded in various environments, including office environments and noisy environments. Additionally, the non-native speaker acoustic model 134 used to accurately acquire temporal information (sections of speech strings) for words and phonemes is augmented according to the speech data augmentation technique applied to improve the performance of the deep learning-based acoustic model. It is learned from voice data. For reference, since the deep learning-based acoustic model shows stable performance when trained with a larger amount of voice data compared to the existing GMM-based acoustic model, the augmented voice data is used in various ways.

이하, BLSTM 기반 비원어민 음향 모델(134)을 위한 음성 데이터 증강에 대해 상세히 기술하기로 한다.Hereinafter, speech data augmentation for the BLSTM-based non-native speaker acoustic model 134 will be described in detail.

음성 데이터(또는 비원어민 음성 코퍼스)의 증강을 위해, 전술한 바와 같이, 속도 섭동(speed perturbation) 기법과 시간/주파수 마스킹(time/frequency masking) 기법이 이용될 수 있다. For augmentation of voice data (or non-native speaker's voice corpus), as described above, a speed perturbation technique and a time/frequency masking technique may be used.

속도 섭동 기법이 이용되는 경우, 원본 음성 데이터가 기설정된 배속으로 변환되어 증강될 수 있다. 예를 들면, 원본 음성 데이터는 속도 섭동 기법에 따라 0.9배속으로 변환되어 증강된 음성데이터와 1.1배속으로 변환되어 증강된 음성데이터가 생성될 수 있다. 이러한 속도 섭동 기법을 위해, 예를 들면, SoX 툴(audio manipulation tool)가 이용될 수 있다. 속도 섭동 기법은 "Tom Ko, Vijayaditya Peddinti, Daniel Povey, and Sanjeev Khudanpur, Audio Augmentation for Speech Recognition, Proc. of Annual Conference of the International Speech Communication Association (INTERSPEECH), Sep. 2015, pp. 3586-3589."의 문헌에서 상세하게 소개된다. 속도 섭동 기법에 대한 상세 설명은 상기의 문헌에서 기술하는 설명으로 대신한다.When the speed perturbation technique is used, the original voice data may be converted and augmented at a preset double speed. For example, the original voice data may be converted at 0.9 times the speed according to the speed perturbation technique to generate the augmented speech data and 1.1 times speed to generate the augmented speech data. For this velocity perturbation technique, for example, an SoX tool (audio manipulation tool) may be used. The velocity perturbation technique is described in "Tom Ko, Vijayaditya Peddinti, Daniel Povey, and Sanjeev Khudanpur, Audio Augmentation for Speech Recognition, Proc. of Annual Conference of the International Speech Communication Association (INTERSPEECH), Sep. 2015, pp. 3586-3589." It is introduced in detail in the literature of A detailed description of the velocity perturbation technique is substituted for the description given in the literature above.

시간/주파수 마스킹 기법은 "Daniel S. Park, William Chan, Yu Zhang, Chung-Cheng Chiu, Barret Zoph, Ekin D. Cubuk, and Quoc V. Le, SpecAugment: A Simple Data Augmentation Method for Automatic Speech Recognition, Proc. of Annual Conference of the International Speech Communication Association (INTERSPEECH), Sep. 2019."의 문헌에서 소개된다. 시간/주파수 마스킹 기법에 대한 상세 설명은 상기의 문헌에서 기술하는 설명으로 대신한다. 다만, 본 발명의 실시 예에 따른 음성 데이터의 증강에서는, 상기의 문헌에 소개된 시간/주파수 마스킹 기법이 수정 및 변경되어 사용된다. The time/frequency masking technique is described in "Daniel S. Park, William Chan, Yu Zhang, Chung-Cheng Chiu, Barret Zoph, Ekin D. Cubuk, and Quoc V. Le, SpecAugment: A Simple Data Augmentation Method for Automatic Speech Recognition, Proc. . of Annual Conference of the International Speech Communication Association (INTERSPEECH), Sep. 2019.". A detailed description of the time/frequency masking technique is replaced with the description described in the above document. However, in the augmentation of voice data according to an embodiment of the present invention, the time/frequency masking technique introduced in the above document is modified and changed and used.

도 2는 본 발명의 실시 예에 따라 수정 및 변경된 시간/주파수 마스킹 기법의 알고리즘에 따른 의사코드(pseudocode)를 나타내는 도면이다.2 is a diagram illustrating a pseudocode according to an algorithm of a modified and changed time/frequency masking technique according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 상기 문헌에서 소개된 방식과의 주요 차이점은 각종 파라미터들 r F , r T , m F,max , m T, max 이 본 발명에서 적절한 값으로 지정된다. 여기서, 파라미터 r F 는 주파수 채널에 대한 최대 마스킹 빈도 비율이고, 파라미터 r T 시간 스텝에 대한 최대 마스킹 빈도 비율이고, 파라미터 m F,max 는 한번에 마스킹 될 주파수 채널 구간의 최대 개수이고, 그리고, 파라미터 m T, max 는 한번에 마스킹 될 시간 스텝 구간의 최대 개수이다. 본 발명의 실시 예에서는, r F , r T , m F,max , m T, max 가 각각 0.15, 0.15, 2, 2로 설정될 수 있다.As shown in FIG. 2 , the main difference from the scheme introduced in this document is that various parameters r F , r T , m F,max , m T, max are assigned to appropriate values in the present invention. Here, the parameter r F is the maximum masking frequency ratio for the frequency channel, the parameter r T is the maximum masking frequency ratio for the time step, the parameter m F,max is the maximum number of frequency channel sections to be masked at one time, and the parameter m T, max are the maximum number of time step sections to be masked at one time. In an embodiment of the present invention, r F , r T , m F, max , m T and max may be set to 0.15, 0.15, 2, and 2, respectively.

본 발명의 실시 예에 따른 음성 데이터의 증강에서는 위에서 소개한 두 가지 증강 기법이 모두 적용될 수 있다. 예를 들면, 먼저, 원본 음성 데이터에 대해 속도 섭동 기법을 수행한다. 이후, 원본 음성 데이터 및 속도 섭동 기법에 따라 증강된 음성 데이터 2 종류 각각에 대하여 시간/주파수 마스킹 기법을 적용하여 추가로 3종류의 증강된 데이터를 획득한다. 결과적으로, 각 원본 음성 데이터에 대하여 5 종류의 증강된 음성 데이터를 획득하게 된다.In augmentation of voice data according to an embodiment of the present invention, both augmentation techniques introduced above may be applied. For example, first, a velocity perturbation technique is performed on the original speech data. Thereafter, a time/frequency masking technique is applied to each of the two types of voice data augmented according to the original voice data and the velocity perturbation technique to obtain additional three types of augmented data. As a result, five types of augmented voice data are obtained for each original voice data.

먼저 속도 섭동 방법을 이용하여, 원본 음성 데이터를 0.9배속으로 변환된 증강된 음성데이터를 생성하고, 또한 1.1배속으로 변환된 증강된 음성데이터를 생성한다. 다음으로 원본 음성데이터, 0.9배속으로 증강된 음성데이터, 1.1 배속으로 증강된 음성데이터에 대하여, 시간/주파수-마스킹방법을 적용하여 증강된 음성데이터를 추가로 생성한다.First, by using the speed perturbation method, the augmented voice data converted by 0.9x speed of the original voice data is generated, and also the augmented voice data converted at 1.1x speed is generated. Next, the augmented voice data is additionally generated by applying the time/frequency-masking method to the original voice data, the voice data augmented at 0.9x speed, and the voice data augmented at the 1.1x speed.

이를 통하여, 하나의 원본 음성데이터에 대하여, 0.9배속으로 증강된 음성데이터, 1.1 배속으로 증강된 음성데이터, 원본 음성데이터의 시간/주파수-마스킹된 증강된 음성데이터, 0.9배속 음성데이터의 시간/주파수-마스킹된 증강된 음성데이터, 1.1배속 음성데이터의 시간/주파수-마스킹된 증강된 음성데이터 등 다섯 종류의 증강된 음성데이터를 획득한다. 이에 한정하지 않고, 음성 데이터를 증강하기 위하여 다양한 방법이 적용될 수 있음은 당연하다.Through this, with respect to one original voice data, time/frequency of 0.9x-speed augmented voice data, 1.1x-speed augmented voice data, time/frequency-masked augmented voice data of original voice data, and 0.9x-speed voice data -Obtain five types of augmented voice data, including masked augmented voice data and time/frequency-masked augmented voice data of 1.1x voice data. The present invention is not limited thereto, and it goes without saying that various methods may be applied to augment the voice data.

유창성fluency 평가 단계(S150) Evaluation step (S150)

유창성 평가 단계(S150)는, 전술한 바와 같이, 강제 정렬 단계(S130)에서 획득된 제1 및 제2 시간-정렬된 문자열 정보를 이용하여(또는 분석하여) 유창성 평가용 특징을 추출하는 유창성 평가용 특징 추출 단계(S151)와 추출한 유창성 평가용 특징과 복수의 선형-회귀(Linear-Regression) 기반 유창성 점수 모델들(153_1, 153_2, 153_3, 153_4 및 153_5)을 이용하여 유창성 점수들(Sholistic , Ssegment, Sphonology, Sfluency, 및 Spitch)을 계산하는 유창성 점수 계산 단계(S153)를 포함한다.The fluency evaluation step (S150), as described above, uses (or analyzes) the first and second time-aligned character string information obtained in the forced sorting step (S130) to extract a fluency evaluation feature. Fluency scores (S holistic , S segment , and a fluency score calculation step (S153) of calculating S phonology , S fluency , and S pitch ).

하나의 유창성 점수(S t )는, 해당하는 선형 회귀(Linear Regression, LR) 기반 유창성 점수 모델(R t )을 이용하여 아래의 수식으로 계산된다. One fluency score ( S t ) is calculated by the following equation using a corresponding linear regression (LR)-based fluency score model ( R t ).

Figure 112020005055999-pat00001
Figure 112020005055999-pat00001

여기서 s t 는 유창성 점수이다. t는 유창성 평가 요소로서 총체적 평가(holistic), 음절 정확도(segment), 음운 정확도(phonology), 유창성 정확도(fluency) 및 강세와 악센트 정확도 중 하나이다.

Figure 112020005055999-pat00002
는 유창성 평가요소(t)에 대한 선형회귀모델의 i 번째 계수(coefficient)이다. b t 는 유창성 평가 요소(t)에 대한 선형 회귀 모델의 편향(bias)이다. ∥F∥와 f(i)는 유창성 평가용 특징 개수와 i 번째 유창성 특징을 각각 의미한다.where s t is the fluency score. t is one of holistic evaluation, syllable accuracy (segment), phonology, fluency, and stress and accent accuracy as a fluency evaluation factor.
Figure 112020005055999-pat00002
is the i-th coefficient of the linear regression model for the fluency evaluation factor (t). b t is the bias of the linear regression model for the fluency evaluation factor (t). |||F|| and f (i) mean the number of features for fluency evaluation and the i-th fluency feature, respectively.

상기 유창성 평가용 특징 추출 단계(S151)에서 추출된 유창성 평가 특징은 입력 텍스트 데이터의 단어 및 음소의 빈도 및 길이에 기반한 특징, 음절에 기반한 특징, 음향학적 특징 등을 포함한다. The fluency evaluation features extracted in the feature extraction step S151 for fluency evaluation include features based on the frequency and length of words and phonemes of the input text data, features based on syllables, and acoustic features.

빈도 및 길이에 기반한 특징은 시간-정렬된 문자열 정보의 각 토큰에 대한 길이와 개수를 이용하여 획득된다. 음절에 기반한 특징은 시간-정렬된 문자열 정보의 각 모음, 자음, 음절, 초성, 종성에 대한 길이를 이용하여 획득된다. 음향학적 특징은 시간-정렬된 문자열 정보의 음향 모델 점수와 길이를 이용하여 획득된다. 이러한 특징들의 구체적인 예가 도 3 내지 5에 각각 나타난다.Frequency and length-based features are obtained using the length and number of each token of time-aligned string information. A syllable-based feature is obtained by using the lengths for each vowel, consonant, syllable, initial and final consonant of time-aligned character string information. Acoustic features are obtained using the acoustic model score and length of time-aligned string information. Specific examples of these features are shown in FIGS. 3-5 , respectively.

선형-회귀(Linear-Regression, LR) 기반 유창성 점수 모델들(Rt)은, 유창성 평가용 낭독체 코퍼스의 비원어민 발화(비원어민 음성 코퍼스)와 원어민 발화(원어민 음성 코퍼스)로 구성된 학습 세트로 학습된다.Linear-regression (LR)-based fluency scoring models (R t ) are a training set consisting of non-native utterances (non-native speaker corpus) and native speaker utterances (native speaker corpus) of a reading corpus for fluency evaluation. is learned

학습 세트의 각 발화에서 추출된 600-차 음성 특징과 발성 문장(또는 음성인식 결과에 대한 단어 기반 문자열)에 대하여 강제 정렬을 통하여 두 세트의 시간-정렬된 문자열 정보를 획득한다.Two sets of time-aligned character string information are obtained through forced sorting for the 600-order speech features and speech sentences (or word-based strings for speech recognition results) extracted from each speech of the training set.

이 후, 학습 세트의 각 발화에 대한 두 세트의 시간-정렬된 문자열 정보와 st에 대한 타켓 점수를 입력으로 하여, R 툴킷 으로 Rt를 학습한다. After that, R t is learned with the R toolkit by inputting two sets of time-aligned string information for each utterance in the training set and a target score for s t .

R Core Team, R: A Language and enviromment for statistical computing, R Foundation for Statistical Computing, Vienna, Austria, 2014 R Core Team, R: A Language and enviromment for statistical computing, R Foundation for Statistical Computing, Vienna, Austria, 2014

여기서, st에 대한 타겟 점수는 아래의 식에서 기술된 평균값으로 계산된다. 이 과정은, 총체적 점수(Sholistic), 음정 정확도 점수(Ssegment), 음운 정확도 점수(Sphonology), 유창성 점수(Sfluency), 피치와 악센트 점수(Spitch) 등 5 종류의 유창성 평가 점수에 대한 5개의 선형회귀(linear-regression) 기반 유창성 점수 모델을 학습하는데 적용된다.Here, the target score for s t is calculated as the average value described in the following equation. This course is based on five fluency assessment scores: S holistic , S segment , S phonology , S fluency , and S pitch . It is applied to train five linear-regression-based fluency score models.

Figure 112020005055999-pat00003
Figure 112020005055999-pat00003

여기서,

Figure 112020005055999-pat00004
는 i 번째 발화에 대한 t의 발성점수를 의미하고, t는 총체적 점수(Sholistic), 음정 정확도 점수(Ssegment), 음운 정확도 점수(Sphonology), 유창성 점수(Sfluency), 피치와 악센트 점수(Spitch) 중의 어느 하나이고,
Figure 112020005055999-pat00005
는 r번째 전문 평가자가 i 번째 발화에 대하여 평가한 t의 점수를 의미한다. 총체적 점수(Sholistic), 음정 정확도 점수(Ssegment), 음운 정확도 점수(Sphonology), 유창성 점수(Sfluency), 피치와 악센트 점수(Spitch)는, 예를 들면, 4명의 전문 평가자가 비원민 화자의 발성 데이터를 평가한 점수이다. 각 점수는 5점 스케일로 구성된다. 예를 들면, 1점은 매우 나쁨, 2점은 나쁨, 3점은 적당함, 4점은 좋음 그리고 5점은 완벽함을 의미한다.here,
Figure 112020005055999-pat00004
is the vocal score of t for the ith utterance, t is the overall score (S holistic ), pitch accuracy score (S segment ), phonology accuracy score (S phonology ), fluency score (S fluency ), pitch and accent score (S pitch ) any one of,
Figure 112020005055999-pat00005
is the score of t evaluated by the rth expert evaluator for the ith utterance. The overall score (S holistic ), the pitch accuracy score (S segment ), the phonology score (S phonology ), the fluency score (S fluency ), and the pitch and accent score (S pitch ) were evaluated by, for example, four expert raters. It is a score that evaluates the vocal data of the min-speaker. Each score consists of a 5-point scale. For example, 1 means very bad, 2 means bad, 3 means moderate, 4 means good, and 5 means perfect.

또한, 선형-회귀(Linear-Regression, LR) 기반 유창성 점수 모델들(Rt)은 음성학적 특징과 음향학적 특징을 포함하는 훈련 데이터를 기반으로 사전에 학습된 모델일 수 있다. 유창성 점수 계산을 위한 모델을 학습하는 방법으로 선형회귀(linear regression) 분석 방법을 사용할 수 있다. Also, the linear-regression (LR)-based fluency score models (R t ) may be models trained in advance based on training data including phonetic features and acoustic features. A linear regression analysis method can be used as a method of training a model for fluency score calculation.

먼저, 훈련데이터의 각 음성데이터로부터 결합된 특징정보를 추출하여 선형회귀모델의 입력데이터로 준비한다. 또한, 훈련데이터의 각 음성 데이터에 전문가가 태깅한 유창성 점수를 목적 점수(target score)로 하여 선형회귀모델(

Figure 112020005055999-pat00006
)을 학습한다. First, the combined feature information is extracted from each voice data of the training data and prepared as input data of the linear regression model. In addition, a linear regression model (
Figure 112020005055999-pat00006
) to learn

실험Experiment

본 발명의 실시 예에 따른 말하기의 유창성 평가 방법을 평가하기 위하여, 전술한 수학식 2로 계산된 타겟 점수와 시스템 점수를 비교하는데 Pearson 상관 관계(correlation) 계수를 척도로 사용하였다. 각 척도에 대하여 10-fold cross validation test에 대한 평균값으로 성능을 정리한다.In order to evaluate the speaking fluency evaluation method according to an embodiment of the present invention, a Pearson correlation coefficient was used as a measure to compare the target score calculated by Equation 2 and the system score. For each scale, the performance is summarized as the average value for the 10-fold cross validation test.

본 발명의 실시 예에 따른 자동 유창성 평가 방법에서 강제정렬단계에서 사용되는 BLSTM 기반 음향 모델을 효율적으로 학습시키기 위하여 사용하는 음성 데이터 증강에 대한 효과를 파악하기 위하여, 본 출원인은 음성데이터 증강에 대한 네 종류의 조합으로 실험을 진행하였다.In order to understand the effect on voice data augmentation used to efficiently train the BLSTM-based acoustic model used in the forced alignment step in the automatic fluency evaluation method according to an embodiment of the present invention, the present applicant has Experiments were conducted with a combination of types.

도 6은 본 발명의 일 실시 예에 따른 자동 유창성 평가 방법의 Pearson 상관계수 평균에 대한 성능을 테이블로 나타낸 도면이다.6 is a table showing the performance of the Pearson correlation coefficient average of the automatic fluency evaluation method according to an embodiment of the present invention.

도 6에 도시된 테이블은 데이터 증강의 적용 여부에 따른 네 종류의 조합으로 Pearson 상관계수 평균에 대한 성능을 비교한 결과이다.The table shown in FIG. 6 is a result of comparing the performance of the Pearson correlation coefficient average with four types of combinations depending on whether data augmentation is applied or not.

네 종류의 조합은, (a) 음성 데이터 증강 미적용, (b) 원어민 음성에만 데이터 증강 적용, (c) 비원어민 음성에만 데이터 증강 적용, (d) 모든 음성 데이터 증강 적용 등이다. The four types of combinations are (a) no voice data augmentation, (b) data augmentation applied only to native speaker voices, (c) data augmentation applied only to non-native speaker voices, and (d) all voice data augmentation applied, and the like.

도 6에 도시된 테이블에서 볼 수 있듯이, 비원어민 데이터만 증강 기법을 적용한 유창성 평가 방법은 음성 데이터를 증강하지 않은 경우, 원어민 음성 데이터만 증강한 경우, 모든 데이터에 증강을 적용한 경우와 비교하였을 때 평균 상관계수가 0.002, 0.005, 0.003만큼 개선됨을 확인할 수 있었다. 여기서, 원어민 데이터의 데이터 증강은 입력 음성이 원어민 음성과 유사한지를 판별하는데 혼동을 증가시키기 때문에 성능이 저하됨을 확인할 수 있다.As can be seen from the table shown in FIG. 6, the fluency evaluation method in which only the non-native speaker data augmentation technique is applied is compared with the case where the voice data is not augmented, when only the native speaker's voice data is augmented, and when the augmentation is applied to all data. It was confirmed that the average correlation coefficient was improved by 0.002, 0.005, and 0.003. Here, it can be seen that the data augmentation of the native speaker data increases confusion in determining whether the input voice is similar to the native speaker's voice, so that the performance deteriorates.

도 7은 본 발명에 따른 말하기의 자동 유창성 평가 방법이 적용되는 컴퓨팅 장치를 나타내는 블록도이다.7 is a block diagram illustrating a computing device to which the automatic speaking fluency evaluation method according to the present invention is applied.

도 7을 참조하면, 본 발명에 따른 말하기의 자동 유창성 평가 방법이 적용되는 컴퓨팅 장치는 버스(620)를 통해 연결되는 적어도 하나의 프로세서(610), 메모리(630), 사용자 인터페이스 입력 장치(640), 사용자 인터페이스 출력 장치(650), 스토리지(660), 및 네트워크 인터페이스(670)를 포함할 수 있다.Referring to FIG. 7 , the computing device to which the automatic speaking fluency evaluation method according to the present invention is applied includes at least one processor 610 , a memory 630 , and a user interface input device 640 connected through a bus 620 . , a user interface output device 650 , a storage 660 , and a network interface 670 .

프로세서(610)는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU) 또는 이들을 조합한 것일 수 있다. 프로세서(610)는 메모리(630) 또는 스토리지(660)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. The processor 610 may be a central processing unit (CPU), a graphics processing unit (GPU), or a combination thereof. The processor 610 may be a semiconductor device that processes instructions stored in the memory 630 or the storage 660 .

도 1에 도시한 각 단계들(S110, S130, S150)은 프로세서(610)에 의해 실행되는 소프트웨어 모듈 형태로 구현될 수 있다. 예를 들면, 도 1의 음성 특징 추출 단계(S110)는 '음성 특징 추출 모듈'로 구현되고, 강제 정렬 단계(S130)는 '강제 정렬 처리 모듈'로 구현되고, 유창성 평가 단계(S150)는 '유창성 평가 모듈'로 구현될 수 있다. 이때, 유창성 평가 모듈은 유창성 평가용 특징 추출 단계(S151)를 소프트웨어 모듈로 구현하기 위한 유창성 평가용 특징 추출 모듈 및 유창성 점수 계산 단계(S153)를 소프트웨어 모듈로 구현하기 위한 유창성 점수 계산 모듈로 포함하도록 세분화될 수 있다.Each of the steps S110 , S130 , and S150 shown in FIG. 1 may be implemented in the form of a software module executed by the processor 610 . For example, the voice feature extraction step S110 of FIG. 1 is implemented as a 'voice feature extraction module', the forced alignment step (S130) is implemented as a 'forced alignment processing module', and the fluency evaluation step (S150) is ' It can be implemented as a 'fluency evaluation module'. At this time, the fluency evaluation module includes a feature extraction module for fluency evaluation for implementing the feature extraction step (S151) for fluency evaluation as a software module and a fluency score calculation module for implementing the fluency score calculation step (S153) as a software module can be subdivided.

소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(630) 및/또는 스토리지(660))에 상주할 수도 있다.A software module resides in a storage medium (ie, memory 630 and/or storage 660) such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, a removable disk, a CD-ROM. You may.

메모리(630) 및 스토리지(660)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(630)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.The memory 630 and the storage 660 may include various types of volatile or nonvolatile storage media. For example, the memory 630 may include read only memory (ROM) and random access memory (RAM).

스토리지(660)에는 본 발명에 따른 말하기의 자동 유창성 평가 방법을 실현하기 위한 다수의 알고리즘들 및 이들 알고리즘들의 실행 환경을 제공하는 운영체제 프로그램이 저장될 수 잇다. 예를 들면, 스토리지(660)는, 속도 섭동 기법을 프로그래밍한 알고리즘, 시간/주파수 마스킹 기법을 프로그래밍한 알고리즘, 선형 회귀 분석 기법을 프로그래밍한 알고리즘, 멜 필터 뱅크 추출을 위한 알고리즘, BLSTM 기반의 알고리즘, 학습 완료된 원어민 음향 모델과 비원어민 음향 모델이 프로그래밍된 알고리즘 등이 저장될 수 있다. 그 밖에 음성 특징 추출, 강제 정렬 등 음성 인식을 위해 사용되는 공지의 알고리즘 등이 더 저장될 수 있다. The storage 660 may store a plurality of algorithms for realizing the automatic fluency evaluation method of speaking according to the present invention and an operating system program that provides an execution environment for these algorithms. For example, the storage 660 may include an algorithm in which a velocity perturbation technique is programmed, an algorithm in which a time/frequency masking technique is programmed, an algorithm in which a linear regression analysis technique is programmed, an algorithm for Mel filter bank extraction, a BLSTM-based algorithm, An algorithm in which the learned native speaker acoustic model and the non-native speaker acoustic model are programmed may be stored. In addition, well-known algorithms used for voice recognition, such as voice feature extraction and forced sorting, may be further stored.

예시적인 저장 매체는 프로세서(610)에 연결되며, 그 프로세서(610)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(610)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.An exemplary storage medium is coupled to the processor 610 , the processor 610 can read information from, and write information to, the storage medium. Alternatively, the storage medium may be integral with the processor 610 . The processor and storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and storage medium may reside as separate components within the user terminal.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Example methods of the present disclosure are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement a method according to the present disclosure, other steps may be included in addition to the illustrated steps, other steps may be excluded from some steps, or additional other steps may be included except some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다Various embodiments of the present disclosure do not list all possible combinations, but are intended to describe representative aspects of the present disclosure, and matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure includes software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause an operation according to the method of various embodiments to be executed on a device or computer, and such software or and non-transitory computer-readable media in which instructions and the like are stored and executed on a device or computer.

이상과 같이 실시 예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

입력 음성 데이터로부터 음성 특징 데이터를 추출하는 단계;
상기 입력 음성 데이터가 원어민 음성과 유사한지를 판별하기 위한 원어민 음향 모델 및 입력 텍스트 데이터의 단어 및 음소에 대한 시간 정보를 획득하기 위한 비원어민 음향 모델을 기반으로, 상기 입력 텍스트 데이터와 상기 추출된 음성 특징 데이터에 대하여 강제 정렬을 수행하여, 시간-정렬된 문자열 정보를 획득하는 단계; 및
상기 시간-정렬된 문자열 정보와 선형 회귀 기반의 유창성 점수 모델을 이용하여 상기 입력 음성 데이터에 대한 유창성을 평가하는 단계
를 포함하는 말하기의 유창성 평가 방법.
extracting speech feature data from the input speech data;
Based on a native speaker acoustic model for determining whether the input voice data is similar to a native speaker's voice and a non-native speaker acoustic model for acquiring temporal information about words and phonemes of the input text data, the input text data and the extracted voice features performing forced sorting on the data to obtain time-aligned character string information; and
evaluating the fluency of the input speech data using the time-aligned character string information and a linear regression-based fluency score model;
A method of evaluating speaking fluency, including
제1항에서,
상기 음성 특징 데이터를 추출하는 단계는,
학습자가 상기 입력 텍스트 데이터에 대응하는 발성 스크립트를 낭독하여 발생한 상기 입력 음성 데이터로부터 상기 음성 특징 데이터를 추출하는 단계인 것인 말하기의 유창성 평가 방법.
In claim 1,
The step of extracting the voice feature data,
and extracting the speech feature data from the input speech data generated by a learner reading a speech script corresponding to the input text data.
제1항에서,
상기 시간-정렬된 문자열 정보는,
상기 입력 텍스트 데이터의 단어 및 음소에 대한 시작 시간과 끝 시간을 포함하는 시간 정보, 귀무가설(null hypothesis, H0)에 따른 음향 모델 기반의 확률 값 및 대립가설(alternative hypothesis, H1)에 따른 음향 모델 기반의 확률 값을 포함하는 것인 말하기의 유창성 평가 방법.
In claim 1,
The time-aligned string information is
Time information including start time and end time for words and phonemes of the input text data, a probability value based on an acoustic model according to a null hypothesis (H0), and an acoustic model according to an alternative hypothesis (H1) A method of evaluating fluency in speaking, comprising a probability value based on
제1항에서,
상기 원어민 음향 모델은,
원어민 음성 코퍼스로 학습된 모델이고,
상기 비원어민 음향 모델은,
비원어민 음성 코퍼스와 비원어민 음성 코퍼스의 증강 데이터로 학습된 모델인 것인 말하기의 유창성 평가 방법.
In claim 1,
The native speaker acoustic model is
It is a model trained with a native speaker voice corpus,
The non-native speaker acoustic model is
A method for evaluating fluency of speaking, which is a model trained with augmented data of a non-native speaker voice corpus and a non-native speaker voice corpus.
삭제delete 제1항에서,
상기 비원어민 음향 모델은,
음성 데이터 증강 기법에 따라, 증강된 음성 데이터를 훈련 데이터로 이용하여 학습된 모델이고,
상기 음성 데이터 증강 기법은,
속도 섭동(speed perturbation) 기법과 시간/주파수 마스킹(time/frequency masking) 기법 중에서 적어도 하나를 포함하는 것인 말하기의 유창성 평가 방법.
In claim 1,
The non-native speaker acoustic model is
It is a model trained using the augmented voice data as training data according to the voice data augmentation technique,
The voice data augmentation technique is
A method for evaluating speaking fluency, comprising at least one of a speed perturbation technique and a time/frequency masking technique.
제1항에서,
상기 유창성을 평가하는 단계는,
상기 시간-정렬된 문자열 정보를 분석하여 유창성 평가용 특징을 추출하는 단계; 및
상기 유창성 평가용 특징과 상기 유창성 점수 모델을 이용하여 상기 입력 음성 데이터에 대한 유창성 점수를 계산하는 단계
를 포함하는 것인 말하기의 유창성 평가 방법.
In claim 1,
The step of evaluating the fluency comprises:
extracting features for fluency evaluation by analyzing the time-aligned character string information; and
calculating a fluency score for the input speech data using the fluency evaluation feature and the fluency score model
A method of evaluating fluency in speaking, comprising:
제7항에서,
상기 유창성 평가용 특징은,
상기 시간-정렬된 문자열 정보의 각 토큰에 대한 빈도 및 길이에 기반한 특징,
상기 시간-정렬된 문자열 정보의 각 모음, 자음, 음절, 초성, 종성에 대한 길이를 나타내는 음절에 기반한 특징 및
상기 시간-정렬된 문자열 정보의 각 토큰에 대한 음향 모델 기반의 확률값을 나타내는 음향학적 특징
을 포함하는 것인 말하기의 유창성 평가 방법.
In claim 7,
The characteristics for the evaluation of fluency are,
a feature based on frequency and length for each token of the time-aligned string information;
a syllable-based feature indicating the length of each vowel, consonant, syllable, initial consonant, and final consonant of the time-aligned character string information; and
Acoustic characteristic representing the probability value based on the acoustic model for each token of the time-aligned character string information
A method of evaluating fluency in speaking, comprising:
제8항에서,
상기 유창성 점수를 계산하는 단계는,
상기 유창성 점수 모델을 이용하여 아래의 수식,
Figure 112020005055999-pat00007
에 따라 상기 유창성 점수를 계산하는 단계이고,
여기서, s t 는 유창성 점수이고, t는 유창성 평가 요소로서 총체적 평가(holistic), 음절 정확도(segment), 음운 정확도(phonology), 유창성 정확도(fluency) 및 강세와 악센트 정확도 중 하나이고,
Figure 112020005055999-pat00008
는 유창성 평가요소(t)에 대한 선형회귀모델의 i 번째 계수(coefficient)이고, b t 는 유창성 평가 요소(t)에 대한 선형 회귀 모델의 편향(bias)이고, ∥F∥와 f(i)는 유창성 평가용 특징 개수와 i 번째 유창성 특징을 각각 의미하는 것인 말하기의 유창성 평가 방법.
In claim 8,
Calculating the fluency score comprises:
Using the above fluency score model, the following formula,
Figure 112020005055999-pat00007
calculating the fluency score according to
where s t is the fluency score, t is one of holistic, syllable accuracy (segment), phonology, fluency, and stress and accent accuracy as a fluency evaluation factor,
Figure 112020005055999-pat00008
is the i-th coefficient of the linear regression model for the fluency evaluation factor (t), b t is the bias of the linear regression model for the fluency evaluation factor (t), and f (i) is the number of features for fluency evaluation and the i-th fluency feature, respectively.
제1항에서,
상기 선형 회귀 기반의 유창성 점수 모델은,
선형회귀 분석 방법에 따라, 비원어민 음성 코퍼스와 원어민 음성 코퍼스를 포함하는 학습 세트로 학습된 것인 말하기의 유창성 평가 방법.
In claim 1,
The linear regression-based fluency score model is,
A method for evaluating fluency of speaking, which is learned with a learning set including a non-native speaker corpus and a native speaker corpus according to a linear regression analysis method.
말하기의 유창성 평가를 위해, 프로세서, 메모리, 스토리지 및 이들을 연결하는 시스템 버스를 포함하는 컴퓨팅 장치에서,
상기 프로세서에 실행되는 소프트웨어 모듈은,
입력 음성 데이터로부터 음성 특징 데이터를 추출하는 음성 특징 추출 모듈;
상기 입력 음성 데이터가 원어민 음성과 유사한지를 판별하기 위한 원어민 음향 모델 및 입력 텍스트 데이터의 단어 및 음소에 대한 시간 정보를 획득하기 위한 비원어민 음향 모델을 기반으로, 상기 입력 텍스트 데이터와 상기 추출된 음성 특징 데이터에 대하여 강제 정렬을 수행하여, 시간-정렬된 문자열 정보를 획득하는 강제 정렬 처리 모듈; 및
상기 시간-정렬된 문자열 정보와 선형 회귀 기반의 유창성 점수 모델을 이용하여 상기 입력 음성 데이터에 대한 유창성을 평가하는 유창성 평가 모듈을
포함하는 컴퓨팅 장치.
In a computing device comprising a processor, memory, storage, and a system bus connecting them, for the assessment of fluency in speaking,
A software module running on the processor,
a voice feature extraction module for extracting voice feature data from the input voice data;
Based on a native speaker acoustic model for determining whether the input voice data is similar to a native speaker's voice and a non-native speaker acoustic model for acquiring temporal information about words and phonemes of the input text data, the input text data and the extracted voice features a forced sort processing module for obtaining time-aligned character string information by performing forced sorting on the data; and
a fluency evaluation module that evaluates the fluency of the input speech data using the time-aligned character string information and a linear regression-based fluency score model;
Computing device comprising.
제11항에서,
상기 음성 특징 추출 모듈은,
학습자가 상기 입력 텍스트 데이터에 대응하는 발성 스크립트를 낭독하여 발생한 상기 입력 음성 데이터로부터 상기 음성 특징 데이터를 추출하는 것인 컴퓨팅 장치.
In claim 11,
The voice feature extraction module,
and extracting the speech feature data from the input speech data generated when a learner reads a speech script corresponding to the input text data.
제11항에서,
상기 강제 정렬 처리 모듈은,
상기 입력 텍스트 데이터의 단어 및 음소에 대한 시작 시간과 끝 시간을 포함하는 시간 정보, 귀무가설에 따른 음향 모델 기반의 확률 값 및 대립가설에 따른 음향 모델 기반의 확률 값을 포함하는 상기 시간-정렬된 문자열 정보를 획득하는 것인 컴퓨팅 장치.
In claim 11,
The forced sort processing module,
Time information including start time and end time for words and phonemes of the input text data, a probability value based on an acoustic model according to a null hypothesis, and a probability value based on an acoustic model according to an alternative hypothesis. A computing device for obtaining string information.
제11항에서,
상기 원어민 음향 모델은,
원어민 음성 코퍼스로 학습된 모델이고,
상기 비원어민 음향 모델은,
비원어민 음성 코퍼스와 비원어민 음성 코퍼스의 증강 데이터로 학습된 모델인 것인 컴퓨팅 장치.
In claim 11,
The native speaker acoustic model is
It is a model trained with a native speaker voice corpus,
The non-native speaker acoustic model is
A computing device that is a model trained with augmented data of a non-native speaker corpus and a non-native speaker corpus.
제14항에서,
상기 비원어민 음향 모델은,
음성 데이터 증강 기법에 따라, 증강된 음성 데이터를 훈련 데이터로 이용하여 학습된 모델이고,
상기 음성 데이터 증강 기법은,
속도 섭동(speed perturbation) 기법과 시간/주파수 마스킹(time/frequency masking) 기법 중에서 적어도 하나를 포함하는 것인 컴퓨팅 장치.
15. In claim 14,
The non-native speaker acoustic model is
It is a model trained using the augmented voice data as training data according to the voice data augmentation technique,
The voice data augmentation technique is
A computing device comprising at least one of a speed perturbation technique and a time/frequency masking technique.
제11항에서,
상기 유창성 평가 모듈은,
상기 시간-정렬된 문자열 정보를 분석하여 유창성 평가용 특징을 추출하는 유창성 평가용 특징 추출 모듈; 및
상기 유창성 평가용 특징과 상기 유창성 점수 모델을 이용하여 상기 입력 음성 데이터에 대한 유창성 점수를 계산하는 유창성 점수 계산 모듈
을 포함하는 것인 컴퓨팅 장치.
In claim 11,
The fluency evaluation module,
a feature extraction module for fluency evaluation that analyzes the time-aligned character string information to extract features for fluency evaluation; and
A fluency score calculation module for calculating a fluency score for the input speech data using the fluency evaluation feature and the fluency score model
A computing device comprising a.
학습자가 미리 정해진 발성 스크립트를 낭독하여 발생한 입력 음성으로부터 음성 특징을 추출하는 단계;
상기 입력 음성이 원어민 음성과 유사한지를 판별하기 위한 원어민 음향 모델 및 입력 텍스트 데이터의 단어 및 음소에 대한 시간 정보를 획득하기 위한 비원어민 음향 모델을 기반으로, 상기 입력 텍스트 데이터와 상기 추출된 음성 특징에 대하여 강제 정렬을 수행하여, 상기 입력 음성을 문자열 단위로 인식하는 단계; 및
상기 입력 음성을 문자열 단위로 인식한 결과와 유창성 점수 모델을 이용하여 상기 입력 음성에 대한 유창성을 평가하는 단계
를 포함하는 말하기의 유창성 평가 방법.
extracting speech features from input speech generated by a learner reading a predetermined speech script;
Based on a native speaker acoustic model for determining whether the input voice is similar to a native speaker's voice and a non-native speaker acoustic model for acquiring temporal information about words and phonemes of the input text data, the input text data and the extracted voice features recognizing the input voice in string units by performing forced sorting; and
evaluating the fluency of the input voice using a result of recognizing the input voice in character string units and a fluency score model
A method of evaluating speaking fluency, including
제17항에서,
상기 음성 특징을 추출하는 단계는,
상기 입력 음성에 대한 파워 스펙트럼에 멜 필터 뱅크를 적용하여 추출된 멜 필터 뱅크 값을 상기 음성 특징으로 추출하는 단계인 것인 말하기의 유창성 평가 방법.
In claim 17,
The step of extracting the voice feature,
and extracting the extracted Mel filter bank value as the voice feature by applying a Mel filter bank to the power spectrum for the input voice.
제17항에서,
상기 입력 음성을 문자열 단위로 인식하는 단계에서,
상기 비원어민 음향 모델은,
사무실 환경 및 잡음 환경을 포함하는 환경에서 녹음된 비원어민 음성 코퍼스를 훈련 데이터로 이용하여 학습된 모델인 것인 말하기의 유창성 평가 방법.
In claim 17,
In the step of recognizing the input voice in string units,
The non-native speaker acoustic model is
A method for evaluating speaking fluency, which is a model trained using a non-native speaker voice corpus recorded in an environment including an office environment and a noisy environment as training data.
제17항에서,
상기 원어민 음향 모델 및 비원어민 음향 모델 각각은,
양방향 장단기 기억(bidirectional long short-term memory) 기반의 음향 모델인 것인 말하기의 유창성 평가 방법.
In claim 17,
Each of the native speaker acoustic model and the non-native speaker acoustic model,
A method for evaluating the fluency of speaking, which is an acoustic model based on bidirectional long short-term memory.
KR1020200005874A 2019-11-15 2020-01-16 Method and apparatus for automatic proficiency evaluation of speech KR102442020B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190146475 2019-11-15
KR1020190146475 2019-11-15

Publications (2)

Publication Number Publication Date
KR20210059581A KR20210059581A (en) 2021-05-25
KR102442020B1 true KR102442020B1 (en) 2022-09-08

Family

ID=76145786

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200005874A KR102442020B1 (en) 2019-11-15 2020-01-16 Method and apparatus for automatic proficiency evaluation of speech

Country Status (1)

Country Link
KR (1) KR102442020B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220152080A (en) 2021-05-07 2022-11-15 주식회사 엘지화학 A separator containing cross-linked structure for lithium secondary battery, manufacturing method thereof and a lithium secondary battery comprising the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101609473B1 (en) * 2014-10-14 2016-04-05 충북대학교 산학협력단 System and method for automatic fluency evaluation of english speaking tests

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740636B1 (en) * 2015-03-05 2017-05-26 한국전자통신연구원 Method and apparatus for evaluating pronunciation based on speech recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101609473B1 (en) * 2014-10-14 2016-04-05 충북대학교 산학협력단 System and method for automatic fluency evaluation of english speaking tests

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Judit Kormos 외, 'Exploring measures and perceptions of fluency in the speech of second language learners', 2004.06.
장병용 외, '한국인을 위한 영어 말하기 시험의 컴퓨터 기반 유창성 평가', 한국음성학회, 제6권제2호, 2014.

Also Published As

Publication number Publication date
KR20210059581A (en) 2021-05-25

Similar Documents

Publication Publication Date Title
US10586533B2 (en) Method and device for recognizing speech based on Chinese-English mixed dictionary
KR101609473B1 (en) System and method for automatic fluency evaluation of english speaking tests
US20180137109A1 (en) Methodology for automatic multilingual speech recognition
Wester Pronunciation modeling for ASR–knowledge-based and data-derived methods
KR102052031B1 (en) Method for pronunciation assessment and system using the method
KR20190008137A (en) Apparatus for deep learning based text-to-speech synthesis using multi-speaker data and method for the same
US10535339B2 (en) Recognition result output device, recognition result output method, and computer program product
JP6370749B2 (en) Utterance intention model learning device, utterance intention extraction device, utterance intention model learning method, utterance intention extraction method, program
JP6585022B2 (en) Speech recognition apparatus, speech recognition method and program
Mantena et al. Use of articulatory bottle-neck features for query-by-example spoken term detection in low resource scenarios
Ranjan et al. Isolated word recognition using HMM for Maithili dialect
Serrino et al. Contextual Recovery of Out-of-Lattice Named Entities in Automatic Speech Recognition.
KR102442020B1 (en) Method and apparatus for automatic proficiency evaluation of speech
JP6276513B2 (en) Speech recognition apparatus and speech recognition program
Yousfi et al. Holy Qur'an speech recognition system Imaalah checking rule for warsh recitation
Kumar et al. Automatic spontaneous speech recognition for Punjabi language interview speech corpus
Nguyen et al. Development of a Vietnamese speech recognition system for Viettel call center
KR20130126570A (en) Apparatus for discriminative training acoustic model considering error of phonemes in keyword and computer recordable medium storing the method thereof
Jiang et al. Performance evaluation of deep bottleneck features for spoken language identification
Lyu et al. Language diarization for conversational code-switch speech with pronunciation dictionary adaptation
JP2001312293A (en) Method and device for voice recognition, and computer- readable storage medium
JP2011180308A (en) Voice recognition device and recording medium
JP6370732B2 (en) Utterance intention model learning device, utterance intention extraction device, utterance intention model learning method, utterance intention extraction method, program
CN111312216B (en) Voice marking method containing multiple speakers and computer readable storage medium
Mahmod et al. Automated quranic Tajweed checking rules system through recitation recognition: a review

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant