KR101236539B1 - Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization - Google Patents

Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization Download PDF

Info

Publication number
KR101236539B1
KR101236539B1 KR1020100139509A KR20100139509A KR101236539B1 KR 101236539 B1 KR101236539 B1 KR 101236539B1 KR 1020100139509 A KR1020100139509 A KR 1020100139509A KR 20100139509 A KR20100139509 A KR 20100139509A KR 101236539 B1 KR101236539 B1 KR 101236539B1
Authority
KR
South Korea
Prior art keywords
cepstrum
speech
moving average
training
weighted
Prior art date
Application number
KR1020100139509A
Other languages
Korean (ko)
Other versions
KR20120077527A (en
Inventor
김형순
반성민
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Priority to KR1020100139509A priority Critical patent/KR101236539B1/en
Publication of KR20120077527A publication Critical patent/KR20120077527A/en
Application granted granted Critical
Publication of KR101236539B1 publication Critical patent/KR101236539B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/081Search algorithms, e.g. Baum-Welch or Viterbi

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 잡음과 반향이 존재하는 원거리 환경에서 음성인식 시스템의 성능 저하를 막을 수 있는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치 및 방법을 제공하기 위한 것으로서, 입력되는 훈련 음성 및 인식 음성을 각각 입력받아 복수의 프레임으로 분리하고, 각 프레임의 음성 신호에 대해 훈련 음성 켑스트럼과 인식 음성 켑스트럼을 추출하는 단계와, 상기 추출된 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 전역 평균과 분산으로 훈련 음성 켑스트럼 및 인식 음성 켑스트럼을 각각 정규화하는 단계와, 상기 정규화에서 인식 음성 켑스트럼을 정규화할 경우 1 번째 문장부터 마지막(n) 번째 문장까지 각각 이전 입력의 켑스트럼의 정규화 값을 기반으로 현재 입력되는 켑스트럼의 전역 평균과 분산을 지속적으로 갱신하는 단계와, 상기 정규화된 훈련 음성 및 인식 음성 켑스트럼의 프레임별 음성 존재 여부에 대한 가중치를 구하여 정규화된 켑스트럼 시계열을 가중 자동회귀 이동평균 필터링을 수행하는 단계와, 상기 가중 자동회귀 이동평균 필터링되어 출력되는 훈련 음성 켑스트럼에 해당하는 HMM의 유사도(likelihood)가 최대가 되도록 HMM 음향 모델을 갱신하고, 비터비 디코딩(Viterbi decoding)을 통해 상기 갱신된 HMM 음향 모델 중 가중 자동회귀 이동평균 필터링 된 인식 음성 켑스트럼에 대한 HMM 음향 모델의 유사도(likelihood)가 최대가 되는 인식 문장을 선택하는 단계를 포함하여 이루어지는데 있다.The present invention is to provide a feature compensation apparatus and method using a weighted autoregressive moving average filter, global spectral averaging and variance normalization, which can prevent performance degradation of speech recognition systems in long-distance environments where noise and echoes exist. Receiving input training speech and recognition speech into a plurality of frames, extracting a training speech cepstrum and a recognition speech cepstrum with respect to the speech signal of each frame, and extracting the extracted training speech cepstrum And normalizing the training speech column and the recognized speech column with the global mean and variance of the recognized speech column, and in normalizing the recognized speech column, the first sentence to the last (n). Up to the first sentence, respectively, the global mean and the variance of the currently input cepstrum based on the normalized value of the cepstrum of the previous input. Continuously weighting, performing weighted autoregressive moving average filtering on the normalized cepstrum time series by obtaining weights of the normalized training speech and the presence or absence of speech per frame of the recognized speech cepstrum, and performing the weighting The HMM acoustic model is updated to maximize the likelihood of the HMM corresponding to the training speech cepstrum filtered out through the autoregressive moving average filtering, and weighted among the updated HMM acoustic models through Viterbi decoding. And selecting a recognition sentence that maximizes the likelihood of the HMM acoustic model for the autoregressive moving average filtered recognition speech cepstrum.

Description

가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치 및 방법{Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization}Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization}

본 발명은 음성 신호 처리 기술분야에 관한 것으로, 특히 다양한 잡음과 반향이 존재하는 원거리 환경에서 음성인식에 적용될 수 있도록 하는 새로운 방식의 특징 보상 알고리즘에 관한 것이다. 새로운 방식의 특징 보상 알고리즘은 기존의 자동회귀 이동평균 필터 기반의 특징 보상 방식에 음성의 존재 여부에 대한 가중치를 적용하고, 훈련과 인식 데이터의 전역 켑스트럼 평균과 분산을 사용하여 켑스트럼을 정규화한다.TECHNICAL FIELD The present invention relates to the field of speech signal processing technology, and more particularly, to a feature compensation algorithm of a novel method that can be applied to speech recognition in a remote environment in which various noises and echoes exist. The new feature compensation algorithm applies weights for the presence of speech to the existing autoregressive moving average filter based feature compensation method, and uses the global spectral mean and variance of the training and recognition data to generate Normalize

최근 들어 음성인식 기술은 실험실 데모 수준을 벗어나 실생활에 적용, 상용화되고 있다. 그러나 현재의 음성인식 시스템은 제한된 환경에서는 비교적 좋은 성능을 보이나 이것이 실제 인식환경에 적용된다면 성능이 급격히 저하될 수 있다. 이것은 음성인식을 수행하는 실제 환경이 주변 소음, 발성 거리, 마이크 특성, 채널 왜곡 및 화자의 변이 등 인식 성능을 저하시키는 요소들을 수반하기 때문이다.Recently, voice recognition technology has been applied to the real world beyond the demonstration level of the laboratory. However, the current speech recognition system shows relatively good performance in limited environment, but if it is applied to the actual recognition environment, the performance can be drastically degraded. This is because the actual environment in which voice recognition is performed involves factors that degrade recognition performance such as ambient noise, speech distance, microphone characteristics, channel distortion, and speaker variation.

이러한 부가적인 잡음은 음성신호를 오염시키며 음성을 표현하는 특징벡터를 변화시킨다. 그래서 특징벡터의 통계적 특성의 변이를 유발한다. 예를 들어, 백색 잡음은 스펙트럼의 포락선 정보를 표현하는 켑스트럼과 같은 특징벡터의 동적 범위(또는 분산)를 감소시킨다. This additional noise contaminates the speech signal and changes the feature vectors representing the speech. Thus, it causes variation of the statistical properties of the feature vector. For example, white noise reduces the dynamic range (or variance) of a feature vector, such as a cepstrum, representing envelope information of a spectrum.

실제 인식기가 사용될 경우와 유사한 조건에서 학습된 시스템은 좋은 성능을 보인다. 그래서 음성인식 기술 개발자들은 학습과 인식 환경의 불일치에 의한 인식 성능의 저하를 최소화하기 위한 노력을 기울여 왔다.The trained system shows good performance under similar conditions as when the actual recognizer is used. Therefore, voice recognition technology developers have made efforts to minimize the degradation of recognition performance caused by inconsistency between learning and recognition environment.

이러한 연구개발에 따라, 음성 인식 시스템은 깨끗한 음성을 사용한 훈련모드와 잡음 섞인 음성을 사용한 인식 모드로 분류되어 구성된다. 즉, 음성인식 시스템에 잡음과 반향으로 왜곡된 음성이 입력되면 특징 보상 알고리즘으로 특징을 보상하여 추출한다. 사전에 깨끗한 음성에도 동일한 특징 보상 알고리즘을 적용하여 음향모델을 구성하고, 이 음향모델을 사용하여 음성인식을 수행한다. According to this research and development, the speech recognition system is classified into a training mode using clean voice and a recognition mode using noise mixed voice. In other words, if a speech distorted by noise and echo is input to the speech recognition system, the feature compensation algorithm compensates and extracts the feature. An acoustic model is constructed by applying the same feature compensation algorithm to a clear speech in advance, and speech recognition is performed using the acoustic model.

한편, 음성인식 시 음원과 마이크 사이의 거리가 멀어질수록 인식 성능이 저하되는 문제가 있는데, 이는 음성인식에서 훈련환경과 인식환경의 불일치 때문이다. 특히 원거리에서는 부가 잡음뿐만 아니라 반향 성분 또한 존재해서 환경 불일치로 인한 문제가 더 커진다.On the other hand, when the distance between the sound source and the microphone when the voice recognition, there is a problem that the recognition performance is degraded, because of the discrepancy between the training environment and the recognition environment in the voice recognition. Especially at long distances, there are echo components as well as additional noise, making the problem of environmental mismatch larger.

이러한 불일치 문제를 해결하기 위해 여러 가지 알고리즘들이 연구되었는데, 크게 모델 보상, 잡음 제거, 반향 제거, 특징 보상 등으로 분류할 수 있다. Various algorithms have been studied to solve this inconsistency problem, and can be classified into model compensation, noise cancellation, echo cancellation, and feature compensation.

이 중 모델 보상은 PMC(Parallel Model Combination)와 VTS(Vector Taylor Series) 방식처럼 사전에 인식 환경의 정보를 이용하여 깨끗한 음성으로부터의 음향모델을 보상할 수 있다. 이러한 방식은 인식 환경의 정보를 충분히 가지고 있다면 효과적으로 사용될 수 있지만, 보통 인식환경을 예측하기 어렵기 때문에 실제로 이러한 모델 방식을 사용하는 데에 제한이 있다.Among these, the model compensation can compensate the acoustic model from the clean voice by using information of the recognition environment in advance, such as Parallel Model Combination (PMC) and Vector Taylor Series (VTS). This method can be used effectively if you have enough information of the recognition environment, but there is a limit to the actual use of this model method because it is usually difficult to predict the recognition environment.

이에 비해 음질 개선은 인식환경에 대한 사전정보 없이 잡음을 추정하여 음질을 개선시킨다. 음질 개선은 부가잡음으로 인한 왜곡 감소에 초점을 맞춘 것으로 지금까지 많은 연구가 진행되었다. 그러나 이러한 음질 개선 방식으로 부가 잡음을 효율적으로 제거할 수 있지만, 반향까지 함께 제거하기는 어렵다. 그래서 반향을 줄이기 위한 연구가 별도로 진행되기도 했는데, 반향 제거 알고리즘 중 MSLP(Multi-Step Linear Prediction)이 우수한 성능을 보인다. 하지만 MSLP는 음성 파형의 상관도를 이용하기 때문에 계산량이 많은 단점을 가지고 있다. On the other hand, the improvement of sound quality improves sound quality by estimating noise without prior knowledge of recognition environment. The improvement of sound quality is focused on the reduction of distortion caused by added noise. However, this method of improving sound quality can efficiently remove added noise, but it is difficult to remove echoes as well. Therefore, research to reduce echo was conducted separately. Among the echo cancellation algorithms, MSLP (Multi-Step Linear Prediction) shows excellent performance. However, MSLP has a disadvantage in that it has a large amount of calculation because it uses correlation of speech waveforms.

이에 비해 자동회귀 이동평균 필터를 이용한 특징 보상 방식은 계산량이 적으면서도 우수한 성능을 보인다. 이 방식은 켑스트럼 평균 및 분산으로 정규화시킨 켑스트럼의 시계열을 자동회귀 이동평균 필터에 통과시켜 특징을 강화한다. 하지만 이는 잡음에서 음성으로 변화하는 구간에서 잡음구간의 특징이 음성구간의 특징에 영향을 미치며, 이는 자동회귀 이동평균 필터의 성능을 떨어뜨리는 요인이 될 수 있는 문제점이 있다.On the other hand, the feature compensation method using the autoregressive moving average filter shows a good performance with a small amount of calculation. This method enhances the characteristics by passing a time series of cepstrum normalized by cepstrum mean and variance through an autoregressive moving average filter. However, this has a problem that the characteristics of the noise section affects the characteristics of the speech section in the section that changes from noise to speech, which may be a factor that degrades the performance of the autoregressive moving average filter.

또한, 현재 대부분의 음성인식 시스템은 부가잡음과 반향의 영향이 적은 근거리 환경에서 동작한다. 하지만 음성인식 시스템이 다양한 분야에 적용되기 위해서는 원거리 환경에서도 잘 동작해야 한다. 보통 음원과 마이크 사이의 거리가 멀어질수록 부가잡음과 반향 성분이 많아지기 때문에 음성인식 성능이 저하된다. 실제로 음성인식 시스템은 계산량이 제한되거나 사용 가능한 마이크 개수가 하나인 경우가 많다.In addition, most speech recognition systems currently operate in a short-range environment with less added noise and less reflection. However, in order for the voice recognition system to be applied to various fields, it must work well in a remote environment. In general, as the distance between the sound source and the microphone increases, the additional noise and echo components increase, which degrades the speech recognition performance. In practice, voice recognition systems often have a limited amount of computation or only one microphone available.

따라서 오 인식률을 낮추어 음성인식의 성능을 높이기 위해서는 당연히 이러한 문제점들은 큰 문제로 작용되고 있으며, 최근 음성인식에 따른 관심과 적용분야의 확대 등으로 인해 이에 따른 요구가 증대되고 있다.Therefore, in order to increase the performance of speech recognition by lowering the false recognition rate, these problems are acting as a big problem, and the demands are increasing due to the interest and expansion of the application fields according to the recent speech recognition.

따라서 본 발명은 상기와 같은 문제점을 해결하기 위해 안출한 것으로서, 잡음과 반향이 존재하는 원거리 환경에서 음성인식 시스템의 성능 저하를 막을 수 있는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치 및 방법을 제공하는데 그 목적이 있다.Therefore, the present invention has been made to solve the above problems, weighted autoregressive moving average filter and global spectral mean and variance normalization that can prevent the performance degradation of speech recognition system in long-distance environment with noise and echo It is an object of the present invention to provide a feature compensation apparatus and method using the same.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치의 특징은 훈련 음성 및 인식 음성을 각각 입력받아 복수의 프레임으로 분리하고, 각 프레임의 음성 신호에 대해 푸리에 변환을 수행하여 훈련 음성 켑스트럼과 인식 음성 켑스트럼을 추출하는 MFCC(Mel-Frequency Cepstral Coefficients) 특징 추출부와, 상기 MFCC 특징 추출부에서 출력되는 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 전역 평균과 분산으로 훈련 음성 켑스트럼 및 인식 음성 켑스트럼을 각각 정규화하는 켑스트럼 평균 및 분산 정규화부와, 상기 정규화에서 인식 음성 켑스트럼을 정규화할 경우 1 번째 문장부터 마지막(n) 번째 문장까지 각각 이전 입력의 켑스트럼의 정규화 값을 기반으로 현재 입력되는 켑스트럼의 전역 평균과 분산을 지속적으로 갱신하는 업데이트부와, 상기 켑스트럼 평균 및 분산 정규화부에서 출력되는 정규화된 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 프레임별 음성 존재 여부에 대한 가중치를 구하여 정규화된 켑스트럼 시계열을 가중 자동회귀 이동평균 필터링하는 가중 자동회귀 이동평균 필터와, 상기 가중 자동회귀 이동평균 필터에서 출력되는 훈련 음성 켑스트럼이 입력되면, 입력되는 훈련 음성 켑스트럼에 해당하는 HMM의 유사도(likelihood)가 최대가 되도록 HMM 음향 모델을 갱신하는 음향 모델 훈련부와, 비터비 디코딩(Viterbi decoding)을 통해 상기 가중 자동회귀 이동평균 필터에서 출력되는 인식 음성 켑스트럼에 대한 상기 음향 모델 훈련부에서 출력되는 HMM 음향 모델의 유사도(likelihood)가 최대가 되는 문장을 선택하는 음성 인식부를 포함하여 구성되는데 있다. Features of the feature compensation device using the weighted autoregressive moving average filter and the global spectral mean and variance normalization according to the present invention for achieving the above object are divided into a plurality of frames by receiving a training voice and a recognition voice, respectively A MFCC (Mel-Frequency Cepstral Coefficients) feature extractor which performs Fourier transform on the speech signal of each frame and extracts a training speech cepstrum and a recognition speech cepstrum, and the training speech output from the MFCC feature extractor. A spectral mean and variance normalizer that normalizes the training speech cognition and the recognition speech cepstrum by the global mean and variance of the cepstrum and recognition speech cepstrum, respectively, and normalizes the recognized speech cepstrum in the normalization In this case, the first sentence to the last (n) sentence are respectively inputted based on the normalized value of the cepstrum of the previous input. An updater for continuously updating the global mean and the variance of the cepstruum, and whether the normalized training speech cepstrum and the recognized speech cepstrum output from the cepstrum mean and variance normalization unit A weighted autoregressive moving average filter for filtering the weighted autoregressive moving average of the normalized cepstrum time series by obtaining a weight and a training voice column output from the weighted autoregressive moving average filter are input. An acoustic model training unit for updating the HMM acoustic model to maximize the likelihood of the HMM corresponding to the rum, and to the recognition speech cepstrum output from the weighted autoregressive moving average filter through Viterbi decoding. Select a sentence of which maximum likelihood of the HMM acoustic model outputted from the acoustic model training unit There is composed by including a speech recognition.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 방법의 특징은 (A) 입력되는 훈련 음성 및 인식 음성을 각각 입력받아 복수의 프레임으로 분리하고, 각 프레임의 음성 신호에 대해 훈련 음성 켑스트럼과 인식 음성 켑스트럼을 추출하는 단계와, (B) 상기 추출된 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 전역 평균과 분산으로 훈련 음성 켑스트럼 및 인식 음성 켑스트럼을 각각 정규화하는 단계와, (C) 상기 정규화에서 인식 음성 켑스트럼을 정규화할 경우 1 번째 문장부터 마지막(n) 번째 문장까지 각각 이전 입력의 켑스트럼의 정규화 값을 기반으로 현재 입력되는 켑스트럼의 전역 평균과 분산을 지속적으로 갱신하는 단계와, (D) 상기 정규화된 훈련 음성 및 인식 음성 켑스트럼의 프레임별 음성 존재 여부에 대한 가중치를 구하여 정규화된 켑스트럼 시계열을 가중 자동회귀 이동평균 필터링을 수행하는 단계와, (E) 상기 가중 자동회귀 이동평균 필터링되어 출력되는 훈련 음성 켑스트럼이 입력되면, 이 훈련 음성 켑스트럼에 해당하는 HMM의 유사도(likelihood)가 최대가 되도록 HMM 음향 모델을 갱신하는 음향 모델 훈련 단계와, (F) 비터비 디코딩(Viterbi decoding)을 통해 상기 갱신된 HMM 음향 모델 중 가중 자동회귀 이동평균 필터링 된 인식 음성 켑스트럼에 대한 HMM 음향 모델의 유사도(likelihood)가 최대가 되는 인식 문장을 선택하는 음성 인식 단계를 포함하여 이루어지는데 있다. Features of the feature compensation method using the weighted autoregressive moving average filter and the global spectral mean and variance normalization according to the present invention for achieving the above object are (A) receiving a plurality of input training voice and recognition voice, respectively Extracting a training speech column and a recognition speech column for the speech signal of each frame, and (B) a global average of the extracted training speech column and the recognized speech column; Normalizing the training speech cepstrum and the recognized speech cepstrum with each other and (C) normalizing the recognized speech cepstrum in the normalization, and inputting the previous sentence from the first sentence to the last (n) sentence, respectively. Continuously updating the global mean and variance of the currently input cepstrum on the basis of the normalized value of the cepstruum of (d), and (D) the normalized training voice and phosphorus. Performing weighted autoregressive moving average filtering on the normalized cepstrum time series by obtaining weights of the presence or absence of speech for each frame of the equation speech cepstrum, and (E) training voice output by filtering the weighted autoregressive moving average When the cepstrum is input, the acoustic model training step of updating the HMM acoustic model to maximize the likelihood of the HMM corresponding to the training speech cepstruum, and (F) through Viterbi decoding And a speech recognition step of selecting a recognition sentence of which the likelihood of the HMM acoustic model is maximum with respect to the weighted autoregressive moving average filtered recognition speech cepstrum among the updated HMM acoustic models.

바람직하게, 상기 (B) 단계는 (B1) 입력되는 훈련 음성 및 인식 음성 켑스트럼별로 k(1 이상의 상수)개의 샘플들을 취하여 각각 한 개의 프레임으로 구성하는 단계와, (B2) 상기 구성된 연속된 프레임별로 이상 푸리에 변환(Discrete Fourier Transform : DFT)을 한 후, 멜-스케일(mel-scale)의 삼각 필터뱅크에 통과시켜 N(1 이상의 상수)개의 필터뱅크 출력을 산출하고, 이를 이산 코사인 변환(Discrete Cosine Transform : DCT)하여 켑스트럼의 값을 산출하는 단계와, (B3) 상기 산출된 켑스트럼의 각 값을 켑스트럼 평균 및 분산 정규화를 사용하여 각각 정규화하는 단계를 포함하는 것을 특징으로 한다.Preferably, the step (B) comprises (b1) taking k (constant constants of 1 or more) samples for each of the input training voice and the recognition voice column, and configuring each frame into one frame; Discrete Fourier Transform (DFT) is performed for each frame, and then passed through a mel-scale triangular filter bank to yield N (constants of 1 or more) filter banks, which are discrete cosine transforms. Discrete Cosine Transform (DCT) to calculate the value of the cepstrum, and (B3) normalizing each value of the calculated cepstrum using cepstrum mean and variance normalization, respectively. It is done.

바람직하게 상기 (B3) 단계는 상기 산출된 켑스트럼의 값(

Figure 112010087818614-pat00001
)을 수식
Figure 112010087818614-pat00002
를 이용하여 정규화하는 것을 특징으로 한다.Preferably, the step (B3) is a value of the calculated cepstrum (
Figure 112010087818614-pat00001
) Formula
Figure 112010087818614-pat00002
It is characterized by using the normalization.

바람직하게 상기 (C) 단계는 (C1) 인식에 사용했던 1 번째 문장부터 마지막(n) 번째 문장을 사용한 전역 평균

Figure 112010087818614-pat00003
을 수식
Figure 112010087818614-pat00004
로 갱신하고, 이를 다시 수식
Figure 112010087818614-pat00005
로 변환하여 켑스트럼의 전역 평균을 산출하고, 수식
Figure 112010087818614-pat00006
로 변환하여 켑스트럼의 전역 표준편차를 산출하는 단계와, (C2) 상기 산출된 켑스트럼의 평균과 표준편차를 이용하여 n번째 인식 대상 문장의 t번째 프레임에서의 k번째 켑스트럼
Figure 112010087818614-pat00007
를 수식
Figure 112010087818614-pat00008
를 이용하여 정규화하는 단계로 이루어지는 것을 특징으로 한다.Preferably, the step (C) is a global mean using the first to the last (n) sentences used for (C1) recognition
Figure 112010087818614-pat00003
Formula
Figure 112010087818614-pat00004
And update it again
Figure 112010087818614-pat00005
To obtain the global mean of the cepstrum,
Figure 112010087818614-pat00006
Calculating the global standard deviation of the cepstrum, and (C2) a k-th cepstrum in the t-th frame of the nth sentence to be recognized using the calculated mean and standard deviation of the cepstrum.
Figure 112010087818614-pat00007
Formula
Figure 112010087818614-pat00008
Characterized by using the step of normalizing.

바람직하게 상기 (D) 단계에서 가중 자동회귀 이동평균 필터링은 수식

Figure 112010087818614-pat00009
를 적용하여 필터링을 수행하는 것을 특징으로 한다.Preferably in step (D) the weighted autoregressive moving average filtering is
Figure 112010087818614-pat00009
It is characterized by performing filtering by applying.

이상에서 설명한 바와 같이 본 발명에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치 및 방법은 기존의 자동회귀 이동평균 필터 기반의 TMF 방식에서 음성의 존재 여부 정도에 따른 가중치를 적용하여 자동회귀 이동평균 필터기반 TMF의 단점을 보완한다. 또한 전체 데이터의 켑스트럼으로부터의 전역 평균과 분산을 사용하여 환경 불일치 문제를 줄이는 효과가 있다.As described above, the feature compensation apparatus and method using the weighted autoregressive moving average filter, the global spectral mean, and the variance normalization according to the present invention can be applied to the degree of presence of speech in the conventional autoregressive moving average filter based TMF scheme. By applying weights, we compensate for the disadvantages of TMF based on autoregressive moving average filter. It also has the effect of reducing the problem of environmental inconsistency by using global averages and variances from the entire spectrum of data.

그리고 본 발명은 필요한 계산량이 적어서 실시간으로 충분히 동작할 수 있으며, 또한 부가잡음과 반향이 존재하는 다양한 환경에서 인식 성능의 저하를 크게 줄일 수 있는 효과가 있다.In addition, the present invention can operate sufficiently in real time due to the small amount of calculation required, and also has an effect of greatly reducing the degradation of recognition performance in various environments in which additional noise and echo are present.

[도 1] 본 발명의 실시예에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치의 구조를 나타낸 구성도
[도 2] 본 발명의 실시예에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 방법을 설명하기 위한 흐름도
1 is a block diagram showing the structure of a feature compensation apparatus using a weighted autoregressive moving average filter and global spectral mean and variance normalization according to an embodiment of the present invention.
2 is a flowchart illustrating a feature compensation method using a weighted autoregressive moving average filter, global spectral mean, and variance normalization according to an embodiment of the present invention.

본 발명의 다른 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the detailed description of the embodiments with reference to the accompanying drawings.

본 발명에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치 및 방법의 바람직한 실시예에 대하여 첨부한 도면을 참조하여 설명하면 다음과 같다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Referring to the accompanying drawings, a preferred embodiment of a feature compensation apparatus and method using a weighted autoregressive moving average filter according to the present invention, global cepstrum average and variance normalization will be described below. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. It is provided to let you know. Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

도 1 은 본 발명의 실시예에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치의 구조를 나타낸 구성도이다.1 is a block diagram illustrating a structure of a feature compensation apparatus using a weighted autoregressive moving average filter, global spectral average, and variance normalization according to an exemplary embodiment of the present invention.

도 1과 같이, 특징 보상 장치는 MFCC(Mel-Frequency Cepstral Coefficients) 특징 추출부(100)와, 켑스트럼 평균 및 분산 정규화부(110)와, 업데이트부(120)와, 가중 자동회귀 이동평균 필터(130)와, 음향 모델 훈련부(140)와, 음성 인식부(160)로 구성된다.As shown in FIG. 1, the feature compensator includes a MFCC (Mel-Frequency Cepstral Coefficients) feature extractor 100, a cepstrum mean and variance normalizer 110, an updater 120, and a weighted autoregressive moving average. The filter 130, the acoustic model training unit 140, and the speech recognition unit 160 are configured.

상기 MFCC 특징 추출부(100)는 깨끗한 음성(이하 “훈련 음성”이라 칭함) 및 잡음 섞인 음성(이하 “인식 음성”이라 칭함)을 각각 음성 신호로 입력받아 복수의 프레임으로 분리하고, 각 프레임의 음성 신호에 대해 푸리에 변환을 수행하여 훈련 음성 켑스트럼과 인식 음성 켑스트럼의 MFCC 특징을 추출하여 시간에 따른 프레임 열을 출력한다.The MFCC feature extractor 100 receives clean voices (hereinafter referred to as "training voices") and noise-mixed voices (hereinafter referred to as "recognition voices") as voice signals and separates them into a plurality of frames. Fourier transform is performed on the speech signal to extract the MFCC features of the training speech string and the recognized speech string, and output a frame sequence over time.

상기 켑스트럼 평균 및 분산 정규화부(110)는 상기 MFCC 특징 추출부(100)에서 출력되는 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 전역 평균과 분산으로 훈련 음성 켑스트럼 및 인식 음성 켑스트럼을 각각 정규화시킨다.The cepstrum mean and variance normalization unit 110 trains the training speech cepstrum and the recognized speech 으로 as the global mean and variance of the training speech cepstrum and the recognized speech cepstrum output from the MFCC feature extractor 100. Normalize each strum.

상기 업데이트부(120)는 상기 켑스트럼 평균 및 분산 정규화부(110)에서 인식 음성 켑스트럼을 정규화할 경우 1 번째 문장부터 마지막(n) 번째 문장까지 각각 이전 입력 문장들까지의 켑스트럼 전역 평균 및 분산과 현재 입력 문장의 켑스트럼 평균 및 분산을 기반으로 현재의 전역 평균 및 분산을 갱신한 후, 이렇게 갱신된 인식 음성 켑스트럼의 전역 평균 및 분산을 상기 켑스트럼 평균 및 분산 정규화부(110)로 재입력한다. 재입력된 전역 평균 및 분산은 다음 입력 문장의 켑스트럼을 정규화시키는데 사용한다. 이는 실제 음성인식 시 켑스트럼의 전역 평균과 분산을 실시간으로 구하기 힘들기 때문이며, 이를 통해 효율적으로 인식 음성 켑스트럼의 전역 평균을 계산하도록 하여 인식 음성의 특징(인식 음성 켑스트럼)을 정규화하도록 한다.The updater 120 normalizes the recognized speech cepstrum by the cepstrum mean and variance normalization unit 110, respectively, from the first sentence to the last (n) sentence, the cepstrum from previous input sentences, respectively. After updating the current global mean and variance based on the global mean and variance and the spectral mean and variance of the current input sentence, the updated global mean and variance of the updated recognized speech cepstrum is converted into the spectral mean and variance. Re-enter the normalization unit 110. The re-entered global mean and variance are used to normalize the cepstrum of the next input statement. This is because it is difficult to obtain the global mean and variance of the cepstrum in real time in real speech recognition, and it is possible to efficiently calculate the global average of the recognized speech cepstrum to normalize the characteristics of the recognized speech (recognition speech cepstrum). Do it.

상기 가중 자동회귀 이동평균 필터(130)는 상기 켑스트럼 평균 및 분산 정규화부(110)에서 출력되는 정규화된 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 프레임별 음성 존재 여부에 대한 가중치를 구하여 정규화된 켑스트럼 시계열을 가중 자동회귀 이동평균 필터링한다. The weighted autoregressive moving average filter 130 obtains weights for the presence or absence of speech for each frame of the normalized training speech cepstrum and the recognized speech cepstrum output from the cepstrum mean and variance normalization unit 110. Weighted autoregressive moving average filtering of the normalized cepstrum time series.

상기 음향 모델 훈련부(140)는 상기 가중 자동회귀 이동평균 필터(130)에서 출력되는 훈련 음성 켑스트럼이 입력되면 HMM 음향 모델 DB(150)에 저장된 음향 모델 중 입력되는 훈련 음성 켑스트럼에 해당하는 HMM 음향 모델의 유사도(likelihood)가 최대가 되도록 HMM 음향 모델을 갱신한다. The acoustic model training unit 140 corresponds to the training speech cepstrum input from the acoustic models stored in the HMM acoustic model DB 150 when the training speech cepstrum output from the weighted autoregressive moving average filter 130 is input. The HMM acoustic model is updated to maximize the likelihood of the HMM acoustic model.

상기 음성 인식부(160)는 비터비 디코딩(Viterbi decoding)을 통해 상기 가중 자동회귀 이동평균 필터(130)에서 출력되는 인식 음성 켑스트럼들에 대한 상기 음향 모델 훈련부(140)에서 출력되는 HMM 음향모델의 유사도(likelihood)가 최대가 되는 인식 문장을 출력한다.
The speech recognition unit 160 outputs the HMM sound output from the acoustic model training unit 140 for the recognized speech cepstrums output from the weighted autoregressive moving average filter 130 through Viterbi decoding. Output the recognition sentences with the maximum likelihood of the model.

이와 같이 구성된 본 발명에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치의 동작을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다. 도 1과 동일한 참조부호는 동일한 기능을 수행하는 동일한 부재를 지칭한다. The operation of the feature compensation apparatus using the weighted autoregressive moving average filter, the global spectral mean, and the variance normalization according to the present invention configured as described above will be described in detail with reference to the accompanying drawings. The same reference numerals as those in Fig. 1 designate the same members performing the same function.

도 2 는 본 발명의 실시예에 따른 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a feature compensation method using a weighted autoregressive moving average filter, a global spectral mean, and variance normalization according to an embodiment of the present invention.

도 2를 참조하여 설명하면, 먼저 MFCC 특징 추출부(100)는 입력되는 깨끗한 음성인 훈련 음성 및 잡음 섞인 음성인 인식 음성을 각각 음성 신호로 입력받아 복수의 프레임으로 분리하고, 각 프레임의 음성 신호에 대해 푸리에 변환을 수행하여 훈련 음성 켑스트럼과 인식 음성 켑스트럼의 MFCC 특징을 추출하여 시간에 따른 프레임 열을 출력한다(S10).Referring to FIG. 2, first, the MFCC feature extractor 100 receives a training voice, which is a clean voice, and a recognition voice, which is a noise-mixed voice, as a voice signal, and divides the voice into a plurality of frames. Fourier transform is performed to extract the MFCC features of the training speech cepstrum and the recognized speech cepstrum and output a frame sequence over time (S10).

이어 켑스트럼 평균 및 분산 정규화부(110)는 상기 MFCC 특징 추출부(100)에서 출력되는 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 전역 평균과 분산으로 MFCC 특징을 각각 정규화시켜 출력한다(S20).Subsequently, the cepstrum mean and variance normalization unit 110 normalizes and outputs the MFCC features by the global mean and the variance of the training speech cepstrum and the recognized speech cepstrum output from the MFCC feature extractor 100. S20).

상기 켑스트럼의 정규화 과정은 상세히 설명하면 다음과 같다.The normalization process of the cepstrum is described in detail as follows.

훈련 음성 및 인식 음성 켑스트럼을 정규화하기에 앞서 훈련 음성 및 인식 음성 켑스트럼별로 각각 k개의 샘플들을 취하여 각각 한 개의 프레임을 구성한다. 이때 이웃한 프레임들 사이에는 k/2개의 샘플들이 중복되도록 한다. 이때 k는 1 이상의 상수이다.Prior to normalizing the training speech and recognition speech columns, k samples are taken for each training speech and recognition speech column to form one frame each. In this case, k / 2 samples are overlapped between neighboring frames. K is a constant of 1 or more.

이어 연속된 프레임별로 이상 푸리에 변환(Discrete Fourier Transform : DFT)을 한 후, 멜-스케일(mel-scale)의 삼각 필터뱅크에 통과시켜 N개의 필터뱅크 출력을 산출하고, 이를 이산 코사인 변환(Discrete Cosine Transform : DCT)하여 켑스트럼 값을 산출한다.Subsequently, a Discrete Fourier Transform (DFT) is performed for each successive frame, and then passed through a mel-scale triangular filter bank to produce N filter bank outputs, which are discrete cosine transforms. Transform: DCT) to calculate the spectral value.

이때, t번째 프레임에서의 k번째 켑스트럼의 값

Figure 112010087818614-pat00010
는 다음 수학식 1과 같이 구한다. At this time, the value of the k th spectrum in the t th frame
Figure 112010087818614-pat00010
Is obtained as in Equation 1 below.

Figure 112010087818614-pat00011
Figure 112010087818614-pat00011

여기서 상기

Figure 112010087818614-pat00012
는 t번째 프레임에서 b번째 멜-스케일의 삼각 필터뱅크 출력값이고, N은 필터뱅크의 차수이다.Where above
Figure 112010087818614-pat00012
Is the triangular filterbank output of the bth mel-scale in the tth frame, and N is the order of the filterbank.

그리고 상기

Figure 112010087818614-pat00013
는 다음 수학식 2와 같이 구한다.And said
Figure 112010087818614-pat00013
Is obtained as in Equation 2 below.

Figure 112010087818614-pat00014
Figure 112010087818614-pat00014

이때, 상기

Figure 112010087818614-pat00015
는 b번째 필터뱅크의 i번째 성분의 값을 나타내며,
Figure 112010087818614-pat00016
는 b번째 필터뱅크가 가지는 성분의 개수이다. 그리고 상기
Figure 112010087818614-pat00017
는 b번째 필터뱅크의 i번째 성분에 대응되는 입력음성의 t번째 프레임 DFT 계수 크기이다.At this time,
Figure 112010087818614-pat00015
Denotes the value of the i th component of the b th filter bank,
Figure 112010087818614-pat00016
Is the number of components of the b th filter bank. And said
Figure 112010087818614-pat00017
Is the t-th frame DFT coefficient magnitude of the input voice corresponding to the i-th component of the b-th filter bank.

이렇게 구한 켑스트럼의 값

Figure 112010087818614-pat00018
는 켑스트럼 평균 및 분산 정규화를 사용하여 다음 수학식 3과 같이 정규화시킨다.The value of the cepstrum
Figure 112010087818614-pat00018
Is normalized as follows using Equation Mean and Variance Normalization.

Figure 112010087818614-pat00019
Figure 112010087818614-pat00019

그리고 켑스트럼의 평균(

Figure 112010087818614-pat00020
)과 표준편차(
Figure 112010087818614-pat00021
)는 각각 다음 수학식 4, 수학식 5와 같다.And the mean of the cepstrum (
Figure 112010087818614-pat00020
) And standard deviation (
Figure 112010087818614-pat00021
) Are as shown in Equations 4 and 5, respectively.

Figure 112010087818614-pat00022
Figure 112010087818614-pat00022

Figure 112010087818614-pat00023
Figure 112010087818614-pat00023

여기서 상기 N은 훈련 또는 인식 음성에서 사용한 전체 문장의 개수이며, 상기

Figure 112010087818614-pat00024
은 n번째 문장의 프레임 수이다. 따라서 상기
Figure 112010087818614-pat00025
은 훈련 또는 인식 음성에서 사용한 전체 프레임의 개수이다.Where N is the total number of sentences used in training or recognition speech,
Figure 112010087818614-pat00024
Is the number of frames in the nth sentence. Thus above
Figure 112010087818614-pat00025
Is the total number of frames used in training or recognition speech.

한편, 실제 인식 환경에서는 전체 문장을 사용할 수 없기 때문에 상기 켑스트럼 평균 및 분산 정규화부(110)를 통한 정규화할 때, 입력된 음성이 훈련 음성인지 인식 음성인지를 판단하고(S30), 인식 음성 켑스트럼에 따른 정규화는 상기 업데이트부(120)를 통해 이전 인식 실험에서 사용했던 문장들을 사용하여 상기 수학식 4, 수학식 5와 동일하게 켑스트럼의 평균과 분산을 갱신하는 과정을 추가로 수행한다(S40).On the other hand, since the entire sentence cannot be used in the actual recognition environment, when normalizing through the cepstrum mean and variance normalization unit 110, it is determined whether the input voice is a training voice or a recognized voice (S30). Normalization according to the cepstrum is further performed by updating the mean and the variance of the cepstrum in the same manner as in Equation 4 and Equation 5 using the sentences used in the previous recognition experiment through the update unit 120. Perform (S40).

음성인식 시 켑스트럼의 전역 평균과 분산 갱신 방법을 상세히 설명하면 다음과 같다.The global mean and variance update method of the cepstrum in speech recognition are described in detail as follows.

즉, 실제 음성인식 시 켑스트럼의 전역 평균과 분산을 구하기 힘들기 때문에 인식에 사용했던 1 번째 문장부터 마지막(n) 번째 문장을 사용한 전역 평균

Figure 112010087818614-pat00026
을 다음 수학식 6과 같이 갱신할 수 있다.In other words, it is difficult to find the global mean and variance of the cepstrum in actual speech recognition, so the global mean using the first to last (n) sentences used for recognition
Figure 112010087818614-pat00026
May be updated as in Equation 6 below.

Figure 112010087818614-pat00027
Figure 112010087818614-pat00027

또한, 상기 수학식 6을 수학식 7과 같이 바꾸면 효율적으로 켑스트럼의 전역 평균을 계산할 수 있다. In addition, by changing Equation 6 to Equation 7, it is possible to efficiently calculate the global average of the Cepstrum.

Figure 112010087818614-pat00028
Figure 112010087818614-pat00028

여기서 상기

Figure 112010087818614-pat00029
는 n번째 문장을 추가함에 따라 수학식 8과 같이 구한다.Where above
Figure 112010087818614-pat00029
Is obtained as in Equation 8 by adding the nth sentence.

Figure 112010087818614-pat00030
Figure 112010087818614-pat00030

위 식에서 n'과 α는 실험을 통해서 구해진 미리 정의되는 상수이다. Where n 'and α are predefined constants obtained through experiments.

그리고 위의 전역 평균을 구하는 방식과 동일하게 전역 표준편차를 다음 수학식 9와 같이 구할 수 있다.In addition, the global standard deviation can be obtained as in Equation 9 in the same manner as the above-described global mean.

Figure 112010087818614-pat00031
Figure 112010087818614-pat00031

이렇게 구해진 켑스트럼의 평균과 표준편차를 이용하여 n번째 인식 대상 문장의 t번째 프레임에서의 k번째 켑스트럼

Figure 112010087818614-pat00032
를 아래 수학식 10과 같이 정규화시킬 수 있다. Using the mean and standard deviation of the cepstrum thus obtained, the k th cepstrum in the t th frame of the n th sentence to be recognized
Figure 112010087818614-pat00032
Can be normalized as in Equation 10 below.

Figure 112010087818614-pat00033
Figure 112010087818614-pat00033

이때, 상기 수학식 7 및 수학식 9의

Figure 112010087818614-pat00034
Figure 112010087818614-pat00035
는 상기 수학식 4, 수학식 5에서 구한 값으로 초기화한다. At this time, the equations (7) and (9)
Figure 112010087818614-pat00034
Wow
Figure 112010087818614-pat00035
Is initialized to the values obtained in Equations 4 and 5 above.

이렇게 켑스트럼 평균 및 분산 정규화부(110)를 통한 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 전역 평균과 분산으로 각각 정규화가 완료되면, 가중 자동회귀 이동평균 필터(130)는 정규화된 각 입력 신호인 훈련 음성 및 인식 음성 켑스트럼의 프레임별 음성 존재 여부에 대한 가중치를 구하여 정규화된 켑스트럼 시계열을 가중 자동회귀 이동평균 필터링을 수행한다(S50).When normalization is completed by the global mean and the variance of the training speech cepstrum and the recognized speech cepstrum through the cepstrum mean and variance normalization unit 110, the weighted autoregressive moving average filter 130 is normalized. Weighted autoregression moving average filtering is performed on the normalized cepstrum time series by obtaining weights of the presence or absence of the voice for each frame of the training speech and the recognized speech cepstrum as input signals (S50).

이때, 상기 가중 자동회귀 이동평균 필터는 아래의 수학식 11을 적용하여 필터링을 수행한다. In this case, the weighted autoregressive moving average filter performs filtering by applying Equation 11 below.

Figure 112010087818614-pat00036
Figure 112010087818614-pat00036

상기 k=1,...,12로 켑스트럼의 차수를 나타내고, 상기

Figure 112010087818614-pat00037
는 가중 자동회귀 이동평균 필터(130)를 적용하여 t번째 프레임의 k번째 정규화된 켑스트럼을 보상한 결과이다.K = 1, ..., 12 denotes the order of the cepstrum, and
Figure 112010087818614-pat00037
Is a result of compensating for the k th normalized spectral of the t th frame by applying a weighted autoregressive moving average filter 130.

그리고 상기 w(t)는 t번째 프레임에서의 음성의 존재 여부에 대한 가중치이며, [0,1]의 범위를 갖는 시그모이드(sigmoid) 함수로서 다음 수학식 12와 같이 나타낸다.W (t) is a weight for the presence or absence of speech in the t-th frame, and is represented by Equation 12 as a sigmoid function having a range of [0,1].

Figure 112010087818614-pat00038
Figure 112010087818614-pat00038

또한, 상기

Figure 112010087818614-pat00039
로서, 상기
Figure 112010087818614-pat00040
는 t번째 프레임의 0번째 켑스트럼으로 에너지의 크기를 나타내며,
Figure 112010087818614-pat00041
는 0번째 켑스트럼의 평균이다.In addition,
Figure 112010087818614-pat00039
As above
Figure 112010087818614-pat00040
Denotes the magnitude of energy as the 0 th cepstrum of the t th frame,
Figure 112010087818614-pat00041
Is the mean of the zeroth cepstrum.

그리고 상기 α는 상수이고, 실험을 통해서 결정된다. And α is a constant and determined through experiments.

이처럼, 가중 자동 회귀 이동평균 필터링이 완료되면(S50), 상기 가중 자동 회귀 이동평균 필터링된 음성이 훈련 음성인지 인식 음성인지를 판단한다(S60).As such, when the weighted automatic regression moving average filtering is completed (S50), it is determined whether the weighted automatic regression moving average filtered voice is a training voice or a recognized voice (S60).

상기 판단결과(S60), 훈련 음성인 경우에 음향 모델 훈련부(140)를 통해 HMM 음향 모델 DB(150)에 저장된 음향 모델 중 입력되는 훈련 음성 켑스트럼에 해당하는 HMM 음향 모델의 유사도(likelihood)가 최대가 되도록 HMM 음향 모델을 갱신한다(S70).As a result of the determination (S60), in the case of the training voice, the similarity of the HMM acoustic model corresponding to the training voice cepstrum input from among the acoustic models stored in the HMM acoustic model DB 150 through the acoustic model training unit 140. The HMM acoustic model is updated such that is maximized (S70).

그리고 음성 인식부(160)는 비터비 디코딩(Viterbi decoding)을 통해 상기 갱신된 HMM 음향 모델 중 가중 자동회귀 이동평균 필터링 된 인식 음성 켑스트럼에 대한 HMM 음향 모델의 유사도(likelihood)가 최대가 되는 인식 문장을 출력한다(S80).The voice recognition unit 160 performs maximum Viterbi decoding to maximize the likelihood of the HMM acoustic model with respect to the weighted autoregressive moving average filtered recognition speech cepstrum among the updated HMM acoustic models. The recognition sentence is output (S80).

이처럼, 기존의 자동회귀 이동평균 필터 기반의 TMF 방식에서 음성의 존재 여부 정도에 따른 가중치를 적용함으로써, 자동회귀 이동평균 필터기반 TMF의 단점을 보완하였다.As such, by applying weights according to the presence or absence of speech in the TMF method based on the existing autoregressive moving average filter, the disadvantages of the TMF based on the autoregressive moving average filter are compensated.

상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술적 분야의 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. Although the technical spirit of the present invention described above has been described in detail in a preferred embodiment, it should be noted that the above-described embodiment is for the purpose of description and not of limitation. In addition, those skilled in the art will understand that various embodiments are possible within the scope of the technical idea of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

Claims (7)

훈련 음성 및 인식 음성을 각각 입력받아 복수의 프레임으로 분리하고, 각 프레임의 음성 신호에 대해 푸리에 변환을 수행하여 훈련 음성 켑스트럼과 인식 음성 켑스트럼을 추출하는 MFCC(Mel-Frequency Cepstral Coefficients) 특징 추출부와,
상기 MFCC 특징 추출부에서 출력되는 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 전역 평균과 분산으로 훈련 음성 켑스트럼 및 인식 음성 켑스트럼을 각각 정규화하는 켑스트럼 평균 및 분산 정규화부와,
상기 정규화에서 인식 음성 켑스트럼을 정규화할 경우 1 번째 문장부터 마지막(n) 번째 문장까지 각각 이전 입력의 켑스트럼의 정규화 값을 기반으로 현재 입력되는 켑스트럼의 전역 평균과 분산을 지속적으로 갱신하는 업데이트부와,
상기 켑스트럼 평균 및 분산 정규화부에서 출력되는 정규화된 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 프레임별 음성 존재 여부에 대한 가중치를 구하여 정규화된 켑스트럼 시계열을 가중 자동회귀 이동평균 필터링하는 가중 자동회귀 이동평균 필터와,
상기 가중 자동회귀 이동평균 필터에서 출력되는 훈련 음성 켑스트럼이 입력되면, 입력되는 훈련 음성 켑스트럼에 해당하는 HMM의 유사도(likelihood)가 최대가 되도록 HMM 음향 모델을 갱신하는 음향 모델 훈련부와,
비터비 디코딩(Viterbi decoding)을 통해 상기 가중 자동회귀 이동평균 필터에서 출력되는 인식 음성 켑스트럼에 대한 상기 음향모델 훈련부에서 출력되는 HMM 음향 모델의 유사도(likelihood)가 최대가 되게 하는 문장을 선택하는 음성 인식부를 포함하여 구성되는 것을 특징으로 하는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치.
Mel-Frequency Cepstral Coefficients (MFCC) for receiving training speech and recognition speech, separating them into a plurality of frames, and performing Fourier transform on the speech signal of each frame to extract the training speech and recognition speech columns. Feature extraction section,
A spectral mean and variance normalizer which normalizes the training speech cepstrum and the recognized speech cepstrum by the global mean and variance of the training speech cepstrum and the recognized speech cepstrum output from the MFCC feature extractor;
When normalizing the recognized speech column in the normalization, the global average and the variance of the currently input column are continuously based on the normalized value of the column in the previous input from the first sentence to the last (n) sentence. An update unit to update,
A weighted autoregressive moving average filtering of the normalized cepstrum time series is performed by obtaining a weight of the normalized training speech cepstrum and the recognized speech cepstrum present in each frame of the cepstrum mean and variance normalization unit. A weighted autoregressive moving average filter,
An acoustic model training unit for updating the HMM acoustic model so that the likelihood of the HMM corresponding to the input training speech column is maximized when the training speech column is output from the weighted autoregressive moving average filter;
Viterbi decoding selects a sentence that maximizes the likelihood of the HMM acoustic model output from the acoustic model training unit with respect to the recognized speech cepstrum output from the weighted autoregressive moving average filter. A feature compensation device using a weighted autoregressive moving average filter, global spectral averaging and variance normalization, comprising a speech recognition unit.
제 1 항에 있어서,
상기 특징 보상 장치는 인식 단어에 대하여 단어별 구성 음소에 해당하는 음소 단위의 HMM(Hidden Markov Model)들로 이루어진 HMM 음향 모델 데이터베이스를 포함하는 것을 특징으로 하는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치.
The method of claim 1,
The feature compensating device includes a weighted autoregressive moving average filter and a global cepstrum, comprising a HMM acoustic model database including HMMs (Hidden Markov Models) of phoneme units corresponding to word-by-word phonemes for recognition words. Feature compensation device using mean and variance normalization.
(A) 입력되는 훈련 음성 및 인식 음성을 각각 입력받아 복수의 프레임으로 분리하고, 각 프레임의 음성 신호에 대해 훈련 음성 켑스트럼과 인식 음성 켑스트럼을 추출하는 단계와,
(B) 상기 추출된 훈련 음성 켑스트럼 및 인식 음성 켑스트럼의 전역 평균과 분산으로 훈련 음성 켑스트럼 및 인식 음성 켑스트럼을 각각 정규화하는 단계와,
(C) 상기 정규화에서 인식 음성 켑스트럼을 정규화할 경우 1 번째 문장부터 마지막(n) 번째 문장까지 각각 이전 입력의 켑스트럼의 정규화 값을 기반으로 현재 입력되는 켑스트럼의 전역 평균과 분산을 지속적으로 갱신하는 단계와,
(D) 상기 정규화된 훈련 음성 및 인식 음성 켑스트럼의 프레임별 음성 존재 여부에 대한 가중치를 구하여 정규화된 켑스트럼 시계열을 가중 자동회귀 이동평균 필터링을 수행하는 단계와,
(E) 상기 가중 자동회귀 이동평균 필터링되어 출력되는 훈련 음성 켑스트럼이 입력되면 입력되는 훈련 음성 켑스트럼에 해당하는 HMM의 유사도(likelihood)가 최대가 되도록 HMM 음향 모델을 갱신하는 단계와,
(F) 비터비 디코딩(Viterbi decoding)을 통해 상기 갱신된 HMM 음향 모델 중 가중 자동회귀 이동평균 필터링 된 인식 음성 켑스트럼에 대한 HMM 음향 모델의 유사도(likelihood)가 최대가 되는 인식 문장을 선택하는 단계를 포함하여 이루어지는 것을 특징으로 하는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 방법.
(A) receiving input training voice and recognition voice, respectively, and separating them into a plurality of frames, and extracting the training voice string and the recognition voice string for the voice signal of each frame;
(B) normalizing the training speech cepstrum and the recognized speech cepstrum with the global mean and variance of the extracted training speech cepstrum and the recognized speech cepstrum, respectively;
(C) When normalizing the recognized speech cepstrum in the normalization, the global mean and the variance of the cepstrum currently input based on the normalized value of the cepstrum of the previous input from the first sentence to the last (n) sentence, respectively. Continuously updating
(D) performing weighted autoregressive moving average filtering on the normalized cepstrum time series by obtaining weights for the presence or absence of speech for each frame of the normalized training speech and the recognized speech cepstrum;
(E) updating the HMM acoustic model so that the likelihood of the HMM corresponding to the input training voice column is maximized when the weighted autoregressive moving average filtered and outputted training voice column is input;
(F) selecting a recognition sentence that maximizes the likelihood of the HMM acoustic model to the weighted autoregressive moving average filtered recognition speech cepstrum among the updated HMM acoustic models through Viterbi decoding; A feature compensation method using a weighted autoregressive moving average filter, global spectral mean, and variance normalization, comprising: a step;
제 3 항에 있어서, 상기 (B) 단계는
(B1) 입력되는 훈련 음성 및 인식 음성 켑스트럼별로 k(1 이상의 상수)개의 샘플들을 취하여 각각 한 개의 프레임으로 구성하는 단계와,
(B2) 상기 구성된 연속된 프레임별로 이산 푸리에 변환(Discrete Fourier Transform : DFT)을 한 후, 멜-스케일(mel-scale)의 삼각 필터뱅크에 통과시켜 N(1 이상의 상수)개의 필터뱅크 출력을 산출하고, 이를 이산 코사인 변환(Discrete Cosine Transform : DCT)하여 켑스트럼의 값을 산출하는 단계와,
(B3) 상기 산출된 켑스트럼의 각 값을 켑스트럼 평균 및 분산 정규화를 사용하여 각각 정규화하는 단계를 포함하는 것을 특징으로 하는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 방법.
The method of claim 3, wherein step (B)
(B1) taking k (constant constants of 1 or more) samples for each of the input training speech and recognition speech cepstrum, and configuring each frame into one frame,
(B2) Discrete Fourier Transform (DFT) for each contiguous frame configured, and then pass through a mel-scale triangular filter bank to calculate N (constants of 1 or more) filter bank outputs. Calculating a value of the cepstrum by using a discrete cosine transform (DCT);
(B3) normalizing each value of the calculated cepstrum using a cepstrum mean and variance normalization, respectively, and performing a weighted autoregressive moving average filter and a global cepstral mean and variance normalization. Feature compensation method used.
제 4 항에 있어서, 상기 (B3) 단계는
상기 산출된 켑스트럼의 값(
Figure 112010087818614-pat00042
)을 수식
Figure 112010087818614-pat00043
를 이용하여 정규화하고,
이때, 켑스트럼의 평균(
Figure 112010087818614-pat00044
)은 수식
Figure 112010087818614-pat00045
를, 표준편차(
Figure 112010087818614-pat00046
)는 수식
Figure 112010087818614-pat00047
를 이용하여 산출하며,
여기서 상기 N은 훈련 또는 인식 음성에서 사용한 전체 문장의 개수이며, 상기
Figure 112010087818614-pat00048
은 n번째 문장의 프레임 수이며, 따라서 상기
Figure 112010087818614-pat00049
은 훈련 또는 인식 음성에서 사용한 전체 프레임의 개수인 것을 특징으로 하는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 방법.
The method of claim 4, wherein step (B3)
The calculated cepstrum value (
Figure 112010087818614-pat00042
) Formula
Figure 112010087818614-pat00043
Normalize using,
At this time, the average of the cepstrum (
Figure 112010087818614-pat00044
) ≪ / RTI &
Figure 112010087818614-pat00045
, The standard deviation (
Figure 112010087818614-pat00046
) Is the formula
Figure 112010087818614-pat00047
Calculated using
Where N is the total number of sentences used in training or recognition speech,
Figure 112010087818614-pat00048
Is the number of frames in the nth sentence, so
Figure 112010087818614-pat00049
The weighted autoregressive moving average filter and the global spectral mean and variance normalization are characterized in that the number of total frames used in training or recognition speech.
제 3 항에 있어서, 상기 (C) 단계는
(C1) 인식에 사용했던 1 번째 문장부터 마지막(n) 번째 문장을 사용한 전역 평균
Figure 112010087818614-pat00050
을 수식
Figure 112010087818614-pat00051
로 갱신하고, 이를 다시 수식
Figure 112010087818614-pat00052
로 변환하여 켑스트럼의 전역 평균을 산출하고, 수식
Figure 112010087818614-pat00053
로 변환하여 켑스트럼의 전역 표준편차를 산출하는 단계와,
(C2) 상기 산출된 켑스트럼의 평균과 표준편차를 이용하여 n번째 인식 대상 문장의 t번째 프레임에서의 k번째 켑스트럼
Figure 112010087818614-pat00054
를 수식
Figure 112010087818614-pat00055
를 이용하여 정규화하는 단계로 이루어지고,
이때, 상기
Figure 112010087818614-pat00056
는 n번째 문장을 추가함에 따라 수식
Figure 112010087818614-pat00057
으로 산출하고, 이때 n'과 는 미리 정의되는 상수인 것을 특징으로 하는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 방법.
The method of claim 3, wherein step (C)
(C1) Global mean using the first to last (n) sentences used for recognition
Figure 112010087818614-pat00050
Formula
Figure 112010087818614-pat00051
And update it again
Figure 112010087818614-pat00052
To obtain the global mean of the cepstrum,
Figure 112010087818614-pat00053
Calculating the global standard deviation of the cepstrum,
(C2) k th cepstrum in the t th frame of the n th sentence to be recognized using the calculated cepstrum mean and standard deviation
Figure 112010087818614-pat00054
Formula
Figure 112010087818614-pat00055
Normalizing using
At this time,
Figure 112010087818614-pat00056
Adds the nth sentence
Figure 112010087818614-pat00057
And a weighted autoregressive moving average filter, a global spectral mean, and variance normalization, wherein n 'and are predefined constants.
제 3 항에 있어서,
상기 (D) 단계에서 가중 자동회귀 이동평균 필터링은 수식
Figure 112010087818614-pat00058
를 적용하여 필터링을 수행하고,
이때, 상기 k=1,...,12로 켑스트럼의 차수를 나타내고, 상기
Figure 112010087818614-pat00059
는 가중 자동회귀 이동평균 필터링을 통해 t번째 프레임의 k번째 정규화된 켑스트럼을 보상한 결과이며,
상기 w(t)는 t번째 프레임에서의 음성의 존재 여부에 대한 가중치이며, [0,1]의 범위를 갖는 시그모이드(sigmoid) 함수로서 수식
Figure 112010087818614-pat00060
로 나타내고,
상기
Figure 112010087818614-pat00061
로서, 상기
Figure 112010087818614-pat00062
는 t번째 프레임의 0번째 켑스트럼으로 에너지의 크기를 나타내며,
Figure 112010087818614-pat00063
는 0번째 켑스트럼의 평균을 나타내고, 상기 α는 미리 정의되는 상수인 것을 특징으로 하는 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 방법.
The method of claim 3, wherein
In step (D), the weighted autoregressive moving average filtering is
Figure 112010087818614-pat00058
To apply the filtering,
In this case, k = 1, ..., 12 denotes the order of 켑 strum,
Figure 112010087818614-pat00059
Is the result of compensating for the k th normalized spectral of the t th frame through weighted autoregressive moving average filtering.
The w (t) is a weight of the presence or absence of speech in the t-th frame, and is expressed as a sigmoid function having a range of [0,1].
Figure 112010087818614-pat00060
Lt; / RTI >
remind
Figure 112010087818614-pat00061
As above
Figure 112010087818614-pat00062
Denotes the magnitude of energy as the 0 th cepstrum of the t th frame,
Figure 112010087818614-pat00063
Denotes an average of the 0 th cepstrum, and α is a predefined constant, a weighted autoregressive moving average filter, and a global cepstrum mean and variance normalization.
KR1020100139509A 2010-12-30 2010-12-30 Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization KR101236539B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100139509A KR101236539B1 (en) 2010-12-30 2010-12-30 Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100139509A KR101236539B1 (en) 2010-12-30 2010-12-30 Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization

Publications (2)

Publication Number Publication Date
KR20120077527A KR20120077527A (en) 2012-07-10
KR101236539B1 true KR101236539B1 (en) 2013-02-25

Family

ID=46710991

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100139509A KR101236539B1 (en) 2010-12-30 2010-12-30 Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization

Country Status (1)

Country Link
KR (1) KR101236539B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102051966B1 (en) * 2014-03-27 2019-12-04 한국전자통신연구원 Speech recognition enhancement apparatus and method
KR102339657B1 (en) 2014-07-29 2021-12-16 삼성전자주식회사 Electronic device and control method thereof
CN105810212B (en) * 2016-03-07 2019-04-23 合肥工业大学 A kind of train under complicated noise is blown a whistle recognition methods
CN109088985A (en) * 2018-07-24 2018-12-25 Oppo(重庆)智能科技有限公司 Voice data generation method and relevant apparatus
CN110689880A (en) * 2019-10-21 2020-01-14 国家电网公司华中分部 Voice recognition method and device applied to power dispatching field
CN112562704B (en) * 2020-11-17 2023-08-18 中国人民解放军陆军工程大学 Frequency division topological anti-noise voice conversion method based on BLSTM

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990001828A (en) * 1997-06-18 1999-01-15 윤종용 Apparatus and method for extracting speech features by dynamic region normalization of spectrum
KR20060067097A (en) * 2004-12-14 2006-06-19 한국전자통신연구원 Channel normalization apparatus and method for robust speech recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990001828A (en) * 1997-06-18 1999-01-15 윤종용 Apparatus and method for extracting speech features by dynamic region normalization of spectrum
KR20060067097A (en) * 2004-12-14 2006-06-19 한국전자통신연구원 Channel normalization apparatus and method for robust speech recognition

Also Published As

Publication number Publication date
KR20120077527A (en) 2012-07-10

Similar Documents

Publication Publication Date Title
US9792897B1 (en) Phoneme-expert assisted speech recognition and re-synthesis
KR101415534B1 (en) Multi-stage speech recognition apparatus and method
KR100908121B1 (en) Speech feature vector conversion method and apparatus
US8271283B2 (en) Method and apparatus for recognizing speech by measuring confidence levels of respective frames
Hirsch et al. A new approach for the adaptation of HMMs to reverberation and background noise
CN108877784B (en) Robust speech recognition method based on accent recognition
KR101236539B1 (en) Apparatus and Method For Feature Compensation Using Weighted Auto-Regressive Moving Average Filter and Global Cepstral Mean and Variance Normalization
KR20180098806A (en) Method and apparatus for performance improvement in spontaneous speech recognition
US8417522B2 (en) Speech recognition method
US20080167862A1 (en) Pitch Dependent Speech Recognition Engine
US9280979B2 (en) Online maximum-likelihood mean and variance normalization for speech recognition
Ismail et al. Mfcc-vq approach for qalqalahtajweed rule checking
CN110942766A (en) Audio event detection method, system, mobile terminal and storage medium
KR101065188B1 (en) Apparatus and method for speaker adaptation by evolutional learning, and speech recognition system using thereof
Milner et al. Robust acoustic speech feature prediction from noisy mel-frequency cepstral coefficients
CN111489763B (en) GMM model-based speaker recognition self-adaption method in complex environment
Alku et al. The linear predictive modeling of speech from higher-lag autocorrelation coefficients applied to noise-robust speaker recognition
KR100897555B1 (en) Apparatus and method of extracting speech feature vectors and speech recognition system and method employing the same
Kalamani et al. Continuous Tamil Speech Recognition technique under non stationary noisy environments
Hachkar et al. A comparison of DHMM and DTW for isolated digits recognition system of Arabic language
Unnibhavi et al. LPC based speech recognition for Kannada vowels
Aggarwal et al. Fitness evaluation of Gaussian mixtures in Hindi speech recognition system
KR101361034B1 (en) Robust speech recognition method based on independent vector analysis using harmonic frequency dependency and system using the method
Darling et al. Feature extraction in speech recognition using linear predictive coding: an overview
CN108986794B (en) Speaker compensation method based on power function frequency transformation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160203

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180122

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee