KR20090106630A - 함축적인 화자 적응을 사용하는 음성 인식 시스템 - Google Patents

함축적인 화자 적응을 사용하는 음성 인식 시스템 Download PDF

Info

Publication number
KR20090106630A
KR20090106630A KR1020097017648A KR20097017648A KR20090106630A KR 20090106630 A KR20090106630 A KR 20090106630A KR 1020097017648 A KR1020097017648 A KR 1020097017648A KR 20097017648 A KR20097017648 A KR 20097017648A KR 20090106630 A KR20090106630 A KR 20090106630A
Authority
KR
South Korea
Prior art keywords
acoustic model
acoustic
speaker
template
speech
Prior art date
Application number
KR1020097017648A
Other languages
English (en)
Other versions
KR101031660B1 (ko
Inventor
나렌드라나쓰 말라야쓰
앤드류 피. 데자코
치엔충 창
슈하일 자릴
닝 비
하리나쓰 가루다드리
Original Assignee
콸콤 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 콸콤 인코포레이티드 filed Critical 콸콤 인코포레이티드
Publication of KR20090106630A publication Critical patent/KR20090106630A/ko
Application granted granted Critical
Publication of KR101031660B1 publication Critical patent/KR101031660B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/12Speech classification or search using dynamic programming techniques, e.g. dynamic time warping [DTW]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems

Abstract

화자 독립(SI: speaker independent)(230 및 232) 및 화자 종속(SD: speaker dependent)(234) 음향 모델의 결합을 활용하는 음성 인식(VR) 시스템이 개시되어있다. 적어도 하나의 SI 음향 모델(230 및 232)은 순수한 SI 음향 모델 성능과 적어도 동일한 스피치 인식 성능 레벨을 제공하기 위해서 적어도 하나의 SD 음향 모델(234)과 결합하여 사용된다. 개시된 하이브리드 SI/SD VR 시스템은 하나 이상의 SD 음향 모델(234)의 음향 템플릿을 갱신하기 위해서 비통제 트레이닝을 계속해서 사용한다. 하이브리드 VR 시스템은 VR 테스트 동안에 향상된 VR 성능을 제공하기 위해서 적어도 하나의 SI 음향 모델(230 및 232)과 결합하여 갱신된 SD 음향 모델(234)을 사용한다.

Description

함축적인 화자 적응을 사용하는 음성 인식 시스템{VOICE RECOGNITION SYSTEM USING IMPLICIT SPEAKER ADAPTATION}
본 발명은 음성 신호 처리에 관한 것이다. 보다 상세하게는 비통제 트레이닝(unsupervised training)을 통해 개선된 성능을 획득하기 위한 신규한 음성 인식 방법 및 장치에 관한 것이다.
음성 인식은 사용자 음성 명령을 인식하기 위해 그리고 인간과 기계 간의 인터페이스를 촉진하기 위해서 시뮬레이팅된 지능을 기계에 부여하는 중요한 테크닉 중의 하나이다. 음향 스피치 신호로부터 언어적 메시지를 복원하기 위한 기술을 채용한 이러한 시스템은 음성 인식(VR) 시스템이라 한다. 도 1에는 프리엠퍼시스(preemphasis) 필터(102), 음향 특징 추출(AFE; acoustic feature extraction) 유닛(104), 및 패턴 매칭 엔진(110)을 구비한 기본적인 VR 시스템이 도시되어 있다. AFE 유닛(104)은 일련의 디지털 음성 샘플들을 음향 특징 벡터라고 불리는 한 세트의 측정값들(예를 들어, 추출된 주파수 성분)로 변환시킨다. 패턴 매칭 엔진(110)은 일련의 음향 특징 벡터들을 VR 음향 모델(112) 내에 포함된 템플릿과 매칭시킨다. VR 패턴 매칭 엔진은 일반적으로 동적 타임 와핑(DTW) 또는 은닉 마르 코프 모델(HMM) 테크닉을 사용한다. 모두 종래 기술분야에서 널리 알려져 있으며, 상세하게는 Rabiner, L.R 및 Juang, B. H., FUNDAMENTALS OF SPEECH RECOGNITION, Prentice Hall, 1993에 기재되어 있다. 일련의 음향 특징들이 음향 모델(112)의 템플릿과 매칭될 때, 입력 스피치에 상응하는 언어적 단어의 식별된 시퀀스와 같이 소정의 출력 포맷을 생성하기 위해 식별된 템플릿이 사용된다.
상술한 바와 같이, 음향 모델(112)은 일반적으로 HMM 모델이거나 DTW 모델이다. DTW 음향 모델은 인식될 필요가 있는 각 단어에 관련된 템플릿들의 데이터베이스로서 여겨질 수 있다. 일반적으로, DTW 템플릿은 연관된 단어의 수많은 예들의 평균화된 특징 벡터들의 시퀀스로 구성된다. DTW 패턴 매칭은 일반적으로 입력 스피치를 나타내는 입력 특징 벡터 시퀀스에 대한 최소 거리를 갖는 저장된 템플릿의 위치를 파악하는 것을 포함한다. HMM 기반 음향 모델에서 사용되는 템플릿은 연관된 스피치 발성의 상세한 통계적 기술(description)을 포함한다. 일반적으로, HMM 템플릿은 일련의 평균 벡터, 분산 벡터 및 한 세트의 전이 확률 세트들을 저장한다. 이러한 파라미터들은 스피치 유닛의 통계를 기술하기 위해 사용되고 스피치 유닛의 수많은 예로부터 추정된다. HMM 패턴 매칭은 일반적으로 입력 스피치와 연관한 일련의 입력 특징 벡터들에 기반한 모델에서 각 템플릿에 대한 확률을 생성하는 것을 포함한다. 가장 높은 확률을 가지는 템플릿이 가장 높은 확률의 입력 발성으로서 선택된다.
"트레이닝"은 음향 모델(112) 내에서 템플릿을 생성하기 위해 하나 이상의 화자로부터 특정 스피치 세그먼트 또는 음절의 스피치 샘플을 수집하는 절차를 의 미한다. 음향 모델의 각 템플릿은 발성 클래스로 일컫는 특정 단어 또는 스피치 세그먼트에 연관된다. 동일한 발성 클래스에 연관된 음향 모델 내의 다수의 템플릿들이 존재할 수 있다. "테스팅"은 음향 모델의 템플릿들을 입력 스피치로부터 추출된 일련의 특징 벡터들에 매칭시키기 위한 절차를 의미한다. 주어진 시스템의 성능은 최종 사용자(end-user)의 입력 스피치와 데이터베이스의 컨텐츠 간의 매칭 정도에 크게 의존하며, 따라서 트레이닝을 통해 생성된 기준 템플릿과 VR 테스트용으로 사용되는 스피치 샘플 간의 매칭에 의존한다.
일반적 트레이닝의 2가지 타입에는 통제 트레이닝과 비통제 트레이닝이 있다. 통제 트레이닝에 있어, 트레이닝 특징 벡터들의 각 세트와 연관된 발성 클래스는 미리 알려진다. 입력 스피치를 제공하는 화자에게는 미리 결정된 발성 클래스에 대응하는 단어 또는 스피치 세그먼트의 스크립트가 때때로 제공된다. 스크립트의 판독에 기인한 특징 벡터들은 정확한 발성 클래스에 연관된 음향 모델 템플릿들 내로 통합될 수 있다.
비통제 트레이닝에 있어, 한 세트의 트레이닝 특징 벡터들과 연관된 발성 클래스는 미리 알려지지 않는다. 발성 클래스는 한 세트의 트레이닝 특징 벡터들이 정확한 음향 모델 템플릿 내로 통합되기 전에 정확하게 식별되어야 한다. 비통제 트레이닝에 있어서, 한 세트의 트레이닝 특징 벡터들에 대한 발성 클래스 확인에 있어서의 착오는 잘못된 음향 모델 템플릿으로의 수정을 초래할 수 있다. 이러한 착오는 일반적으로 음성 인식 성능을 개선이 아닌 퇴보시킨다. 상기의 착오를 피하기 위해서, 비통제 트레이닝에 근거한 음향 모델의 임의의 수정은 매우 조심스럽 게 행해져야만 한다. 한 세트의 트레이닝 특징 벡터들은 발성 클래스가 정확하게 확인되었다는 비교적 높은 확신이 있었을 때에만 음향 모델에 통합된다. 이러한 요구되는 신중성은 비통제 트레이닝을 통한 SD 음향 모델 구축을 매우 느리게 만든다. SD 음향 모델이 이러한 방식으로 구축될 때까지, VR 성능은 대부분 사용자에게 받아들일 수 없을 것이다.
최상으로는, 최종 사용자가 트레이닝과 테스팅 동안 스피치 음향 특징 벡터들을 제공하고, 이에 따라 음향 모델(112)이 최종 사용자의 음성과 강력하게 일치될 수 있다. 단일 화자에 맞추어진 개별적 음향 모델은 또한 화자 종속(SD) 음향 모델이라고 불린다. 일반적으로 SD 음향 모델 생성은 최종 사용자가 상당한 양의 통제 트레이닝 샘플을 제공할 것을 요구한다. 첫째, 사용자는 다양한 발성 클래스들에 대한 트레이닝 샘플들을 제공하여야 한다. 또한, 최상의 성능을 얻기 위해서 최종 사용자는 각 발성 클래스에 대한 다양한 가능한 음향 환경들을 나타내는 다수의 템플릿을 제공하여야 한다. 대부분의 사용자는 SD 음향 모델을 생성하는데 필요한 입력 스피치를 제공할 수 없거나 제공을 원하지 않기 때문에, 많은 기존의 VR 시스템 대신에 많은 "대표" 화자들이 스피치를 사용하여 트레이닝된 범용 음향 모델을 사용한다. 이러한 음향 모델은 화자 독립(SI) 음향 모델이라 언급되며, 넓은 범위의 사용자들에 대한 최상의 성능을 가질 수 있도록 설계된다. 하지만, SI 음향 모델은 임의의 단일 사용자에게는 최적화 되지 못한다. SI 음향 모델을 사용하는 VR 시스템은 사용자에게 맞추어진 SD 음향 모델을 사용하는 VR 시스템만큼의 성능을 제공하지는 못한다. 강한 외국인 악센트를 가지는 몇몇의 사용자에 있어서, SI 음향 모델을 사용하는 VR 시스템의 성능은 너무 열악하여 VR 서비스를 전혀 효과적으로 제공할 수 없다.
최상으로는, SD 음향 모델은 각각의 개별 사용자에 대해 생성되는 것이어야 한다. 상술한 바와 같이, 통제 트레이닝을 사용하여 SD 음향 모델을 구축하는 것은 비실용적이다. 하지만, SD 음향 모델을 생성하기 위해 비통제 트레이닝을 사용하는 것은 긴 시간이 요구되고, 이러한 시간동안 부분 SD 음향 모델을 근거로 한 VR 성능은 매우 열악하게 된다. 비통제 트레이닝을 사용하여 SD 음향 모델의 생성 전 또는 생성 동안에 합리적으로 양호한 성능을 제공하는 VR 시스템이 필요하다.
여기에 개시된 방법 및 장치는 화자 독립(SI) 및 화자 종속(SD) 음향 모델의 결합을 사용하는 신규하고 개선된 음성 인식(VR) 시스템에 관한 것이다. 적어도 하나의 SI 음향 모델은 적어도 순수한 SI 음향 모델과 동등한 음성 인식 성능 레벨을 제공하기 위해 적어도 하나의 SD 음향 모델과 결합하여 사용된다. 개시된 하이브리드 SI/SD VR 시스템은 하나 이상의 SD 음향 모델 내의 음향 템플릿들을 갱신하기 위해 비통제 트레이닝을 계속해서 사용한다. 따라서 하이브리드 VR 시스템은 VR 테스트 동안 개선된 VR 성능을 제공하기 위해, 갱신된 SD 음향 모델 혼자, 또는 적어도 하나의 SI 음향 모델과 결합된 갱신된 SD 음향 모델을 사용한다.
여기서 사용된 단어 "구현 예"는 "실시예, 실례, 또는 예증"을 제공한다는 의미로 사용된다. "실시 구현 예"로서 기재된 어떠한 실시예도 바람직한 또는 유리한 또 다른 실시예로서 구성되는 데에 필연적인 것은 아니다.
도 2는 무선 원격국(202) 내에서 구현될 수 있는 하이브리드 음성 인식(VR) 시스템을 도시한다. 본 실시예에서, 원격국(202)은 무선 통신 네트워크(미도시)와 무선 채널(미도시)을 통해 통신한다. 예를 들어, 원격국(202)은 무선 전화기 시스템과 통신하는 무선 전화기일 수 있다. 종래 기술의 당업자는 여기에 기재된 테크닉이 고정된(비휴대용) 또는 무선 채널을 포함하지 않는 VR 시스템에 동일하게 적용될 수 있음을 인식할 수 있을 것이다.
도시된 실시예에서, 사용자로부터의 음성 신호는 마이크로폰(MIC)(210)에서 전기적 신호로 변환되고 아날로그 대 디지털 컨버터(ADC)(212)에서 디지털 음성 샘플로 변환된다. 그리고 나서, 디지털 샘플 스트림은 예를 들어 저 주파수 신호 성분을 감쇠시키는 유한 임펄스 응답(FIR) 필터와 같은, 프리엠퍼시스 필터(214)를 사용하여 필터링된다.
필터링된 샘플들은 음향 특징 추출(AFE) 유닛(216)에서 분석된다. AFE 유닛(216)은 디지털 음성 샘플들을 음향 특징 벡터로 변환시킨다. 본 실시예에 있어, AFE 유닛(216)은 다른 주파수 빈(bin)에 대응하는 신호 강도 벡터를 생성하기 위한 연속적인 디지털 샘플의 세그먼트에 대한 푸리에 변환을 수행한다. 본 실시예에 있어, 주파수 빈은 바크 스케일(bark scale)에 따라 변화하는 대역 폭을 가진다. 바크 스케일에서, 각 주파수 빈의 대역 폭은 빈의 중심 주파수와 관련이 있기 때문에, 고주파수 빈은 저 주파수 빈보다 주파수 대역이 넓다. 바크 스케일은 Rabiner, L.R. 및 Juang, B.H., FUNDAMENTALS OF SPEECH RECOGNITION, Prentice Hall, 1993에 기재되어 있고, 종래 기술에서 널리 알려져 있다.
일 실시예에서, 각 음향 특징 벡터는 고정된 시간 간격에 걸쳐 수집된 일련의 스피치 샘플로부터 추출된다. 일 실시예에서, 이들 시간 간격은 중첩된다. 예컨대, 음향 특징은, 각각 두 개의 연속 간격이 10 밀리세컨드 세그먼트를 공유하도록 10 밀리세컨드마다 시작하는 20 밀리세컨드 간격의 스피치 데이터로부터 얻어질 수 있다. 당업자라면, 본 명세서에 개시된 범위를 일탈하지 않고, 시간 간격이 비중첩이거나 또는 고정되지 않은 지속시간(duration)을 가질 수도 있다는 것을 알 수 있을 것이다.
AFE 유닛(216)에 의해 발생된 음향 특징 벡터는 VR 엔진(220)에 제공되고, VR 엔진(220)은 하나 이상의 음향 모델(230, 232, 234)의 컨텐츠를 근거로 음향 특징 벡터를 특징화하도록 패턴 매칭을 수행한다.
도 2에 나타낸 실시예에서, 다음 3개의 음향 모델이 개시되어 있다: 화자 독립(SI) 은닉 마르코프 모델(HMM) 음향 모델(230), 화자 독립 동적 타임 와핑(DTW) 음향 모델(232) 및 화자 종속(SD) 음향 모델(234). 당업자는 SI 음향 모델의 다른 결합이 다른 실시예에서 사용될 수 있다는 것을 알 수 있다. 예컨대, 원격국(202)은 단지 SIHMM 음향 모델(230)과 SD 음향 모델(234)을 포함하며, SIDTW 음향 모델(232)을 생략할 수 있다. 대안적으로 원격국(202)은 단일 SIHMM 음향 모델(230), SD 음향 모델(234) 및 다른 2개의 SIDTW 음향 모델(232)을 포함할 수 있다. 뿐만 아니라, 당업자라면 SD 음향 모델(234)이 HMM 타입이거나, DTW 타입 또는 그 둘의 결합일 수 있다는 것을 알 수 있을 것이다. 일 실시예에서, SD 음향 모델은 DTW 음향 모델이다.
상술한 바와 같이, VR 엔진(220)은 음향 특징 벡터와 하나 이상의 음향 모델(230, 232, 234)의 컨텐츠 사이의 매칭도를 결정하기 위해 패턴 매칭을 수행한다. 일 실시예에서, VR 엔진(220)은 음향 모델(230, 232, 234) 각각의 서로 다른 음향 템플릿과 음향 특징 벡터의 매칭을 근거로 매칭 스코어를 생성한다. 예컨대, VR 엔진(220)은 SIHMM 음향 모델(230)의 다수의 HMM 템플릿과 한 세트의 음향 특징 벡터의 매칭을 기초로 HMM 음향 매칭 스코어를 생성한다. 유사하게, VR 엔진(220) 은 SIDTW 음향 모델(232)의 다수의 DTW 템플릿과 음향 특징 벡터의 매칭을 근거로 DTW 매칭 스코어를 생성한다. VR 엔진(220)은 SD 음향 모델(234)의 템플릿과 음향 특징 벡터의 매칭을 근거로 매칭 스코어를 생성한다.
상술한 바와 같이, 음향 모델의 각각의 템플릿은 발성 클래스와 연관되어 있다. 일 실시예에서, VR 엔진(220)은 동일한 음성 클래스와 연관된 템플릿들의 스코어들을 결합하여 비통제 트레이닝에 사용될 결합된 매칭 스코어를 생성한다. 예컨대, VR 엔진(220)은 음향 특징 벡터의 입력 세트의 상관으로부터 얻은 SIHMM 및 SIDTW 스코어를 결합하여 결합된 SI 스코어를 생성한다. 상기 결합된 매칭 스코어를 근거로, VR 엔진(220)은 SD 음향 모델(234)의 SD 템플릿으로서 음향 특징 벡터의 입력 세트를 저장할지를 결정한다. 일 실시예에서, SD 음향 모델(234)을 갱신하기 위한 비통제 트레이닝은 SI 매칭 스코어를 독점적으로 사용하여 수행된다. 이것은 자신의 비통제 트레이닝을 위해 진화하는(evolving) SD 음향 모델(234)을 이용함으로써 야기될 수 있는 추가 에러를 방지한다. 이러한 비통제 트레이닝의 수행 방법의 일 실시예는 이하에 좀더 상세하게 설명한다.
비통제 트레이닝에 추가하여, VR 엔진(220)은 테스팅 동안 다양한 음향 모델(230, 232, 234)을 사용한다. 일 실시예에서, VR 엔진(220)은 음향 모델(230, 232, 234)로부터 매칭 스코어를 검색(retrieve)하여 각각의 발성 클래스에 대한 결합된 매칭 스코어를 생성한다. 결합된 매칭 스코어는 입력 스피치와 최적의 매칭인 발성 클래스를 선택하는데 사용된다. VR 엔진(220)은 전체 단어나 구문을 인식하는데 필수인 연속적인 발성 클래스를 그룹화한다. 그리고 나서, VR 엔진(220)은 인식된 단어나 구문에 관한 정보를 제어 프로세서에 제공하고, 제어 프로세서는 상기 정보를 이용하여 스피치 정보 또는 명령에 적절한 응답을 결정한다. 예컨대, 인식된 단어나 구문에 응답하여, 제어 프로세서(222)는 디스플레이 또는 사용자 인터페이스를 통하여 사용자에게 피드백을 제공할 수 있다. 다른 실시예에서, 제어 프로세서(222)는 무선 모뎀 및 안테나를 통하여 무선 네트워크(미도시됨)에 메시지를 보낼 수 있으며, 이 경우 그 이름이 발성되어 인식된 사람과 연관된 목표 전화기 번호로 이동 전화 호출을 개시한다.
무선 모뎀(218)은 CDMA, TDMA 또는 FDMA를 포함하는 다양한 무선 채널 타입 중 어느 하나를 통하여 신호를 전송할 수 있다. 뿐만 아니라, 무선 모뎀(218)은 개시된 실시예의 범위를 일탈하지 않고 비무선 채널을 통하여 교신하는 다른 형태의 통신 인터페이스로 대체될 수 있다. 예컨대, 원격국(202)은 랜드라인 모뎀, T1/E1, ISDN, DSL, 이더넷, 또는 인쇄회로기판(PCB)상의 이븐 트레이스(even trace)를 포함하는 다양한 형태의 통신 채널 중 하나를 통하여 신호 정보를 전송할 수 있다.
도 3은 비통제 트레이닝을 수행하기 위한 하나의 방법을 나타내는 흐름도이다. 단계 302에서, 아날로그 스피치 데이터가 A/D 컨버터(ADC)(도 2의 212)에서 샘플링된다. 그리고 나서, 단계 304에서 디지털 샘플 스트림이 프리엠퍼시스(PE) 필터(도 2의 214)를 사용하여 필터링된다. 단계 306에서, 입력 음향 특징 벡터가 음향 특성 추출(AFE) 유닛(도 2의 216)에서 필터링된 샘플로부터 추출된다. VR 엔진(도 2의 220)은 AFE 유닛(216)으로부터 입력 음향 특징 벡터를 수신하여 SI 음향 모델(도 2의 230, 232)의 컨텐츠와 입력 음향 특징 벡터와의 패턴 매칭을 수행한다. 단계 308에서, VR 엔진(220)은 패턴 매칭의 결과로부터 매칭 스코어를 생성한다. VR 엔진(220)은 입력 음향 특징 벡터와 SIHMM 음향 모델(230)을 매칭함으로써 SIHMM 매칭 스코어를 생성하고, 입력 음향 특징 벡터와 SIDTW 음향 모델(232)을 매칭하여 SIDTW 매칭 스코어를 생성한다. SIHMM 및 SIDTW 음향 모델(230, 232)의 각각의 음향 템플릿은 특정 발성 클래스와 연관되어 있다. 단계 310에서, SIHMM 및 SIDTW 스코어는 결합하여 결합된 매칭 스코어를 형성한다.
도 4는 비통제 트레이닝에 사용하기 위한 결합된 매칭 스코어의 발생을 나타낸다. 도시된 실시예에서, 특정 발성 클래스에 대한 화자 독립 결합 매칭 스코어(SCOMB _ SI)는 도시된 바와 같이, EQN.1에 따라 가중된 합이다, 여기서:
SIHMMT는 목표 발성 클래스의 SIHMM 매칭 스코어;
SIHMMNT는 비목표 발성 클래스(목표 발성 클래스 이외의 발성 클래스)와 연관된 SIHMM 음향 모델의 템플릿에 대한 그 다음의 최적 매칭 스코어;
SIHMMG는 "가비지(garbage)" 발성 클래스에 대한 SIHMM 매칭 스코어;
SIDTWT는 목표 발성 클래스에 대한 SIDTW 매칭 스코어;
SIDTWNT는 비목표 발성 클래스와 연관된 SIDTW 음향 모델의 템플릿에 대한 그 다음의 최적 매칭 스코어이며,
SIDTWG는 "가비지" 발성 클래스에 대한 SIDTW 매칭 스코어이다.
다양한 개별 매칭 스코어 SIHMMN 및 SIDTWN은 음향 모델의 템플릿과 일련의 입력 음향 특징 벡터들 사이의 거리 값을 나타낸다. 입력 음향 특징 벡터와 템플릿 사이의 간격이 커질수록, 매칭 스코어도 커진다. 템플릿과 입력 음향 특징 벡터 사이의 밀접한 매치는 매우 낮은 매칭 스코어를 만들어낸다. 서로 다른 발성 클래스와 연관된 두 개의 템플릿과 일련의 입력 음향 특징 벡터의 비교가 거의 동일한 두 개의 매칭 스코어를 산출한다면, VR 시스템은 어느 것도 "정확한" 발성 클래스로 인식할 수 없을 것이다.
SIHMMG 및 SIDTWG는 "가비지" 발성 클래스에 대한 매칭 스코어이다. 가비지 발성 클래스와 연관된 템플릿(들)은 가비지 템플릿이라고 불리며, 특정 단어 또는 구문에 대응하지 않는다. 이러한 이유로, 이들은 모든 입력 스피치에 똑같이 상관되지 않는 경향이 있다. 가비지 매칭 스코어는 VR 시스템의 일종의 잡음 플로어(floor) 측정에 유용하다. 일반적으로 일련의 입력 음향 특징 벡터는 발성 클래스가 확실하게 인식될 수 있기 전에 가비지 템플릿보다는 목표 발성 클래스와 연관된 템플릿과 더 양호한 매칭도를 가져야 한다.
VR 시스템은 "정확한" 클래스로서 발성 클래스를 확실하게 인식하기 전에, 입력 음향 특징 벡터는 가비지 템플릿 또는 다른 발성 클래스와 연관된 템플릿 보다는 상기 발성 클래스와 연관된 템플릿과 더 고도의 매칭도를 가져야 한다. 다양한 음향 모델로부터 발생한 결합된 매칭 스코어는 오직 하나의 음향 모델을 기초로한 매칭 스코어보다 발성 클래스 사이에서 보다 확실하게 구별될 수 있다. 일 실 시예에서, VR 시스템은 SD 음향 모델(도 2의 234)의 템플릿을 새로운 세트의 입력 음향 특징 벡터로부터 유도된 것으로 대체할지를 결정하기 위하여 이러한 결합 매칭 스코어를 사용한다.
가중 인자(W1, ... W6)는 모든 음향 환경에 걸쳐 최적의 트레이닝 수행을 제공하도록 선택된다. 일 실시예에서, 가중 인자(W1, ... , W6)는 모든 발성 클래스에 대하여 일정하다. 즉, 제 1 목표 발성 클래스에 대한 결합된 매칭 스코어를 산출하도록 사용된 Wn은 다른 목표 발성 클래스에 대한 결합 매칭 스코어를 생성하는데 사용된 Wn값과 동일하다. 다른 실시예에서, 가중 인자는 목표 발성 클래스를 기초로 하여 변화한다. 도 4에 제시된 결합 방법의 다양한 변형은 당업자에게 명백할 것이며, 본 명세서에 설명된 실시예의 범위 내에 있다. 예컨대, 6개 이상 또는 6개 이하의 가중 입력이 사용될 수 있다. 다른 실시예는 한 타입의 음향 모델에 근거하여 결합 매칭 스코어를 생성할 수 있다. 예컨대, 결합 매칭 스코어는 SIHMMT, SIHMMNT 및 SIHMMG를 기초로 생성될 수 있다. 또는, SIDTWT, SIDTWNT, 및 SIDTWG를 근거로 생성될 수 있다.
일 실시예에서, W1 및 W4는 음수이며, 더 큰 값(또는 음수에서 더 적은 절대값)의 SCOMB는 목표 발성 클래스 및 일련의 입력 음향 특징 벡터 사이의 더 큰 매칭도(더 작은 간격)를 나타낸다. 당업자라면, 개시된 실시예의 범위를 일탈하지 않고 더 큰 매칭도가 더 작은 값에 대응하도록 가중 인자 부호가 용이하게 재배열될 수 있다는 것을 이해할 수 있을 것이다.
도 3으로 돌아가서, 단계 310에서 결합 매칭 스코어는 HMM 및 DTW 음향 모델(230, 232)의 템플릿과 연관된 발성 클래스에 대하여 생성된다. 일 실시예에서, 결합 매칭 스코어는 최적의 n개의 SIHMM 매칭 스코어들과 연관된 발성 클래스 및 m 개의 SIDTW 매칭 스코어들과 연관된 발성 클래스에 대해서만 생성된다. 보다 많은 양의 계산 전력이 각각의 매칭 스코어를 생성하는 동안 소비된다고 하더라도, 이러한 제한은 계산 자원들을 보존하는데 바람직할 수 있다. 예컨대, n=m=3인 경우, 결합 매칭 스코어는 상위 3개의 SIHMM과 연관된 발성 클래스와 상위 3개의 SIDTW 매칭 스코어와 연관된 발성 클래스에 대하여 생성된다. 상위 3개의 SIHMM 매칭 스코어와 연관된 발성 클래스가 상위 3개의 SIDTW 매칭 스코어와 연관된 발성 클래스와 동일한지 여부에 따라서, 이러한 접근방식은 3개 내지 6개의 서로 다른 결합 매칭 스코어를 산출할 것이다.
단계 312에서, 원격국(202)은 SD 음향 모델의 (동일한 발성 클래스와 연관된) 대응하는 템플릿에 저장된 결합 매칭 스코어들을 이러한 결합 매칭 스코어들과 비교한다. 새로운 입력 음향 특징 벡터 시리즈가 동일한 발성 클래스에 대하여 SD모델에 저장된 다른 이전의 템플릿의 매칭도보다 큰 매칭도를 가지는 경우, 새로운 SD 템플릿이 새로운 일련의 입력 음향 특징 벡터들로부터 생성된다. SD 음향 모델이 DTW 음향 모델인 일 실시예에서, 일련의 입력 음향 벡터들 자체는 새로운 SD 템플릿을 구성한다. 그리고 나서, 그 이전의 템플릿은 새로운 템플릿으로 대체되고, 새로운 템플릿과 연관된 결합 매칭 스코어는 앞으로의 비교에서 사용하기 위해서 SD 음향 모델에 저장된다.
다른 실시예에서, 비통제 트레이닝은 화자 종속 은닉 마르코프 모델(SDHMM) 음향 모델의 하나 이상의 템플릿을 갱신하는데 사용된다. 이러한 SDHMM 음향 모델은 SD 음향 모델(234) 내의 SDDTW 음향 모델에 부가하여 또는 SDDTW 모델 대신에 사용될 수 있다.
일 실시예에서, 비교 단계 312는 일정한 트레이닝 임계치와 예기되는 새로운 SD 템플릿의 결합 매칭 스코어를 비교하는 단계를 포함한다. 특정 발성 클래스에 대하여 SD 음향 모델에 저장된 어떠한 템플릿도 존재하지 않는다고 해도, 트레이닝 임계치보다 더 좋은(더 큰 매칭도를 나타내는) 결합 매칭 스코어를 가지지 않으면 새로운 템플릿은 SD 음향 모델에 저장되지 않을 것이다.
다른 실시예에서, SD 음향 모델 내의 임의의 템플릿이 교체되기 전에, SD 음향 모델은 SI 음향 모델로부터의 템플릿에 의해 디폴트로 파퓰레이트된다. 이러한 초기화는 SD 음향 모델을 이용하는 VR 수행이 적어도 단지 SI 음향 모델을 이용하는 VR 수행만큼 양호하게 개시될 것을 보장하는데 있어서 다른 접근 방식을 제공한다.
SD 음향 모델의 템플릿이 점점더 갱신됨에 따라, SD 음향 모델을 사용한 VR 성능은 SI 음향 모델만을 사용한 VR 성능을 능가할 것이다.
다른 실시예에 있어서, VR 시스템은 사용자로 하여금 통제 트레이닝을 수행할 수 있게 한다. 사용자는 그러한 통제 트레이닝을 수행하기 전에 통제 트레이닝 모드로 VR 시스템을 위치시킨다. 통제 트레이닝 동안에, VR 시스템은 정확한 발성 클래스를 사전에 인지한다. 만약 입력 스피치에 대한 결합된 매칭 스코어가 발성 클래스에 대해 앞서 저장된 SD 템플릿의 결합된 매칭 스코어보다 더 양호하다면, 대체 SD 템플릿을 형성하기 위해 입력 스피치가 사용된다. 다른 실시예에서, VR 시스템은 사용자로 하여금 통제 트레이닝 동안에 기존 SD 템플릿을 대체할 수 있게 한다.
SD 음향 모델은 단일 발성 클래스에 대한 다중 (둘 이상) 템플릿을 위한 룸으로 설계될 수 있다. 예시적인 실시예에서는, 두 개의 템플릿이 각각의 발성 클래스에 대해 SD 음향 모델에서 저장된다. 따라서, 단계 312에서의 비교는 동일한 발성 클래스에 대한 SD 모델의 두 템플릿에 대해 획득된 매칭 스코어를 새로운 템플릿을 통해 획득된 매칭 스코어와 비교하는 것을 수반한다. 만약 새로운 템플릿이 SD 음향 모델의 기존 템플릿보다 더 나은 매칭 스코어를 갖는다면, 단계 314에서, 가장 나쁜 매칭 스코어를 갖는 SD 음향 모델 템플릿이 새로운 템플릿으로 대체된다. 만약 새로운 템플릿의 매칭 스코어가 기존 템플릿보다 더 좋지 않다면, 단계 314는 생략된다. 또한, 단계 312에서는, 새로운 템플릿으로 획득된 매칭 스코어가 매칭 스코어 임계치에 비교된다. 따라서, 임계치보다 더 좋은 매칭 스코어를 갖는 새로운 템플릿이 SD 음향 모델에 저장될 때까지, 새로운 템플릿은 자신이 SD 음향 모델의 이전 컨텐츠를 겹쳐 쓰기 하기 위해 사용되기 이전에 그 임계치 값에 비교된다. 결합된 매칭 스코어에 따라 분류된 순서대로 SD 음향 모델 템플릿을 저장하고 새로운 매칭 스코어를 단지 가장 낮은 매칭 스코어와만 비교하는 것과 같은 다른 실시예들이 가능하다. 각각의 발성 클래스에 대한 음향 모델에 저장된 템플 릿 수의 변동 역시 가능하다. 예컨대, SD 음향 모델은 각각의 발성 클래스에 대해 두 개 이상의 템플릿을 포함할 수 있거나, 다른 발성 클래스에 대해 다른 개수의 템플릿을 포함할 수 있다.
도 5는 SI 및 SD 음향 모델의 결합을 사용하여 VR 테스트를 수행하기 위한 예시적인 방법을 도시하는 흐름도이다. 단계 302, 304, 306 및 308은 도 3에 설명된 바와 동일하다. 예시적인 방법은 단계 510에서 도 3에 도시된 방법과 달라진다. 단계 510에서, VR 엔진(220)은 입력 음향 특징 벡터를 SD 음향 모델의 템플릿과 비교함으로써 SD 매칭 스코어를 생성한다. 예시적인 실시예에서, SD 매칭 스코어는 가장 좋은 n개의 SIHMM 매칭 스코어와 가장 좋은 m개의 SIDTW 매칭 스코어와 연관된 발성 클래스들에 대해서만 생성된다. 예시적인 실시예에서, n=m=3이다. 발성 클래스의 두 세트 사이의 중첩(overlap) 정도에 따라서, 그것은 3 내지 6개의 발성 클래스에 대한 SD 매칭 스코어를 생성할 것이다. 위에서 논의된 바와 같이, SD 음향 모델은 단일 발성 클래스에 대해 여러 템플릿을 포함할 수 있다. 단계 512에서, VR 엔진(220)은 VR 테스트에 사용하기 위해 하이브리드 결합된 매칭 스코어를 생성한다. 예시적인 실시예에서, 그러한 하이브리드 결합된 매칭 스코어는 각각의 SI 및 각각의 SD 매칭 스코어 양쪽 모두에 근거한다. 단계 514에서, 결합된 가장 좋은 매칭 스코어를 갖는 단어나 발성이 선택되어 테스트 임계치와 비교된다. 발성은 이러한 결합된 매칭 스코어가 그 테스트 임계치를 초과하는 경우에만 인지되는 것으로 간주된다. 예시적인 실시예에서, (도 4에 도시된 바와 같은) 트 레이닝을 위해 결합된 스코어를 생성하는데 사용되는 가중치[W1...W6]는 (도 6에 도시된 바와 같은) 테스트를 위한 결합된 스코어를 생성하기 위해 사용되는 가중치[W1...W6]와 동일하지만, 트레이닝 임계치는 테스트 임계치와 동일하지 않다.
도 6은 단계 512에서 수행되는 하이브리드 결합된 매칭 스코어의 생성을 나타낸다. 도시된 예시적인 실시예는, 가중치 인자(W4)가 SIDTWT 대신에 DTWT에 적용되고 가중치 인자(W5)가 SIDTWNT를 대신해서 DTWNT에 적용되는 것을 제외하곤, 도 4에 도시된 결합기와 동일하게 동작한다. DTWT(목표 발성 클래스에 대한 동적 타임 와핑 매칭 스코어)가 목표 발성 클래스와 연관된 SIDTW 및 SDDTW 스코어 중 가장 좋은 것으로부터 선택된다. 마찬가지로, DTWNT(목표가 아닌 나머지 발성 클래스에 대한 동적 타임 와핑 매칭 스코어)는 목표가 아닌 발성 클래스와 연관된 SIDTW 및 SDDTW 스코어 중 가장 좋은 것으로부터 선택된다.
특정 발성 클래스에 대한 SI/SD 하이브리드 스코어(SCOMB _H)는 도시된 바와 같이 EQN.2에 따른 가중된 합인데, 여기서 SIHMMT, SIHMMNT, SIHMMG, 및 SIDTWG는 EQN.1과 동일하다. 특히, EQN.2에서는,
SIHMMT는 목표 발성 클래스에 대한 SIHMM 매칭 스코어이고;
SIHMMNT는 목표가 아닌 발성 클래스(목표 발성 클래스 이외의 발성 클래스)와 연관된 SIHMM 음향 모델의 템플릿에 대한 그 다음의 가장 좋은 매칭 스코어이 고;
SIHMMG은 "가비지" 발성 클래스에 대한 SIHMM 매칭 스코어이고;
DTWT는 목표 발성 클래스에 상응하는 SI 및 SD 템플릿에 대한 가장 좋은 DTW 매칭 스코어이고;
*DTWNT는 목표가 아닌 발성 클래스에 상응하는 SI 및 SD 템플릿에 대한 가장 좋은 DTW 매칭 스코어이며,
SIDTWG는 "가비지" 발성 클래스에 대한 SIDTW 매칭 스코어이다.
따라서, SI/SD 하이브리드 스코어(SCOMB _H)는 각각의 SI 및 SD 매칭 스코어의 결합이다. 그로 인한 결합 매칭 스코어는 SI 및 SD 음향 모델 중 어느 하나에 전적으로 의존하지 않는다. 만약 매칭 스코어(SIDTWT)가 임의의 SDDTWT 보다 더 좋다면, SI/SD 하이브리드 스코어는 더 좋은 SIDTWT 스코어로부터 계산된다. 마찬가지로, 만약 매칭 스코어(SDDTWT)가 임의의 SIDTWT 스코어보다 더 좋다면, SI/SD 하이브리드 스코어는 더 좋은 SDDTWT 스코어로부터 계산된다. 그 결과, 만약 SD 음향 모델의 템플릿이 나쁜 매칭 스코어를 산출한다면, VR 시스템은 SI/SD 하이브리드 스코어의 SI 부분에 근거해서 입력 스피치를 인지할 수 있다. 그러한 나쁜 SD 매칭 스코어는 트레이닝 및 테스트 동안의 음향 환경이나 트레이닝에 사용되는 어쩌면 나 쁜 품질 입력 사이의 차이를 포함하는 여러 원인을 가질 수 있다.
다른 실시예에서, SI 스코어는 SD 스코어보다 상당히 덜 가중되거나, 심지어는 완전히 무시될 수 있다. 예컨대, DTWT은 목표 발성 클래스와 연관된 SDDTW 스코어 중 가장 좋은 것으로부터 선택됨으로써, 목표 발성 클래스에 대한 SIDTW 스코어를 무시한다. 또한, DTWNT는 양쪽 스코어 세트 모두를 사용하는 대신에 목표가 아닌 발성 클래스와 연관된 SIDTW이나 SDDTW 스코어 중 가장 좋은 것으로부터 선택될 수 있다.
비록 예시적인 실시예는 화자에 따른 모델링을 위해 SDDTW 음향 모델만을 사용하여 설명되었지만, 여기서 설명되는 하이브리드 해결방법은 SDHMM 음향 모델이나 심지어는 SDDTW 및 SDHMM 음향 모델의 결합을 사용하는 VR 시스템에도 동일하게 적용된다. 예컨대, 도 6에 도시된 해결방법을 변경함으로써, 가중 인자(W1)는 SIHMMT 및 SDHMMT 스코어 중 가장 좋은 것으로부터 선택된 매칭 스코어에 적용될 수 있다. 가중 인자(W2)는 SIHMMNT 및 SDHMMNT 스코어 중 가장 좋은 것으로부터 선택된 매칭 스코어에 적용될 수 있다.
따라서, 여기서는 비통제 트레이닝 및 테스트 동안에 향상된 VR 성능을 위한 SI 및 SD 음향 모델의 결합을 사용하는 VR 방법 및 장치가 개시된다. 정보 및 신호는 여러 다른 기술 및 공학 중 임의의 것을 사용하여 나타낼 수 있다는 것을 당업자라면 알 것이다. 예컨대, 위의 설명 전반에 걸쳐 참조될 수 있는 데이터, 지 령, 명령, 정보, 신호, 비트, 심벌, 및 칩은 전압, 전류, 전자기파, 자계 도는 입자, 광자계 또는 입자, 또는 그것들의 임의의 결합으로 표현될 수 있다. 또한, 비록 실시예가 DTW나 HMM 음향 모델을 통해 주로 설명되지만, 설명된 기술은 신경망 음향 모델과 같은 다른 유형의 음향 모델에 적용될 수 있다.
여기서 개시된 실시예와 연관하여 설명된 여러 예시적인 논리 블록, 모듈, 회로, 및 알고리즘 단계는 전자 하드웨어, 컴퓨터 소프트웨어, 또는 그것들의 결합으로서 구현될 수 있다는 것을 당업자라면 알 것이다. 하드웨어 및 소프트웨어의 그러한 상호 교환 가능성을 명확히 설명하기 위해서, 여러 예시적인 구성성분, 블록, 모듈, 회로, 및 단계가 그것들의 기능을 통해 일반적으로 위에서 설명되었다. 그러한 기능은 하드웨어로 구현되는지 소프트웨어로 구현되는지는 전체 시스템에 부가되는 특정 애플리케이션 및 설계의 제약에 따라 다르다. 숙련된 기술자는 각각의 특정 애플리케이션을 위해 다른 방식으로 상기 설명된 기능을 구현할 수 있지만, 그러한 구현의 결정은 본 발명의 범위로부터 벗어나는 것으로 해석되지 않아야 한다.
여기서 개시된 실시예와 연관하여 설명된 여러 예시적인 논리 블록, 모듈, 및 회로는 범용 프로세서, 디지털 신호 프로세서(DSP), 주문형 집적 회로(ASIC), 현장 프로그래밍 가능 게이트 어레이(FPGA)나 다른 프로그램 가능 논리 장치, 별도의 게이트나 트랜지스터 논리부, 별도의 하드웨어 성분, 또는 여기서 설명된 기능을 수행하기 위해 설계된 그것들의 임의의 결합을 통해 구현되거나 수행될 수 있다. 범용 프로세서는 마이크로프로세서일 수 있지만, 대안적으로는, 그 프로세서 는 임의의 종래 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수 있다. 프로세서는 또한 예컨대 DSP와 마이크로프로세서의 결합체와 같은 컴퓨팅 장치의 결합체, 복수의 마이크로프로세서, DSP 코어와 연계된 하나 이상의 마이크로프로세서, 또는 임의의 다른 그러한 구성으로 구현될 수 있다.
본 명세서에서 개시된 실시예와 연계하여 설명된 방법이나 알고리즘의 단계들은 하드웨어에 직접 구현되거나, 프로세서에 의해 실행되는 소프트웨어 모듈로 직접 구현되거나, 또는 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드디스크, 탈착 가능 디스크, CD-ROM, 해당 기술분야에 알려져 있는 임의의 다른 형태의 저장 매체에 상주할 수 있다. 예시적인 저장 매체는 프로세서에 접속되는데, 상기 프로세서는 저장 매체로부터 정보를 판독하거나 저장 매체에 정보를 기록할 수 있다. 대안적으로, 저장 매체는 프로세서의 구성요소일 수 있다. 프로세서와 저장 매체는 ASIC에 상주할 수 있다. 대안적으로, 프로세서와 저장 매체는 사용자 터미널의 별개의 구성성분으로서 상주할 수 있다.
개시된 실시예의 앞선 설명은 당업자가 본 발명을 제작하거나 사용할 수 있도록 제공된다. 그러한 실시예들에 대한 여러 변경이 당업자에게는 쉽게 자명해질 것이고, 본 명세서에서 정의된 일반적인 원리는 본 발명의 사상이나 범위로부터 벗어남이 없이 다른 실시예에 적용될 수 있다. 따라서, 본 발명은 본 명세서에 제시된 실시예로 제한되도록 의도되지 않지만, 여기서 개시된 원리 및 신규한 특징에 따른 가장 광대한 범위를 따를 것이다.
도 1은 기본 음성 인식 시스템을 도시한 것이다.
도 2는 실시예에 따른 음성 인식 시스템을 도시한 것이다.
도 3은 비통제 트레이닝을 수행하기 위한 방법을 도시한 것이다.
도 4는 비통제 트레이닝에서 사용된 결합된 매칭 스코어를 생성하기 위한 실시예의 방법을 도시한 것이다.
*도 5는 화자 독립(SI) 및 화자 종속(SD)의 매칭 스코어를 사용하여 음성 인식(테스팅)을 위한 방법을 나타내는 흐름도를 도시한 것이다.
도 6은 화자 독립(SI) 및 화자 종속(SD) 매칭 스코어로부터 결합된 매칭 스코어를 생성하기 위한 방법을 도시한 것이다.

Claims (6)

  1. 음성 인식 장치로서,
    화자 독립 음향 모델(speaker independent acoustic model);
    화자에 맞춤화(tailored)되며, 다수의 템플릿(template)들 및 상기 템플릿들과 관련된 스코어들을 저장하는 화자 종속 음향 모델(speaker dependent acoustic model);
    음성 인식 엔진; 및
    비통제(unsupervised) 음성 인식 트레이닝 및 테스팅을 수행하기 위한 한 세트의 명령들을 저장하는 컴퓨터 판독가능 매체를 포함하며,
    상기 한 세트의 명령들은
    상기 화자 독립 음향 모델의 컨텐츠와 상기 화자로부터의 입력 스피치(input speech)의 패턴 매칭을 수행하여 화자 독립 패턴 매칭 스코어들을 산출하고, 상기 화자 종속 음향 모델에 저장된 상기 템플릿들과 연관된 상기 스코어들을 상기 화자 독립 패턴 매칭 스코어들과 비교하며, 그리고 상기 화자 독립 패턴 매칭 스코어들이 상기 화자 종속 음향 모델에 저장된, 상기 템플릿들과 연관된 상기 스코어들 보다 높으면, 상기 화자 독립 패턴 매칭 스코어들에 기반하여 상기 화자 종속 음향 모델에 새로운 템플릿을 저장하도록 적응되는,
    음성 인식 장치.
  2. 제 1항에 있어서,
    상기 화자 독립 음향 모델은 적어도 하나의 은닉 마르코프 모델(HMM: hidden markov model) 음향 모델을 포함하는 음성 인식 장치.
  3. 제 1항에 있어서,
    상기 화자 독립 음향 모델은 적어도 하나의 동적 타임 와핑(DTW: dynamic time warping) 음향 모델을 포함하는 음성 인식 장치.
  4. 제 1항에 있어서,
    상기 화자 독립 음향 모델은 적어도 하나의 HMM 음향 모델과 적어도 하나의 DTW 음향 모델을 포함하는 음성 인식 장치.
  5. 제 1항에 있어서,
    상기 화자 독립 음향 모델은 적어도 하나의 가비지 템플릿(garbage template)을 포함하고, 상기 비교 단계는 상기 입력 스피치를 상기 적어도 하나의 가비지 템플릿과 비교하는 단계를 포함하는 음성 인식 장치.
  6. 제 1항에 있어서,
    상기 화자 종속 음향 모델은 적어도 하나의 DTW 음향 모델을 포함하는 음성 인식 장치.
KR1020097017648A 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템 KR101031660B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/821,606 2001-03-28
US09/821,606 US20020143540A1 (en) 2001-03-28 2001-03-28 Voice recognition system using implicit speaker adaptation
PCT/US2002/008727 WO2002080142A2 (en) 2001-03-28 2002-03-22 Voice recognition system using implicit speaker adaptation

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020037012775A Division KR100933107B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템

Publications (2)

Publication Number Publication Date
KR20090106630A true KR20090106630A (ko) 2009-10-09
KR101031660B1 KR101031660B1 (ko) 2011-04-29

Family

ID=25233818

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020077024058A KR100933108B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템
KR1020077024057A KR100933109B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템
KR1020097017648A KR101031660B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템
KR1020097017599A KR101031744B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템
KR1020097017621A KR101031717B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템
KR1020037012775A KR100933107B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020077024058A KR100933108B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템
KR1020077024057A KR100933109B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020097017599A KR101031744B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템
KR1020097017621A KR101031717B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템
KR1020037012775A KR100933107B1 (ko) 2001-03-28 2002-03-22 함축적인 화자 적응을 사용하는 음성 인식 시스템

Country Status (13)

Country Link
US (1) US20020143540A1 (ko)
EP (3) EP1374223B1 (ko)
JP (5) JP2004530155A (ko)
KR (6) KR100933108B1 (ko)
CN (3) CN1531722B (ko)
AT (3) ATE372573T1 (ko)
AU (1) AU2002255863A1 (ko)
DE (2) DE60222249T2 (ko)
DK (1) DK1374223T3 (ko)
ES (3) ES2371094T3 (ko)
HK (2) HK1092269A1 (ko)
TW (1) TW577043B (ko)
WO (1) WO2002080142A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102135182B1 (ko) 2019-04-05 2020-07-17 주식회사 솔루게이트 성문인식을 통한 인공지능 스피커 맞춤형 개인화 서비스 시스템
KR20200117574A (ko) 2019-04-05 2020-10-14 주식회사 솔루게이트 인공지능 기반 일정관리 시스템

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020143540A1 (en) * 2001-03-28 2002-10-03 Narendranath Malayath Voice recognition system using implicit speaker adaptation
US20040148169A1 (en) * 2003-01-23 2004-07-29 Aurilab, Llc Speech recognition with shadow modeling
KR20050059766A (ko) * 2003-12-15 2005-06-21 엘지전자 주식회사 동적 시간 워핑을 이용한 음성 인식 방법
GB2409560B (en) 2003-12-23 2007-07-25 Ibm Interactive speech recognition model
US7865362B2 (en) 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7895039B2 (en) 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US7827032B2 (en) * 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US7949533B2 (en) * 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US7440894B2 (en) 2005-08-09 2008-10-21 International Business Machines Corporation Method and system for creation of voice training profiles with multiple methods with uniform server mechanism using heterogeneous devices
US8762148B2 (en) * 2006-02-27 2014-06-24 Nec Corporation Reference pattern adaptation apparatus, reference pattern adaptation method and reference pattern adaptation program
US20070219801A1 (en) * 2006-03-14 2007-09-20 Prabha Sundaram System, method and computer program product for updating a biometric model based on changes in a biometric feature of a user
US8244545B2 (en) * 2006-03-30 2012-08-14 Microsoft Corporation Dialog repair based on discrepancies between user model predictions and speech recognition results
EP2019985B1 (en) * 2006-05-12 2018-04-04 Nuance Communications Austria GmbH Method for changing over from a first adaptive data processing version to a second adaptive data processing version
CN101154379B (zh) * 2006-09-27 2011-11-23 夏普株式会社 定位语音中的关键词的方法和设备以及语音识别系统
US7552871B2 (en) * 2006-12-19 2009-06-30 Nordic Id Oy Method for collecting data fast in inventory systems and wireless apparatus thereto
US9026444B2 (en) 2009-09-16 2015-05-05 At&T Intellectual Property I, L.P. System and method for personalization of acoustic models for automatic speech recognition
WO2011071484A1 (en) * 2009-12-08 2011-06-16 Nuance Communications, Inc. Guest speaker robust adapted speech recognition
JP2012168477A (ja) * 2011-02-16 2012-09-06 Nikon Corp ノイズ推定装置、信号処理装置、撮像装置、及びプログラム
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
CN102999161B (zh) * 2012-11-13 2016-03-02 科大讯飞股份有限公司 一种语音唤醒模块的实现方法及应用
JP5982297B2 (ja) * 2013-02-18 2016-08-31 日本電信電話株式会社 音声認識装置、音響モデル学習装置、その方法及びプログラム
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US9282096B2 (en) 2013-08-31 2016-03-08 Steven Goldstein Methods and systems for voice authentication service leveraging networking
US20150081294A1 (en) * 2013-09-19 2015-03-19 Maluuba Inc. Speech recognition for user specific language
US10405163B2 (en) * 2013-10-06 2019-09-03 Staton Techiya, Llc Methods and systems for establishing and maintaining presence information of neighboring bluetooth devices
JP5777178B2 (ja) * 2013-11-27 2015-09-09 国立研究開発法人情報通信研究機構 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム
CN104700831B (zh) * 2013-12-05 2018-03-06 国际商业机器公司 分析音频文件的语音特征的方法和装置
US9966065B2 (en) * 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
JP6118838B2 (ja) * 2014-08-21 2017-04-19 本田技研工業株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
US9959863B2 (en) * 2014-09-08 2018-05-01 Qualcomm Incorporated Keyword detection using speaker-independent keyword models for user-designated keywords
US20170011406A1 (en) * 2015-02-10 2017-01-12 NXT-ID, Inc. Sound-Directed or Behavior-Directed Method and System for Authenticating a User and Executing a Transaction
KR102371697B1 (ko) 2015-02-11 2022-03-08 삼성전자주식회사 음성 기능 운용 방법 및 이를 지원하는 전자 장치
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
RU2704746C2 (ru) * 2015-08-24 2019-10-30 ФОРД ГЛОУБАЛ ТЕКНОЛОДЖИЗ, ЭлЭлСи Динамическая акустическая модель для транспортного средства
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
KR102458805B1 (ko) 2017-04-20 2022-10-25 구글 엘엘씨 장치에 대한 다중 사용자 인증
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
CN111243606B (zh) * 2017-05-12 2023-07-21 苹果公司 用户特定的声学模型
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
KR20180128037A (ko) * 2017-05-12 2018-11-30 애플 인크. 사용자-특정 음향 모델
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10896673B1 (en) * 2017-09-21 2021-01-19 Wells Fargo Bank, N.A. Authentication of impaired voices
CN107993653A (zh) * 2017-11-30 2018-05-04 南京云游智能科技有限公司 语音识别设备的错误发音自动纠正更新方法和更新系统
EP4086904A1 (en) * 2019-12-04 2022-11-09 Google LLC Speaker awareness using speaker dependent speech model(s)

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6045298A (ja) * 1983-08-22 1985-03-11 富士通株式会社 単語音声認識装置
JPS6332596A (ja) * 1986-07-25 1988-02-12 日本電信電話株式会社 音声認識装置
DE3819178A1 (de) * 1987-06-04 1988-12-22 Ricoh Kk Spracherkennungsverfahren und -einrichtung
JPH01309099A (ja) * 1987-06-04 1989-12-13 Ricoh Co Ltd 音声応答装置
US5315689A (en) * 1988-05-27 1994-05-24 Kabushiki Kaisha Toshiba Speech recognition system having word-based and phoneme-based recognition means
JPH02232696A (ja) * 1989-03-06 1990-09-14 Toshiba Corp 音声認識装置
JP2989231B2 (ja) * 1989-10-05 1999-12-13 株式会社リコー 音声認識装置
JPH04280299A (ja) * 1991-03-08 1992-10-06 Ricoh Co Ltd 音声認識装置
JPH05188991A (ja) * 1992-01-16 1993-07-30 Oki Electric Ind Co Ltd 音声認識装置
US5502774A (en) * 1992-06-09 1996-03-26 International Business Machines Corporation Automatic recognition of a consistent message using multiple complimentary sources of information
CN1160450A (zh) * 1994-09-07 1997-09-24 摩托罗拉公司 从连续语音中识别讲话声音的系统及其应用方法
JPH08314493A (ja) * 1995-05-22 1996-11-29 Sanyo Electric Co Ltd 音声認識方法,数字列音声認識装置及びビデオレコーダシステム
JPH0926799A (ja) * 1995-07-12 1997-01-28 Aqueous Res:Kk 音声認識装置
US5719921A (en) * 1996-02-29 1998-02-17 Nynex Science & Technology Methods and apparatus for activating telephone services in response to speech
JPH1097276A (ja) * 1996-09-20 1998-04-14 Canon Inc 音声認識方法及び装置並びに記憶媒体
US6151575A (en) * 1996-10-28 2000-11-21 Dragon Systems, Inc. Rapid adaptation of speech models
US6003002A (en) * 1997-01-02 1999-12-14 Texas Instruments Incorporated Method and system of adapting speech recognition models to speaker environment
US5893059A (en) * 1997-04-17 1999-04-06 Nynex Science And Technology, Inc. Speech recoginition methods and apparatus
US5913192A (en) * 1997-08-22 1999-06-15 At&T Corp Speaker identification with user-selected password phrases
US6243677B1 (en) * 1997-11-19 2001-06-05 Texas Instruments Incorporated Method of out of vocabulary word rejection
US6226612B1 (en) * 1998-01-30 2001-05-01 Motorola, Inc. Method of evaluating an utterance in a speech recognition system
JP3865924B2 (ja) * 1998-03-26 2007-01-10 松下電器産業株式会社 音声認識装置
US6223155B1 (en) * 1998-08-14 2001-04-24 Conexant Systems, Inc. Method of independently creating and using a garbage model for improved rejection in a limited-training speaker-dependent speech recognition system
JP2000137495A (ja) * 1998-10-30 2000-05-16 Toshiba Corp 音声認識装置および音声認識方法
EP1011094B1 (en) * 1998-12-17 2005-03-02 Sony International (Europe) GmbH Semi-supervised speaker adaption
US6671669B1 (en) * 2000-07-18 2003-12-30 Qualcomm Incorporated combined engine system and method for voice recognition
US6754629B1 (en) * 2000-09-08 2004-06-22 Qualcomm Incorporated System and method for automatic voice recognition using mapping
US20020143540A1 (en) * 2001-03-28 2002-10-03 Narendranath Malayath Voice recognition system using implicit speaker adaptation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102135182B1 (ko) 2019-04-05 2020-07-17 주식회사 솔루게이트 성문인식을 통한 인공지능 스피커 맞춤형 개인화 서비스 시스템
KR20200117574A (ko) 2019-04-05 2020-10-14 주식회사 솔루게이트 인공지능 기반 일정관리 시스템

Also Published As

Publication number Publication date
JP4546512B2 (ja) 2010-09-15
JP2004530155A (ja) 2004-09-30
EP1850324A1 (en) 2007-10-31
WO2002080142A2 (en) 2002-10-10
TW577043B (en) 2004-02-21
JP2008077099A (ja) 2008-04-03
ES2288549T3 (es) 2008-01-16
AU2002255863A1 (en) 2002-10-15
DK1374223T3 (da) 2007-10-08
JP2013152475A (ja) 2013-08-08
KR100933109B1 (ko) 2009-12-21
KR20070106809A (ko) 2007-11-05
WO2002080142A3 (en) 2003-03-13
KR101031744B1 (ko) 2011-04-29
EP1850324B1 (en) 2011-09-21
CN101221758A (zh) 2008-07-16
ATE372573T1 (de) 2007-09-15
EP1374223A2 (en) 2004-01-02
KR100933108B1 (ko) 2009-12-21
DE60222249T2 (de) 2008-06-12
CN1531722B (zh) 2011-07-27
KR20070106808A (ko) 2007-11-05
KR101031660B1 (ko) 2011-04-29
JP2008203876A (ja) 2008-09-04
JP2010211221A (ja) 2010-09-24
CN1531722A (zh) 2004-09-22
ATE443316T1 (de) 2009-10-15
EP1374223B1 (en) 2007-09-05
JP4546555B2 (ja) 2010-09-15
ES2330857T3 (es) 2009-12-16
EP1628289A3 (en) 2006-03-01
KR20030085584A (ko) 2003-11-05
HK1092269A1 (en) 2007-02-02
US20020143540A1 (en) 2002-10-03
CN101221759A (zh) 2008-07-16
KR100933107B1 (ko) 2009-12-21
KR20090106628A (ko) 2009-10-09
EP1628289B1 (en) 2009-09-16
KR20090106625A (ko) 2009-10-09
ES2371094T3 (es) 2011-12-27
KR101031717B1 (ko) 2011-04-29
HK1117260A1 (en) 2009-01-09
CN101221759B (zh) 2015-04-22
ATE525719T1 (de) 2011-10-15
EP1628289A2 (en) 2006-02-22
DE60222249D1 (de) 2007-10-18
DE60233763D1 (de) 2009-10-29

Similar Documents

Publication Publication Date Title
KR101031660B1 (ko) 함축적인 화자 적응을 사용하는 음성 인식 시스템
US7024359B2 (en) Distributed voice recognition system using acoustic feature vector modification
US7043431B2 (en) Multilingual speech recognition system using text derived recognition models
US6836758B2 (en) System and method for hybrid voice recognition
JP4202124B2 (ja) 話者独立音声認識システムのための音声テンプレートを構成するための方法及び装置
JPH11511567A (ja) パターン認識
EP1525577B1 (en) Method for automatic speech recognition
US20070129945A1 (en) Voice quality control for high quality speech reconstruction
JP2000047686A (ja) 音声認識装置および方法

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180329

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee