KR100560916B1 - 인식 후 거리를 이용한 음성인식 방법 - Google Patents

인식 후 거리를 이용한 음성인식 방법 Download PDF

Info

Publication number
KR100560916B1
KR100560916B1 KR1020010038948A KR20010038948A KR100560916B1 KR 100560916 B1 KR100560916 B1 KR 100560916B1 KR 1020010038948 A KR1020010038948 A KR 1020010038948A KR 20010038948 A KR20010038948 A KR 20010038948A KR 100560916 B1 KR100560916 B1 KR 100560916B1
Authority
KR
South Korea
Prior art keywords
recognition
word
speech
distance
sequence
Prior art date
Application number
KR1020010038948A
Other languages
English (en)
Other versions
KR20030002197A (ko
Inventor
박성준
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020010038948A priority Critical patent/KR100560916B1/ko
Publication of KR20030002197A publication Critical patent/KR20030002197A/ko
Application granted granted Critical
Publication of KR100560916B1 publication Critical patent/KR100560916B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/081Search algorithms, e.g. Baum-Welch or Viterbi

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Character Discrimination (AREA)

Abstract

본 발명은 인식 후 거리를 이용한 음성인식 방법에 관한 것으로, 음성 입력후 부단어(subword) 음성 단위들로 연결된 시퀀스(sequence)를 1차적으로 구하고, 2차적으로 이 시퀀스와 실제 단어 사전에 있는 단어들과 비교하는 복차적 인식 과정을 통하여 가장 근거리의 단어 시퀀스를 결과로 출력하게 함으로써 그 인식 속도를 향상시키도록 한 인식 후 거리를 이용한 음성인식 방법을 제공함에 그 목적이 있다.
본 발명은 입력된 음성 데이터를 인식하기 위한 음성인식 시스템에 있어서, 부단어 음성 단위 사전을 이용하여 부단어 시퀀스를 찾는 단계; 상기 부단어 시퀀스와 단어 사전에 있는 단어들간의 인식 후 거리를 측정하여 최단거리인 단어 시퀀스를 인식 결과로 구하는 단계로 이루어진 것을 특징으로 한다.
본 발명을 적용하면, 부단위 시퀀스 결정 및 그 결과값에 의한 인식 후 거리 측정방법을 이용하여 대어휘 음성 인식에서 보다 빠른 인식 속도를 얻을 수 있다는 효과가 있으며, 아울러 비터비 검색을 위한 사전과 인식 대상 단어 사전을 분리함으로써 사전의 관리를 용이하게 한다는 효과가 있다.

Description

인식 후 거리를 이용한 음성인식 방법{Speech recognition method using posterior distance}
도 1은 종래의 실시예에 따른 단순한 문법의 HMM(hidden Markov model)의 예를 도시한 도면,
도 2는 종래의 실시예에 따른 음성인식 과정을 도시한 흐름도,
도 3은 본 발명의 일실시예에 따른 인식 후 거리를 이용한 음성인식 과정을 도시한 흐름도이다.
*도면의 주요부분에 대한 부호의 설명*
ST-304:부단위 시퀀스 결정단계 ST-305:인식후 거리측정단계
ST-306:단어 시퀀스 결정단계
본 발명은 인식 후 거리를 이용한 음성인식 방법에 관한 것으로, 보다 상세하게 부단어(subword) 음성 단위들로 연결된 시퀀스(sequence)를 및 실제 단어 사전에 있는 단어들과 비교하여 그 거리를 이용하여 음성을 인식하도록 하는 인식 후 거리를 이용한 음성인식 방법에 관한 것이다.
주지된 바와 같이, 음성인식 시스템은 사람의 음성을 입력받아 인식기를 통해 인식음성의 결과를 유도해내는 시스템으로, 현재 이러한 인식기술을 이용한 다양한 서비스가 개발되어 상용화되고 있다.
일반적으로, 음성 인식은 특정 음향 데이터열이 입력되었을 때 이에 해당하는 단어열을 찾는 과정이다. 이러한 음성 인식을 위한 접근 방법 중 하나는 패턴 비교로서, 입력된 음성 데이터와 참조 패턴을 비교함으로써 가장 유사한 참조 패턴을 인식 결과로 내놓는 방법이다.
상기 패턴 비교는 다양한 곳에 적용되어 좋은 인식 성능을 보여주고 있으나, 저장된 정보가 적다는 문제가 있다. 즉, 각 단어에 대하여 한두 개의 참조 패턴만을 저장하고 있기 때문에 한 단어가 다양하게 발음되는 것을 충분히 비교하여 해당 결과값을 유도해낼 수 없기 때문이다. 따라서 좀 더 방대한 정보를 담을 수 있는 방법이 필요한다.
그것은 통계적 모델에 의한 음성인식 방법인 바, 이 방법은 정보가 결정론적으로 정해져 있지 않고 통계적으로 내포되어 있다.
보다 상세하게, HMM (hidden Markov model)이라고 한다. HMM-기타 다양한 종류의 통계적 모델-에 깔린 가정은 음성 신호를 파라미터(parameter)에 의한 랜덤 프로세스(random process)로 잘 특징지을 수 있으며, 그 파라미터값들은 정확하고 잘 정의된 방법으로 추정할 수 있다는 것이다.
상기 HMM은 전이(transition)로 연결된 상태들의 집합으로서 각각의 전이는 두 종류의 확률 집합을 가지고 있다. 하나는 전이할 수 있는 확률을 나타내는 전이 확률(transition probability)이며, 다른 것은 특정 출력이 나오는 확률을 나타내는 출력 확률 밀도 함수(output probability density function)이다.
만약, 음성을 모델링하기 위하여 HMM이 주어졌을 때, 기본적인 단위를 정의할 필요가 있다. 대표적인 것으로 단어와 음소를 들 수 있는 데, 단어 모델은 소어휘 인식에서는 적합하지만 대어휘 인식에서는 실용적이지 못하다.
한편, 음소 모델은 문맥 종속성이 강하지만 표준적이고 잘 이해될 수 있으며 훈련이 용이한 단위이다.
도 1은 음소를 사용하는 HMM의 한 예를 든 것이다. 도 1에서 확률에 대한 표기는 생략하였다. 이 모델은 "YES"와 "NO"를 인식하는 것이데 /sil로 표시되는 묵음으로 분리될 수 있다. "YES"는 '/YE'와 '/S'로 구성되어 있으며, "NO"는 '/N'과 '/O'로 구성되어 있다.
음성 기관이 음성 샘플 X를 생성하여 입밖으로 내보낼 때, 음성 인식 시스템은 화자의 내면에 음향적인 순서가 어떻게 이루어지고 있는지를 알지 못한다. 인식 시스템은 X를 생성한 단어 시퀀스 W가 어떤 것인지를 알기 위해 가장 유사한 상태 시퀀스를 재구성함으로써 W를 찾으려고 한다. 단일의 가장 바람직한 시퀀스를 찾는 형식적인 방법이 있으며, 이것을 비터비 알고리즘이라고 한다.
도 2는 종래의 음성 인식 과정을 나타내는 흐름도이다.
이를 참조하면, 음성인식 시스템은 단어와 이 단어들이 어떤 모델로 구성되어 있는지에 대한 정보를 포함한 단어 사전을 가지고 있는 상태에서, 데이터를 초기화하고(ST-201), 화자로부터 음성 데이터를 입력받는다(ST-202).
그리고, 비터비 검색을 통함으로 인해(ST-203), 인식기는 단어 사전을 검색하여 입력된 음향 시퀀스와 가장 유사한 단어 시퀀스를 인식결과로 출력하게 된다(ST-204).
그러나, 상기한 방법으로 음성 인식을 행할 경우에는 인식 대상 단어의 개수가 증가되면 될수록 사전을 검색하는 시간도 증가하게 되므로 그 인식에 소요되는 시간도 더불어 증가된다는 문제가 있다.
음성을 인식할 때는 인식의 기본 단위를 먼저 정의할 필요가 있다.
이에 대하여 상세하게 기술하면, 먼저 음성인식에 사용되는 단위로서 대표적으로 단어와 음소를 들 수 있는 바, 음소는 부단어(subword) 단위의 한 종류로 부단어 단위로는 음절, 2음절(dyad), 음향 단위(acoustic units) 등이 있다.
그러나, 단어를 기본 단위로 사용할 경우에는 신뢰성 있는 단어 모델을 얻기 위해서 학습에 필요한 단어 발성의 수가 많아야 하고, 단어의 변경이 있을 때마다 단어 모델을 새로 생성해야 한다는 단점이 있다.
본 발명은 상기한 종래 기술의 사정을 감안하여 이루어진 것으로, 음성 입력후 부단어(subword) 음성 단위들로 연결된 시퀀스(sequence)를 1차적으로 구하고, 2차적으로 이 시퀀스와 실제 단어 사전에 있는 단어들과 비교하는 복차적 인식 과정을 통하여 가장 근거리의 단어 시퀀스를 결과로 출력하게 함으로써 그 인식 속도를 향상시키도록 한 인식 후 거리를 이용한 음성인식 방법을 제공함에 그 목적이 있다.
상기한 목적을 달성하기 위해, 본 발명의 바람직한 실시예에 따르면 입력된 음성 데이터를 인식하기 위한 음성인식 시스템에 있어서, 음성 인식을 위한 단어사전으로 단어의 삽입이나 제거를 하더라도 변동이 없는 부단위 음성 단위 사전과; 단어의 변경에 따라 변할 수 있는 인식 대상 단어 사전을 동시에 이용하는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법이 제공된다.
바람직하게, 부단어 음성 단위 사전을 이용하여 부단어 시퀀스를 찾는 단계; 상기 부단어 시퀀스와 단어 사전에 있는 단어들간의 인식 후 거리를 측정하여 가장 거리가 근거리인 단어 시퀀스를 인식 결과로 구하는 단계로 이루어진 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법이 제공된다.
보다 상세하게, 인식된 부단어 단위 시퀀스에서 부단위 음성 단위가 삽입되거나 삭제될 때에 부단어 단위 시퀀스가 가지는 인식 대상 단어와의 거리를 산출하여 최종 인식 결과를 얻게 되는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법이 제공된다.
또한, 상기 부단어 시퀀스를 생성하는 단계에서 음성학적인 정보와, 문법에 의하여 부과되는 정보를 이용하여 결과 시퀀스를 구하는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법이 제공된다.
한편, 상기 인식 후 거리측정 과정은 음성학적 모델을 이용하여 각각의 음소에 대한 거리를 기산출하여 저장된 정보를 이용함으로써 측정하는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법이 제공된다.
바람직하게, 상기 인식 후 거리측정 과정은 추가 단어의 음소에 대한 거리값을 기정의하여 산출한 정보를 이용하여 측정하는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법이 제공된다.
이하, 본 발명에 대해 도면을 참조하여 상세하게 설명한다.
먼저, 본 발명은 단어 사전을 용이하게 다루고 대어휘 음성 인식에서의 인식 속도를 높이는 데 있다. 본 발명은 상기한 목적을 위하여 복수 개의 사전이 사용되는 바, 그 첫째 사전은 비터비 검색에 사용되는 부단어 음성 단위로 구성되어 있으며, 둘째 사전은 인식 대상 단어들에 대한 정보를 가지고 있다. 분리된 사전을 사용함으로써 얻을 수 있는 점은 비터비 검색에 무관하게 인식 대상 단어들의 추가, 삭제가 용이하다는 점이다.
따라서, 본 발명에 의한 인식 작업은 다음 두 단계를 거치게 되는데 첫째, 입력 음성에 따른 비터비 검색을 통해 부단어 음성 단위 시퀀스를 중간 인식 결과를 출력하는 과정이다.
또한, 둘째로는 중간 결과와 인식단어사전에 있는 단어들간의 거리를 계산하여 가장 근거리의 단어 시퀀스를 최종 인식 결과로 출력하는 과정이다.
도 3은 본 발명에 의한 음성 인식 과정을 나타낸 것이다.
먼저, 본 발명에 따른 음성 인식 과정에서 일부 과정(301,302,303,304)은 기존의 방법을 나타낸, 도 2에서의 일부(201,202,203,204)와 일치한다. 하지만, 본 발명에서 사용되는 첫번째 사전과 도 2에서의 사전은 서로 각기 상이하다.
이하, 본 발명에 따른 음성 인식 과정에 대하여 기술한다.
예컨대, "아버지", "어머니"를 인식하는 인식 엔진을 만든다고 가정할 때, 여기서 부단위 음성 단위는 음소로 가정하는 바, 음절이나 다른 것으로 정의할 수도 있다. 기존 방법을 따를 때, 단어 사전을 다음과 같이 구성할 수 있다.
아버지 : ㅏ ㅂ ㅓ ㅈ ㅣ
어머니 : ㅓ ㅁ ㅓ ㄴ ㅣ
사전에 정의된 모델을 사용하여 인식 엔진은 각각의 단어 시퀀스가 음향 시퀀스를 생성했을 확률값을 계산하고, 가장 큰 확률값을 낸 단어를 인식 결과로 내놓는다.
본 발명에서는 두 개의 사전이 사용된다. 첫번째 사전은 부단어 단위 사전으로서 음소 정보를 가지고 있으며 다음과 같이 구성된다고 볼 수 있다.
이 사전에는 각 모델에 대한 여러 가지 정보가 포함되어 있어야 하나, 본 발명의 요지가 아니므로 생략하였다.
두 번째 사전은 첫번째 사전에 있는 음소들로 구성된 인식 대상 단어 사전이 다. 본 예에서는 도 2에서 전술한 종래의 단어 사전을 그대로 사용하는 것으로 한다.
첫번째 단계에서, 인식기는 비터비 검색의 결과로서 음소의 시퀀스를 생성한다(ST-304). 예를 들어, 사용자가 "아버지"라고 말을 했다고 하면, 음소 시퀀스는 <'ㅏ','ㅂ','ㅓ','ㅈ','ㅣ'>이거나 <'ㅏ','ㅁ','ㅓ','ㅈ','ㅣ'>이거나 그 밖의 다른 것이 될 수 있다.
물론 올바른 시퀀스는 <'ㅏ','ㅂ','ㅓ','ㅈ','ㅣ'>이며 인식기가 제대로 수행했다면 이 결과를 내놓을 것이다. 비터비 검색을 하는 동안, 음소들간의 관계나 문법을 사용한다면 인식 시간을 줄일 수 있을 것이다. 이러한 정보는 부단어 단위 사전 내에 포함시킬 수도 있고 따로 가지고 있을 수도 있다.
둘째 단계에서는 음소 시퀀스와 둘째 사전에 있는 단어들간의 거리가 계산된다(ST-305). 이 거리는 이미 비터비 검색을 통해 인식된 결과를 사용하여 구하는 것이므로 이것을 '인식 후 거리'라고 명명하기로 한다.
음소 시퀀스가 <'ㅏ','ㅂ','ㅓ','ㅈ','ㅣ'>이라면 가장 짧은 거리는 '0'이며 그 단어는 "아버지"이다. 다른 예로 음소 시퀀스가 <'ㅏ','ㅁ','ㅓ','ㅈ','ㅣ'>이라면 "아버지"와의 거리가 '0'은 아니다. 하지만 아마도 이 거리가 다른 단어에 비해서 가장 짧을 것이며 따라서 이번에도 인식 결과는 "아버지"가 될 것이다.
만약, 다른 단어와의 거리가 더 짧게 나왔다면 이때는 오인식된 경우이다.
거리를 측정하는 방법은 여러 가지가 있다. 한 방법을 예로 나타내면 다음과 같다.
첫째, 각각의 음소에 대하여 다른 음소와의 거리를 미리 계산해 둔다. 음성학적으로 비슷한 음소들은 거리가 짧게 나올 것이다.
둘째, 단어 내에서 음소가 삽입되거나 삭제되는 경우에도 거리값을 정의하여 계산해 둔다. 삽입의 경우를 보면 동일한 음소라도 어느 단어의 어느 위치에 삽입되는가에 따라 미치는 영향이 각기 상이하므로 문맥 종속성을 고려하여 거리를 계산해야 한다. 이것은 다른 부단위 음성 단위를 사용하는 경우도 마찬가지이다.
거리값이 기산출되어 있을 경우에, 인식의 두 번째 단계에서 이 값들을 이용하여 전체적인 거리를 연산하고(ST-305) 이에 따라 최종 인식 결과를 구하게 된다(ST-306).
그리고, 지속적으로 인식해야 할 음성 데이터가 존재하는 지의 여부를 판단하여(ST-307), 음성 데이터가 존재할 경우에는 음성 입력 과정으로 복귀하고, 음성 데이터가 존재하지 않는 경우에는 인식기를 종료시킨다.
이상에서 기술된 바와 같이, 본 발명은 두 단계에 걸친 음성 인식 방법이며 두 번째 단계에서 인식후 거리를 사용하도록 하였다. 본 발명은 단어 사전을 다룸에 있어서 좀 더 융통성을 제공해 주며, 대어휘 인식 시스템의 인식 속도를 향상시킬 수 있다.
한편, 본 발명의 실시예에 따른 인식 후 거리를 이용한 음성인식 방법은 단지 상기한 실시예에 한정되는 것이 아니라 그 기술적 요지를 이탈하지 않는 범위내에서 다양한 변경이 가능하다.
상기한 바와 같이, 본 발명에 따른 인식 후 거리를 이용한 음성인식 방법은 부단위 시퀀스 결정 및 그 결과값에 의한 인식 후 거리 측정방법을 이용하여 대어휘 음성 인식에서 보다 빠른 인식 속도를 얻을 수 있다는 효과가 있으며, 아울러 비터비 검색을 위한 사전과 인식 대상 단어 사전을 분리함으로써 사전의 관리를 용이하게 한다는 효과가 있다.

Claims (6)

  1. 입력된 음성 데이터를 인식하기 위한 음성인식 시스템에 있어서,
    음성 인식을 위한 단어사전으로 단어의 삽입이나 제거를 하더라도 변동이 없는 부단위 음성 단위 사전과; 단어의 변경에 따라 변할 수 있는 인식 대상 단어 사전을 동시에 이용하여, 부단어 음성 단위 사전을 이용하여 부단어 시퀀스를 찾는 단계;
    상기 부단어 시퀀스와 단어 사전에 있는 단어들간의 인식 후 거리를 측정하여 최단거리인 단어 시퀀스를 인식 결과로 구하는 단계로 이루어진 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법.
  2. 삭제
  3. 제 1 항에 있어서, 인식된 부단어 단위 시퀀스에서 부단위 음성 단위가 삽입되거나 삭제될 때에 부단어 단위 시퀀스가 가지는 인식 대상 단어와의 거리를 산출하여 최종 인식 결과를 얻게 되는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법.
  4. 제 1 항에 있어서, 상기 부단어 시퀀스를 생성하는 단계에서 음성학적인 정보와, 문법에 의하여 부과되는 정보를 이용하여 결과 시퀀스를 구하는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법.
  5. 제 1 항에 있어서, 상기 인식 후 거리측정 과정은 음성학적 모델을 이용하여 각각의 음소에 대한 거리를 기산출하여 저장된 정보를 이용함으로써 측정하는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법.
  6. 제 1 항에 있어서, 상기 인식 후 거리측정 과정은 추가 단어의 음소에 대한 거리값을 기정의하여 산출한 정보를 이용하여 측정하는 것을 특징으로 하는 인식 후 거리를 이용한 음성인식 방법.
KR1020010038948A 2001-06-30 2001-06-30 인식 후 거리를 이용한 음성인식 방법 KR100560916B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010038948A KR100560916B1 (ko) 2001-06-30 2001-06-30 인식 후 거리를 이용한 음성인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010038948A KR100560916B1 (ko) 2001-06-30 2001-06-30 인식 후 거리를 이용한 음성인식 방법

Publications (2)

Publication Number Publication Date
KR20030002197A KR20030002197A (ko) 2003-01-08
KR100560916B1 true KR100560916B1 (ko) 2006-03-14

Family

ID=27712830

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010038948A KR100560916B1 (ko) 2001-06-30 2001-06-30 인식 후 거리를 이용한 음성인식 방법

Country Status (1)

Country Link
KR (1) KR100560916B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100695330B1 (ko) 2004-12-21 2007-03-15 한국전자통신연구원 중계기용 격리 안테나
KR100748720B1 (ko) * 2006-02-09 2007-08-13 삼성전자주식회사 다중 계층 중심 어휘 목록에 기초하여 대규모 단어 음성인식 방법 및 그 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08202387A (ja) * 1995-01-30 1996-08-09 Fujitsu Ten Ltd 音声認識装置
JPH0981179A (ja) * 1995-09-19 1997-03-28 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 話者適応化装置及び音声認識装置
KR20010026288A (ko) * 1999-09-04 2001-04-06 윤장진 유사 음소에 기반한 화자 종속형 음성 인식 장치 및 그 방법
KR20010044675A (ko) * 2001-03-15 2001-06-05 백종관 음절 단위로 음성인식을 수행하는 방법 및 그 장치
KR20010088054A (ko) * 2000-03-10 2001-09-26 윤종용 스테이트별 가중치를 적용한 음성 인식 장치 및 방법
KR20020048125A (ko) * 2000-12-16 2002-06-22 이계철 유사단어 및 문장 인식시의 인식율 개선 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08202387A (ja) * 1995-01-30 1996-08-09 Fujitsu Ten Ltd 音声認識装置
JPH0981179A (ja) * 1995-09-19 1997-03-28 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 話者適応化装置及び音声認識装置
KR20010026288A (ko) * 1999-09-04 2001-04-06 윤장진 유사 음소에 기반한 화자 종속형 음성 인식 장치 및 그 방법
KR20010088054A (ko) * 2000-03-10 2001-09-26 윤종용 스테이트별 가중치를 적용한 음성 인식 장치 및 방법
KR20020048125A (ko) * 2000-12-16 2002-06-22 이계철 유사단어 및 문장 인식시의 인식율 개선 방법
KR20010044675A (ko) * 2001-03-15 2001-06-05 백종관 음절 단위로 음성인식을 수행하는 방법 및 그 장치

Also Published As

Publication number Publication date
KR20030002197A (ko) 2003-01-08

Similar Documents

Publication Publication Date Title
EP2048655B1 (en) Context sensitive multi-stage speech recognition
JP4543294B2 (ja) 音声認識装置および音声認識方法、並びに記録媒体
JP4301102B2 (ja) 音声処理装置および音声処理方法、プログラム、並びに記録媒体
KR100486733B1 (ko) 음소 결합정보를 이용한 연속 음성인식방법 및 장치
JP4351385B2 (ja) 連続および分離音声を認識するための音声認識システム
JPH06110493A (ja) 音声モデルの構成方法及び音声認識装置
WO2004047075A1 (ja) 音声処理装置および方法、記録媒体並びにプログラム
JPH08227298A (ja) クラスタ化された単語間及び/又は句間の調音結合を使用した音声認識
AU2012385479B2 (en) Method and system for real-time keyword spotting for speech analytics
Shen et al. Automatic selection of phonetically distributed sentence sets for speaker adaptation with application to large vocabulary Mandarin speech recognition
KR100560916B1 (ko) 인식 후 거리를 이용한 음성인식 방법
JP3039634B2 (ja) 音声認識装置
KR100259777B1 (ko) 텍스트/음성변환기에서의최적합성단위열선정방법
JPH09292899A (ja) 音声認識装置
JP2001312293A (ja) 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体
Gerber et al. Extended Viterbi algorithm for optimized word HMMs
KR101578766B1 (ko) 음성 인식용 탐색 공간 생성 장치 및 방법
JPH0283593A (ja) ノイズ適応形音声認識装置
JPH08241096A (ja) 音声認識方法
Scharenborg et al. 'Early recognition'of words in continuous speech
Wu et al. Application of simultaneous decoding algorithms to automatic transcription of known and unknown words
JP2000242295A (ja) 音声認識装置および音声対話装置
Kosaka et al. Speaker adaptation based on system combination using speaker-class models.
Kim et al. Two-stage lexicon optimization of G2P-converted pronunciation dictionary based on statistical acoustic confusability measure
Markov et al. Acoustic Modeling of Accented English Speech for Large-Vocabulary Speech Recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130304

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140303

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150302

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180326

Year of fee payment: 13