KR100930715B1 - 음성 인식 방법 - Google Patents

음성 인식 방법 Download PDF

Info

Publication number
KR100930715B1
KR100930715B1 KR1020070107705A KR20070107705A KR100930715B1 KR 100930715 B1 KR100930715 B1 KR 100930715B1 KR 1020070107705 A KR1020070107705 A KR 1020070107705A KR 20070107705 A KR20070107705 A KR 20070107705A KR 100930715 B1 KR100930715 B1 KR 100930715B1
Authority
KR
South Korea
Prior art keywords
morpheme
speech
stem
speech recognition
trigram
Prior art date
Application number
KR1020070107705A
Other languages
English (en)
Other versions
KR20090041923A (ko
Inventor
박전규
이윤근
강병옥
강점자
김갑기
이성주
전형배
정호영
조훈영
훈 정
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070107705A priority Critical patent/KR100930715B1/ko
Publication of KR20090041923A publication Critical patent/KR20090041923A/ko
Application granted granted Critical
Publication of KR100930715B1 publication Critical patent/KR100930715B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

본 발명은 지식 근원(Knowledge Source)들 중에서 다양한 텍스트적 언어 현상을 통계적으로 모델화하는 언어 모델에 기반한 음성 인식 방법에 관한 것으로, 원시 텍스트 말뭉치로부터 음성 인식에서 사용하는 지식베이스를 생성하도록 하는 말뭉치 학습 과정, 그리고 지식베이스를 사용하여 형태소를 인식 단위로 사용하는 음성 인식 엔진의 최종 인식 결과를 생성하도록 하는 인식 과정을 포함함으로써, 종래 기술에서의 단어 삽입 오류 문제를 효과적으로 제어할 수 있으며, 다수 개의 유효한 인식 후보열들을 효과적으로 재평가하고 오류 보정을 수행하여 음성인식의 성능 향상을 도모할 수 있다.
음성 인식, 통계적 언어 모델, 형태소

Description

음성 인식 방법{Voice Recognition Method}
본 발명은 음성 인식 방법에 관한 것으로, 특히 지식 근원(Knowledge Source)들 중에서 다양한 텍스트적 언어 현상을 통계적으로 모델화하는 언어 모델에 기반한 음성 인식 방법에 관한 것이다.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2006-S-036-02, 과제명: 신성장동력산업용 대용량 대화형 분산 처리 음성인터페이스 기술개발].
일반적으로, 대용량 어휘의 음성 인식에 사용되는 언어 모델을 구성함에 있어서, 형태소 또는 의사 형태소 수준의 인식 단위를 설정하고, 대용량 말뭉치(Text Corpus)로부터 형태소 해석에 기반을 두어 언어 모델을 학습하도록 한다.
일반적인 음성 인식 방법은, 언어 모델, 음향 모델, 발성 사전, 영역 모델 등과 같은 다양한 지식 근원을 사용하여 발성자가 말한 음성을 텍스트로 변환하여 인식하게 된다.
이때, 통상의 언어 모델 과정은, 특정 단어 열이 연속해서 나타날 수 있는 가능성을 확률로 정의하는 것이며, 이를 위해서는 특정 언어의 모든 언어적 현상을 포괄 또는 대표할 수 있도록 충분한 양의 말뭉치를 필요로 한다. 이러한 말뭉치를 수집하기 위해서는, 일반적으로 수년 분의 신문기사, 소설, 수필, 희곡, 논설, 인터넷 채팅 기록, 전자메일, 다양한 텍스트 자료 등을 고려하게 된다.
이러한 언어 모델의 기본 단위는 '통상 단어'라는 어휘 구조를 사용하게 된다. 예를 들어, 영어의 경우에는 공백 문자(Space)로 분리된 유일한 단어를 최소 인식 단위로 삼고, 이것들에 기초하여 여러 가지의 통계 정보 및 언어 모델을 작성하기 때문에, 비교적 수월하게 영어의 어휘 및 문법 구조를 모델화하는 것이 가능하다.
하지만, 한국어의 경우처럼 다양한 형태의 접두사가 수시로 첨가될 수 있으며 어미의 변화가 많고 조사가 발달한 언어에 대해서는, 어절 단위의 언어 모델을 작성하게 되면, 음성 인식에 사용되는 기억 장소가 폭발적으로 증가하게 된다. 따라서 한국어의 경우는, 의미의 최소 단위인 형태소나, 아니면 어절의 음성 정보인 음소를 가지고 언어 모델을 구축하는 것이 합리적이고 현실적이다.
그리고 이러한 음성 인식에 사용되는 언어 모델은, 언어 모델의 수립에 사용되는 말뭉치를 대상으로 형태소 분석을 통해 형태소 또는 의사 형태소(Pseudo Morpheme)를 구하고, 형태소들이 인접해서 나타나는 가능성을 통계적인 수치로 나타내는 것으로서, 일반적으로 전체 말뭉치에서 특정 형태소가 나타날 확률을 유니그램(1-gram)으로 작성하고, 특정한 두 개의 형태소가 연속해서 나타날 확률을 바이그램(2-gram)으로 작성하고, 특정한 세 개의 형태소가 연속해서 나타날 확률을 트라이그램(3-gram)으로 작성하는 등과 같이, 이러한 방식으로 테트라그램(4- gram), 펜타그램(5-gram) 등을 작성하게 되는데, 이것을 '엔-그램(n-gram)'이라 칭한다.
이렇게 학습된 엔-그램 언어 모델은 음성 인식의 과정에서 직접 적용되는 데, 현재 트라이그램에 기반한 탐색이 가장 일반적으로 사용된다.
이러한 방법은 단어의 연접 구조에 대한 통계적 정보만을 활용하기 때문에, 필연적으로 의미적으로나 구문적으로 잘못된 인식 결과 또는 순서를 빈번하게 수반하는 문제점이 있다.
또한, 발성 단위와 어휘 구문론적 단위가 서로 다름으로 인해 'ㄴ', 'ㄹ'과 같은 관형사형 어미와 같이 짧은 지속시간을 갖는 음성 이벤트에 대한 성능 저하를 초래하기 때문에, 이들을 의사 형태소라는 복잡한 단위로 확장 또는 조정하여 음성 인식의 단위를 구성해서 사용하고 있는 것이 현실이다.
한편, 학습에 사용되는 주어진 말뭉치가 한국어의 모든 어휘 및 문법 현상을 반영할 수가 없으며, 또한 모든 사전적인 한국어 형태소들에 대해 언어 모델에서 사용하는 확률 값을 산출하는 것이 사실상 불가능하다.
다시 말해서, 학습에 사용되는 제한된 말뭉치에서 발생한 어휘 구문론적 이벤트에 대해서는 확률 값이 높게 예측되고, 발생하지 않은 이벤트에 대해서는 너무 낮게 편중되는 현상이 필연적으로 발생하기 때문에, 이를 보정하기 위해서 평탄화(Smoothing) 또는 백-오프(Back-off)와 같은 기법을 적용하게 된다.
일반적인 평탄화의 기법은, 아래의 수학식 1과 같이, 학습에 사용된 말뭉치에서 특정 형태소들의 열이 발생한 횟수(r)를 발생 가능한 횟수(R)로 나눈 확률 값 인 'P(E)'를 사용하게 된다.
P(E) = r / R
그리고 일반적으로 말뭉치에서 특정 형태소 또는 형태소 열의 발생 빈도가 너무 낮아서 제대로 된 확률 값을 구할 수 없을 경우, 이들을 배제(Cut-off)하게 된다. 이와 같은 처리를 보상하기 위해서, 또는 알려지지 않은 형태소 열에 대한 처리를 위해서, 주어진 엔-그램(n-gram(W1, W2, ..., Wn)) 열이 말뭉치에 발생하지 않았을 경우에 하위 모델에서의 값(P(Wn | W1, ..., Wn-1))을 이용하게 되는데, 이것을 '백-오프'라고 한다.
상술한 바와 같이, 종래의 기술에서 적용되는 평탄화 기법이나 백-오프와 같은 언어 모델 기법을 적용할 경우, 의도하지 않거나, 의미 없는 단어 또는 형태소의 삽입 오류(Insertion Error)가 빈발하게 발생되는 문제점이 있다.
본 발명이 이루고자 하는 기술적 과제는, 언어 모델, 음향 모델, 발성 사전, 영역 모델 등과 같은 다양한 지식 근원(Knowledge Source) 중에서 다양한 텍스트적 언어 현상을 통계적으로 모델화하는 언어 모델과 해당 언어 모델에 기반한 음성 인식 방법을 제공하는 것이다.
또한, 본 발명은 종래 형태소 기반의 트라이그램 탐색 과정에서 의미적으로나 어휘 구문론적으로 문제가 있는 빈번한 단어 삽입 오류를 효과적으로 제어할 수 있도록 하는데, 그 목적이 있다.
이러한 과제를 해결하기 위해, 본 발명에 따르면, 한국어 대용량 어휘 음성 인식에 핵심적으로 사용될 수 있는 언어 모델과 이에 기반한 탐색 방법을 구현한다. 이때, 본 발명은 형태소에 기반한 한국어 음성 인식을 위해서, 한국어의 특질을 고려하여 언어 모델 수립에 적합하도록 체계화한 지식 베이스를 사용하여 어절, 형태소, 음절 등의 다양한 정보를 효율적으로 사용할 수 있도록 한다.
다시 말해서, 본 발명은 형태소 기반의 인식 단위를 채용하는 대어휘 음성 인식 시스템을 위해서, 형태소 해석 단계에서 발생하는 다양한 의미적 또는 구문적 정보들을 효율적으로 지식화함으로써 음성 인식의 성능을 개선하며, 특히 형태소 트라이그램뿐만 아니라 형태소 품사 트라이그램, 어간-어미 결합 정보에 근거하는 어간어미 참조표(Stem-suffix Look-up Table) 등을 활용하여 음성 인식의 인식 후 보열들을 재평가하도록 한다. 이에, 본 발명은 다수 개의 유효한 인식 후보열들을 효과적으로 재평가하고 오류 보정을 수행함으로써 음성 인식의 성능 향상을 도모할 수 있다.
본 발명의 한 특징에 따르면, 음성을 인식하는 방법에 있어서, 원시 텍스트 말뭉치로부터 음성 인식에서 사용하는 지식베이스를 생성하도록 하는 말뭉치 학습 과정, 그리고 지식베이스를 사용하여 형태소를 인식 단위로 사용하는 음성 인식 엔진의 최종 인식 결과를 생성하도록 하는 인식 과정을 포함하는 음성 인식 방법을 제공한다.
여기서, 상술한 말뭉치 학습 과정은, 원시 텍스트 말뭉치에 대해 형태소 해석을 수행하여 형태소 말뭉치 및 형태소 열을 생성하는 단계, 형태소 말뭉치에 대해 통계적 언어 모델링을 수행하여 단어 트라이그램 및 형태소 트라이그램을 생성하는 단계, 그리고 형태소 말뭉치를 입력으로 하여 어미 또는 접미사들의 연결 형태와 실제적인 연결형 어미들을 생성시켜 어간어미 참조표로 구성하는 단계를 포함한다. 이때, 형태소 말뭉치는 원시 텍스트 말뭉치의 어절을 형태소로 분리한 것이며, 형태소 열은 형태소 말뭉치로부터 형태소를 제외한 품사 태그로만 개별 문장을 구성한 것이며, 단어 트라이그램은 형태소 말뭉치에 대해 형태소 유니그램, 바이그램, 트라이그램들로 구성되는 언어 모델로 생성되며, 형태소 트라이그램은 형태소 열에 대해서 형태소 품사들의 유니그램, 바이그램, 트라이그램들로 구성되는 품사 세트 언어 모델로 생성된다.
그리고 상술한 인식 과정은, 발성된 음성에 대해 트라이그램 탐색을 수행하 여 다수 개의 1차 엔-베스트 인식 후보열을 생성하는 단계, 1차 엔-베스트 인식 후보열에 대해 형태소 트라이그램에 기반한 탐색을 수행하여 2차 엔-베스트 리스트를 생성하는 단계, 그리고 어간어미 참조표를 적용하여 2차 엔-베스트 리스트를 대상으로 재평가를 수행하여 최종 엔-베스트 리스트를 생성하는 단계를 포함한다.
본 발명의 다른 특징에 따르면, 발성된 음성을 인식하는 방법에 있어서, 발성된 음성에 대해 단어 트라이그램 탐색을 수행하여 다수 개의 1차 엔-베스트 후보열을 생성하는 단계, 1차 엔-베스트 후보열에 대해 형태소 트라이그램 탐색을 수행하여 2차 엔-베스트 후보열을 생성하는 단계, 그리고 2차 엔-베스트 후보열에 대해 어간-어미 탐색을 수행하여 최종 엔-베스트 후보열을 생성하는 단계를 포함하는 음성 인식 방법을 제공한다.
여기서, 상술한 2차 엔-베스트 리스트를 생성하는 단계는, 형태소 트라이그램을 적용하여 인식 후보열의 품사 태그열을 활용하여 1차 엔-베스트 후보열을 재평가하는 것이다. 또한, 상술한 최종 엔-베스트 리스트를 생성하는 단계는, 어간-어미 탐색 시에 어간어미 참조표를 구성하는 단계, 그리고 구성된 어간어미 참조표를 기반으로 2차 엔-베스트 후보열을 재평가하는 단계를 포함한다.
이때, 상술한 어간어미 참조표를 구성하는 단계는, 어절을 어간과 어미로 분리하는 단계, 어미를 더 이상 분리하지 않고 어미열로서 그룹화하는 단계, 어미 결합열을 데이터베이스로서 정의하는 단계, 그리고 어간어미 참조표의 데이터베이스 필드를 정의하는 단계를 포함한다.
이와 같이 본 발명에 의하면, 종래 기술의 형태소 기반의 트라이그램 탐색 과정에서 의미적으로나 어휘 구문론적으로 문제가 있는 빈번한 단어 삽입 오류를 효과적으로 제어할 수 있으며, 다수 개의 유효한 인식 후보열들을 효과적으로 재평가하고 오류 보정을 수행함으로써 음성인식의 성능 향상을 도모할 수 있다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
이제 본 발명의 실시 예에 따른 음성 인식 방법에 대하여 도면을 참고로 하여 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 음성 인식 방법의 개략적인 순서도이다.
본 발명의 실시 예에 따른 음성 인식 방법은, 형태소, 형태소 품사, 어간어미 참조표 정의에 기반을 두는 다단계 음성 인식 방법으로서, 도 1에 도시한 바와 같이, 크게 단어 트라이그램 탐색(S110), 형태소 트라이그램 탐색(S120), 어간-어미 탐색(S130)의 세 가지 단계로 이루어진다. 여기서, 형태소 트라이그램을 적용하여 인식 후보열의 품사 태그열을 활용하여 엔-베스트(N-best) 후보열을 재평가하도록 한다. 이때, 어간-어미 탐색 시에 어간어미 참조표를 구성하고, 해당 구성된 어간어미 참조표를 기반으로 엔-베스트 후보열을 재평가하도록 한다.
다시 말해서, 본 발명의 실시 예에 따른 다단계 음성 인식 방법은, 종래기술에서 적용되는 평탄화나 백-오프와 같은 언어 모델 기법을 적용할 경우에 의도하지 않은 또는 의미 없는 단어 또는 형태소의 삽입 오류(Insertion Error)가 빈발하게 되는 문제점을 해소하기 위한 것으로, 학습용 말뭉치를 대상으로 하여 일반적인 엔-그램(n-gram) 언어 모델을 수립하는 동시에 형태소 품사에 기반하는 형태소 트라이그램을 계산하며, 아울러 한국어의 어절 구조를 어간(또는 어근(Stem))과 어미(Affix)로 구분하고, 특히 어미의 구조적인 결합 규칙을 명시적으로 정의한 어간어미 참조표를 생성해서 사용하도록 한다.
그리고 본 발명의 실시 예에 따른 다단계 음성 인식 방법은, 기본 탐색구조인 첫 번째 단계 트라이그램 탐색에서 발생되는 복수 개의 인식 후보열(N-best)에 대해 두 번째 단계, 세 번째 단계의 재평가 및 순위화를 통해 오류 후처리를 보정함으로써, 전반적인 음성 인식의 성능 향상에 기여하도록 한다.
다음으로는 본 발명의 실시 예에 따른 한국어 어절 구조로부터 어간어미 참 조표를 생성하는 과정 및 원리에 대해 설명하면 다음과 같다.
우선, 통상의 한국어 어절 구조 결합 규칙은, 어간(Stem), 접두어(Prefix) + 어간, 어간 + 어미(Affix), 접두어 + 어간 + 어미로 범주화할 수 있다. 이 중에서 특히 한국어에 있어 그 양상이 다양하게 나타나는 규칙은, 어미의 결합 형태이다.
예를 들어, 대표적인 '고'라는 어미를 고찰해 보면 아래와 같이 용언이나 체언의 마지막에 붙어서 다양한 활용을 수행할 수 있는 예가 있으며, 어미 "+고"는 체언의 뒤에서 아래와 같은 다양한 활용에 수반되어 어휘 구문론적 기능을 수행한다.
1) +고: 체언 : suffix sequence : +시+고: 창+설+하+시+고
2) +고: 체언 : suffix sequence : +리+라+고 : 습+격+해+오+리+라+고
3) +고: 체언 : suffix sequence : +고 : 부+풀+려+지+고
4) +고: 체언 : suffix sequence : +시+고: 창+설+하+시+고
이와 같은 관점에서 본 발명의 실시 예는 한국어의 어휘 구문론적인 어간 및 어미의 접속 구조를 해석하여 다음과 같이 어미의 결합 규칙을 데이터베이스화함으로써 어간어미 참조표를 구축한다.
첫 번째로, 어절은 어간(즉, 용언 및 체언 등)과 어미(즉, 조사, 접미사 등)로 분리한다.
두 번째로, 한국어에는 새로운 어간을 파생시키거나 재 파생시키는 형태소들이 있으며, 이러한 형태소들은 원칙적으로 어간에 속하기는 하지만 또 다른 어간과 어미로 분리될 수 있다는 점을 고려해서, 어미는 더 이상 분리하지 않고 어미 열(Suffix Sequence)로서 그룹화한다.
세 번째로, 이러한 어미 결합열은 데이터베이스로서 정의하는데, 이때 표제어(Lemma), 형태소 품사, 결합 형태 및 그 구성요소들의 관점에서 유일하게 나타난다.
네 번째로, 어간어미 참조표의 데이터베이스 필드를 정의한다. 즉, 표제어의 경우(상기 예에서 '+고'의 경우), 어절 내에서의 음절 경계는 '+'로 표시하며, 음절 및 어휘 파싱을 위해 맨 뒤의 음절을 표제어로 설정한다. 결합되는 품사 태그의 경우(상기 예에서 '체언'의 경우), 용언 또는 체언 등의 결합 가능한 형태를 지정한다. 품사의 결합 정보의 경우(상기 예에서 'suffix sequence'의 경우), 자립 또는 의존 형태소, 어미, 어미 결합 등에 따른 자질을 정의한다. 구성의 경우(상기 예에서 '+리+라+고'의 경우), 어미의 음절 구성을 지정한다. 어절 철자 예제의 경우(상기 예에서 '습+격+해+오+리+라+고'의 경우), 완전하게 결합된 형태의 어절을 예시한다.
본 발명의 실시 예에 따른 음성 인식 방법을 도 2의 순서도를 참조하여 보다 상세히 설명하면 다음과 같다.
도 2는 본 발명의 실시 예에 따른 통계적 언어 모델 학습에 기반한 다단계 음성 인식 방법을 나타낸 도면이다. 여기서, 도 2는 원시 텍스트 말뭉치(Text Corpus)로부터 음성 인식에서 직접 사용하는 지식베이스를 생성하도록 하는 말뭉치 학습 과정과, 이들 지식베이스를 사용하여 형태소를 인식 단위로 사용하는 음성 인식 엔진의 최종 인식 결과를 생성하도록 하는 인식 과정을 도시하고 있다.
이때, 형태소 해석(S201), 통계적 언어 모델링(S202), 샐로우 파싱(Shallow Parsing)(S203)의 단계는 말뭉치 학습 과정의 일환이며, 트라이그램 탐색(S204), 형태소 트라이그램 탐색(S205), 어간-어미 탐색(S206)의 단계는 인식 과정에 속한다.
형태소 해석 단계(S201)는, 한국어의 어절들로 구성된 원시 텍스트 말뭉치(Text Corpus)에 대해 형태소 해석을 수행함으로써, 어절을 형태소로 분리한 형태소 말뭉치(Morpheme Corpus)를 생성한다. 이들 형태소 말뭉치는 음성 인식의 단위로 직접 적용된다. 또한, 이와 동시에 이들 형태소의 품사 태그들로만 구성되는 형태소 열(Morpheme Sequence)을 생성한다.
통계적 언어 모델링 단계(S202)는, 형태소 해석 단계(S201)에서 생성된 형태소 말뭉치에 대해 형태소 유니그램, 바이그램, 트라이그램들로 구성되는 언어 모델인 단어 트라이그램(Word Trigram)을 생성한다. 또한, 이와 동시에 형태소 해석 단계(S201)에서 생성된 형태소 열(Morpheme Sequence)에 대해서 형태소 품사들의 유니그램, 바이그램, 트라이그램들로 구성되는 품사 세트 언어 모델인 형태소 트라이그램(Morpheme Trigram)을 생성한다.
샐로우 파싱(S203)의 중요한 개념은, 상술한 "+리+라+고"의 예에서처럼 개별 조사 접미사의 정확한 의미적 해석이나 품사적 해석을 요하지 않으며, 단지 어절 내에서의 어미로서의 기능을 수행하는 어휘적 해석과 함께, 활용어가 활용될 때에 변하지 않는 부분인 어간에 상대적으로 용언 및 서술격 조사가 활용되어 변하는 형태에 중점을 두고 있는 것으로서, 어간-어미 접속 규칙의 등록 시에도 '접미사 열(Suffix Sequence)'라는 품사 태그만을 사용하게 된다.
그리고 샐로우 파싱 단계(S203)는, 형태소 해석 단계(S201)의 출력 데이터인 형태소 말뭉치를 입력으로 하여 어미 또는 접미사들의 연결 형태와 실제적인 연결형 어미들을 생성함으로써 어간어미 참조표를 생성한다.
트라이그램 탐색 단계(S204)는, 녹음된 음성에 대해 음향 모델, 언어 모델, 발성 사전 등을 사용하여 텍스트로 변환하는 대어휘 음성 인식의 전형적인 탐색 과정으로서, 발성된 음성에 대해 최대 N개까지의 1차 엔-베스트(N-best) 인식 후보열을 생성한다.
형태소 트라이그램 탐색 단계(S205)는, 형태소-구문 제약조건(Morph-syntactic Constraints)을 적용하는 인식 결과 후보들을 재평가하는 것이 목표이다. 즉, 트라이그램 탐색 단계(S204)에서 생성된 1차 엔-베스트 리스트에 대해 형태소 트라이그램에 기반한 탐색을 수행하여 이들 엔-베스트 리스트를 검증 및 재평가하는 단계이다. 1차 엔-베스트를 재평가하여 점수별로 순위를 재조정하여 2차 엔-베스트 리스트를 생성하게 된다.
어간-어미 기반 탐색 단계(S206)는, 샐로우 파싱 단계(S203)의 출력 데이터인 어간어미 참조표를 적용하여 형태소 트라이그램 탐색 단계(S205)에서 생성된 2차 엔-베스트 리스트를 대상으로 재평가를 수행하여 최종 엔-베스트 리스트를 생성한다.
아래의 표 1은 본 발명의 실시 예에 따른 음성 인식 방법의 통계적 언어 처리 결과를 예를 들어 나타낸 표이다.
처리 대상 처리 대상 데이터 또는 결과
원시 텍스트 말뭉치 <s> 나는 그가 수습하리라고는 또한 그의 모국이 한국이리라고는 꿈에도 생각하지 못했다 </s> <s> 한국은 민주공화국이다 </s> <s> 오늘 밥은 다 먹었다 </s>
형태소 말뭉치 <s> 나/nc+는/j 그/np+가/j 수습/nc+하/xsp+리라고는/e 또한/ma 그의/mm 모국/nc+이/j 한국/nq+이/j+리라고는/e 꿈에도/ma 생각/nc+하/xsp+지/e 못하/pv+었/e+다/e </s> <s> 한국/nq+은/j 민주/nc+공화국/nc+이/j+다/e </s> <s> 오늘/nc 밥/nc+은/j 다/nc 먹/pv+었/e+다/e </s>
형태소 열 <s> nc+j np+j nc+xsp+e ma mm nc+ j nq+j+e ma nc+xsp+e pv+e+e </s> <s> nq+j nc+nc+j+e </s> <s> nc nc+j nc pv+e+e </s>
단어 트라이그램 \1-그램: (유니그램 확률, 단어, 단어의 백-오프 가중치) -1.1027 <s> 0.0469 -1.6046 가 0.0109 -1.6046 공화국 0.0357 ... \2-그램: (바이그램 확률, 바이그램, 바이그램의 백-오프 가중치) -0.1249 <s> 나 0.0000 -0.1249 <s> 한국 0.0000 -0.1249 가 수습 0.0000 -0.1249 공화국 이 0.0000 ... \3-grams: (트라이그램 확률, 트라이그램) -0.1761 </s> <s> 한국 -0.1761 <s> 나 는 -0.1761 <s> 오늘 밥 -0.1761 <s> 한국 은 -0.1761 그 가 수습 ...
형태소 트라이그램 \1-그램: (유니그램 확률, 단어, 단어의 백-오프 가중치) -1.1027 <s> -0.4536 -0.7347 e -0.8182 -0.7347 j -0.6096 ... \2-그램: (바이그램 확률, 바이그램, 바이그램의 백-오프 가중치) -0.3010 <s> nc 0.3802 -0.6021 <s> nq 0.4771 -1.0000 e pv 0.6021 -0.6021 j e 0.3010 ... \3-그램: (트라이그램 확률, 트라이그램) -0.1761 <s> nc j -0.1761 <s> nc nc -0.1761 <s> nq j -0.1761 e ma nc -0.1761 e pv e ...
상술한 바와 같은 본 발명의 실시 예에 따른 통계적 언어 모델 학습에 기반한 다단계 음성 인식 방법에서 처리하는 대상 데이터 및 그 처리 결과를 표 1의 예와 같이 나타낼 수 있다.
원시 텍스트 말뭉치는, 문장 단위로 분리되어 문장의 처음에 "<s>" 기호를 첨부하고, 문장의 마지막에 "</s>" 기호를 첨부한다.
이것(원시 텍스트 말뭉치)을 형태소 해석하여 형태소 말뭉치와 같은 형태로 출력하게 된다. 이때, 주어진 어절의 형태소 결합 정보는 '+'라는 구분자로서 나타내며, 각 형태소의 품사 태그 정보는 '/' 기호 다음에 해당 품사 태그를 부착하게 된다.
형태소 열은, 이것(형태소 말뭉치)으로부터 형태소를 제외한 품사 태그로만 개별 문장을 구성하도록 한 것이다.
단어 트라이그램은, 트라이그램 탐색 단계(S204)에서 직접 사용되는 언어 모델로서, 발성 사전에는 품사 태그 정보가 포함되어 탐색에 사용된다.
형태소 트라이그램은, 형태소 트라이그램 탐색 단계(S205)에서 사용되는 언어 모델이다.
아래의 표 2는 본 발명의 실시 예에 따른 어간어미 참조표의 구현 예시를 나타낸 표이다.
처리 단위 예제 처리 단계
문장 나는 그가 수습하리라고는 또한 그의 모국이 한국이리라고는 꿈에도 생각하지 못했다. 텍스트 말뭉치
어절 수습하리라고는 한국이리라고는 형태소 해석
형태소 수습하+리+라+고+는 샐로우 파싱
어간어미 참조표 ... (용언/어간)+(리+라+고+는/접미사 열) (용언/어간)+(리+라+고/접미사 열) (용언/어간)+(리+라/접미사 열) (체언/어간)+(이+리+라+고+는/접미사 열) (체언/어간)+(이+리+라+고/접미사 열) (체언/어간)+(이+리+라/접미사 열) (체언/어간)+(이/접미사) (체언/어간)+(가/접미사) (체언/어간)+(은/접미사) (용언/어간)+(고/접미사) ... 어간-어미 탐색
상술한 바와 같은 형태소 해석 단계(S201)에서 어절을 대상으로 '+'를 구분자로 하여 형태소라는 음성 인식의 기본 단위로 분할한 결과를 표 2의 예와 같이 나타낼 수 있다.
구분된 형태소 열은, 어간("수습하")과 어미("리+라+고+는") 형태로 분리하여 이들 어간군(즉, 접두사, 용언, 체언 등)과 어미군(즉, 조사, 접미사, 어미 등)간의 결합 형태 및 결합 관계를 정의하는 어간어미 참조표에 등록하게 된다.
이때, 어미는, 독립적인 어미뿐만 아니라 어미들 간의 연접 형태(접미사 열(Suffix Sequence))까지도 등록을 수행하여 용언 및 체언의 결합 형태 또는 결합 관계를 직접적으로 참조하여 점수화를 수행하게 된다.
아래의 표 3은 본 발명의 실시 예에 따른 음성 인식 방법의 단계별 인식 동작을 예를 들어 나타낸 표이다.
처리 순서 처리 결과 엔-베스트 후보열 예시
트라이그램 탐색 형태소(단어) 단위 엔-베스트 후보열 1) 모국/nc 이/j 한국/nq 이/j 리라고는/e 꿈에도/ma 생각/nc 하/xsp 지/e 못하/pv 었/e 다/e 2) 모국/nc 이/j 항구/nq 이/j 리라고는/e 꿈에도/ma 생각/nc 하/xsp 지/e 못하/pv 었/e 다/e 3) 모국/nc 이/j 한국/nq nc 이/j 리라고는/e 꿈에도/ma 생각/nc 하/xsp 지/e 모태/nc 다/j 4) 모국/nc 이/j 항복/nc 하/xs 이/j 리라고는/e 꿈에도/ma 생각/nc 하/xsp 지/e 못하/pv 었/e 다/e
형태소 트라이그램 탐색 엔-베스트 후보열 재평가 1) 모국/nc 이/j 한국/nq 이/j 리라고는/e 꿈에도/ma 생각/nc 하/xsp 지/e 못하/pv 었/e 다/e 2) 모국/nc 이/j 항구/nq 이/j 리라고는/e 꿈에도/ma 생각/nc 하/xsp 지/e 못하/pv 었/e 다/e 3) 모국/nc 이/j 한국/nq 이/j 리라고는/e 꿈에도/ma 생각/nc 하/xsp 지/e 모태/ nc 다/j 4) 모국/nc 이/j 항복/nc 하/xs 이/j 리라고는/e 꿈에도/ma 생각/nc 하/xsp 지/e 못하/pv 었/e 다/e
어간-어미 탐색 엔-베스트 후보열 재평가 1) 모국/nc+이/j 한국/nq+이/j+리라고는/e 꿈에도/ma 생각/nc+하/xsp+지/e+못하/pv+었/e+다/e 2) 모국/nc+이/j 항구/nq+이/j+리라고는/e 꿈에도/ma 생각/nc+하/xsp+지/e+못하/pv+었/e+다/e 3) 모국/nc+이/j 한국/nq+이/j+리라고는/e 꿈에도/ma 생각/nc+하/x네+지/e 모태/nc+다/j 4) 모국/nc+이/j 항복/nc+하/xs?이/j+리라고는/e 꿈에도/ma 생각/nc+하/xsp+지/e+못하/pv+었/e+다/e
최종 엔-베스트 후보열 1) 모국이 한국이리라고는 꿈에도 생각하지 못했다 2) 모국이 항구이리라고는 꿈에도 생각하지 못했다 3) 모국이 한국이리라고는 꿈에도 생각하지 모태다 4) 모국이 항복하이리라고는 꿈에도 생각하지 못했다
상술한 바와 같은 본 발명의 실시 예에 따른 통계적 언어 모델 학습에 기반한 다단계 음성 인식 방법에 있어서, "모국이 한국이리라고는 꿈에도 생각하지 못했다"라는 발성 예에 대한 인식 동작은 표 3의 예에 나타낸 바와 같다.
형태소를 인식 단위로 사용하는 일반적인 음성 인식 엔진의 예는, 표 3에서 제시하는 트라이그램 탐색과 같이, 인식된 단위 형태소와 그 품사 태그가 부착된 형태이다.
표 3의 예는 음성 인식 엔진에서 유효한 인식 열의 후보를 최대 4개까지 생성한 예로서, 첫 번째가 가장 높은 점수를 나타내며, 차례로 1)에서 4)까지의 후보열을 순위별로 정렬하여 제시한 경우이다.
다음 단계인 형태소 트라이그램 탐색 단계(S205)는, 이것(즉, 트라이그램 탐색 단계(S204)에서 생성된 형태소(단어) 단위 엔-베스트 후보열)을 대상으로, 유효한 형태소 열인지를 형태소 트라이그램을 참조하여 판단하게 된다.
이때, 1)번과 2)번 후보열의 형태소 배열은, 형태소 말뭉치에도 정확히 나타나 있는 학습된 형태소 트라이그램의 배열을 따르고 있지만, 3)번 후보열의 경우에는 "지/e 모태/nc 다/j"의 "e nc j"가 학습된 형태소 트라이그램과 거리가 있음을 알 수 있으며, 4)번 후보열의 경우에는 "항복/nc 하/xs 이/j 리라고는/e"의 "nc xs j e"가 학습된 형태소 트라이그램과 거리가 있음을 알 수 있다. 이런 경우, 형태소 트라이그램 탐색 단계(S205)에서는 이들 3)번 및 4)번 후보열에 대해 페널티를 적용함으로써 점수를 하향 조정하게 된다.
마지막으로 어간-어미 탐색 단계(S206)에서는, 어간과 어미의 결합 구조를 평가하게 된다. 특히, 용언 및 체언에 대한 접속 규칙 및 어간어미 참조표를 참조함으로써, 어간-어미 탐색 단계(S206)에서 제시한 표 3의 예와 같이, 어간과 어미의 결합 구조를 생성하게 된다.
또한. 후보열 4)의 "항복/nc+하/xs?이/j+리라고는/e"와 같이 어간어미 접속표에 위배되는 형태의 결합 또는 결합이 완전하지 않은 형태의 인식 결과를 자동으로 검출하여 '?'와 같은 기호로 해당 부분을 지정하고 페널티를 줌으로써 점수를 하향 조정하게 된다.
상술한 바와 같이, 본 발명의 실시 예에 따른 다단계 음성 인식 방법은, 통계적 언어 모델에 기반하는 대어휘 음성 인식 시스템을 구성함에 있어서 형태소열에 기반하는 형태소 트라이그램 탐색을 첫 번째 단계로 수행하며, 형태소 품사열에 기반하는 형태소 품사 트라이그램 탐색을 두 번째 단계로 수행하며, 형태소를 어절의 하위 구성요소로서의 개념인 어간-어미 결합구조로 정의하여 그 참조표를 지식 베이스화하여 이에 근거한 어간-어미 탐색을 세 번째 단계로 수행한다. 특히, 형태소에 기반하는 언어 모델 학습 과정에서 생성되는 기본적인 정보를 간단히 재구성 및 활용함으로써, 음성 인식의 결과를 효율적으로 재평가하고 성능 개선을 얻을 수 있도록 한다.
그리고 본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
도 1은 본 발명의 실시 예에 따른 음성 인식 방법의 개략적인 순서도이다.
도 2는 본 발명의 실시 예에 따른 음성 인식 방법을 보다 상세히 나타낸 순서도이다.

Claims (15)

  1. 음성을 인식하는 방법에 있어서,
    원시 텍스트 말뭉치로부터 음성 인식에서 사용하는 지식베이스를 생성하며, 상기 지식 베이스는 상기 원시 텍스트 말뭉치의 어절을 형태소로 분리한 형태소 말뭉치를 토대로 생성되는, 말뭉치 학습 과정, 그리고
    상기 지식베이스를 사용하여 형태소를 인식 단위로 사용하는 음성 인식 엔진의 최종 인식 결과를 생성하도록 하는 인식 과정
    을 포함하는 음성 인식 방법.
  2. 제1항에 있어서,
    상기 말뭉치 학습 과정은,
    상기 원시 텍스트 말뭉치에 대해 형태소 해석을 수행하여 상기 형태소 말뭉치 및 형태소 열을 생성하는 단계,
    상기 형태소 말뭉치에 대해 통계적 언어 모델링을 수행하여 단어 트라이그램 및 형태소 트라이그램을 생성하는 단계, 그리고
    상기 형태소 말뭉치를 입력으로 하여 어미 또는 접미사들의 연결 형태와 실제적인 연결형 어미들을 생성시켜 어간어미 참조표로 구성하고, 상기 참조표를 지식베이스화 하는 단계
    를 포함하는 음성 인식 방법.
  3. 삭제
  4. 제2항에 있어서,
    상기 형태소 열은,
    상기 형태소 말뭉치로부터 형태소를 제외한 품사 태그로만 개별 문장을 구성하도록 한 음성 인식 방법.
  5. 제2항에 있어서,
    상기 단어 트라이그램은,
    상기 형태소 말뭉치에 대해 형태소 유니그램, 바이그램, 트라이그램들로 구성되는 언어 모델로 생성되는 음성 인식 방법.
  6. 제2항에 있어서,
    상기 형태소 트라이그램은,
    상기 형태소 열에 대해서 형태소 품사들의 유니그램, 바이그램, 트라이그램들로 구성되는 품사 세트 언어 모델로 생성되는 음성 인식 방법.
  7. 제1항에 있어서,
    상기 인식 과정은,
    발성된 음성에 대해 트라이그램 탐색을 수행하여 다수 개의 1차 엔-베스트 인식 후보열을 생성하는 단계,
    상기 1차 엔-베스트 인식 후보열에 대해 형태소 트라이그램에 기반한 탐색을 수행하여 2차 엔-베스트 리스트를 생성하는 단계, 그리고
    어간어미 참조표를 적용하여 상기 2차 엔-베스트 리스트를 대상으로 재평가를 수행하여 최종 엔-베스트 리스트를 생성하는 단계
    를 포함하는 음성 인식 방법.
  8. 제7항에 있어서,
    상기 트라이그램 탐색은,
    녹음된 음성에 대해 음향 모델, 언어 모델, 발성 사전을 사용하여 텍스트로 변환하는 음성 인식 방법.
  9. 제7항에 있어서,
    상기 2차 엔-베스트 리스트를 생성하는 단계는,
    상기 1차 엔-베스트 인식 후보열을 검증 및 재평가하여 점수별로 순위를 재조정하여 상기 2차 엔-베스트 리스트를 생성하는 음성 인식 방법.
  10. 제7항에 있어서,
    상기 형태소 트라이그램에 기반한 탐색은,
    형태소-구문 제약조건을 적용하는 인식 결과 후보들을 재평가하도록 하는 음성 인식 방법.
  11. 발성된 음성을 인식하는 방법에 있어서,
    상기 발성된 음성에 대해 단어 트라이그램 탐색을 수행하여 다수 개의 1차 엔-베스트 후보열을 생성하는 단계,
    상기 1차 엔-베스트 후보열에 대해 형태소 트라이그램 탐색을 수행하여 2차 엔-베스트 후보열을 생성하는 단계, 그리고
    상기 2차 엔-베스트 후보열에 대해 어간-어미 탐색을 수행하여 최종 엔-베스트 후보열을 생성하는 단계
    를 포함하는 음성 인식 방법.
  12. 제11항에 있어서,
    상기 2차 엔-베스트 리스트를 생성하는 단계는,
    형태소 트라이그램을 적용하여 인식 후보열의 품사 태그열을 활용하여 상기 1차 엔-베스트 후보열을 재평가하는 음성 인식 방법.
  13. 제11항에 있어서,
    상기 최종 엔-베스트 리스트를 생성하는 단계는,
    상기 어간-어미 탐색 시에 어간어미 참조표를 구성하는 단계, 그리고
    상기 구성된 어간어미 참조표를 기반으로 상기 2차 엔-베스트 후보열을 재평가하는 단계
    를 포함하는 음성 인식 방법.
  14. 제13항에 있어서,
    상기 어간어미 참조표를 구성하는 단계는,
    어휘 구문론적인 어간 및 어미의 접속 구조를 해석하여 어미의 결합 규칙을 데이터베이스화시켜 어간어미 참조표를 구축하는 음성 인식 방법.
  15. 제13항에 있어서,
    상기 어간어미 참조표를 구성하는 단계는,
    어절을 어간과 어미로 분리하는 단계,
    어미를 더 이상 분리하지 않고 어미열로서 그룹화하는 단계,
    상기 어미열을 데이터베이스로서 정의하는 단계, 그리고
    어간어미 참조표의 데이터베이스 필드를 정의하는 단계
    를 포함하는 음성 인식 방법.
KR1020070107705A 2007-10-25 2007-10-25 음성 인식 방법 KR100930715B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070107705A KR100930715B1 (ko) 2007-10-25 2007-10-25 음성 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070107705A KR100930715B1 (ko) 2007-10-25 2007-10-25 음성 인식 방법

Publications (2)

Publication Number Publication Date
KR20090041923A KR20090041923A (ko) 2009-04-29
KR100930715B1 true KR100930715B1 (ko) 2009-12-09

Family

ID=40764867

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070107705A KR100930715B1 (ko) 2007-10-25 2007-10-25 음성 인식 방법

Country Status (1)

Country Link
KR (1) KR100930715B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170057792A (ko) * 2015-11-17 2017-05-25 삼성전자주식회사 통역 모델 생성 장치 및 방법과, 자동 통역 장치 및 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101383552B1 (ko) * 2013-02-25 2014-04-10 미디어젠(주) 다중 명령어가 포함된 단일 문장의 음성인식방법
KR102362815B1 (ko) * 2020-05-18 2022-02-14 니나노 주식회사 음성 인식 선곡 서비스 제공 방법 및 음성 인식 선곡 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050101694A (ko) * 2004-04-19 2005-10-25 대한민국(전남대학교총장) 문법적 제약을 갖는 통계적인 음성 인식 시스템 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050101694A (ko) * 2004-04-19 2005-10-25 대한민국(전남대학교총장) 문법적 제약을 갖는 통계적인 음성 인식 시스템 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170057792A (ko) * 2015-11-17 2017-05-25 삼성전자주식회사 통역 모델 생성 장치 및 방법과, 자동 통역 장치 및 방법
KR102195627B1 (ko) 2015-11-17 2020-12-28 삼성전자주식회사 통역 모델 생성 장치 및 방법과, 자동 통역 장치 및 방법

Also Published As

Publication number Publication date
KR20090041923A (ko) 2009-04-29

Similar Documents

Publication Publication Date Title
Karpov et al. Large vocabulary Russian speech recognition using syntactico-statistical language modeling
US6349282B1 (en) Compound words in speech recognition systems
Jung et al. An english to korean transliteration model of extended markov window
US20090024392A1 (en) Speech recognition dictionary compilation assisting system, speech recognition dictionary compilation assisting method and speech recognition dictionary compilation assisting program
Sak et al. Morpholexical and discriminative language models for Turkish automatic speech recognition
Reddy et al. Integration of statistical models for dictation of document translations in a machine-aided human translation task
Arisoy et al. Discriminative language modeling with linguistic and statistically derived features
Arısoy et al. A unified language model for large vocabulary continuous speech recognition of Turkish
KR100496873B1 (ko) 대표 형태소 어휘 문맥에 기반한 통계적 태깅 오류 정정장치 및 그 방법
Rasooli et al. Unsupervised morphology-based vocabulary expansion
KR100930715B1 (ko) 음성 인식 방법
Rosso et al. On the voice-activated question answering
KR100509917B1 (ko) 어절 엔-그램을 이용한 띄어쓰기와 철자 교정장치 및 방법
Chan et al. Automatic speech recognition of Cantonese-English code-mixing utterances
Hori et al. Deriving disambiguous queries in a spoken interactive ODQA system
Iosif et al. Speech understanding for spoken dialogue systems: From corpus harvesting to grammar rule induction
Gao et al. MARS: A statistical semantic parsing and generation-based multilingual automatic translation system
KR101755437B1 (ko) 어휘의미패턴을 이용한 한국어의 기계번역방법
Misu et al. Dialogue strategy to clarify user’s queries for document retrieval system with speech interface
Al-Onaizan et al. Named entity translation
Maučec et al. Modelling highly inflected Slovenian language
KR20040018008A (ko) 품사 태깅 장치 및 태깅 방법
L’haire FipsOrtho: A spell checker for learners of French
Altunyurt et al. Towards combining rule-based and statistical part of speech tagging in agglutinative languages
Shi An investigation of linguistic information for speech recognition error detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121129

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151127

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161205

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20171205

Year of fee payment: 9