KR20000026814A - 연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법 - Google Patents

연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법 Download PDF

Info

Publication number
KR20000026814A
KR20000026814A KR1019980044518A KR19980044518A KR20000026814A KR 20000026814 A KR20000026814 A KR 20000026814A KR 1019980044518 A KR1019980044518 A KR 1019980044518A KR 19980044518 A KR19980044518 A KR 19980044518A KR 20000026814 A KR20000026814 A KR 20000026814A
Authority
KR
South Korea
Prior art keywords
word
morpheme
tree
functional
content
Prior art date
Application number
KR1019980044518A
Other languages
English (en)
Inventor
권오욱
박준
황규웅
Original Assignee
정선종
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정선종, 한국전자통신연구원 filed Critical 정선종
Priority to KR1019980044518A priority Critical patent/KR20000026814A/ko
Publication of KR20000026814A publication Critical patent/KR20000026814A/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/148Duration modelling in HMMs, e.g. semi HMM, segmental models or transition probabilities

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야
본 발명은 어절 분리방법 및 그를 이용한 음성 인식방법에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은, 음성인식시스템에서 인식대상 어휘를 의사형태소단위 인식에 적합한 내용어와 기능어 부트리로 분리하고 통계적 언어모델과 함께 어절 형성규칙을 동시에 사용하므로써, 언어모델 적용이 편리하고 음성 인식률을 향상시키기 위한 어절 분리방법 및 그를 이용한 음성 인식방법을 제공하고자 함.
3. 발명의 해결방법의 요지
본 발명은, 인식대상 어휘를 의사형태소로 분리하여 복합어로 해석된 의사형태소를 따로 분리하는 단계; 어절 끝 단음소 형태소를 앞 형태소의 뒤에 붙이고, 나머지 단음소 형태소들을 뒤 형태소의 앞에 연결하여 새로운 형태소를 생성하는 단계; 및 기능어로 사용되는 첫 번째 형태소의 위치를 찾아 첫 번째 기능어의 위치로부터 그 이후의 형태소를 연결하여 기능어의 이름으로 사용하고, 첫 번째 기능어의 위치로부터 그 이후의 형태소의 태그를 연결하여 새로운 품사로 사용하는 단계를 포함함.
4. 발명의 중요한 용도
본 발명은 음성인식시스템 등에 이용됨.

Description

연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법
본 발명은 음성인식시스템에서 한국어나 일본어 등과 같이 조사 및 어미의 활용이 다양한 언어의 연속적인 음성인식을 효율적으로 수행하기 위해, 인식대상 어휘를 의사형태소단위 인식에 적합한 내용어와 기능어 부트리로 분리하고 통계적 언어모델과 함께 어절 형성규칙을 동시에 사용하므로써, 언어모델 적용이 편리하고 인식오류를 줄여 음성 인식률을 향상시킬 수 있는 어절 분리방법 및 그를 이용한 음성 인식방법에 관한 것이다.
도 1 은 일반적인 연속 음성인식시스템의 구성 예시도로서, 현재 널리 쓰이고 있는 트리 기반의 인식기 구조를 나타낸다.
일반적인 연속 음성인식시스템의 구성 및 동작은 당해 분야에서 이미 주지된 기술에 지나지 아니하므로 여기에서는 그에 관한 자세한 설명한 생략하기로 한다. 다만, 입력된 음성에 대해 음성인식 기능을 수행하는 과정에 대해 간략히 설명한다.
일반적인 연속 음성인식시스템에 있어서, 입력된 음성은 특징추출부(101)에서 인식에 유용한 정보만을 추출한 특징벡터로 변환되고, 이러한 특징벡터로부터 탐색부(102)에서 학습과정에서 미리 구해진 음향모델 데이터베이스(104)와 발음사전 데이터베이스(105), 언어모델 데이터베이스(106)를 이용하여 가장 확률이 높은 단어열을 비터비 알고리듬을 이용하여 찾게 된다. 여기서, 대어휘 인식을 위하여 인식 대상 어휘들은 트리를 구성하고 있으며, 탐색부(102)는 이러한 트리를 탐색한다.
마지막으로, 후처리부(103)에서는 탐색 결과로부터 잡음기호 등을 제거하고, 음절단위로 모아쓰기를 하여 최종 인식결과(즉, 텍스트)를 출력한다.
종래의 연속 음성인식시스템에서는 연속 음성을 인식하기 위하여 인식 대상 어휘를 하나의 커다란 트리(Tree)로 구성하여 비터비(Viterbi) 알고리듬을 이용하여 탐색하였다. 이러한 구조를 갖는 종래의 탐색 방법에서는 언어모델 및 단어 삽입 벌점이 트리의 잎사귀 노드(Leaf Node)로부터 트리의 루트(Root)로의 천이시에 조사나 어미 활용이 있는 어절에 대해서도 적용되기 때문에 어절 형성 규칙과 같은 부가 정보 활용 및 고품위 언어모델 적용이 어려운 단점이 있었다. 이러한 문제점을 도 2를 참조하여 보다 구체적으로 설명한다.
도 2 는 종래 탐색 트리의 예시도로서, 도면에서 "201"은 루트 노드, "202"는 잎사귀 노드, "203"은 일반 노드, 및 "204"는 단어간 천이를 각각 나타낸다. 여기서는, 인식 대상 어휘가 "사과", "사람", "이것", "이고", "입니다"인 경우에 탐색 트리의 예를 나타낸 것이다.
도 2를 참조하면, 인식 대상 어휘는 모두 하나의 가상적인 루트 노드(201)에 연결된 형태를 갖는다.
따라서, 음성 입력이 들어오면, 매 프레임마다 트리의 모든 모드에서의 확률값을 계산한 후에, 각 노드로 들어오는 천이들중에서 가장 확률이 높은 천이만을 남긴다. 여기서, 잎사귀 노드(202)에서 루트 노드(201)로의 천이는 단어가 변경되므로 단어간의 연결을 제한하기 위하여 언어모델 데이터베이스(106)가 적용된다.
언어모델 데이터베이스(106)에는 현재 단어 다음에 어떤 단어가 나타날 확률 정보가 실리는데, 예를 들면 "이것" 다음에 "사람"이라는 단어가 올 확률보다는 "사과"라는 단어가 올 확률이 높으므로 이러한 정보를 확률값으로 미리 구한 후에, 탐색부(102)에서 이를 이용하게 된다.
일반적으로, 연속 음성인식에서는 음소 개수가 적은 단어들로 인식이 잘 되는 경향이 있어서, 이를 막기 위하여 단어간의 천이시에 일정한 값의 단어 삽입 벌점을 부가하여 인식문장에서 인식 단어의 개수를 조절하도록 되어 있다.
도 2에 도시된 바와 같이, 하나를 트리를 이용한 종래의 음성 인식방법은 모든 단어들을 같은 방식으로 처리하기 때문에, 한국어에서와 같이 명사+조사 또는 용언어간+어미로 이루어지는 어절이 입력되면 모든 단어간 천이시에, 단어 삽입 벌점이 부가되므로 입력음성이 명사+조사 또는 용언어간+어미로 인식되기보다는 하나의 단어로 인식되는 문제점이 있었다.
상기 문제점을 해결하기 위하여 안출된 본 발명은, 음성인식시스템에서 인식대상 어휘를 의사형태소단위 인식에 적합한 내용어와 기능어 부트리로 분리하고 통계적 언어모델과 함께 어절 형성규칙을 동시에 사용하므로써, 탐색모듈의 실행속도를 향상시키며, 언어모델 적용이 편리하고 인식오류를 줄여 음성 인식률을 향상시키기 위한 어절 분리방법 및 그를 이용한 음성 인식방법을 제공하는데 그 목적이 있다.
도 1 은 일반적인 연속 음성인식시스템의 구성 예시도.
도 2 는 종래 탐색 트리의 예시도.
도 3 은 본 발명에 따른 어절 분리방법에 대한 일실시예 흐름도.
도 4 는 본 발명에 따른 탐색 트리의 구조도.
도 5 는 본 발명에 따른 탐색 트리의 구성 예시도.
도 6 은 본 발명에 이용되는 인식용 사전 데이터베이스의 구성 예시도.
도 7 은 본 발명에 따른 음성 인식방법에 대한 일실시예 흐름도.
* 도면의 주요 부분에 대한 부호의 설명
101 : 특징추출부 102 : 탐색부
103 : 후처리부 104 : 음향모델 데이터베이스
105 : 발음사전 데이터베이스 106 : 언어모델 데이터베이스
상기 목적을 달성하기 위하여 본 발명은, 음성인식시스템에 적용되는 어절의 분리방법에 있어서, 입력되는 음성의 인식대상 어휘를 의사형태소로 분리하여 복합어로 해석된 의사형태소를 따로 분리하는 제 1 단계; 어절 끝에 위치하는 단음소 형태소를 앞 형태소의 뒤에 붙이고, 나머지 단음소 형태소들에 대해 뒤 형태소의 앞에 연결하여 새로운 형태소를 생성하는 제 2 단계; 및 기능어로 사용되는 첫 번째 형태소의 위치를 찾아 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소를 연결하여 기능어의 이름으로 사용하고, 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소의 태그를 연결하여 새로운 품사로 사용하는 제 3 단계를 포함한다.
상기 목적을 달성하기 위하여 본 발명은, 음성인식시스템에 적용되는 음성 인식방법에 있어서, 음성이 입력되면, 입력된 음성의 어절을 내용어와 기능어로 분리하여 내용어 트리와 기능어 트리로 분리하여 탐색트리를 구성하는 제 1 단계; 상기 내용어 트리에서 기능어 트리로의 천이시에 형태소 단위의 언어모델 및 어절을 형성하는 규칙을 적용하고, 상기 기능어 트리에서 상기 내용어 트리로의 천이시에 내용어 언어모델과 단어삽입 벌점을 적용하는 제 2 단계; 및 입력이 완료되면, 문장끝을 가리키는 상태로부터 역추적을 통하여 인식문장을 찾는 제 3 단계를 포함한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.
도 3 은 본 발명에 따른 어절 분리방법에 대한 일실시예 흐름도이다.
본 발명에서는 한국어의 어절이 내용어와 기능어로 이루어진다는 사실을 이용하여 탐색모듈의 실행속도를 향상시키고, 통계적 언어모델과 함께 어절 형성 규칙을 동시에 사용한다. 즉, 본 발명은 한국어나 일본어와 같이 조사 및 어미의 활용이 다양한 언어의 연속적인 음성인식에 있어서, 인식 대상 어휘를 명사, 용언의 어간, 독립언, 잡음 등과 같이 내용어로 사용될 수 있는 단어들로만 구성된 내용어 탐색 부트리(Subtree)와, 조사나 어미 등와 같이 내용어에 부속되어 사용되는 기능어들만으로 구성된 기능어 탐색 부트리를 구성한다.
도 3에 도시된 바와 같이, 본 발명에 따른 입력되는 음성의 어절을 내용어와 기능어로 분리하기 위한 어절 분리방법은, 먼저 의사형태소 해석기를 이용하여 입력된 문장을 의사형태소로 분리한다(301). 여기서, 의사형태소는 주어진 어절의 소리값을 유지하는 범위내에서의 언어학적인 형태소를 의미한다. 즉, 분리된 형태소들의 단순 결합에 의해서 원래의 소리값을 찾을 수 있음을 의미한다.
의사형태소는 일반적인 형태소와 매우 유사하나, 형태소의 분리에 있어서 소리값이 유지된다는 점이 매우 다르다. 따라서, 의사형태소는 하나의 어절에 대해서 3개 이상의 형태소로 분리되는 경우도 있는데, 예를 들면 "써서"라는 어절은 일반적인 형태소에서는 "쓰+어서"로 분리되나, 의사형태소에서는 "써/pvg(EU1)+서"로 분리된다.
따라서, 복합어로 해석된 의사형태소를 따로 분리한다(502).
다음으로, 단음소의 형태소는 음성길이가 짧기 때문에 인식오류를 일으킬 수 있으므로, 단음소로 이루어진 형태소가 존재하는지를 분석한다(303).
단음소 형태소에 대해, 단음소 형태소가 어절끝에 위치하거나(명사형 어미)인지를 검사하여(304), 단음소 형태소가 어절끝에 위치하거나(명사형 어미)이면 앞 형태소의 뒤에 연결하여 새로운 형태소로 만들고(505), 그렇지 않으면 뒤 형태소의 앞에 연결하여 새로운 형태소를 만든다(506). 이후에, 기능어로 사용되는 첫 번째 형태소의 위치를 찾는다(307). 즉, 조사나 어미 부분에 해당하는 형태소들을 모아서 하나의 인식단위로 연결하고 그 품사를 각 형태소 품사의 모든 연결로서 정의(본 실시예에서는 제일 앞 형태소 품사와 제일 마지막 형태소 품사의 결합으로 정의)하며, 이를 바탕으로 한 품사언어모델을 적용한다.
단음소 형태소를 처리한 후에(303 내지 306), 기능어로 사용되는 첫 번째 형태소의 위치를 찾는다(307). 이때, 단어 길이가 1글자 이상이고 보조용언(가다, 보다, 싶다, 하다, 등)의 어간인 형태소는 기능어로 간주한다. 이것은 한국어에서 빈도가 많으며, 단음절이기 때문에 많은 인식오류를 야기하기 때문이다.
마지막으로, 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소를 연결하여 기능어의 이름으로 사용하고(308), 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소의 태그를 연결하여 새로운 품사로 사용한다(309). 즉, 의사형태소 품사를 붙인 발음사전을 사용하고, 태그가 붙은 인식결과를 얻은 후에, 조사, 어미, 접미사의 태그가 붙은 형태소를 앞의 형태소에 붙여쓰기 하므로써 어절단위 띄어쓰기가된 인식문장을 얻는다.
도 4 는 본 발명에 따른 탐색 트리의 구조도로서, 도면에서 "41"은 내용어 트리 및 "42"는 기능어 트리를 각각 나타낸다.
도 4를 참조하면, 본 발명에 따른 탐색 트리는, 한국어의 어절을 내용어와 기능어로 분리하여 내용어들을 포함하는 내용어 트리(41)와 기능어 트리(42)로 분리하여 탐색 트리를 구성한다. 여기서, 내용어 트리(41)는 용언(411), 명사(412), 독립언(즉, 부사, 감탄사) 및 잡음(즉, 기침소리, 숨소리 등)(413) 등의 단어로 구성된다. 그리고, 기능어 트리(42)는 어미(421), 조사 및 접미사(422) 등으로 구성되며, 기능어는 생략될 수도 있다.
도 4에 도시된 바와 같이, 음성이 입력되면 문장 시작 상태로 들어가, 내용어 트리(41)에서 기능어 트리(42)로의 천이시에는 형태소 단위의 언어모델이 적용되며, 한국어의 어절을 형성하는 규칙이 적용된다. 그리고, 기능어 트리(42)에서 내용어 트리(41)로의 천이시에는 내용어 언어모델과 단어 삽입 벌점이 적용된다. 여기서, 내용어 언어모델은 내용어들간의 연결관계를 나타내는 정보이다.
입력이 완료되면, 문장 끝을 가리키는 상태로부터 역추적을 통하여 인식문장을 찾아내게 된다.
인식대상 어휘가 "사과", "사람", "이것", "이고", "입니다"인 경우에, 상기한 바와 같은 본 발명에 따른 탐색 트리의 구조를 이용한 탐색 트리의 예가 도 5에 도시되었다.
도 5 는 본 발명에 따른 탐색 트리의 구성 예시도로서, 도면에서 "501"은 내용어 루트 노드, "502"는 기능어 루트 노드, "503"은 잎사귀 노드, "504"는 일반 노드, "505"는 내용어-기능어 천이, "506"은 기능어-내용어 천이, "507"은 내용어-내용어 천이, "508"은 내용어-기능어 천이(506)중 형태소 언어모델 및 어절규칙 적용(508), "509"는 기능어-내용어 천이(506)중 내용어 언어모델 및 단어삽입벌점 적용을 각각 나타낸다.
도 5를 참조하면, 본 발명에 따른 탐색 트리는 상기 도 2에 도시된 종래의 탐색 트리와는 달리, 인식대상 어휘를 명사, 용언의 어간, 독립언, 잡음 등과 같이 내용어로 사용될 수 있는 단어들로만 구성된 내용어 탐색 부트리와, 조사나 어미와 같이 내용어에 부속되어 사용되는 기능어들로만 구성된 기능어 탐색 부트리로 구성되어, 인식대상 어휘가 "사과", "사람", "이것", "이고", "입니다"인 경우에, 내용어와 기능어로 분리된 탐색 트리의 구조를 갖는다. 여기서, 단어간의 천이는 잎사귀 노드(503)로부터 루트 노드(501)로의 천이를 의미한다.
도 6 은 본 발명에 이용되는 인식용 사전 데이터베이스의 구성 예시도이다.
도 6에 도시된 바와 같이, 확장의사형태소단위 인식기에서 사용되는 발음사전은 일반적인 인식기에서의 발음사전과 유사하다.
그러나, 동일한 이름을 갖는 확장의사형태소는 복수의 품사를 가질 수 있으며, 하나의 내용어도 뒤에 나타나는 조사나 어미에 따라서 발음이 달라지는 경우가 있으므로 이를 고려한 다중발음사전이 필요하다.
도 6을 참조하면, 첫 번째 열은 인식용 사전의 표제어이며, 그 다음은 표제어에 대한 발음을 나타낸다. 예를 들면,에서는 기능어의 이름이며, "ef"는 태그(종결형어미)를 나타낸다.
발음사전 데이터베이스(105)에서는 태그를 사용하므로써, 인식결과로 얻은 의사형태소들을 결합하여 어절단위로 띄어쓰기가 된 텍스트를 쉽게 얻을 수 있는데, 즉 조사, 어미, 접미사로 태그가 붙은 단어들은 앞의 형태소에 붙여쓰기만 하면 어절단위의 띄어쓰기가 얻어진다. "먹/pvg"은 두가지의 발음을 가지므로 두 번째 발음을 갖는 표제어에 "(2)"라는 다중발음을 나타내는 표시를 추가하여 구분한다. 또한, "하고/px_ecc"는 보조동사 어간(px)과 연결형어미(ecc)가 결합된 형태임을 나타낸다.
본 발명의 인식 사전에 사용되는 단위는 의사형태소의 결합에 의하여 이루어지는 확장된 의사형태소이다.
최종 인식결과에서는 다중발음 표시 기호와 태그를 제거한다.
도 7 은 본 발명에 따른 음성 인식방법에 대한 일실시예 흐름도이다.
도 7에 도시된 바와 같이, 본 발명에 따른 음성 인식방법은, 먼저 음성이 입력되면(701), 입력된 음성의 어절을 내용어와 기능어로 분리하여(702) 내용어 트리(41)와 기능어 트리(42)로 분리하여 탐색트리를 구성한다(703). 여기서, 내용어 트리(41)는 용언(411), 명사(412), 독립언(즉, 부사, 감탄사) 및 잡음(즉, 기침소리, 숨소리 등)(413) 등의 단어로 구성되고, 기능어 트리(42)는 어미(421), 조사 및 접미사(422) 등으로 구성되며, 기능어는 생략될 수도 있다.
이후, 내용어 트리(41)에서 기능어 트리(42)로의 천이시에 형태소 단위의 언어모델이 적용되며, 현재의 인식단어와 이전의 인식단어의 품사에 따라서 한국어의 어절을 형성하는 규칙을 적용한다(704). 또한, 기능어 트리(42)에서 내용어 트리(41)로의 천이시에는 내용어 언어모델과 현재의 인식단어와 이전의 인식단어의 품사에 따라서 단어삽입 벌점이 다르게 적용한다(705).
다음으로, 입력이 완료되면 문장끝을 가리키는 상태로부터 역추적을 통하여 인식문장을 찾는다(706).
이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
상기한 바와 같은 본 발명은, 탐색트리로 내용어와 기능어로 구성된 두 개의 부탐색 트리를 사용하므로써, 어절 형성 규칙의 적용 및 선택적인 단어 삽입 벌점의 적용이 용이하고, 또한 단어단위의 언어모델, 품사 언어모델, 어절간 언어모델, 내용어간 언어모델과 같이 다양한 고품위 언어모델의 적용이 용이하다. 또한, 본 발명은 언어모델이나 단어 삽입 벌점의 선택적 적용시에, 기능어만에 대하여 적용이 가능하므로 인식시간이 빨라지며, 고품위 언어모델의 적용으로 음성의 인식률을 향상시킬 수 있는 효과가 있다.

Claims (8)

  1. 음성인식시스템에 적용되는 어절의 분리방법에 있어서,
    입력되는 음성의 인식대상 어휘를 의사형태소로 분리하여 복합어로 해석된 의사형태소를 재분리하는 제 1 단계;
    어절 끝에 위치하는 단음소 형태소를 앞 형태소의 뒤에 붙이고, 나머지 단음소 형태소들에 대해 뒤 형태소의 앞에 연결하여 새로운 형태소를 생성하는 제 2 단계; 및
    기능어로 사용되는 첫 번째 형태소의 위치를 찾아 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소를 연결하여 기능어의 이름으로 사용하고, 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소의 태그를 연결하여 새로운 품사로 사용하는 제 3 단계
    를 포함하여 이루어진 어절 분리방법.
  2. 제 1 항에 있어서,
    상기 제 2 단계의 단음소 형태소는,
    명사형 어미()를 포함하는 단음소 형태소인 것을 특징으로 하는 어절 분리방법.
  3. 제 2 항에 있어서,
    상기 제 2 단계는,
    조사나 어미 부분에 해당하는 형태소들을 모아서 하나의 인식단위로 연결하고, 그 품사를 제일 앞 형태소 품사와 제일 마지막 형태소 품사의 결합으로 정의하여 이를 바탕으로 한 품사언어모델을 적용하는 것을 특징으로 하는 어절 분리방법.
  4. 제 1 항 내지 제 3 항중 어느 한 항에 있어서,
    상기 제 3 단계는,
    의사형태소 품사를 붙인 발음사전을 사용하여 태그가 붙은 인식결과를 얻은 후에, 조사, 어미, 접미사의 태그가 붙은 형태소를 앞의 형태소에 붙여쓰기 하므로써, 어절단위 띄어쓰기가 된 인식문장을 얻는 것을 특징으로 하는 어절 분리방법.
  5. 음성인식시스템에 적용되는 음성 인식방법에 있어서,
    음성이 입력되면, 입력된 음성의 어절을 내용어와 기능어로 분리하여 내용어 트리와 기능어 트리로 분리하여 탐색트리를 구성하는 제 1 단계;
    상기 내용어 트리에서 기능어 트리로의 천이시에 형태소 단위의 언어모델 및 어절을 형성하는 규칙을 적용하고, 상기 기능어 트리에서 상기 내용어 트리로의 천이시에 내용어 언어모델과 단어삽입 벌점을 적용하는 제 2 단계; 및
    입력이 완료되면, 문장끝을 가리키는 상태로부터 역추적을 통하여 인식문장을 찾는 제 3 단계
    를 포함하여 이루어진 음성 인식방법.
  6. 제 5 항에 있어서,
    상기 제 1 단계의 어절을 내용어와 기능어로 분리하는 과정은,
    입력되는 음성의 인식대상 어휘를 의사형태소로 분리하여 복합어로 해석된 의사형태소를 따로 분리하는 제 4 단계;
    어절 끝에 위치하는 단음소 형태소를 앞 형태소의 뒤에 붙이고, 나머지 단음소 형태소들에 대해 뒤 형태소의 앞에 연결하여 새로운 형태소를 생성하는 제 5 단계; 및
    기능어로 사용되는 첫 번째 형태소의 위치를 찾아 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소를 연결하여 기능어의 이름으로 사용하고, 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소의 태그를 연결하여 새로운 품사로 사용하는 제 6 단계
    를 포함하여 이루어진 음성 인식방법.
  7. 프로세서를 구비한 음절 분리장치에,
    입력되는 음성의 인식대상 어휘를 의사형태소로 분리하여 복합어로 해석된 의사형태소를 따로 분리하는 기능;
    어절 끝에 위치하는 단음소 형태소를 앞 형태소의 뒤에 붙이고, 나머지 단음소 형태소들에 대해 뒤 형태소의 앞에 연결하여 새로운 형태소를 생성하는 기능; 및
    기능어로 사용되는 첫 번째 형태소의 위치를 찾아 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소를 연결하여 기능어의 이름으로 사용하고, 첫 번째 기능어의 위치로부터 그 이후에 나타나는 형태소의 태그를 연결하여 새로운 품사로 사용하는 기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  8. 프로세서를 구비한 음성 인식장치에,
    음성이 입력되면, 입력된 음성의 어절을 내용어와 기능어로 분리하여 내용어 트리와 기능어 트리로 분리하여 탐색트리를 구성하는 기능;
    상기 내용어 트리에서 기능어 트리로의 천이시에 형태소 단위의 언어모델 및 어절을 형성하는 규칙을 적용하고, 상기 기능어 트리에서 상기 내용어 트리로의 천이시에 내용어 언어모델과 단어삽입 벌점을 적용하는 기능; 및
    입력이 완료되면, 문장끝을 가리키는 상태로부터 역추적을 통하여 인식문장을 찾는 기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1019980044518A 1998-10-23 1998-10-23 연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법 KR20000026814A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980044518A KR20000026814A (ko) 1998-10-23 1998-10-23 연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980044518A KR20000026814A (ko) 1998-10-23 1998-10-23 연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법

Publications (1)

Publication Number Publication Date
KR20000026814A true KR20000026814A (ko) 2000-05-15

Family

ID=19555122

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980044518A KR20000026814A (ko) 1998-10-23 1998-10-23 연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법

Country Status (1)

Country Link
KR (1) KR20000026814A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100484493B1 (ko) * 2002-12-12 2005-04-20 한국전자통신연구원 다중 발음사전을 이용한 대화체 연속 음성인식 시스템 및방법
US8356032B2 (en) 2006-02-23 2013-01-15 Samsung Electronics Co., Ltd. Method, medium, and system retrieving a media file based on extracted partial keyword
KR101383552B1 (ko) * 2013-02-25 2014-04-10 미디어젠(주) 다중 명령어가 포함된 단일 문장의 음성인식방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100484493B1 (ko) * 2002-12-12 2005-04-20 한국전자통신연구원 다중 발음사전을 이용한 대화체 연속 음성인식 시스템 및방법
US8356032B2 (en) 2006-02-23 2013-01-15 Samsung Electronics Co., Ltd. Method, medium, and system retrieving a media file based on extracted partial keyword
KR101383552B1 (ko) * 2013-02-25 2014-04-10 미디어젠(주) 다중 명령어가 포함된 단일 문장의 음성인식방법
WO2014129856A1 (ko) * 2013-02-25 2014-08-28 미디어젠(주) 다중 명령어가 포함된 단일 문장의 음성인식방법

Similar Documents

Publication Publication Date Title
CN109635270B (zh) 双向概率性的自然语言重写和选择
JP5040909B2 (ja) 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム
CN105957518B (zh) 一种蒙古语大词汇量连续语音识别的方法
US6067520A (en) System and method of recognizing continuous mandarin speech utilizing chinese hidden markou models
Arisoy et al. Turkish broadcast news transcription and retrieval
US5875426A (en) Recognizing speech having word liaisons by adding a phoneme to reference word models
Wang et al. MUXING: a telephone-access Mandarin conversational system.
Prochazka et al. Performance of Czech Speech Recognition with Language Models Created from Public Resources.
KR100509917B1 (ko) 어절 엔-그램을 이용한 띄어쓰기와 철자 교정장치 및 방법
Wang et al. RNN-based prosodic modeling for mandarin speech and its application to speech-to-text conversion
Hillard et al. Impact of automatic comma prediction on POS/name tagging of speech
Wang et al. Evaluation of spoken language grammar learning in the ATIS domain
KR20000026814A (ko) 연속 음성인식을 위한 어절 분리방법 및 그를 이용한 음성 인식방법
KR100484493B1 (ko) 다중 발음사전을 이용한 대화체 연속 음성인식 시스템 및방법
Fetter Detection and transcription of OOV words
Kirchhoff et al. Cross-dialectal acoustic data sharing for Arabic speech recognition
KR100202292B1 (ko) 한문어 문서 음성 변환 시스템을 위한 문서 분석기
JP2003162524A (ja) 言語処理装置
KR20040018008A (ko) 품사 태깅 장치 및 태깅 방법
JP2001188556A (ja) 音声認識方法及び装置
JPH11338863A (ja) 未知名詞および表記ゆれカタカナ語自動収集・認定装置、ならびにそのための処理手順を記録した記録媒体
JPS6229796B2 (ko)
Sertsi et al. Hybrid input-type recurrent neural network language modeling for end-to-end speech recognition
Bisazza et al. Building a Turkish ASR system with minimal resources
Guijarrubia et al. Morpheme-based automatic speech recognition of basque

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application