KR100736496B1 - performance improvement method of continuation voice recognition system - Google Patents

performance improvement method of continuation voice recognition system Download PDF

Info

Publication number
KR100736496B1
KR100736496B1 KR1020010036476A KR20010036476A KR100736496B1 KR 100736496 B1 KR100736496 B1 KR 100736496B1 KR 1020010036476 A KR1020010036476 A KR 1020010036476A KR 20010036476 A KR20010036476 A KR 20010036476A KR 100736496 B1 KR100736496 B1 KR 100736496B1
Authority
KR
South Korea
Prior art keywords
speech recognition
recognition
words
word
continuous speech
Prior art date
Application number
KR1020010036476A
Other languages
Korean (ko)
Other versions
KR20030001668A (en
Inventor
김훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020010036476A priority Critical patent/KR100736496B1/en
Publication of KR20030001668A publication Critical patent/KR20030001668A/en
Application granted granted Critical
Publication of KR100736496B1 publication Critical patent/KR100736496B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/083Recognition networks

Abstract

본 발명은 대어휘 한국어 연속 음성인식시 인식 단어간 음소 변이 네트워크를 이용하는 연속 음성인식기의 성능 개선 방법에 관한 것으로, 입력수단을 통해 음성을 입력하는 단계와, 상기 입력음성을 트라이폰 열로 구성하는 단계와, 상기 트라이폰열로부터 인접하는 단어에 따라 발음이 변화하는 모든 경우를 표현하고 있는 사전을 이용하여 음성인식을 수행하는 단계로 이루어져 전자사전 소프트웨어, 대화체 처리, 이메일 작성등 연속음성 인식이 필요한 모든 분야에 적용할 경우 인식 성능 향상 효과를 볼 수 있은 음성인식 방법을 제공하기 위한 것이다.
The present invention relates to a method of improving the performance of a continuous speech recognizer using a phonetic variation network between words recognized during a large vocabulary Korean continuous speech recognition, comprising the steps of: inputting a voice through an input means; And performing speech recognition using a dictionary that expresses all cases of pronunciation changes according to adjacent words from the triphone sequence. All fields requiring continuous speech recognition such as electronic dictionary software, conversation processing, and e-mail creation The present invention is to provide a speech recognition method that can improve the recognition performance when applied to.

음성인식, 트라이폰Voice recognition, triphone

Description

연속 음성인식기의 성능 개선 방법 {performance improvement method of continuation voice recognition system} Performance improvement method of continuation voice recognition system             

도1은 일반적인 연속 음성인식 시스템의 구성도1 is a block diagram of a general continuous speech recognition system

도2는 본 발명 음성인식 동작 플로우챠트
2 is a flowchart of a voice recognition operation of the present invention.

********* 도면 주요 부분에 대한 부호의 설명 ***************** Explanation of symbols for the main parts of the drawing ********

10 : 특징 추출부 20 : 탐색부10: feature extraction unit 20: search unit

30 : 후 처리부 40 : 음향모델 데이터베이스30: post processing unit 40: acoustic model database

50 : 발음사전 데이터베이스 60 : 언어모델 데이터베이스
50: Pronunciation dictionary database 60: Language model database

본 발명은 한국어 연속 음성 인식에 관한 것으로 특히 대어휘 한국어 연속 음성인식시 인식 단어간 음소 변이 네트워크를 이용하는 연속 음성인식기의 성능 개선 방법에 관한 것이다. 본 발명은 특히 전자사전 소프트웨어, 대화체 처리, 이메일 작성등 연속음성 인식이 필요한 모든 분야에 적용할 경우 인식 성능 향상 효과를 볼 수 있은 음성인식 방법을 제공한다. The present invention relates to Korean continuous speech recognition, and more particularly, to a method for improving the performance of a continuous speech recognizer using a phonetic variation network between words recognized during Korean Vocabulary continuous speech recognition. The present invention particularly provides a speech recognition method that can improve the recognition performance when applied to all fields that require continuous speech recognition, such as electronic dictionary software, conversation processing, e-mail writing.

일반적으로 대어휘 한국어 연속음성을 인식하는 데는 한국어의 언어적인 특성에 의하여 몇 가지 문제가 발생하게 된다. 한국어는 문장이 어절단위로 나누어지고 용언이 다양하게 활용되는데 이것을 모두 다른 어휘로 할 경우 인식해야 할 대상 어휘의 수가 몇 배로 증가하게 된다. 따라서 대부분의 한국어 연속음성 인식 시스템은 제한된 영역의 문장만을 대상으로 하여 왔다. 이와 같이 인식영역을 제한하지 않고 인식 대상 어휘의 수를 처리 가능한 수준으로 줄이기 위해서는 의미를 가지는 최소 단위인 형태소로 어절을 세분할 필요가 있게 되는 것이다. 그런데 형태소를 인식단위로 할 경우 인식 대상 단어의 길이가 짧아져 서로간의 변별력이 떨어지고 문장내의 단어의 수가 많아져 단어간 음운 변화의 영향 을 많이 받으므로 인식기의 성능이 저하하게 되는 문제점이 발생하게 된다. 따라서 이러한 단점을 보완하기 위하여 두개의 형태소 단위가 이어질 때 발생하는 발음 변이를 모두 표현함으로써 형태소 단위로 분리 되기 이전의 어절단위 발음 열과 같은 인식 효과를 얻을 수 있는 방법이 필요하게 되었다.
In general, there are some problems in recognizing large vocabulary Korean continuous speech due to the linguistic characteristics of Korean. In Korean, sentences are divided into word units and verbs are used in various ways. If all of them are used in different words, the number of words to be recognized increases several times. Therefore, most Korean continuous speech recognition systems have only targeted a limited range of sentences. As such, in order to reduce the number of words to be recognized to a level that can be processed without restricting the recognition area, it is necessary to subdivide the word into morphemes, which are the minimum units having meanings. However, when the morpheme is used as a recognition unit, the length of the words to be recognized is shortened, so that the discriminating power between each other decreases, and the number of words in the sentence increases, which is affected by phonological changes between words. . Therefore, in order to make up for the shortcomings, there is a need for a method of obtaining a recognition effect such as a pronunciation string before being separated into morpheme units by expressing all the phonetic variations occurring when two morpheme units follow each other.

본 발명은 종래 기술의 이러한 문제점을 해결하기 위하여 발음 사전을 증가 시키지 않고 모든 일상적인 문장을 인식하는 데 그 목적이 있다. 본 발명의 또 다른 목적은 인접 단어간의 발음변환이 규칙에 의해 자동적으로 적용되도록 하는데 있다. 이러한 본 발명의 목적을 이루기 위한 제 1 특징에 따르면, 인식 대상 단어간 음소 변이를 반영하는 것이며, 본 발명의 제 2 특징은 인접하는 단어에 따라 발음이 변하는 모든 경우를 표현하는 데 있다. 본 발명의 제 3 특징은 모든 음소가 인접할 때 변화하는 형태가 표의 형태로 규칙화 되어 발음 사전의 작성에 이용되도록 하는데 있다. 본 발명의 다른 목적이나 특징은 이하 설명하는 바람직한 실시예에 의해서 명백히 들어날 것이다.
The present invention aims to recognize all everyday sentences without increasing the pronunciation dictionary in order to solve this problem of the prior art. It is still another object of the present invention to have a phonetic transformation between adjacent words be automatically applied by a rule. According to the first feature for achieving the object of the present invention, the phoneme variation between the words to be recognized is reflected, and the second feature of the present invention is to represent all cases where the pronunciation changes according to the adjacent words. The third feature of the present invention is that the form that changes when all the phonemes are adjacent is regularized in the form of a table so that it can be used for the preparation of the pronunciation dictionary. Other objects and features of the present invention will be apparent from the preferred embodiments described below.

이하 본 발명의 바람직한 실시예에 대하여 설명하면 다음과 같다. Hereinafter, a preferred embodiment of the present invention will be described.                     

먼저 이해를 돕기위해 트라이폰에 대하여 설명하면 다음과 같다. 인식 대상인 음소는 좌우에 위치하는 음소에 크게 영향을 받으며, 이러한 영향을 고려하기 위하여 세분화한 인식단위가 트라이폰(Triphone)이다. 트라이폰은 조음화 현상을 모델링(modeling)하는 인식 단위로 큰 장점을 지니지만 일반적으로 그 갯수가 많아 충분히 학습되기 어렵다. 따라서 한정된 학습 데이타를 사용하여 트라이폰과 같은 상세한 인식단위를 학습하려면 학습성의 결여 문제가 발생하게 된다. 학습성 결여 문제를 해결하기 위하여 제안된 방법들로서 문맥 통합, 보간법, 인식단위 감축 규칙등을 사용하고 있다. First of all, the triphone will be explained as follows. The phonemes to be recognized are greatly influenced by the phonemes located on the left and right, and the triphone is a subdivided recognition unit to consider these effects. Triphones have great advantages as recognition units for modeling articulation phenomena, but they are generally difficult to learn enough because of their number. Thus, learning a detailed recognition unit such as a triphone using limited learning data causes a problem of lack of learning. In order to solve the problem of lack of learning, the proposed methods use context integration, interpolation and recognition unit reduction rule.

도1은 일반적인 연속 음성인식 시스템의 구성 예시도로서 그 동작을 설명하면 다음과 같다. 입력된 음성은 특징 추출부(10)에서 인식에 필요한 정보만을 추출한 특징 벡터로 변환되고, 상기 특징 벡터로 부터 탐색부(20)에서 학습과정에서 미리 구해진 음향 모델 데이터베이스(40)와 발명 사전 데이터베이스(50), 언어 모델 데이터베이스(60)를 이용하여 가장 확률이 높은 단어열을 찾게 된다. 이때 대어휘 인식을 위하여 인식 대상 어휘들은 트리를 구성하고 있으며, 탐색부(20)에서 이러한 트리를 탐색하게 된다. 그 다음으로 후처리부 (30)에서는 탐색 결과로 부터 잡음 기호등을 제거하고, 음절단위로 모아쓰기를 하여 최종 인식 결과출력하는 것이다. 이러한 연속음성인식 시스템의 본 발명의 동작 이해를 돕기 위하여 설명한 것으로, 그 구성은 본 발명에서 그대로 적용될 수 있으며, 필요에 따라 어떠한 변경도 가능하다. 1 is an exemplary configuration diagram of a general continuous speech recognition system. The input voice is converted into a feature vector from which only the information necessary for recognition is extracted by the feature extractor 10, and the sound model database 40 and the invention dictionary database previously obtained in the learning process from the searcher 20 from the feature vector. 50), the language model database 60 is used to find the most likely word string. At this time, the recognition target vocabularies form a tree for the recognition of the large vocabulary, and the search unit 20 searches for the tree. After that, the post-processing unit 30 removes the noise symbol from the search result, collects it in syllable units, and outputs the final recognition result. As described in order to help understand the operation of the present invention of the continuous speech recognition system, the configuration can be applied as it is in the present invention, and any changes can be made as necessary.                     

본 발명의 동작을 도2 내지 도 5를 참조하여 설명하면 다음과 같다. The operation of the present invention will be described with reference to FIGS. 2 to 5 as follows.

음성을 인식하기 위해서는 어휘를 음소의 열로 표현한 사전이 필요하다. 예를 들어 "한국" 이라는 단어를 인식할 때는 <도2>과 같이 단어를 트라이폰의 열로 구성하여 인식할 수 있다. 연속 음성인식의 경우에는 단어가 연결될 때 단어 경계에서 이웃하는 단어의 영향을 받아 음가가 변하므로 <도3>과 같이 단어의 양 끝에서도 좌우 문맥을 고려한 트라이폰을 사용해야 한다. 그런데, 단어가 연결되어 발음될 때, 단어의 경계에 잇는 음소들은 인접한 단어에 영향을 받아 다른 음소로 변하게 된다. In order to recognize a voice, a dictionary that expresses a vocabulary with a phoneme column is required. For example, when recognizing the word "Korea", it can be recognized by configuring the word as a triphone column as shown in Figure 2. In the case of continuous speech recognition, when the words are connected, the phonetic value is affected by the neighboring words at the word boundary, so the triphone considering the left and right context should be used at both ends of the word as shown in FIG. However, when words are connected and pronounced, the phonemes at the boundary of the word are changed to other phonemes by being influenced by adjacent words.

"한국"의 경우에 첫번째 음소 "ㅎ"은 앞에 오는 단어에 따라 생략되어 들리지 않게 되기도 하고, "칸국", "탄국", 또는 "판국"으로 발음되기도 한다. 마지막 음소인 "ㄱ"도 마찬가지로 뒤에 따라오는 음소에 따라 경음화 되거나 유성음화 되거나, 또는 "한궁말과 같이"ㅇ"으로 발음 나기도 한다. 따라서 단순히 일반적으로 사용하는 다언간 음소 모델 방법인 <도3>과 같이 단어의 양 끝 음소를 트라이폰으로 바꾸는 것 만으로는 단어간 음소 모델링이 되지 않는다. In the case of "Korea", the first phone "ㅎ" is omitted depending on the preceding word and may not be heard. It may also be pronounced as "Kanguk", "Tanguk", or "Pangguk". The last phone, "a", is similarly pronounced or pronounced according to the phoneme that follows it, or pronounced as "o", as in Korean. Likewise, changing phonemes at both ends of a word to triphone does not model phoneme between words.

<도3>의 경우는 트라이폰(triphone)의 센타폰(center_phone)이 이웃하는 단어에 관계 없이 고정되어 있으므로 인해 실제 발음 나는 현상을 나타내지 못한다. 즉 미국과 한국이 이어질 때 <도3> 에서는 k-h-a가 사용되는데 실제 필요한 트라이폰은 k-h-a가 아니라 k-kh-a 트라이폰이 필요하게 된다.In the case of FIG. 3, the triphone center_phone is fixed irrespective of neighboring words, and thus does not exhibit a pronounced phenomenon. In other words, when the US and Korea are connected, the k-h-a is used in FIG. 3, and the actual triphone is not the k-h-a but the k-kh-a triphone.

본 발명에서는 <도4>와 같이 그래프의 형태로 인접하는 단어에 따라 발음이 변화하는 모든 경우를 표현한다. <도4> 에 서 hx,kh,th, ph는 각각 유성음화된 "ㅎ", "ㅋ", "ㅌ", "ㅍ"을 표현한다. 이러한 사전은 각 단어마다 수작업으로 작성하지 않고, 각 단어의 양 끝에 오는 음소와 인접하게 되는 음소가 주어지면 음운변환 규칙을 이용하여 자동적으로 작성되도록 한다. 즉 모든 음소가 인접할 때 변화하는 형태가 표의 형태로 규칙화 되어 발음 사전의 작성에 이용되는 것이다.In the present invention, as shown in FIG. 4, all cases in which a pronunciation is changed according to adjacent words in the form of a graph are represented. In Fig. 4, hx, kh, th, and ph represent voiced "ㅎ", "ㅋ", "ㅌ", and "ㅍ", respectively. These dictionaries are not created manually for each word, but are automatically created using phonetic conversion rules when a phoneme adjacent to each end of the word is given. That is, the form that changes when all the phonemes are adjacent is regularized in the form of a table and is used for the preparation of the pronunciation dictionary.

인식시에 단어의 양 끝에 있는 트라이폰 들은 문맥에 따라 다른 단어들과 연결된다. <도4>에서 트라이폰 "n-hx-a"로 표기된 노드는 음소 "n"으로 끝나는 단어 다음에 연결된다. 이렇게 모든 단어들을 서로 연결하면 음소의 노드로 이루어진 네트워크가 만들어진다. 각 노드의 링크를 따라가다 보면 형태소들이 연결되어 원래의 어절의 발음열과 같은 음소 열을 얻을 수 있게 되어 어절 단위의 인식기와 같은 효과를 얻을 수 있다. 예를 들어 "한국"이라는 단어가 "이"와 연결되면 "한구기"에 해당하는 음소열이 얻어지고, "말"과 연결되면 "한궁말"에 해당하는 음소열이 얻어지게 되는 것이다.
At recognition, the triphones at either end of a word are linked to other words depending on the context. In Fig. 4, the node labeled triphone "n-hx-a" is connected after the word ending with the phoneme "n". Connecting all the words together creates a network of phoneme nodes. Following the link of each node, the morphemes are connected to obtain a phoneme sequence that is the same as the pronunciation string of the original word. For example, if the word "Korea" is connected with "yi", a phoneme string corresponding to "Hangugi" is obtained, and if it is connected with "horse", a phoneme string corresponding to "Hanggung Horse" is obtained.

이상에서 살펴본 바와 같이 본 발명을 적용할 경우 단어간 음소의 변이가 반영된 네트워크를 이용하여 두개의 형태소 단위가 이어질 때 발생하는 발음 변이를 모두 표현함으로써 어절 단위의 발음 열과 같은 효과를 얻을 수 있으며, 이 방법으로 형태소 단위로 단위로 어절 단위 인식기의 성능을 낼 수 있어 어휘수의 증가 없이 일상적으로 사용되는 대부분의 텍스트를 구성할 수 있는 효과가 있다.
As described above, when the present invention is applied, all the phonetic variations occurring when two morpheme units are connected using a network reflecting the phonetic variations of words can obtain the same effect as the pronunciation string of word units. In this way, the performance of word unit recognizer can be achieved in units of morphemes, and thus, most texts used in daily life can be constructed without increasing the number of words.

Claims (2)

연속 음성 인식 방법에 있어서, 입력수단을 통해 음성을 입력하는 단계와, 상기 입력음성을 트라이폰 열로 구성하는 단계와, 상기 트라이폰열로부터 인접하는 단어에 따라 발음이 변화하는 모든 경우를 표현하고 있는 사전을 이용하여 음성인식을 수행하는 단계로 이루어진 것을 특징으로 하는 연속 음성인식기의 성능 개선 방법.A continuous speech recognition method, comprising: inputting a voice through an input means, constructing the input voice into a triphone sequence, and a dictionary representing all cases in which a pronunciation is changed according to an adjacent word from the triphone sequence Method for improving the performance of the continuous speech recognizer, characterized in that consisting of a step of performing speech recognition using. 제1항에 있어서, 상기 사전은 각 단어의 양 끝에 오는 음소와 인접하게 되는 음소가 주어지면 음운 변환 규칙을 이용하여 자동적으로 작성되는 것을 특징으로 하는 연속 음성인식기의 성능 개선 방법.The method of claim 1, wherein the dictionary is automatically created using a phonological conversion rule when a phoneme adjacent to a phoneme at both ends of each word is given.
KR1020010036476A 2001-06-26 2001-06-26 performance improvement method of continuation voice recognition system KR100736496B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010036476A KR100736496B1 (en) 2001-06-26 2001-06-26 performance improvement method of continuation voice recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010036476A KR100736496B1 (en) 2001-06-26 2001-06-26 performance improvement method of continuation voice recognition system

Publications (2)

Publication Number Publication Date
KR20030001668A KR20030001668A (en) 2003-01-08
KR100736496B1 true KR100736496B1 (en) 2007-07-06

Family

ID=27711096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010036476A KR100736496B1 (en) 2001-06-26 2001-06-26 performance improvement method of continuation voice recognition system

Country Status (1)

Country Link
KR (1) KR100736496B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100443247B1 (en) * 2001-12-26 2004-08-04 주식회사 케이티 Pronunciation modeling system and method of sonorants + /h/ sequences in Korean speech recognition
KR101587866B1 (en) 2009-06-03 2016-01-25 삼성전자주식회사 Apparatus and method for extension of articulation dictionary by speech recognition
KR101250897B1 (en) * 2009-08-14 2013-04-04 한국전자통신연구원 Apparatus for word entry searching in a portable electronic dictionary and method thereof
KR102549465B1 (en) 2016-11-25 2023-06-30 삼성전자주식회사 Electronic Device for Controlling Microphone Parameter
CN112183086A (en) * 2020-09-23 2021-01-05 北京先声智能科技有限公司 English pronunciation continuous reading mark model based on sense group labeling

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970050115A (en) * 1995-12-23 1997-07-29 양승택 Speech Recognition Method of Variation Unit using Korean Variation Grouping Tree
JPH101997A (en) * 1991-08-21 1998-01-06 Toto Ltd Toilet device
JPH101999A (en) * 1996-06-17 1998-01-06 Kyowa Plast Sangyo Kk Coupling flange for toilet stool and connecting structure of the flange and toilet stool
KR19990011913A (en) * 1997-07-25 1999-02-18 구자홍 Continuous Speech Recognition Using Uneven Recognition Units
KR19990017120A (en) * 1997-08-21 1999-03-15 구자홍 How to model speech recognition units for new words
KR19990033536A (en) * 1997-10-24 1999-05-15 정선종 How to Select Optimal Synthesis Units in Text / Voice Converter

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH101997A (en) * 1991-08-21 1998-01-06 Toto Ltd Toilet device
KR970050115A (en) * 1995-12-23 1997-07-29 양승택 Speech Recognition Method of Variation Unit using Korean Variation Grouping Tree
JPH101999A (en) * 1996-06-17 1998-01-06 Kyowa Plast Sangyo Kk Coupling flange for toilet stool and connecting structure of the flange and toilet stool
KR19990011913A (en) * 1997-07-25 1999-02-18 구자홍 Continuous Speech Recognition Using Uneven Recognition Units
KR19990017120A (en) * 1997-08-21 1999-03-15 구자홍 How to model speech recognition units for new words
KR19990033536A (en) * 1997-10-24 1999-05-15 정선종 How to Select Optimal Synthesis Units in Text / Voice Converter

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
10-1997-50115
10-1999-11913
10-1999-17120
10-1999-33536

Also Published As

Publication number Publication date
KR20030001668A (en) 2003-01-08

Similar Documents

Publication Publication Date Title
US7299178B2 (en) Continuous speech recognition method and system using inter-word phonetic information
JP4543294B2 (en) Voice recognition apparatus, voice recognition method, and recording medium
US6067520A (en) System and method of recognizing continuous mandarin speech utilizing chinese hidden markou models
US8126714B2 (en) Voice search device
KR100590553B1 (en) Method and apparatus for generating dialog prosody structure and speech synthesis method and system employing the same
WO2011016761A1 (en) A method of speech synthesis
KR101424193B1 (en) System And Method of Pronunciation Variation Modeling Based on Indirect data-driven method for Foreign Speech Recognition
CN112562640A (en) Multi-language speech recognition method, device, system and computer readable storage medium
KR100669241B1 (en) System and method of synthesizing dialog-style speech using speech-act information
KR100930714B1 (en) Voice recognition device and method
KR100573870B1 (en) multiple pronunciation dictionary structuring Method and System based on the pseudo-morpheme for spontaneous speech recognition and the Method for speech recognition by using the structuring system
Shivakumar et al. A study on impact of language model in improving the accuracy of speech to text conversion system
KR100736496B1 (en) performance improvement method of continuation voice recognition system
Sakai et al. A probabilistic approach to unit selection for corpus-based speech synthesis.
CN114974218A (en) Voice conversion model training method and device and voice conversion method and device
KR20050101695A (en) A system for statistical speech recognition using recognition results, and method thereof
KR20050101694A (en) A system for statistical speech recognition with grammatical constraints, and method thereof
CN113160828A (en) Intelligent auxiliary robot interaction method and system, electronic equipment and storage medium
KR100511247B1 (en) Language Modeling Method of Speech Recognition System
KR20030010979A (en) Continuous speech recognization method utilizing meaning-word-based model and the apparatus
Khamdamov et al. Syllable-Based Reading Model for Uzbek Language Speech Synthesizers
KR100614933B1 (en) Apparatus for generating high frequency vocabulary string recognition unit in a dialogue and read large vocabulary speech recognition system and method therefor
KR0157026B1 (en) Method and system for recognizing korean
KR100306205B1 (en) Text-to-speech processing method and continuous speech recognition method using pronunciation connection graph
CN115798462A (en) Voice recognition method and device, electronic equipment and chip

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100331

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee