KR100434522B1 - 시간축 상호관계를 이용한 음성인식 방법 - Google Patents
시간축 상호관계를 이용한 음성인식 방법 Download PDFInfo
- Publication number
- KR100434522B1 KR100434522B1 KR1019970016086A KR19970016086A KR100434522B1 KR 100434522 B1 KR100434522 B1 KR 100434522B1 KR 1019970016086 A KR1019970016086 A KR 1019970016086A KR 19970016086 A KR19970016086 A KR 19970016086A KR 100434522 B1 KR100434522 B1 KR 100434522B1
- Authority
- KR
- South Korea
- Prior art keywords
- time
- voice recognition
- probability value
- speech recognition
- equation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 239000013598 vector Substances 0.000 claims abstract description 37
- 238000013139 quantization Methods 0.000 claims abstract description 13
- 238000000605 extraction Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 2
- 229910052709 silver Inorganic materials 0.000 claims description 2
- 239000004332 silver Substances 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0004—Design or structure of the codebook
- G10L2019/0005—Multi-stage vector quantisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Pure & Applied Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
본 발명은 HMM 방식의 음성인식 시스템에서 시간축 상호관계를 이용한 음성인식 방법에 관한 것으로서, 음성인식 방법은 특징벡터 추출단계; 벡터 양자화단계; 및 히든 마코프 모델링에서의 임의의 단어모델을 M이라하고, 입력음성 벡터 양자화 인덱스열을 O=(o1,o2,…,oT)(이때 T는 전체 프레임 수)라 할 때, M가 O에 부여하는 확률값 P(O|M)은
과 같이 구하여, 확률값 P(O|M)이 가장 높은 단어모델을 인식의 결과로 취하는 음성인식 단계를 포함함을 특징으로 한다.
본 발명에 의하면, 기존의 HMM 방식의 음성인식 시스템을 크게 수정하지 않고, 약간의 파라메타 추가와 확률값 계산 과정의 변경으로 음성인식률을 크게 향상시킬 수 있다.
Description
본 발명은 음성인식 방법에 관한 것으로서, 특히 히든 마코프 모델(Hidden Markov Model : 이하에서 HMM이라 한다) 방식의 음성인식 시스템에서 시간축 상호관계를 이용한 음성인식 방법에 관한 것이다.
HMM은 그 구성 및 구현의 용이성 때문에 음성인식에서 가장 널리 사용되는 방식이다. 통상적으로, HMM 방식의 음성인식 시스템의 성패는 구성된 모델이 실제 음성발성을 얼마나 정확히 나타낼 수 있는가에 달려 있다. 그런데, 일반적인 HMM 방식은 현재 시간의 음성특징이 현재 이전 또는 이후 인접 시간의 음성특징과는 독립적이라는 기본적 가정 하에서 출발하므로 정확한 음성발생을 위한 모델링이라고는 할 수 없다. 왜냐하면, 일반적으로 특정 시간에 있어서의 음성특징이 인접 시간의 음성특징에 대하여 많은 정보를 지니고 있기 때문이다. 즉, 시간축 상호관계는 음성인식에 있어서 중요한 정보로서 간주된다.
그런데, 음성의 시간축 상호관계를 이용하기 위하여 전혀 색다른 방식을 채택하여 음성인식 시스템을 구성한다면, 기존에 구축된 HMM방식의 음성인식 시스템을 크게 수정하여야 한다는 문제점이 있다.
본 발명은 상기의 문제점을 해결하기 위하여 창작된 것으로서, 기존의 HMM 방식의 음성인식 시스템을 크게 수정하지 않고, 시간축 상호관계를 이용하여 음성인식률을 향상시킬 수 있는 시간축 상호관계를 이용한 음성인식 방법을 제공함에 그 목적이 있다.
도 1은 본 발명에 의한 시간축 상호관계를 이용한 음성인식 과정을 도시한 것이다.
상기의 목적을 달성하기 위한 본 발명에 의한 시간축 상호관계를 이용한 음성인식 방법은 입력된 음성데이터를 소정의 시간구간 단위로 나누고, 상기 나뉘어진 시간구간에 포함된 음성데이터의 특징벡터를 추출하는 특징벡터 추출단계; 상기 나뉘어진 하나의 시간구간에 포함된 음성데이터의 특징벡터를 프레임이라 할 때, 상기 프레임 단위로 특징벡터를 코드북에 저장된 대표특징벡터와 비교하여 각각 가장 유사한 대표특징벡터를 선택한 후, 상기 선택된 각 대표특징벡터의 인덱스를 모아 양자화 인덱스열로 두는 벡터 양자화단계; 및 히든 마코프 모델에 포함된 소정의 단어모델을 M이라하고, 상기 양자화 인덱스열을 O=(o1,o2,…,oT)(단, T : 전체 프레임 수)라 할 때, 단어모델 M에 대한 양자화 인덱스열 O가 발생할 확률값 P(O|M)을
(여기서, x=(x1,x2,…,xT)는 히든 마코프 모델에서의 소정의 상태열이다.)
과 같이 구하고, 상기 히든 마코프 모델에 포함된 소정의 단어모델 중에서 상기 확률값 P(O|M)이 가장 높은 단어모델을 인식의 결과로 취하는 음성인식 단계를 포함함을 특징으로 하고, 상기 수학식 1에서의는
(여기서, P(x)는 상기 상태열 x의 확률값이다.)
(여기서, V는 벡터 양자화 인덱스의 집합이고, λs는 상기 상태값에 의존한 확률값에 가중치를 표시하는 파라메타이고, λc는 시간축 상호관계에 의존한 확률값에 가중치를 표시하는 파라메타이다.)
과 같이 구하는 것을 특징으로 한다.
이하에서 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.
본 발명은 이러한 시간축 상호관계를 확률적 형태로 나타내어 음성인식에 반영할 수 있는 방법에 관한 것으로서, 여러개의 조건으로 결정되는 복합 조건부 확률을 개개의 조건에만 의존하는 개별 조건부 확률로 근사화하는 방법을 취하게 된다.
시간축 상호정보를 이용한 음성인식 과정은 도 1과 같다. 특징추출 과정(100)에서는, 입력된 음성데이터를 일정 구간 단위로 블럭화하여, 각 블럭마다 하나 또는 여러개의 특징벡터를 추출한다. 이때, 하나의 데이터 블럭을 프레임이라 하며, 각 프레임은 음성인식에 필요한 정보 추출의 기준이 된다. 추출된 특징벡터열은 벡터양자화(VQ) 과정(110)을 거치게 되는데, 이때 VQ에서는 매 프레임마다 코드북(130)에 저장된 대표특징벡터와 현재 프레임의 입력 특징벡터를 비교하여 가장 유사한 대표특징벡터를 선택한 후에 그에 대응되는 인덱스를 출력해 준다. 따라서, VQ 과정을 거친 특징벡터열은 VQ 인덱스열로 변환된다. HMM 인식 과정(120)에서는, 각 단어에 설정된 모델을 통하여 입력된 VQ 인덱스열에 대한 확률값을 계산하고 가장 높은 확률값을 부여하는 단어를 인식의 결과로 취하게 된다.
임의의 단어모델 M가 입력음성 VQ 인덱스열 O=(o1,o2,…,oT)(이때 T는 전체 프레임 수)에 부여하는 확률값, P(O|M)는 다음과 같이 구해진다.
이때, x는 하나의 상태열을 나타낸다. 임의의 상태열 x=(x1,x2,…,xT)에 대하여
이며, 이때 P(x)는 상태열 x의 확률값을 나타낸다. 시간축 상호정보를 이용한
음성인식 방법에서는 위의 확률값 계산에 있어서 다음과 같은 계산을 수행하게 된다.
이며 V는 전체 VQ 인덱스의 집합을 나타내는데, 각 인덱스는 코드북(130)에 저장된 하나의 대표특징벡터를 의미한다. λs와 λc는 각각 상태에 의존한 확률값과 시간축 상호관계에 의존한 확률값에 대한 가중치를 표시하는 파라메타(140)이다. {P(o|x,λ)}는 상태 x에서의 출력확률분포를 나타내며, 이는 HMM의 학습 시에 구해진다. 마찬가지로 {P(o|ot-1,λ)}는 이전 프레임의 VQ 인덱스가 ot-1일때, 현재 프레임의 출력분포를 나타내는 것으로서, 학습데이타에서 발생되는 빈도 수를 조사하여 구할 수 있다.
실제 음성인식에의 적용 시, 매 프레임 마다 수학식 7의 계산을 수행한다면 엄청난 수고 및 시간이 소요된다. 따라서, 미리 다음과 같은 계산을 수행하여 파라메타로 저장해 둔다면 큰 도움이 된다.
라 하자. 이때 x는 특정 상태를 나타내며, o는 특정 VQ 인덱스를 나타낸다. 그러면, 매 프레임마다 수행되어야 하는 수학식 7은 다음과 같이 변환된다.
이 되는데, 실제 인식 시스템에서는 직접 위의 확률값을 사용하는 것이 아니라 그 확률값에 log를 취하여 사용하는 것이 일반적이므로 수학식 9는 효과적이다. λs와 λc는 전체 단어의 모든 상태에 대하여 일률적인 값을 적용할 수 있으나, 각 상태에서 시간축 상호 정보의 중요도를 감안하여 각 상태마다 달리 두는 것이 바람직하다.
본 발명에 의한 방법의 성능을 평가하기 위하여, 화자독립 연속어 인식실험을 수행하였다. 전체 단어는 시간, 날짜, 요일, 월 등을 나타내는 102개의 한국어 단어로 구성 되었으며, 90명의 화자가 발음한 음성데이터를 학습과 인식성능 확인에 이용하였다. 상기 90명의 화자는 남자 43 명, 여자 47 명으로 구성되었으며, 각 화자는 20 내지 30개의 문장을 발성하였다. 이 중, 70명(남자 33 명, 여자 37명)이 발음한 음성데이터는 학습에 이용되었고, 나머지 20명 화자가 발성한 음성데이터를 통하여 인식성능이 평가되었다.
발성된 각 문장은, 우선 4.5kHz의 대역폭을 지니는 저역여파기를 통한후, 16kHz의 A/D 변환을 통하여 저장되었다. 음성의 특징벡터로는 12차의 선형예측계수(Linear Predictive Coding)에 근거한 셉스트럼(Cepstrum)과 이들의 1차 차이계수가 사용되었다. 편의상, LPC에 근거한 셉스트럼(Cepstrum)을 CEP이라 하고, 이들의 1차 차이계수를 DCEP이라 한다. 12차의 CEP과 DCEP은 매 10ms마다 추출되었으며, 각각의 특징벡터의 벡터양자화(VQ)를 위하여 128개의 대표특징벡터로 이루어진 코드북(Codebook)이 구성되었다. 102개의 단어 HMM을 작성하기 위하여 27개의 음소 HMM이 이용되었는데, 각 단어 HMM은 이를 구성하는 음소의 HMM을 결합하여 설정되었다. 각 단어 HMM은 3개의 상태(state)로 이루어졌으며, 앞서의 학습용 음성데이터를 통하여 학습시켰다.
먼저, 시간축 상호정보를 이용하지 않고 기존의 HMM 인식 방식을 이용하여 인식을 수행하였을 때, 73.0%의 단어 인식률을 보였다. 다음으로,λs=1,λc=1을 모든 상태에 적용하여 시간축 상호정보를 이용하는, 본 발명에 의한 인식방식을 수행하였을 때의 단어 인식률은 74.6 %로 향상되었다. 또한, 모든 상태에서, CEP에 대해서는 λs=1,λc=0.32를, DCEP에 대하여는 λs=1,λc=0.28을 적용하였을 때의 인식률은 75.0%를 보였다. 마지막으로, 각 음소 HMM에 대하여 서로 다른 λs,λc를 적용하였을 때의 인식률은 75.7%까지 향상되었는데, 이때 사용된 CEP에 대한 λs,λc중 일부가 표 1에 나와있다.
음소 | λs | λc |
'에' | 1.0 | 0.98 |
'이' | 1.0 | 0.88 |
'오' | 1.0 | 0.90 |
'ㅌ' | 1.0 | 0.61 |
'ㅊ' | 1.0 | 0.66 |
'ㅍ' | 1.0 | 0.73 |
'ㅅ' | 1.0 | 0.78 |
본 발명에 의하면, 기존의 HMM 방식의 음성인식 시스템을 크게 수정하지 않고, 약간의 파라메타 추가와 확률값 계산 과정의 변경으로 음성인식률을 크게 향상시킬 수 있다.
Claims (3)
- 히든 마코프 모델 음성인식 시스템의 음성인식 방법에 있어서,입력된 음성데이터를 소정의 시간구간 단위로 나누고, 상기 나뉘어진 시간구간에 포함된 음성데이터의 특징벡터를 추출하는 특징벡터 추출단계;상기 나뉘어진 하나의 시간구간에 포함된 음성데이터의 특징벡터를 프레임이라 할 때, 상기 프레임 단위로 특징벡터를 코드북에 저장된 대표특징벡터와 비교하여 각각 가장 유사한 대표특징벡터를 선택한 후, 상기 선택된 각 대표특징벡터의 인덱스를 모아 양자화 인덱스열로 두는 벡터 양자화단계; 및히든 마코프 모델에 포함된 소정의 단어모델을 M이라하고, 상기 양자화 인덱스열을 O=(o1,o2,…,oT)(단, T : 전체 프레임 수)라 할 때, 단어모델 M에 대한 양자화 인덱스열 O가 발생할 확률값 P(O|M)을[수학식 1](여기서, x=(x1,x2,…,xT)는 히든 마코프 모델에서의 소정의 상태열이다.)과 같이 구하고, 상기 히든 마코프 모델에 포함된 소정의 단어모델 중에서 상기 확률값 P(O|M)이 가장 높은 단어모델을 인식의 결과로 취하는 음성인식 단계를 포함함을 특징으로 하고,[수학식 2](여기서, P(x)는 상기 상태열 x의 확률값이다.)과 같이 구하고,[수학식 3](여기서, V는 벡터 양자화 인덱스의 집합이고, λs는 상기 상태값에 의존한 확률값에 가중치를 표시하는 파라메타이고, λc는 시간축 상호관계에 의존한 확률값에 가중치를 표시하는 파라메타이다.)과 같이 구하는 것을 특징으로 하는 시간축 상호관계를 이용한 음성인식 방법.
- 제1항 또는 제2항에 있어서, 수학식 3, 수학식 10 및 수학식 11에서의 상기 λs와 상기 λc는 상기 각 단어모델마다 그 값을 달리하는 것을 특징으로 하는 시간축 상호관계를 이용한 음성인식 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970016086A KR100434522B1 (ko) | 1997-04-29 | 1997-04-29 | 시간축 상호관계를 이용한 음성인식 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970016086A KR100434522B1 (ko) | 1997-04-29 | 1997-04-29 | 시간축 상호관계를 이용한 음성인식 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19980078532A KR19980078532A (ko) | 1998-11-16 |
KR100434522B1 true KR100434522B1 (ko) | 2004-07-16 |
Family
ID=37341038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019970016086A KR100434522B1 (ko) | 1997-04-29 | 1997-04-29 | 시간축 상호관계를 이용한 음성인식 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100434522B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021218843A1 (zh) * | 2020-04-30 | 2021-11-04 | 阿里巴巴集团控股有限公司 | 流式端到端语音识别方法、装置及电子设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3584458B2 (ja) * | 1997-10-31 | 2004-11-04 | ソニー株式会社 | パターン認識装置およびパターン認識方法 |
KR100590184B1 (ko) * | 1999-07-07 | 2006-06-14 | 삼성전자주식회사 | 채널적응벡터양자화(covq)를 위한 코드북의 구현방법 |
KR20000036613A (ko) * | 2000-03-23 | 2000-07-05 | 최중인 | 시간 분할에 의한 객체지향 어드레스 지정 기법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5129002A (en) * | 1987-12-16 | 1992-07-07 | Matsushita Electric Industrial Co., Ltd. | Pattern recognition apparatus |
JPH05241593A (ja) * | 1991-12-25 | 1993-09-21 | Matsushita Electric Ind Co Ltd | 時系列信号処理装置 |
JPH05333898A (ja) * | 1992-06-03 | 1993-12-17 | Matsushita Electric Ind Co Ltd | 時系列信号処理装置 |
JPH06266386A (ja) * | 1993-03-16 | 1994-09-22 | Nippon Telegr & Teleph Corp <Ntt> | ワードスポッティング方法 |
US5381513A (en) * | 1991-06-19 | 1995-01-10 | Matsushita Electric Industrial Co., Ltd. | Time series signal analyzer including neural network having path groups corresponding to states of Markov chains |
JPH0990983A (ja) * | 1995-09-26 | 1997-04-04 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識方法 |
-
1997
- 1997-04-29 KR KR1019970016086A patent/KR100434522B1/ko not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5129002A (en) * | 1987-12-16 | 1992-07-07 | Matsushita Electric Industrial Co., Ltd. | Pattern recognition apparatus |
US5381513A (en) * | 1991-06-19 | 1995-01-10 | Matsushita Electric Industrial Co., Ltd. | Time series signal analyzer including neural network having path groups corresponding to states of Markov chains |
JPH05241593A (ja) * | 1991-12-25 | 1993-09-21 | Matsushita Electric Ind Co Ltd | 時系列信号処理装置 |
JPH05333898A (ja) * | 1992-06-03 | 1993-12-17 | Matsushita Electric Ind Co Ltd | 時系列信号処理装置 |
JPH06266386A (ja) * | 1993-03-16 | 1994-09-22 | Nippon Telegr & Teleph Corp <Ntt> | ワードスポッティング方法 |
JPH0990983A (ja) * | 1995-09-26 | 1997-04-04 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021218843A1 (zh) * | 2020-04-30 | 2021-11-04 | 阿里巴巴集团控股有限公司 | 流式端到端语音识别方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
KR19980078532A (ko) | 1998-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3469582B1 (en) | Neural network-based voiceprint information extraction method and apparatus | |
US9812122B2 (en) | Speech recognition model construction method, speech recognition method, computer system, speech recognition apparatus, program, and recording medium | |
US6317712B1 (en) | Method of phonetic modeling using acoustic decision tree | |
Woodland et al. | Large vocabulary continuous speech recognition using HTK | |
EP0504927B1 (en) | Speech recognition system and method | |
DE69022237T2 (de) | Sprachsyntheseeinrichtung nach dem phonetischen Hidden-Markov-Modell. | |
EP0689192A1 (en) | A speech synthesis system | |
US20220223066A1 (en) | Method, device, and computer program product for english pronunciation assessment | |
EP4266306A1 (en) | A speech processing system and a method of processing a speech signal | |
Lai et al. | Phone-aware LSTM-RNN for voice conversion | |
Sigappi et al. | Spoken word recognition strategy for Tamil language | |
KR100434522B1 (ko) | 시간축 상호관계를 이용한 음성인식 방법 | |
JP2898568B2 (ja) | 声質変換音声合成装置 | |
Shafran et al. | Acoustic model clustering based on syllable structure | |
Cosi et al. | Connected digit recognition experiments with the ogi toolkit's neural network and hmm-based recognizers | |
Cosi et al. | High performance" general purpose" phonetic recognition for italian | |
US20220208180A1 (en) | Speech analyser and related method | |
Yamagishi et al. | Improved average-voice-based speech synthesis using gender-mixed modeling and a parameter generation algorithm considering GV | |
JP4779239B2 (ja) | 音響モデル学習装置、音響モデル学習方法、およびそのプログラム | |
Hosom et al. | Evaluation and integration of neural-network training techniques for continuous digit recognition. | |
Takaki et al. | Overview of NIT HMM-based speech synthesis system for Blizzard Challenge 2012 | |
Artières et al. | Connectionist and conventional models for free-text talker identification tasks | |
Hosom et al. | Improvements in neural-network training and search techniques for continuous digit recognition | |
Furui | Toward the ultimate synthesis/recognition system | |
Das et al. | Aging speech recognition with speaker adaptation techniques: Study on medium vocabulary continuous Bengali speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20080312 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |