KR100322202B1 - 신경망을 이용한 음성인식장치 및 그 방법 - Google Patents
신경망을 이용한 음성인식장치 및 그 방법 Download PDFInfo
- Publication number
- KR100322202B1 KR100322202B1 KR1019990037709A KR19990037709A KR100322202B1 KR 100322202 B1 KR100322202 B1 KR 100322202B1 KR 1019990037709 A KR1019990037709 A KR 1019990037709A KR 19990037709 A KR19990037709 A KR 19990037709A KR 100322202 B1 KR100322202 B1 KR 100322202B1
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- voice
- recognition
- word
- input
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000013528 artificial neural network Methods 0.000 claims abstract description 49
- 239000013598 vector Substances 0.000 claims abstract description 34
- 238000010606 normalization Methods 0.000 claims abstract description 10
- 238000012790 confirmation Methods 0.000 claims description 7
- 230000005236 sound signal Effects 0.000 claims 1
- 238000007796 conventional method Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 미래 차량에 적용될 음성인식기술에 특징벡터정규화 과정 및 신경망을 적용시킨 신경망을 이용한 음성인식장치 및 그 방법에 관한 것으로서, 본 발명에 의한 신경망을 이용한 음성인식장치 및 그 방법에 의하면 특징벡터 추출부에 의해 추출된 입력음성의 특징벡터를 일정길이로 정규화시키고 신경망알고리즘을 적용시켜 구현하므로써 기존의 방식에 비해 음성인식성능을 향상시킴은 물론 저가의 CPU와 적은 메모리 용량을 사용할 수 있어 경제적인 측면에서도 유리하다는 뛰어난 효과가 있다.
Description
본 발명은 미래 차량에 적용될 음성인식기술에 특징벡터정규화 과정 및 신경망을 적용시킨 신경망을 이용한 음성인식장치 및 그 방법에 관한 것이다.
현재 개발된 차량의 음성인식기는 HMM(HIDDEN MARKOV MODEL)방식의 알고리즘을 이용하는데, 이 기술은 상태열과 시간축을 이용해서 음성인식모델링을 하며, 이과정에는 벡터양자화과정이 포함되므로 많은 메모리 영역을 필요로 하고, 수행속도가 느리기 때문에 수행속도가 빠르며 메모리용량이 큰 고가의 DSP(DIGITAL SIGNAL PROCESSOR)칩이나 CPU 칩이 요구된다는 문제점이 있었다.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 음성인식성능을 향상시키는 동시에 저가의 CPU를 사용할 수 있도록 하는 신경망을 이용한 음성인식장치 및 그 방법을 제공하는 데 있다.
상기와 같은 목적을 달성하기 위해 본 발명의 신경망을 이용한 음성인식장치는 마이크를 통해 아날로그 음성신호를 입력받아 디지털신호로 변환하는 음성구간검출부와, 상기 음성구간검출부에서 디지털 음성신호를 입력받아 프레임단위로 세분화하는 음성구간 세분화부와, 상기 음성구간 세분화부에서 프레임단위의 음성신호를 입력받아 특징벡터를 추출하는 특징벡터추출부와, 상기 특징벡터추출부에서 다양한 길이의 특징벡터를 입력받아 기설정된 길이의 특징벡터로 변환하는 특징벡터 정규화부와, 상기 특징벡터 정규화부에서 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력하는 신경망알고리즘부와, 상기 신경망알고리즘부에 단어별로 학습된신경망계수를 제공하는 신경망계수 공급부와, 상기 신경망알고리즘부에서 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치로 출력하는 인식결과 출력부로 구성된 음성인식기를 구비하여 이루어진 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위해 신경망을 이용한 음성인식방법은 인식시작버튼이 푸시되면 외부오디오장치를 뮤트시킨후 음성을 입력하라는 안내메시지를 스피커를 통해 출력하는 제 1단계와, 임의의 설정시간동안 음성이 입력되는지의 여부를 판단하는 제 2단계와, 상기 제 2단계에서 음성이 입력되면 신경망알고리즘에 의해 인식동작을 실행하여 인식결과치를 출력하는 제 3단계와, 상기 제 3단계의 인식결과치의 개수가 2개 이상인지의 여부를 판단하는 제 4단계와, 상기 제4단계에서 인식결과치의 개수가 1개이면 그 인식된 단어를 스피커를 통해 플레이백시키고, 해당 단어에 상응하여 외부장치를 제어하는 제 5단계와, 외부오디오장치의 뮤트를 해제하는 제 6단계로 이루어진 것을 특징으로 한다.
도 1은 본 발명의 일실시예에 의한 신경망을 이용한 음성인식장치의 제어블록도.
도 2a 내지 도 2b는 본 발명의 일실시예에 의한 신경망을 이용한 음성인식방법을 설명하기 위한 동작플로우 챠트.
〈도면의 주요 부분에 대한 부호의 설명〉
100 : 음성인식기 110 : 음성구간 검출부
120 : 음성구간 세분화부 130 : 특징벡터 추출부
140 : 특징벡터 정규화부 150 : 신경망 알고리즘부
160 : 신경망계수 공급부 170 : 인식결과 출력부
180 : 인식시작버튼 200 : 외부 오디오장치
이하, 본 발명의 일실시예에 의한 신경망을 이용한 음성인식장치 및 그 방법에 대해 첨부된 도면을 참조하여 상세히 기술하기로 한다.
도 1은 본 발명의 일실시예에 의한 신경망을 이용한 음성인식장치의 제어블록도로서 본 발명의 일실시예에 의한 신경망을 이용한 음성인식장치는 음성인식기(100)와 인식시작버튼(180)으로 구성되어 있다.
상기 음성인식기(100)는 마이크(20)를 통해 아날로그 음성신호를 입력받아 디지털신호로 변환하는 음성구간검출부(110)와, 상기 음성구간검출부(110)에서 디지털 음성신호를 입력받아 프레임단위로 세분화하는 음성구간 세분화부(120)와, 상기 음성구간 세분화부(120)에서 프레임단위의 음성신호를 입력받아 특징벡터를 추출하는 특징벡터추출부(130)와, 상기특징벡터추출부(130)에서 다양한 길이의 특징벡터를 입력받아 기설정된 길이의 특징벡터로 변환하는 특징벡터 정규화부(140)와, 상기 특징벡터 정규화부(140)에서 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력하는 신경망알고리즘부(150)와, 상기 신경망알고리즘부(150)에 단어별로 학습된 신경망계수를 제공하는 신경망계수 공급부(160)와, 상기 신경망알고리즘부(150)에서 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치(210) 및 마이크(20)로 출력하는 인식결과 출력부(170)로 구성되어 있다.
상기 인식시작버튼(180)은 운전자에 의해 푸시되어 음성인식 동작을 개시하는 역할을 한다.
또한, 상기 특징벡터 정규화부(140)에서 이루어지는 정규화방법은 상기 특징벡터 추출부(130)로부터 현재 입력된 프레임의 숫자가 모자라면 근접한 두 프레임의 평균값으로 새로운 프레임을 만들어 내고, 원하는 프레임보다 현재 입력된 프레임 숫자가 더 많으면 중간 부분의 프레임은 생략하여 프레임수를 줄인다.
상기와 같은 구성을 가지는 음성인식장치를 이용한 음성인식방법에 대해 설명하기로 한다.
도 2a 및 도 2b는 본 발명의 일실시예에 의한 신경망을 이용한 음성인식방법을 설명하기 위한 동작플로우 챠트로서, 여기서 S는 스텝(STEP)을 나타낸다.
먼저, 인식시작버튼(180)이 푸시되면, 음성인식기(100)는 외부오디오장치(200)를 뮤트시킨 후(S2), 음성을 입력하라는 안내메시지를 스피커(10)를 통해 출력한다(S3).
이어서, 상기 음성인식기(100)는 임의의 설정시간동안 음성이 입력되는지의 여부를 판단한다(S4).
상기 스텝(S4)에서 임의의 설정시간동안 음성이 입력되면(YES), 상기 음성인식기(100)는 신경망알고리즘에 의해 인식동작을 실행하여 인식결과치를 출력하고(S5), 그 인식결과치의 개수가 2개 이상인지의 여부를 판단한다(S6).
상기 스텝(S6)에서 인식결과치의 개수가 1개이면(NO), 상기 음성인식기(100)는 그 인식된 단어를 스피커(10)를 통해 플레이백(PLAYBACK)시키고(S7), 해당 단어에 상응하여 외부장치(210)를 제어하며(S8), 외부오디오장치(200)의 뮤트를 해제한 후(S9), 종료한다.
한편, 상기 스텝(S4)에서 임의의 설정시간동안 음성이 입력되지 않으면(S4), 상기 스텝(S9)으로 진행된다.
또한, 상기 스텝(S6)에서 인식결과치의 개수가 2개 이상이면(YES), 음성인식기(100)는 그 결과치중 인지 확률이 가장 높은 단어가 운전자가 입력시킨 단어인지의 여부를 확인하는 안내메시지를 스피커(10)를 통해 출력한다(S10).
이어서, 음성인식기(100)는 일정시간 동안 운전자의 확인음성이 입력되는 지의 여부를 판단한다(S11).
상기 스텝(S11)에서 일정시간 동안 운전자의 확인 음성이 입력되면(YES), 음성인식기(100)는 인식동작을 실행하여 인식결과를 출력하고(S12), 그 인식결과인 확인 단어가 운전자에 의해 올바로 인식됨을 나타내는 것 인지의 여부를 판단한다(S13).
상기 스텝(S13)에서 인식된 결과가 운전자에 의해 올바로 인식됨을 나타내는 단어이면(YES), 음성인식기(100)는 해당 단어를 스피커(10)를 통해 플레이백시키고(S14), 상기 해당 단어에 상응하여 외부장치(210)를 제어한 후(S15), 외부오디오장치(200)의 뮤트를 해제한 후(S16), 종료한다.
한편, 상기 스텝(S11)에서 일정시간 동안 운전자의 확인음성이 입력되지 않거나(NO), 상기 스텝(S13)에서 인식결과가 올바로 인식되지 않았음을 나타내는 단어이면(NO), 상기 스텝(S16)으로 진행된다.
한편, 상기 스텝(S5, S12)에서 상기 인식동작을 실행하는 과정에 대해 좀더 상세하게 설명하면, 마이크(20)를 통해 음성인식기(100)가 아날로그 음성신호를 입력받아 디지털신호로 변환하고, 그 변환된 디지털 음성신호를 프레임단위로 세분화한 후 특징벡터를 추출한 후, 그 특징벡터를 기설정된 길이의 특징벡터로 정규화한다.
이어서, 상기 음성인식기(100)는 상기 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력한 후, 상기 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치로 출력한다.
상술한 바와 같이 본 발명에 의한 신경망을 이용한 음성인식장치 및 그 방법에 의하면 특징벡터추출부에 의해 추출된 입력음성의 특징벡터를 일정길이로 정규화시키고 신경망알고리즘을 적용시켜 구현하므로써 기존의 방식에 비해 음성인식성능을 향상시킴은 물론 저가의 CPU와 적은 메모리 용량을 사용할 수 있어 경제적인 측면에서도 유리하다는 뛰어난 효과가 있다.
Claims (8)
- 청구항1는 삭제 되었습니다.
- 청구항2는 삭제 되었습니다.
- 인식시작버튼이 푸시되면 외부오디오장치를 뮤트시킨후 음성을 입력하라는 안내메시지를 스피커를 통해 출력하는 제 1단계와,임의의 설정시간동안 음성이 입력되는지의 여부를 판단하는 제 2단계와,상기 제 2단계에서 음성이 입력되면 신경망알고리즘에 의해 인식동작을 실행하여 인식결과치를 출력하는 제 3단계와,상기 제 3단계의 인식결과치의 개수가 2개 이상인지의 여부를 판단하는 제 4단계와,상기 제 4단계에서 인식결과치의 개수가 1개이면 그 인식된 단어를 스피커를 통해 플레이백시키고, 해당 단어에 상응하여 외부장치를 제어하는 제 5단계와,외부오디오장치의 뮤트를 해제하는 제 6단계로 이루어진 것을 특징으로 하는 신경망을 이용한 음성인식방법.
- 제 3항에 있어서,상기 제 2단계에서 임의의 설정시간동안 음성이 입력되지 않으면 상기 제 6단계로 진행됨을 특징으로 하는 신경망을 이용한 음성인식방법.
- 제 3항에 있어서,상기 제 4단계에서 인식결과치의 개수가 2개 이상이면 그 결과치중 인지 확률이 가장 높은 단어가 운전자가 입력시킨 단어인 지의 여부를 확인하는 안내메시지를 스피커를 통해 출력하는 제 7단계와,일정시간 동안 운전자의 확인음성이 입력되는 지의 여부를 판단하는 제 8단계와,상기 제 8단계에서 일정시간 동안 운전자의 확인 음성이 입력되면 인식동작을 실행하여 인식결과를 출력하는 제 9단계와,상기 제 9단계에서 얻어진 인식결과가 운전자에 의해 올바로 인식됨을 나타내는 단어 인지의 여부를 판단하는 제 10단계와,상기 제 10단계에서 인식결과가 운전자에 의해 올바로 인식됨을 나타내는 단어이면 해당단어를 스피커를 통해 플레이 백시키고, 상기 해당단어에 상응하여 외부장치를 제어하는 제 11단계와,외부오디오장치의 뮤트를 해제하는 제 12단계를 더 포함하는 것을 특징으로 하는 신경망을 이용한 음성인식방법.
- 제 5항에 있어서,상기 제 8단계에서 일정시간 동안 운전자의 확인음성이 입력되지 않거나 상기 제 10단계에서 인식결과가 올바로 인식되지 않았음을 나타내는 단어이면 상기 제 12단계로 진행됨을 특징으로 하는 신경망을 이용한 음성인식방법.
- 제 3항 또는 제 5항에 있어서,상기 인식동작을 실행하는 단계는 마이크를 통해 아날로그 음성신호를 입력받아 디지털신호로 변환하는 단계와,상기 디지털 음성신호를 프레임단위로 세분화한 후 특징벡터를 추출하는 단계와,상기 특징벡터를 기설정된 길이의 특징벡터로 정규화하는 단계와,상기 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력하는 단계와,상기 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치로 출력하는 단계로 이루어진 것을 특징으로 하는 신경망을 이용한 음성인식방법.
- 제 7항에 있어서,상기 특징벡터의 정규화방법은 현재 입력된 프레임의 숫자가 모자라면 근접한 두 프레임의 평균값으로 새로운 프레임을 만들어 내고, 원하는 프레임보다 현재 입력된 프레임 숫자가 더 많으면 중간 부분의 프레임은 생략하여 프레임수를 줄이는 것을 특징으로 하는 신경망을 이용한 음성인식방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990037709A KR100322202B1 (ko) | 1999-09-06 | 1999-09-06 | 신경망을 이용한 음성인식장치 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990037709A KR100322202B1 (ko) | 1999-09-06 | 1999-09-06 | 신경망을 이용한 음성인식장치 및 그 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20010026402A KR20010026402A (ko) | 2001-04-06 |
KR100322202B1 true KR100322202B1 (ko) | 2002-02-06 |
Family
ID=19610255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019990037709A KR100322202B1 (ko) | 1999-09-06 | 1999-09-06 | 신경망을 이용한 음성인식장치 및 그 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100322202B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019005318A1 (en) * | 2017-06-29 | 2019-01-03 | Intel IP Corporation | RESET BASED ON STATISTICAL ANALYSIS OF RECURRENT NEURAL NETWORKS FOR AUTOMATIC SPEECH RECOGNITION |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100429896B1 (ko) * | 2001-11-22 | 2004-05-03 | 한국전자통신연구원 | 잡음 환경에서의 음성신호 검출방법 및 그 장치 |
KR101591883B1 (ko) * | 2014-09-02 | 2016-02-19 | 포항공과대학교 산학협력단 | 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기 |
KR20200069264A (ko) | 2020-03-23 | 2020-06-16 | 최현희 | 사용자 맞춤형 음성 선택이 가능한 음성 출력 시스템 및 그 구동방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR950034054A (ko) * | 1994-05-16 | 1995-12-26 | 양승택 | 대어휘 음성인식을 위한 후보단어 추출장치 및 추출 방법 |
KR0185755B1 (ko) * | 1994-02-03 | 1999-05-15 | 정호선 | 신경회로망을 이용한 음성인식 시스템 |
-
1999
- 1999-09-06 KR KR1019990037709A patent/KR100322202B1/ko not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR0185755B1 (ko) * | 1994-02-03 | 1999-05-15 | 정호선 | 신경회로망을 이용한 음성인식 시스템 |
KR950034054A (ko) * | 1994-05-16 | 1995-12-26 | 양승택 | 대어휘 음성인식을 위한 후보단어 추출장치 및 추출 방법 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019005318A1 (en) * | 2017-06-29 | 2019-01-03 | Intel IP Corporation | RESET BASED ON STATISTICAL ANALYSIS OF RECURRENT NEURAL NETWORKS FOR AUTOMATIC SPEECH RECOGNITION |
US10255909B2 (en) | 2017-06-29 | 2019-04-09 | Intel IP Corporation | Statistical-analysis-based reset of recurrent neural networks for automatic speech recognition |
Also Published As
Publication number | Publication date |
---|---|
KR20010026402A (ko) | 2001-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6671669B1 (en) | combined engine system and method for voice recognition | |
KR101237799B1 (ko) | 문맥 종속형 음성 인식기의 환경적 변화들에 대한 강인성을 향상하는 방법 | |
EP1022725B1 (en) | Selection of acoustic models using speaker verification | |
JP3459712B2 (ja) | 音声認識方法及び装置及びコンピュータ制御装置 | |
US11763801B2 (en) | Method and system for outputting target audio, readable storage medium, and electronic device | |
KR19980070329A (ko) | 사용자 정의 문구의 화자 독립 인식을 위한 방법 및 시스템 | |
ES2286014T3 (es) | Esquema de rechazo de reconocimiento de voz. | |
JP3535292B2 (ja) | 音声認識システム | |
KR100322202B1 (ko) | 신경망을 이용한 음성인식장치 및 그 방법 | |
JP2996019B2 (ja) | 音声認識装置 | |
JP4461557B2 (ja) | 音声認識方法および音声認識装置 | |
US20080228477A1 (en) | Method and Device For Processing a Voice Signal For Robust Speech Recognition | |
JP4449380B2 (ja) | 話者正規化方法及びそれを用いた音声認識装置 | |
JPH07230293A (ja) | 音声認識装置 | |
JP2000122678A (ja) | 音声認識機器制御装置 | |
JP2002041083A (ja) | 遠隔制御システムおよび遠隔制御方法、並びに記録媒体 | |
JP3357752B2 (ja) | パターンマッチング装置 | |
JP3458285B2 (ja) | 音声認識装置 | |
JPH0997095A (ja) | 音声認識装置 | |
JP3285047B2 (ja) | 不特定話者用音声認識装置 | |
JP2004004182A (ja) | 音声認識装置、音声認識方法及び音声認識プログラム | |
JP2000155600A (ja) | 音声認識システムおよび入力音声レベル警告方法 | |
JPH06175678A (ja) | 音声認識装置 | |
JPH11224098A (ja) | 単語音声認識システムにおける環境適応装置 | |
JP2005148764A (ja) | 音声認識対話処理方法および音声認識対話装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20090114 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |