KR20010026402A - 신경망을 이용한 음성인식장치 및 그 방법 - Google Patents

신경망을 이용한 음성인식장치 및 그 방법 Download PDF

Info

Publication number
KR20010026402A
KR20010026402A KR1019990037709A KR19990037709A KR20010026402A KR 20010026402 A KR20010026402 A KR 20010026402A KR 1019990037709 A KR1019990037709 A KR 1019990037709A KR 19990037709 A KR19990037709 A KR 19990037709A KR 20010026402 A KR20010026402 A KR 20010026402A
Authority
KR
South Korea
Prior art keywords
neural network
voice
feature vector
recognition
word
Prior art date
Application number
KR1019990037709A
Other languages
English (en)
Other versions
KR100322202B1 (ko
Inventor
권오일
정남호
Original Assignee
윤장진
주식회사 현대오토넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤장진, 주식회사 현대오토넷 filed Critical 윤장진
Priority to KR1019990037709A priority Critical patent/KR100322202B1/ko
Publication of KR20010026402A publication Critical patent/KR20010026402A/ko
Application granted granted Critical
Publication of KR100322202B1 publication Critical patent/KR100322202B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 미래 차량에 적용될 음성인식기술에 특징벡터정규화 과정 및 신경망을 적용시킨 신경망을 이용한 음성인식장치 및 그 방법에 관한 것으로서, 본 발명에 의한 신경망을 이용한 음성인식장치 및 그 방법에 의하면 특징벡터추출부에 의해 추출된 입력음성의 특징벡터를 일정길이로 정규화시키고 신경망알고리즘을 적용시켜 구현하므로써 기존의 방식에 비해 음성인식성능을 향상시킴은 물론 저가의 CPU와 적은 메모리 용량을 사용할 수 있어 경제적인 측면에서도 유리하다는 뛰어난 효과가 있다.

Description

신경망을 이용한 음성인식장치 및 그 방법{DEVICE AND METHOD FOR RECOGNIZING VOICE SOUND USING NERVOUS NETWORK}
본 발명은 미래 차량에 적용될 음성인식기술에 특징벡터정규화 과정 및 신경망을 적용시킨 신경망을 이용한 음성인식장치 및 그 방법에 관한 것이다.
현재 개발된 차량의 음성인식기는 HMM(HIDDEN MARKOV MODEL)방식의 알고리즘을 이용하는데, 이 기술은 상태열과 시간축을 이용해서 음성인식모델링을 하며, 이과정에는 벡터양자화과정이 포함되므로 많은 메모리 영역을 필요로 하고, 수행속도가 느리기 때문에 수행속도가 빠르며 메모리용량이 큰 고가의 DSP(DIGITAL SIGNAL PROCESSOR)칩이나 CPU 칩이 요구된다는 문제점이 있었다.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 음성인식성능을 향상시키는 동시에 저가의 CPU를 사용할 수 있도록 하는 신경망을 이용한 음성인식장치 및 그 방법을 제공하는 데 있다.
상기와 같은 목적을 달성하기 위해 본 발명의 신경망을 이용한 음성인식장치는 마이크를 통해 아날로그 음성신호를 입력받아 디지털신호로 변환하는 음성구간검출부와, 상기 음성구간검출부에서 디지털 음성신호를 입력받아 프레임단위로 세분화하는 음성구간 세분화부와, 상기 음성구간 세분화부에서 프레임단위의 음성신호를 입력받아 특징벡터를 추출하는 특징벡터추출부와, 상기 특징벡터추출부에서 다양한 길이의 특징벡터를 입력받아 기설정된 길이의 특징벡터로 변환하는 특징계수 정규화부와, 상기 특징계수 정규화부에서 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력하는 신경망알고리즘부와, 상기 신경망알고리즘부에 단어별로 학습된 신경망계수를 제공하는 신경망계수 공급부와, 상기 신경망알고리즘부에서 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치로 출력하는 인식결과 출력부로 구성된 음성인식기를 구비하여 이루어진 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위해 신경망을 이용한 음성인식방법은 인식시작버튼이 푸시되면 외부오디오장치를 뮤트시킨후 음성을 입력하라는 안내메시지를 스피커를 통해 출력하는 제 1단계와, 임의의 설정시간동안 음성이 입력되는지의 여부를 판단하는 제 2단계와, 상기 제 2단계에서 음성이 입력되면 신경망알고리즘에 의해 인식동작을 실행하여 인식결과치를 출력하는 제 3단계와, 상기 제 3단계의 인식결과치의 개수가 2개 이상인지의 여부를 판단하는 제 4단계와, 상기 제 4단계에서 인식결과치의 개수가 1개이면 그 인식된 단어를 스피커를 통해 플레이백시키고, 해당 단어에 상응하여 외부장치를 제어하는 제 5단계와, 외부오디오장치의 뮤트를 해제하는 제 6단계로 이루어진 것을 특징으로 한다.
도 1은 본 발명의 일실시예에 의한 신경망을 이용한 음성인식장치의 제어블록도,
도 2a 및 도 2b는 본 발명의 일실시예에 의한 신경망을 이용한 음성인식방법을 설명하기 위한 동작플로우 챠트.
<도면의 주요부분에 대한 부호의 설명>
100 : 음성인식기 110 : 음성구간 검출부
120 : 음성구간 세분화부 130 : 특징벡터 추출부
140 : 특징벡터 정규화부 150 : 신경망 알고리즘부
160 : 신경망계수 공급부 170 : 인식결과 출력부
180 : 인식시작버튼 200 : 외부 오디오장치
이하, 본 발명의 일실시예에 의한 신경망을 이용한 음성인식장치 및 그 방법에 대해 첨부된 도면을 참조하여 상세히 기술하기로 한다.
도 1은 본 발명의 일실시예에 의한 신경망을 이용한 음성인식장치의 제어블록도로서 본 발명의 일실시예에 의한 신경망을 이용한 음성인식장치는 음성인식기(100)와 인식시작버튼(180)으로 구성되어 있다.
상기 음성인식기(100)는 마이크(20)를 통해 아날로그 음성신호를 입력받아 디지털신호로 변환하는 음성구간검출부(110)와, 상기 음성구간검출부(110)에서 디지털 음성신호를 입력받아 프레임단위로 세분화하는 음성구간 세분화부(120)와, 상기 음성구간 세분화부(120)에서 프레임단위의 음성신호를 입력받아 특징벡터를 추출하는 특징벡터추출부(130)와, 상기 특징벡터추출부(130)에서 다양한 길이의 특징벡터를 입력받아 기설정된 길이의 특징벡터로 변환하는 특징계수 정규화부(140)와, 상기 특징계수 정규화부(140)에서 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력하는 신경망알고리즘부(150)와, 상기 신경망알고리즘부(150)에 단어별로 학습된 신경망계수를 제공하는 신경망계수 공급부(160)와, 상기 신경망알고리즘부(150)에서 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치(210) 및 마이크(20)로 출력하는 인식결과 출력부(170)로 구성되어 있다.
상기 인식시작버튼(180)은 운전자에 의해 푸시되어 음성인식 동작을 개시하는 역할을 한다.
또한, 상기 특징벡터 정규화부(140)에서 이루어지는 정규화방법은 상기 특징벡터 추출부(140)로부터 현재 입력된 프레임의 숫자가 모자라면 근접한 두 프레임의 평균값으로 새로운 프레임을 만들어 내고, 원하는 프레임보다 현재 입력된 프레임 숫자가 더 많으면 중간 부분의 프레임은 생략하여 프레임수를 줄인다.
상기와 같은 구성을 가지는 음성인식장치를 이용한 음성인식방법에 대해 설명하기로 한다.
도 2a 및 도 2b는 본 발명의 일실시예에 의한 신경망을 이용한 음성인식방법을 설명하기 위한 동작플로우 챠트로서, 여기서 S는 스텝(STEP)을 나타낸다.
먼저, 인식시작버튼(180)이 푸시되면, 음성인식기(100)는 외부오디오장치(200)를 뮤트시킨 후(S2), 음성을 입력하라는 안내메시지를 스피커(10)를 통해 출력한다(S3).
이어서, 상기 음성인식기(100)는 임의의 설정시간동안 음성이 입력되는지의 여부를 판단한다(S4).
상기 스텝(S4)에서 임의의 설정시간동안 음성이 입력되면(YES), 상기 음성인식기(100)는 신경망알고리즘에 의해 인식동작을 실행하여 인식결과치를 출력하고(S5), 그 인식결과치의 개수가 2개 이상인지의 여부를 판단한다(S6).
상기 스텝(S6)에서 인식결과치의 개수가 1개이면(NO), 상기 음성인식기(100)는 그 인식된 단어를 스피커(10)를 통해 플레이백(PLAYBACK)시키고(S7), 해당 단어에 상응하여 외부장치(210)를 제어하며(S8), 외부오디오장치(200)의 뮤트를 해제한 후(S9), 종료한다.
한편, 상기 스텝(S4)에서 임의의 설정시간동안 음성이 입력되지 않으면(S4), 상기 스텝(S9)으로 진행된다.
또한, 상기 스텝(S6)에서 인식결과치의 개수가 2개 이상이면(YES), 음성인식기(100)는 그 결과치중 인지 확률이 가장 높은 단어가 운전자가 입력시킨 단어인지의 여부를 확인하는 안내메시지를 스피커(10)를 통해 출력한다(S10).
이어서, 음성인식기(100)는 일정시간 동안 운전자의 확인음성이 입력되는 지의 여부를 판단한다(S11).
상기 스텝(S11)에서 일정시간 동안 운전자의 확인 음성이 입력되면(YES), 음성인식기(100)는 인식동작을 실행하여 인식결과를 출력하고(S12), 그 인식결과인 확인 단어가 운전자에 의해 올바로 인식됨을 나타내는 것 인지의 여부를 판단한다(S13).
상기 스텝(S13)에서 인식된 결과가 운전자에 의해 올바로 인식됨을 나타내는 단어이면(YES), 음성인식기(100)는 해당 단어를 스피커(10)를 통해 플레이백시키고(S14), 상기 해당 단어에 상응하여 외부장치(210)를 제어한 후(S15), 외부오디오장치(200)의 뮤트를 해제한 후(S16), 종료한다.
한편, 상기 스텝(S11)에서 일정시간 동안 운전자의 확인음성이 입력되지 않거나(NO), 상기 스텝(S13)에서 인식결과가 올바로 인식되지 않았음을 나타내는 단어이면(NO), 상기 스텝(S16)으로 진행된다.
한편, 상기 스텝(S5, S12)에서 상기 인식동작을 실행하는 과정에 대해 좀더 상세하게 설명하면, 마이크(20)를 통해 음성인식기(100)가 아날로그 음성신호를 입력받아 디지털신호로 변환하고, 그 변환된 디지털 음성신호를 프레임단위로 세분화한 후 특징벡터를 추출한 후, 그 특징벡터를 기설정된 길이의 특징벡터로 정규화한다.
이어서, 상기 음성인식기(100)는 상기 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력한 후, 상기 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치로 출력한다.
상술한 바와 같이 본 발명에 의한 신경망을 이용한 음성인식장치 및 그 방법에 의하면 특징벡터추출부에 의해 추출된 입력음성의 특징벡터를 일정길이로 정규화시키고 신경망알고리즘을 적용시켜 구현하므로써 기존의 방식에 비해 음성인식성능을 향상시킴은 물론 저가의 CPU와 적은 메모리 용량을 사용할 수 있어 경제적인 측면에서도 유리하다는 뛰어난 효과가 있다.

Claims (8)

  1. 마이크를 통해 아날로그 음성신호를 입력받아 디지털신호로 변환하는 음성구간검출부와,
    상기 음성구간검출부에서 디지털 음성신호를 입력받아 프레임단위로 세분화하는 음성구간 세분화부와,
    상기 음성구간 세분화부에서 프레임단위의 음성신호를 입력받아 특징벡터를 추출하는 특징벡터추출부와,
    상기 특징벡터추출부에서 다양한 길이의 특징벡터를 입력받아 기설정된 길이의 특징벡터로 변환하는 특징계수 정규화부와,
    상기 특징계수 정규화부에서 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력하는 신경망알고리즘부와,
    상기 신경망알고리즘부에 단어별로 학습된 신경망계수를 제공하는 신경망계수 공급부와,
    상기 신경망알고리즘부에서 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치로 출력하는 인식결과 출력부로 구성된 음성인식기를 구비하여 이루어진 것을 특징으로 하는 신경망을 이용한 음성인식장치.
  2. 제 1항에 있어서,
    음성인식 동작을 개시하는 인식시작버튼이 추가로 구성되어 있는 것을 특징으로 하는 신경망을 이용한 음성인식장치.
  3. 인식시작버튼이 푸시되면 외부오디오장치를 뮤트시킨후 음성을 입력하라는 안내메시지를 스피커를 통해 출력하는 제 1단계와,
    임의의 설정시간동안 음성이 입력되는지의 여부를 판단하는 제 2단계와,
    상기 제 2단계에서 음성이 입력되면 신경망알고리즘에 의해 인식동작을 실행하여 인식결과치를 출력하는 제 3단계와,
    상기 제 3단계의 인식결과치의 개수가 2개 이상인지의 여부를 판단하는 제 4단계와,
    상기 제 4단계에서 인식결과치의 개수가 1개이면 그 인식된 단어를 스피커를 통해 플레이백시키고, 해당 단어에 상응하여 외부장치를 제어하는 제 5단계와,
    외부오디오장치의 뮤트를 해제하는 제 6단계로 이루어진 것을 특징으로 하는 신경망을 이용한 음성인식방법.
  4. 제 3항에 있어서,
    상기 제 2단계에서 임의의 설정시간동안 음성이 입력되지 않으면 상기 제 6단계로 진행됨을 특징으로 하는 신경망을 이용한 음성인식방법.
  5. 제 3항에 있어서,
    상기 제 4단계에서 인식결과치의 개수가 2개 이상이면 그 결과치중 인지 확률이 가장 높은 단어가 운전자가 입력시킨 단어인 지의 여부를 확인하는 안내메시지를 스피커를 통해 출력하는 제 7단계와,
    일정시간 동안 운전자의 확인음성이 입력되는 지의 여부를 판단하는 제 8단계와,
    상기 제 8단계에서 일정시간 동안 운전자의 확인 음성이 입력되면 인식동작을 실행하여 인식결과를 출력하는 제 9단계와,
    상기 제 9단계에서 얻어진 인식결과가 운전자에 의해 올바로 인식됨을 나타내는 단어 인지의 여부를 판단하는 제 10단계와,
    상기 제 10단계에서 인식결과가 운전자에 의해 올바로 인식됨을 나타내는 단어이면 해당단어를 스피커를 통해 플레이 백시키고, 상기 해당단어에 상응하여 외부장치를 제어하는 제 11단계와,
    외부오디오장치의 뮤트를 해제하는 제 12단계를 더 포함하는 것을 특징으로 하는 신경망을 이용한 음성인식방법.
  6. 제 5항에 있어서,
    상기 제 8단계에서 일정시간 동안 운전자의 확인음성이 입력되지 않거나 상기 제 10단계에서 인식결과가 올바로 인식되지 않았음을 나타내는 단어이면 상기 제 12단계로 진행됨을 특징으로 하는 신경망을 이용한 음성인식방법.
  7. 제 3항 또는 제 5항에 있어서,
    상기 인식동작을 실행하는 단계는 마이크를 통해 아날로그 음성신호를 입력받아 디지털신호로 변환하는 단계와,
    상기 디지털 음성신호를 프레임단위로 세분화한 후 특징벡터를 추출하는 단계와,
    상기 특징벡터를 기설정된 길이의 특징벡터로 정규화하는 단계와,
    상기 일정길이의 특징벡터를 입력받는 동시에 단어별로 학습된 신경망계수를 입력받아 학습하여서 업데이트된 신경망계수를 출력하는 단계와,
    상기 업데이트된 신경망계수를 입력받아 이에 상응하는 인식결과를 외부장치로 출력하는 단계로 이루어진 것을 특징으로 하는 신경망을 이용한 음성인식방법
  8. 제 7항에 있어서,
    상기 특징벡터의 정규화방법은 현재 입력된 프레임의 숫자가 모자라면 근접한 두 프레임의 평균값으로 새로운 프레임을 만들어 내고, 원하는 프레임보다 현재 입력된 프레임 숫자가 더 많으면 중간 부분의 프레임은 생략하여 프레임수를 줄이는 것을 특징으로 하는 신경망을 이용한 음성인식방법.
KR1019990037709A 1999-09-06 1999-09-06 신경망을 이용한 음성인식장치 및 그 방법 KR100322202B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990037709A KR100322202B1 (ko) 1999-09-06 1999-09-06 신경망을 이용한 음성인식장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990037709A KR100322202B1 (ko) 1999-09-06 1999-09-06 신경망을 이용한 음성인식장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20010026402A true KR20010026402A (ko) 2001-04-06
KR100322202B1 KR100322202B1 (ko) 2002-02-06

Family

ID=19610255

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990037709A KR100322202B1 (ko) 1999-09-06 1999-09-06 신경망을 이용한 음성인식장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR100322202B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100429896B1 (ko) * 2001-11-22 2004-05-03 한국전자통신연구원 잡음 환경에서의 음성신호 검출방법 및 그 장치
KR101591883B1 (ko) * 2014-09-02 2016-02-19 포항공과대학교 산학협력단 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기
KR20200069264A (ko) 2020-03-23 2020-06-16 최현희 사용자 맞춤형 음성 선택이 가능한 음성 출력 시스템 및 그 구동방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10255909B2 (en) 2017-06-29 2019-04-09 Intel IP Corporation Statistical-analysis-based reset of recurrent neural networks for automatic speech recognition

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0185755B1 (ko) * 1994-02-03 1999-05-15 정호선 신경회로망을 이용한 음성인식 시스템
KR950034054A (ko) * 1994-05-16 1995-12-26 양승택 대어휘 음성인식을 위한 후보단어 추출장치 및 추출 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100429896B1 (ko) * 2001-11-22 2004-05-03 한국전자통신연구원 잡음 환경에서의 음성신호 검출방법 및 그 장치
KR101591883B1 (ko) * 2014-09-02 2016-02-19 포항공과대학교 산학협력단 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기
KR20200069264A (ko) 2020-03-23 2020-06-16 최현희 사용자 맞춤형 음성 선택이 가능한 음성 출력 시스템 및 그 구동방법

Also Published As

Publication number Publication date
KR100322202B1 (ko) 2002-02-06

Similar Documents

Publication Publication Date Title
US6671669B1 (en) combined engine system and method for voice recognition
JP3968133B2 (ja) 音声認識対話処理方法および音声認識対話装置
KR101237799B1 (ko) 문맥 종속형 음성 인식기의 환경적 변화들에 대한 강인성을 향상하는 방법
EP1022725B1 (en) Selection of acoustic models using speaker verification
US20020091522A1 (en) System and method for hybrid voice recognition
KR19980070329A (ko) 사용자 정의 문구의 화자 독립 인식을 위한 방법 및 시스템
US11763801B2 (en) Method and system for outputting target audio, readable storage medium, and electronic device
KR100698811B1 (ko) 음성 인식 거부 방식
JPH09127978A (ja) 音声認識方法及び装置及びコンピュータ制御装置
JP3535292B2 (ja) 音声認識システム
EP1110207B1 (en) A method and a system for voice dialling
JP2996019B2 (ja) 音声認識装置
KR100322202B1 (ko) 신경망을 이용한 음성인식장치 및 그 방법
US20080228477A1 (en) Method and Device For Processing a Voice Signal For Robust Speech Recognition
JPH07230293A (ja) 音声認識装置
JP3285704B2 (ja) 音声対話のための音声認識方法及び装置
JP4449380B2 (ja) 話者正規化方法及びそれを用いた音声認識装置
JPH0997095A (ja) 音声認識装置
JP3357752B2 (ja) パターンマッチング装置
JP4037709B2 (ja) 音声認識方法及び音声認識システム
CN118072733A (zh) 一种语音识别方法、系统、电子设备及存储介质
JP2004004182A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP2005148764A (ja) 音声認識対話処理方法および音声認識対話装置
JPH11224098A (ja) 単語音声認識システムにおける環境適応装置
JPH0667686A (ja) 音声認識装置

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20090114

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee