KR20040072691A - 멀티-레벨 분산 음성 인식을 위한 방법 및 장치 - Google Patents

멀티-레벨 분산 음성 인식을 위한 방법 및 장치 Download PDF

Info

Publication number
KR20040072691A
KR20040072691A KR10-2004-7010350A KR20047010350A KR20040072691A KR 20040072691 A KR20040072691 A KR 20040072691A KR 20047010350 A KR20047010350 A KR 20047010350A KR 20040072691 A KR20040072691 A KR 20040072691A
Authority
KR
South Korea
Prior art keywords
audio command
speech recognition
recognized
command
confidence value
Prior art date
Application number
KR10-2004-7010350A
Other languages
English (en)
Other versions
KR100632912B1 (ko
Inventor
세나카 발라스리야
Original Assignee
모토로라 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모토로라 인코포레이티드 filed Critical 모토로라 인코포레이티드
Publication of KR20040072691A publication Critical patent/KR20040072691A/ko
Application granted granted Critical
Publication of KR100632912B1 publication Critical patent/KR100632912B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates

Abstract

멀티 레벨 분산 음성 인식용 시스템 및 방법은 마이크로폰(130)에 결합된 터미널 음성 인식기(136)를 구비하는 터미널(122)을 포함한다. 터미널 음성 인식기(136)는 오디오 커맨드(37)를 수신하고, 터미널 신뢰값을 갖는 적어도 하나의 터미널 인식 오디오 커맨드를 생성한다. 적어도 하나의 네트워크 음성 인식기(150)를 갖는 네트워크 엘리먼트(124)도 또한 오디오 커맨드(149)를 수신하고, 네트워크 신뢰값을 갖는 적어도 하나의 네트워크 인식 오디오 커맨드를 생성한다. 비교기(152)는 인식된 오디오 커맨드를 수신하고, 음성 인식 신뢰값과 비교한다. 비교기(152)는 출력(162)을 적어도 하나의 인식된 오디오 커맨드의 대화 관리자(dialog manager)에 제공하고, 다음에 대화 관리자는 적어도 하나의 인식된 오디오 커맨드에 기초하여 오퍼레이션을 실행하며, 적어도 하나의 인식된 오디오 커맨드를 사용자에게 제시하여 콘텐츠 서버를 검증 및 액세싱하도록 한다.

Description

멀티-레벨 분산 음성 인식을 위한 방법 및 장치{METHOD AND APPARATUS FOR MULTI-LEVEL DISTRIBUTED SPEECH RECOGNITION}
헨드헬드 디바이스, 이동 전화, 랩탑, PDA, 인터넷 설비, 데스크탑 컴퓨터, 또는 적합한 디바이스와 같은 터미널 디바이스를 포함하는 최근의 기술 영역은 복수의 입출력 포맷에서 정보 전달의 어플리케이션에 관한 것이다. 전형적으로 터미널 디바이스에 상주하는 것은 특정 정보 요청과 같은 정보를 사용자가 입력하도록 하는 입력 시스템이다. 예컨대, 사용자는 특정 도시에 대한 날씨 정보를 얻도록 날씨 데이터베이스에 액세스하기 위해 터미널 디바이스를 이용할 수 있다. 전형적으로, 사용자는 "시카고의 날씨"와 같은 특정 위치에 대한 날씨 정보를 문의하기 위해 음성 커맨드를 입력할 수 있다. 터미널 디바이스에 관련된 처리 한계로 인해, 음성 커맨드는 통신 링크를 통해 네트워크 엘리먼트로 전송될 수 있고, 네트워크 엘리먼트는 네트워크내의 복수의 네트워크 엘리먼트 중의 하나이다. 네트워크 엘리먼트는 음성 커맨드를 인식하고, 사용자 요청 정보를 실행 및 검색하는 음성 인식 엔진를 포함한다. 또한, 음성 인식 엔진은 네트워크내에 배치되어 네트워크엘리먼트내에 상주하는 대신에 네트워크 엘리먼트에 동작가능하게 결합되어, 음성 인식 엔진은 복수의 네트워크 엘리먼트에 의해 액세스될 수 있다.
무선 기술의 진보에 따라, 무선 디바이스에 대한 사용자 어플리케이션은 증가되어 왔다. 많은 이러한 디바이스들은 더욱 상호작용하게 되고, 사용자가 커맨드 요청을 입력하고, 정보에 액세스할 수 있게 한다. 따라서, 이러한 무선 기술의 진보에 따라, 사용자가 특정 정보 요청을 제출하는 형태도 증가되어 왔다. 전형적으로, 사용자는 키패드를 통해 커맨드 요청을 입력할 수 있고, 터미널 디바이스는 이러한 입력을 부호화하여 네트워크 엘리먼트에 제공한다. 이러한 시스템의 통상적인 예는, 사용자가 계좌 번호 및 계좌 정보에 액세스하는 개인 식별 번호(PIN)를 입력하는 텔리폰 뱅킹 시스템이다. 터미널 디바이스 또는 네트워크 엘리먼트는, 키패드를 통해 입력을 수신하자마자, 입력을 듀얼 톤 멀티-프리퀀시 신호(DTMF)로 변환하여, 이 DTMF 신호를 뱅킹 서버에 제공한다.
게다가, 사용자는 음성 입력을 이용하여, 정보 요청과 같은 커맨드를 입력할 수 있다. 음성 인식 기술의 진보에도 불구하고, 터미널 디바이스내에서 음성 인식 능력을 제한하는 많은 프로세싱 및 메모리 기억장치가 있다. 전형적으로, 음성 인식 엔진은 입력 음성 커맨드에 매칭하는 음성 모델의 라이브러리를 포함한다. 신뢰할만한 음성 인식을 위해, 방대한 라이브러리가 요구되고, 이에 따라 상당한 양의 메모리도 필요하게 된다. 또한, 음성 인식 용량의 증가에 따라, 전력 소비도 증가하여, 터미널 디바이스 배터리의 수명도 단축된다.
터미널 음성 인식 엔진은 적응적 시스템일 수 있다. 음성 인식 엔진은, 더적은 인식된 커맨드의 라이브러리를 가지면서, 더 적응적이고, 톤, 억양, 액센트등과 같은 사용자의 차별적인 음성 패턴을 이해할 수 있게 된다. 따라서, 터미널내의 제한된 음성 인식 라이브러리는 더 높은 수준의 정확한 음성 인식 확률에 의해 오프셋된다. 이러한 시스템은 전형적으로 가장 통상적인 즉, 프로그램된 음성 활성화 다이얼링 특징과 같은 음성 커맨드에 의해서만 제한되는데, 여기서 사용자는 터미널에 프로그램되기 이전에 이름을 말하고, 시스템은 자동적으로 관련 번호를 다이얼링하게 된다.
음성 인식을 위한 다른 방법은 네트워크 엘리먼트에 완전한 음성 커맨드를 제공하는 것이다. 네트워크 음성 인식 엔진은 방대한 양의 가용 메모리에 의해 음성 인식 효율을 증가시키고, 관련된 전력 소비 요구에 대한 우려를 감소시킨다. 네트워크 엘리먼트상에서, 음성 인식 엔진이 복수의 네트워크 엘리먼트를 액세싱하는 복수의 사용자에 의해 액세스가능하여야함에도 불구하고, 네트워크 음성 인식 엔진은 액센트등과 같은 특유의 음성 패턴을 인식할 수 있게 되는 것에 의해 제한되는 것은 아니다. 이와 같이, 네트워크 음성 인식 엔진은 음성-인식된 커맨드에 대한 더 많은 어휘를 제공할 수 있지만, 개별적인 사용자 음성 패턴내의 고유한 제한으로 인해, 적절하게 인식할 확률을 낮게 한다.
또한, 최근의 기술 발전은 터미널 디바이스가 음성 커맨드를 인식하기를 시도하는 멀티-레벨 분산 음성 인식을 제공하고, 터미널내에서 인식되지 않으면, 음성 커맨드는 부호화되고, 제2 음성 인식 시도를 위해 네트워크 음성 인식 엔진에 제공된다. Hedin등에게 허여된 미국 특허 제 6,185, 535 B1은 서비스 어플리케이션에 대한 사용자 인터페이스의 음성 제어를 위한 시스템 및 방법을 개시하고 있다. 이러한 시스템은 스텝-와이즈(step-wise) 음성 인식을 제공하는데, 여기서는 적어도 하나의 네트워크 음성 인식 엔진만이 터미널 디바이스가 음성 커맨드를 인식하지 못하는 경우에 이용된다. 미국 특허 제 6,185,535는 오디오 커맨드가 터미널 음성 인식 엔진 또는 네트워크 음성 인식 엔진 중 하나로부터 정확하게 인식되는 것을 보장하는 단일 레벨만을 제공한다.
이와 같이, 음성 인식 엔진을 채용하는 개선된 통신 디바이스가 필요하게 된다.
본 발명은 일반적으로 통신 디바이스 및 방법에 관한 것이고, 특히, 음성 인식용 통신 디바이스 및 방법에 관한 것이다.
본 발명은 다음의 첨부도면에 의해 더욱 명확하게 이해될 것이다.
도 1은 종래의 무선 시스템을 도시하는 도면.
도 2는 본 발명의 일 실시예에 따른 멀티-레벨 분산 음성 인식용 장치의 블록도.
도 3은 본 발명의 일 실시예에 따른 멀티-레벨 분산 음성 인식을 위한 방법을 나타내는 플로우챠트.
도 4는 본 발명의 일 실시예에 따른 멀티-레벨 분산 음성 인식을 위한 시스템의 블록도.
도 5는 본 발명의 일 실시예에 따른 멀티-레벨 분산 음성 인식을 위한 방법을 나타내는 플로우챠트.
일반적으로, 터미널 디바이스의 오디오 서브시스템내의 마이크로폰에 동작가능하게 결합되고, 예컨대, "시카고의 날씨"와 같이 사용자로부터 제공된 음성 커맨드와 같은 오디오 커맨드를 수신하고, 적어도 하나의 터미널 인식된 오디오 커맨드를 생성하는 터미널 음성 인식 엔진을 통해 멀티-레벨 분산 음성 인식을 제공하는 시스템 및 방법이 제공되며, 여기서 적어도 하나의 터미널 인식된 오디오 커맨드는 대응하는 터미널 신뢰값(confidence value)을 가진다.
이러한 시스템 및 방법은 터미널내에서 마이크로폰에 동작가능하게 결합하고, 오디오 커맨드를 수신하고, 적어도 하나의 네트워크 인식된 오디오 커맨드를 생성하는 적어도 하나의 네트워크 음성 인식 엔진을 갖는 네트워크내의 네트워크 엘리먼트를 더 포함하고, 여기서 적어도 하나의 네트워크 인식된 오디오 커맨드는 대응하는 네트워크 신뢰값을 갖는다.
또한, 시스템 및 방법은 복수의 인식된 오디오 커맨드와 신뢰값을 비교하는 하드웨어 또는 소프트웨어로 구현된 모듈인 비교기를 포함한다. 비교기는 터미널 인식된 오디오 커맨드 및 터미널 음성 인식 신뢰값을 수신하기 위한 터미널 음성 인식 엔진에 동작가능하게 결합되고, 비교기는 네트워크 인식된 오디오 커맨드 및 네트워크 음성 인식된 신뢰값을 수신하기 위한 네트워크 음성 인식 엔진에 더 결합된다. 비교기는 터미널 음성 인식 신뢰값과 네트워크 음성 인식 신뢰값을 비교하고, 인식된 커맨드를 그 대응하는 신뢰값에 의해 컴파일링 및 분류한다. 일 실시예에서, 비교기는 특정 음성 인식 엔진에 기초하여 신뢰값에 가중 팩터를 부여하고, 특정 음성 인식 엔진으로부터의 신뢰값은 다른 신뢰값보다 더 큰 가중치가 부여된다.
대화 관리자(dialog manager)가 비교기에 동작가능하게 결합되는데, 대화 관리자는 당업자가 잘 아는, 음성 브라우저, 인터랙티브 음성 응답 유닛(IVR), 그래픽 브라우저, JAVA, 기반 어플리케이션, 소프트웨어 프로그램 어플리케이션, 또는 다른 소프트웨어/하드웨어 어플리케이션일 수 있다. 대화 관리자는 인식된 오디오 커맨드의 수신에 따라 커맨드를 수신, 해석 및 실행하는 하드웨어 또는 소프트웨어로 구현된 모듈이다. 대화 관리자는, 비교기에 N-최상 표시기(N-best indicator)를 제공할 수 있는데, N-최상 표시기는 대화 관리자로 제공될 최고의 신뢰값을 갖는 인식된 커맨드의 번호를 표시한다. 비교기는 인식된 오디오 커맨드 및 그 신뢰값, 즉, N-최상 인식된 오디오 커맨드 및 그 신뢰값의 관련 리스트를 대화 관리자에 제공한다. 또한, 비교기가 대화 관리자에게 임의의 인식된 오디오 커맨드를 제공하지 못하는 경우에는, 비교기는 에러 통지를 대화 관리자에게 제공한다.
대화 관리자가 하나 이상의 인식된 오디오 커맨드 및 대응하는 신뢰값을 수신할 때, 대화 관리자는 전술한 리스트를 더 한정하기 위한 부가적인 단계를 이용할 수 있다. 예컨대, 대화 관리자는 최고의 신뢰값으로 오디오 커맨드를 실행하거나 그 관련 리스트를 사용자에게 제시할 수 있어서, 사용자는 오디오 커맨드를 검증할 수 있다. 또한 대화 관리자가 에러 통지를 수신하거나, 인식된 오디오 커맨드의 어느것도 미리 정해진 최소 임계값 이상의 신뢰값을 갖지 않는 경우에는, 대화 관리자는 에러 메시지를 사용자에게 제공한다.
오디오 커맨드가 콘텐츠 서버로부터의 정보를 위해 요청되면, 대화 관리자는콘텐츠 서버에 액세스하고, 부호화된 정보를 검색한다. 인터넷을 통해 결합된 상업적으로 이용가능한 서버, 인트라넷을 통한 로컬 상주 서버, 뱅킹 시스템과 같은 상업적 어플리케이션 서버, 또는 임의의 다른 적절한 콘텐츠 서버와 같은 적어도 하나의 콘텐츠 서버가 대화 관리자에 동작가능하게 결합된다.
검색된 부호화된 정보는 대화 관리자에게 다시 제공되며, 하이퍼텍스트 마크-업 언어(HTML), 무선 마크-업 언어(WML), 확장 마크-업 언어(XML), 음성 확장 마크-업 언어(VoiceXML), 확장가능 하이퍼텍스트 마크업 언어(XHTML), 또는 다른 마크-업 언어와 같은 마크-업 언어로 부호화되어 복호화를 위해 대화 관리자에 제공된다. 따라서, 부호화된 정보는 대화 관리자에 의해 복호화되고, 사용자에게 제공된다.
이에 따라, 오디오 커맨드는, 제1 음성 인식 엔진은 터미널 디바이스상에 배치되고, 제2 음성 인식 엔진은 네트워크상에 배치되는 것과 같이, 멀티 레벨상에 배치될 수 있는 적어도 2개의 음성 인식 엔진간에 분산된다.
도 1은 사용자(102) 엑세스를 터미널(108)과 네트워크 엘리먼트(110)사이에서 통신 링크(106)를 통해 적어도 하나의 콘텐츠 서버(104)에 제공하는 종래의 무선 통신 시스템(100)을 도시한다. 네트워크 엘리먼트(110)는 네트워크(112)내의 복수의 네트워크 엘리먼트(110)의 하나이다. 사용자(102)는 예컨대, "시카고의 날씨" 등의 음성 커맨드와 같은 입력 커맨드(114)를 터미널(108)에 제공한다. 터미널(108)은 커맨드를 해석하고, 표준 무선 접속과 같은 통신 링크(106)를 통해 네트워크 엘리먼트(110)에 커맨드를 제공한다.
네트워크 엘리먼트(110)는 커맨드를 수신하고, 커맨드를 처리, 즉, 음성 인식기(도시되지 않음)를 이용하여 입력 커맨드(114)를 인식 및 해석하고, 다음에 복수의 콘텐츠 서버(104)의 적어도 하나에 액세스하여 요청된 정보를 검색한다. 일단 정보가 검색되면, 네트워크 엘리먼트(110)에 다시 제공된다. 따라서, 요청된 정보는 통신 링크(106)를 통해 터미널(108)에 제공되며, 터미널(108)은 가청 메시지와 같은 출력(116)을 사용자에게 제공한다.
도 1의 종래의 시스템에서는, 입력 커맨드(114)는 터미널(108)에 제공되는 음성 커맨드일 수 있다. 터미널(108)은 음성 커맨드를 부호화하고, 부호화된 음성 커맨드를 통신 링크(106)를 통해 네트워크 엘리먼트(110)에 제공한다. 전형적으로, 네트워크 엘리먼트(110)내의 음성 인식 엔진은 음성 커맨드를 인식하기를 시도할 것이고, 이에 따라 요청된 정보를 검색한다. 전술한 바와 같이, 음성 커맨드(114)는 터미널(108)내에서 해석되고, 다음에 터미널은 네트워크 엘리먼트(110)에 요청된 정보에 대한 요청을 제공한다.
오디오 커맨드(114)를 터미널(108)에 제공하고, 터미널(108)이 이러한 커맨드를 해석하기를 시도하는 것이 본 기술분야에 잘 알려져 있다. 터미널(108)이 커맨드(114)를 해석할 수 없는 경우에, 오디오 커맨드(114)는 다음에, 적어도 하나의 네트워크 음성 인식 엔진(도시되지 않음)에 의해 인식되는 네트워크 엘리먼트(110)에 통신 링크(106)를 통해 제공된다. 이러한 종래의 시스템은 스텝-와이즈(step-wise) 음성 인식 시스템을 제공하는데, 여기서는 적어도 하나의 네트워크 음성 인식 엔진만이, 터미널 음성 인식 엔진이 음성 인식 커맨드를 인식할 수 없는 경우에액세스된다.
도 2는 본 발명의 실시예에 따른 멀티-레벨 분산 음성 인식용 장치를 도시한다. 오디오 서브시스템(120)은 미국 메사추세츠 02111, 보스톤, 아틀란틱 에비뉴 695에 주소를 둔 SpeechWorks International, Inc에 의해 제조된 OpenSpeech 인식 엔진 1.0과 같은 제1 음성 인식 엔진(122) 및 적어도 하나의 제2 음성 인식 엔진(124) 모두에 동작가능하게 결합된다. 당업자가 알 수 있는 바와 같이, 임의의 다른 적절한 음성 인식 엔진도 여기에 이용될 수 있다. 오디오 서브시스템(120)은 접속(126)을 통해 음성 인식 엔진(122 및 124)에 결합된다. 제1 음성 인식 엔진(122)은 접속(130)을 통해 비교기(128)에 동작가능하게 결합되고, 제2 음성 인식 엔진(124)은 접속(132)을 통해 비교기(128)에 동작가능하게 결합된다.
비교기(128)는 접속(136)을 통해 대화 관리자(134)에 결합된다. 대화 관리자는 접속(140)을 통해 콘텐츠 서버(138)에 결합되고, 접속(144)를 통해 음성 합성 엔진(142)에 결합된다. 게다가, 음성 합성 엔진은 접속(146)을 통해 오디오 서브 시스템(120)에 동작가능하게 더 결합된다.
도 2의 장치의 동작은 본 발명의 실시예에 따른, 멀티-레벨 분산 음성 인식을 위한 방법을 도시하는 도 3을 참조하여 설명된다. 이 방법은 단계(150)에서 개시되고, 단계(152)에서 장치는 오디오 커맨드를 수신한다. 전형적으로, 오디오 커맨드는 오디오 서브시스템(120)에 제공된다. 더 구체적으로, 오디오 커맨드는 오디오 서브시스템(120)내에 배치된 마이크로폰(도시되지 않음)을 통해 제공될 수 있다. 당업자가 알 수 있는 바와 같이, 오디오 커맨드는 메모리 로케이션으로부터 판독되거나, 어플리케이션으로부터 제공되는등의 임의의 다른 적절한 수단으로부터 제공될 수 있다.
오디오 커맨드를 수신하자마자, 오디오 서브시스템은 오디오 커맨드를 단계(154)에 지시된 바와 같이, 제1 음성 인식 엔진(122) 및 적어도 하나의 제2 음성 인식 엔진(124)에 제공한다. 오디오 커맨드는 접속(126)을 지나 제공된다. 다음에, 제1 음성 인식 엔진(122)은 오디오 커맨드를 인식하여, 적어도 하나의 인식된 오디오 커맨드를 생성하고, 여기서 적어도 하나의 제1의 인식된 오디오 커맨드는 단계(156)에 지시된 바와 같이 대응하는 제1 신뢰값을 갖는다. 또한, 단계(158)에 지시된 바와 같이, 적어도 하나의 제2의 음성 인식 엔진은 오디오 커맨드를 인식하고, 적어도 하나의 제2의 인식된 오디오 커맨드를 생성하며, 여기서 적어도 하나의 제2의 인식된 오디오 커맨드는 대응하는 제2의 신뢰값을 갖는다. 적어도 하나의 제2 음성 인식 엔진은 제1 음성 인식 엔진과 동일한 오디오 커맨드를 인식하지만, 제1 음성 인식 엔진과는 독립적으로 오디오 커맨드를 인식한다.
제1 음성 인식 엔진(122)은 다음에, 적어도 하나의 제1의 인식된 오디오 커맨드를 접속(130)을 통해 비교기(128)에 제공하며, 적어도 하나의 제2 음성 인식 엔진(124)은 적어도 하나의 제2 음성 인식된 오디오 커맨드를 접속(132)을 통해 비교기(128)에 제공한다. 본 발명의 일 실시예에서, 비교기는, 적어도 하나의 제1 신뢰값에 제1 가중 팩터 만큼의 가중치를 부여하고, 적어도 하나의 제2 신뢰값에 제2 가중 팩터 만큼의 가중치를 부여한다. 예컨대, 비교기는 제1 음성 인식 엔진의 인식에 추종하며, 이에 따라 단계(160)에 지시된 바와 같이, 제1 신뢰값은 .95의 스케일링 팩터에 의해 승산되고, 제2 신뢰값은 .90의 스케일일 팩터에 의해 승산된다.
다음에, 비교기는 단계(162)에 지시된 바와 같이, 적어도 하나의 제1 신뢰값 및 적어도 하나의 제2 신뢰값에 기초하여, 적어도 하나의 제1의 인식된 오디오 커맨드 및 적어도 하나의 제2의 인식된 오디오 커맨드로부터 인식된 오디오 커맨드 신뢰값을 갖는 적어도 하나의 인식된 오디오 커맨드를 선택한다. 본 발명의 일 실시예에서, 대화 관리자는 비교기에 요청된 인식 커맨드의 수를 표시하는 N-최상 표시기를 제공하며, 여기서 N-최상 표시기가 5이면, 5-최상 인식된 커맨드가 있는 것이다.
대화 관리자(134)는 접속(136)을 통해 비교기(128)로부터 N-최상 인식된 오디오 커맨드와 같은 인식된 오디오 커맨드를 수신한다. 대화 관리자는 다음에, 단계(164)에 지시된 바와 같이, 적어도 하나의 인식된 오디오 커맨드에 기초하여 적어도 하나의 오퍼레이션을 실행한다. 예컨대, 대화 관리자는 단계(166)에 지시된 바와 같이, 인식된 오디오 커맨드의 N-최상 리스트를 사용자 검증을 위해 사용자에게 제공함으로써, 적어도 하나의 인식된 오디오 커맨드를 검증하는 것을 시도할 수 있다. 본 발명의 일 실시예에서, 대화 관리자(134)는 인식된 오디오 커맨드의 N-최상 리스트를 접속(144)을 통해 음성 합성 엔진(142)에 제공한다. 음성 합성 엔진(142)은 N-최상 인식된 오디오 커맨드를 합성하고, 그것을 접속(146)을 통해 오디오 서브시스템(120)에 제공한다.
또한, 대화 관리자는, 0.65와 같은 최소 신뢰 레벨과 적어도 하나의 인식된 오디오 커맨드 신뢰값을 비교하는 것과 같이, N-최상 리스트상에서 필터링 오퍼레이션을 더 수행하여, 최고의 신뢰값을 갖는 인식된 오디오 커맨드를 적절한 인식된 오디오 커맨드로 간단하게 지정하게 된다. 여기서, 대화 관리자는, 접속(140)을 통해, 특정 도시에 대한 날씨 정보와 같은 요청된 정보를 검색하기 위해 콘텐츠 서버(138)에 액세싱하는 것과 같은 커맨드를 실행한다.
게다가, 단계(168)에 지시된 바와 같이, 비교기는 적어도 하나의 제1 신뢰값 및 적어도 하나의 제2 신뢰값이 최소 신뢰 레벨이하일 때, 에러 통지를 생성한다. 예컨대, 도 2를 참조하면, 비교기(128)는 제1 신뢰값 및 제2 신뢰값이 비교되는 0.55와 같은 내부 최소 신뢰 레벨을 가질 수 있다. 제1 신뢰값 또는 제2 신뢰값 어느 것도 최소 신뢰 레벨 이하가 아니면, 비교기는 접속(176)을 통해 대화 관리자(134)에 에러 통지를 발행한다.
또한, 대화 관리자는 N-최상 인식된 오디오 커맨드내에서와 같이, 인식된 오디오 커맨드가 대화 관리자 최소 신뢰 레벨 이상의 인식된 신뢰값을 포함하지 못하는 경우에 에러 통지를 발행할 수 있다. 또한, 제1 음성 인식 엔진 및 적어도 하나의 제2 음성 인식 엔진이 임의의 오디오 커맨드를 인식할 수 없게 되거나, 인식된 오디오 커맨드가 제1 음성 인식 엔진, 제2 음성 인식 엔진 또는 비교기에 의해 지정되는 최소 신뢰 레벨 이하인 때에도 에러 통지가 비교기에 의해 생성된다.
비교기(128) 또는 대화 관리자(134)중 하나를 통해, 에러 통지가 발행될 때, 다음에 대화 관리자는 에러 커맨드를 실행하고, 여기서 에러 커맨드는 접속(144)를통해 음성 합성 엔진(142)에 제공되고, 접속(146)을 통해 오디오 서브시스템(120)을 경유하여 말단 사용자에게도 더 제공된다. 당업자가 알수 있는 바와 같이, 에러 커맨드는 시각적 디스플레이를 이용하여 임의의 다른 적절한 수단을 통해 사용자에게 제공될 수 있다.
따라서, 도 2의 장치는 멀티-레벨 분산 음성 인식을 제공한다. 단계(170)에 지시된 바와 같이, 일단 대화 관리자가 적어도 하나의 인식된 커맨드에 응답하여 오퍼레이션을 실행하면, 방법은 종료된다.
도 4는 본 발명에 따른 멀티-레벨 분산 음성 인식 시스템을 도시한다. 시스템(200)은 터미널(202) 및 네트워크 엘리먼트(204)를 포함한다. 당업자가 알 수 있는 바와 같이, 네트워크 엘리먼트(204)는 네트워크(206)내의 복수의 네트워크 엘리먼트(204) 중의 하나이다.
터미널(202)은 여러 가지 중에서, 스피커(208) 및 마이크로폰(210)을 포함하는 오디오 서브시스템(206)을 구비한다. 오디오 서브시스템(206)은 터미널 음성 전달 인터페이스(212)에 동작가능하게 결합된다. 또한, 터미널 세션 제어(214)는 터미널(202)내에 배치된다.
터미널(202)는 또한 접속(218)을 통해 오디오 서브시스템(206)에 동작가능하게 결함되고, 미국 일리노이즈주, 60196, 슘버그, 이스트 알곤킨 로드, 1301에 주소를 둔 Motorola, Inc에 의해 제조되어, 음성 활성화 다이얼링을 제공하는, Motorola i90cTM에 나타나는 것과 같은 터미널 음성 인식 엔진(216)을 구비한다.당업자가 알 수 있는 바와 같이, 다른 적절한 음성 인식 엔진이 여기에 이용될 수 있다. 터미널 음성 인식 엔진(216)은 오디오 서브시스템(206)내의 마이크로폰(210)을 통해 사용자(222)로부터 최초로 제공되는 오디오 커맨드(220)를 수신한다.
터미널 세션 제어(214)는 네트워크 엘리먼트(204)내에 배치된 네트워크 엘리먼트 세션 제어(222)에 동작가능하게 결합된다. 당업자가 알 수 있는 바와 같이, 터미널 세션 제어(214) 및 네트워크 엘리먼트 세션 제어(222)는 세션의 지속기간동안에는 통신 세션의 초기화시에 통신하고, 통신 세션의 종료시에도 통신한다. 예컨대, 초기화 스타트업동안 어드레스 지정이 터미널(202)내에 배치된 다양한 엘리먼트 및 네트워크 엘리먼트(204)에 제공된다.
터미널 음성 전달 인터페이스(212)는 네트워크 엘리먼트(204)내에 배치된 네트워크 엘리먼트 음성 전달 인터페이스(224)에 동작가능하게 결합된다. 네트워크 엘리먼트 음성 전달 인터페이스(224)는, 미국 메사추세츠 020111, 보스톤, 아틀란틱 애비뉴, 695에 주소를 둔, SpeechWorks International, Inc에 의해 제조된 OpenSpeech 인식 엔진 1.0과 같은 적어도 하나의 네트워크 음성 인식 엔진(226)에 동작가능하게 더 결합된다. 당업자가 알 수 있는 바와 같이, 임의의 다른 적절한 음성 인식 엔진도 여기에 이용될 수 있다. 적어도 하나의 네트워크 음성 인식 엔진(226)은 접속(230)을 통해 비교기(228)에 더 결합되고, 비교기는 여러 가지중에서, 하드웨어 또는 소프트웨어중 하나로 구현될 수 있고, 터미널 음성 인식 엔진(216) 및 네트워크 음성 인식 엔진(226)으로부터 수신되어 인식된 오디오 커맨드로부터 적어도 하나의 인식된 오디오 커맨드를 선택한다.
비교기(228)는 접속(232)을 통해, 터미널(202)내에 배치된 터미널 음성 인식 엔진(216)에 더 결합된다. 비교기(228)는 접속(236)을 통해 대화 관리자(234)에 결합된다. 대화 관리자(234)는 복수의 모듈에 동작가능하게 결합하고, 접속(240)을 통해 음성 합성 엔진(238)에 결합되며, 적어도 하나의 콘텐츠 서버(104)에 결합된다. 당업자가 알 수 있는 바와 같이, 대화 관리자는 도 4에서는 단순화를 위해 생략된 복수의 다른 콤포넌트에 결합될 수도 있다.
도 5는 본 발명의 일 실시예에 따른, 멀티-레벨 분산 음성 인식을 위한 방법을 도시한다. 도 4를 참조하여 알 수 있는 바와 같이, 도 5의 방법은 오디오 커맨드가 터미널(202)내에서 수신될 때, 단계(300)에서 개시한다. 전형적으로, 오디오 커맨드는 사용자(102)로부터 터미널(202)에 제공되어 오디오 입력을 오디오 서브시스템(206)의 마이크로폰(210)에 제공한다. 오디오 입력은 단계(304)에 지시된 바와 같이, 표준 부호화 포맷에 의해 부호화되고, 터미널 음성 인식 엔진(216)에 제공되며, 터미널 음성 전달 인터페이스(212) 및 적어도 하나의 네트워크 엘리먼트 음성 전달 인터페이스(224)를 통해 적어도 하나의 네트워크 음성 인식 엔진(226)에 더 제공된다.
도 2의 장치와 유사하게, 터미널 음성 인식 엔진은 오디오 커맨드를 인식하고, 적어도 하나의 터미널 인식된 오디오 커맨드를 생성하고, 여기서 적어도 하나의 터미널 인식된 오디오 커맨드는 단계(306)에 지시된 바와 같이 대응하는 터미널 신뢰값을 갖는다. 또한, 적어도 하나의 네트워크 음성 인식 엔진(226)은 오디오커맨드를 인식하고, 적어도 하나의 네트워크 인식된 오디오 커맨드를 생성하며, 여기서 적어도 하나의 네트워크 인식된 오디오 커맨드는 단계(308)에 지시된 바와 같이, 대응하는 네트워크 신뢰값을 갖는다. 적어도 하나의 네트워크 음성 인식 엔진(226)은 동일한 오디오 커맨드를 터미널 음성 인식으로서 인식하고, 또한 터미널 음성 인식 엔진과는 독립적으로 오디오 커맨드를 인식한다.
일단 오디오 커맨드가 터미널 음성 인식 엔진(216)에 의해 인식되면, 적어도 하나의 터미널 인식된 오디오 커맨드는 접속(232)을 통해 비교기(228)에 제공된다. 또한, 일단 적어도 하나의 네트워크 음성 인식 엔진(226)이 오디오 커맨드를 인식하면, 적어도 하나의 네트워크 인식된 오디오 커맨드는 접속(230)을 통해 비교기(228)에 제공된다.
본 발명의 일 실시예에서, 비교기(228)는 단계(310)에 지시된 바와 같이, 적어도 하나의 터미널 신뢰값에 터미널 가중 팩터 만큼의 가중치를 부여하고, 적어도 하나의 네트워크 신뢰값에 네트워크 가중 팩터 만큼의 가중치를 부여한다. 예컨대, 비교기는 적어도 하나의 네트워크 음성 인식 엔진(226)의 인식 용량에 추종을 허용할 수 있고, 따라서, 조정, 즉, 네트워크 신뢰값을 스케일링 팩터에 의해 승산하여, 네트워크 신뢰값을 증가시키고, 또한, 조정, 즉, 터미널 신뢰값을 스케일링 팩터에 의해 승산하여 터미널 신뢰값을 감소시킨다.
게다가, 본 방법은 단계(312)에 지시된 바와 같이, 인식된 오디오 커맨드 신뢰값을 갖는 적어도 하나의 인식된 오디오 커맨드를 적어도 하나의 터미널 인식된 오디오 커맨드 및 적어도 하나의 네트워크 인식된 오디오 커맨드로부터 선택하는단계를 제공한다. 구체적으로, 비교기(228)는 인식된 오디오 커맨드 신뢰값에 기초하여 복수의 인식된 오디오 커맨드를 선택한다. 본 발명의 일 실시예에서, 대화 관리자(234)는 비교기(228)에 N-최상 표시기를 제공하는데, 이 N-최상 표시기는 대화 관리자(234)에 제공하기 위한 인식된 오디오 커맨드의 수 N을 표시한다. 비교기(228)는 적어도 하나의 인식된 오디오 커맨드 및 적어도 하나의 네트워크 인식된 오디오 커맨드를 그 대응하는 신뢰값에 따라 분류하여, 그것으로부터 N-최상 커맨드를 추출한다.
본 발명의 일 실시예에서, 비교기(228)는 신뢰값에 대응하는 인식된 오디오 커맨드에 기초하여 적어도 하나의 터미널 인식된 오디오 커맨드 및 적어도 하나의 네트워크 인식된 오디오 커맨드를 필터링할 수 있다. 예컨대, 비교기는 인식된 오디오 커맨드 신뢰값이 비교되는 최소 신뢰값을 가질 수 있고, 최소 신뢰 레벨 이하의 신뢰값을 갖는 모든 인식된 오디오 커맨드는 제거된다. 이에 따라, 비교기는 대화 관리자에 N-최상 커맨드를 제공한다.
또한, 비교기는, 최소 신뢰 레벨이상인 신뢰값을 갖는 N 커맨드보다 적은 커맨드가 있는 경우에, N 커맨드보다 적은 커맨드를 대화 관리자에 제공할 수 있다. 비교기가 최소 신뢰 레벨이상인 신뢰값을 갖는 임의의 인식된 커맨드를 수신하지 못하는 경우, 비교기는 에러 통지를 생성하고, 이 에러 통지는 접속(236)을 통해 대화 관리자에 제공된다. 그리고, 단계(314)에 지시된 바와 같이, 에러 통지는 적어도 하나의 터미널 신뢰값 및 적어도 하나의 네트워크 신뢰값이 최소 신뢰 레벨 이하인 때, 즉, 신뢰 레벨이 0.5이하인 때, 생성된다.
본 발명의 일 실시예에서, 단계(316)에 지시된 바와 같이, 대화 관리자는 적어도 하나의 인식된 오디오 커맨드를 검증하고, 검증되고 인식된 오디오 커맨드를 생성하고, 검증되고 인식된 오디오 커맨드에 기초하여 오퍼레이션을 실행한다. 예컨대, 대화 관리자는 N-최상 인식된 오디오 커맨드를, 음성 전달 인터페이스(212 및 214) 및 음성 합성 엔진(238)을 경유하여 스피커(208)를 통해 사용자에게 제공할 수 있다. 이에 따라, 사용자는 다음에 N-최상 커맨드 중 어느 것이 원래의 오디오 커맨드를 정확하게 반영하는지를 선택하고, 검증되고 인식된 오디오 커맨드를 생성한다.
검증되고 인식된 오디오 커맨드는 다음에, 원래의 오디오 커맨드가 제공되는것과 동일한 방식으로 대화 관리자(234)에 다시 제공된다. 예컨대, N-최상 리스트의 4번째 인식된 오디오 커맨드가 적절한 커맨드라면, 사용자는 이 커맨드를 검증하고, 검증되고 인식된 오디오 커맨드를 생성하며, 사용자는 다음에, 마이크로폰(206)으로 워드(4)를 말할 수 있고, 이것은 터미널 음성 인식 엔진(216) 및 적어도 하나의 네트워크 음성 인식 엔진(226) 모두에 제공되며, 또한 비교기(228)에도 제공되며, 비교기(228)에서는 대화 관리자(234)로 제공된다. 대화 관리자(234)는 검증되고 인식된 오디오 커맨드를 수신하자마자 이러한 검증되고 인식된 오디오 커맨드에 기초하여 오퍼레이션을 실행한다.
대화 관리자(234)는 적어도 하나의 인식된 오디오 커맨드, 또는 검증된 오디오 커맨드에 기초하여 복수의 오퍼레이션을 실행할 수 있다. 예컨대, 대화 관리자는 요청된 정보를 검색하기 위해, 상업용 데이터베이스와 같은 콘텐츠 서버(104)에액세스할 수 있다. 또한, 대화 관리자는, 프로그램된 어플리케이션의 다음 단계로 진행하는 것과 같은, 프로그램내에서 오퍼레이션을 실행할 수 있다. 또한, 대화 관리자는 인식된 오디오 커맨드를 하나의 폼에 기입할 수 있고, 이에 따라 사용자로부터 폼에 대한 다음 엔트리 또는 입력을 요청한다. 당업자가 알 수 있는 바와 같이, 대화 관리자는 적어도 하나의 인식된 오디오 커맨드의 수신에 따라 임의의 적절한 오퍼레이션을 수행할 수 있다.
본 발명의 일 실시예에서, 단계(318)에 지시된 바와 같이, 대화 관리자는 적어도 하나의 인식된 오디오 커맨드를 수신하자마자, 적어도 하나의 인식된 오디오 커맨드 신뢰값에 기초하여 적어도 하나의 인식된 오디오 커맨드를 필터링하고, 최고로 인식된 오디오 커맨드 신뢰값을 갖는 인식된 오디오 커맨드에 기초하여 오퍼레이션을 실행한다. 예컨대, 대화 관리자는, 0.6이하와 같은, 소정의 설정값 이하인 신뢰값을 갖는 모든 인식된 오디오 커맨드를 제거할 수 있고, 나머지의 인식된 오디오 커맨드에 기초하여 오퍼레이션을 실행할 수 있다. 주지된 바와 같이, 대화 관리자는 적어도 하나의 인식된 오디오 커맨드에 응답하여 임의의 적절한 실행가능 오퍼레이션을 실행할 수 있다.
또한, 대화 관리자는 필터링에 기초하여, 비교기(236)에서 수행된 오퍼레이션과 유사하게, 소정의 신뢰 레벨 이하인 신뢰값을 갖는 임의의 인식된 오디오 커맨드를 제거하길 시도할 수 있다. 예컨대, 대화 관리자는 비교기보다 더 높은 최소 신뢰값을 설정할 수 있고, 이러한 최소 신뢰 레벨은 시스템(200)의 나머지와는 독립적으로 대화 관리자(234)에 의해 설정될 수 있다. 대화 관리자가 필터링후에,대화 관리자 최소 신뢰 레벨이상인 임의의 인식된 오디오 커맨드를 포함하지 못하게 되는 경우에, 대화 관리자(234)는 비교기(228)와 유사하게 에러 통지를 생성하게 된다.
일단 에러 통지가 생성되면, 대화 관리자는 에러 커맨드(234)를 실행하고, 사용자(102)에게 오디오 커맨드가 적절하게 수신되지 않았다는 것을 알린다. 당업자가 알 수 있는 바와 같이, 대화 관리자는 비교기(228)에 의해 수행된 것과 같은 에러 통지를 생성하는 대신에 간단하게 에러 커맨드를 실행할 수 있다.
일단 대화 관리자가 오퍼레이션을 완전하게 실행하면, 멀티-레벨 분산 인식을 위한 방법은 단계(320)에 지시된 바와 같이 종료한다.
본 발명은 제1 음성 인식 엔진 및 적어도 하나의 제2 음성 인식 엔진을 통한 멀티-레벨 분산 음성 인식에 관한 것이다. 본 발명의 일 실시예예서, 제1 음성 인식 엔진은 터미널내에 배치되고, 적어도 하나의 제2 음성 인식 엔진은 네트워크내에 배치된다. 당업자가 알 수 있는 바와 같이, 음성 인식 엔진은 터미널, 네트워크 엘리먼트, 네트워크 엘리먼트에 동작가능하게 결합된 네트워크상의 별개의 서버내등에 배치될 수 있고, 음성 인식 엔진은 오디오 커맨드를 수신하고, 비교될 적어도 하나의 인식된 오디오 커맨드를 대화 관리자에 제공한다. 또한, 본 발명은, 제1 음성 인식 엔진에 제공되는 동일한 커맨드와는 독립적으로 제2 음성 인식 엔진에 오디오 커맨드를 제공하여 종래기술에 비해 개선된 점을 갖는다. 따라서, 제1 음성 인식 엔진의 인식 용량에 무관하게, 동일한 오디오 커맨드가 제2 음성 인식 엔진에 더 제공된다. 이에 따라, 본 발명은 비교기 및 수신하는 대화 관리자와 결합되는 복수의 음성 인식 엔진을 이용하여 음성 인식의 신뢰성을 향상시키고, 시스템 및 방법의 음성 인식의 정확도를 개량할 수 있게 한다.
당업자는 본 발명의 다른 변형 및 변경과 그 다양한 양태의 구현을 명확하게 알 수 있고, 본 발명은 여기 개시된 특정 실시예에 제한되는 것은 아니라는 것도 알 수 있다. 예컨대, 도 4의 비교기 및 대화 관리자는 네트워크 엘리먼트내에 상주하는 대신 네트워크 엘리먼트에 결합되는 서버상에 배치될 수 있다. 따라서, 임의의 모든 변형, 변경, 및 균등예가 여기서 클레임되고 개시된 본 발명의 근본 원리의 사상 및 범주를 벗어남이 없이 본 발명에 모두 포함될 수 있다는 것을 알 수 있다.

Claims (13)

  1. 멀티-레벨 분산 음성 인식(speech recognition)을 위한 방법에 있어서,
    오디오 커맨드(audio command)를 제1 음성 인식 엔진 및 적어도 하나의 제2 음성 인식 엔진에 제공하는 단계;
    상기 제1 음성 인식 엔진내의 상기 오디오 커맨드를 인식하여, 적어도 하나의 제1의 인식된 오디오 커맨드를 생성하는 단계 - 상기 적어도 하나의 제1의 인식된 오디오 커맨드는 대응하는 제1 신뢰값(confidence value)을 가짐 -; 및
    상기 제1 음성 인식 엔진에 의한 상기 오디오 커맨드를 인식하는 단계와는 독립적으로, 상기 적어도 하나의 제2 음성 인식 엔진내의 상기 오디오 커맨드를 인식하여, 적어도 하나의 제2의 인식된 오디오 커맨드를 생성하는 단계 - 상기 적어도 하나의 제2의 인식된 오디오 커맨드는 대응하는 제2 신뢰값을 가짐 - 를 포함하는 방법.
  2. 제1항에 있어서,
    상기 적어도 하나의 제1 신뢰값 및 상기 적어도 하나의 제2 신뢰값에 기초하여, 상기 적어도 하나의 제1의 인식된 오디오 커맨드 및 상기 적어도 하나의 제2의 인식된 오디오 커맨드로부터, 인식된 오디오 커맨드 신뢰값을 갖는 적어도 하나의 인식된 오디오 커맨드를 선택하는 단계를 더 포함하는 방법.
  3. 제2항에 있어서,
    상기 적어도 하나의 인식된 오디오 커맨드를 선택하기 전에,
    상기 적어도 하나의 제1 신뢰값에 제1 가중 팩터 만큼의 가중치를 부여하고, 상기 적어도 하나의 제2 신뢰값에 제2 가중 팩터 만큼의 가중치를 부여하는 단계를 더 포함하는 방법.
  4. 제2항에 있어서,
    상기 적어도 하나의 인식된 오디오 커맨드에 기초하여 적어도 하나의 오퍼레이션을 실행하는 단계를 더 포함하는 방법.
  5. 제2항에 있어서,
    상기 적어도 하나의 인식된 오디오 커맨드를 검증하는 단계를 더 포함하는 방법.
  6. 제1항에 있어서,
    상기 적어도 하나의 제1 신뢰값 및 상기 적어도 하나의 제2 신뢰값이 최소 신뢰 레벨이하일 때, 에러 통지를 생성하는 단계를 더 포함하는 방법.
  7. 멀티-레벨 분산 음성 인식용 장치에 있어서,
    오디오 커맨드를 수신하고, 적어도 하나의 제1의 인식된 오디오 커맨드를 생성하기 위해, 오디오 서브시스템에 동작가능하게 결합된 제1 음성 인식 수단 - 상기 적어도 하나의 제1의 인식된 오디오 커맨드는 제1 신뢰값을 가짐 -;
    상기 오디오 커맨드를 수신하고, 상기 제1 음성 인식 수단과는 독립적으로, 적어도 하나의 제2의 인식된 오디오 커맨드를 생성하기 위해, 상기 오디오 서브시스템에 동작가능하게 결합된 제2 음성 인식 수단 - 상기 적어도 하나의 제2의 인식된 오디오 커맨드의 각각은 제2 신뢰값을 가짐 -; 및
    상기 적어도 하나의 제1의 인식된 오디오 커맨드 및 상기 적어도 하나의 제2의 인식된 오디오 커맨드를 수신하기 위해, 상기 제1 음성 인식 수단 및 상기 제2 음성 인식 수단에 동작가능하게 결합된 수단을 포함하는 장치.
  8. 제7항에 있어서,
    상기 수신용 수단에 동작가능하게 결합된 대화 관리자(dialog manager)를 더 포함하고,
    상기 수신용 수단은 상기 적어도 하나의 제1 신뢰값 및 상기 적어도 하나의 제2 신뢰값에 기초하여, 상기 적어도 하나의 제1의 인식된 오디오 커맨드 및 상기 적어도 하나의 제2의 인식된 오디오 커맨드로부터, 인식된 신뢰값을 갖는 적어도 하나의 인식된 오디오 커맨드를 선택하고,
    상기 선택된 적어도 하나의 인식된 오디오 커맨드는 상기 대화 관리자에 제공되는 장치.
  9. 제7항에 있어서,
    상기 대화 관리자는 상기 적어도 하나의 인식된 오디오 커맨드 신뢰 레벨에 기초하여 상기 적어도 하나의 인식된 오디오 커맨드로부터 대화 관리자 오디오 커맨드를 결정하고,
    상기 대화 관리자는 상기 대화 관리자 오디오 커맨드에 응답하여 오퍼레이션을 실행하는 장치.
  10. 제9항에 있어서,
    상기 대화 관리자는 콘텐츠 서버에 액세싱하고, 상기 대화 관리자 오디오 커맨드에 응답하여 부호화된 정보를 검색하는 장치.
  11. 제10항에 있어서,
    상기 대화 관리자에 동작가능하게 결합된 음성 합성 엔진을 더 포함하고,
    상기 음성 합성 엔진은 상기 대화 관리자로부터 음성 부호화된 정보를 수신하고, 음성 포맷화된 정보를 생성하는 장치.
  12. 제11항에 있어서,
    상기 오디오 서브시스템은 상기 음성 합성 엔진에 동작가능하게 결합되고,
    상기 오디오 서브시스템은 상기 음성 포맷화된 정보를 수신하고, 출력 메시지를 제공하는 장치.
  13. 제12항에 있어서,
    비교기가 상기 대화 관리자에 에러 통지를 제공할 때, 상기 출력 메시지는 에러 서술문(statement)인 장치.
KR1020047010350A 2001-12-29 2002-12-20 멀티-레벨 분산 음성 인식을 위한 방법 및 장치 KR100632912B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/034,542 US6898567B2 (en) 2001-12-29 2001-12-29 Method and apparatus for multi-level distributed speech recognition
US10/034,542 2001-12-29
PCT/US2002/040794 WO2003058604A1 (en) 2001-12-29 2002-12-20 Method and apparatus for multi-level distributed speech recognition

Publications (2)

Publication Number Publication Date
KR20040072691A true KR20040072691A (ko) 2004-08-18
KR100632912B1 KR100632912B1 (ko) 2006-10-13

Family

ID=21877069

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020047010350A KR100632912B1 (ko) 2001-12-29 2002-12-20 멀티-레벨 분산 음성 인식을 위한 방법 및 장치

Country Status (7)

Country Link
US (1) US6898567B2 (ko)
JP (1) JP4509566B2 (ko)
KR (1) KR100632912B1 (ko)
CN (1) CN1320519C (ko)
AU (1) AU2002367354A1 (ko)
FI (2) FI125330B (ko)
WO (1) WO2003058604A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100655489B1 (ko) * 2004-12-06 2006-12-08 한국전자통신연구원 잡음환경하의 음성인식엔진 평가 시스템 및 자동화 방법
KR100695127B1 (ko) * 2004-10-08 2007-03-14 삼성전자주식회사 다 단계 음성 인식 장치 및 방법
KR100728620B1 (ko) * 2005-02-07 2007-06-14 한국정보통신대학교 산학협력단 집합적 음성인식 시스템 및 그 시스템에서의 음성인식 방법
WO2015030474A1 (ko) * 2013-08-26 2015-03-05 삼성전자 주식회사 음성 인식을 위한 전자 장치 및 방법

Families Citing this family (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003463B1 (en) 1998-10-02 2006-02-21 International Business Machines Corporation System and method for providing network coordinated conversational services
US7366673B2 (en) 2001-06-15 2008-04-29 International Business Machines Corporation Selective enablement of speech recognition grammars
GB2383459B (en) * 2001-12-20 2005-05-18 Hewlett Packard Co Speech recognition system and method
US7203644B2 (en) * 2001-12-31 2007-04-10 Intel Corporation Automating tuning of speech recognition systems
US20030145062A1 (en) * 2002-01-14 2003-07-31 Dipanshu Sharma Data conversion server for voice browsing system
US7324942B1 (en) * 2002-01-29 2008-01-29 Microstrategy, Incorporated System and method for interactive voice services using markup language with N-best filter element
JP2003295890A (ja) * 2002-04-04 2003-10-15 Nec Corp 音声認識対話選択装置、音声認識対話システム、音声認識対話選択方法、プログラム
US7809565B2 (en) * 2003-03-01 2010-10-05 Coifman Robert E Method and apparatus for improving the transcription accuracy of speech recognition software
FR2853126A1 (fr) * 2003-03-25 2004-10-01 France Telecom Procede de reconnaissance de parole distribuee
JP4000095B2 (ja) * 2003-07-30 2007-10-31 株式会社東芝 音声認識方法、装置及びプログラム
US20050209859A1 (en) * 2004-01-22 2005-09-22 Porto Ranelli, Sa Method for aiding and enhancing verbal communication
US20050177371A1 (en) * 2004-02-06 2005-08-11 Sherif Yacoub Automated speech recognition
US7421387B2 (en) * 2004-02-24 2008-09-02 General Motors Corporation Dynamic N-best algorithm to reduce recognition errors
US20050187767A1 (en) * 2004-02-24 2005-08-25 Godden Kurt S. Dynamic N-best algorithm to reduce speech recognition errors
JP4581441B2 (ja) * 2004-03-18 2010-11-17 パナソニック株式会社 家電機器システム、家電機器および音声認識方法
GB2412997A (en) * 2004-04-07 2005-10-12 Mitel Networks Corp Method and apparatus for hands-free speech recognition using a microphone array
TWI237991B (en) * 2004-06-28 2005-08-11 Delta Electronics Inc Integrated dialogue system and method thereof
US20060009974A1 (en) * 2004-07-09 2006-01-12 Matsushita Electric Industrial Co., Ltd. Hands-free voice dialing for portable and remote devices
US8589156B2 (en) * 2004-07-12 2013-11-19 Hewlett-Packard Development Company, L.P. Allocation of speech recognition tasks and combination of results thereof
US7739117B2 (en) * 2004-09-20 2010-06-15 International Business Machines Corporation Method and system for voice-enabled autofill
US8033831B2 (en) * 2004-11-22 2011-10-11 Bravobrava L.L.C. System and method for programmatically evaluating and aiding a person learning a new language
US8221126B2 (en) * 2004-11-22 2012-07-17 Bravobrava L.L.C. System and method for performing programmatic language learning tests and evaluations
WO2006057896A2 (en) * 2004-11-22 2006-06-01 Bravobrava, L.L.C. System and method for assisting language learning
US8272874B2 (en) * 2004-11-22 2012-09-25 Bravobrava L.L.C. System and method for assisting language learning
US20060235684A1 (en) * 2005-04-14 2006-10-19 Sbc Knowledge Ventures, Lp Wireless device to access network-based voice-activated services using distributed speech recognition
KR100693284B1 (ko) * 2005-04-14 2007-03-13 학교법인 포항공과대학교 음성 인식 장치
US20060287863A1 (en) * 2005-06-16 2006-12-21 International Business Machines Corporation Speaker identification and voice verification for voice applications
GB0513820D0 (en) * 2005-07-06 2005-08-10 Ibm Distributed voice recognition system and method
EP1922717A4 (en) * 2005-08-09 2011-03-23 Mobile Voice Control Llc USE OF MULTIPLE VOICE RECOGNITION SOFTWARE
US7953603B2 (en) * 2005-12-21 2011-05-31 International Business Machines Corporation Load balancing based upon speech processing specific factors
US8380506B2 (en) * 2006-01-27 2013-02-19 Georgia Tech Research Corporation Automatic pattern recognition using category dependent feature selection
DE102006029755A1 (de) * 2006-06-27 2008-01-03 Deutsche Telekom Ag Verfahren und Vorrichtung zur natürlichsprachlichen Erkennung einer Sprachäußerung
TWI342010B (en) * 2006-12-13 2011-05-11 Delta Electronics Inc Speech recognition method and system with intelligent classification and adjustment
JP5177561B2 (ja) * 2007-02-06 2013-04-03 日本電気株式会社 認識器重み学習装置および音声認識装置、ならびに、システム
KR100897554B1 (ko) * 2007-02-21 2009-05-15 삼성전자주식회사 분산 음성인식시스템 및 방법과 분산 음성인식을 위한 단말기
US8856002B2 (en) * 2007-04-12 2014-10-07 International Business Machines Corporation Distance metrics for universal pattern processing tasks
US8275615B2 (en) * 2007-07-13 2012-09-25 International Business Machines Corporation Model weighting, selection and hypotheses combination for automatic speech recognition and machine translation
US8306021B2 (en) 2008-04-02 2012-11-06 Twilio, Inc. System and method for processing telephony sessions
US8837465B2 (en) 2008-04-02 2014-09-16 Twilio, Inc. System and method for processing telephony sessions
US8364481B2 (en) 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
US7933777B2 (en) * 2008-08-29 2011-04-26 Multimodal Technologies, Inc. Hybrid speech recognition
WO2010040010A1 (en) 2008-10-01 2010-04-08 Twilio Inc Telephony web event system and method
CN102415068B (zh) 2009-03-02 2015-09-02 特维里奥公司 用于多租户电话网络的方法和系统
US8509415B2 (en) 2009-03-02 2013-08-13 Twilio, Inc. Method and system for a multitenancy telephony network
US20110083179A1 (en) * 2009-10-07 2011-04-07 Jeffrey Lawson System and method for mitigating a denial of service attack using cloud computing
US9210275B2 (en) 2009-10-07 2015-12-08 Twilio, Inc. System and method for running a multi-module telephony application
US8582737B2 (en) * 2009-10-07 2013-11-12 Twilio, Inc. System and method for running a multi-module telephony application
KR20110065095A (ko) * 2009-12-09 2011-06-15 삼성전자주식회사 디바이스를 제어하는 방법 및 그 장치
US8638781B2 (en) * 2010-01-19 2014-01-28 Twilio, Inc. Method and system for preserving telephony session state
US20110184740A1 (en) * 2010-01-26 2011-07-28 Google Inc. Integration of Embedded and Network Speech Recognizers
DE102010012622B4 (de) * 2010-03-24 2015-04-30 Siemens Medical Instruments Pte. Ltd. Binaurales Verfahren und binaurale Anordnung zur Sprachsteuerung von Hörgeräten
US9459925B2 (en) 2010-06-23 2016-10-04 Twilio, Inc. System and method for managing a computing cluster
US9338064B2 (en) 2010-06-23 2016-05-10 Twilio, Inc. System and method for managing a computing cluster
US20120208495A1 (en) 2010-06-23 2012-08-16 Twilio, Inc. System and method for monitoring account usage on a platform
US9459926B2 (en) 2010-06-23 2016-10-04 Twilio, Inc. System and method for managing a computing cluster
US8416923B2 (en) 2010-06-23 2013-04-09 Twilio, Inc. Method for providing clean endpoint addresses
US9590849B2 (en) 2010-06-23 2017-03-07 Twilio, Inc. System and method for managing a computing cluster
US8838707B2 (en) 2010-06-25 2014-09-16 Twilio, Inc. System and method for enabling real-time eventing
US8898065B2 (en) 2011-01-07 2014-11-25 Nuance Communications, Inc. Configurable speech recognition system using multiple recognizers
US8649268B2 (en) 2011-02-04 2014-02-11 Twilio, Inc. Method for processing telephony sessions of a network
US9648006B2 (en) 2011-05-23 2017-05-09 Twilio, Inc. System and method for communicating with a client application
WO2012162397A1 (en) 2011-05-23 2012-11-29 Twilio, Inc. System and method for connecting a communication to a client
US20140044123A1 (en) 2011-05-23 2014-02-13 Twilio, Inc. System and method for real time communicating with a client application
JP5658641B2 (ja) * 2011-09-15 2015-01-28 株式会社Nttドコモ 端末装置、音声認識プログラム、音声認識方法および音声認識システム
US10182147B2 (en) 2011-09-21 2019-01-15 Twilio Inc. System and method for determining and communicating presence information
WO2013044138A1 (en) 2011-09-21 2013-03-28 Twilio, Inc. System and method for authorizing and connecting application developers and users
US9495227B2 (en) 2012-02-10 2016-11-15 Twilio, Inc. System and method for managing concurrent events
US9431012B2 (en) 2012-04-30 2016-08-30 2236008 Ontario Inc. Post processing of natural language automatic speech recognition
US9093076B2 (en) * 2012-04-30 2015-07-28 2236008 Ontario Inc. Multipass ASR controlling multiple applications
US9240941B2 (en) 2012-05-09 2016-01-19 Twilio, Inc. System and method for managing media in a distributed communication network
US9602586B2 (en) 2012-05-09 2017-03-21 Twilio, Inc. System and method for managing media in a distributed communication network
US20130304928A1 (en) 2012-05-09 2013-11-14 Twilio, Inc. System and method for managing latency in a distributed telephony network
US8849041B2 (en) 2012-06-04 2014-09-30 Comcast Cable Communications, Llc Data recognition in content
US9247062B2 (en) 2012-06-19 2016-01-26 Twilio, Inc. System and method for queuing a communication session
US8737962B2 (en) 2012-07-24 2014-05-27 Twilio, Inc. Method and system for preventing illicit use of a telephony platform
US8738051B2 (en) 2012-07-26 2014-05-27 Twilio, Inc. Method and system for controlling message routing
JP5706384B2 (ja) * 2012-09-24 2015-04-22 株式会社東芝 音声認識装置、音声認識システム、音声認識方法および音声認識プログラム
WO2014055076A1 (en) 2012-10-04 2014-04-10 Nuance Communications, Inc. Improved hybrid controller for asr
US8948356B2 (en) 2012-10-15 2015-02-03 Twilio, Inc. System and method for routing communications
US8938053B2 (en) 2012-10-15 2015-01-20 Twilio, Inc. System and method for triggering on platform usage
US9240184B1 (en) * 2012-11-15 2016-01-19 Google Inc. Frame-level combination of deep neural network and gaussian mixture models
CN103117058B (zh) * 2012-12-20 2015-12-09 四川长虹电器股份有限公司 基于智能电视平台的多语音引擎切换系统及方法
KR20140089863A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법
US9253254B2 (en) 2013-01-14 2016-02-02 Twilio, Inc. System and method for offering a multi-partner delegated platform
US9734819B2 (en) * 2013-02-21 2017-08-15 Google Technology Holdings LLC Recognizing accented speech
US9282124B2 (en) 2013-03-14 2016-03-08 Twilio, Inc. System and method for integrating session initiation protocol communication in a telecommunications platform
US9001666B2 (en) 2013-03-15 2015-04-07 Twilio, Inc. System and method for improving routing in a distributed communication platform
JP6050171B2 (ja) * 2013-03-28 2016-12-21 日本電気株式会社 認識処理制御装置、認識処理制御方法および認識処理制御プログラム
CN104143330A (zh) * 2013-05-07 2014-11-12 佳能株式会社 语音识别方法和语音识别系统
US9160696B2 (en) 2013-06-19 2015-10-13 Twilio, Inc. System for transforming media resource into destination device compatible messaging format
US9338280B2 (en) 2013-06-19 2016-05-10 Twilio, Inc. System and method for managing telephony endpoint inventory
US9225840B2 (en) 2013-06-19 2015-12-29 Twilio, Inc. System and method for providing a communication endpoint information service
US9483328B2 (en) 2013-07-19 2016-11-01 Twilio, Inc. System and method for delivering application content
US9274858B2 (en) 2013-09-17 2016-03-01 Twilio, Inc. System and method for tagging and tracking events of an application platform
US9338018B2 (en) 2013-09-17 2016-05-10 Twilio, Inc. System and method for pricing communication of a telecommunication platform
US9137127B2 (en) 2013-09-17 2015-09-15 Twilio, Inc. System and method for providing communication platform metadata
US10885918B2 (en) 2013-09-19 2021-01-05 Microsoft Technology Licensing, Llc Speech recognition using phoneme matching
CN104517609A (zh) * 2013-09-27 2015-04-15 华为技术有限公司 一种语音识别方法及装置
US9553799B2 (en) 2013-11-12 2017-01-24 Twilio, Inc. System and method for client communication in a distributed telephony network
US9325624B2 (en) 2013-11-12 2016-04-26 Twilio, Inc. System and method for enabling dynamic multi-modal communication
CN103700368B (zh) * 2014-01-13 2017-01-18 联想(北京)有限公司 用于语音识别的方法、语音识别装置和电子设备
US9601108B2 (en) * 2014-01-17 2017-03-21 Microsoft Technology Licensing, Llc Incorporating an exogenous large-vocabulary model into rule-based speech recognition
KR102215579B1 (ko) 2014-01-22 2021-02-15 삼성전자주식회사 대화형 시스템, 디스플레이 장치 및 그 제어 방법
JP2015141226A (ja) * 2014-01-27 2015-08-03 パイオニア株式会社 情報処理装置
US9344573B2 (en) 2014-03-14 2016-05-17 Twilio, Inc. System and method for a work distribution service
US9226217B2 (en) 2014-04-17 2015-12-29 Twilio, Inc. System and method for enabling multi-modal communication
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9251371B2 (en) 2014-07-07 2016-02-02 Twilio, Inc. Method and system for applying data retention policies in a computing platform
US9774687B2 (en) 2014-07-07 2017-09-26 Twilio, Inc. System and method for managing media and signaling in a communication platform
US9246694B1 (en) 2014-07-07 2016-01-26 Twilio, Inc. System and method for managing conferencing in a distributed communication network
US9516101B2 (en) 2014-07-07 2016-12-06 Twilio, Inc. System and method for collecting feedback in a multi-tenant communication platform
US9749428B2 (en) 2014-10-21 2017-08-29 Twilio, Inc. System and method for providing a network discovery service platform
US9477975B2 (en) 2015-02-03 2016-10-25 Twilio, Inc. System and method for a media intelligence platform
JP6572969B2 (ja) * 2015-03-30 2019-09-11 富士通クライアントコンピューティング株式会社 音声認識装置、音声認識システム、及び、プログラム
US10395555B2 (en) * 2015-03-30 2019-08-27 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing optimal braille output based on spoken and sign language
US9948703B2 (en) 2015-05-14 2018-04-17 Twilio, Inc. System and method for signaling through data storage
US10419891B2 (en) 2015-05-14 2019-09-17 Twilio, Inc. System and method for communicating through multiple endpoints
CN106782546A (zh) * 2015-11-17 2017-05-31 深圳市北科瑞声科技有限公司 语音识别方法与装置
CN105374357B (zh) * 2015-11-23 2022-03-29 青岛海尔智能技术研发有限公司 一种语音识别方法、装置及语音控制系统
CN105551494A (zh) * 2015-12-11 2016-05-04 奇瑞汽车股份有限公司 一种基于手机互联的车载语音识别系统及识别方法
US10659349B2 (en) 2016-02-04 2020-05-19 Twilio Inc. Systems and methods for providing secure network exchanged for a multitenant virtual private cloud
US10686902B2 (en) 2016-05-23 2020-06-16 Twilio Inc. System and method for a multi-channel notification service
US10063713B2 (en) 2016-05-23 2018-08-28 Twilio Inc. System and method for programmatic device connectivity
CN106340297A (zh) * 2016-09-21 2017-01-18 广东工业大学 一种基于云计算与置信度计算的语音识别方法与系统
CN106601257B (zh) * 2016-12-31 2020-05-26 联想(北京)有限公司 一种声音识别方法、设备和第一电子设备
US10971157B2 (en) 2017-01-11 2021-04-06 Nuance Communications, Inc. Methods and apparatus for hybrid speech recognition processing
US10354642B2 (en) * 2017-03-03 2019-07-16 Microsoft Technology Licensing, Llc Hyperarticulation detection in repetitive voice queries using pairwise comparison for improved speech recognition
US10679620B2 (en) * 2018-03-06 2020-06-09 GM Global Technology Operations LLC Speech recognition arbitration logic
CN109741743B (zh) * 2019-01-10 2021-03-05 深圳市江波龙电子股份有限公司 一种设备的控制方法及装置、非易失性存储介质
CN112896048A (zh) * 2021-03-15 2021-06-04 中电科创智联(武汉)有限责任公司 一种基于手机互联和语音识别的车载环视显示系统及方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5101375A (en) * 1989-03-31 1992-03-31 Kurzweil Applied Intelligence, Inc. Method and apparatus for providing binding and capitalization in structured report generation
JP3004023B2 (ja) * 1989-11-28 2000-01-31 株式会社東芝 音声認識装置
US5365574A (en) * 1990-05-15 1994-11-15 Vcs Industries, Inc. Telephone network voice recognition and verification using selectively-adjustable signal thresholds
JPH0683388A (ja) * 1992-09-04 1994-03-25 Fujitsu Ten Ltd 音声認識装置
ZA948426B (en) 1993-12-22 1995-06-30 Qualcomm Inc Distributed voice recognition system
JPH09326856A (ja) * 1996-06-03 1997-12-16 Mitsubishi Electric Corp 音声認識応答装置
JPH10116093A (ja) * 1996-10-09 1998-05-06 Nec Corp 音声認識装置
JP3039399B2 (ja) * 1996-10-31 2000-05-08 日本電気株式会社 非母国語音声認識装置
US6122613A (en) * 1997-01-30 2000-09-19 Dragon Systems, Inc. Speech recognition using multiple recognizers (selectively) applied to the same input sample
US6101473A (en) * 1997-08-08 2000-08-08 Board Of Trustees, Leland Stanford Jr., University Using speech recognition to access the internet, including access via a telephone
US6125345A (en) * 1997-09-19 2000-09-26 At&T Corporation Method and apparatus for discriminative utterance verification using multiple confidence measures
US6006183A (en) * 1997-12-16 1999-12-21 International Business Machines Corp. Speech recognition confidence level display
US6119087A (en) 1998-03-13 2000-09-12 Nuance Communications System architecture for and method of voice processing
US6229880B1 (en) * 1998-05-21 2001-05-08 Bell Atlantic Network Services, Inc. Methods and apparatus for efficiently providing a communication system with speech recognition capabilities
US6185535B1 (en) 1998-10-16 2001-02-06 Telefonaktiebolaget Lm Ericsson (Publ) Voice control of a user interface to service applications
JP2000148185A (ja) * 1998-11-13 2000-05-26 Matsushita Electric Ind Co Ltd 認識装置及び認識方法
US6377922B2 (en) * 1998-12-29 2002-04-23 At&T Corp. Distributed recognition system having multiple prompt-specific and response-specific speech recognizers
US6292781B1 (en) 1999-05-28 2001-09-18 Motorola Method and apparatus for facilitating distributed speech processing in a communication system
US7203651B2 (en) * 2000-12-07 2007-04-10 Art-Advanced Recognition Technologies, Ltd. Voice control system with multiple voice recognition engines
US6701293B2 (en) * 2001-06-13 2004-03-02 Intel Corporation Combining N-best lists from multiple speech recognizers

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100695127B1 (ko) * 2004-10-08 2007-03-14 삼성전자주식회사 다 단계 음성 인식 장치 및 방법
KR100655489B1 (ko) * 2004-12-06 2006-12-08 한국전자통신연구원 잡음환경하의 음성인식엔진 평가 시스템 및 자동화 방법
KR100728620B1 (ko) * 2005-02-07 2007-06-14 한국정보통신대학교 산학협력단 집합적 음성인식 시스템 및 그 시스템에서의 음성인식 방법
WO2015030474A1 (ko) * 2013-08-26 2015-03-05 삼성전자 주식회사 음성 인식을 위한 전자 장치 및 방법
US10192557B2 (en) 2013-08-26 2019-01-29 Samsung Electronics Co., Ltd Electronic device and method for voice recognition using a plurality of voice recognition engines
US11158326B2 (en) 2013-08-26 2021-10-26 Samsung Electronics Co., Ltd Electronic device and method for voice recognition using a plurality of voice recognition devices

Also Published As

Publication number Publication date
US6898567B2 (en) 2005-05-24
FI20040872A0 (fi) 2004-06-23
WO2003058604A1 (en) 2003-07-17
WO2003058604B1 (en) 2004-04-08
FI20145179L (fi) 2014-02-25
FI125330B (fi) 2015-08-31
US20030139924A1 (en) 2003-07-24
JP4509566B2 (ja) 2010-07-21
CN1633679A (zh) 2005-06-29
AU2002367354A1 (en) 2003-07-24
KR100632912B1 (ko) 2006-10-13
CN1320519C (zh) 2007-06-06
FI20040872A (fi) 2004-08-25
JP2005524859A (ja) 2005-08-18

Similar Documents

Publication Publication Date Title
KR100632912B1 (ko) 멀티-레벨 분산 음성 인식을 위한 방법 및 장치
JP2005524859A5 (ko)
EP1019904B1 (en) Model enrollment method for speech or speaker recognition
US7668710B2 (en) Determining voice recognition accuracy in a voice recognition system
US6377662B1 (en) Speech-responsive voice messaging system and method
US7209880B1 (en) Systems and methods for dynamic re-configurable speech recognition
US6931375B1 (en) Speaker verification method
US8433569B2 (en) Method of accessing a dial-up service
US20030195751A1 (en) Distributed automatic speech recognition with persistent user parameters
US20080071538A1 (en) Speaker verification method
US9978373B2 (en) Method of accessing a dial-up service
KR20200114606A (ko) 음성을 제공하는 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120830

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130830

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140828

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150909

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160912

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170914

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180907

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190917

Year of fee payment: 14