KR20100016138A - 자동 안내 문법 튜닝 - Google Patents

자동 안내 문법 튜닝 Download PDF

Info

Publication number
KR20100016138A
KR20100016138A KR1020097022894A KR20097022894A KR20100016138A KR 20100016138 A KR20100016138 A KR 20100016138A KR 1020097022894 A KR1020097022894 A KR 1020097022894A KR 20097022894 A KR20097022894 A KR 20097022894A KR 20100016138 A KR20100016138 A KR 20100016138A
Authority
KR
South Korea
Prior art keywords
database
words
voice
input
voice input
Prior art date
Application number
KR1020097022894A
Other languages
English (en)
Inventor
클리포드 엔. 디드콕크
마이클 제프리 앤드류 윌슨
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20100016138A publication Critical patent/KR20100016138A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/66Arrangements for connecting between networks having differing types of switching systems, e.g. gateways
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4931Directory assistance systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5166Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition

Abstract

시스템은 자동 안내 콜 처리를 제공한다. 데이터베이스는 음성 입력으로 수신될 것으로 예상되는 단어들을 포함한다. 특정 단어들을 포함하는 콜을 수신할 때 행해지는 동작들이 그 단어들과 관련되어 저장된다. 서버는 콜을 수신하고, 촉구를 재생한 후 음성 입력을 수신한다. 서버는 음성 입력에 있는 단어들이 데이터베이스에 있는 단어들과 대응하는지를 식별한다. 그러한 경우, 서버는 그 음성 입력에 있는 단어들에 관련되어 데이터베이스에 저장된 동작을 행한다. 음성 입력에 있는 단어들이 데이터베이스에 있는 단어들에 대응하지 않는 경우, 서버는 분석을 위해 음성 입력을 대기열에 넣는다. 입력에 대한 응답으로, 서버는 음성 입력으로부터의 단어들을 데이터베이스에 추가한다.
음성 입력, 자동 안내, 안내방송

Description

자동 안내 문법 튜닝{AUTOMATED ATTENDANT GRAMMAR TUNING}
본 발명은 자동 안내 콜 처리 시스템에 관한 것이다.
자동 안내 시스템(automated attendant system)은 일반적으로 콜센터 및 헬프 데스크 서비스와 연결되어 사용된다. 일반적으로 자동 안내 시스템은 발신자로 하여금 사용자가 연결하기를 원하는, 예를 들어 사람, 부서, 서비스 등의 특정 엔티티를 식별할 수 있도록 자동 음성 안내(voice-prompted) 인터페이스를 제공한다. 예를 들어, 자동 안내 시스템은 "판매는 1번을 누르시오", "서비스 콜은 2번을 누르시오" 또는 현재 서비스 콜에 관한 정보는 3번을 누르시오"와 같은 음성 안내를 제공할 수 있다. 사용자로부터의 입력에 대한 응답으로서, 자동 안내는 사용자가 식별했던 특정 사람 또는 부서에 발신자를 연결할 수 있다.
일부 자동 안내 시스템은 음성 인식(speech recognition) 기술을 사용한다. 음성 인식을 사용하는 시스템에 있어서, 사용자의 입력은 전화 키패드를 사용하여 생성되는 DTMF(Dual Tone Multi Frequency) 신호를 통해서 보다는 음성 입력으로서 수신될 수 있다. 예를 들어, 자동 안내 시스템은 "판매 담당에 연결되기 위해 '판매'를 말하시오", "서비스 콜을 요청하기 위해 '서비스'를 말하시오" 또는 "현재 서비스 요청의 상태를 검사하기 위해 '상태'를 말하시오"와 같이 사용자를 안내할 수 있다. 자동 안내 시스템은 그 안내에 대한 응답으로 생성된 사용자의 음성 입력을 수신하고 식별된 사람 또는 기관으로 사용자를 연결할 수 있다.
본 명세서에서 기술되는 청구 대상에 있어서, 시스템은 자동 안내 콜 처리를 제공한다.
예시적인 시스템은 음성 입력으로 예상되는 단어 및/또는 어구의 데이터베이스를 포함할 수 있다. 데이터베이스는 데이터베이스에 저장된 단어 및/또는 어구에 대해 음성 입력에 대한 응답으로 행해지는 동작을 더 포함할 수 있다. 예를 들어, 데이터 베이스는 음성 입력에 있는 특정 단어 및/또는 어구에 대해 전화 콜이 특정 전화 번호에서 특정 개인 또는 부서로 연결되도록 정의할 수 있다.
예시적인 시스템은 콜을 수신하고 음성 안내를 알리도록 구성된 서버를 더 포함할 수 있다. 서버는 발신자의 음성 입력을 수신하고 레코딩하며 음성 입력이 음성 입력으로 예상되는 단어의 데이터베이스에 있는 단어 및/또는 어구에 대응하는지를 결정하도록 더 구성된다. 서버가 음성 입력이 데이터베이스에 있는 단어 및/또는 어구에 대응한다고 결정하는 경우, 서버는 음성 입력에 있는 특정 단어에 대응하는, 데이터베이스에 지정된 동작을 행한다. 예를 들어, 데이터베이스의 정보가 그 콜이 특정 사람 또는 기관 부서로 전달되어야 한다는 것을 식별하는 경우, 서버는 그 콜을 적절한 전화 번호로 전달한다.
서버가 음성 입력이 데이터베이스에 있는 단어에 대응하지 않는다고 결정하는 경우, 서버는 분석을 위해 그 음성 입력을 대기 행렬에 넣는다(queue). 서버는 최후로 특정 음성 입력에 대한 응답으로 어떤 동작이 행해졌는지를 식별하는 입력을 수신하고, 그 음성 입력에 관하여 이를 저장한다. 예를 들어, 서버는 그 콜이 최후로 특정 기관 부서로 전달되었다는 것을 식별하는 입력을 수신할 수 있다.
서버는, 유사하게 데이터베이스에 있는 단어에 대응하지 않는다고 확인되고 최후로 동일한 동작을 요청하도록 결정되었던 이전 수신된 음성 입력과 음성 입력을 비교할 수 있다. 서버는 음성 입력으로 예상되는 단어의 데이터베이스에 추가하기 위한 후보로서 음성 입력과 이전에 수신된 음성입력 모두에 있는(occurring) 단어를 식별할 수 있다. 데이터베이스에 추가되어야 할 음성 입력의 식별된 단어를 나타내는 입력을 수신하면, 서버는 데이터베이스에 그 단어를 추가한다.
본 요약은 이하 예시적인 실시예의 상세한 설명에서 다시 기술되는 간략화된 형태의 개념의 선택을 소개하기 위해 제공된다. 본 요약은 특허청구범위의 청구 대상의 필수적인 특징 또는 주요한 특징을 식별하거나 특허청구범위의 청구 대상의 범위를 제한하는데 사용되기 위함이 아니다. 기타 특징들이 이하에서 기술된다.
전술한 요약 및 후술하는 예시적인 실시예의 추가적인 설명은 첨부된 도면과 함께 읽을 경우 이해가 더 잘 될 것이다. 기재된 시스템 및 방법의 잠재적인 실시예는 이러한 설명에 한정되지 않는다.
도 1은 본 명세서에 기술되는 청구 대상의 특징이 구현될 수 있는 예시적인 컴퓨팅 배치의 네트워크 도면.
도 2는 예시적인 자동 안내 시스템에 포함되는 기능 구성요소의 블록도.
도 3은 자동 안내 서비스가 제공되는 콜을 수신하기 위한 예시적인 프로세스의 순서도.
도 4는 예시적인 자동 안내 시스템에 의해 수신되는 음성 입력을 분석하기 위한 예시적인 프로세스의 순서도.
도 5는 예시적인 자동 안내 시스템에 의해 수신되는 음성 입력을 분석하기 위한 예시적인 프로세스의 순서도.
도 6은 본 명세서에서 기술되는 청구 대상의 특징이 배치될 수 있는 예시적인 컴퓨팅 환경의 블록도.
개요
본 명세서에서 기술되는 청구 대상은 자동 안내 기능을 제공하기 위한 시스템 및 방법에 관한 것이다. 예시적인 시스템은 문법(grammar)으로 지칭될 수 있는 데이터베이스를 포함할 수 있으며, 이 데이터베이스는 음성 안내에 대한 응답으로 수신되리라 예상되는 단어 및/또는 어구를 포함한다. 이 데이터베이스는 또한 수신되리라 예상되는 각각의 단어 또는 단어의 집합에 관하여 저장된다. 식별된 동작은, 예를 들어 콜을 특정 전화 번호로 전달할 수 있다. 예시적인 일 시스템은 또한 입력에 대해 사용자를 안내하고, 사용자로부터 음성 입력을 수신하고 처리하며, 사용자의 음성 입력으로 수신된 예상치 못한 단어 및/또는 어구를 설명하기 위해(account for) 단어 및/또는 어구의 데이터베이스를 업데이트하는 것을 용이하게 하도록 구성된 자동 안내 서버를 더 포함할 수 있다.
기술된 실시예에 있어서, 단어 및 어구의 데이터베이스는 예상된 사용자 음성 입력에 대해 튜닝된다(tuned to). 즉, 단어 및 어구의 데이터베이스는 사용자가 사용할 것 같은 새로운 단어 및 어구를 통합하기 위해 업데이트된다. 문법 데이터베이스의 튜닝은, 상대적으로 짧고 제한 없는(open-ended) 안내를 제공하는 경우에도 사용자의 자연스러운 음성 입력을 이해할 수 있는 서비스를 제공하는데 기여한다.
기술되는 시스템 및 방법은 상업적인 소프트웨어 및 표준 하드웨어로 구현될 수 있다. 예를 들어, 기술되는 시스템 및 방법의 일 실시예에 있어서, 자동 안내는 통합 메시징 서버(unified messaging server)로 구현될 수 있다. 또한, 단일 메시징 서버는 표준 컴퓨팅 하드웨어 상에 구현될 수 있고 기존 네트워킹 기술 및 프로토콜을 사용하여 통신할 수 있다.
예시적인 컴퓨팅 배치
도 1은 자동 안내 서비스를 제공하기 위해 적절한 예시적인 컴퓨팅 배치(100)를 도시한다. 도시된 바와 같이, 컴퓨팅 배치(100)는 네트워크(108)와 통신적으로 연결된다. 네트워크(108)는 음성 콜을 전달하도록 구성되고 음성 신호 및/또는 데이터의 이동에 적절한 임의의 유형의 네트워크일 수 있다. 예를 들어, 네트워크(108)는 공중 전화망(Public Switched Telephone Network; PSTN), 인터넷 또는 음성 정보를 전달하기에 적절한 임의의 기타 네트워크의 전부 또는 일부이거나 이를 포함할 수 있다. 네트워크(108)는 서로 다른 기술을 사용할 수 있는 이산 네트워크(discrete networks)의 조합을 포함할 수 있다. 예를 들어, 네트워 크(108)는 LAN, WAN 또는 그들의 조합을 포함할 수 있다. 네트워크(108)는 무선, 유선 또는 그들의 조합을 포함할 수 있다.
네트워크(108)는 음성 콜을 컴퓨팅 배치(100)로 전달하기 위해 통신 링크(106)를 통해 스위치(110)와 인터페이스한다. 스위치(110)는 네트워크(108)로부터 컴퓨팅 배치(100)로 콜을 스위치하도록 동작가능한 임의의 유형의 장치일 수 있다. 예시적인 일 실시예에 있어서, 스위치(110)는, 예를 들어 PBX(Public Branch Exchange) 스위치일 수 있다. 스위치(110)는, 예를 들어 콜 정보를 전달하는데 적절한 임의의 적절한 네트워크 토폴로지(network topology)를 사용할 수 있는 통신 링크(130)를 통해 게이트웨이(120)로 정보를 전달한다.
컴퓨팅 배치(100)는 게이트웨이(120) 및 서버(140, 142, 144)를 포함한다. 컴퓨팅 배치(100)에서 게이트웨이(120)는 서버(140, 142, 144)를 포함하는 머신에 액세스 포인트(access point)를 제공하도록 구성된다. 게이트웨이(120)는 서버(140, 142, 144)로 콜 정보를 라우팅하는데 적절한 임의의 컴퓨팅 장치를 포함할 수 있다. 예시적인 일 실시예에 있어서, 게이트웨이(120)는 스위치(110)로부터 제1 프로토콜로 콜 정보를 수신하고, 이를 다른 프로토콜로 서버(140, 142 및/또는 144)로 전달하도록 구성된다. 예를 들어, 게이트웨이(120)는 TDM(Time Division Multiplexed) 프로토콜과 같은 서킷 스위치 프로토콜에서 스위치(110)로부터 음성 콜을 수신하고, 인터넷 프로토콜과 같은 패킷 스위치 프로토콜을 사용하여 서버(140, 142 및/또는 144)로 콜을 전달하도록 구성된 VoIP(Voice-over-Internet-Protocol) 게이트웨이일 수 있다. 예시적인 일 실시예에 있어서, 게이트웨이(120) 및 스위치(110)의 기능은 공통의 장치에서 결합될 수 있다.
네트워크(150)는 게이트웨이(120)와 서버(140, 142, 144) 간에 통신 링크를 제공한다. 네트워크(150)는 게이트웨이(120)와 서버(140, 142, 144) 간의 통신을 제공하는데 적절한 임의의 통신 링크일 수 있다. 네트워크(150)는, 예를 들어 인터넷 프로토콜 형식으로 데이터를 전달하는데 적절한 광섬유 네트워크를 포함할 수 있다. 또한, 네트워크(150)는, 예를 들어 WAN, LAN 및/또는 인터넷과 같은 네트워크의 구성요소를 포함할 수 있다.
서버(140, 142, 144)는 다른 서비스들 간에 자동 안내 콜 처리를 제공하도록 구성된 컴퓨팅 장치이다. 각각의 서버(140, 142, 144)는 자동 안내 콜 처리를 제공하기 위해 본 명세서에서 기술되는 바와 같이 동작하는 컴퓨터 판독가능 명령어로 프로그래밍된 임의의 적절한 컴퓨팅 장치일 수 있다. 예시적인 일 실시예에 있어서, 서버(140, 142, 144)는 메시지의 서로 다른 스트림을 단일 서류함(single in-box)으로 통합하도록 구성된 통합 메시징(Unified Messaging; UM) 서버로서 동작하도록 프로그래밍될 수 있다. 세 개의 서버(140, 142, 144)가 도 1에 도시되었으나, 임의의 개수의 복수의 서버가 배치(100)에 포함될 수 있다.
예시적인 일 실시예에 있어서, 게이트웨이(120)에서 콜을 수신하면, 적어도 하나의 서버(140, 142, 144)가 요청을 서비스하기 위해 식별된다. 콜은 그 콜의 서비스를 담당하도록 식별된 하나 이상의 서버로 전달된다. 하나 이상의 서버(140, 142, 144)는 자동 안내 인터페이스 시스템(즉, 그 콜에 대한 응답으로 행해지는 동작을 식별하기 위한 음성 안내 인터페이스)을 제공한다. 발신자는 발신 자가 행하여지기를 원하는 동작(발신자가 통화하기를 원하는 사람 또는 부서를 식별하는 것을 일반적으로 포함함)을 지정할 수 있다.
도 2는 서버(140, 142, 144)에 포함되는 자동 안내 시스템(208)의 기능적 구성요소의 블록도이다. 자동 안내 시스템(208)은, 예를 들어 통합 메시지 서버에 의해 제공되는 기능에 포함될 수 있다.
자동 안내 시스템(208)은, 예를 들어 음성 인식/생성 구성요소(210), 디렉토리(212), 콜 처리 문법(214), 콜 분석 문법(216), 음성 입력 큐(218) 및 자동 안내 서버(220)를 포함할 수 있다. 음성 인식/생성 구성요소(210)는 자동 안내(208)에 의해 향후 처리될 수 있는 형식으로 음성 입력을 번역하기 위해 동작한다. 또한, 음성 인식/생성 구성요소(210)는 발신자에게 재생하기 위한 음성 신호를 생성하기 위해 동작한다. 음성 인식/생성 구성요소(210)는 수신된 음성 입력을 번역하도록 동작가능한 임의의 적절한 소프트웨어 및/또는 하드웨어를 포함할 수 있다.
디렉토리(212)는 존재한다고 알려지고, 자동 안내(208)에 의해 콜이 전달될 수 있는 사람, 기관 및/또는 위치의 데이터베이스이다. 디렉토리(212)는, 예를 들어 특정 기관에 있는 종업원 및/또는 부서를 포함할 수 있다. 디렉토리(212)에 저장된 각각의 엔티티(예를 들어, 사람 또는 부서)에 대하여, 디렉토리(212)는 특정 엔티티에 관한 콜이 전달되어야 하는 전화 번호를 식별하는 적어도 하나의 전화 번호를 포함할 수 있다. 디렉토리(212)는, 예를 들어 정보를 저장하고 조직하는데 적절한 관계 데이터베이스 또는 객체 데이터베이스와 같은 임의의 데이터 저장 구조체에 저장될 수 있다.
콜 처리 문법(214)은 음성 입력으로 수신될 것으로 예상되는 단어 및 단어의 그룹(즉, 어구)을 포함한다. 또한, 콜 처리 문법(214)은 특정 단어 또는 어구를 포함하는 음성 입력을 수신하면 행하여지는 동작을 선정할 수 있다. 예를 들어, 콜 처리 문법(214)은 "접수원(receptionist)"이라는 단어를 포함할 수 있고, 그 접수원에 관한 콜이 전달되어야 할 전화 번호로의 링크를 선정하거나 포함할 수 있다. "접수원"이라는 단어를 식별하는 음성 입력을 수신하면, 시스템(208)은 문법(214)을 참조함으로써 그 음성 입력이 유효한 입력인지를 식별할 수 있고, 그 접수원에 대응하는 전화 번호로 콜을 전달할 수 있다. 전화번호는 콜 처리 문법(214)에 저장되거나/저장되고 디렉토리(212)에 저장될 수 있다.
콜 처리 문법(214)은 또한 사용자가 행하기를 원하는 동작을 나타내는 어구를 포함할 수도 있다. 예를 들어, 콜 처리 문법(214)은 "서비스 콜"이라는 어구를 포함할 수 있다. "서비스 콜"이라는 어구를 식별하는 음성 입력을 수신하면, 시스템(208)은 서비스 요청을 처리하도록 선정된 부서에 대응하는 전화 번호로 콜을 전달할 수 있다. 일부 예에서, 특정 음성 입력을 수신하면 행해는 것으로 식별된 동작은 추가 정보를 위한 다른 안내를 재생하는 것이다. 예를 들어, "환불 요청(rebate request)"이라고 식별된 음성 인식의 경우, 콜 처리 문법(214)은 제품 정보를 요청하는 다른 안내가 사용자에게 재생되어야 한다는 것을 지정할 수 있다.
콜 처리 문법(214)은 유사어를 식별하도록 구성될 수 있다. 예를 들어, 콜 처리 문법(214)은 "접수원"이라는 단어를 포함할 수 있을 뿐만 아니라, "교환원(operator)" 및 "안내 데스크(front desk)"와 같은 단어 및 어구를 포함할 수도 있다. 이러한 단어 및 어구 모두는, 특정 전화 번호로 콜을 전달할 수 있는 동일한 동작을 지칭하도록 콜 처리 문법(214)에 선정된다. 유사하게, "서비스 콜"이라는 어구를 지칭하는 것에 추가하여, 콜 처리 문법(214)은 "도움이 필요함" 및 "고장난 기구에 대한 도움"과 같은 어구를 포함할 수도 있다. 이러한 어구 각각은 동일한 전화 번호로 전화를 거는 동작에 대응하도록 콜 처리 문법(214)에 선정될 수 있다. 따라서, 음성 입력이 이런 것 중 하나를 식별하는 경우, 동일한 동작이 행해질 것이다.
예시적인 일 실시예에 있어서, 콜 처리 문법(214)은 상대적으로 적은 수의 단어 및 어구를 관리할 수 있다. 즉, 문법(214)은 상대적으로 "단순(flat)"할 수 있다. 제한된 수의 단어 또는 어구는, 음성 입력에 있는 단어가 문법(214)에 존재하는지를 빠르게 식별하도록 한다. "단순한" 문법은 보다 자연스러운 사용자의 경험으로 귀결된다.
콜 분석 문법(216)은 수신된 음성 입력에 포함될 것으로 예상되지 않을 수 있는 것들을 포함하는 단어 및 어구를 포함한다. 콜 분석 문법(216)은, 예를 들어 음성 입력이 콜 처리 문법(214)에 포함되지 않는 단어 및/또는 어구를 포함하는 경우 사용될 수 있다. 이러한 실시예에 있어서, 음성 입력에 있는 단어 및 어구는 콜 분석 문법(216)을 사용하여 식별될 수 있다. 콜 처리 문법(214)으로부터 분리된 구성요소로 콜 분석 문법(216)을 사용하는 것은, 문법(214) 이외의 단어를 포함하는 사용자의 입력을 처리하도록 하면서, 콜 처리 문법(214)이 음성 입력으로 수신될 것으로 예상되는 상대적으로 작은 수의 단어 및/또는 어구를 포함하도록 한 다. 또한, 콜 처리 문법(214)에서 적은 수의 단어를 관리하는 것은 컴퓨팅 리소스를 적게 소비하며 정확도를 증가시킬 수 있다.
콜 처리 문법(214) 및 콜 분석 문법(216)은, 예를 들어 정보를 저장하고 조직화하는데 적절한 관계 데이터베이스 또는 객체 데이터베이스와 같은 임의의 데이터 저장 구조체에 저장될 수 있다.
큐(218)는 수신되었으나 일치하는 단어 또는 어구가 콜 처리 문법(214)에 위치될 수 없는 음성 입력의 레코드를 포함한다. 음성 입력이 수신되고 문법(214)에 있는 단어 또는 어구에 대응하지 않는다고 결정된 후, 음성 입력은 향후 분석을 위해 큐(218)에 위치된다. 큐는 또한 특정 콜의 각각에 대한 응답으로 최후로 행해졌던 동작의 표시를 포함할 수 있다.
자동 안내 서버(220)는 사용자의 음성 입력을 수신하고 그 입력을 본 명세서에서 기술된 바와 같이 처리하기 위해 음성 인식 구성요소(210), 디렉토리(212), 콜 처리 문법(214), 콜 분석 문법(216) 및 큐(218)와 인터페이스한다. 자동 안내 서버(220)는 입력을 위해 사용자를 안내하고, 사용자로부터 음성 입력을 수신하고, 콜 처리 문법(214)에 포함되는 단어 및 어구를 사용하는 음성 입력에 대한 응답으로 동작을 시작하며, 사용자의 음성 입력으로 수신된 예상하지 못한 단어 및/또는 어구를 설명하기 위해 콜 처리 문법(214)을 업데이트하는 것을 용이하게 한다. 자동 안내 서버(220)는, 예를 들어 분석을 위해 큐(218)에 있는 예상치 못한 단어 및/또는 어구를 포함하는 음성 입력을 대기열에 넣고, 이어서 콜 처리 문법(214)에 단어 및/또는 어구를 추가함으로써 콜 처리 문법(214)을 업데이트하는 것을 용이하 게 할 수 있다. 자동 안내 서버(220)는 최후로 특정 전화 번호로 연결되었던 콜의 예상치 못한 단어 및/또는 어구를 최후로 동일한 전화번호로 연결되었던 이전에 수신된 음성 입력에 있는 예상치 못한 단어 및/또는 어구와 비교할 수 있다. 이 비교 결과로서, 자동 안내 서버(220)는 콜 처리 문법(214)에 추가할 단어 및/또는 어구를 식별할 수 있다.
자동 안내 문법 조정 방법
도 3은 자동 안내 서비스가 제공되는 콜을 수신하기 위한 예시적인 프로세스의 순서도이다. 단계(310)에서, 콜은 하나 이상의 서버(140, 142, 144) 상에서 동작할 수 있는 자동 안내 시스템(208)에서 수신된다. 콜은 게이트웨이(120)를 통해 라우팅될 수 있고, 예를 들어 네트워크(108)로부터 유래할 수 있다.
단계(312)에서, 자동 안내 서버(220)는 안내방송이 발신자에게 재생되도록 하는 음성 인식 및 생성 구성요소(210)와 인터페이스한다. 안내방송은 사용자가 행해지기를 원하는 동작을 식별하는 입력을 생성하도록 촉구할 수 있다. 예를 들어, 안내방송은 사용자가 통화하기를 원하는 사람을 식별하도록 촉구할 수 있다(예를 들어, "당신이 통화하기를 원하는 사람의 이름을 말하세요"). 안내방송은 사용자가 통화하기를 원하는 특정 부서 또는 위치를 식별하도록 촉구할 수 있다(예를 들어, "당신의 콜이 연결되어야 할 부서명을 말하세요"). 안내방송은 사용자가 전화한 이유를 식별하도록 보다 일반적으로 요청할 수 있다(예를 들어, "무엇을 도와드릴까요?").
단계(314)에서, 자동 안내 서버(220)는 발신자의 음성 입력을 레코딩한다. 음성 입력은, 예를 들어 RAM 및/또는 데이터베이스에 저장될 수 있다.
단계(316)에서, 자동 안내 서버(220)는 음성 입력이 콜 처리 문법(214)에 있는 예상되는 단어 및/또는 어구에 대응하는지를 식별하기 위해 음성 입력을 처리한다. 자동 안내 서버(220)는 음성 입력에 사용된 단어가 콜 처리 문법(214)에 지정된 바와 같이 행해지는 동작을 나타내는지를 결정한다. 예를 들어, 음성 입력은 발신자가 특정 인물과 통화하기를 원한다는 것을 지정할 수 있다. 자동 안내 서버(220)는 그 지정된 인물이 콜 처리 문법(214)에서 식별되는지를 결정한다. 다른 예에서, 음성 입력은 발신자가 특정 부서와 통화하기를 원한다는 것을 지정할 수 있다. 자동 안내 서버(220)는 부서를 지정하기 위해 입력에 사용된 단어가 콜 처리 문법(214)에 포함되는지를 결정한다. 또 다른 예에서, 음성 입력은 콜이 특정 문제와 관련된 도움을 요청한다는 것을 지정할 수 있다. 자동 안내 서버(220)는 특정 문제를 식별하기 위해 음성 입력에 사용된 단어가 콜 처리 문법(214)에 포함되는지 또는 그렇지 않은지를 결정한다.
음성 입력에 있는 단어 및/또는 어구가 콜 처리 문법(214)에서의 예상되는 단어 및/또는 어구에 대응하지 않는 경우, 단계(318)에서 자동 보조(automated assistant)는 향후 고려를 위해 음성 입력을 대기열에 넣는다. 예를 들어, 음성 입력은 큐(218)에 저장될 수 있다. 음성 입력의 연속적인 고려는 콜 처리 문법(214)이 도 4 및 도 5에 도시된 바와 같이 특정 음성 입력에 포함되는 단어 및/또는 어구를 포함하기 위해 업데이트되어야 하는지 또는 그렇지 않은지를 식별하는 것을 포함할 수 있다.
향후 고려를 위해 음성 입력을 대기열에 넣은 후에, 이렇게 하는 첫 번째 시도가 성공적이지 않았기 때문에, 단계(320)에서 자동 안내(220)는 콜의 목적을 식별하기 위해 사용자가 더 입력할 것을 촉구한다. 예를 들어, 자동 안내(220)는 처음 요청이 인식되지 않았음을 사용자에게 알리고 사용자가 그 요청을 다시 말하도록 할 수 있다. 대안적으로, 자동 안내(220)는 교환원(live operator)에게 콜을 전달해서 입력을 촉구하도록 할 수 있다. 최후로, 단계(322)에서, 발신자에 의해 요청된 소정의 동작이 식별되고, 요청된 동작은 향후 처리를 위해 처음 음성 입력과 함께 큐(218)에 저장된다. 단계(328)에서, 자동 안내(220)는, 예를 들어 특정 인물 또는 기관의 내선 전화(phone extension)로 콜을 전달할 수 있는 요청된 동작을 행한다.
단계(316)에서 자동 안내(220)는 콜 처리 문법(214)에 있는 엔트리에 대응하는 음성 입력의 단어 및/또는 어구를 식별하고, 단계(324)에서 자동 안내(220)는 발신자가 요청했던 동작을 자동 안내가 이해했다는 것의 확인을 안내한다. 예를 들어, 자동 안내(220)는 발신자가 특정 인물 또는 특정 부서와 통화하기를 원한다는 것을 발신자가 확인할 것을 요청할 수 있다(예를 들어, "존 스미스씨와 통화하기를 원하십니까?").
단계(326)에서, 자동 안내(220)는 자동 안내(220)에 의해 이해된 소정의 동작을 발신자가 확인했는지를 결정한다. 확인이 수신되지 않는 경우, 자동 안내는 단계(318)를 수행하고, 향후 고려를 위해 음성 입력을 큐(218)에 추가한다. 그 후에, 자동 안내(220)는 단계(320, 322)에서 상기 기술된 바를 수행한다.
단계(326)에서, 요청된 동작의 확인이 수신되는 경우, 단계(328)에서 자동 안내(220)는, 예를 들어 특정 인물 또는 기관으로의 내선 전화로 콜을 전달하는 것일 수 있는 요청된 동작을 행한다.
도 4는 예시적인 자동 안내 시스템(208)에 의해 수신된 음성 입력을 분석하기 위한 예시적인 프로세스의 순서도이다. 단계(410)에서, 자동 안내(220)는 수신되었으나 콜 처리 문법(214)에 있는 대응하는 단어 및/또는 어구가 식별되지 않은 음성 입력의 큐(218)를 관리한다.
단계(412)에서, 자동 안내(220)는 큐(218)에서 특정 음성 입력을 검색할 수 있다. 단계(414)에서, 자동 안내(220)는 특정 음성 입력에 대해 최후로 행해지는 동작을 식별한다. 예를 들어, 최후로 행해지는 동작은 특정 번호로의 전달하는 것 또는 특정 안내를 재생하는 것일 수 있다. 행해지는 동작은 큐(218)에서 검색될 수 있다.
단계(416)에서, 자동 안내(220)는 이전에 수신되었고 콜 처리 문법(214)에 있는 단어 및/또는 어구와 대응하지 않음이 확인되었으며 특정 음성 입력과 동일한 동작을 요청한다고 최후로 결정되었던 음성 입력과 특정 음성 입력을 비교한다. 예를 들어, 발신자의 음성 입력("서비스 요청")이 콜 처리 문법(214)에서의 엔트리와 대응하지 않는다고 확인되고, 그 콜에 대해 최후로 행해지는 동작은 고객 서비스부로 그 콜을 전달하는 것인 경우, 단계(416)에서 자동 안내(220)는 처리 문법(214)에 대응하는 엔트리를 가지지 않는다고 확인되었고 또한 최후로 고객 서비스부로 전달되었던 이전에 수신된 음성 입력과 음성 입력("서비스 요청")을 비교한 다.
단계(418)에서, 자동 안내(220)는 음성 입력이 콜 처리 문법(214)에 추가되거나 보급된 후보인 단어 및/또는 어구를 포함하는지를 식별한다. 예를 들어, 음성 입력이 최후로 동일한 동작으로 귀결된 하나 이상의 이전 음성 콜에 있는 것과 동일한 단어 또는 어구를 포함한다고 결정되는 경우, 단계(418)에서 자동 안내(220)는 콜 처리 문법(214)에 추가할 특정 단어 또는 어구를 식별할 수 있다. 예를 들어, 발신자의 음성 입력이 "서비스 요청"이고 콜이 최후로 고객 서비스부로 라우팅되었으며, 이전 음성 입력은 유사하게 "서비스 요청"이라는 어구를 포함하고 유사하게 고객 서비스부로 라우팅되었던 경우, 단계(418)에서 자동 안내(220)는 콜 처리 문법(214)에 추가할 "서비스 요청"을 식별할 수 있다.
단계(420)에서, 자동 안내(220)는 수신될 것으로 예상되는 콜 처리 문법(214)의 단어 및 어구에 식별된 단어 또는 어구를 추가하도록 지정하는 입력을 수신할 수 있다. 예를 들어, 식별된 단어 또는 어구를 콜 처리 문법(214)에 추가하는 입력은 자동 안내 시스템의 관리자(또는 사용자도 가능)로부터 수신될 수 있다. 특정 단어 또는 어구가 문법(214)에 추가되면, 그 특정 단어 또는 어구를 포함하는 다음 음성 입력은 자동 안내(220)에 의해 자동으로 처리될 수 있다.
도 5는 예시적인 자동 안내 서비스에 의해 수신된 음성 입력을 분석하기 위한 다른 예시적인 프로세스의 순서도이다. 단계(510)에서, 자동 안내(220)는, 수신되었으나 콜 처리 문법(214)에 대응하는 단어 및/또는 어구가 식별되지 않은 음성 입력의 큐(218)를 관리한다. 자동 안내(220)는 큐(218)에 있는 아이템을 사용 자에게 보여주고 사용자가 분석할 특정 음성 입력을 선택할 수 있도록 할 수 있다.
단계(512)에서, 자동 안내(220)는 사용자 요청에 대한 응답으로 큐(218)에서 음성 입력을 검색하고 보여줄 수 있다. 예를 들어, 자동 안내(220)는 사용자 요청에 대한 응답으로 "서비스 요청"을 지정한 음성 입력을 검색하고 보여줄 수 있다.
단계(514)에서, 자동 안내(220)는 특정 음성 입력에 대해 최후로 행해지는 동작을 식별하고 그 동작을 사용자에게 보여준다. 예를 들어, 자동 안내(220)는, 큐(218)에 있는 특정 음성 입력과 함께 저장된 정보로부터, 연관된 콜이 최후로 특정 인물 또는 기관으로 라우팅되었는지 또는 특정 서비스가 그 음성 입력에 대한 응답으로 제공되었는지를 식별한다. 예를 들어, 자동 안내(220)는 특정 음성 입력("서비스 요청")이 최후로 고객 서비스부로 전달되는 콜에 귀결된다는 것을 식별하여 사용자에게 보여줄 수 있다.
단계(516)에서, 자동 안내(220)는 특정 단어 또는 어구가 콜 처리 문법(214)에 추가되어야 하는 것을 나타내는 사용자 입력이 수신되었는지를 결정한다. 사용자는 특정 단어 또는 어구(예를 들어, 특정 음성 입력에 사용되는 단어 또는 어구는 문법(214)에 이미 존재하는 단어의 유의어)이 콜 처리 문법(214)에 추가되어야 한다는 것을 결정할 수 있다. 대안적으로, 사용자는 특정 단어 또는 어구가 일반적인 사용자 입력(sensible user input)이며 다른 발신자에 의해 사용될 가능성이 있다는 것을 결정할 수 있다.
단계(516)에서, 특정 단어 또는 어구가 콜 처리 문법(214)에 추가되어야 한다는 것을 나타내는 입력이 수신되지 않는 경우, 프로세싱은 단계(512)에 머무른 다.
단계(516)에서 특정 단어 또는 어구가 콜 처리 문법(214)에 추가되어야 한다는 것을 나타내는 사용자 입력이 수신되는 경우, 단계(518)에서 그 특정 단어 또는 어구가 콜 처리 문법(214)에 추가된다. 그 특정 단어 또는 어구가 문법(214)에 추가되면, 그 특정 단어 또는 어구를 포함하는 다음 음성 입력은 자동 안내(220)에 의해 자동으로 처리될 수 있다.
예시적인 컴퓨팅 환경
도 6은 예시적인 컴퓨팅 배치(100)에 사용될 수 있는 예시적인 컴퓨팅 환경(720)을 도시한다. 예시적인 컴퓨팅 환경(720)은 본 명세서에서 기술된 자동 안내 서비스를 위한 기재된 방법을 구현하기 위한 수많은 방법으로 사용될 수 있다. 예를 들어, 컴퓨팅 환경(720)은 자동 안내 서비스를 제공하기 위해 컴퓨터 서버(140, 142, 144)로 동작할 수 있다. 예시적인 일 실시예에서, 컴퓨팅 환경(720)은 게이트웨이(120)로 동작할 수 있다.
컴퓨팅 환경(720)은 적절한 컴퓨팅 환경의 하나의 예시일 뿐이며 본 명세서에 기재되는 청구 대상의 기능 또는 사용의 범위에 대해 어떠한 제한을 하려는 것이 아니다. 컴퓨팅 환경(720)은 예시적인 컴퓨팅 환경(720)에 도시된 구성요소 중 임의의 것 또는 그들의 조합과 관련된 요구사항 또는 임의의 종속성을 가지는 것으로 해석되어서는 안된다.
본 명세서에 기술된 청구 대상의 특징들은 수많은 범용 또는 특수 컴퓨팅 환경 또는 구성으로 사용할 수 있다. 본 명세서에서 기술된 청구 대상에 사용하기에 적절할 수 있는, 잘 알려진 컴퓨팅 시스템, 환경 및/또는 구성의 예는, 이에 한정되는 것은 아니나, 개인용 컴퓨터, 서버 컴퓨터, 휴대용 또는 랩톱 장치, 휴대용 미디어 장치, 멀티프로세서 시스템, 마이크로프로세서 기반 시스템, 셋톱 박스, 프로그램가능 가전제품, 네트워크 PC, 미니컴퓨터, 메인프레임 컴퓨터, 상기 시스템 또는 장치 중 임의의 것을 포함하는 분산 컴퓨팅 환경 등을 포함한다.
본 명세서에 기술된 청구 대상의 특징들을 구현하기 위한 예시적인 시스템은 컴퓨터(741)의 형태인 범용 컴퓨팅 장치를 포함한다. 컴퓨터(741)의 구성요소는, 이에 한정되는 것은 아니나, 프로세싱 유닛(759), 시스템 메모리(722) 및 시스템 메모리를 포함하는 다양한 시스템 구성요소를 프로세싱 유닛(759)에 연결하는 시스템 버스(721)를 포함할 수 있다. 시스템 버스(721)는 다양한 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스, 메모리 버스 또는 메모리 컨트롤러 및 주변 버스를 포함하는 여러 유형의 버스 구조체 중 임의의 것일 수 있다. 한정하는 것이 아닌 예로서, 이러한 아키텍처는 ISA(Industry Standard Architecture) 버스, MCA(Micro Channel Architecture) 버스, 확장된 ISA(Enhanced ISA; EISA) 버스, VESA(Video Electronics Standards Association) 로컬 버스 및 메자닌 버스(Mezzanine bus)로도 알려진 PCI(Peripheral Component Interconnect) 버스를 포함한다.
컴퓨터(741)는 일반적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터 판독가능 매체는 컴퓨터(741)에 의해 액세스될 수 있는 임의의 사용가능 매체일 수 있고, 휘발성 및 비휘발성 매체, 착탈식 및 비착탈식 매체 양자 모두를 포함한다. 한정하는 것이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통 신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하기 위한 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 착탈식 및 비착탈식 매체 양자 모두를 포함한다. 컴퓨터 저장 매체는, 이에 한정되지 않으나, RAM, ROM, EEROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD 또는 기타 광학 디스크 저장소, 자기 카세트, 자기 테이프, 자기 디스크 저장소 또는 기타 자기 저장 장치, 또는 소정의 정보를 저장하는데 사용될 수 있고 컴퓨터(741)에 의해 액세스될 수 있는 임의의 다른 매체를 포함한다. 통신 매체는 일반적으로 반송파 또는 기타 전송 메커니즘과 같은 변조된 데이터 신호로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터를 구현하고 임의의 정보 전달 매체를 포함한다. "변조된 데이터 신호"라는 용어는 정보를 신호로 인코딩하기 위한 방식으로 설정되거나 변경된 하나 이상의 특징을 가지는 신호를 포함한다. 한정하는 것이 아닌 예로서, 통신 매체는 유선 네트워크 또는 직접 연결된 네트워크와 같은 유선 매체 및 음향(acoustic), RF, 적외선 및 기타 무선 매체와 같은 무선 매체를 포함한다. 또한 상기 것의 임의의 조합이 컴퓨터 판독가능 매체의 범위 내에 포함될 수 있다.
시스템 메모리(722)는 ROM(723) 및 RAM(760)과 같은 휘발성 및/또는 비휘발성 메모리의 형태인 컴퓨터 저장 매체를 포함한다. 시작할 때 컴퓨터(741) 내의 요소들 간에 정보를 전달하는 것을 돕는 기본 루틴을 포함하는 기본 입/출력 시스템(724)(BIOS)은 일반적으로 ROM(723)에 저장된다. RAM(760)은 프로세싱 유닛(759)에 의해 즉시 액세스가능하거나 현재 동작되고 있는 데이터 및/또는 프로그 램 모듈을 일반적으로 포함한다. 한정하는 것이 아닌 예로서, 도 6은 운영체제(725), 애플리케이션 프로그램(726), 기타 프로그램 모듈(727) 및 프로그램 데이터(728)를 도시한다.
컴퓨터(741)는 또한 기타 착탈식/비착탈식, 휘발성/비휘발성 컴퓨터 저장 매체를 포함할 수도 있다. 단지 예시로서, 도 6은 비착탈식 비휘발성 자기 매체로부터 판독하고 그에 기록하는 하드 디스크 드라이브(738), 착탈식 비휘발성 자기 디스크(754) 및 CD-ROM 또는 기타 광학 매체와 같은 착탈식 비휘발성 광 디스크(753)로부터 판독하고 그에 기록하는 광학 디스크 드라이브(740)를 도시한다. 예시적인 동작 환경에서 사용될 수 있는 기타 착탈식/비착탈식, 휘발성/비휘발성 컴퓨터 저장 매체는, 이에 한정되는 것은 아니나, 자기 테이프 카세트, 플래시 메모리 카드, 디지털 다용도 디스크, 디지털 비디오 테이프, 고상 RAM, 고상 ROM 등을 포함한다. 하드 디스크 드라이브(738)는 일반적으로 인터페이스(734)와 같은 비착탈식 메모리 인터페이스를 통해 시스템 버스(721)에 연결되고, 자기 디스크 드라이브(739) 및 광 디스크 드라이브(740)는 일반적으로 인터페이스(735)와 같은 착탈식 메모리 인터페이스에 의해 시스템 버스(721)에 연결된다.
상기 논의되고 도 6에 도시된 드라이브 및 그와 관련된 컴퓨터 저장 매체는 컴퓨터(741)용 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 및 기타 데이터의 저장소를 제공한다. 도 6에서, 예를 들어 하드 디스크 드라이브(738)는 운영체제(758), 애플리케이션 프로그램(757), 기타 프로그램 모듈(756) 및 프로그램 데이터(755)를 저장하는 것으로 도시된다. 이러한 구성요소는 운영체제(725), 애플 리케이션 프로그램(726), 기타 프로그램 모듈(727) 및 프로그램 데이터(728)와 동일하거나 다를 수 있다. 운영체제(758), 애플리케이션 프로그램(757), 기타 프로그램 모듈(756) 및 프로그램 데이터(755)는 최소한 그들이 서로 다른 복사본이라는 것을 도시하기 위해 여기서 서로 다른 번호가 부여된다. 사용자는 명령어 및 정보를 키보드(751) 및 포인팅 장치(일반적으로 마우스, 트랙볼 또는 터치 패드로 지칭됨; 752)와 같은 입력 장치를 통해 컴퓨터(741)로 입력할 수 있다. 기타 입력 장치(도시되지 않음)는 마이크로폰, 조이스틱, 게임 패드, 위성 안테나(satellite dish), 스캐너 등을 포함할 수 있다. 여러 입력 장치가 일반적으로 시스템 버스에 연결된 사용자 입력 인터페이스(736)를 통해 프로세싱 유닛(759)에 연결되나, 병렬 포트, 게임 포트 또는 USB와 같은 기타 인터페이스 및 버스 구조체에 의해 연결될 수 있다. 모니터(742) 또는 기타 유형의 디스플레이 장치도 또한 비디오 인터페이스(732)와 같은 인터페이스를 통해 시스템 버스(721)에 연결된다. 모니터 외에, 컴퓨터는 또한 출력 주변 인터페이스(733)를 통해 연결될 수 있는 스피커(744) 및 프린터(743)와 같은 기타 주변 출력 장치를 포함할 수도 있다.
따라서, 자동 안내 서비스를 제공하기 위한 시스템이 기재되었다. 이 시스템은 사용자 입력이 분석되는 일련의 단어 및 어구에 단어 및 어구를 추가하기 위한 피드백 루프(feedback loop)를 제공한다.
본 명세서에서 기술된 다양한 기술은 하드웨어 또는 소프트웨어 또는 적절한 그들의 조합으로 구현될 수 있다. 따라서, 본 명세서에서 기술된 청구 대상의 방법 및 장치, 또는 그들의 특징 또는 부분은 플로피 디스켓, CD-ROM, 하드 드라이브 또는 임의의 기타 머신 판독가능 저장 매체와 같은 실제 매체에 구현된 프로그램 코드(즉, 명령어들)의 형태를 가질 수 있으며, 이 프로그램 코드가 컴퓨터와 같은 머신에 의해 로딩되고 실행되는 경우, 머신은 본 명세서에 기술된 청구 대상을 실행하는 장치가 된다. 프로그램 코드가 매체에 저장되는 경우, 해당 프로그램 코드는 해당 동작을 집합적으로 수행하는 하나 이상의 매체(함께 행해지는 하나 이상의 매체는 동작을 수행하는 코드를 포함함)에 저장되는 경우일 수 있으나, 하나 이상의 단일 매체가 존재하는 경우, 임의의 특정 부분의 코드가 임의의 특정 매체에 저장되어야 하는 요구사항은 없다. 프로그램 코드가 프로그램가능 컴퓨터 상에서 실행되는 경우, 컴퓨팅 장치는 일반적으로, 프로세서, 그 프로세서에 의해 판독가능한 저장 매체(휘발성 및 비휘발성 메모리 및/또는 저장 요소를 포함함), 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치를 포함한다. 하나 이상의 프로그램은 본 명세서에 기술된 청구 대상과 함께 기술된 프로세스(예를 들어, API, 재활용가능한 컨트롤 등의 사용을 통해)를 구현하거나 사용할 수 있다. 이러한 프로그램은 컴퓨터 시스템과 통신하기 위해 바람직하게는 하이 레벨 절차 또는 객체 지행 프로그래밍 언어로 구현된다. 그러나, 원하는 경우 프로그램(들)은 어셈블리 또는 기계어로 구현될 수 있다. 어떠한 경우에서든, 언어는 컴파일링된 또는 인터프리팅된 언어일 수 있고, 하드웨어 구현과 결합될 수 있다.
비록 예시적인 실시예들이 하나 이상의 독립형 컴퓨터 시스템의 맥락에서 본 명세서에 기술된 청구 대상의 특징을 사용하는 것으로 언급될 수 있으나, 본 명세서에 기술된 청구 대상은 그에 한정되지 않으며, 네트워크 또는 분산 컴퓨팅 환경 과 같은 임의의 컴퓨팅 환경으로 구현될 수 있다. 또한, 본 명세서서 기술되는 청구 대상의 특징은 복수의 프로세싱 칩 또는 장치를 통해 구현될 수 있고, 유사하게 저장소는 복수의 장치를 통해 이루어질 수 있다. 이러한 장치는 개인용 컴퓨터, 네트워크 서버, 휴대용 장치, 수퍼 컴퓨터, 또는 자동차 및 비행기와 같은 기타 시스템에 통합된 컴퓨터를 포함할 수 있다.
비록 청구 대상이 구조적 특징 및/또는 방법론적인 동작에 특정된 언어로 기술되었으나, 첨부된 특허청구범위에 정의된 청구 대상은 상기 기술된 특정 특성 또는 동작에 한정될 필요는 없다. 또한, 상기 기술된 특정 특성 및 동작은 특허청구범위를 구현하는 예시적인 형태로 기재된다.

Claims (20)

  1. 음성 콜들을 처리하는 방법으로서,
    콜을 수신하는 단계;
    상기 콜에 대한 응답으로 안내방송을 전달하는 단계;
    음성 입력을 레코딩하는 단계;
    상기 음성 입력이 예상되는 음성 입력들의 데이터베이스(214)에 있는 단어들에 대응하는지를 결정하는 단계;
    상기 음성 입력이 예상되는 음성 입력들의 데이터베이스(214)에 있는 단어들에 대응하는 경우, 응답으로 행해져야 할 동작을 식별하는 단계; 및
    상기 음성 입력이 예상되는 음성 입력들의 데이터베이스(214)에 있는 단어들에 대응하지 않는 경우, 상기 레코딩된 음성 입력을 분석하기 위해 입력들의 큐(218)에 추가하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 응답으로 행해져야 할 동작을 식별하는 단계는 상기 콜이 전달되어야 할 전화 번호를 식별하는 단계를 포함하는 방법.
  3. 제1항에 있어서,
    상기 음성 입력이 예상되는 입력들의 데이터베이스에 있는 단어들에 대응하지 않는 경우, 추가적인 입력을 위한 촉구(prompt)를 전달하는 단계
    를 더 포함하는 방법.
  4. 제1항에 있어서,
    상기 음성 입력이 예상되는 입력들의 데이터베이스(214)에 있는 단어들에 대응하지 않는 경우, 상기 음성 입력으로부터의 단어들을 상기 데이터베이스(214)에 추가하는 단계
    를 더 포함하는 방법.
  5. 제1항에 있어서,
    상기 음성 입력이 예상되는 입력들의 데이터베이스(214)에 있는 단어들에 대응하지 않는 경우,
    상기 음성 입력을 위해 상기 콜이 최후로 전달된 엔트리를 식별하는 단계;
    상기 엔트리로 전달되는, 이전에 수신된 음성 입력들을 식별하는 단계;
    상기 음성 입력 및 상기 이전에 수신된 음성 입력들 양자 모두에 있는(occuring) 단어들을 식별하는 단계; 및
    상기 데이터베이스(214)에 추가하기 위해 상기 음성 입력 및 상기 이전에 수신된 음성 입력들 양자 모두에 있는 단어들을 식별하는 단계
    를 더 포함하는 방법.
  6. 제5항에 있어서,
    상기 데이터베이스(214)에 추가하기 위해 상기 음성 입력 및 상기 이전에 수신된 음성 입력들 양자 모두에 있는 단어들을 식별하는 단계는,
    단어들 및 상기 단어들과 관련해 저장하기 위한 전화 번호, 사람 및 기관 중 적어도 하나를 식별하는 단계를 포함하는 방법.
  7. 제5항에 있어서,
    상기 음성 입력 및 상기 이전에 수신된 음성 입력들 양자 모두에 있는 상기 단어들을 상기 데이터베이스(214)에 추가하기 위한 명령어를 제공하는 입력을 수신하는 단계
    를 더 포함하는 방법.
  8. 제1항에 있어서,
    상기 음성 입력이 예상되는 입력들의 데이터베이스(214)에 있는 단어들에 대응하지 않는 경우,
    상기 음성 입력에 대해 상기 콜이 최후로 전달된 내선(extension)을 식별하는 단계;
    상기 음성 입력을 제공하는 단계; 및
    상기 데이터베이스(214)에 추가하기 위해 상기 음성 입력에 있는 단어들을 식별하는 입력을 수신하는 단계
    를 더 포함하는 방법.
  9. 제8항에 있어서,
    상기 데이터베이스(214)에 추가하기 위해 상기 음성 입력에 있는 단어들을 식별하는 단계는 상기 데이터베이스(214)에 추가하기 위해 단어들 및 상기 단어들에 관련해 저장하기 위한 전화 번호, 사람 및 기관 중 적어도 하나를 식별하는 단계를 포함하는 방법.
  10. 제8항에 있어서,
    음성 입력을 레코딩하는 단계는 어구를 포함하는 음성 입력을 레코딩하는 단계를 포함하고,
    상기 음성 입력이 예상되는 음성 입력들의 데이터베이스(214)에 있는 단어들에 대응하지는지를 결정하는 단계는 상기 음성 입력이 예상되는 음성 입력들의 데이터베이스에 있는 어구에 대응하는지를 결정하는 단계를 포함하며,
    상기 데이터베이스(214)에 추가하기 위해 상기 음성 입력에 있는 단어들을 식별하는 입력을 수신하는 단계는 상기 데이터베이스에 추가하기 위해 상기 음성 입력에 있는 어구를 식별하는 입력을 수신하는 단계를 포함하는 방법.
  11. 음성 콜들을 처리하는 방법으로서,
    음성 입력들로 예상되는 단어들의 데이터베이스(214)를 관리하는 단계 - 상기 데이터베이스(214)는 특정 단어들을 포함하는 음성 입력에 대한 응답으로 콜을 전달하기 위해 상기 특정 단어들에 대한 전화 번호들을 포함함 -;
    콜을 수신하는 단계;
    상기 콜과 관련하여 단어를 포함하는 음성 입력을 수신하는 단계;
    음성 입력들로 예상되는 단어들의 상기 데이터베이스에 없는 상기 수신된 단어를 식별하는 단계; 및
    상기 수신된 단어를 상기 데이터베이스(214)에 추가하는 단계
    를 포함하는 방법.
  12. 제11항에 있어서,
    상기 콜이 전달되는 전화 번호를 식별하는 단계를 더 포함하고,
    상기 수신된 단어를 상기 데이터베이스(214)에 추가하는 단계는 상기 수신된 단어와 관련되어 저장된 상기 전화번호를 상기 데이터베이스에 추가하는 단계를 포함하는 방법.
  13. 제11항에 있어서,
    음성 입력들로 예상되는 단어들의 데이터베이스(214)를 관리하는 단계는 음성 입력들로 예상되는 어구들의 데이터베이스(214)를 관리하는 단계를 포함하고,
    상기 콜과 관련되어 단어를 포함하는 음성 입력을 수신하는 단계는 어구를 포함하는 입력을 수신하는 단계를 포함하며,
    음성 입력들로 예상되는 단어들의 상기 데이터베이스(214)에 없는 상기 수신된 단어를 식별하는 단계는 상기 데이터베이스(214)에 없는 상기 수신된 어구를 식별하는 단계를 포함하고,
    상기 수신된 단어를 상기 데이터베이스(214)에 추가하는 단계는 상기 수신된 어구를 상기 데이터베이스(214)에 추가하는 단계를 포함하는 방법.
  14. 제11항에 있어서,
    상기 수신된 단어를 포함하며, 상기 전화 번호로 전달되는, 이전에 수신된 음성 입력들을 식별하는 단계; 및
    상기 수신된 단어를 포함하며, 상기 전화 번호로 전달되는, 이전에 수신된 음성 입력들을 식별할 때 상기 데이터베이스(214)에 추가하기 위해 상기 수신된 단어를 식별하는 단계
    를 더 포함하는 방법.
  15. 제11항에 있어서,
    상기 수신된 단어가 상기 데이터베이스(214)에 추가되어야 한다는 것을 나타내는 입력을 수신하는 단계를 더 포함하는 방법.
  16. 음성 자동 안내 시스템(208)으로서,
    음성 입력으로 수신되리라고 예상되는 단어들의 데이터베이스(214); 및
    콜을 수신하고, 음성 입력을 수신하며, 상기 음성 입력이 상기 데이터베이스에 있는 음성 입력으로 수신되리라고 예상되는 단어들에 대응하는지를 결정하고, 음성 입력으로 수신되리라고 예상되는 단어들의 상기 데이터베이스를 업데이트하기 위한 컴퓨터 판독가능 명령어들을 포함하는 서버(220)
    를 포함하는 음성 자동 안내 시스템(208).
  17. 제16항에 있어서,
    상기 음성 입력에 대해 음성 인식을 수행하기 위한 컴퓨터 판독가능 명령어들을 더 포함하는 음성 자동 안내 시스템(208).
  18. 제16항에 있어서,
    상기 데이터베이스(214)는 상기 데이터베이스의 엔트리로서 상기 데이터베이스(214)의 엔트리를 가지는 단어를 포함하는 음성 입력을 수신하는 것에 대한 응답으로 행해지는 동작들을 포함하는 음성 자동 안내 시스템(208).
  19. 제16항에 있어서,
    상기 서버는 상기 콜이 전달되는 내선 전화(phone extension)를 식별하고, 상기 내선 전화에 대해 이전에 수신된 음성 입력들을 식별하며, 상기 이전에 수신된 음성 입력들의 단어들에 대응하여 상기 음성 입력의 단어들을 식별하기 위한 명 령어들을 더 포함하는 음성 자동 안내 시스템(208).
  20. 제16항에 있어서,
    음성 입력으로 수신되리라고 예상되는 단어들의 상기 데이터베이스(214)를 업데이트하기 위한 상기 컴퓨터 판독가능 명령어들은 단어들의 상기 데이터베이스(214)를 단어 및 대응하는 내선 전화로 업데이트하기 위한 명령어들을 포함하는 음성 자동 안내 시스템(208).
KR1020097022894A 2007-05-03 2008-04-23 자동 안내 문법 튜닝 KR20100016138A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/800,112 US20080273672A1 (en) 2007-05-03 2007-05-03 Automated attendant grammar tuning
US11/800,112 2007-05-03

Publications (1)

Publication Number Publication Date
KR20100016138A true KR20100016138A (ko) 2010-02-12

Family

ID=39939530

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097022894A KR20100016138A (ko) 2007-05-03 2008-04-23 자동 안내 문법 튜닝

Country Status (6)

Country Link
US (1) US20080273672A1 (ko)
EP (1) EP2153638A4 (ko)
JP (1) JP2010526349A (ko)
KR (1) KR20100016138A (ko)
CN (1) CN101682673A (ko)
WO (1) WO2008137327A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101021216B1 (ko) * 2010-04-05 2011-03-11 주식회사 예스피치 음성인식 그래마 자동 튜닝 장치, 방법 및 이를 적용한 자동응답시스템

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9183834B2 (en) * 2009-07-22 2015-11-10 Cisco Technology, Inc. Speech recognition tuning tool
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9721563B2 (en) * 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP5818271B2 (ja) * 2013-03-14 2015-11-18 Necフィールディング株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101959188B1 (ko) 2013-06-09 2019-07-02 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10140986B2 (en) * 2016-03-01 2018-11-27 Microsoft Technology Licensing, Llc Speech recognition
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3614328A (en) * 1969-06-24 1971-10-19 Kenneth Eugene Mcnaughton Automatic subscriber answering service
JP2524472B2 (ja) * 1992-09-21 1996-08-14 インターナショナル・ビジネス・マシーンズ・コーポレイション 電話回線利用の音声認識システムを訓練する方法
JP3397372B2 (ja) * 1993-06-16 2003-04-14 キヤノン株式会社 音声認識方法及び装置
US5615296A (en) * 1993-11-12 1997-03-25 International Business Machines Corporation Continuous speech recognition and voice response system and method to enable conversational dialogues with microprocessors
JPH09212186A (ja) * 1996-01-31 1997-08-15 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法およびこの方法を実施する装置
US5719921A (en) * 1996-02-29 1998-02-17 Nynex Science & Technology Methods and apparatus for activating telephone services in response to speech
US5835570A (en) * 1996-06-26 1998-11-10 At&T Corp Voice-directed telephone directory with voice access to directory assistance
US6058363A (en) * 1997-01-02 2000-05-02 Texas Instruments Incorporated Method and system for speaker-independent recognition of user-defined phrases
US6219643B1 (en) * 1998-06-26 2001-04-17 Nuance Communications, Inc. Method of analyzing dialogs in a natural language speech recognition system
US6499013B1 (en) * 1998-09-09 2002-12-24 One Voice Technologies, Inc. Interactive user interface using speech recognition and natural language processing
US6178404B1 (en) * 1999-07-23 2001-01-23 Intervoice Limited Partnership System and method to facilitate speech enabled user interfaces by prompting with possible transaction phrases
US6615172B1 (en) * 1999-11-12 2003-09-02 Phoenix Solutions, Inc. Intelligent query engine for processing voice based queries
GB9930720D0 (en) * 1999-12-29 2000-02-16 Ibm Call centre agent automated assistance
US6658389B1 (en) * 2000-03-24 2003-12-02 Ahmet Alpdemir System, method, and business model for speech-interactive information system having business self-promotion, audio coupon and rating features
US7305345B2 (en) * 2001-02-15 2007-12-04 Livewire Acquisition, Inc. Methods, systems, and computer program products for providing automated customer service via an intelligent virtual agent that is trained using customer-agent conversations
US7092888B1 (en) * 2001-10-26 2006-08-15 Verizon Corporate Services Group Inc. Unsupervised training in natural language call routing
US7058565B2 (en) * 2001-12-17 2006-06-06 International Business Machines Corporation Employing speech recognition and key words to improve customer service
US20050004799A1 (en) * 2002-12-31 2005-01-06 Yevgenly Lyudovyk System and method for a spoken language interface to a large database of changing records
US20040190687A1 (en) * 2003-03-26 2004-09-30 Aurilab, Llc Speech recognition assistant for human call center operator
US7529678B2 (en) * 2005-03-30 2009-05-05 International Business Machines Corporation Using a spoken utterance for disambiguation of spelling inputs into a speech recognition system
US8077835B2 (en) * 2007-03-30 2011-12-13 Verizon Patent And Licensing Inc. Method and system of providing interactive speech recognition based on call routing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101021216B1 (ko) * 2010-04-05 2011-03-11 주식회사 예스피치 음성인식 그래마 자동 튜닝 장치, 방법 및 이를 적용한 자동응답시스템

Also Published As

Publication number Publication date
JP2010526349A (ja) 2010-07-29
EP2153638A1 (en) 2010-02-17
US20080273672A1 (en) 2008-11-06
CN101682673A (zh) 2010-03-24
WO2008137327A1 (en) 2008-11-13
EP2153638A4 (en) 2012-02-01

Similar Documents

Publication Publication Date Title
KR20100016138A (ko) 자동 안내 문법 튜닝
CN107580149B (zh) 外呼失败原因的识别方法、装置、电子设备、存储介质
US9210263B2 (en) Audio archive generation and presentation
US7577568B2 (en) Methods and system for creating voice files using a VoiceXML application
US7346151B2 (en) Method and apparatus for validating agreement between textual and spoken representations of words
US10110741B1 (en) Determining and denying call completion based on detection of robocall or telemarketing call
US9386154B2 (en) System, method and software program for enabling communications between customer service agents and users of communication devices
US7395959B2 (en) Hands free contact database information entry at a communication device
US6219638B1 (en) Telephone messaging and editing system
US7953590B2 (en) Using separate recording channels for speech-to-speech translation systems
US20090094029A1 (en) Managing Audio in a Multi-Source Audio Environment
US10489451B2 (en) Voice search system, voice search method, and computer-readable storage medium
US7415415B2 (en) Computer generated prompting
US20070203708A1 (en) System and method for providing transcription services using a speech server in an interactive voice response system
US20030171925A1 (en) Enhanced go-back feature system and method for use in a voice portal
CN1984196A (zh) 用来管理互联网电话语音邮件的方法和系统
CN1894946A (zh) 自动电话菜单导航的方法和装置
CN109417583A (zh) 一种将音频信号实时转录为文本的系统和方法
US8315867B1 (en) Systems and methods for analyzing communication sessions
US20080082963A1 (en) Voicexml language extension for natively supporting voice enrolled grammars
WO2008106649A1 (en) Calibration of word spots system, method, and computer program product
JP6254504B2 (ja) 検索サーバ、及び検索方法
WO2000018100A9 (en) Interactive voice dialog application platform and methods for using the same
JP2012248962A (ja) 自動音声応答装置、自動音声応答プログラム及び自動音声応答方法
CN114726954A (zh) 话务台录音系统、方法、计算机设备和存储介质

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid