CN101682673A - 自动话务员语法调整 - Google Patents
自动话务员语法调整 Download PDFInfo
- Publication number
- CN101682673A CN101682673A CN200880014355A CN200880014355A CN101682673A CN 101682673 A CN101682673 A CN 101682673A CN 200880014355 A CN200880014355 A CN 200880014355A CN 200880014355 A CN200880014355 A CN 200880014355A CN 101682673 A CN101682673 A CN 101682673A
- Authority
- CN
- China
- Prior art keywords
- phonetic entry
- word
- database
- received
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009471 action Effects 0.000 claims abstract description 47
- 230000004044 response Effects 0.000 claims abstract description 17
- 238000004458 analytical method Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 33
- 238000012423 maintenance Methods 0.000 claims 2
- 238000012545 processing Methods 0.000 abstract description 6
- 230000003466 anti-cipated effect Effects 0.000 abstract 1
- 230000015572 biosynthetic process Effects 0.000 description 23
- 230000014509 gene expression Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000008520 organization Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 208000033999 Device damage Diseases 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/66—Arrangements for connecting between networks having differing types of switching systems, e.g. gateways
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/527—Centralised call answering arrangements not requiring operator intervention
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
- H04M3/4931—Directory assistance systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Telephonic Communication Services (AREA)
Abstract
一种系统提供了自动话务员呼叫处理。数据库包括预期将在语音输入中接收到的单词。与这些单词相关地存储的是将在接收到包括特定单词的呼叫后采取的动作。服务器接收呼叫,并且在播放提示后接收语音输入。该服务器标识语音输入中的单词是否对应于数据库中的单词。如果是,则该服务器采取与该语音输入中的单词相关地存储在数据库中的动作。如果语音输入中的单词不对应于数据库中的单词,则服务器将该语音输入排队以供分析。响应于输入,服务器将来自语音输入的单词添加到数据库。
Description
背景
自动话务员系统经常结合呼叫中心和求助台服务来使用。通常,自动话务员系统提供自动语音提示界面,该界面允许呼叫者标识该用户希望连接到的特定实体,例如,人、部门、服务等。例如,自动话务员系统可提供诸如以下的语音提示:“销售按1”、“服务呼叫按2”或“关于现有服务呼叫的信息按3”。响应于来自用户的输入,自动话务员可将呼叫者连接到该用户所标识的特定人或部门。
某些自动话务员系统采用语音识别技术。在使用语音识别的系统中,用户输入可作为语音输入而不是通过使用电话键区来创建的双音多频(“DTMF”)信号来接收。例如,自动话务员系统可如下提示用户:“连接到销售代表说‘销售’”;“请求服务呼叫说‘服务’”;或者“检查现有服务请求的状态说‘状态’”。自动话务员系统可接收响应于提示而作出的用户的语音输入并将该用户连接到所标识的人或组织。
概述
在此处所描述的主题中,一种系统提供了自动话务员呼叫处理。
一种说明性系统可包括预期在语音输入中的单词和/或短语的数据库。该数据库还可包括对应于存储在该数据库中的单词和/或短语的、响应于语音输入而采取的动作。例如,该数据库可定义对于语音输入中的特定单词和/或短语,电话呼叫将被传递给具有特定电话号码的特定人或部门。
该说明性系统还可包括适用于接收呼叫并发出语音提示的服务器。该服务器还适用于接收并记录呼叫者的语音输入并确定该语音输入是否对应于预期在语音输入中的单词的数据库中的单词和/或短语。如果该服务器确定该语音输入对应于数据库中的单词和/或短语,则该服务器采取在数据库中被指定为对应于语音输入中的特定单词的动作。例如,如果数据库中的信息标识呼叫应被传递给特定人或组织部门,则该服务器将该呼叫传递给适当的电话号码。
如果该服务器确定语音输入不对应于数据库中的单词,则该服务器将该语音输入排队以供分析。服务器最终接收到标识响应于特定语音输入而采取什么动作的输入并将该动作与该语音输入相关地存储。例如,服务器可接收标识呼叫最终被传递给特定组织部门的输入。
该服务器可将该语音输入与类似地被发现为不对应于数据库中的单词并且同样最终被确定为请求同一动作的先前接收到的语音输入进行比较。服务器可将在该语音输入和先前接收到的语音输入两者中都出现的单词标识为供添加到预期在语音输入中的单词的数据库的候选单词。在接收到指示语音输入中所标识的单词应被添加到数据库的指示后,服务器将这些单词添加到数据库。
提供本概述以便以简化的形式介绍将在以下说明性实施例的详细描述中进一步描述的一些概念。本概述并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于限定所要求保护的主题的范围。以下也描述了其它特征。
附图简述
以上概述以及以下说明性实施例的附加描述在结合附图阅读时能够被更好地理解。可以理解,所公开的系统和方法的可能的实施例不限于所描绘的这些。
图1是其中可以实现此处所描述的主题的各方面的说明性计算布置的网络图。
图2是说明性自动话务员系统中所包括的功能组件的框图。
图3是用于接收将向其提供自动话务员服务的呼叫的说明性过程的流程图。
图4是用于分析由说明性自动话务员系统接收到的语音输入的说明性过程的流程图。
图5是用于分析由说明性自动话务员系统接收到的语音输入的说明性过程的流程图。
图6是可用其部署此处所描述的主题的各方面的说明性计算环境的框图。
说明性实施例的详细描述
概览
此处所公开的本发明的主题涉及用于提供自动话务员功能的系统和方法。说明性系统可包括可被称为语法的数据库,该数据库包括预期将响应于语音提示而接收到的单词和/或短语。该数据库还与预期将接收到的每一个单词或每一组单词相关地存储了将在接收到标识特定单词或一组特定单词后采取的动作。所标识的动作可以是例如,将呼叫传递给特定电话号码。说明性系统还可包括自动话务员服务器,该服务器适用于提示用户输入,接收并处理来自用户的语音输入,并且方便更新单词和/或短语的数据库以解释在用户语音输入中接收到的非预期单词和/或短语。
在所公开的一实施例中,针对预期用户语音输入来调整单词和短语的数据库。换言之,更新单词和短语的数据库以包含用户已示出使用倾向的新单词和短语。对语法数据库的调整有助于提供即使在提供相对较短且自由回答(open-ended)的提示时也能够理解用户的自然语音输入的服务。
所公开的系统和方法可以用商用软件和标准硬件来实现。例如,在所公开的系统和方法的一实施例中,自动话务员可以用统一消息收发服务器来实现。此外,统一消息收发服务器可以在标准计算硬件上实现,并可以使用已制定的连网技术和协议来通信。
示例计算布置
图1示出了适用于提供自动话务员服务的示例性计算布置100。如图所示,计算布置100在通信上与网络108耦合。网络108适用于传递语音呼叫,并且可以是适用于语音信号和/或数据的移动的任何类型的网络。例如,网络108可以是公共交换电话网、因特网、或适用于传递语音信息的任何其它网络,或可包括其全部或部分。网络108可包括可以使用不同技术的离散网络的组合。例如,网络108可包括局域网(LAN)、广域网(WAN)、或其组合。网络108可包括无线、有线线路、或其组合。
网络108经由通信链路106与交换机110进行接口,以向计算布置100传递语音呼叫。交换机110可以是可用于从网络108向计算布置100交换呼叫的任何类型的设备。在一示例性实施例中,交换机110可以是例如公共分支交换(PBX)交换机。交换机110经由通信链路130来与网关120传递信息,通信链路130可以使用例如适用于传递呼叫信息的任何合适的网络拓扑结构。
计算布置100包括网关120和服务器140、142和144。网关120适用于提供到包括计算布置100中的服务器140、142和144在内的各机器的接入点。网关120可包括适用于向服务器140、142和144路由呼叫信息的任何计算设备。在一示例实施例中,网关120适用于从交换机110以第一协议接收呼叫信息,并以另一协议将其传递给服务器140、142和/或144。例如,网关120可以是适用于以诸如例如时分多路复用(TDM)协议等电路交换协议从交换机110接收语音呼叫,并使用诸如例如网际协议等分组交换协议将呼叫传递给服务器140、142和/或144的网际协议语音(VoIP)网关。在一示例实施例中,网关120和交换机110的功能可以组合在同一设备中。
网络150在网关和服务器140、142和144之间提供通信链路。网络150可以是适于在网关120和服务器140、142和/或144之间提供通信的任何通信链路。网络150可包括例如适用于以网际协议格式传递数据的光纤网络。此外,网络150可包括诸如例如WAN、LAN、和/或因特网等网络的组件。
服务器140、142和144是特别适用于提供自动话务员呼叫处理的计算设备。服务器140、142和144中的每一个都可以是用计算机可读指令编程来如此处所描述地操作以提供自动话务员呼叫处理的任何合适的计算设备。在一示例实施例中,服务器140、142和144可被编程为用作适用于将不同的消息流集成到单个收件箱中的统一消息收发(UM)服务器。注意,尽管在图1中描绘了三个服务器140、142和144,但布置100中可包括任何数量的多个服务器。
在一示例性实施例中,当在网关120处接收到呼叫后,标识服务器140、142和/或144中的至少一个来服务该请求。该呼叫被转发到被标识为负责服务该呼叫的一个或多个服务器。该一个或多个服务器140、142、144提供用于标识将响应于呼叫而采取的动作的自动话务员界面系统,即,语音提示界面。呼叫者可指定他或她希望采取的动作,该动作通常涉及标识该呼叫者希望与其谈话的人或部门。
图2是服务器140、142和144中所包括的自动话务员系统208的功能组件的框图。自动话务员系统208可例如被包括在由同一消息收发服务器提供的功能中。
自动话务员系统208可包括例如,语音识别/生成组件210、字典212、呼叫处理语法214、呼叫分析语法216、语音输入队列218以及自动话务员服务器220。语音识别/生成组件210用于将语音输入解释为可由自动话务员208进一步处理的格式。同样,语音识别/生成组件210用于生成将向呼叫者播放的语音信号。语音识别/生成组件210可包括可用于解释接收到的语音输入的任何合适的软件和/或硬件。
字典212是已知存在并且自动话务员208可向其转发呼叫的人、组织和/或位置的数据库。字典212可包括例如,特定组织中的雇员和/或部门。对于存储在字典212中的每一个实体,例如,人或部门,字典212可包括标识应向其转发被定向到特定实体的呼叫的电话号码的至少一个电话号码。字典212可被存储在诸如例如,关系型或对象数据库等适用于存储和组织信息的任何数据存储构造中。
呼叫处理语法214包括预期将在语音输入中接收到的单词或单词组,即短语。同样,呼叫处理语法214可指定将在接收到包括特定单词或短语的语音输入后采取的动作。例如,呼叫处理语法214可包括单词“接待员”并且可指定或包括到应向其传递被定向到接待员的呼叫的电话号码的链接。在接收到标识单词“接待员”的语音输入后,系统208可通过参考语法214来将该语音输入标识为有效输入并将该呼叫转移至对应于接待员的电话号码。该电话号码可被存储在呼叫处理语法214中和/或可被存储在字典212中。
呼叫处理语法214还可包括表示用户希望采取的动作的短语。例如,呼叫处理语法214可包括短语“服务呼叫”。在接收到标识短语“服务呼叫”的语音输入后,系统208可将该呼叫转移至对应于被指定为处理服务请求的部门的电话号码。在某些情况下,被标识为在接收到特定语音输入时采取的动作是播放进一步提示以获取附加信息。例如,如果语音输入标识“折扣请求”,则呼叫处理语法214可指定应向用户播放请求产品信息的进一步提示。
呼叫处理语法214可被配置成标识同义词。例如,呼叫处理语法214不仅可包括单词“接待员”,而且还可包括诸如“操作员”和“前台”等单词和短语。所有这些单词和短语在呼叫处理语法214中都被指定为指向同一动作,该动作可以是将呼叫传递至特定电话号码。类似地,除了涉及短语“服务呼叫”之外,呼叫处理语法214还可包括短语“需要帮助”和“设备损坏帮助”。这些短语中的每一个都可在呼叫处理语法214中被指定为对应于呼叫同一电话号码的动作。因此,如果语音输入标识这些短语中的任一个,则将采取同一个动作。
在一说明性实施例中,呼叫处理语法214可维护相对较少数量的单词和短语。换言之,语法214可以是相对“扁平”的。限制单词或短语的数量允许快速标识在语法214中是否存在语音输入中的单词。“扁平”语法导致更自然的用户体验。
呼叫分析语法216包括各单词和短语,包括可能未被预期包括在接收到的语音输入中的单词和短语。呼叫分析语法216可例如在语音输入包括未被包括在呼叫处理语法214中的单词和/或短语时采用。在这种情况下,语音输入中的单词和短语可使用呼叫分析语法216来标识。将呼叫分析语法216用作与呼叫处理语法214分开的组件允许呼叫处理语法214包括相对较少数量的预期将在语音输入中接收到的单词和/或短语,同时还允许处理包含语法214之外的单词的用户输入。此外,在呼叫处理语法214中维护少量的单词可导致消耗较少的计算资源并提供提高的准确度。
呼叫处理语法214和呼叫分析语法216可被存储在诸如例如,关系型或对象数据库等适用于存储和组织信息的任何数据存储构造中。
队列218包含已接收到但对于其无法在呼叫处理语法214中定位匹配的单词或短语的语音输入的记录。在接收到一语音输入并且确定该语音输入不对应于语法214中的单词或短语后,将该语音输入放置在队列218中以供进一步分析。队列还可包括最终响应于特定呼叫中的每一个而采取的动作的指示。
自动话务员服务器220与语音识别组件210、字典212、呼叫处理语法214、呼叫分析语法216和队列218接口以接收用户语音输入并如此处所描述地处理这些输入。自动话务员服务器220提示用户输入,从用户接收语音输入,响应于采用呼叫处理语法214中所包括的单词和短语的语音输入来发起动作,并且方便更新呼叫处理语法214以解释在用户语音输入中接收到的非预期单词和/或短语。自动话务员服务器220可方便例如通过将包含非预期单词和/或短语的语音输入在队列218中排队以供分析并随后将单词和/或短语添加到呼叫处理语法214来更新呼叫处理语法214。自动话务员服务器220可将对于最终被定向到特定电话号码的呼叫的非预期单词和/或短语与最终被定向到同一电话号码的先前接收到的语音输入中的非预期单词和/或短语进行比较。作为该比较的结果,自动话务员服务器220可标识这些单词和/或短语以便添加到呼叫处理语法214。
自动话务员语法调整方法
图3是用于接收将向其提供自动话务员服务的呼叫的说明性过程的流程图。在步骤310,在可在服务器140、142和144中的一个或多个上操作的自动话务员系统208处接收呼叫。该呼叫可通过网关120路由,并且可始发自例如网络108。
在步骤312,自动话务员服务器220与语音识别和生成组件210接口以使得向呼叫者播放通告。该通告可提示用户作出标识他或她希望采取的动作的输入。例如,该通告可提示用户标识他或她希望与其谈话的人,例如,“请说出您希望与其谈话的人的姓名”。该通告可提示用户标识他或她希望与其谈话的特定部门或位置,例如,“请说出您的呼叫应被定向到的部门的名称”。该通告可更一般地请求用户标识他或她的呼叫的原因,例如,“我们能够如何帮助您?”。
在步骤314,自动话务员服务器220记录呼叫者的语音输入。该语音输入可被存储在例如随机存取存储器和/或数据库中。
在步骤316,自动话务员服务器220处理语音输入以标识该语音输入是否对应于呼叫处理语法214中的预期单词和/或短语。自动话务员服务器220确定语音输入中所使用的单词是否表示如呼叫处理语法214中所指定的要采取的动作。例如,语音输入可指定呼叫者希望与一特定人谈话。自动话务员服务器220确定呼叫处理语法214中是否标识所指定的人。在另一示例中,语音输入可指定呼叫者希望与一特定部门谈话。自动话务员服务器220确定呼叫处理语法214中是否包括该输入中所使用的指定该部门的单词。在又一示例中,语音输入可指定呼叫请求对于特定问题的帮助。自动话务员服务器220确定呼叫处理语法214中是否包括该语音输入中所使用的标识该特定问题的单词。
如果语音输入中的单词和/或短语不对应于呼叫处理语法214中的预期单词和/或短语,则在步骤318,自动助理将该语音输入排队以供进一步考虑。例如,语音输入可被存储在队列218中。对语音输入的后续考虑可涉及标识是否应更新呼叫处理语法214以包括特定语音输入中所包括的单词和/或短语,如图4和5所示。
在将语音输入排队以供进一步考虑之后,并且因为识别语音输入的初始尝试不成功,所以在步骤320,自动话务员220提示用户进一步输入以标识该呼叫的目的。例如,自动话务员220可通告呼叫者初始请求未被识别并要求该用户重新陈述该请求。或者,自动话务员220可将呼叫转移给实况操作员以提示该输入。最终,在步骤322,标识呼叫者所请求的所需动作并且将所请求的动作与初始语音输入一起存储在队列218中以供进一步处理。在步骤328,自动话务员220采取所请求的动作,该动作可以是例如,将呼叫传递至特定人或组织的电话分机。
如果在步骤316处自动话务员220将语音输入中的单词和/或短语标识为对应于呼叫处理语法214中的条目,则在步骤324,自动话务员220通告对自动话务员已理解呼叫者所请求的动作的确认。例如,自动话务员220可请求呼叫者确认他或她希望与特定人或特定部门谈话,例如,“您想要与John Smith先生谈话吗?”。
在步骤326,自动话务员220确定呼叫者是否已确认自动话务员220所理解的所需动作。如果未接收到确认,则自动话务员继续至步骤318并将语音输入添加到队列218以供进一步考虑。之后,自动话务员220如上所述地在步骤320和322处继续。
如果在步骤326处接收到对所请求的动作的确认,则在步骤328,自动话务员220采取所请求的动作,该动作可以是例如,将呼叫传递至特定人或组织的电话分机。
图4是用于分析由说明性自动话务员系统208接收到的语音输入的说明性过程的流程图。在步骤410,自动话务员220维护语音输入队列218,该队列中的语音输入已被接收到,但对于这些语音输入未标识呼叫处理语法214中的对应单词和/或短语。
在步骤412,自动话务员220可从队列218中取得特定语音输入。在步骤414,自动话务员220标识对于该特定语音输入最终采取的动作。例如,最终采取的动作可以是将呼叫传递给特定号码或播放特定提示。所采取的动作可从队列218中取得。
在步骤416,自动话务员220将该特定语音输入与先前接收到的、被发现为不对应于呼叫处理语法214中的单词和/或短语并且最终被确定为请求了与该特定语音输入相同的动作的语音输入进行比较。例如,如果呼叫者的语音输入“服务请求”被发现为不对应于呼叫处理语法214中的条目并且对于该呼叫最终采取的动作是将该呼叫传递给顾客服务部门,则在步骤416,自动话务员220将该语音输入“服务请求”与同样被发现为不具有处理语法214中的对应条目并且最终也被传递给顾客服务部门的先前接收到的语音输入进行比较。
在步骤418,自动话务员220标识语音输入是否包括作为将添加或提升到呼叫处理语法214的候选的单词和/或短语。例如,如果确定该语音输入包含与最终导致同一动作的一个或多个先前语音呼叫中的单词或短语相同的单词或短语,则在步骤418,自动话务员220可标识该特定单词或短语以便添加到呼叫处理语法214。作为一个具体示例,如果呼叫者的语音输入是“服务请求”并且该呼叫最终被路由到顾客服务部门,并且先前语音输入类似地包括该短语“服务请求”并且同样被路由到顾客服务部门,在步骤418,自动话务员220可标识短语“服务请求”以便添加到呼叫处理语法214。
在步骤420,自动话务员220可接收指定所标识的单词或短语应被添加到呼叫处理语法214中预期将接收到的单词和短语的输入。例如,可从自动话务员系统的管理员或甚至可能用户接收关于所标识的单词或短语应被添加到呼叫处理语法214的输入。一旦特定单词或短语被添加到语法214,包括该特定单词或短语的后续语音输入就可由自动话务员220自动处理。
图5是用于分析由说明性自动话务员服务接收到的语音输入的说明性过程的流程图。在步骤510,自动话务员220维护语音输入队列218,该队列中的语音输入已被接收到,但对于这些语音输入未标识呼叫处理语法214中的对应单词和/或短语。自动话务员220可向用户呈现队列218中的项目以使得他或她可选择特定语音输入以供分析。
在步骤512,自动话务员220可响应于用户请求来从队列218中取得并呈现语音输入。作为一个具体示例,自动话务员220可响应于用户请求来取得并呈现指定“服务请求”的语音输入。
在步骤514,自动话务员220标识对于该特定语音输入最终采取的动作并将该动作呈现给用户。例如,自动话务员220从与该特定语音输入一起存储在队列218中的信息中标识相关联的呼叫是否最终被路由到特定人或组织或者是否响应于该语音输入提供过特定服务。作为一个具体示例,自动话务员220可标识并向用户呈现特定语音输入“服务请求”最终导致该呼叫被传递给顾客服务部门。
在步骤516,自动话务员220确定是否接收到指示特定单词或短语应被添加到呼叫处理语法214的用户输入。用户可在例如特定语音输入中所使用的单词或短语是已经存在于语法214中的单词的同义词的情况下确定特定单词或短语应被添加到呼叫处理语法214。或者,用户可确定特定单词或短语是明智的用户输入并且很可能被其他呼叫者使用。
如果在步骤516,未接收到指示特定单词或短语应被添加到呼叫处理语法214的输入,则处理在步骤512处继续。
如果在步骤516,接收到指示特定单词或短语应被添加到呼叫处理语法214的用户输入,则在步骤518,将该特定单词或短语添加到呼叫处理语法214。一旦特定单词或短语被添加到语法214,包括该特定单词或短语的后续语音输入就可由自动话务员220自动处理。
示例计算环境
图6描绘可在示例性计算布置100中使用的示例计算环境720。可以按多种方式来使用示例计算环境720以实现所公开的用于此处所描述的自动话务员服务的方法。例如,计算环境720可用作提供自动话务员服务的计算机服务器140、142、144。在一示例实施例中,计算环境720可用作网关120。
计算环境720只是合适的计算环境的一个示例,并且不旨在对此处所公开的主题的使用范围或功能提出任何限制。也不应该将计算环境720解释为对示例操作环境720中示出的任一组件或其组合有任何依赖性或要求。
此处所描述的主题的各方面可与众多其它通用或专用计算系统环境或配置一起操作。适用于此处所描述的主题的公知的计算系统、环境和/或配置的示例包括,但不限于,个人计算机、服务器计算机、手持式或膝上型设备、便携式媒体设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品、网络PC、小型计算机、大型计算机、包括上述系统或设备中的任一个的分布式计算环境等。
用于实现此处所描述的主题的各方面的示例系统包括计算机741形式的通用计算设备。计算机741的组件可以包括,但不限于,处理单元759、系统存储器722和将包括系统存储器在内的各种系统组件耦合至处理单元759的系统总线721。系统总线721可以是几种类型的总线结构中的任何一种,包括存储器总线或存储控制器、外围总线、以及使用各种总线体系结构中的任一种的局部总线。作为示例而非局限,这样的体系结构包括工业标准体系结构(ISA)总线、微通道体系结构(MCA)总线、增强型ISA(EISA)总线、视频电子技术标准协会(VESA)局部总线和外围部件互连(PCI)总线(也称为夹层(Mezzanine)总线)。
计算机741通常包括各种计算机可读介质。计算机可读介质可以是能由计算机741访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。作为示例而非限制,计算机可读介质可包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括,但不限于,RAM、ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字多功能盘(DVD)或其它光盘存储、磁带盒、磁带、磁盘存储或其它磁性存储设备、或能用于存储所需信息且可以由计算机741访问的任何其它介质。通信介质通常以诸如载波或其它传输机制等已调制数据信号来体现计算机可读指令、数据结构、程序模块或其它数据,并包括任意信息传送介质。术语“已调制数据信号”包括其一个或多个特征以在信号中编码信息的方式被设定或更改的信号。作为示例而非限制,通信介质包括有线介质,诸如有线网络或直接线连接,以及无线介质,诸如声学、RF、红外线和其它无线介质。上述中任一组合也应包括在计算机可读介质的范围之内。
系统存储器722包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)723和随机存取存储器(RAM)760。基本输入/输出系统724(BIOS)包括如在启动时帮助在计算机741内的元件之间传输信息的基本例程,它通常储存在ROM 723中。RAM 760通常包含处理单元759可以立即访问和/或目前正在其上操作的数据和/或程序模块。作为示例而非限制,图6示出了操作系统725、应用程序726、其它程序模块727和程序数据728。
计算机741还可以包括其它可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图6示出了从不可移动、非易失性磁介质中读取或向其写入的硬盘驱动器738,从可移动、非易失性磁盘754中读取或向其写入的磁盘驱动器739,以及从诸如CD ROM或其它光学介质等可移动、非易失性光盘753中读取或向其写入的光盘驱动器740。可以在该示例操作环境中使用的其它可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等等。硬盘驱动器738通常由不可移动存储器接口,诸如接口734连接至系统总线721,磁盘驱动器739和光盘驱动器740通常由可移动存储器接口,诸如接口735连接至系统总线721。
以上讨论并在图6中示出的驱动器及其相关联的计算机存储介质为计算机741提供了对计算机可读指令、数据结构、程序模块和其它数据的存储。在图6中,例如,硬盘驱动器738被示为存储操作系统758、应用程序757、其它程序模块756和程序数据755。注意,这些组件可以与操作系统725、应用程序726、其它程序模块727和程序数据728相同,也可以与它们不同。操作系统758、应用程序757、其它程序模块756和程序数据755在这里被标注了不同的标号是为了说明至少它们是不同的副本。用户可以通过输入设备,诸如键盘751和定点设备752(通常指的是鼠标、跟踪球或触摸垫)向计算机741输入命令和信息。其它输入设备(未示出)可以包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些和其它输入设备通常由耦合至系统总线的用户输入接口736连接至处理单元759,但也可以由其它接口和总线结构,诸如并行端口、游戏端口或通用串行总线(USB)连接。监视器742或其它类型的显示设备也经由接口,诸如视频接口732连接至系统总线721。除监视器以外,计算机还可以包括其它外围输出设备,诸如扬声器744和打印机743,它们可以通过输出外围接口733连接。
因此,已经公开了用于提供自动话务员服务的系统。该系统提供用于向分析用户输入所对照的单词和短语集添加单词和短语的反馈循环。
应该理解,此处描述的各种技术可以结合硬件或软件,或在适当时以两者的组合来实现。因此,此处所描述的主题的方法和装置或其特定方面或部分可采取包含在诸如软盘、CD-ROM、硬盘驱动器或任何其它机器可读存储介质等有形介质中的程序代码(即,指令)的形式,其中当程序代码被加载到诸如计算机等机器内并由其执行时,该机器成为用于实现此处所描述的主题的装置。在程序代码存储在介质上的情况下,情况可以是所述程序代码存储在共同执行所述动作的一个或多个介质上,即该一个或多个介质一起包含执行该动作的代码,但是(在超过一个介质的情况下)不要求在任何特定介质上存储代码的任何特定部分。在程序代码在可编程计算机上执行的情况下,计算设备通常包括处理器、该处理器可读的存储介质(包括易失性和非易失性存储器和/或存储元件)、至少一个输入设备、以及至少一个输出设备。一个或多个程序可以例如,通过使用API、可重用控件等来实现或利用结合此处所描述的主题来描述的过程。这样的程序优选地用高级过程语言或面向对象编程语言来实现,以与计算机系统通信。然而,如果需要,该程序可以用汇编语言或机器语言来实现。在任何情形中,语言可以是编译语言或解释语言,且与硬件实现相结合。
尽管示例实施例可涉及在一个或多个独立计算机系统的上下文中利用此处所描述的主题的各方面,但此处所描述的主题不受此限制,而是可以结合任何计算环境,诸如网络或分布式计算环境来实现。此外,此处所描述的主题的各方面可在多个处理芯片或设备中或跨多个处理芯片或设备实现,且存储可类似地跨多个设备来实现。这样的设备可以包括,个人计算机、网络服务器、手持式设备、超级计算机、或集成在诸如汽车和飞机等其它系统中的计算机。
尽管用对结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。相反,上述具体特征和动作是作为实现权利要求的示例形式公开的。
Claims (20)
1.一种处理语音呼叫的方法,包括:
接收呼叫;
响应于所述呼叫来传递通告;
记录语音输入;
确定所述语音输入是否对应于预期语音输入的数据库(214)中的单词;
如果所述语音输入对应于预期语音输入的数据库(214)中的单词,则标识将作为响应而采取的动作;以及
如果所述语音输入不对应于预期输入的数据库(214)中的单词,则将所记录的语音输入添加到输入队列(218)以供分析。
2.如权利要求1所述的方法,其特征在于,标识将作为响应而采取的动作包括标识将向其传递所述呼叫的电话号码。
3.如权利要求1所述的方法,其特征在于,还包括:
如果所述语音输入不对应于预期输入的数据库中的单词,则传递附加输入提示。
4.如权利要求1所述的方法,其特征在于,还包括:
如果所述语音输入不对应于预期输入的数据库(214)中的单词,则将来自所述语音输入的单词添加到所述数据库(214)。
5.如权利要求1所述的方法,其特征在于,还包括:
如果所述语音输入不对应于预期输入的数据库(214)中的单词,则
对于所述语音输入标识所述呼叫最终被定向到的实体,
标识被定向到所述实体的先前接收到的语音输入,
标识在所述语音输入和所述先前接收到的语音输入两者中都出现的单词,并且
标识在所述语音输入和所述先前接收到的语音输入两者中都出现的单词以便添加到所述数据库(214)。
6.如权利要求5所述的方法,其特征在于,标识在所述语音输入和所述先前接收到的语音输入两者中都出现的单词以便添加到所述数据库(214)包括标识单词以及要与这些单词相关地存储的电话号码、人和组织中的至少一个。
7.如权利要求5所述的方法,其特征在于,还包括接收提供将在所述语音输入和所述先前接收到的语音输入两者中都出现的单词添加到所述数据库(214)的指示的输入。
8.如权利要求1所述的方法,其特征在于,还包括:
如果所述语音输入不对应于预期输入的数据库(214)中的单词,则
对于所述语音输入标识所述呼叫最终被定向到的分机,
提供所述语音输入,并且
接收标识出现在所述语音输入中的单词以便添加到所述数据库(214)的输入。
9.如权利要求8所述的方法,其特征在于,标识出现在所述语音输入中的单词以便添加到所述数据库(214)包括标识单词以及要与这些单词相关地存储的电话号码、人和组织中的至少一个以便添加到所述数据库(214)。
10.如权利要求8所述的方法,其特征在于,记录语音输入包括记录包括短语的语音输入,
其中确定所述语音输入是否对应于预期语音输入的数据库(214)中的单词包括确定所述语音输入是否对应于预期语音输入的数据库中的短语,并且
其中接收标识出现在所述语音输入中的单词以便添加到所述数据库(214)的输入包括接收标识出现在所述语音输入中的短语以便添加到所述数据库的输入。
11.一种处理语音呼叫的方法,包括:
维护预期在语音输入中的单词的数据库(214),所述数据库(214)包括对于特定单词用于响应于包括该特定单词的语音输入来传递呼叫的电话号码;
接收呼叫;
结合所述呼叫接收包括单词的语音输入;
标识预期在语音输入中的单词的数据库中没有所接收到的单词;以及
将所接收到的单词添加到所述数据库(214)。
12.如权利要求11所述的方法,其特征在于,还包括标识向其传递所述呼叫的电话号码,
其中将所接收到的单词添加到所述数据库(214)包括将所述电话号码添加到所述数据库且与所接收到的单词相关地存储。
13.如权利要求11所述的方法,其特征在于,维护预期在语音输入中的单词的数据库(214)包括维护预期在语音输入中的短语的数据库(214)。
其中结合所述呼叫接收包括单词的语音输入包括接收包括短语的输入,
其中标识预期在语音输入中的单词的数据库(214)中没有所接收到的单词包括标识所述数据库(214)中没有所接收到的短语,并且
其中将所接收到的单词添加到所述数据库(214)包括将所接收到的短语添加到所述数据库(214)。
14.如权利要求11所述的方法,其特征在于,还包括:
标识被定向到所述电话号码的先前接收到的语音输入包括所接收到的单词;以及
在标识被定向到所述电话号码的先前接收到的语音输入包括所接收到的单词后标识所接收到的单词以便添加到所述数据库(214)。
15.如权利要求11所述的方法,其特征在于,还包括:
接收指示所接收到的单词将被添加到所述数据库(214)的输入。
16.一种语音自动话务员系统(208),包括:
预期将在语音输入中接收到的单词的数据库(214);以及
包括计算机可读指令的服务器(220),所述指令用于接收呼叫,接收语音输入,确定所述语音输入是否对应于所述数据库中的预期将在语音输入中接收到的单词,以及更新预期将在语音输入中接收到的单词的数据库。
17.如权利要求16所述的语音自动话务员系统(208),其特征在于,还包括用于对所述语音输入执行语音识别的计算机可读指令。
18.如权利要求16所述的语音自动话务员系统(208),其特征在于,所述数据库(214)包括对应于所述数据库中的条目的、将响应于接收到包括具有所述数据库(214)中的条目的单词的语音输入而采取的动作。
19.如权利要求16所述的语音自动话务员系统(208),其特征在于,所述服务器还包括用于标识向其转发所述呼叫的电话分机,标识对应于所述电话分机的先前接收到的语音输入,以及标识所述语音输入中对应于所述先前接收到的语音输入中的单词的单词的指令。
20.如权利要求16所述的语音自动话务员系统(208),其特征在于,所述用于更新预期将在语音输入中接收到的单词的数据库(214)的计算机可读指令包括用于用单词和对应的电话分机来更新单词的数据库(214)的指令。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/800,112 | 2007-05-03 | ||
US11/800,112 US20080273672A1 (en) | 2007-05-03 | 2007-05-03 | Automated attendant grammar tuning |
PCT/US2008/061284 WO2008137327A1 (en) | 2007-05-03 | 2008-04-23 | Automated attendant grammar tuning |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101682673A true CN101682673A (zh) | 2010-03-24 |
Family
ID=39939530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200880014355A Pending CN101682673A (zh) | 2007-05-03 | 2008-04-23 | 自动话务员语法调整 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20080273672A1 (zh) |
EP (1) | EP2153638A4 (zh) |
JP (1) | JP2010526349A (zh) |
KR (1) | KR20100016138A (zh) |
CN (1) | CN101682673A (zh) |
WO (1) | WO2008137327A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108701458A (zh) * | 2016-03-01 | 2018-10-23 | 微软技术许可有限责任公司 | 话音识别 |
Families Citing this family (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9183834B2 (en) * | 2009-07-22 | 2015-11-10 | Cisco Technology, Inc. | Speech recognition tuning tool |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
KR101021216B1 (ko) * | 2010-04-05 | 2011-03-11 | 주식회사 예스피치 | 음성인식 그래마 자동 튜닝 장치, 방법 및 이를 적용한 자동응답시스템 |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9721563B2 (en) * | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
JP5818271B2 (ja) * | 2013-03-14 | 2015-11-18 | Necフィールディング株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040190687A1 (en) * | 2003-03-26 | 2004-09-30 | Aurilab, Llc | Speech recognition assistant for human call center operator |
CN1841498A (zh) * | 2005-03-30 | 2006-10-04 | 国际商业机器公司 | 使用口头话语验证语音输入的方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3614328A (en) * | 1969-06-24 | 1971-10-19 | Kenneth Eugene Mcnaughton | Automatic subscriber answering service |
JP2524472B2 (ja) * | 1992-09-21 | 1996-08-14 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 電話回線利用の音声認識システムを訓練する方法 |
JP3397372B2 (ja) * | 1993-06-16 | 2003-04-14 | キヤノン株式会社 | 音声認識方法及び装置 |
US5615296A (en) * | 1993-11-12 | 1997-03-25 | International Business Machines Corporation | Continuous speech recognition and voice response system and method to enable conversational dialogues with microprocessors |
JPH09212186A (ja) * | 1996-01-31 | 1997-08-15 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識方法およびこの方法を実施する装置 |
US5719921A (en) * | 1996-02-29 | 1998-02-17 | Nynex Science & Technology | Methods and apparatus for activating telephone services in response to speech |
US5835570A (en) * | 1996-06-26 | 1998-11-10 | At&T Corp | Voice-directed telephone directory with voice access to directory assistance |
US6058363A (en) * | 1997-01-02 | 2000-05-02 | Texas Instruments Incorporated | Method and system for speaker-independent recognition of user-defined phrases |
US6219643B1 (en) * | 1998-06-26 | 2001-04-17 | Nuance Communications, Inc. | Method of analyzing dialogs in a natural language speech recognition system |
US6499013B1 (en) * | 1998-09-09 | 2002-12-24 | One Voice Technologies, Inc. | Interactive user interface using speech recognition and natural language processing |
US6178404B1 (en) * | 1999-07-23 | 2001-01-23 | Intervoice Limited Partnership | System and method to facilitate speech enabled user interfaces by prompting with possible transaction phrases |
US6615172B1 (en) * | 1999-11-12 | 2003-09-02 | Phoenix Solutions, Inc. | Intelligent query engine for processing voice based queries |
GB9930720D0 (en) * | 1999-12-29 | 2000-02-16 | Ibm | Call centre agent automated assistance |
US6658389B1 (en) * | 2000-03-24 | 2003-12-02 | Ahmet Alpdemir | System, method, and business model for speech-interactive information system having business self-promotion, audio coupon and rating features |
US7305345B2 (en) * | 2001-02-15 | 2007-12-04 | Livewire Acquisition, Inc. | Methods, systems, and computer program products for providing automated customer service via an intelligent virtual agent that is trained using customer-agent conversations |
US7092888B1 (en) * | 2001-10-26 | 2006-08-15 | Verizon Corporate Services Group Inc. | Unsupervised training in natural language call routing |
US7058565B2 (en) * | 2001-12-17 | 2006-06-06 | International Business Machines Corporation | Employing speech recognition and key words to improve customer service |
US20050004799A1 (en) * | 2002-12-31 | 2005-01-06 | Yevgenly Lyudovyk | System and method for a spoken language interface to a large database of changing records |
US8077835B2 (en) * | 2007-03-30 | 2011-12-13 | Verizon Patent And Licensing Inc. | Method and system of providing interactive speech recognition based on call routing |
-
2007
- 2007-05-03 US US11/800,112 patent/US20080273672A1/en not_active Abandoned
-
2008
- 2008-04-23 KR KR1020097022894A patent/KR20100016138A/ko not_active Application Discontinuation
- 2008-04-23 JP JP2010507518A patent/JP2010526349A/ja active Pending
- 2008-04-23 CN CN200880014355A patent/CN101682673A/zh active Pending
- 2008-04-23 WO PCT/US2008/061284 patent/WO2008137327A1/en active Application Filing
- 2008-04-23 EP EP08746666A patent/EP2153638A4/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040190687A1 (en) * | 2003-03-26 | 2004-09-30 | Aurilab, Llc | Speech recognition assistant for human call center operator |
CN1841498A (zh) * | 2005-03-30 | 2006-10-04 | 国际商业机器公司 | 使用口头话语验证语音输入的方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108701458A (zh) * | 2016-03-01 | 2018-10-23 | 微软技术许可有限责任公司 | 话音识别 |
CN108701458B (zh) * | 2016-03-01 | 2023-01-31 | 微软技术许可有限责任公司 | 话音识别 |
Also Published As
Publication number | Publication date |
---|---|
EP2153638A4 (en) | 2012-02-01 |
JP2010526349A (ja) | 2010-07-29 |
US20080273672A1 (en) | 2008-11-06 |
EP2153638A1 (en) | 2010-02-17 |
KR20100016138A (ko) | 2010-02-12 |
WO2008137327A1 (en) | 2008-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101682673A (zh) | 自动话务员语法调整 | |
CA3140340C (en) | Systems and methods for chatbot generation | |
US11134153B2 (en) | System and method for managing a dialog between a contact center system and a user thereof | |
US8756065B2 (en) | Correlated call analysis for identified patterns in call transcriptions | |
US8503641B2 (en) | System and method of automated order status retrieval | |
WO2005094350A2 (en) | Apparatus, system, and method for presenting scripts to a contact | |
WO2016054110A1 (en) | Pattern-controlled automated messaging system | |
CA3148683A1 (en) | Systems and methods facilitating bot communications | |
CN101926158A (zh) | 用于提供可听的口语姓名发音的系统和方法 | |
EP3785426B1 (en) | Methods and apparatus for managing held calls | |
CN102150442A (zh) | 无线设备的预定响应 | |
CN101663881A (zh) | 全冗余呼叫记录 | |
CN101292256A (zh) | 对话创作和执行架构 | |
US10057418B1 (en) | Managing telephone interactions of a user and an agent | |
US8111821B2 (en) | Automated follow-up call in a telephone interaction system | |
US20150254679A1 (en) | Vendor relationship management for contact centers | |
CN112911074B (zh) | 一种语音通信处理方法、装置、设备和机器可读介质 | |
JP7377668B2 (ja) | 制御装置、制御方法及びコンピュータプログラム | |
US10419617B2 (en) | Interactive voicemail message and response tagging system for improved response quality and information retrieval | |
US20110213723A1 (en) | Audio agreement | |
US20220294903A1 (en) | Virtual private agent for machine-based interactions with a contact center | |
KR100699330B1 (ko) | 실시간 스트리밍 전송 방법을 이용한 정보 제공 시스템 및그 방법 | |
CN113132927A (zh) | 一种来电处理方法、装置、设备和机器可读介质 | |
EP2924965B1 (en) | Customer relationship management audio on hold | |
Platform | Technical Overview |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20100324 |