CN101681621B - 语音识别宏运行时环境 - Google Patents
语音识别宏运行时环境 Download PDFInfo
- Publication number
- CN101681621B CN101681621B CN2008800162121A CN200880016212A CN101681621B CN 101681621 B CN101681621 B CN 101681621B CN 2008800162121 A CN2008800162121 A CN 2008800162121A CN 200880016212 A CN200880016212 A CN 200880016212A CN 101681621 B CN101681621 B CN 101681621B
- Authority
- CN
- China
- Prior art keywords
- speech recognition
- data
- word
- condition
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Abstract
所公开的语音识别系统允许用户在不进行大量软件开发的情况下定义个性化的、上下文知晓的语音命令。可使用用户友好语言来定义命令集并将其存储在可扩展标记语言(XML)文档中。命令集内的每个命令对象可包括一个或多个用户可配置动作、一条或多条可配置规则、以及一个或多个可配置条件。命令集可由命令集加载器来管理,该命令集加载器加载每个命令集并将其处理成计算机可执行代码。命令集加载器可以启用和禁用命令集。宏处理组件可以基于当前启用的命令来向语音识别引擎的API提供语音识别语法。在语音识别引擎识别到与该语法一致的用户语音时,宏处理组件可以发起一个或多个计算机可执行动作。
Description
背景
用于计算机用户的早期语音识别系统已经提供了基本口述功能。这些系统将口述单词转换为书写文本。通常这些系统被实现为与诸如文字处理应用程序等其它用户应用程序合作地运行于计算机的操作系统之上的用户应用程序。
稍后的语音识别系统有时通过提供静态、预定义操作来包括除口述之外的命令和控制功能。这些操作允许用户界面的有限控制,诸如开启应用程序和在应用程序之间切换。
使用这些传统语音识别系统,创建新语音命令需要语音识别应用程序编程接口(API)的知识和诸如C++编程等大量软件开发。新的操作将需要自定义开发的软件应用程序与语音识别API接口。因为需要庞大的开发工作来使用这些系统创建、更新、以及维护新的操作,所以提供个性化操作、适应个别用户的需要是不切实际的。
概述
此处所公开的语音识别系统允许用户在不进行大量软件开发的情况下定义个性化的、上下文知晓的语音命令。命令集可使用用户友好宏语言来定义。命令集内的命令对象可以包括一个或多个用户可配置动作、一条或多条可配置规则、以及零个或更多可配置条件。
命令集可由软件子系统“命令集加载器”来管理,该命令集加载器加载每一命令集并将其处理成诸如公共对象模型(COM)对象等计算机可执行代码。命令数据可由可扩展标记语言(XML)文件来定义。例如,XML文件可由软件提供者创建、由用户直接创建、和/或由用户经由一系列用户界面提示来创建。命令集加载器可以监视命令数据中的改变并可以改变、启用和/或禁用命令集。
该语音识别系统可以包括宏处理组件。该宏处理组件可以与所加载的命令集和计算机的语音识别引擎进行接口。宏处理组件可以评估命令以根据每一命令所包括的条件的评估来确定哪条命令现在被启用。宏处理组件可以基于当前启用的命令来向语音识别引擎提供语音识别语法。可以监视条件和/或命令本身来寻找改变。条件的评估中的改变和/或命令本身中的改变可以指示宏处理组件生成经更新的语法并向语音识别引擎提供该经更新的语法。
在语音识别引擎识别出与语法一致的用户语音时,语音识别引擎可以向宏处理组件提供识别指示。该宏处理组件可以确定对应命令。宏处理组件可以处理每一对应命令,以发起与该对应命令相关联的一个或多个计算机可执行动作。因此,用户可以在不进行大量计算机编程和/或自定义软件开发的情况下定义复杂的启用语音的宏。
提供本概述是为了以简化的形式介绍将在以下详细描述中进一步描述的一些概念。本发明内容并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于限定所要求保护的主题的范围。
附图简述
图1示出示例性计算环境。
图2示出用于处理语音识别宏的示例系统。
图3示出使用语音识别引擎的示例方法。
详细描述
本发明的许多实施例可在计算机上执行。图1及以下讨论旨在提供可在其中实现本发明的合适计算环境的简要概括描述。尽管并非所需,但本发明将在诸如程序模块等由诸如客户机工作站或服务器等计算机执行的计算机可执行指令的一般上下文中描述。一般而言,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等。而且,本领域的技术人员可以理解,本发明方法可以使用其它计算机系统配置来实现,包括手持式设备、多处理器、基于微处理器或可编程消费电子产品、网络PC、小型机、大型计算机等。本发明也可以在其中任务由通过通信网络链接的远程处理设备执行的分布式计算环境中实现。在分布式计算环境中,程序模块可以位于本地和远程存储器存储设备中。
图1示出了在其中可实现各示例实施例和各方面的示例性计算环境。计算系统环境100只是合适计算环境的一个示例,并非旨在对使用范围或功能提出任何限制。也不应该把计算环境100解释为对示例性操作环境100中示出的任一组件或其组合有任何依赖性或要求。
可以使用多种其它通用或专用计算系统环境或配置。适合与本发明一起使用的公知的计算系统、环境和/或配置的示例包括但不限于个人计算机、服务器计算机、手持式或膝上型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品、网络PC、微型计算机、大型计算机、嵌入式系统、包括任何以上系统或设备的分布式计算环境等等。
可以使用诸如程序模块等可由计算机执行的计算机可执行指令。一般而言,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等。也可使用其中任务由通过通信网络链接的远程处理设备执行的分布式计算环境。在分布式计算环境中,程序模块可以位于包括存储器存储设备的本地和远程计算机存储介质中。
参考图1,示例性系统包括计算机110形式的通用计算设备。计算机110的组件可以包括,但不限于,处理单元120、系统存储器130和将包括系统存储器在内的各种系统组件耦合至处理单元120的系统总线121。处理单元120可表示诸如多线程处理器上支持的多个逻辑处理单元。系统总线121可以是几种类型的总线结构中的任何一种,包括存储器总线或存储控制器、外围总线、以及使用各种总线体系结构中的任一种的局部总线。作为示例,而非限制,这样的体系结构包括工业标准体系结构(ISA)总线、微通道体系结构(MCA)总线、增强型ISA(EISA)总线、视频电子技术标准协会(VESA)局部总线和外围部件互连(PCI)总线(也称为夹层(Mezzanine)总线)。系统总线121也可被实现为点对点连接、交换光纤等通信设备。
计算机110通常包括各种计算机可读介质。计算机可读介质可以是能由计算机110访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。作为示例而非限制,计算机可读介质可包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括但不限于,RAM、ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字多功能盘(DVD)或其它光盘存储、磁盒、磁带、磁盘存储或其它磁存储设备、或可以用来储存所期望的信息并可由计算机110访问的任一其它介质。通信介质通常以诸如载波或其它传输机制等已调制数据信号来体现计算机可读指令、数据结构、程序模块或其它数据,并包括任意信息传送介质。术语“已调制数据信号”指的是其一个或多个特征以在信号中编码信息的方式被设定或更改的信号。作为示例而非限制,通信介质包括有线介质,诸如有线网络或直接线连接,以及无线介质,诸如声学、RF、红外线和其它无线介质。以上的任何组合也应包括在计算机可读介质的范围内。
系统存储器130包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)131和随机存取存储器(RAM)132。基本输入/输出系统133(BIOS)包括如在启动时帮助在计算机110内的元件之间传输信息的基本例程,它通常储存在ROM 131中。RAM 132通常包含处理单元120可以立即访问和/或目前正在其上操作的数据和/或程序模块。作为示例而非限制,图1示出操作系统134、应用程序135、其它程序模块136和程序数据137。
计算机110也可以包括其它可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图1示出了对不可移动、非易失性磁介质进行读写的硬盘驱动器140,对可移动、非易失性磁盘151进行读写的磁盘驱动器152,以及对诸如CD ROM或其它光学介质等可移动、非易失性光盘155进行读写的光盘驱动器156。可以在示例性操作环境中使用的其它可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等等。硬盘驱动器141通常由不可移动存储器接口,诸如接口140连接至系统总线121,磁盘驱动器151和光盘驱动器155通常由可移动存储器接口,诸如接口150连接至系统总线121。
以上讨论并在图1中示出的驱动器及其相关联的计算机存储介质为计算机110提供了对计算机可读指令、数据结构、程序模块和其它数据的存储。在图1中,例如,硬盘驱动器141被示为存储操作系统144、应用程序145、其它程序模块146和程序数据147。注意,这些组件可以与操作系统134、应用程序135、其它程序模块136和程序数据137相同,也可以与它们不同。操作系统144、应用程序145、其它程序模块146和程序数据147在这里被标注了不同的标号是为了说明至少它们是不同的副本。用户可以通过输入设备,诸如键盘162和定点设备161(通常指的是鼠标、跟踪球或触摸垫)向计算机20输入命令和信息。其它输入设备(未示出)可包括话筒198、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等等。这些和其它输入设备通常由耦合至系统总线的用户输入接口160连接至处理单元120,但也可以由其它接口和总线结构,诸如并行端口、游戏端口或通用串行总线(USB)连接。监视器191或其它类型的显示设备也经由接口,诸如视频接口190连接至系统总线121。除监视器以外,计算机还可以包括其它外围输出设备,诸如扬声器197和打印机196,它们可以通过输出外围接口195连接。
计算机110可使用至一个或多个远程计算机,如远程计算机180的逻辑连接在网络化环境中操作。远程计算机180可以是个人计算机、服务器、路由器、网络PC、对等设备或其它常见的网络节点,并且通常包括许多或所有以上相对于计算机110所描述的元件,尽管在图1中仅示出了存储器存储设备181。图1中所示的逻辑连接包括局域网(LAN)171和广域网(WAN)173,但也可以包括其它网络。这样的联网环境在办公室、企业范围计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机110通过网络接口或适配器171连接至LAN 170。当在WAN联网环境中使用时,计算机110通常包括调制解调器172或用于通过诸如因特网等WAN 173建立通信的其它装置。调制解调器172可以是内置或外置的,它可以经由用户输入接口160或其它适当的机制连接至系统总线121。在网络化环境中,相对于计算机110所描述的程序模块或其部分可被储存在远程存储器存储设备中。作为示例而非限制,图1示出远程应用程序185驻留在存储器设备181上。可以理解,所示的网络连接是示例性的,且可以使用在计算机之间建立通信链路的其它手段。
尽管用对结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。相反,上述具体特征和动作是作为实现权利要求的示例形式公开的。
图2示出用于处理语音识别宏的示例系统。该系统可以在图1所示的计算环境100上操作或结合该计算环境100来操作。示例系统可以包括语音识别引擎202、宏处理组件204、命令集206、命令集加载器208、和/或用户界面组件210。命令集加载器208可以检索诸如可扩展标记语言(XML)数据214等命令数据212。命令集加载器208可以建立一个或多个命令集206。命令集加载器208可以监视命令数据212的改变。在检测到改变后,命令集加载器208可以更新相关联的命令集206。
该命令集206可以定义多个命令216,这些命令216可启用高级、可配置语音宏。每一命令216可包括规则数据218、条件数据220、和/或执行数据222。规则数据218可以包括用户将希望系统识别的单词和/或短语。条件数据220可包括零个或更多条件,在这些条件下用户将希望系统识别由规则数据218所指定的单词和/或短语。执行数据222可包括用户将希望系统在识别由规则数据218所指定的单词和/或短语时发起的一个或更多计算机可执行动作。
宏处理组件204可以与命令集206接口来为语音识别引擎202生成与命令集206相关联的语音识别语法224。在语音识别引擎202检测到与语法224一致的口头语音时,语音识别引擎202可以向宏处理组件204报告该识别事件。宏处理组件204可以发起与识别事件相关联且与命令216一致的正确动作和/或执行。可以监视由命令216所定义的条件来寻找状态的改变。在条件的状态改变后,宏处理组件204可以生成经更新的语法224,以根据与改变后的条件相关联的规则数据218来添加和/或移除单词和/或短语。
语音识别引擎202可包括任何硬件、软件、其组合、适用于从音频语音信号中辨别单词和/或短语的任何系统、子系统、和/或组件。例如,语音识别引擎202可以接收并处理音频流。该处理可例如包括基于隐马尔可夫模型的识别、基于神经网络的识别、基于动态时间变形的识别、基于知识的识别等。语音识别引擎202可以实时地处理音频流。例如,语音识别引擎可以经由如图1所示的话筒198来接收音频流。
语音识别引擎202可根据语法224来识别单词。语法224可包括语音识别引擎202将监听的目标单词和/或与这些目标单词相关联的模式的结构化列表。语音识别引擎202可以处理多种语法。每一语法224可包括标识符。
在语音识别引擎202从音频流中识别到与语法224一致的单词时,语音识别引擎202可返回识别指示。该识别指示可包括被识别的单词、该被识别的单词与之相关联的语法224的标识符、和/或置信度度量。
命令数据212可包括任何被结构化以定义语音识别宏命令216的数据。命令数据212可本地存储在计算机处。例如,命令数据212可存储在计算机文件系统中的目录中。命令数据212可在计算机的注册表中列出。命令数据212可以远程地存储并由计算机经由网络来访问。例如,命令数据212可经由真正简单聚合(RSS)订阅源来访问。命令数据212可经由安全超文本传输协议(HTTPS)来访问。命令数据212的每一实例可对应于命令集206。命令数据212可定义一条或多条命令216。
命令数据212可包括XML数据214。该XML数据214可定义命令216、条件、规则、和/或可执行动作。XML数据214可包括以VCMD文件扩展名存储在本地盘上的XML文件。
XML数据214可包括遵循所定义的语音宏规范的标签和结构。语音宏规范可定义具有具体意义和功能的特定标签。语音宏规范可定义用于标签的结构。例如,标签可标识命令216和这些命令216的特性。规则数据218、条件数据220、和/或执行数据222可根据XML标签来界定。标签可定义它们界定的数据的各个方面。为了说明,每一命令216可由标签<command></command>界定。与规则数据218相关联的单词和/或短语可由标签<listenFor></listenFor>界定。与条件数据220相关联的条件可由标签本身的文本来定义,且该条件的各参数可由该标签来界定。为了说明,在应用程序notepad.exe在前台中时为真的条件可由<appIsInForeground processName=”notepad.exe”/>来表示。类似地,与执行数据222相关联的计算机可执行动作可由标签本身的文本来定义,且该计算机可执行动作的各参数可由该标签来界定。为了说明,启动应用程序notepad.exe的计算机可执行动作可由<run command=”notepad.exe”/>来表示。因此,命令可被表示为界定数据的XML标签的集合。
命令集加载器208可以监视命令数据212。在命令集加载器208检测到命令数据212中的改变时,命令集加载器208可以同步命令集206和命令数据212。此改变可以包括移除、增加、和/或替换命令数据212。命令集加载器208可以周期性地轮询命令数据212以寻找改变。例如,如果检测到改变,则受影响的命令集206可以被卸载并根据该改变重新加载。例如,命令集加载器208可以检测到命令数据212已经被移除(例如,XML数据文件214已经被删除)且命令集加载器208同样可以移除命令集206。命令集加载器208可包括触发命令数据212的周期性检查的可配置定时器。
命令集加载器208可包括XML架构解析器。该XML架构解析器可以确认命令数据212使用正确的XML格式。命令集加载器208可以从命令数据212中提取命令集并将该命令集存储在存储器中。命令集加载器208可以根据命令数据212来创建和/或填充公共对象模型(COM)对象。命令集加载器208可以根据命令数据212建立一个或多个命令集206。
这些命令集每一个都可以包括命令216、全局规则生成器226、和/或全局条件228。命令集和/或其内容可以是COM对象。命令集206可以与宏处理组件204接口。命令集206可以表示语音识别宏的分布单元。例如,用户可以为不同应用程序定义语音识别宏(例如,电子邮件宏、工作宏、因特网宏等)。每组宏可以被收集进不同命令集206中。每一命令集206可以与一不同的XML数据文件214相关联。命令216可包括规则数据218、条件数据220、和/或执行数据222。每一命令216可以将规则数据218、条件数据220、和/或执行数据222相关以定义语音识别宏。
诸如规则生成器等规则数据218可以定义用户希望语音识别引擎202监听的单词和/或短语。规则数据218可以对应于将触发语音识别宏的语音。规则数据218可以引用诸如静态文本数据等静态单词和/或短语。例如,规则数据218可以包括对应于要识别的单词的纯文本。该纯文本可被转换为基于SAPI 5的规则。
命令集206可以与一个或多个全局规则生成器226相关联。全局规则生成器226可以定义应用于命令集206内的每一命令216的规则。全局规则生成器226可以是以很少几行XML代码将规则包括在许多命令216中的快速方式。
规则数据218可以引用诸如基于现有操作环境的动态单词等动态单词。例如,规则数据218可以引用存在于活动文本文档窗口中的任何单词或有序的单词集。为了说明,如果文本编辑器应用程序是前台应用程序,则可以将任何包含在该文档中的文本导出为规则。规则数据218可以引用能够经由开始菜单或桌面被启动的应用程序的名称。用户可以使用此规则来通过名称访问应用程序而不必为每一应用程序具有单独的规则。
规则数据218可以包括当前应用程序中的所有命名控件的列表。为了说明,前台中的文本编辑器可以与诸如像“文件”、“编辑”、“格式”等菜单标题,以及像“关闭”、“最小化”等窗口控件等命名控件相关。规则数据218可以包含当前在系统上运行的应用程序的列表,如那些在Alt-Tab列表中可见的列表。规则数据218可以引用短语列表。每一短语可任选地与相应语义特性相关联。规则数据218可以包括用于触发规则的短语的有序子集。规则数据218可以包括SAPI5 XML规则。
规则数据218可用于生成对应于位于指定用户界面(UI)元素之下的可访问项目的短语的列表。规则数据218可用于为在前台中的应用程序生成单个短语。例如,这可在引用规则需要使用来自当前应用程序的文本的任何时候使用。规则数据218可用于为当前运行的所有应用程序生成短语集。例如,此规则可用于生成当前运行的所有应用程序的列表,以启用诸如“关闭[应用程序的名称]”等语音识别宏。
规则数据218可以与应用程序数据相关联。该规则可用于为指定目录中的所有文件生成单词集。规则数据218可以基于在消息收发应用程序编程接口(MAPI)兼容邮件系统中的收件箱和/或发件箱文件夹中找到的项目来生成规则。例如,规则的短语部分可以包括消息的发送者和/或接收者的名字,且语义特性可以包含电子邮件地址。规则数据218可以动态地包括来自媒体播放器应用程序的项目,诸如名称、艺术家、标题、风格、音轨号等。
规则数据218可以根据脚本的结果来引用单词和/或短语。例如,脚本可以包括Visual Basic脚本、Java脚本等。
条件数据220可以定义命令何时被启用(即,语音识别何时应该监听由规则数据218所标识的单词和/或短语)。命令可以具有零个条件,其中该命令可被一直启用。命令可以具有一个条件,其中该条件可以在命令被启用之前被满足。命令可以具有超过一个条件,其中所有列出的条件应该被满足以启用该命令。命令可以具有超过一个由诸如AND、OR、XOR等逻辑运算符组合在一起的条件。
命令集206可以与一个或多个全局条件228相关联。全局条件228可以定义应用于命令集206内的每一命令216的条件。全局条件228可以是以很少几行XML代码将条件包括在许多命令216中的快速方式。
条件可用于基于计算机操作的任何方面来启用命令216。条件可以取决于计算机的一个或多个操作。条件可以取决于与计算机进行通信的其它设备的一个或多个操作。例如,条件可以取决于来自远程web服务器的网页的内容。条件可以取决于软件属性,诸如运行的应用程序和/或计算机操作系统的各方面。条件可以取决于硬件属性,诸如例如通用串行总线(USB)设备的存在。
条件可以检查特定应用程序是否是前台窗口。例如,条件可以经由进程名称或窗口标题来检查。条件可以检查特定应用程序是否正在运行。条件可以经由进程名称或窗口标题来检查。条件可以检查特定应用程序是否被安装。例如,它可以通过进程名称来检查。
条件可以检查在可编辑域中是否存在插入点。条件可以检查在可编辑域中是否存在选择。此条件可用于控制应该仅在存在选择时被启用(或禁用)的命令216,诸如操纵该选择的口述命令216。
条件可以检查是否存在具有指定特性的用户界面(UI)元素。此条件可用于控制应该仅在指定UI元素存在时被启用(或禁用)的命令216。这在尝试将语音识别宏应用于应用程序的特定方面而不是整个应用程序时可以是有用的。
条件可以检查是否存在命名状态,且可任选地检查命名状态的值。此条件可用于提供对话控件。条件数据220可包括脚本以程序性地确定条件是否被满足。有了可以指示条件是否被满足的条件对象模型,条件数据220可以指示相关联的脚本的启动。例如,脚本可以包括Visual Basic脚本、Java脚本等。
执行数据222可以定义在语音识别引擎202识别到由规则数据218所标识的单词和/或短语时要采取的计算机可执行动作。执行数据222可定义一个或多个可执行动作。这些可执行动作可以与一个或多个计算机可执行动作相关联。动作可以静态地定义或动态地定义。
可执行动作可以在语音用户界面中设置文本反馈。可执行动作可向用户提供回指定语音。例如,该语音可使用文本-语音系统来生成。可执行动作可以启动新的应用程序。可执行动作可以切换到指定应用程序。可执行动作可以关闭指定应用程序。可执行动作可以最小化指定应用程序。可执行动作可以最大化指定应用程序。可执行动作可以还原指定应用程序。可执行动作可以模拟被发送到前台中的应用程序的键。此可执行动作可用于模拟来自键盘的用户输入。
可执行动作可以将文本插入到活动文档中。可执行动作可以将识别结果的一部分插入到活动文档中。为了说明,用户可以定义启动web浏览器应用程序并将所说出的统一资源定位符(URL)输入到web浏览器应用程序的地址域中的宏。
可执行动作可以对语音识别进行仿真。例如,可执行动作可用于使用文本短语来模拟语音识别。语音识别器将假装它听到用户说出要仿真的内容。可执行动作可使得Microsoft Active Accessibility(微软活动可访问性,MSAA)元素被点击和/或执行。如果MSAA元素不能被定位,则用于该命令的可执行动作的列表可以在此可执行动作处终止。
可执行动作可以等待指定量的时间。例如,此可执行动作可用于确保命令在通过有关应用程序的动作来继续之前有足够的时间以供该应用程序加载。可执行动作可以向用户确认命令应该继续其执行。例如,可以向用户显示具有“是”和“否”按钮的对话框。可执行动作可以使用消息框类型的对话框来通知用户。例如,该对话框可以具有消息和“确认”按钮。可执行动作可用于使用具有包含用户可以操纵的文本的编辑控件的对话框来提示用户。
可执行动作可以将命名状态设置为特定值。该命名状态可用于开发复杂的宏。例如,命名状态可用于将命令216链接在一起。此可执行动作可用于模拟对话框控件。
可执行动作可以是消歧可执行动作。该消歧可执行动作可用于消除识别结果中的将可能有歧义的特性或文本的歧义。如果被消歧的项目是有歧义的,则可以向用户显示对话框以允许该用户从列表中选择特定项目。例如,响应于同音语音,语音识别组件可以返回识别指示。响应于该识别指示,消歧可执行动作可以指示用户界面显示多个与同音语音一致的单词。用户可以从该列表中选择对应于用户的预期意义的单词。
可执行动作可以控制交互式媒体播放器。例如,此可执行动作可用于指示媒体播放器控件,诸如播放、暂停、停止等。可执行动作可以在交互式媒体播放器中选择音频。可执行动作可通过诸如名称、艺术家、标题、风格、音轨号等与存储的媒体相关联的单词来引用。可执行动作可以提供对电子邮件应用程序的访问。可执行动作可用于从宏框架内运行脚本代码。
条件数据220、规则数据218、以及执行数据222可与语义特性有关。语义特性可允许可执行动作对有关用户所说的语音的数据进行操作。为了说明,用于发送电子邮件的语音识别宏可希望对“向Rob发送电子邮件”做出响应。Rob的电子邮件地址将是语义特性,即,有关所说出的单词“Rob”的数据。规则数据218可以包括语义特性名称。因此,用于此命令的规则数据218可以指示监听“向[人]发送电子邮件”。项“[人]”可以是对应于在此时间点所识别的语音的标签,其与短语中的其它单词相关联。项“[人]”可以被链接到具有姓名和相关联的电子邮件地址的配对列表。作为语义特性,可将所说出的文本返回给涉及标签的任何可执行动作。再次为了说明,如果用户说“向Rob发送电子邮件”,则名为“人”的语义特性将具有值“Rob”。
在一实施例中,命令集206可包括至少两个命令对象,以使得第二命令对象的执行数据222定义第一命令对象。例如,来自第二命令对象的执行数据222可定义第一命令对象的条件。来自第二命令对象的执行数据222可建立命名状态,且第一命令对象的条件可取决于该命名状态。
以这种方式,可使用复杂的模式将多个命令对象连贯起来。为了说明,用户可能希望设计在两种模式中操作的宏。用户可能希望在家以一种模式操作并在工作时以另一模式操作。该用户可以创建监听短语“我在家”的第二命令对象。与此第二命令对象相关联的执行数据222可以建立与家庭模式相关联的命名状态。该用户可以创建监听短语“检查电子邮件”的第一命令对象。为确保该第一命令对象将检查用户的个人电子邮件帐户而不是用户的工作电子邮件帐户,第二命令对象可包括取决于与家庭模式相关联的命名状态的条件。
宏处理组件204可根据命令216的条件数据220和规则数据218来管理语法224和/或语音识别引擎202的操作。宏处理组件204可包括与一个或多个命令集206和/或语音识别引擎202接口的软件组件。宏处理组件204可评估命令集206中的每一命令216。宏处理组件204可接收每一条件的评估的结果。宏处理组件204可评估每一命令216的条件数据220。
根据条件数据220,宏处理组件204可以选择要被包括在语音识别语法224中的规则数据218。例如,宏处理组件204可在条件数据220的条件被评估为真时将规则数据218包括在语音识别语法224中。宏处理组件204可根据条件数据220的评估的结果来生成语法224。宏处理组件204可为每一命令集206生成相应语法224。宏处理组件204可标识每一语法224以将每一语法224与相应命令集206相关联。
宏处理组件204可向语音识别引擎202传送语法224。宏处理组件204可通过诸如例如语音应用程序编程接口(SAPI)等应用程序编程接口(API)与语音识别引擎202通信。
语音识别引擎202可根据语法224来识别人类语音。在语音识别引擎202识别出在语法224中找到的口述单词时,语音识别引擎202可将识别指示返回给宏处理组件204。该结果可包括所识别的单词和/或使用哪个语法224的指示。宏处理组件204可根据所识别的单词来选择正确的命令集206。宏处理组件204可启动和/或发起与所选择的命令相关联的计算机可执行动作。
宏处理组件204可监视由命令集206所定义的条件。例如,每一条件可与一对象相关联以使得在该条件的状态改变时,该对象可以回过来向宏处理组件204报告。宏处理组件204可接收经更新的状态。宏处理组件204可生成对应于新状态的经更新的语法224。例如,条件可以从真到假,且宏处理组件204可以生成已经移除了相关联的单词的经更新的语法224。类似地,条件可以从假到真,且宏处理组件204可以生成具有附加单词的经更新的语法224。
用户界面组件210可以与宏处理组件204、语音识别引擎202、命令集加载器208、和/或命令数据212进行通信。用户界面组件210可以是适用于提供用于管理、控制、评估、监视、和/或配置语音识别宏处理系统的各组件的图形和/或文本用户界面的特征和功能的任何集合。用户界面可以允许用户通过逐步的“向导”过程来生成命令数据212。用户界面组件210可允许用户标识和配置位置并设置与命令集加载器208相关联的监视频率。用户界面组件210可提供当前活动命令216和/或命令集的图形和/或文本显示。用户界面组件210可以显示使用中的语法。用户界面组件210可以允许用户通过按钮、复选框、单选选择器等来启用或禁用系统的各方面。用户界面组件210可以具有用于呈现给用户的图形表示。例如,用户界面组件210可以图形地呈现在计算机桌面、窗口、工具条、系统托盘中。
图3示出使用语音识别引擎202的示例方法。在302,语音宏处理系统可接收命令数据212。命令数据212可在本地访问和/或远程地访问。命令数据212可被存储在本地盘或从网络位置存储在远程盘上。命令数据212可使用XML脚本文件和/或XML脚本格式化数据的形式。命令数据212根据真正简单聚合(RSS)订阅源来从网络位置处接收。
语音识别宏处理系统可验证与命令数据212相关联的数字证书。验证该数字证书可确保数据完整性和命令数据212的认证。可以解析使用XML形式的命令数据212以填充命令对象。命令对象可包括条件数据220、规则数据218、和/或执行数据222。
可静态地定义命令对象。例如,命令数据212可包括静态地定义命令对象的静态XML格式化代码。可动态地定义命令对象。例如,命令数据212可包括在被执行时动态地定义命令对象的脚本和/或运行时代码。
在304,可评估与命令对象相关联的条件。条件可取决于计算机系统的操作的任何方面。条件可评估为结果。例如,结果可被赋值为真或假。如果条件评估为真,则命令对象可以活动。如果条件评估为假,则命令对象可以不活动。
在306,语音识别宏处理系统可生成语音识别语法224。语音识别语法224可根据命令对象来生成。在命令对象活动时,语法224可包括与命令对象的规则数据218相关联的单词。在该命令不活动时,宏处理系统可从语法224中排除与规则数据218相关联的一个或多个单词。
在308,可监视与命令对象相关联的条件来寻找状态的改变。该状态的改变可由在评估条件时的结果中的改变来指示。在304可以重新评估条件,且在306可以生成经更新的语音识别语法224。在一实施例中,条件可以是向父对象报告其评估结果中的改变的COM对象。
在310,可以监视命令数据212来寻找改变,诸如存储在本地驱动器上的XML格式化数据的改变、对RSS订阅源的更新等。可以监视命令数据212来寻找对命令集的改变、寻找附加命令集、以及寻找命令集的移除。在302可以接收经更新的命令数据212,且在304可以评估与经更新的命令数据212相关联的条件。在306,可根据经更新的命令数据212来生成经更新的语音识别语法224。
在312,可将所生成的语音识别语法224发送到语音识别引擎202。在308和310的监视可以继续。随着语音识别语法224以与308处条件的改变和/或310处命令数据的改变一致的方式来更新,可将经更新的语音识别语法224传送到语音识别引擎202。
语音识别引擎202可对经更新的语音识别语法224进行操作。语音识别引擎202可分析音频流。在语音识别引擎202识别到音频流与语法224之间的匹配时,语音识别引擎202可以返回识别指示。识别指示可以与被包括在活动命令对象的规则数据218中的单词相关联。
在314,响应于识别指示,可执行计算机可执行动作。该计算机可执行动作可与由识别指示和相关联的命令所指定的单词相关联。该单词可被包括在命令对象的规则数据218中,且计算机可执行动作可被包括在与命令对象相关联的执行数据222中。为了说明,宏处理组件204可接收识别指示。宏处理组件204可从该识别指示中确定相关联的命令集206。宏处理组件204可从该识别指示中确定此命令集206内的相关联的命令对象。宏处理组件204可以发起与此命令对象的执行数据222相关联的一个或多个计算机可执行动作。
尽管用对结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。相反,上述具体特征和动作是作为实现权利要求的示例形式公开的。
Claims (18)
1.一种使用语音识别引擎(202)的方法,所述方法包括:
接收由用户创建的第一命令对象(216),其中所述第一命令对象包括指示用户将希望被识别的单词、条件、以及用户将希望在识别所述单词时发起的第一计算机可执行动作的第一数据,其中在所述条件下用户将希望所述单词被识别;
评估所述条件;
根据所述评估的结果来生成包括所述单词的第一语音识别语法(224);
将所述第一语音识别语法(224)传送到所述语音识别引擎(202);以及
响应于从所述语音识别引擎(202)接收到识别指示来执行所述第一计算机可执行动作,其中所述识别指示与所述单词相关联。
2.如权利要求1所述的方法,其特征在于,所述第一命令对象(216)由可扩展标记语言(XML)文件(214)来定义。
3.如权利要求2所述的方法,其特征在于,还包括监视目录位置来寻找所述XML文件(214)。
4.如权利要求2所述的方法,其特征在于,还包括根据真正简单聚合(RSS)订阅源来下载所述XML文件(214)。
5.如权利要求2所述的方法,其特征在于,还包括验证与所述XML文件(214)相关联的数字证书。
6.如权利要求1所述的方法,其特征在于,还包括监视所述条件来寻找所述结果的改变,其中根据所述改变来生成第二语音识别语法(224)。
7.如权利要求1所述的方法,其特征在于,还包括接收第二命令对象,其中所述第二命令对象包括指示第二计算机可执行动作的第二数据;其中所述第二计算机可执行动作在被执行时定义所述第一命令对象(216)。
8.如权利要求7所述的方法,其特征在于,所述第二计算机可执行动作在被执行时定义所述第一命令对象(216)的条件。
9.如权利要求1所述的方法,其特征在于,所述单词与语义特性相关联,且其中所述第一计算机可执行动作的参数取决于所述语义特性。
10.一种使用语音识别引擎(202)的系统,所述系统包括:
用于接收由用户创建的第一命令对象(216)的装置,其中所述第一命令对象包括指示用户将希望被识别的单词、条件、以及用户将希望在识别所述单词时发起的第一计算机可执行动作的第一数据,其中在所述条件下用户将希望所述单词被识别;
用于评估所述条件的装置;
用于根据所述评估的结果来生成包括所述单词的第一语音识别语法(224)的装置;
用于将所述第一语音识别语法(224)传送到所述语音识别引擎(202)的装置;以及
用于响应于从所述语音识别引擎(202)接收到识别指示来执行所述第一计算机可执行动作的装置,其中所述识别指示与所述单词相关联。
11.如权利要求10所述的系统,其特征在于,所述第一命令对象(216)由可扩展标记语言(XML)文件(214)来定义。
12.如权利要求11所述的系统,其特征在于,还包括用于监视目录位置来寻找所述XML文件(214)的装置。
13.如权利要求11所述的系统,其特征在于,还包括用于根据真正简单聚合(RSS)订阅源来下载所述XML文件(214)的装置。
14.如权利要求11所述的系统,其特征在于,还包括用于验证与所述XML文件(214)相关联的数字证书的装置。
15.如权利要求10所述的系统,其特征在于,还包括用于监视所述条件来寻找所述结果的改变的装置,其中根据所述改变来生成第二语音识别语法(224)。
16.如权利要求10所述的系统,其特征在于,还包括用于接收第二命令对象的装置,其中所述第二命令对象包括指示第二计算机可执行动作的第二数据;其中所述第二计算机可执行动作在被执行时定义所述第一命令对象(216)。
17.如权利要求16所述的系统,其特征在于,所述第二计算机可执行动作在被执行时定义所述第一命令对象(216)的条件。
18.如权利要求10所述的系统,其特征在于,所述单词与语义特性相关联,且其中所述第一计算机可执行动作的参数取决于所述语义特性。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US93851807P | 2007-05-17 | 2007-05-17 | |
US60/938,518 | 2007-05-17 | ||
US12/048,714 | 2008-03-18 | ||
US12/048,714 US8620652B2 (en) | 2007-05-17 | 2008-03-18 | Speech recognition macro runtime |
PCT/US2008/063632 WO2008144350A1 (en) | 2007-05-17 | 2008-05-15 | Speech recognition macro runtime |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101681621A CN101681621A (zh) | 2010-03-24 |
CN101681621B true CN101681621B (zh) | 2012-11-14 |
Family
ID=40028433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008800162121A Active CN101681621B (zh) | 2007-05-17 | 2008-05-15 | 语音识别宏运行时环境 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8620652B2 (zh) |
EP (1) | EP2156435B1 (zh) |
CN (1) | CN101681621B (zh) |
WO (1) | WO2008144350A1 (zh) |
Families Citing this family (143)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8190419B1 (en) | 2006-09-11 | 2012-05-29 | WordRake Holdings, LLC | Computer processes for analyzing and improving document readability |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US9344666B2 (en) | 2007-12-03 | 2016-05-17 | International Business Machines Corporation | System and method for providing interactive multimedia services |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9286061B2 (en) * | 2010-12-14 | 2016-03-15 | Microsoft Technology Licensing, Llc | Generating and managing electronic documentation |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
EP3754997B1 (en) | 2011-08-05 | 2023-08-30 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
WO2013022218A2 (en) * | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for providing user interface thereof |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
CN103577072A (zh) * | 2012-07-26 | 2014-02-12 | 中兴通讯股份有限公司 | 一种终端语音辅助编辑的方法及装置 |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
KR102070196B1 (ko) * | 2012-09-20 | 2020-01-30 | 삼성전자 주식회사 | 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치 |
US10042603B2 (en) * | 2012-09-20 | 2018-08-07 | Samsung Electronics Co., Ltd. | Context aware service provision method and apparatus of user device |
US9330659B2 (en) * | 2013-02-25 | 2016-05-03 | Microsoft Technology Licensing, Llc | Facilitating development of a spoken natural language interface |
US8768687B1 (en) * | 2013-04-29 | 2014-07-01 | Google Inc. | Machine translation of indirect speech |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) * | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3008641A1 (en) | 2013-06-09 | 2016-04-20 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9653073B2 (en) * | 2013-11-26 | 2017-05-16 | Lenovo (Singapore) Pte. Ltd. | Voice input correction |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
WO2015094162A1 (en) * | 2013-12-16 | 2015-06-25 | Intel Corporation | Initiation of action upon recognition of a partial voice command |
TW201543361A (zh) * | 2014-05-07 | 2015-11-16 | Giga Byte Tech Co Ltd | 觸發開啟巨集的輸入系統 |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
CN106471570B (zh) | 2014-05-30 | 2019-10-01 | 苹果公司 | 多命令单一话语输入方法 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9953646B2 (en) | 2014-09-02 | 2018-04-24 | Belleau Technologies | Method and system for dynamic speech recognition and tracking of prewritten script |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9576575B2 (en) * | 2014-10-27 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Providing voice recognition shortcuts based on user verbal input |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9666192B2 (en) * | 2015-05-26 | 2017-05-30 | Nuance Communications, Inc. | Methods and apparatus for reducing latency in speech recognition applications |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
DE102015211101A1 (de) * | 2015-06-17 | 2016-12-22 | Volkswagen Aktiengesellschaft | Spracherkennungssystem sowie Verfahren zum Betreiben eines Spracherkennungssystems mit einer mobilen Einheit und einem externen Server |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10089070B1 (en) * | 2015-09-09 | 2018-10-02 | Cisco Technology, Inc. | Voice activated network interface |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
KR102453603B1 (ko) * | 2015-11-10 | 2022-10-12 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US9582762B1 (en) | 2016-02-05 | 2017-02-28 | Jasmin Cosic | Devices, systems, and methods for learning and using artificially intelligent interactive memories |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US9691384B1 (en) * | 2016-08-19 | 2017-06-27 | Google Inc. | Voice action biasing system |
US9864933B1 (en) | 2016-08-23 | 2018-01-09 | Jasmin Cosic | Artificially intelligent systems, devices, and methods for learning and/or using visual surrounding for autonomous object operation |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
CN107844470B (zh) * | 2016-09-18 | 2021-04-30 | 腾讯科技(深圳)有限公司 | 一种语音数据处理方法及其设备 |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
CN110945497A (zh) * | 2016-10-31 | 2020-03-31 | 沙尔贝勒·约瑟夫·埃尔凯德 | 用于分布式数据系统的语义搜索和规则方法 |
US10452974B1 (en) | 2016-11-02 | 2019-10-22 | Jasmin Cosic | Artificially intelligent systems, devices, and methods for learning and/or using a device's circumstances for autonomous device operation |
WO2018085593A1 (en) * | 2016-11-02 | 2018-05-11 | Interactive Intelligence Group, Inc. | System and method for parameterization of speech recognition grammar specification (srgs) grammars |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10607134B1 (en) | 2016-12-19 | 2020-03-31 | Jasmin Cosic | Artificially intelligent systems, devices, and methods for learning and/or using an avatar's circumstances for autonomous avatar operation |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
US10620910B2 (en) * | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
EP3563373B1 (en) * | 2016-12-30 | 2022-11-30 | Harman International Industries, Incorporated | Voice recognition system |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
WO2018213788A1 (en) * | 2017-05-18 | 2018-11-22 | Aiqudo, Inc. | Systems and methods for crowdsourced actions and commands |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
CN110678827B (zh) * | 2017-06-08 | 2023-11-10 | 霍尼韦尔国际公司 | 用于在工业自动化系统和其他系统中以增强/虚拟现实记录和重放交互式内容的装置和方法 |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10102449B1 (en) | 2017-11-21 | 2018-10-16 | Jasmin Cosic | Devices, systems, and methods for use in automation |
US10474934B1 (en) | 2017-11-26 | 2019-11-12 | Jasmin Cosic | Machine learning for computing enabled systems and/or devices |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10402731B1 (en) | 2017-12-15 | 2019-09-03 | Jasmin Cosic | Machine learning for computer generated objects and/or applications |
US10553204B2 (en) * | 2017-12-21 | 2020-02-04 | International Business Machines Corporation | Personalization of conversational agents through macro recording |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10930278B2 (en) * | 2018-04-09 | 2021-02-23 | Google Llc | Trigger sound detection in ambient audio to provide related functionality on a user interface |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10504518B1 (en) | 2018-06-03 | 2019-12-10 | Apple Inc. | Accelerated task performance |
US11210059B2 (en) * | 2019-06-25 | 2021-12-28 | International Business Machines Corporation | Audible command modification |
US11348597B2 (en) | 2019-11-21 | 2022-05-31 | Oracle International Corporation | Intent-based network validation |
US11336527B2 (en) * | 2020-06-01 | 2022-05-17 | Hewlett Packard Enterprise Development Lp | Method and system for enhanced command management in a network |
CN112764731A (zh) * | 2021-01-19 | 2021-05-07 | 上海擎昆信息科技有限公司 | 一种软件接口维护方法、系统、计算机设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1392473A (zh) * | 2001-05-04 | 2003-01-22 | 微软公司 | 用于web启动的识别的标记语言扩展 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5909666A (en) * | 1992-11-13 | 1999-06-01 | Dragon Systems, Inc. | Speech recognition system which creates acoustic models by concatenating acoustic models of individual words |
US5671328A (en) * | 1992-12-30 | 1997-09-23 | International Business Machines Corporation | Method and apparatus for automatic creation of a voice recognition template entry |
CA2115210C (en) * | 1993-04-21 | 1997-09-23 | Joseph C. Andreshak | Interactive computer system recognizing spoken commands |
US5873064A (en) * | 1996-11-08 | 1999-02-16 | International Business Machines Corporation | Multi-action voice macro method |
US5864819A (en) * | 1996-11-08 | 1999-01-26 | International Business Machines Corporation | Internal window object tree method for representing graphical user interface applications for speech navigation |
US6269335B1 (en) * | 1998-08-14 | 2001-07-31 | International Business Machines Corporation | Apparatus and methods for identifying homophones among words in a speech recognition system |
US6263375B1 (en) * | 1998-08-31 | 2001-07-17 | International Business Machines Corp. | Method for creating dictation macros |
US6424357B1 (en) * | 1999-03-05 | 2002-07-23 | Touch Controls, Inc. | Voice input system and method of using same |
US6324499B1 (en) * | 1999-03-08 | 2001-11-27 | International Business Machines Corp. | Noise recognizer for speech recognition systems |
US6816837B1 (en) * | 1999-05-06 | 2004-11-09 | Hewlett-Packard Development Company, L.P. | Voice macros for scanner control |
GB9911971D0 (en) * | 1999-05-21 | 1999-07-21 | Canon Kk | A system, a server for a system and a machine for use in a system |
JP2000339309A (ja) | 1999-05-31 | 2000-12-08 | Sony Corp | 文字列解析装置、文字列解析方法及び提供媒体 |
US6374226B1 (en) | 1999-08-06 | 2002-04-16 | Sun Microsystems, Inc. | System and method for interfacing speech recognition grammars to individual components of a computer program |
JP2001296881A (ja) * | 2000-04-14 | 2001-10-26 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
KR20020049150A (ko) | 2000-12-19 | 2002-06-26 | 이계철 | 음성 인식/합성 제어를 위한 프로토콜 이용 방법 및시스템 |
US7711570B2 (en) * | 2001-10-21 | 2010-05-04 | Microsoft Corporation | Application abstraction with dialog purpose |
US20040054538A1 (en) * | 2002-01-03 | 2004-03-18 | Peter Kotsinadelis | My voice voice agent for use with voice portals and related products |
US20060095628A1 (en) * | 2003-12-19 | 2006-05-04 | Microsoft Corporation | External-Network Data Content Exposure to Network-Connected Devices |
US8768711B2 (en) * | 2004-06-17 | 2014-07-01 | Nuance Communications, Inc. | Method and apparatus for voice-enabling an application |
US7409344B2 (en) * | 2005-03-08 | 2008-08-05 | Sap Aktiengesellschaft | XML based architecture for controlling user interfaces with contextual voice commands |
US20070101313A1 (en) * | 2005-11-03 | 2007-05-03 | Bodin William K | Publishing synthesized RSS content as an audio file |
-
2008
- 2008-03-18 US US12/048,714 patent/US8620652B2/en active Active
- 2008-05-15 CN CN2008800162121A patent/CN101681621B/zh active Active
- 2008-05-15 EP EP08755480.4A patent/EP2156435B1/en active Active
- 2008-05-15 WO PCT/US2008/063632 patent/WO2008144350A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1392473A (zh) * | 2001-05-04 | 2003-01-22 | 微软公司 | 用于web启动的识别的标记语言扩展 |
Also Published As
Publication number | Publication date |
---|---|
EP2156435A4 (en) | 2011-05-25 |
US20080288259A1 (en) | 2008-11-20 |
EP2156435A1 (en) | 2010-02-24 |
EP2156435B1 (en) | 2015-07-22 |
CN101681621A (zh) | 2010-03-24 |
WO2008144350A1 (en) | 2008-11-27 |
US8620652B2 (en) | 2013-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101681621B (zh) | 语音识别宏运行时环境 | |
JP4854259B2 (ja) | 音声コマンドを明瞭化する集中化された方法およびシステム | |
US8504803B2 (en) | System and method for creating and executing portable software | |
US7571355B2 (en) | Product support connected error reporting | |
CN1790326B (zh) | 同步自然语言输入元素和图形用户界面的系统和方法 | |
KR100861861B1 (ko) | 음성 입력 방법 편집기용 아키텍처, 음성 입력 방법편집기, 음성 입력 편집 방법 및 머신 판독 가능 저장 장치 | |
US8635591B2 (en) | Embedding software developer comments in source code of computer programs | |
JP5542156B2 (ja) | 発話処理のための認識器のマークアップ言語ベースの選択及び利用 | |
CN101755265A (zh) | 交互式消息编辑系统和方法 | |
CN101208739A (zh) | 用于安全信息的语音识别系统 | |
CN101536083A (zh) | 来自不可转录数据的诊断识别问题 | |
CN102737101A (zh) | 用于自然用户界面系统的组合式激活 | |
US9400633B2 (en) | Methods and apparatus for voiced-enabling a web application | |
CN101366074A (zh) | 话音控制式无线通信装置系统 | |
WO2020263415A1 (en) | Voice assistant-enabled web application or web page | |
WO2007093561A1 (en) | Invoking an audio hyperlink | |
US11423185B2 (en) | Sensor based intelligent system for assisting user with voice-based communication | |
US20230419969A1 (en) | Speech-to-text system | |
Santiago et al. | Building cognitive applications with IBM Watson services: Volume 6 speech to text and text to speech | |
US20230108637A1 (en) | Generating sorted lists of chat bot design nodes using escalation logs | |
US10997963B1 (en) | Voice based interaction based on context-based directives | |
CN106502707B (zh) | 代码生成方法及装置 | |
US20210343290A1 (en) | Speech-to-text system | |
WO2016169594A1 (en) | Web technology responsive to mixtures of emotions | |
CN115659340B (zh) | 一种仿冒小程序识别方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150514 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150514 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |