CN107408385A - 开发者语音动作系统 - Google Patents
开发者语音动作系统 Download PDFInfo
- Publication number
- CN107408385A CN107408385A CN201680019717.8A CN201680019717A CN107408385A CN 107408385 A CN107408385 A CN 107408385A CN 201680019717 A CN201680019717 A CN 201680019717A CN 107408385 A CN107408385 A CN 107408385A
- Authority
- CN
- China
- Prior art keywords
- application program
- specified
- term
- triggering
- passive data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 title claims description 80
- 238000013518 transcription Methods 0.000 claims description 44
- 230000035897 transcription Effects 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 38
- 230000001960 triggered effect Effects 0.000 claims description 21
- 230000004044 response Effects 0.000 claims description 12
- 230000006399 behavior Effects 0.000 description 56
- 238000010200 validation analysis Methods 0.000 description 22
- 230000006978 adaptation Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 241001269238 Data Species 0.000 description 3
- 230000000712 assembly Effects 0.000 description 3
- 238000000429 assembly Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001177 retroviral effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 238000003314 affinity selection Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0638—Interactive procedures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
方法、系统和装置,用于接收识别应用程序和语音命令触发术语的数据,验证接收到的数据,引导接收到的数据以产生指定应用程序、语音命令触发术语和一个或多个至少基于所述语音命令触发术语确定的其他语音命令触发术语的被动数据结构,以及将所述被动数据结构存储在语境意图数据库中,其中所述语境意图数据库包括一个或多个其他被动数据结构。
Description
技术领域
本说明书一般地但不排他地涉及语音命令,并且一个特定实现涉及配置语音命令。
背景技术
在软件中定义的行为可以指定任务,其中行为是控制任务执行的生命周期的类。意图是被动的数据结构,其可以指定特定行为和与特定行为相关联的应用程序。意图可以由应用程序触发,并且可以使得由该意图指定的行为在由该意图指定的目标应用程序上执行或由该应用程序执行。
发明内容
被称为意图的被动数据结构可以指定要在应用程序上执行或者由应用程序执行的应用程序和行为,其中行为是在应用程序上执行或由该应用程序执行的任务。意图可以指定一个或多个可用于触发意图的触发短语,使得意图的触发导致由指定的应用程序执行行为。例如,意图可以与针对出租车服务的应用程序相关联,并且可以指定一个或多个作为语音动作来操作的触发短语,使得当用户说话时,检测到触发短语中的一个触发短语触发出租车服务应用程序的启动。除了由意图指定的应用程序以外,意图可以由应用程序或操作系统触发,使得应用程序的触发导致指定行为在特定应用程序上执行或者由其执行。
由主机提供的服务或工具可使得应用程序开发者能够请求指定他们正在开发的特定应用程序的新意图。针对新意图的提交可以是语法的形式,其中开发者可以向服务或工具提交语法,并且该服务或工具可以基于该语法为特定应用程序产生意图。
新意图的产生可以通过增加可以被提供给应用程序以使得实现特定结果的输入的数量和范围来增强正在开发的特定应用程序的灵活性。因此,正在开发的应用程序的可靠性可以被提高,因为可以确保特定应用程序将以正确的方式响应用户的输入,用户输入的处理得到改善。
在一些实现中,开发者提交的语法可以指定应用程序、触发短语、行为或复合行为、语境或其他信息中的一个或多个。语法由开发者提交,并由开发者语音动作服务或工具通过网络接收。开发者语音动作服务或工具可以验证语法。例如,语法的验证可以涉及确定触发短语是否已经与用于操作系统或另一应用程序的意图相关联、可以确定由语法指定的行为是否可以由指定的应用程序执行、可以确定触发短语是否符合某些标准、可以确定所提交的语法的格式是否在语法上有效、或者可以以其他方式确定由开发者提交的语法是否是可用于创建新意图的可行语法。
有效语法可以由开发者语音动作服务或工具引导以将语法转换为意图并扩展语法中指定的触发短语。例如,语法的引导可以涉及将以第一格式提交的语法转换成第二格式的意图。除了将语法转换成意图之外,开发者提交的触发短语可以被扩展为包括其他相关的触发短语。例如,可以将一个或多个触发短语扩展规则、同义词规则、术语可选规则或其他规则应用于触发短语以产生与该意图相关联的一个或多个相关的触发短语。所产生的意图可以与一个或多个其他意图一起存储在语境意图数据库中,该一个或多个其他意图中的每一个意图与应用程序、一个或多个触发短语、以及可选地行为、复合行为、语境或者涉及该意图或该意图的触发的其他信息相关联。
基于语法验证的新意图的产生意味着开发者不需要通过直接输入该意图本身来产生新的意图。如上所述,语法可以具有可以在归纳过程中转换的特定格式,并且该转换过程能够扩大可以是新意图的适当候选者的语法数量,因为放松了对输入语法格式的要求。因此,可以开发应用程序以包括具有较少用户输入的新意图。
在开发者提交的语法已经被建立为意图之后,用户可以向客户端设备提供语音输入。用户的语音输入可以被转录以产生语音输入的转录,并且该转录可以同与存储在语境意图数据库或指定意图的一个或多个其他数据库(比如包括与操作客户端设备的系统相关联的意图的数据库)相关联的一个或多个触发短语相匹配。基于确定转录的一部分同与特定意图相关联的触发短语相匹配,可以触发意图以使得与该意图相关联的行为在由特定意图指定的应用程序上执行或由该应用程序执行。
例如,与启动出租车服务应用程序相关联的意图可以与触发短语“呼叫出租车”相关联。基于接收包括短语“呼叫出租车”的用户语音输入的客户端设备,客户端设备或其他系统可以触发出租车服务应用程序的启动。
本说明书中描述的主题的创新方面可以体现在包括下列动作的方法中:接收识别应用程序和语音命令触发术语的数据,验证接收到的数据,引导接收到的数据以产生指定应用程序、语音命令触发术语以及至少基于该语音命令触发术语确定的一个或多个其他语音命令触发术语的意图,并将该意图存储在语境意图数据库中,其中该语境意图数据库包括一个或多个其他意图。这些方面的其他实施例包括被配置为执行在计算机存储设备上编码的方法的动作的对应系统、装置和计算机程序。
这些和其他实施例可以各自可选地包括以下特征中的一个或多个。在各个示例中,验证接收到的数据包括确定语音命令触发术语不与不同于所识别的应用程序的应用程序相关联。该动作包括接收识别动作的数据,其中验证接收到的数据包括确定所识别的动作与所识别的应用程序兼容。引导接收到的数据以产生指定应用程序的意图,语音命令触发术语和至少基于该语音命令触发术语确定的一个或多个其他的语音命令触发术语包括将识别应用程序的接收数据、和语音命令触发术语转换为不同的数据格式。引导接收数据以产生指定应用程序、语音命令触发术语和至少基于该语音命令触发术语确定的一个或多个其他的语音命令触发术语的意图,包括:通过对该语音命令触发术语应用一个或多个同义词规则、可选规则或扩展规则,产生至少基于该语音命令触发术语而确定的一个或多个其他语音命令触发术语。
该动作包含:获得包括用户所说言语的音频数据,至少基于该音频数据产生该用户所说言语的转录,确定该转录的至少一部分与由存储在语境意图数据库中的意图所指定的特定的语音命令触发术语匹配,其中该意图指定特定应用程序、以及特定的语音命令触发术语,并且基于确定该转录的至少一部分与由该意图指定的特定的语音命令触发术语相匹配,使得任务被执行。使得任务被执行包括使特定应用程序执行任务。该动作还可以包括:针对每一个指定(i)应用程序、和(ii)语音命令触发术语的一个或多个意图中的每一个,确定该转录的至少一部分与由该意图指定的语音命令触发术语相匹配;从包括由该一个或多个意图中的每一个所指定的应用程序的一组应用程序中请求特定应用程序的选择,从包括由该一个或多个意图中的每一个所指定的应用程序的一组应用程序中接收指示特定应用程序的选择的数据,并且响应于接收到指示该特定应用程序的选择的数据,调整特定语音命令触发术语与指定特定应用程序的意图之间的关联的强度。
动作包含:针对每一个指定(i)应用程序和(ii)语音命令触发术语的一个或多个意图中的每一个,确定转录的至少一部分与由该意图指定的语音命令触发术语相匹配,针对一个或多个意图中的每一个,确定该意图的亲和度,该亲和度指示由该意图指定的语音命令触发术语对由该意图指定的应用程序的亲和度,至少基于针对该一个或多个意图中的每一个的亲和度选择特定意图,以及使得由该特定意图指定的任务被执行。动作包括:针对每一个指定(i)应用程序和(ii)语音命令触发术语的一个或多个意图中的每一个,确定转录的至少一部分与由该意图指定的语音命令触发术语匹配,对一个或多个意图进行排序,至少基于该一个或多个意图的排序选择特定意图,并且使得由该特定意图指定的任务被执行。
本说明书中所描述的主题的一个或多个实施例的细节在附图和下面的描述中被阐述。从描述、附图和权利要求,主题的其他潜在特征、方面和优点将变得显而易见。
附图说明
图1描绘了用于开发者语音动作系统和服务的示例系统。
图2描绘了用于使用语音动作系统和服务的示例系统。
图3是与开发者语音动作系统和服务相关联的示例过程的流程图。
各附图中的相似附图标记表示相似元件。
具体实施方式
图1示出了开发者语音动作服务系统100的示例。通常,开发者语音动作服务使得应用程序开发者101能够通过开发者语音动作服务系统100提交被视为新意图的候选者的语法。
开发者语音动作服务系统100验证由应用程序开发者101提交的语法,如果有效,则通过将语法从其提交的格式转换为意图格式来引导语法,并且扩展由该语法指定的触发短语以包括与所指定的触发短语相关的另外的触发短语。开发者语音动作服务系统100将该新意图存储在包括指定各种应用程序的其他意图的语境意图数据库140中。
简而言之,开发者语音动作服务系统100包括摄入引擎110、验证引擎120、语法引导引擎130和语境意图数据库140。摄入引擎110、验证引擎120、语法引导引擎130或语境意图数据库140的任一个可以被实现为独立于可能与开发者语音动作服务系统100通信的其他系统的开发者语音动作服务系统100的组件,比如另一语音动作服务系统,或者可以被实现为这些其他系统的组件。验证引擎120可以访问在验证标准数据库125处可用的验证标准,并且语法引导引擎130可以访问在引导规则数据库135处可用的引导规则。应用程序开发者101可以使用通过一个或多个网络105与开发者语音动作服务系统100通信的计算设备102,将语法提交给开发者语音动作服务系统100。
应用程序开发者101可以向开发者语音动作服务系统100提交语法以请求特定应用程序的新意图。具体地,应用程序开发者101可以使用可以通过一个或多个网络105与开发者语音动作服务系统100通信的计算设备102提交语法。
由应用程序开发者101提交的语法可以指定与新意图的产生有关的各种信息。具体而言,语法可以指定特定应用程序,比如应用程序开发者101正在开发的特定应用程序,针对其正尝试产生新的意图。或者,语法可以指定与应用程序开发者101正在开发的应用程序不同的特定应用程序,比如指定与正在开发的应用程序相关或与其通信的特定应用程序的语法。在另一些示例中,语法可以指定应用程序的特定方面,比如与应用程序开发者101正在开发的应用程序或另一应用程序相关联的特定子进程、线程或其他分割。应用程序开发者101可以另外指定语法中的触发短语。触发短语包括一个或多个术语,当从用户提供的语音输入检测到该一个或多个术语时,触发该意图。在某些情况下,触发短语可以包括一个或多个异议(argument),其中异议充当触发短语中的占位符,其可被用户的语音输入的一个或多个术语替代。例如,触发短语“将我带到$位置”可以使比如“带我们到华盛顿特区1425K街西北”的用户语音输入能够被识别为与触发短语匹配。可以检测到其他异议,比如指定地点、日子、日期或时间、人、存储在用户的客户端设备的联系人、比如歌曲、电影或其他内容项的内容项、或其他异议的异议。
语法还可以可选地指定特定的行为,被定义为在由语法指定的特定应用程序上或由其执行的任务。另外,在某些情况下,应用程序开发者101可以指定与语法相关联的语境,其中语境定义了用于触发由该语法指定的意图而必须存在的附加条件,或者其中存在对触发意图的选择的修改。在一些实现中,由应用程序开发者101提交的语法可以指定开发者定义的类型,其中类型被定义为如果包括有触发短语则应当被检测到的一个或多个术语。例如,由一个或多个术语识别的开发者定义的类型可以与应用程序特定模式(例如“睡眠”或“锁定”)的特定类型相关联,或者可以被特定术语识别,该特定术语经常结合被提供给特定应用程序的输入而使用,例如用于二手车搜索应用程序的汽车模型名称,或者可以是与某些应用程序或触发短语相关的开发者定义类型。当从用户接收到语音输入时,语音动作服务系统可以更为可能检测到类型的术语而不是其他术语。例如,基于“sleep”是由已被应用程序开发者提交的一个或多个语法定义的类型,语音动作服务系统可以更为可能从语音输入中检测术语“sleep”,而不是“slip”。
在一些示例中,类型可以与特定实体相关联或用于参考特定实体。例如,由术语“我的房子”定义的类型可以与同用户相关联的财产相关联,例如,基于用户已经注册了与语音动作服务系统、应用程序的属性相关联的地址,或者基于应用程序开发者101在语法中指定由术语“我的房子”定义的类型应当与用户的财产或财产的地址相关联。检测在用户语音输入中定义类型的术语可以使得由触发意图指定的行为关于与该类型相关联的实体而被执行。
例如,基于用户向语音动作服务系统提供语音输入“呼叫出租车载我回家”,语音动作服务系统可以确定该语音输入与由针对出租车服务应用程序的意图所指定的触发短语相匹配,并且还可以确定在语音输入中包括的术语“我的房子”与同用户家庭地址相关联的类型相对应。因此,该意图的触发可以导致出租车服务应用程序请求出租车以将用户从他们的当前位置带到他们的家庭住址。
在这样的示例中,指定用户的家庭地址的信息可以与在用户的客户端设备上运行的出租车服务应用程序的实例相关联地存储,可以存储在开发者语音动作服务系统100处、可以由存储在语境意图数据库140中的意图指定、或者可以以其他方式存储。在一些示例中,与类型相关联的实体特定于特定用户,使得术语“我的房子”将引用与不同用户相关联的财产的不同地址,并且可以针对提供包括该类型的语音输入的用户选择与该类型相关联的正确实体。
作为示例,应用程序开发者101可以提交图1中所示的语法。语法可以指定作为出租车服务应用程序的名为“出租车呼叫者(Cab Caller)”的应用程序。此外,语法可以指定应用程序开发者101已经指示为触发短语的触发短语“雇佣出租车(Hail a Cab)”,该触发短语应当使得触发从语法产生的意图。语法还指定了特定行为,即启动指定的应用程序。因此,从语法产生的意图的触发将导致启动“出租车呼叫者”应用程序。再次,从语法产生的意图的触发不限于启动第三方的应用程序,而是可以触发可以由开发者指定的其他应用程序或功能。应用程序开发者101另外指定了针对语法的语境。具体而言,语境指示了仅当提供触发该意图的语音输入的客户端设备托管了“出租车呼叫者”应用程序的“版本1.2”时,才会触发从语法产生的意图。本公开中考虑了许多其他语境,比如日期时间、位置、设备朝向、天气、用户认证、对物品或携带物品的人的接近度,用户的客户端设备上的特定软件或组件的存在(或不存在)等等。
由应用程序开发者101提交的语法被开发者语音动作服务系统100通过一个或多个网络105在摄入引擎110上接收。摄入引擎110为计算设备(比如计算设备102)提供接口,以使得开发者语音动作服务系统100能够接收由应用程序开发者提交的语法。
摄入引擎110接收由应用程序开发者101提交的语法,并将该语法提供给验证引擎120。验证引擎120接收该语法并验证该语法以确定是否可以基于所提交的语法来产生新的意图。为了验证语法,验证引擎120可以访问在验证标准数据库125可访问的验证标准。验证标准数据库125可以包括已经被预定或者响应于接收到的语法而产生的验证标准。
例如,验证引擎120可以通过确定由语法指定的触发短语是否已经与意图相关联来验证语法。另外或替代地,验证该语法可以涉及确定由该语法指定的应用程序是否能够执行该语法指定的特定行为或另一默认行为。例如,验证引擎120可以访问与指示关于应用程序的信息的语法中指定的应用程序相关联的清单或其他信息,比如指示哪些行为可以在应用程序上执行或由该应用程序执行、哪些数据可用于应用程序或在其内可用的信息、或其他信息。验证引擎120可以查阅与所识别的应用程序相关联的清单或其他信息以验证语法。
验证语法还可以涉及确定语法中指定的语境是否是适当的语境,例如通过确保语境可以被满足,例如,存在“出租车呼叫者”应用程序的“版本1.2”。验证语法还可能涉及确定以正确的格式提供语法,使得语法可以被转换成意图格式。另外或替代地,验证语法可以涉及确定针对语法提交的触发短语具有适当的格式,例如通过确定包括在触发短语中的异议被正确地格式化或者是支持的异议类型。验证语法还可以包括识别与从应用程序开发者101接收的语法中指定的行为相关或所需以执行的一个或多个行为。例如,如果应用程序开发者101在语法中指定行为以使用出租车服务应用程序请求出租车,则验证引擎120可以确定使用出租车服务应用程序请求出租车还涉及在用户的客户端设备上启动出租车服务应用程序的行为,并且使用在用户的客户端设备上运行的定位系统应用程序来确定用户的位置。
另外,验证引擎120可以通过确定语法的格式化或语法的部分在语法上是有效的来验证接收到的语法。在某些情况下,语法引导引擎130只有在语法有效的情况下才可以能够引导接收的语法,也就是说,如果其数据结构根据预期的语法格式被正确格式化并且仅包括可以由语法引导引擎130处理或转换的术语。
在一些实现中,可以由开发者语音动作服务系统100向应用程序开发者101提供反馈。例如,验证引擎120可以向应用程序开发者101的计算设备102提供指示由应用程序开发者101提交的语法是否已经被验证的信息。还可以向应用程序开发者101提供额外的或不同的反馈,比如指示是否已经使用语法成功地产生了意图的信息、指定基于语法中指定的触发短语产生的一个或多个其他相关的触发短语的信息、或其他信息。
基于验证引擎120验证应用程序开发者101提交的语法,验证引擎120可以将语法提交给语法引导引擎130。语法引导引擎130可以接收语法并且可以引导语法以产生基于语法的意图。引导语法可以包括由开发者语音动作服务系统100将语法从接收到的格式转换为意图的格式。引导语法还可以包括通过基于语法中指定的触发短语来产生一个或多个与指定的触发短语相关联的其他触发短语来扩展语法中被指定的触发短语。
例如,开发者语音动作服务系统100可以使应用程序开发者能够以应用程序开发者或其他用户更容易理解的格式提交语法,例如通过使应用程序开发者能够以包括文本异议的格式提交语法。语法引导引擎130可以以该格式接收语法,并且可以将语法转换为意图的格式,其中该意图的格式可以是对于应用程序开发者或其他用户来说更难解析或理解的格式,或者可以是特定于语音动作服务的格式。
扩展在提交给开发者语音动作服务系统100的语法中指定的触发短语允许开发者语音动作服务系统100产生基于指定的触发短语的一个或多个相关的触发短语。可以向触发短语应用各种扩展规则以产生相关的触发短语。例如,可以将一个或多个术语可选规则、同义词规则,扩展规则或其他修订规则(比如其他查询术语修订规则)应用于语法中指定的触发短语,以产生一个或多个与语法中指定的触发短语相关并且至少部分地基于语法中指定的触发短语的其他触发短语。
可以将可选规则应用于触发短语,该可选规则指定触发短语中的一个或多个特定术语在基于语法中指定的触发短语而产生的相关触发短语中是否是可选的。同义词规则可以识别针对语法中的一个或多个术语的一个或多个同义词,该一个或多个术语可以被包括在基于语法中指定的触发短语而产生的相关触发短语中。扩展规则可以使语法中指定的触发短语能够被扩展以包括一个或多个额外的术语,比如被识别为与语法中指定的触发短语中的术语或多个术语相似或相关的一个或多个术语。可以应用用于基于语法中指定的触发短语而产生相关触发短语的其他规则。
另外,在一些示例中,语法引导引擎130可以通过将接收到的触发短语或针对指定的触发短语产生的一个或多个相关的触发短语转换为一个或多个其他语言,来产生与接收到的语法中指定的触发短语相关的一个或多个触发短语。例如,触发短语“雇佣出租车”可以从英语转换成普通话、西班牙语、阿拉伯语、法语、印地语、德语、俄语或其他语言中的一种或多种,并且一个或多个转换可以被识别为与语法中指定的触发短语“雇佣出租车”有关的触发短语。
另外,在一些情况下,语法引导引擎130可以能够确定在接收到的语法中指定的触发短语中包括的术语或异议的变形和排列。例如,如果与购物应用程序相关联的语法中指定的触发短语指定第一单元中的服装尺寸参数的异议,例如美国尺码中的套装尺寸,则语法引导引擎130可能能够确定该异议的变形或排列,比如通过在另一个触发短语中包括在第二单元中的服装尺寸参数的异议,例如欧洲尺码中的套装尺寸。
在一些情况下,语法引导引擎130可以确定关联得分的强度并将其与语法中指定的触发短语中的一个或多个和基于语法中指定的触发短语而确定的触发短语相关联。关联得分的强度可以指示触发短语对语法中指定的应用程序的适用性或唯一性的估计。例如,基于接收指定来自应用程序开发者101的触发短语“雇佣出租车”的语法,语法引导引擎130可以确定触发短语“雇佣出租车”和触发短语“呼叫出租车”之间的关联的强度,触发短语“呼叫出租车”至少基于接收到的语法中指定的触发短语被识别为相关的触发短语。
在一些情况下,验证引擎120和/或语法引导引擎130可以确定触发短语和应用程序之间的关联的强度,以确定所请求的语法是否是垃圾信息。例如,语法引导引擎130可以确定触发短语“雇佣出租车”和“出租车呼叫者”的出租车服务应用程序或指定出租车呼叫者应用程序的意图之间的关联的强度,并且可以基于该确定将关联强度的得分分配给触发短语“雇佣出租车”。此外,在一些示例中,广告商或应用程序开发者可能试图将语法提交给指定他们正在尝试推广的应用程序和触发短语的开发者语音动作服务。验证引擎120和/或语法引导引擎130可以确定触发短语与所识别的应用程序不具有足够强的关联,并且因此可以基于接收到的语法而拒绝产生新的意图、和/或可以提供反馈给提交语法的用户,指示他们必须提供与应用程序更强相关的触发短语。
例如,体育新闻应用程序的广告商可以提交指定体育新闻应用程序和触发短语“呼叫出租车”的语法。验证引擎120和/或语法引导引擎130可以确定触发短语“打电话”与体育新闻应用程序没有足够强的关联,可能会拒绝基于该语法所产生的新意图。
在一些实现中,语法引导引擎130还可以向计算设备102处的应用程序开发者101提供反馈。例如,基于引导接收到的语法以产生一个或多个其他触发短语,其至少基于由应用程序开发者101提交的语法识别的触发短语而被确定,可以向应用程序开发者101呈现识别一个或多个其他触发短语的反馈,以允许应用程序开发者101评估一个或多个其他触发短语来确定该其他触发短语是否是针对被识别的触发短语的可接受的替代触发短语。在一些实现中,应用程序开发者101可以能够提供对反馈的响应,例如,以指示在新意图中应当指定由语法引导引擎130产生的一个或多个其他触发短语中的哪一个。
另外,在一些情况下,开发者语音动作服务系统100的语法引导引擎130或另一个组件可以基于接收到的意图、基于接收到的语法指定的触发短语确定的一个或多个其他触发短语、或从接收到的意图产生的意图来产生一个或多个示例查询或语音输入。示例查询或语音输入可以用作示例来教导用户如何使用可访问存储在语境意图数据库140中的意图的语音动作服务。例如,当用户首先提供语音输入时,该语音输入触发从由应用程序开发者101提交的语法产生的意图,可以提供示例查询或触发短语用于向用户输出。
基于语法引导引擎130已经通过产生一个或多个相关的触发短语并且将包括一个或多个相关的触发短语的语法转换成意图的格式来扩展语法中指定的触发短语,开发者语音操作服务系统100可以将新意图存储在语境意图数据库140中。例如,基于由应用程序开发者101提交的语法产生的新意图可以作为“意图Y”添加到存储在语境意图数据库中的一组意图,该组意图还至少包括“意图X”和“意图Z”。例如,“意图Y”和“意图Z”可以是基于由一个或多个其他应用程序开发者提交的与一个或多个应用程序相关联的语法所生成的意图,该一个或多个应用程序可以与由应用程序开发者101提交的语法中指定的应用程序不同或相同。
存储在语境意图数据库中的意图可以以意图格式指定由应用程序开发者101提交的语法所指定的参数。例如,基于由应用程序开发者101提交的语法产生的“意图Y”可以指定“出租车呼叫者”应用程序,可以指定如果意图被触发则将在“出租车呼叫者”应用程序上执行或由该应用程序执行的启动应用程序行为,并且可以指定在触发意图时施行附加条件的语境,即,在其上可以触发意图的客户端设备必须具有“出租车呼叫者”应用程序的“版本1.2”这一特征。此外,“意图Y”可以指定由应用程序开发者101提交的触发短语以及开发者语音动作服务系统100至少基于由应用程序开发者101提交的触发短语确定的一个或多个附加触发短语。例如,触发短语“雇佣出租车”可以扩展到还包括触发短语“呼叫出租车(Call a cab)”、“取得汽车”和“呼叫出租车(Call taxi)”,只要满足附加语境,检测到这些触发短语的任何一个将导致触发“意图Y”。
一旦基于由应用程序开发者101提交的语法产生了意图并将其存储在语境意图数据库140中,用户可以能够通过提供包括与意图相关联的触发短语的语音输入来触发意图。例如,基于托管“出租车呼叫者”应用程序的“版本1.2”的客户端设备的用户向客户端设备提供语音输入“呼叫出租车”,客户端设备可以确定语音输入包括触发短语“呼叫出租车”,可以确定移动设备托管“出租车呼叫者”应用程序的“1.2版本”,并且可以作为响应来触发导致“出租车呼叫者”应用程序在用户客户端设备上启动的“意图Y”。
在一些实现中,将新产生的意图存储在语境意图数据库140的过程可以是被支持以快速更新推送或部署支持的过程。例如,一旦语音开发者语音动作服务系统100已经引导接收到的语法,它就可以能够在语境意图数据库140中快速存储新创建的意图,并且使新产生的意图对语音动作服务的用户可用,该用户可访问存储在语境意图数据库140中的意图。
图2示出了语音动作服务系统200的示例用例,其使用户能够提交与语境意图数据库240存储的意图相匹配的语音输入。将语音输入与意图相匹配导致由意图指定的行为在用户的客户端设备202的应用程序上执行或由该应用程序执行,其中应用程序也由该意图指定。
简而言之,如图2所示,语音动作服务系统200包括声音识别引擎210、匹配器220、歧义消除引擎230和执行引擎250。声音识别引擎210通过一个或多个有线或无线网络205接收音频数据,该有线或无线网络205包括来自客户端设备202的用户201的语音输入。例如,用户201可以向在客户端设备202上托管的语音接口应用程序提供语音输入,并且在客户端设备202上托管的语音接口应用程序可以发送包括语音输的音频数据通过一个或多个网络205向语音动作服务系统200输入。虽然在图2中示出为从图2中的客户端设备202分离,但是在某些实施例中,声音识别引擎210、匹配器220、歧义消除引擎230和执行引擎250以及这里讨论的其他系统和子系统中的一个或多个可以被替代地实现或形成与用户201相关联的客户端设备202的一部分。
在一些情况下,声音识别引擎210可以访问由语音动作服务系统200定义的一种或多种类型。例如,语音动作服务系统200可以访问一个或多个知识库,该知识库识别比如例如电影或歌曲的内容的人物、地点、项目或其他定义类型的实体。语音动作服务系统200的声音识别引擎210或其他组件可以在对音频数据240执行声音识别时或当基于用户的语音输入执行与意图的选择和执行相关的其他操作时访问一个或多个知识库。
匹配器220可以访问语境意图数据库240,语境意图数据库240包括基于由应用程序开发者(比如图1的应用程序开发者101)提交的语法而产生的一个或多个意图。匹配器220还可以访问操作系统(OS)意图数据库245,操作系统(OS)意图数据库245包括特定于一个或多个特定操作系统、或由操作系统指定为属于特定应用程序的一个或多个意图。例如,存储在OS意图数据库245中的意图可以包括针对由操作系统执行的行为的意图,比如重新启动或锁定设备的行为、加入无线网络等,或者由属于一个或多个应用程序的操作系统执行的行为,比如启动消息、电话或电子邮件应用程序的行为。此外,歧义消除引擎230可以访问包括特定于特定用户或客户端设备的信息的用户个性化数据库235。用户个性化数据可以用于对被确定为与从客户端设备202接收的语音输入相匹配的意图消除歧义。
如图2所示,用户201可以具有能够接收语音输入(比如由用户201提供以执行一个或多个动作的语音命令)的客户端设备202。在一些情况下,客户端设备202包括用于从用户获得语音输入的麦克风或其他设备,并且在客户端设备202上运行的操作系统或应用程序可以包括用于接收语音输入的软件。客户端设备202可以从用户201接收语音输入,比如语音输入“呼叫出租车”。基于客户端设备202接收语音输入,客户端设备可以发送音频数据204,音频数据204包括通过一个或多个网络205向语音动作服务系统200输入的语音。
语音动作服务系统200的声音识别引擎210接收音频数据204并对音频数据204执行声音识别处理,以获得在音频数据204中包括的语音输入的转录。例如,声音识别引擎210可以接收音频数据204,并且可以可选地对音频数据204进行过滤以从音频数据204去除噪声或背景音频,并产生干净版本的音频数据204。声音识别引擎210然后可以在干净版本的音频数据204上执行语音识别处理以获得语音输入的转录。例如,声音识别引擎210可以从接收自客户端设备202的音频数据204产生转录“呼叫出租车”。
声音识别引擎210将音频数据204的转录提供给匹配器220。匹配器220将转录与由存储在语境意图数据库240或OS意图数据库245中的意图所指定的一个或多个触发短语相匹配。在某些情况下,确定转录同与特定意图相关联的特定触发短语相匹配可以涉及确定该转录的至少一部分与该特定触发短语相匹配,比如确定该转录中的一个或多个术语与该特定触发短语中的一个或更多的术语相匹配。因此,可以将特定转录确定为对多个意图的潜在呼叫,使得语音动作服务系统200必须从候选意图中确定要触发的特定意图。基于确定转录与由一个或多个候选意图所指定的一个或多个触发短语相匹配,匹配器220可以向歧义消除引擎230提供指定一个或多个候选触发短语的信息。
在一些情况下,用户201可以向客户端设备201提供文本输入,使得文本输入可以直接被提供给匹配器220而不被提供给声音识别引擎210。匹配器220可以接收文本输入,并且可以执行上述的匹配操作以基于该文本输入来识别一个或多个候选意图。在一些情况下,匹配器220可以能够识别在文本输入中包括的类型或其他特征,比如异议。
在一些示例中,匹配器220可以扩展音频数据204的转录以产生音频数据204的一个或多个相关的转录。例如,可以使用一个或多个查询术语扩展规则、同义词规则、术语可选规则或其他规则来扩展转录“呼叫出租车”以产生相关的转录“呼叫出租车”、“请求出租车”“雇佣汽车”等。匹配器220可以将一个或多个相关的转录匹配到由存储在语境意图数据库240或OS意图数据库245中的意图所指定的触发短语,以确定该转录或相关转录匹配的触发短语。
在一些示例中,扩展音频数据204的转录需要匹配器220确定相关的转录是否将与已经存在或者与不同应用程序相关联的触发短语相冲突。例如,触发短语“呼叫出租车”可以通过与出租车服务应用程序“出租车呼叫者”相关联的意图来指定,并且相关的触发短语“请求出租车”可以通过与出租车服务应用程序“现在召车”相关联的意图来指定。匹配器220可以确定转录和相关的转录与由涉及不同应用程序的意图所指定的触发短语相匹配,因此在一些示例中,匹配器220可以忽略或从匹配过程移除相关转录“请求出租车”。因此,语音动作服务系统200的匹配器220或另一个组件可以能够调整用户输入的转录以增加正被检测的匹配的机会,同时还处理由扩展的音频数据204的转录产生的任何冲突。
歧义消除引擎230可以接收指定一个或多个候选意图的信息,并且可以执行操作以从候选意图中识别触发呼叫的特定意图。基于请求和接收选择要触发的特定候选意图的用户反馈或基于其他信息,基于与每一个候选意图相关联的置信度得分,歧义消除引擎230可以基于在用户个性化数据库235访问的信息来从候选意图中识别要触发的特定意图。
例如,语音动作服务系统200可以接收或能够接收识别用户201或用户201正在使用的客户端设备202的信息,例如,基于用户201正登录到由客户端设备202托管的特定应用程序,基于客户端设备202将识别201或客户端设备202的信息提交给语音动作服务系统200。歧义消除引擎230可以基于该识别信息识别用户201或客户端设备202,并且可以访问在指定与特定用户201或客户端设备202的意图相关的信息的用户个性化数据库235处的信息。例如,由歧义消除引擎230在用户个性化数据库235处访问的信息可以指定用户201通常提供包括在音频数据204中的语音输入或特定文本输入以触发特定的意图,比如打开特定应用程序。类似地,在用户个性化数据库235处访问的信息可以指定由用户201提供或者基于用户201的过去行为所确定的偏好。例如,语音动作服务系统200可以基于过去的用户行为来确定用户201与其他相比可能倾向于特定的出租车服务应用程序,或者可以确定用户201在涉及特定应用程序时通常使用特定术语。
基于在用户个性化数据库235处访问的信息,歧义消除引擎230可以从候选意图中选择特定意图,并向执行引擎250提供识别特定意图的信息。例如,歧义消除引擎230可以接收识别基于转录“呼叫出租车(Cab Called)”被识别的两个候选意图的信息。一个候选意图可以指定“出租车呼叫”的出租车服务应用程序,并且第二意图可以指定称为“现在召车(TaxiNow)”的出租车服务应用程序。歧义消除引擎230可以访问用户个性化数据库235处的信息,并且确定用户201或客户端设备202的用户与“现在召车”出租车服务应用程序相比通常使用“出租车呼叫”出租车服务应用程序,因此可以从两个候选意图中选择指定“出租车呼叫者”应用程序的候选意图。歧义消除引擎230然后可以向执行引擎250发送识别指定“出租车呼叫者”应用程序的意图的信息。以这种方式,歧义消除引擎230可以依靠用户201的个性化数据来选择特定的候选意图,而不需要来自用户201的额外输入。
或者,歧义消除引擎230可以基于与每一个候选意图相关联的置信度得分,从一组候选意图中识别特定意图。例如,每一个候选意图可以与置信度得分相关联,该置信度得分近似于候选意图是用户201意图使用语音动作触发的意图的置信度。在一些情况下,歧义消除引擎230或匹配器220可以确定每一个候选意图的置信度得分。
分配给候选意图的置信度得分可以基于一个或多个因素。例如,可以至少部分地基于转录和由该意图指定的触发短语之间的匹配的确切性来确定置信度得分。在这样的示例中,指定与转录完全匹配的触发短语的候选意图可以被分配指示该候选意图是用户201的意图的高置信度的置信度得分。
在其他实现中,由意图指定的不同触发短语可以与指示触发短语和意图之间的关联强度的得分相关联,并且可以至少部分地基于被匹配的触发短语的关联强度的得分来确定置信度得分。例如,触发短语“雇佣出租车”的关联强度的得分可以指示该触发短语和指定“出租车呼叫者”应用程序的意图之间的关联强于由同一意图指定的触发短语“取得汽车”的关联强度的得分。
在确定候选意图的置信度得分时可以考虑其他因素,比如候选意图已被触发的频繁程度,候选意图被触发的最近时间,在接收到语音动作时客户端设备202上可能运行的其他应用程序,该其他应用程序可能与在由候选意图指定的应用程序相关联或与其频繁地同时使用,基于用户的位置或用户被识别为参与的行为,或者基于其他信息,接收可能与候选意图指定的应用程序相关或频繁使用的语音动作的时间。在一些实施方案中,在确定特定候选意图的置信度得分时可以考虑这些因素的组合。基于一个或多个候选意图的置信度得分,歧义消除引擎230可以选择特定候选意图,歧义消除引擎可以向执行引擎250发送识别所选择的候选意图的信息。
另外,当确定候选意图的置信度得分时,可以考虑其他用户的动作,比如正在积极使用由候选意图指定的应用程序的其他用户的数量、使用由候选意图指定的应用程序的用户的联系人或朋友的数量。例如,基于用户提供语音输入“呼叫出租车”,语音动作服务系统200可以确定语音输入可以触发两个候选出租车服务应用程序,并且可以进一步确定与其中之一相比,更多的士司机正在使用另一个应用程序。因此,被分配给针对具有更多积极使用该应用程序的司机的出租车服务应用程序的意图的置信度得分可以高于被分配给针对具有较少积极使用该应用程序的司机的出租车服务应用程序的意图的置信度得分。
在又另外的示例中,歧义消除引擎230可以向客户端设备202为用户201提供从一个或多个候选意图中选择特定候选意图的请求。例如,基于从匹配器220接收指定一个或多个候选意图的信息,歧义消除引擎可以使请求在客户端设备202处被提供以供用户201选择特定的候选意图、或者由特定的候选意图指定的特定应用程序。歧义消除引擎230可以接收指示用户201的选择的信息,并且可以向执行引擎250提供识别用户201选择的特定候选意图的信息。
例如,基于确定转录“呼叫出租车”同与指定“出租车呼叫者”应用程序的意图相关联的触发短语相匹配,并且还同与指定“现在召车”应用程序的意图相关联的触发短语相匹配,歧义消除引擎230可以在客户端设备202处向用户201提供请求用户201选择“出租车呼叫者”应用程序或“现在召车”应用程序的用户界面。歧义消除引擎230可以接收指示用户选择“出租车呼叫者”应用程序的信息,并且作为响应可以向执行引擎250提供识别指定“出租车呼叫者”应用程序的候选意图的信息。
在一些实现中,歧义消除引擎230可以基于置信度得分或其他信息对候选意图进行排序,并且可以基于排序,在呈现给用户201的用户界面中选择特定的候选意图或显示候选意图。例如,歧义消除引擎230可以基于针对每一个候选意图确定的置信度得分对候选意图排序,例如使得具有较高置信度得分的候选意图被排序在具有较低置信度得分的候选意图之上。其他因素可以影响候选意图的排序,例如候选意图被触发的频繁程度或最近时间、候选意图所指定的应用程序响应于类似的语音输入被用户选择的频繁程度或最近时间。
在某些情况下,用户界面可以不同地基于排序、置信度得分、或与候选意图或排序相关联的其他信息或因素,向用户呈现候选意图或应用程序,该用户界面请求从多个候选意图中选择特定候选意图的用户输入、或者从一组应用程序中请求由候选意图指定的特定应用程序的选择,该组应用程序中的每一个由至少一个候选意图指定。例如,如图2所示,基于确定由候选意图指定的“出租车呼叫者”应用程序比“现在召车”应用程序更频繁地由用户201选择,向用户201呈现请求选择“出租车呼叫者”或“现在召车”应用程序中的一个的用户界面可以将“出租车呼叫者”的选项显示为比“现在召车”应用程序的选项更大的可选择图标、可以在“现在召车”应用程序的选项之上显示“出租车呼叫者”应用程序的选项、或者可以以其他方式不同地显示选项或在用户界面的不同位置显示选项。
在一些情况下,歧义消除引擎230还可以基于消除歧义确定或接收从一个或多个候选意图中选择特定候选意图的信息来更新用户个性化数据库235处的信息。例如,基于歧义消除引擎230响应于提供语音输入“呼叫出租车”而接收到“出租车呼叫者”应用程序的用户201的选择,歧义消除引擎230可以更新用户个性化数据库和/或语境意图数据库240处的用户个性化信息。更新该个性化信息可以涉及增加触发短语“呼叫出租车”和指定“出租车呼叫者”应用程序的候选意图之间的关联得分的强度、可以涉及调整指定“出租车呼叫者”的候选意图的置信度得分以指示更强的置信度、调整指定“现在召车”应用程序的候选意图的置信度得分以指示减少的置信度、或者可以以其他方式更新个性化信息或者与存储在用户个性化数据库235或语境意图数据库240处的意图相关联的信息。
在其他示例中,歧义消除引擎还可以能够访问存储在语境意图数据库140或OS意图数据库中的意图,并且可以能够修改或调整与意图或涉及意图的信息相关联的参数。例如,基于确定用户201已经响应于用户的语音输入“呼叫出租车”,在提供给用户201的用户界面处选择了“出租车呼叫者”应用程序而不是“现在召车”应用程序,歧义消除引擎230可以更新指定“现在召车”应用程序且存储在语境意图数据库140中的候选意图,以从针对意图指定的一组触发短语中去除触发短语“呼叫出租车”,或者针对由意图指定的触发短语“呼叫出租车”调整关联得分的强度。这种和类似的过程可以使语音动作服务系统200能够在触发适当意图时评估服务的撤销能力,并且调整与意图相关联的意图或信息以提高语音动作服务的准确性或效率。
在一些示例中,在确定如何调整与意图或涉及意图的信息相关联的参数时,可以聚合和分析来自多个用户的反馈。例如,基于从用户身体聚合的指示触发短语“呼叫出租车”通常导致与“现在召车”应用程序相比用户通常选择“出租车呼叫者”应用程序的反馈,语音动作服务系统200可以确定增加触发短语“呼叫出租车”和指定“出租车呼叫者”应用程序的意图或“出租车呼叫者”应用程序本身的关联强度或置信度得分。
虽然以上被单独讨论,但是歧义消除引擎230可用的一种或多种方法可用于从候选意图中选择特定意图。例如,歧义消除引擎230可以从匹配器220接收识别一组五个候选意图的数据,并且可以基于与该五个候选意图相关联或针对其确定的置信度得分来消除这些候选意图中的三个。歧义消除引擎230然后可以向客户端设备202输出请求用户201从其余两个候选意图指定的应用程序中进行选择以确定特定候选意图的请求。歧义消除引擎230然后可以将识别指定用户选择的意图的候选意图的信息发送到执行引擎250。
另外,在某些情况下,语音动作服务系统200可以通过歧义消除引擎230使用的一种或多种方法,基于对候选意图的分析,向用户呈现不同的用户界面。例如,如果歧义消除引擎230仅基于候选意图的置信度得分来选择特定的候选意图,则歧义消除引擎230可以在客户端设备202处向用户201提供识别特定意图或由特定意图指定的应用程序的用户界面。或者,如果歧义消除引擎230基于候选意图的置信度得分来确定歧义消除引擎230应当请求用户选择候选意图或由候选意图指定的应用程序,则歧义消除引擎230可以提供不同的用户界面,用于在请求用户选择的客户端设备202处输出。
执行引擎250可以从歧义消除引擎230接收识别特定意图的信息,并且可以触发意图以使由该意图指定的行为在由该意图指定的应用程序上执行或由该应用程序执行。例如,执行引擎250可以在语境意图数据库240处访问所识别的意图,或者可以以其他方式访问或接收所识别的意图。执行引擎250可以触发意图,以使由意图指定的行为在由该意图指定的应用程序上执行或由该应用程序执行。例如,执行引擎250可以使行为在指定的应用程序上执行,可以向操作系统或其他应用程序提供在应用程序上执行行为的控制,或者可以使应用程序执行指定的行为。在其他示例中,执行引擎250可以向客户端设备202提供识别要触发的意图的信息或由要触发的意图所指定的行为,并且客户端设备202可以基于接收到的信息来接收该信息并触发该意图或该行为。在一些情况下,执行引擎250可以在客户端设备202处实现。
作为示例,基于从歧义消除引擎230接收到识别指定“出租车呼叫者”应用程序的候选意图的信息,执行引擎250可以访问在语境意图数据库240处指定“出租车呼叫者”应用程序的意图并且可以触发指定“出租车呼叫者”应用程序的意图。触发指定“出租车呼叫者”应用程序的意图可以涉及确定由该意图指定的行为,比如启动“出租车呼叫者”应用程序的行为。基于确定由该意图指定的行为是启动“出租车呼叫者”应用程序的行为,执行引擎250可以发送使客户端设备202或客户端托管的应用程序、操作系统或其他软件在客户端设备202上启动“出租车呼叫者”应用程序的信息。
在一些情况下,触发意图可以涉及在不确定由该意图指定的行为的情况下发送该意图或与该意图相关联的信息。例如,执行引擎250可以将与所识别的意图相关联的数据发送到客户端设备202,而不确定由该意图指定的行为。在这种情况下,客户端设备202、或由客户端设备托管的应用程序、操作系统或其他软件可以基于该意图来确定要执行的行为,并且可以使该行为在该意图中指定的应用程序上执行或由该应用程序执行。
客户端设备202可以从执行引擎250接收信息,并且基于该信息可以执行操作以实施由所识别的意图指定的行为。例如,客户端设备202可以接收由歧义消除引擎230识别的意图,或者可以接收教导客户端设备202或由客户端设备202托管的软件执行由所识别的意图指定的行为的信息,比如启动“出租车呼叫者”应用程序的行为。基于接收到的信息,客户端设备202或由客户端设备202托管的软件可以执行该行为。例如,客户端设备202的操作系统、“出租车呼叫者”应用程序本身、或客户端设备202上托管的另一应用程序可以响应于接收到的信息而启动“出租车呼叫者”应用程序。以这种方式,由用户201提供的“呼叫出租车”语音输入可以使“出租车呼叫者”出租车服务应用程序启动,使得用户201然后将能够使用“出租车呼叫者”应用程序来请求出租车。
图3描绘了用于开发者语音动作服务的示例过程300的流程图。在一些实施方式中,图3的过程300可以由图1的开发者语音动作服务系统100执行。或者可以由位于客户端设备本地或远离客户端设备的另一系统执行,比如可访问并被配置为通过一个或多个网络从客户端设备接收信息的系统。
过程300从接收至少识别应用程序和触发短语(302)的数据开始。例如,图1的摄入引擎110可以通过一个或多个网络105从与应用程序开发者101相关联的计算设备102接收语法,并且接收到的语法可以指定至少一个应用程序和触发短语。接收到的数据可被视为将要向开发者语音动作服务系统100注册的新意图的候选。在一些示例中,如所描述的,可以在从应用程序开发者101接收的语法中指定其他信息,比如指定要在指定应用程序上执行或由该应用程序执行的行为或复合行为、与新意图相关联的语境、与触发短语相关联的一个或多个异议的信息或其他信息。
可以验证识别应用程序和触发短语的信息以确定信息是否可以用于产生新意图(304)。例如,开发者语音动作服务系统100的验证引擎120可以通过确定由数据识别的触发短语是可接受的触发短语来验证接收到的信息,例如,该触发短语尚未与另一意图相关联,或该触发短语与所识别的应用程序没有充分的相关性。验证接收到的信息还可以包括确定接收到的信息的格式是否可被转换以产生新的意图,可以涉及确定应用程序或接收到的数据中识别的行为是有效的应用程序还是可以由所识别的应用程序执行,或者可以涉及其他验证过程。
在一些情况下,可以将反馈提供给与应用程序开发者101相关联的计算设备102,该反馈包括基于在接收到的信息上执行的验证过程而确定或与该验证过程相关的信息。例如,反馈可以指示应用程序开发者101提交的语法是否已经通过验证过程,使得可以转换语法以产生新的意图,或者可以指示应用程序开发者101提交的语法未能通过验证过程的原因。
接收到的信息可以被引导以产生指定至少应用程序、由接收到的数据识别的触发短语、以及至少基于由接收到的数据识别的触发短语确定的一个或多个其他触发短语的意图(306)。引导接收到的信息涉及通过扩展所识别的触发短语以产生一个或多个相关的触发短语来确定至少基于所识别的触发短语而确定的一个或多个额外的触发短语。例如,如所描述的,在接收到的数据中所识别的触发短语可以通过使用一个或多个扩展规则、同义词规则、术语可选规则或其他规则来扩展,并且可以被扩展以包括所识别的触发短语和相关的触发短语到其他语言的转换。
引导接收到的信息还可以涉及将接收到的信息从它从计算设备102接收的语法格式转换为针对意图的格式,以产生指定至少应用程序、所识别的触发短语、以及至少基于所识别的触发短语而确定的一个或多个额外的触发短语的新意图。在一些情况下,转换接收到的信息还可以包括将至少基于所识别的触发短语而确定的一个或多个额外的触发短语从第一格式(比如接收到的信息的语法格式)转换为意图格式以产生新意图
在语境意图数据库(308)中存储指定至少应用程序、在接收到的信息中识别的触发短语以及一个或多个额外的触发短语的新意图。例如,基于图1的引导引擎130引导从应用程序开发者101接收的语法以产生新意图,开发者语音动作服务系统100可以将新意图存储在语境意图数据库140中。所存储的意图可以指定所识别的应用程序、所识别的触发短语以及至少基于所识别的触发短语而确定的一个或多个触发短语。存储在语境意图数据库140中的新意图也可以指定其他信息,比如当触发意图时在应用程序上执行或由该应用程序执行的行为、与意图相关联的一个或多个语境、估计触发短语与应用程序或行为、或其他信息之间的关联强度的一个或多个关联强度得分。新意图可以与一个或多个其他意图一起存储在语境意图数据库140中,以使得由用户提供的以后的语音输入能够与由存储的意图之一指定的触发短语相匹配。响应于检测到该匹配,可以触发所匹配的意图以使由所匹配的意图指定的行为在由所匹配的意图指定的应用程序上执行或由该应用程序执行。
已经描述了许多实施方式。然而,应当理解,在不脱离本公开的主旨和范围的情况下,可以进行各种修改。例如,可以使用以上所示的各种形式的流程,其中步骤被重新排序、添加或删除。因此,其他实施方式在所附权利要求的范围之内。
对于这里讨论的系统和/或方法的实例,可以收集关于用户的个人信息或可以利用个人信息,可以向用户提供机会以控制程序或功能是否收集个人信息,例如,关于用户的社交网络、社会动作或行为、职业、偏好或当前位置的信息,或者控制系统和/或方法是否(和/或如何)可以执行与用户更相关的操作。此外,某些数据可以在存储或使用之前以一种或多种方式被匿名化,从而消除个人身份信息。例如,用户的身份可以被匿名化,使得针对该用户不能确定个人可识别信息,或者可以在获得位置信息时将用户的地理位置一般化,比如城市、邮政编码或州一级,使得无法确定用户的特定位置。因此,用户可以控制如何收集并使用关于他或她的信息。
在本说明书中描述的实施例和所有功能操作可以在数字电子电路中、或在计算机软件、固件或硬件中、包括在本说明书中公开的结构及其结构上的等同物、或其一个或多个的组合中实现。实施例可以被实现为一个或多个计算机程序产品,即,在计算机可读介质上编码的用于由数据处理装置执行或控制其操作的计算机程序指令的一个或多个模块。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、影响机器可读传播信号的物质组成,或其一个或多个的组合。术语“数据处理装置”覆盖了用于处理数据的所有装置、设备和机器,包括例如可编程处理器、计算机或多个处理器或计算机。除了硬件之外,该设备可以包括针对上述计算机程序创建执行环境的代码,例如构成处理器固件的代码、协议栈、数据库管理系统、操作系统或其一个或多个的组合。传播信号是人为产生的信号,例如机器产生的电、光或电磁信号,其被产生以编码用于传输到合适的接收机设备的信息。
计算机程序(也称为程序、软件、软件应用程序、脚本或代码)可以以任何形式的编程语言编写,包括编译或解释语言,并且可以以任何形式部署,包括作为独立程序或适用于计算环境中使用的模块、组件、子程序或其他单元。计算机程序不一定与文件系统中的文件相对应。程序可以存储在保存其他程序或数据(例如,存储在标记语言文档中的一个或多个脚本)的文件的一部分中、专用于上述程序的单个文件中、或者在多个协调文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。计算机程序可以被部署为在一个计算机上或者位于一个站点上或分布在多个站点上并由通信网络互连的多个计算机上执行。
本说明书中描述的过程和逻辑流程可以通过对输入数据进行操作并产生输出,由施行一个或多个计算机程序的一个或多个可编程处理器执行以执行功能。处理和逻辑流程也可以由专用逻辑电路(例如FPGA(现场可编程门阵列)或ASIC(专用集成电路))来执行,并且装置也可以被实现该专用逻辑电路。
适于执行计算机程序的处理器例如包括通用和专用微处理器以及任何种类的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或该两者接收指令和数据。
计算机的基本要素是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括或可操作地耦合以从一个或多个用于存储数据的大容量存储设备(例如磁、磁光盘或光盘)接收数据或向其传输数据或该两者。然而,计算机不需要这样的设备。此外,计算机可以嵌入在另一个设备中,仅举数例,例如平板计算机、移动电话、个人数字助理(PDA)、移动音频播放器、全球定位系统(GPS)接收器。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器件(例如EPROM,EEPROM和闪存设备)、磁盘(例如内部硬盘或可移动盘)、磁光盘、以及CD ROM和DVD-ROM盘。处理器和存储器可以由专用逻辑电路补充或并入其中。
为了提供与用户的交互,实施例可以在具有用于向用户显示信息的显示设备(例如CRT(阴极射线管)或LCD(液晶显示器)监视器)、键盘以及用户可以向计算机提供输入的指示设备(例如鼠标或轨迹球)的计算机上实现。也可以使用其他类型的设备来提供与用户的交互,例如,被提供给用户的反馈可以是任何形式的感觉反馈,例如视觉反馈、听觉反馈或触觉反馈,并且可以以包括听觉、声音或触觉输入的任何形式来接收来自用户的输入。
实施例可以在包括后端组件(例如,作为数据服务器)或包括中间件组件(例如,应用服务器)、或者包括前端组件(例如具有图形用户界面或网络浏览器的客户端计算机,用户可以通过该浏览器与实现交互)、或者一个或多个这样的后端、中间件或前端组件的任何组合的计算系统中实现。系统的组件可以通过数字数据通信(例如通信网络)的任何形式或介质来互连。通信网络的示例包括局域网(“LAN”)和广域网(“WAN”),例如互联网。
计算系统可以包括客户端和服务器。客户端和服务器通常彼此远离,并通常通过通信网络进行交互。客户端和服务器之间的关联是由于在相应的计算机上运行的计算机程序并且彼此之间具有客户端-服务器关联而出现的。
虽然本说明书包含许多细节,但是这些说明书不应被解释为对本公开的范围或可要求保护的内容的限制,而应被解释为对特定实施例特有的特征的描述。在本说明书中描述的在单独实施例的环境中的某些特征也可以在单个实施例中的组合中实现。相反,在单个实施例的环境中描述的各种特征也可以分开地或以任何合适的子组合在多个实施例中实现。此外,虽然以上可以将特征描述为以某些组合的方式起作用,并且甚至最初如此要求保护,但是所要求保护的组合的一个或多个特征在某些情况下可以从该组合中移除,并且所要求保护的组合可以指向子组合或子组合的变形。
类似地,虽然在附图中以特定顺序描绘操作,但是这不应被理解为要求以所示的特定顺序或按顺序执行这些操作,或者执行所有所示的操作以实现所需的结果。在某些情况下,多任务和并行处理可以是有利的。此外,上述实施例中的各种系统组件的分离不应被理解为在所有实施例中需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中或被打包成多个软件产品。
在提及HTML文件的每一个实例中,可以替换其他文件类型或格式。例如,HTML文件可以被XML、JSON、纯文本或其他类型的文件替代。此外,在提到表或散列表的情况下,可以使用其他数据结构(例如电子表格,关联数据库或结构化文件)。
因此,已经描述了特定实施例。其他实施例在所附权利要求的范围内。例如,权利要求中该的动作可以以不同的顺序执行,并且仍然实现期望的结果。
Claims (20)
1.一种计算机实现的方法,包括:
接收识别(i)应用程序、和(ii)语音命令触发术语的数据;
验证接收到的数据;
引导接收到的数据以产生指定(i)应用程序、(ii)语音命令触发术语、和(iii)至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语的被动数据结构;以及
将所述被动数据结构存储在语境意图数据库中,其中所述语境意图数据库包括一个或多个其他被动数据结构。
2.根据权利要求1所述的计算机实现的方法,其中验证接收到的数据包括确定所述语音命令触发术语不与不同于所识别的应用程序的应用程序相关联。
3.根据权利要求1或2所述的计算机实现的方法,包括接收识别动作的数据,其中验证接收到的数据包括确定所识别的动作与所识别的应用程序兼容。
4.根据前述权利要求的任一项所述的计算机实现的方法,其中,引导接收到的数据以产生指定(i)所述应用程序、(ii)语音命令触发术语、和(iii)至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语的被动数据结构包括:
将识别(i)应用程序、和(ii)语音命令触发术语的接收到的数据转换为不同的数据格式。
5.根据前述权利要求的任一项所述的计算机实现的方法,其中,引导接收到的数据以产生指定(i)所述应用程序、(ii)语音命令触发术语、和(iii)至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语的被动数据结构包括:
通过对所述语音命令触发术语应用一个或多个同义词规则、可选规则或扩展规则来产生至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语。
6.根据前述权利要求的任一项所述的计算机实现的方法,包括:
获得包括用户所说言语的音频数据;
至少基于所述音频数据产生用户所说言语的转录;
确定所述转录的至少一部分与由存储在语境被动数据结构数据库中的被动数据结构指定的特定语音命令触发术语相匹配,其中所述被动数据结构指定(i)特定应用程序、和(ii)特定的语音命令触发术语;以及
基于确定所述转录的至少一部分与由所述被动数据结构指定的特定语音命令触发术语相匹配,使得任务被执行。
7.根据权利要求6所述的计算机实现的方法,其中使得所述任务被执行包括使所述特定应用程序执行所述任务。
8.根据权利要求6或权利要求7所述的计算机实现的方法,包括:
针对每一个指定(i)应用程序、和(ii)语音命令触发术语的一个或多个被动数据结构中的每一个,确定所述转录的至少一部分与由所述被动数据结构指定的语音命令触发术语相匹配;
从包括由所述一个或多个被动数据结构中的每一个指定的应用程序的一组应用程序中请求特定应用程序的选择;
从包括由所述一个或多个被动数据结构中的每一个指定的应用程序的所述组应用程序中接收指示特定应用程序的选择的数据;以及
响应于接收指示所述特定应用程序的选择的数据,调整指定所述特定应用程序的特定被动数据结构与由所述特定被动数据结构指定的语音命令触发术语之间的关联的强度。
9.根据权利要求6所述的计算机实现的方法,包括:
针对每一个指定(i)应用程序、和(ii)语音命令触发术语的一个或多个被动数据结构中的每一个,确定所述转录的至少一部分与由所述被动数据结构指定的语音命令触发术语相匹配;
针对所述一个或多个被动数据结构中的每一个,确定所述被动数据结构的亲和度,所述亲和度指示由所述被动数据结构指定的语音命令触发术语对由所述被动数据结构指定的应用程序的亲和度;
至少基于针对所述一个或多个被动数据结构中的每一个的亲和度,选择特定的被动数据结构;以及
使得由所述特定被动数据结构指定的任务被执行。
10.根据权利要求6所述的计算机实现的方法,包括:
针对每一个指定(i)应用程序、和(ii)语音命令触发术语的一个或多个被动数据结构中的每一个,确定所述转录的至少一部分与由所述被动数据结构指定的语音命令触发术语相匹配;
对所述一个或多个被动数据结构排序;
至少基于所述一个或多个被动数据结构的排序来选择特定被动数据结构;以及
使得由所述特定被动数据结构指定的任务被执行。
11.一种系统,包括:
一个或多个计算机和一个或多个存储指令的存储设备,所述指令在被所述一个或多个计算机执行时可操作以使所述一个或多个计算机执行包括如下的操作:
接收识别(i)应用程序、和(ii)语音命令触发术语的数据;
验证接收到的数据;
引导接收到的数据以产生指定(i)应用程序、(ii)语音命令触发术语、和(iii)至少所述基于语音命令触发术语确定的一个或多个其他语音命令触发术语的被动数据结构;以及
将所述被动数据结构存储在语境被动数据结构数据库中,其中所述语境被动数据结构数据库包括一个或多个其他被动数据结构。
12.根据权利要求11所述的系统,其中所述操作包括接收识别动作的数据,其中验证接收到的数据包括确定所识别的动作与所识别的应用程序兼容。
13.根据权利要求11或12所述的系统,其中,引导接收到的数据以产生指定(i)应用程序、(ii)语音命令触发术语、和(iii)至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语的被动数据结构包括:
将识别(i)应用程序、(ii)语音命令触发术语的接收到的数据转换为不同的数据格式。
14.根据权利要求11至13的任一项所述的系统,其中,引导接收到的数据以产生指定(i)应用程序、(ii)语音命令触发术语、和(iii)至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语的被动数据结构包括:
通过对所述语音命令触发术语应用一个或多个同义词规则、可选规则或扩展规则来产生至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语。
15.根据权利要求11至14中任一项所述的系统,其中所述操作包括:
获得包括用户的所说言语的音频数据;
至少基于所述音频数据产生用户所说言语的转录;
确定所述转录的至少一部分与由存储在语境被动数据结构数据库中的被动数据结构指定的特定语音命令触发术语相匹配,其中所述被动数据结构指定(i)特定应用程序、和(ii)特定的语音命令触发术语;以及
基于确定所述转录的至少一部分与由所述被动数据结构指定的特定语音命令触发术语相匹配,使得任务被执行。
16.根据权利要求15所述的系统,其中所述操作包括:
针对每一个指定(i)应用程序、和(ii)语音命令触发术语的一个或多个被动数据结构中的每一个,确定所述转录的至少一部分与由所述被动数据结构指定的语音命令触发术语相匹配;
从包括由所述一个或多个被动数据结构中的每一个指定的应用程序的一组应用程序中请求特定应用程序的选择;
从包括由所述一个或多个被动数据结构中的每一个指定的应用程序的所述组应用程序中接收指示特定应用程序的选择的数据;以及
响应于接收指示所述特定应用程序的选择的数据,调整指定所述特定应用程序的特定被动数据结构与由所述特定被动数据结构指定的语音命令触发术语之间的关联的强度。
17.一种存储软件的非暂时性计算机可读存储设备,其包括可由一个或多个计算机执行的指令,所述指令在被执行时使所述一个或多个计算机执行包括如下的操作:
接收识别(i)应用程序、和(ii)语音命令触发术语的数据;
验证接收到的数据;
引导接收到的数据以产生指定(i)应用程序、(ii)语音命令触发术语、和(iii)至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语的被动数据结构;以及
将所述被动数据结构存储在语境被动数据结构数据库中,其中所述语境被动数据结构数据库包括一个或多个其他被动数据结构。
18.根据权利要求17所述的计算机可读设备,其中,引导接收到的数据以产生指定(i)应用程序、(ii)语音命令触发术语、和(iii)至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语的被动数据结构包括:
通过对所述语音命令触发术语应用一个或多个同义词规则、可选规则或扩展规则来产生至少基于所述语音命令触发术语确定的一个或多个其他语音命令触发术语。
19.根据权利要求17或18所述的计算机可读设备,其中所述操作包括:
获得包括用户所说言语的音频数据;
至少基于所述音频数据产生用户所说言语的转录;
确定所述转录的至少一部分与由存储在语境被动数据结构数据库中的被动数据结构指定的特定语音命令触发术语相匹配,其中所述被动数据结构指定(i)特定应用程序和(ii)特定的语音命令触发术语;以及
基于确定所述转录的至少一部分与由所述被动数据结构指定的特定语音命令触发术语相匹配,使得任务被执行。
20.根据权利要求19所述的计算机可读设备,其中所述操作包括:
针对每一个指定(i)应用程序、和(ii)语音命令触发术语的一个或多个被动数据结构中的每一个,确定所述转录的至少一部分与由所述被动数据结构指定的语音命令触发术语相匹配;
从包括由所述一个或多个被动数据结构中的每一个指定的应用程序的一组应用程序中请求特定应用程序的选择;
从包括由所述一个或多个被动数据结构中的每一个指定的应用程序的所述组应用程序中接收指示特定应用程序的选择的数据;以及
响应于接收指示所述特定应用程序的选择的数据,调整指定所述特定应用程序的特定被动数据结构与由所述特定被动数据结构指定的语音命令触发术语之间的关联的强度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111019888.XA CN113851120A (zh) | 2015-04-22 | 2016-04-12 | 开发者语音动作系统 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/693,330 | 2015-04-22 | ||
US14/693,330 US9472196B1 (en) | 2015-04-22 | 2015-04-22 | Developer voice actions system |
PCT/US2016/027113 WO2016171956A1 (en) | 2015-04-22 | 2016-04-12 | Developer voice actions system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111019888.XA Division CN113851120A (zh) | 2015-04-22 | 2016-04-12 | 开发者语音动作系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107408385A true CN107408385A (zh) | 2017-11-28 |
CN107408385B CN107408385B (zh) | 2021-09-21 |
Family
ID=55953380
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680019717.8A Active CN107408385B (zh) | 2015-04-22 | 2016-04-12 | 开发者语音动作系统 |
CN202111019888.XA Pending CN113851120A (zh) | 2015-04-22 | 2016-04-12 | 开发者语音动作系统 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111019888.XA Pending CN113851120A (zh) | 2015-04-22 | 2016-04-12 | 开发者语音动作系统 |
Country Status (8)
Country | Link |
---|---|
US (4) | US9472196B1 (zh) |
EP (1) | EP3286633B1 (zh) |
JP (2) | JP6538188B2 (zh) |
KR (2) | KR102173100B1 (zh) |
CN (2) | CN107408385B (zh) |
DE (1) | DE112016001852T5 (zh) |
GB (1) | GB2553234B (zh) |
WO (1) | WO2016171956A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110808051A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 一种技能选取的方法以及相关装置 |
CN110808051B (zh) * | 2019-10-30 | 2024-06-04 | 腾讯科技(深圳)有限公司 | 一种技能选取的方法以及相关装置 |
Families Citing this family (157)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2015184186A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
WO2016151699A1 (ja) * | 2015-03-20 | 2016-09-29 | 株式会社 東芝 | 学習装置、方法およびプログラム |
US9472196B1 (en) | 2015-04-22 | 2016-10-18 | Google Inc. | Developer voice actions system |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
GB2544543B (en) * | 2015-11-20 | 2020-10-07 | Zuma Array Ltd | Lighting and sound system |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
JP6620934B2 (ja) * | 2016-01-29 | 2019-12-18 | パナソニックIpマネジメント株式会社 | 翻訳支援方法、翻訳支援装置、翻訳装置及び翻訳支援プログラム |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US9811314B2 (en) | 2016-02-22 | 2017-11-07 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9820039B2 (en) | 2016-02-22 | 2017-11-14 | Sonos, Inc. | Default playback devices |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9922648B2 (en) * | 2016-03-01 | 2018-03-20 | Google Llc | Developer voice actions system |
US10049670B2 (en) | 2016-06-06 | 2018-08-14 | Google Llc | Providing voice action discoverability example for trigger term |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
AU2017100670C4 (en) | 2016-06-12 | 2019-11-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10152969B2 (en) | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US10403275B1 (en) * | 2016-07-28 | 2019-09-03 | Josh.ai LLC | Speech control for complex commands |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US9743204B1 (en) | 2016-09-30 | 2017-08-22 | Sonos, Inc. | Multi-orientation playback device microphones |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10824798B2 (en) | 2016-11-04 | 2020-11-03 | Semantic Machines, Inc. | Data collection for a new conversational dialogue system |
US10713288B2 (en) | 2017-02-08 | 2020-07-14 | Semantic Machines, Inc. | Natural language content generator |
US10762892B2 (en) | 2017-02-23 | 2020-09-01 | Semantic Machines, Inc. | Rapid deployment of dialogue system |
WO2018156978A1 (en) | 2017-02-23 | 2018-08-30 | Semantic Machines, Inc. | Expandable dialogue system |
US11069340B2 (en) | 2017-02-23 | 2021-07-20 | Microsoft Technology Licensing, Llc | Flexible and expandable dialogue system |
EP3563375B1 (en) * | 2017-02-23 | 2022-03-02 | Microsoft Technology Licensing, LLC | Expandable dialogue system |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
CN109102802B (zh) * | 2017-06-21 | 2023-10-17 | 三星电子株式会社 | 用于处理用户话语的系统 |
KR102007478B1 (ko) * | 2017-06-28 | 2019-08-05 | 크리스토퍼 재현 윤 | 특정 조건에서 음성인식을 이용한 어플리케이션 제어 장치 및 방법 |
CN107316643B (zh) * | 2017-07-04 | 2021-08-17 | 科大讯飞股份有限公司 | 语音交互方法及装置 |
US20190027149A1 (en) * | 2017-07-20 | 2019-01-24 | Nuance Communications, Inc. | Documentation tag processing system |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
KR102411766B1 (ko) * | 2017-08-25 | 2022-06-22 | 삼성전자주식회사 | 음성 인식 서비스를 활성화하는 방법 및 이를 구현한 전자 장치 |
US11132499B2 (en) | 2017-08-28 | 2021-09-28 | Microsoft Technology Licensing, Llc | Robust expandable dialogue system |
US10311874B2 (en) * | 2017-09-01 | 2019-06-04 | 4Q Catalyst, LLC | Methods and systems for voice-based programming of a voice-controlled device |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10466962B2 (en) * | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
CN107886948A (zh) * | 2017-11-16 | 2018-04-06 | 百度在线网络技术(北京)有限公司 | 语音交互方法及装置,终端,服务器及可读存储介质 |
US10880650B2 (en) | 2017-12-10 | 2020-12-29 | Sonos, Inc. | Network microphone devices with automatic do not disturb actuation capabilities |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
US10878808B1 (en) * | 2018-01-09 | 2020-12-29 | Amazon Technologies, Inc. | Speech processing dialog management |
WO2019152722A1 (en) | 2018-01-31 | 2019-08-08 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10936822B2 (en) * | 2018-05-04 | 2021-03-02 | Dell Products L.P. | Linguistic semantic analysis alert correlation system |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10847178B2 (en) | 2018-05-18 | 2020-11-24 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection |
KR20190133100A (ko) * | 2018-05-22 | 2019-12-02 | 삼성전자주식회사 | 어플리케이션을 이용하여 음성 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법 |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10811009B2 (en) * | 2018-06-27 | 2020-10-20 | International Business Machines Corporation | Automatic skill routing in conversational computing frameworks |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US10878811B2 (en) | 2018-09-14 | 2020-12-29 | Sonos, Inc. | Networked devices, systems, and methods for intelligently deactivating wake-word engines |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
KR102620705B1 (ko) | 2018-10-11 | 2024-01-04 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
US11527265B2 (en) * | 2018-11-02 | 2022-12-13 | BriefCam Ltd. | Method and system for automatic object-aware video or audio redaction |
KR20200055202A (ko) * | 2018-11-12 | 2020-05-21 | 삼성전자주식회사 | 제스처에 의해 트리거 되는 음성 인식 서비스를 제공하는 전자 장치 및 그 동작 방법 |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
WO2020166183A1 (ja) * | 2019-02-13 | 2020-08-20 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11184298B2 (en) * | 2019-08-28 | 2021-11-23 | International Business Machines Corporation | Methods and systems for improving chatbot intent training by correlating user feedback provided subsequent to a failed response to an initial user intent |
CN110718221A (zh) * | 2019-10-08 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 语音技能控制方法、语音设备、客户端以及服务器 |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US20210158803A1 (en) * | 2019-11-21 | 2021-05-27 | Lenovo (Singapore) Pte. Ltd. | Determining wake word strength |
US11450325B1 (en) | 2019-12-12 | 2022-09-20 | Amazon Technologies, Inc. | Natural language processing |
US11482214B1 (en) * | 2019-12-12 | 2022-10-25 | Amazon Technologies, Inc. | Hypothesis generation and selection for inverse text normalization for search |
US11551681B1 (en) * | 2019-12-13 | 2023-01-10 | Amazon Technologies, Inc. | Natural language processing routing |
US11380308B1 (en) | 2019-12-13 | 2022-07-05 | Amazon Technologies, Inc. | Natural language processing |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
CN111240478B (zh) * | 2020-01-07 | 2023-10-13 | 百度在线网络技术(北京)有限公司 | 设备响应的评测方法、装置、设备及存储介质 |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11089440B1 (en) | 2020-03-02 | 2021-08-10 | International Business Machines Corporation | Management of geographically and temporarily distributed services |
US20230153061A1 (en) * | 2020-04-21 | 2023-05-18 | Google Llc | Hierarchical Context Specific Actions from Ambient Speech |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11501762B2 (en) * | 2020-07-29 | 2022-11-15 | Microsoft Technology Licensing, Llc | Compounding corrective actions and learning in mixed mode dictation |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
CN112786040A (zh) * | 2020-10-22 | 2021-05-11 | 青岛经济技术开发区海尔热水器有限公司 | 应用于智能家电设备的语音控制方法、装置及设备 |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11551700B2 (en) | 2021-01-25 | 2023-01-10 | Sonos, Inc. | Systems and methods for power-efficient keyword detection |
US11862175B2 (en) * | 2021-01-28 | 2024-01-02 | Verizon Patent And Licensing Inc. | User identification and authentication |
US11908452B1 (en) * | 2021-05-20 | 2024-02-20 | Amazon Technologies, Inc. | Alternative input representations for speech inputs |
US20220406301A1 (en) * | 2021-06-16 | 2022-12-22 | Google Llc | Passive disambiguation of assistant commands |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1215657A2 (en) * | 2000-12-08 | 2002-06-19 | AT&T Corp. | Method and apparatus for creation and user-customisation of speech enabled services |
CN1564123A (zh) * | 2004-03-26 | 2005-01-12 | 宏碁股份有限公司 | 网页语音接口的操作方法 |
US20060106608A1 (en) * | 2004-11-18 | 2006-05-18 | International Business Machines Corporation | Method and system for efficient voice-based programming |
JP2011503638A (ja) * | 2007-10-26 | 2011-01-27 | 本田技研工業株式会社 | カーナビゲーションシステムのための自由会話命令分類の改良 |
US20110288859A1 (en) * | 2010-02-05 | 2011-11-24 | Taylor Andrew E | Language context sensitive command system and method |
CN102520788A (zh) * | 2011-11-16 | 2012-06-27 | 歌尔声学股份有限公司 | 一种语音识别控制方法 |
CN103039064A (zh) * | 2010-05-19 | 2013-04-10 | 谷歌公司 | 使用历史数据对联系信息的消歧 |
CN103035240A (zh) * | 2011-09-28 | 2013-04-10 | 苹果公司 | 用于使用上下文信息的语音识别修复的方法和系统 |
KR20130136167A (ko) * | 2012-06-04 | 2013-12-12 | 삼성전자주식회사 | 음성 인식 서비스를 제공하기 위한 방법 및 그 전자 장치 |
CN103674012A (zh) * | 2012-09-21 | 2014-03-26 | 高德软件有限公司 | 语音定制方法及其装置、语音识别方法及其装置 |
CN103794214A (zh) * | 2014-03-07 | 2014-05-14 | 联想(北京)有限公司 | 一种信息处理方法、装置和电子设备 |
US20140244259A1 (en) * | 2011-12-29 | 2014-08-28 | Barbara Rosario | Speech recognition utilizing a dynamic set of grammar elements |
US20140279233A1 (en) * | 2013-03-14 | 2014-09-18 | Andrew Man-Hon Lau | System and method for an affinity capture, user feedback and affinity analysis |
US8965759B2 (en) * | 2012-09-01 | 2015-02-24 | Sarah Hershenhorn | Digital voice memo transfer and processing |
WO2015038435A1 (en) * | 2013-09-16 | 2015-03-19 | Qualcomm Incorporated | Method and apparatus for controlling access to applications |
Family Cites Families (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2119397C (en) | 1993-03-19 | 2007-10-02 | Kim E.A. Silverman | Improved automated voice synthesis employing enhanced prosodic treatment of text, spelling of text and rate of annunciation |
DE69840846D1 (de) * | 1997-01-28 | 2009-07-09 | Intellectual Ventures Holding | Datenverarbeitungsnetzwerk für ein kommunikationsnetzwerk |
DE69822296T2 (de) | 1997-10-20 | 2005-02-24 | Koninklijke Philips Electronics N.V. | Mustererkennungsregistrierung in einem verteilten system |
US6604075B1 (en) * | 1999-05-20 | 2003-08-05 | Lucent Technologies Inc. | Web-based voice dialog interface |
US7069220B2 (en) * | 1999-08-13 | 2006-06-27 | International Business Machines Corporation | Method for determining and maintaining dialog focus in a conversational speech system |
US6748361B1 (en) | 1999-12-14 | 2004-06-08 | International Business Machines Corporation | Personal speech assistant supporting a dialog manager |
JP4155383B2 (ja) | 2001-03-05 | 2008-09-24 | アルパイン株式会社 | 音声認識機器操作装置 |
US7398209B2 (en) | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7502737B2 (en) | 2002-06-24 | 2009-03-10 | Intel Corporation | Multi-pass recognition of spoken dialogue |
JP4107093B2 (ja) | 2003-01-30 | 2008-06-25 | 株式会社日立製作所 | 対話型端末装置及び対話アプリケーション提供方法 |
US7013282B2 (en) | 2003-04-18 | 2006-03-14 | At&T Corp. | System and method for text-to-speech processing in a portable device |
JP2005017974A (ja) * | 2003-06-30 | 2005-01-20 | Noritz Corp | 温水システム |
US7363228B2 (en) | 2003-09-18 | 2008-04-22 | Interactive Intelligence, Inc. | Speech recognition system and method |
JP4377718B2 (ja) * | 2004-02-27 | 2009-12-02 | 富士通株式会社 | 対話制御システム及び方法 |
US7624018B2 (en) * | 2004-03-12 | 2009-11-24 | Microsoft Corporation | Speech recognition using categories and speech prefixing |
US20060116880A1 (en) * | 2004-09-03 | 2006-06-01 | Thomas Gober | Voice-driven user interface |
JP4405370B2 (ja) | 2004-11-15 | 2010-01-27 | 本田技研工業株式会社 | 車両用機器制御装置 |
JP3984988B2 (ja) | 2004-11-26 | 2007-10-03 | キヤノン株式会社 | ユーザインタフェース設計装置およびその制御方法 |
WO2006077942A1 (ja) * | 2005-01-19 | 2006-07-27 | Brother Kogyo Kabushiki Kaisha | 無線タグ情報管理システム及び読取装置、タグラベル作成装置、無線タグ回路素子カートリッジ、無線タグ |
JP4628803B2 (ja) | 2005-01-25 | 2011-02-09 | 本田技研工業株式会社 | 音声認識型機器制御装置 |
US7640160B2 (en) | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
US9703892B2 (en) * | 2005-09-14 | 2017-07-11 | Millennial Media Llc | Predictive text completion for a mobile communication facility |
JP4260788B2 (ja) | 2005-10-20 | 2009-04-30 | 本田技研工業株式会社 | 音声認識機器制御装置 |
JP4878471B2 (ja) | 2005-11-02 | 2012-02-15 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
JP2008076811A (ja) | 2006-09-22 | 2008-04-03 | Honda Motor Co Ltd | 音声認識装置、音声認識方法及び音声認識プログラム |
US7840409B2 (en) | 2007-02-27 | 2010-11-23 | Nuance Communications, Inc. | Ordering recognition results produced by an automatic speech recognition engine for a multimodal application |
US7877258B1 (en) | 2007-03-29 | 2011-01-25 | Google Inc. | Representing n-gram language models for compact storage and fast retrieval |
US8285329B1 (en) * | 2007-04-02 | 2012-10-09 | Sprint Communications Company L.P. | Mobile device-based control of smart card operation |
US8396713B2 (en) | 2007-04-30 | 2013-03-12 | Nuance Communications, Inc. | Method and system for using a statistical language model and an action classifier in parallel with grammar for better handling of out-of-grammar utterances |
US8028042B2 (en) * | 2007-06-15 | 2011-09-27 | Amazon Technologies, Inc. | System and method of managing media content |
US8239239B1 (en) * | 2007-07-23 | 2012-08-07 | Adobe Systems Incorporated | Methods and systems for dynamic workflow access based on user action |
US8165886B1 (en) * | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US9241063B2 (en) * | 2007-11-01 | 2016-01-19 | Google Inc. | Methods for responding to an email message by call from a mobile device |
US8219407B1 (en) * | 2007-12-27 | 2012-07-10 | Great Northern Research, LLC | Method for processing the output of a speech recognizer |
US8370160B2 (en) | 2007-12-31 | 2013-02-05 | Motorola Mobility Llc | Methods and apparatus for implementing distributed multi-modal applications |
US20090171663A1 (en) | 2008-01-02 | 2009-07-02 | International Business Machines Corporation | Reducing a size of a compiled speech recognition grammar |
US7917368B2 (en) | 2008-02-25 | 2011-03-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for interacting with users of speech recognition systems |
US8418076B2 (en) * | 2008-05-15 | 2013-04-09 | Microsoft Corporation | Managing inputs from a plurality of user input device actuators |
KR101545582B1 (ko) * | 2008-10-29 | 2015-08-19 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
US8479051B2 (en) * | 2009-01-23 | 2013-07-02 | Microsoft Corporation | System and method for customized error reporting |
US9755842B2 (en) * | 2009-01-28 | 2017-09-05 | Headwater Research Llc | Managing service user discovery and service launch object placement on a device |
TWI420433B (zh) * | 2009-02-27 | 2013-12-21 | Ind Tech Res Inst | 語音互動系統與方法 |
US9684741B2 (en) | 2009-06-05 | 2017-06-20 | Microsoft Technology Licensing, Llc | Presenting search results according to query domains |
US10540976B2 (en) * | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US20130219333A1 (en) * | 2009-06-12 | 2013-08-22 | Adobe Systems Incorporated | Extensible Framework for Facilitating Interaction with Devices |
US9111538B2 (en) | 2009-09-30 | 2015-08-18 | T-Mobile Usa, Inc. | Genius button secondary commands |
US20110099507A1 (en) | 2009-10-28 | 2011-04-28 | Google Inc. | Displaying a collection of interactive elements that trigger actions directed to an item |
US8868427B2 (en) * | 2009-12-11 | 2014-10-21 | General Motors Llc | System and method for updating information in electronic calendars |
US8515734B2 (en) | 2010-02-08 | 2013-08-20 | Adacel Systems, Inc. | Integrated language model, related systems and methods |
KR101699720B1 (ko) * | 2010-08-03 | 2017-01-26 | 삼성전자주식회사 | 음성명령 인식 장치 및 음성명령 인식 방법 |
US8731939B1 (en) | 2010-08-06 | 2014-05-20 | Google Inc. | Routing queries based on carrier phrase registration |
US8682661B1 (en) | 2010-08-31 | 2014-03-25 | Google Inc. | Robust speech recognition |
US8719727B2 (en) * | 2010-12-15 | 2014-05-06 | Microsoft Corporation | Managing an immersive environment |
KR101828273B1 (ko) * | 2011-01-04 | 2018-02-14 | 삼성전자주식회사 | 결합기반의 음성명령 인식 장치 및 그 방법 |
US8929591B2 (en) * | 2011-03-08 | 2015-01-06 | Bank Of America Corporation | Providing information associated with an identified representation of an object |
US9104440B2 (en) * | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US8818994B2 (en) * | 2011-06-27 | 2014-08-26 | Bmc Software, Inc. | Mobile service context |
US8707289B2 (en) * | 2011-07-20 | 2014-04-22 | Google Inc. | Multiple application versions |
US8997171B2 (en) * | 2011-08-19 | 2015-03-31 | Microsoft Technology Licensing, Llc | Policy based application suspension and termination |
US8806369B2 (en) * | 2011-08-26 | 2014-08-12 | Apple Inc. | Device, method, and graphical user interface for managing and interacting with concurrently open software applications |
US9418658B1 (en) * | 2012-02-08 | 2016-08-16 | Amazon Technologies, Inc. | Configuration of voice controlled assistant |
US8902182B2 (en) * | 2012-02-24 | 2014-12-02 | Blackberry Limited | Electronic device and method of controlling a display |
US20130238326A1 (en) * | 2012-03-08 | 2013-09-12 | Lg Electronics Inc. | Apparatus and method for multiple device voice control |
US9503683B2 (en) * | 2012-03-27 | 2016-11-22 | Google Inc. | Providing users access to applications during video communications |
US20140365884A1 (en) * | 2012-03-30 | 2014-12-11 | Google Inc. | Voice command recording and playback |
US8881269B2 (en) * | 2012-03-31 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader |
JP6012237B2 (ja) * | 2012-04-18 | 2016-10-25 | キヤノン株式会社 | 情報処理装置、制御方法、及びプログラム |
US9317709B2 (en) * | 2012-06-26 | 2016-04-19 | Google Inc. | System and method for detecting and integrating with native applications enabled for web-based storage |
US8532675B1 (en) * | 2012-06-27 | 2013-09-10 | Blackberry Limited | Mobile communication device user interface for manipulation of data items in a physical space |
US20150088523A1 (en) * | 2012-09-10 | 2015-03-26 | Google Inc. | Systems and Methods for Designing Voice Applications |
KR101407192B1 (ko) * | 2012-09-28 | 2014-06-16 | 주식회사 팬택 | 사운드 출력을 제어하는 휴대 단말 및 사운드 출력 제어 방법 |
KR20140089861A (ko) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
US9172747B2 (en) * | 2013-02-25 | 2015-10-27 | Artificial Solutions Iberia SL | System and methods for virtual assistant networks |
US10102845B1 (en) * | 2013-02-25 | 2018-10-16 | Amazon Technologies, Inc. | Interpreting nonstandard terms in language processing using text-based communications |
US9454957B1 (en) * | 2013-03-05 | 2016-09-27 | Amazon Technologies, Inc. | Named entity resolution in spoken language processing |
JP6236805B2 (ja) * | 2013-03-05 | 2017-11-29 | 日本電気株式会社 | 発話コマンド認識システム |
WO2014157903A1 (en) * | 2013-03-27 | 2014-10-02 | Samsung Electronics Co., Ltd. | Method and device for displaying service page for executing application |
US9875494B2 (en) * | 2013-04-16 | 2018-01-23 | Sri International | Using intents to analyze and personalize a user's dialog experience with a virtual personal assistant |
US20140324856A1 (en) * | 2013-04-27 | 2014-10-30 | Microsoft Corporation | Application discoverability |
US9292254B2 (en) * | 2013-05-15 | 2016-03-22 | Maluuba Inc. | Interactive user interface for an intelligent assistant |
JP2015011170A (ja) | 2013-06-28 | 2015-01-19 | 株式会社ATR−Trek | ローカルな音声認識を行なう音声認識クライアント装置 |
US9443507B2 (en) * | 2013-07-15 | 2016-09-13 | GM Global Technology Operations LLC | System and method for controlling a speech recognition system |
US20150024721A1 (en) * | 2013-07-22 | 2015-01-22 | Nvidia Corporation | Automatically connecting/disconnecting an incoming phone call to a data processing device based on determining intent of a user thereof to respond to the incoming phone call |
US10552852B1 (en) * | 2014-03-11 | 2020-02-04 | Vmware, Inc. | Service monitor for monitoring and tracking the performance of applications running on different mobile devices |
US10249296B1 (en) * | 2014-05-27 | 2019-04-02 | Amazon Technologies, Inc. | Application discovery and selection in language-based systems |
US10592080B2 (en) * | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US9548066B2 (en) * | 2014-08-11 | 2017-01-17 | Amazon Technologies, Inc. | Voice application architecture |
US20160103793A1 (en) * | 2014-10-14 | 2016-04-14 | Microsoft Technology Licensing, Llc | Heterogeneous Application Tabs |
US9116768B1 (en) * | 2014-11-20 | 2015-08-25 | Symantec Corporation | Systems and methods for deploying applications included in application containers |
US9812126B2 (en) * | 2014-11-28 | 2017-11-07 | Microsoft Technology Licensing, Llc | Device arbitration for listening devices |
US10248192B2 (en) * | 2014-12-03 | 2019-04-02 | Microsoft Technology Licensing, Llc | Gaze target application launcher |
US10460720B2 (en) * | 2015-01-03 | 2019-10-29 | Microsoft Technology Licensing, Llc. | Generation of language understanding systems and methods |
US9472196B1 (en) | 2015-04-22 | 2016-10-18 | Google Inc. | Developer voice actions system |
US20170075985A1 (en) * | 2015-09-16 | 2017-03-16 | Microsoft Technology Licensing, Llc | Query transformation for natural language queries |
WO2018080162A1 (ko) * | 2016-10-27 | 2018-05-03 | 삼성전자 주식회사 | 음성 명령에 기초하여 애플리케이션을 실행하는 방법 및 장치 |
US11468881B2 (en) * | 2019-03-29 | 2022-10-11 | Samsung Electronics Co., Ltd. | Method and system for semantic intelligent task learning and adaptive execution |
KR20210045241A (ko) * | 2019-10-16 | 2021-04-26 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 음성 명령어 공유 방법 |
-
2015
- 2015-04-22 US US14/693,330 patent/US9472196B1/en active Active
-
2016
- 2016-04-12 EP EP16721548.2A patent/EP3286633B1/en active Active
- 2016-04-12 WO PCT/US2016/027113 patent/WO2016171956A1/en active Application Filing
- 2016-04-12 CN CN201680019717.8A patent/CN107408385B/zh active Active
- 2016-04-12 KR KR1020197031169A patent/KR102173100B1/ko active IP Right Grant
- 2016-04-12 JP JP2017550871A patent/JP6538188B2/ja active Active
- 2016-04-12 CN CN202111019888.XA patent/CN113851120A/zh active Pending
- 2016-04-12 DE DE112016001852.5T patent/DE112016001852T5/de active Pending
- 2016-04-12 GB GB1715580.5A patent/GB2553234B/en active Active
- 2016-04-12 KR KR1020177028031A patent/KR102038074B1/ko active IP Right Grant
- 2016-09-07 US US15/258,084 patent/US10008203B2/en active Active
-
2018
- 2018-05-23 US US15/987,509 patent/US10839799B2/en active Active
-
2019
- 2019-05-30 JP JP2019101151A patent/JP6873188B2/ja active Active
-
2020
- 2020-11-16 US US17/099,130 patent/US11657816B2/en active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1215657A2 (en) * | 2000-12-08 | 2002-06-19 | AT&T Corp. | Method and apparatus for creation and user-customisation of speech enabled services |
CN1564123A (zh) * | 2004-03-26 | 2005-01-12 | 宏碁股份有限公司 | 网页语音接口的操作方法 |
US20060106608A1 (en) * | 2004-11-18 | 2006-05-18 | International Business Machines Corporation | Method and system for efficient voice-based programming |
JP2011503638A (ja) * | 2007-10-26 | 2011-01-27 | 本田技研工業株式会社 | カーナビゲーションシステムのための自由会話命令分類の改良 |
US20110288859A1 (en) * | 2010-02-05 | 2011-11-24 | Taylor Andrew E | Language context sensitive command system and method |
CN103039064A (zh) * | 2010-05-19 | 2013-04-10 | 谷歌公司 | 使用历史数据对联系信息的消歧 |
CN103035240A (zh) * | 2011-09-28 | 2013-04-10 | 苹果公司 | 用于使用上下文信息的语音识别修复的方法和系统 |
CN102520788A (zh) * | 2011-11-16 | 2012-06-27 | 歌尔声学股份有限公司 | 一种语音识别控制方法 |
US20140244259A1 (en) * | 2011-12-29 | 2014-08-28 | Barbara Rosario | Speech recognition utilizing a dynamic set of grammar elements |
KR20130136167A (ko) * | 2012-06-04 | 2013-12-12 | 삼성전자주식회사 | 음성 인식 서비스를 제공하기 위한 방법 및 그 전자 장치 |
US8965759B2 (en) * | 2012-09-01 | 2015-02-24 | Sarah Hershenhorn | Digital voice memo transfer and processing |
CN103674012A (zh) * | 2012-09-21 | 2014-03-26 | 高德软件有限公司 | 语音定制方法及其装置、语音识别方法及其装置 |
US20140279233A1 (en) * | 2013-03-14 | 2014-09-18 | Andrew Man-Hon Lau | System and method for an affinity capture, user feedback and affinity analysis |
WO2015038435A1 (en) * | 2013-09-16 | 2015-03-19 | Qualcomm Incorporated | Method and apparatus for controlling access to applications |
CN103794214A (zh) * | 2014-03-07 | 2014-05-14 | 联想(北京)有限公司 | 一种信息处理方法、装置和电子设备 |
Non-Patent Citations (1)
Title |
---|
ZHONG Y 等: "JustSpeak: enabling universal voice control on Android", 《PROCEEDINGS OF THE 11TH WEB FOR ALL CONFERENCE》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110808051A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 一种技能选取的方法以及相关装置 |
CN110808051B (zh) * | 2019-10-30 | 2024-06-04 | 腾讯科技(深圳)有限公司 | 一种技能选取的方法以及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
DE112016001852T5 (de) | 2018-06-14 |
KR102038074B1 (ko) | 2019-10-29 |
EP3286633B1 (en) | 2022-07-06 |
JP6873188B2 (ja) | 2021-05-19 |
US10839799B2 (en) | 2020-11-17 |
CN113851120A (zh) | 2021-12-28 |
JP6538188B2 (ja) | 2019-07-03 |
GB201715580D0 (en) | 2017-11-08 |
US11657816B2 (en) | 2023-05-23 |
GB2553234A (en) | 2018-02-28 |
EP3286633A1 (en) | 2018-02-28 |
US10008203B2 (en) | 2018-06-26 |
US20210082430A1 (en) | 2021-03-18 |
KR102173100B1 (ko) | 2020-11-02 |
KR20170124583A (ko) | 2017-11-10 |
JP2019144598A (ja) | 2019-08-29 |
US20180374480A1 (en) | 2018-12-27 |
WO2016171956A1 (en) | 2016-10-27 |
KR20190122888A (ko) | 2019-10-30 |
JP2018511831A (ja) | 2018-04-26 |
US20160314791A1 (en) | 2016-10-27 |
US9472196B1 (en) | 2016-10-18 |
CN107408385B (zh) | 2021-09-21 |
GB2553234B (en) | 2022-08-10 |
US20170186427A1 (en) | 2017-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107408385A (zh) | 开发者语音动作系统 | |
JP6942841B2 (ja) | ダイアログ・システムにおけるパラメータ収集および自動ダイアログ生成 | |
US11321116B2 (en) | Systems and methods for integrating third party services with a digital assistant | |
CN114631091A (zh) | 用于助理系统的使用结构本体的语义表示 | |
CN112470144A (zh) | 用于助理系统的上下文自动完成 | |
CN110770736A (zh) | 将对话驱动式应用程序导出到数字通信平台 | |
JP2019503526A5 (zh) | ||
CN107464561A (zh) | 语音动作可发现性系统 | |
KR20230029582A (ko) | 어시스턴트 시스템에서 다자간 통화를 위한 단일 요청의 사용 | |
TW202307644A (zh) | 用於助理系統的主動監聽 | |
TW202301081A (zh) | 輔助系統之基於真實世界文字偵測的任務執行 | |
TW202301080A (zh) | 輔助系統的多裝置調解 | |
TW202240461A (zh) | 使用輔助系統的語音和手勢輸入之文字編輯 | |
CN117396837A (zh) | 助理系统的多设备调解 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |