CN110140168B - 上下文热词 - Google Patents
上下文热词 Download PDFInfo
- Publication number
- CN110140168B CN110140168B CN201780081195.9A CN201780081195A CN110140168B CN 110140168 B CN110140168 B CN 110140168B CN 201780081195 A CN201780081195 A CN 201780081195A CN 110140168 B CN110140168 B CN 110140168B
- Authority
- CN
- China
- Prior art keywords
- hotword
- computing device
- audio data
- determining
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000004044 response Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims description 18
- 230000033001 locomotion Effects 0.000 claims description 10
- 238000013518 transcription Methods 0.000 claims description 8
- 230000035897 transcription Effects 0.000 claims description 8
- 230000000977 initiatory effect Effects 0.000 claims 3
- 230000009471 action Effects 0.000 abstract description 16
- 230000008569 process Effects 0.000 abstract description 16
- 238000004590 computer program Methods 0.000 abstract description 6
- 230000000875 corresponding effect Effects 0.000 description 36
- 230000015654 memory Effects 0.000 description 36
- 238000004891 communication Methods 0.000 description 19
- 230000001413 cellular effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 235000013305 food Nutrition 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005352 clarification Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
公开了用于上下文热词的方法、系统和装置,该系统和装置包括编码在计算机存储介质上的计算机程序。在一个方面,在计算设备的引导过程期间的一种方法包括由计算设备确定与计算设备相关联的上下文的动作。动作进一步包括,基于与计算设备相关联的上下文确定热词。动作进一步包括,在确定热词之后,接收与话语相对应的音频数据。动作进一步包括确定音频数据包括该热词。动作进一步包括,响应于确定音频数据包括热词,执行与该热词相关联的操作。
Description
技术领域
本说明书一般涉及自动语音处理。
背景技术
使能语音的家庭或其他环境的现实——也就是说,其中用户只需要大声说出询问或命令,并且基于计算机的系统将在场并回答询问和/或使得执行命令的环境——就在我们身上。使能语音的环境(例如,家庭、工作场所、学校等)可以使用分布在环境的各个房间或区域中的连接的麦克风设备的网络来实施。通过这种麦克风的网络,用户有权利基本上从环境中的任何地方口头询问系统,而无需在他/她面前或甚至附近有计算机或其他设备。例如,在厨房烹饪的同时,用户可以问系统“三杯是多少毫升?”并且作为响应,从系统接收例如以合成的语音输出形式的回答。替换性地,用户可以问系统问题,诸如“我最近的加油站什么时候关门”,或者在准备离开房子时,问“我今天应该穿外套吗?”。
进一步,用户可以对系统进行询问和/或发出与用户的个人信息相关的命令。例如,用户可以问系统“我什么时候与约翰会面?”或者命令系统“提醒我回家后给约翰打电话”。
发明内容
对于使能语音的系统,用户与系统交互的方式被设计为主要(如果不是唯一的话)是借助于语音输入。因此,潜在地拾取在周围环境中进行的所有话语(包括不指向系统的那些话语)的系统必须在任何给定话语指向系统时具有一些辨别的方式,而不是例如指向环境中存在的个体。实现这一点的一个方式是使用热词(hotword),该热词通过环境中的用户之间的协议被保留为被说出以引起系统的注意的预定词。在示例环境中,用于引起系统注意的热词是词语“好的,计算机”。因此,每当说出词语“好的,计算机”时,它就被麦克风拾取,传送到系统,该系统执行语音建模技术以确定是否说出了热词,并且如果是,则等待随后的命令或询问。因此,指向该系统的话语采取一般形式[热词][询问],其中这个示例中的“热词”是“好的,计算机”,并且“询问”可以是可以由该系统单独或经由网络与服务器结合语音识别、解析并对其进行操作的任何问题、命令、声明或其他请求。
在用户向使能语音的系统(诸如移动电话)提供若干基于热词的命令的情况下,用户与电话的交互可能变得笨拙。用户可以说“好的,计算机,播放我的家庭作业播放列表”。电话可以开始播放播放列表中的第一首歌曲。用户可能希望推进到下一首歌曲并说“好的,计算机,下一首”。为了推进到又一首歌曲,用户可以再次说出“好的,计算机,下一首”。为了减轻不断重复热词的需要,电话可以被配置为仅将“下一首”识别为热词和询问两者,或者在这种情况下识别为命令。利用这个特征,用户与电话和音乐应用的交互变得更加自然,因为代替“好的,计算机,下一首”,用户只需要说“下一首”就可以推进到下一首歌曲。
为了实现这一点,使能语音的系统确定系统的当前上下文并标识相关热词。上下文可以基于系统上运行的应用、系统的位置、系统的移动或任何其他类似情形。系统可以使用系统的上下文来标识附加的热词。例如,当音乐正在播放时,系统可以标识热词“下一首(next)”、“停止(stop)”和“后退(back)”以用于控制音乐。系统可以为标识的热词中的每一个请求热词模型。该系统可以使用热词模型以通过处理与用户语音相对应的音频数据的音频特性并将热词模型应用于该音频特性来识别新的热词。系统识别说出的热词,并执行相应的操作。如果用户说“停止”,并且因为系统正在播放音乐,“停止”是有效的热词,那么系统可能停止播放音乐。
根据本申请中所描述的主题的创新性方面,一种用于抗回滚安全性的方法包括以下动作:由计算设备确定与该计算设备相关联的上下文;基于与计算设备相关联的上下文确定热词;在确定热词之后,接收与话语相对应的音频数据;确定音频数据包括热词;以及响应于确定音频数据包括热词,执行与热词相关联的操作。
这些和其他实施方式可以各自可选地包括以下特征中的一个或多个。确定音频数据包括热词的动作包括:确定音频数据包括热词,而不对音频数据进行语音识别。确定音频数据包括热词的动作包括:提取与话语相对应的音频数据的音频特征;通过处理音频特征生成热词置信度得分;确定热词置信度得分满足热词置信度阈值;以及,基于确定热词置信度得分满足热词置信度阈值,确定与话语相对应的音频数据包括热词。动作进一步包括在确定热词之后,接收与热词相对应的热词模型。确定音频数据包括热词的动作包括:使用热词模型确定音频数据包括热词。
由计算设备标识在计算设备上运行的应用的动作。上下文是基于在计算设备上运行的应用的。动作进一步包括由计算设备确定上下文不再与计算设备相关联;并且确定包括热词的随后接收的音频数据不会触发操作。动作进一步包括提供标识热词的数据用于输出。动作进一步包括由计算设备标识计算设备的移动。上下文是基于计算设备的移动的。动作进一步包括由计算设备标识计算设备的位置。上下文是基于计算设备的位置的。执行与热词相关联的操作的动作包括对音频数据不包括热词的一部分执行语音识别。该操作基于音频不包括热词的部分的转录。音频数据仅包括热词。音频数据的初始部分包括热词。
这个方面的其他实施例包括相应的系统、装置和记录在计算机存储设备上的计算机程序,该系统、装置和计算机程序各自被配置为执行该方法的操作。
本申请中所描述的主题可以具有以下优点中的一个或多个。计算设备可以识别比传统系统中更短的命令并响应于该比传统系统中更短的命令而行动,传统系统通常要求用户在命令之后说出热词。因此,要求对识别的命令进行更少的处理,并且因此要求更低的资源消耗(包括功耗和用于存储输入项的存储器)以用于计算设备将能够进行响应,并且计算设备可以更快和更有效地响应。计算设备能够识别不同的命令并响应于该不同的命令而行动,而无需对命令执行语音识别。需要识别询问和命令所要求的计算资源和电池电量也可以减少,因为利用计算设备可以在一个项中识别询问和命令,从而避免了在分离的操作步骤中处理两个或多个不同项的需要。
本说明书中所描述的主题的一个或多个实施例的细节在附图和以下描述中阐述。从描述、附图和权利要求中,主题的其他特征、方面和优点将变得显而易见。
附图说明
图1示出了用于标识和处理上下文热词的示例系统。
图2示出了用于标识和处理上下文热词的示例过程。
图3示出了计算设备和移动计算设备的示例。
在附图中,相同的附图标记始终表示相应的部分。
具体实施方式
图1示出了用于标识和处理上下文热词的示例系统100。简而言之,并且如下面更详细描述的,响应于话语106“好的,计算机,播放音乐”,计算设备104开始播放音乐。计算设备104开始播放音乐,并且计算设备104能够将附加的热词“下一首”识别为用于推进到下一首歌的指令。
更详细地并且从图1中的阶段A处开始,用户102在计算设备104附近说出话语106“好的,计算机,播放音乐”。计算设备104的麦克风接收话语104并处理与话语相对应的音频数据。音频数据的初始处理可以包括过滤音频数据并将音频数据从模拟信号转换成数字信号。
在计算设备104处理音频数据时,计算设备可以将音频数据存储在缓冲器中用于附加处理。利用缓冲器中的音频数据,计算设备104可以标识音频数据是否包括任何说出的词语。计算设备104标识说出的词语的一种方式是使用热词检测器108。热词检测器108被配置为标识音频数据中包括的热词。
在一些实施方式中,热词检测器108可以被配置成标识在话语106的初始部分中的热词。在这个示例中,如果热词检测器108检测到作为有效热词112的特性的音频数据中的声学特征,则热词检测器108可以确定话语106“好的,计算机,播放音乐”包括热词110“好的,计算机”。声学特征可以是作为话语的短期功率谱的表示的mel频率倒谱系数(mel-frequency cepstral coefficient,MFCC),或者可以是话语106的mel域滤波器组能量。例如,热词检测器108可以基于根据音频数据生成MFCC并分类MFCC包括类似于作为热词模型114中存储的热词“好的,计算机”的特性相似的MFCC的MFCC,来检测话语106“好的,计算机,播放音乐”包括热词110“好的,计算机”。作为另一示例,热词检测器108可以基于根据音频数据生成mel域滤波器组能量并分类mel域滤波器组能量包括类似于作为热词模型114中存储的热词“好的,计算机”的特性相似的mel域滤波器组能量的mel域滤波器组能量,来检测话语106“好的,计算机,播放音乐”包括热词110“好的,计算机”。
热词检测器108确定与话语106相对应的音频数据包括热词110,并且计算设备104可以对与话语106相对应的音频数据执行语音识别或语义解释。语音识别器116可以对音频数据的热词110之后的部分执行语音识别。在这个示例中,语音识别器116可以标识词语118“播放音乐”
在一些实施方式中,语音识别器116可以不位于计算设备104上。代替地,计算设备104将与话语106的热词110之后的部分相对应的音频数据提供给服务器,例如服务器120。服务器120执行语音识别并将音频数据的转录返回给计算设备104。计算设备104标识话语106中的词语,并且计算设备执行语义解释并标识任何语音命令。计算设备104标识命令并执行该命令。在这个示例中以及在阶段B中,计算设备104在标识“播放音乐”命令118时开始播放音乐122。
随着音乐播放122,计算设备104正在前台或后台运行音乐应用。计算设备104可以包括上下文标识器124和有效热词选择器126。上下文标识器124可以被配置为标识计算设备104的当前上下文。有效热词选择器126可以使用计算设备104的当前上下文来选择有效热词。在这个示例中,设备的上下文可以与播放音乐122和运行音乐应用相关。有效热词选择器126可以检查音乐应用的代码,以标识音乐应用的开发者希望用户能够说出以与音乐应用交互的任何热词以及用于每个热词的各个动作。音乐应用可以标识诸如“播放”、“下一首”、“停止”和“后退”的热词。基于主动播放的音乐的上下文,有效热词选择器126可以选择“下一首”、“停止”和“后退”的热词,并将它们存储在有效热词112中。
在一些实施方式中,上下文标识器124可以使用计算设备104的位置来确定上下文。例如,上下文标识器124可以确定该位置对应于计算设备104的用户102的家。有效热词选择器126可以使用设备在用户102家中的上下文来标识诸如“更热”和“更冷”的热词,以允许用户控制家的温度。类似于上述示例,在用户102在家的同时,有效热词选择器126可以将“更热”和“更冷”的热词存储在有效热词112中。
在一些实施方式中,上下文标识器124可以使用计算设备104的运动来确定上下文。例如,上下文标识器124可以确定计算设备104的移动对应于典型车辆的速度和运动。上下文标识器124还可以比较计算设备104的速度和运动,以确定计算设备104是否正在沿着道路移动,从而增加计算设备104在车辆中的置信度。在这种情况下,有效热词选择器126可以使用计算设备的上下文来标识热词“方向”,以允许用户请求到特定位置的方向。在计算设备104在车辆中的同时,有效热词选择器126可以将热词“方向”存储在有效热词112中。
在一些实施方式中,上下文标识器124可以使用日期或时间或者两者来确定上下文。例如,上下文标识器124可以确定上下文对应于晚上时间,诸如晚上9:00和午夜之间的时间。在这种情况下,有效热词选择器126可以使用晚上时间的上下文来标识热词“设置闹钟”,以允许用户102设置闹钟。有效热词选择器126可以在晚上9:00到午夜时间段期间将热词“设置闹钟”存储在有效热词112中。
在一些实施方式中,上下文标识器124可以使用用户102的过去动作和模式来标识热词。上下文标识器124可以标识用户通常可能在一天的不同时间执行的动作,并基于那些动作确定上下文。有效热词选择器126可以标识相关热词,并在相应的时间段期间将那些热词存储在有效热词112中。例如,上下文标识器124可以确定用户102在上午8:00到上午10:00的时间期间在计算设备104上阅读新闻。有效热词选择器126可以选择“新闻”作为有效热词112。利用“新闻”作为热词,用户102可以说“新闻”,以在上午8:00到上午10:00的时间期间打开新闻应用。新闻应用可以具有自己相应的热词。当新闻应用在计算设备104上打开时,有效热词选择器126可以将诸如“体育”、“本地”和“国家”的热词标识为有效热词112。
在一些实施方式中,上下文标识器124可以标识过去的动作,该过去的动作不一定是时间相关的。例如,用户102可以习惯性地检查计算设备102上的天气。上下文标识器124可以确定计算设备的上下文几乎总是对应于用户102已检查天气的时间。在这种情况下,有效热词选择器126可以标识热词“天气”,并将该热词存储在有效热词112中。利用“天气”作为有效热词,用户102仅仅说出“天气”以打开天气应用并检查天气。
在一些实施方式中,上下文标识器124可以基于计算设备104的状态来确定上下文。例如,计算设备104的状态可以是“锁定的”。在这种情况下,当设备被锁定时,有效热词选择器126可以标识热词“解锁”并将该热词存储在有效热词112中。利用“解锁”作为有效热词,用户说出说“解锁”来解锁电话。为了提高安全性,计算设备104可以使用说话者识别技术来验证说话者是用户102。在这种情况下,将使用用户102的语音来训练相应的热词模型。例如,计算设备104可以提示用户102说几次“解锁”,使得计算设备104或服务器120可以利用语音样本构建特定于用户102的热词模型。
有效热词112包括新的热词,并且计算设备104可以检查热词模型114以确定计算设备104是否针对具有新添加的热词的热词。例如,当有效热词选择器126在有效热词112中存储“下一首”时,计算设备104可以检查热词模型114是否包括用于“下一首”的热词模型。如果用于“下一首”的热词模型在热词模型114中,则热词检测器108可以开始检测热词“下一首”,并且计算设备104可以跳过阶段C、D和E。如果用于“下一首”的热词模型不在热词模型114中,则计算设备104在阶段C中向服务器120发送针对用于“下一首”的热词模型请求128。
在一些实施方式中,计算设备104可以对在热词模型114中已经具有相应热词模型的热词请求热词模型。计算设备104可以周期性(诸如每周一次)地请求热词模型以确保本地存储的热词模型尽可能准确。响应于来自用户102的反馈,计算设备104还可以请求热词模型。在一些情况下,用户102可以说出诸如“下一首”的热词,并且计算机可以不推进歌曲。热词检测器108可以处理对应于“下一首”的音频数据,但是可以不标识热词,因为热词置信度得分不满足阈值。
用户102可以通过选择计算设备104上的下一首歌曲按钮来推进歌曲。当计算设备104检测到这一系列动作时,计算设备104可以请求用于“下一首”的更新的热词模型。替换性地,计算设备104可以使用不生成满足阈值但高于较低热词置信度阈值的热词置信度得分的音频数据来更新用于“下一首”的热词模型。在一些实施方式中,计算设备104可以为没有生成满足阈值的热词置信度得分的音频数据计算噪声水平。如果噪声水平大于噪声阈值,则计算设备104可以不利用相应的音频数据更新热词模型,因为它可能具有太多的背景噪声。
服务器120接收对热词模型的请求128并在阶段D中标识相应的热词模型130。服务器120可以对应于可通过诸如互联网的网络132访问的一个或多个服务器。可由一个服务器访问的数据可由其他服务器访问。除了标识和提供热词模型之外,服务器120被配置为接收音频数据并基于接收的音频数据生成热词模型130。
为了生成热词模型130,服务器120接收并收集语音数据134。服务器120可以从执行语音识别的服务器接收语音数据134。服务器可以执行语音识别并将音频数据提供给服务器120以生成热词模型。利用收集的语音数据134,语音识别器136标识收集的语音数据中的词语。
语音识别器136向语音数据分词器(tokenizer)138提供转录和语音数据。语音数据分词器138将音频数据分割成与不同词语相对应的部分。例如,如果收集的语音数据134对应于词语“play the next song(播放下一首歌曲)”,则语音识别器生成“play the nextsong(播放下一首歌曲)”的转录,并且语音数据分词器138将音频数据标记(tokenize)为四个部分。一部分是“play(播放)”,另一部分是“the”,另一部分是“next(下一首)”,以及另一部分是“song(歌曲)”。
语音识别器136和语音数据分词器138可以标记许多语音样本,并将标记的语音样本提供给热词模型生成器140。热词模型生成器140处理同一词语的多个样本,以生成用于该词语的热词模型。例如,热词模型生成器140可以接收对应于词语“下一首”的多个语音样本。热词模型生成器140提取语音样本的音频特性以生成用于“下一首”的热词模型。热词模型生成器140在热词模型130中存储用于“下一首”的热词模型。
热词模型130准备好供服务器120提供给计算设备来识别那些特定热词。在一些实施方式中,服务器120可以在热词模型130中不具有所请求的热词。
在这种情况下,服务器120可以使用语音识别器136和语音数据分词器138来分析收集的语音数据134,以标识对应于所请求词语的音频样本。可替换地,服务器120可以请求计算设备104收集样本。计算设备104可以请求用户重复词语若干次。计算设备104可以向服务器120提供音频数据以用于处理以生成热词模型。在一些实施方式中,所请求的热词可以多余一个词语。
在这种情况下,热词模型生成器140可以组合热词模型130,以生成用于多词语热词的热词模型。
在一些实施方式中,热词模型生成器140可以生成包括特定于具体上下文的噪声的热词模型。热词模型生成器140可以不选择对应于目标热词的所有语音令牌(token)。代替地,热词模型生成器140选择包括可能存在于相应上下文中的背景噪声的语音令牌。例如,热词模型生成器140可以生成用于“下一首”的热词模型,该热词模型具有包括“下一首”并具有背景音乐的语音令牌。如果服务器120接收对热词模型“下一首”的请求,并且该请求指示上下文是播放的音乐,则服务器120可以提供为背景音乐配置的“下一首”的热词模型。如果服务器120接收对热词模型“下一首”的请求,并且该请求指示上下文是观看的照片,则服务器120可以提供为没有背景噪音配置的“下一首”的热词模型。
在阶段E,服务器120提供包括所请求的热词模型的响应142。在图1中所示的示例中,服务器120将用于“下一首”的热词模型提供到计算设备104。计算设备104将热词模型存储在热词模型114中,并且可以更新有效热词112中的指示符以指示在计算设备104上存储有对应的热词模型。
在一些实施方式中,有效热词选择器126可以从有效热词112中移除热词。当上下文标识器124指示上下文已经改变时,有效热词选择器126可以基于新的上下文更新有效热词112。遵循来自上文的一些示例,有效热词选择器126可以在上午10:00之后从有效热词112中移除热词“新闻”。类似地,有效热词选择器126可以在午夜之后移除热词“设置闹钟”,并且在晚上9:00之后将热词“设置闹钟”添加回有效热词112。在一些实施方式中,当有效热词选择器126移除热词有效热词112时,相应的热词模型保留在热词模型114中。
在一些实施方式中,即使同一应用正在计算设备104上运行,有效热词选择器126也可以从有效热词112中移除热词。当计算设备104执行音乐应用时,有效热词选择器126可以标识热词“播放”、“下一首”、“停止”和“后退”,并将相应的热词模型加载到热词模型114中。在这种情况下,对于计算设备104来说不需要将热词添加到有效热词112以请求热词模型。随着音乐播放,有效热词选择器126可以包括热词“下一首”、“停止”和“后退”作为有效热词。如果音乐停止并且音乐应用保持打开,则有效热词选择器126可以将有效热词112更新为“下一首”、“播放”和“后退”。
在一些实施方式中,用户界面生成器144生成用于在计算设备104上显示的用户界面。用户界面可以指示有效热词112。例如,当歌曲开始播放时,用户界面可以指示用户102说“下一首”、“停止”或“后退”来控制音乐。当音乐停止时,用户界面可以指示用户102可以说“下一首”、“播放”和“后退”来控制音乐。当热词有效时,用户界面生成器144也可以生成通知。
例如,在当前时间达到晚上9点时,用户界面可以指示热词“设置闹钟”是有效的。类似地,在当前时间达到午夜时,用户界面可以指示热词“设置闹钟”不再有效。用户界面还可以指示说出每个热词的效果。例如,当音乐应用有效并且音乐正在播放时,用户界面可以指示“下一首”推进到播放列表中的下一首歌曲,“停止”使当前歌曲停止播放,并且“后退”使返回播放列表中的前一首歌曲。
在一些实施方式中,用户界面生成器144还可以生成用户界面来控制不同热词何时有效。控制界面可以包括热词有效时的上下文,并且允许用户更新热词有效时的上下文。附加地或可替换地,控制界面可以允许用户102指示对于每个上下文有效的热词。例如,控制界面可以指示热词“新闻”从上午8:00到上午10:00是有效的。用户102可以调整该上下文,使得“新闻”热词从上午8:00到中午是有效的。
控制界面还可以指示当音乐正在播放时热词“下一首”、“停止”或“后退”是有效的。用户102可以将用于音乐播放上下文的热词更新为“下一首”和“停止”。在一些实施方式中,控制界面还可以向用户102提供为现有或定制上下文添加定制热词的能力。例如,用户102可以将“呼叫妈妈”作为热词输入到控制界面中,总是使该热词有效,并且在检测到该热词时呼叫联系人“妈妈”。用户102还可以将“向上”和“向下”添加到音乐播放上下文中,并指定热词控制音量。用户还可以添加对应于上午11:00到下午1:00时间段的新上下文。用户可以添加热词“订购午餐”以在该时间段期间有效,并指示该热词将打开食物订购应用。
在阶段F,用户102说出包括热词148的话语146。计算设备104通过麦克风接收话语146,并处理相应的音频数据。热词检测器108比较有效热词112的热词模型114,以标识话语146是否包括任何有效热词。如果热词检测器108标识了热词,则计算设备执行相应的命令。在图1所示的示例中,用户102说出“下一首”。有效热词112可以是“停止”、“下一首”和“后退”热词检测器108将对应于话语146的音频数据与对应于“停止”、“下一首”和“后退”的热词模型114进行比较,并确定话语146包括热词“下一首”。基于检测到与推进到下一首歌曲的指令相对应的热词“下一首”,计算设备在阶段G处推进到下一首歌曲150。
在一些实施方式中,热词检测器108可以检测不在有效热词112当中但其模型仍然存储在热词模型中的热词。在这种情况下,热词检测器108可以向用户界面生成器144提供指示,以生成指示热词当前不是有效的用户界面。例如,当音乐正在播放时,用户102可以说“播放”。热词检测器108可以标识热词“播放”。因为热词不是有效的,所以计算设备104不执行动作。然而,用户界面生成器144可以生成指示热词“播放”不是有效的并且指示有效热词是“停止”、“下一首”和“后退”的界面。
在一些实施方式中,计算设备104仍然可以被配置为标识默认热词“好的,计算机”。在这种情况下,计算设备104可以使用语音识别来处理“好的,计算机”之后的音频数据,并且基于随后的音频数据的转录执行适当的动作。例如,如果用户102在正在播放音乐的同时说“好的,计算机,下一首”,则计算设备104在标识“好的,计算机”热词并转录音频数据的包括命令“下一首”的后续部分之后推进到下一首歌曲。
类似地,上下文热词后面可以跟着命令。继续“订购午餐”的示例,用户102可以在热词有效的时间期间说“从三明治熟食店订购午餐”。在这种情况下,热词检测器108标识“订购午餐”热词。语音识别器116生成“从三明治熟食店”的转录。计算设备104可以打开食物订购应用并打开三明治熟食店菜单。
在一些实施方式中,热词检测器108为处理后的音频数据的每个初始部分生成热词置信度得分。如果热词置信度得分满足阈值,则热词检测器108确定音频数据包括热词。例如,如果热词置信度得分为0.9,且热词置信度阈值为0.8,则热词检测器108确定音频数据包括热词。
在一些实施方式中,如果热词置信度得分在低于阈值的范围内,则用户界面生成器144可以生成请求确认用户102说出热词的界面。例如,热词置信度得分可以是0.7。如果范围在0.6和0.8之间,则用户界面生成器144可以生成请求用户102确认或重复热词的用户界面。在一些实施方式中,并且如果用户102确认用户102说出了该热词,则计算设备104可以使用音频数据来更新该热词模型以提高未来的性能。如果音频数据中有太多噪声,则计算设备104可以不使用音频数据。
图2示出了用于标识和处理上下文热词的示例过程200。一般来说,过程200基于设备的上下文来标识热词,并且向热词分配动作,使得当用户说出该热词时,过程执行相应的动作。过程200将被描述为由计算机系统执行,该计算机系统包括一个或多个计算机,例如图1所示的系统100。
系统确定与计算设备相关联的上下文(210)。在一些实施方式中,系统标识正在系统上运行的应用。系统基于正在系统上运行的应用来确定上下文。例如,该应用可以是音乐应用。在这种情况下,上下文可以是播放音乐。系统还可以区分在后台和前台运行的应用。例如,在后台或前台运行和播放音乐的音乐应用可以仍然具有播放音乐的相同上下文。正在后台运行的应用(诸如浏览器)可以不影响上下文。在一些实施方式中,上下文也可以与设备的状态(诸如当设备被锁定时)相关。上下文也可以与屏幕上显示的内容相关,例如,“主屏幕”
在一些实施方式中,上下文可以基于系统的移动。例如,如果系统以类似于汽车的速度移动,则系统可以确定上下文是“在汽车中”。在一些实施方式中,上下文可以基于计算设备的位置。例如,系统可以位于用户的家中。在这种情况下,设备的上下文可以是“在家”。在一些实施方式中,上下文可以是上下文的组合。例如,针对系统被锁定并且在用户家中时,上下文可以是“锁定在家中”。
系统基于与系统相关联的上下文来确定热词(220)。在一些实施方式中,系统基于在软件中标识的热词来确定热词。例如,音乐应用可以标识针对上下文是“音乐播放”时以及音乐停止并且音乐应用打开时的热词。
在一些实施方式中,系统可以基于在先使用来确定热词。例如,如果用户通常在某个时间范围内阅读新闻,则系统可以确定针对上下文在该时间范围内时的热词“新闻”。在一些实施方式中,系统可以显示热词并在显示器中指示由热词执行的动作。系统可以在热词变为有效时以及系统使其无效时提供通知。
在确定该热词之后,系统接收与话语相对应的音频数据(230)。在一些实施方式中,系统从服务器请求用于热词的热词模型,并且系统确定热词。例如,如果系统确定热词“下一首”,则系统可以从服务器请求用于“下一首”的热词模型。
系统确定音频数据包括热词(240)。在一些实施方式中,系统确定音频数据包括热词,而不对音频数据执行语音识别。在一些实施方式中,系统通过提取与话语相对应的音频数据的音频特征来确定音频数据包括热词。系统通过处理音频特征并可能地通过将该音频特征与热词模型中的那些音频特征进行比较来生成热词置信度得分。
如果热词置信度得分满足热词置信度阈值,则系统确定音频数据包括该热词。如果热词置信度得分不满足热词置信度阈值,则系统确定音频数据不包括该热词。例如,如果热词置信度阈值为0.8,则具有高于0.8的热词置信度得分的音频数据将被标记为包括该热词,并且具有低于0.8的热词置信度得分的音频数据将被标记为不包括热词。
在一些实施方式中,音频数据仅包括热词。例如,用户可以只说出作为热词的“下一首”。在一些实施方式中,音频数据的初始部分包括热词。例如,热词可以是“订购午餐”,并且用户可以说出“从三明治熟食店订购午餐”。在这种情况下,系统标识热词“订购午餐”,并使用语音识别处理音频数据的热词之后的部分。
响应于确定音频数据包括热词,系统执行与该热词相关联的操作(250)。在一些实施方式中,系统使用热词标识动作。例如,当音乐正在播放并且用户说出“下一首”时,系统推进歌曲。
在一些实施方式中,当上下文不再有效时,系统从有效热词列表中移除热词。例如,如果用户停止播放音乐,则系统从有效热词列表中移除热词“下一首”。如果用户在这种情况下说出“下一首”,则响应于“下一首”,系统不执行动作。
在一些实施方式中,操作可以基于热词和该热词之后的任何音频数据,或者仅基于该热词之后的音频数据。例如,有效热词可以是“方向”,并且用户可以说出“回家的方向”。在这种情况下,系统可以打开地图应用,并开始向用户提供到用户的家的用户方向。
在一些实施方式中,操作可以取决于热词之后的音频数据。存在其中取决于热词之后的音频数据、有效热词可以有不同的操作的实例。例如,用户可能在家,并且系统可能正在播放音乐。用户在家可以使得系统使热词“增加”有效,以增加恒温器的温度。系统播放音乐也可以使得系统使热词“增加”有效,以增加音乐的音量。在这种情况下,系统可以通过以下方式中的一个或多个缓解这种冲突。
系统可以将热词更新为“增加温度”和“增加音量”。如果用户说“增加”,则系统可以在屏幕上显示用户应该说“增加音量”以增加音量或“增加温度”以增加恒温器的温度的指示。可替换地,系统可以将“增加”保持为热词,并且在“增加”之后要求参数(argument),其中系统对在“增加”之后的任何音频数据执行语音识别或者请求来自用户的澄清。例如,用户可以说“增加”。系统可以显示请求或播放该请求的合成语音,以便用户澄清要增加什么。
在一些实施方式中,系统可以在存在说出的热词的参数或后缀的情况下(有时在仅存在说出的热词的参数或后缀的情况下)执行检测有效热词。例如,有效热词可以是“设置闹钟”。系统可以只在热词“设置闹钟”后面跟有诸如“早上6:00”或“明天早上”的参数时才确认该热词。在这种情况下,系统可以对音频数据的热词之后的部分执行语音识别,并且不确认热词,除非热词之后是附加的说出的项。在一些实施方式中,附加的说出的项是热词所接受的参数。热词“设置闹钟”可以接受诸如“早上6点”的参数,但不接受诸如“金枪鱼三明治”的参数。
在一些实施方式中,系统可以确定音频数据包括一个以上的热词。这可以是发生因为当前有效的热词听起来相似。例如,两个有效热词可以是“下一首(next)”和“文本(text)”。在一些实施方式中,系统可以仅确定音频数据包括热词,不一定是哪个热词。如果系统确定两个或多个热词模型匹配音频数据,则系统可以对音频数据的包括热词的部分执行语音识别,以确定用户说出了什么热词。
图3示出了可以用于实施本文描述的技术的计算设备300和移动计算设备350的示例。计算设备300意图表示各种形式的数字计算机,诸如膝上型计算机、台式计算机、工作站、个人数字助理、服务器、刀片式服务器、大型计算机和其他合适的计算机。移动计算设备350意图表示各种形式的移动设备,诸如个人数字助理、蜂窝电话、智能电话和其他类似的计算设备。这里示出的组件、它们的连接和关系以及它们的功能意味着仅仅是示例,而不是限制性的。
计算设备300包括处理器302、存储器304、存储设备306、连接到存储器304和多个高速扩展端口310的高速接口308、以及连接到低速扩展端口314和存储设备306的低速接口312。处理器302、存储器304、存储设备306、高速接口308、高速扩展端口310和低速接口312中的每一个都使用各种总线互连,并且可以安装在公共主板上或者视情况以其他方式安装。处理器302可以处理用于在计算设备300内执行的指令(包括存储在存储器304中或存储设备306上的指令),以在外部输入/输出设备(诸如耦合到高速接口308的显示器316)上显示用于GUI的图形信息。在其他实施方式中,可以视情况使用多个处理器和/或多个总线,以及多个存储器和多种类型的存储器。而且,可以连接多个计算设备,其中每个设备(例如,作为服务器组、刀片式服务器群组或多处理器系统)提供必要操作的一部分。
存储器304将信息存储在计算设备300内。在一些实施方式中,存储器304是一个或多个易失性存储单元。在一些实施方式中,存储器304是一个或多个非易失性存储单元。存储器304也可以是另一形式的计算机可读介质,诸如磁盘或光盘。
存储设备306能够为计算设备300提供大容量存储。在一些实施方式中,存储设备306可以是或包含计算机可读介质,诸如软盘设备、硬盘设备、光盘设备或磁带设备、闪存或其他类似的固态存储器设备、或者包括存储区域网络中的设备或其他配置的设备阵列。指令可以存储在信息载体中。当由一个或多个处理设备(例如,处理器302)执行时,该指令执行一个或多个方法,诸如以上描述的那些方法。指令也可以由一个或多个存储设备存储,诸如计算机或机器可读介质(例如,存储器304、存储设备306或处理器302上的存储器)。
高速接口308管理计算设备300的带宽密集型操作,而低速接口312管理较低带宽密集型操作。这种功能分配仅是示例。在一些实施方式中,高速接口308耦合到存储器304、显示器316(例如,通过图形处理器或加速器),并且耦合到可以接受各种扩展卡的高速扩展端口310。在实施方式中,低速接口312耦合到存储设备306和低速扩展端口314。可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网)的低速扩展端口314可以例如通过网络适配器耦合到一个或多个输入/输出设备,诸如键盘、定点设备、扫描仪或诸如交换机或路由器的联网设备。
如图所示,计算设备300可以以多种不同的形式实施。例如,它可以实施为标准服务器320,或者在一组这样的服务器中实施多次。此外,它可以在诸如膝上型计算机322的个人计算机中实施。它也可以被实施为机架式服务器系统324的一部分。可替换地,来自计算设备300的组件可以与诸如移动计算设备350的移动设备中的其他组件相结合。这样的设备中的每一个可以包含计算设备300和移动计算设备350中的一个或多个,并且整个系统可以由彼此通信的多个计算设备构成。
移动计算设备350包括处理器352、存储器364、诸如显示器354的输入/输出设备、通信接口366和收发器368以及其他组件。移动计算设备350还可以被提供为具有存储设备(诸如微驱动器或其他设备)以提供附加的存储。处理器352、存储器364、显示器354、通信接口366和收发器368中的每一个都使用各种总线互连,并且组件中几个可以安装在公共主板上或者视情况以其他方式安装。
处理器352可以执行移动计算设备350内的指令,包括存储在存储器364中的指令。处理器352可以被实施为芯片的芯片组,该芯片包括分离的多个模拟和数字处理器。处理器352可以提供例如移动计算设备350的其他组件的协调,诸如用户界面的控制、移动计算设备350的应用运行以及移动计算设备350的无线通信。
处理器352可以通过耦合到显示器354的控制接口358和显示接口356与用户通信。显示器354可以是例如TFT(Thin-Film-Transistor Liquid Crystal Display,薄膜晶体管液晶显示器)显示器或OLED(Organic Light Emitting Diode,有机发光二极管)显示器,或其他合适的显示技术。显示接口356可以包括用于驱动显示器354以向用户呈现图形信息和其他信息的适当电路系统。控制接口358可以从用户接收命令,并将它们转换以提交给处理器352。此外,外部接口362可以提供与处理器352的通信,以便使得移动计算设备350能够与其他设备进行近区域通信。外部接口362可以例如在一些实施方式中提供有线通信,或者在其他实施方式中提供无线通信,并且也可以使用多个接口。
存储器364在移动计算设备350内存储信息。存储器364可以被实施为一个或多个计算机可读介质、一个或多个易失性存储单元或一个或多个非易失性存储单元中的一个或多个。扩展存储器374还可以被提供并通过扩展接口372连接到移动计算设备350,该扩展接口372可以包括例如SIMM(Single In Line Memory Module,单列直插式存储器模块)卡接口。扩展存储器374可以为移动计算设备350提供额外的存储空间,或者也可以为移动计算设备350存储应用或其他信息。具体而言,扩展存储器374可以包括执行或补充上述过程的指令,并且还可以包括安全信息。因此,例如,扩展存储器374可以被提供为用于移动计算设备350的安全模块,并且可以利用允许安全使用移动计算设备350的指令来编程。此外,可经由SIMM卡提供安全应用以及附加信息,诸如以不可破解的方式在SIMM卡上放置标识信息。
如下所讨论的那样,存储器可以包括例如闪存和/或NVRAM存储器(non-volatilerandom access memory,非易失性随机存取存储器)。在一些实施方式中,指令存储在信息载体中。当由一个或多个处理设备(例如,处理器352)执行时,该指令执行一个或多个方法,诸如以上描述的那些方法。指令也可以由一个或多个存储设备存储,诸如一个或多个计算机或机器可读介质(例如,存储器364、扩展存储器374或处理器352上的存储器)。在一些实施方式中,指令可以例如通过收发器368或外部接口362以传播信号的形式被接收。
移动计算设备350可以通过通信接口366无线通信,该通信接口366在必要的情况下可以包括数字信号处理电路系统。通信接口366可以提供各种模式或协议下的通信,诸如GSM语音呼叫(Global System for Mobile communication,全球移动通信系统)、SMS(Short Message Service,短消息服务)、EMS(Enhanced Messaging Service,增强型消息收发服务)或MMS消息收发(Multimedia Messaging Service,多媒体消息服务)、CDMA(codedivision multiple access,码分多址)、TDMA(time division multiple access,时分多址)、PDC(Personal Digital Cellular,个人数字蜂窝)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、CDMA2000或GPRS(General Packet Radio Service,通用分组无线服务)等。这种通信可以例如通过使用射频的收发器368发生。此外,可以发生短程通信,诸如使用蓝牙、WiFi或其他这样的收发器。此外,GPS(Global PositioningSystem,全球定位系统)接收器模块370可以向移动计算设备350提供可以视情况被在移动计算设备350上运行的应用使用的附加的导航和位置相关的无线数据。
移动计算设备350还可以使用音频编解码器360可听见地通信,该音频编解码器360可以从用户接收说出的信息并将其转换成可用的数字信息。音频编解码器360同样地可以诸如通过扬声器为用户生成可听声音,例如在移动计算设备350的手机中。这种声音可以包括来自语音电话呼叫的声音,可以包括记录的声音(例如,语音消息、音乐文件等)并且还可以包括由在移动计算设备350上操作的应用生成的声音。
如图所示,移动计算设备350可以以许多不同的形式实施。例如,它可以被实施为蜂窝电话380。它也可以被实施为智能电话382、个人数字助理或其他类似移动设备的一部分。
这里描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专门设计的ASIC(application specific integrated circuit,专用集成电路)、计算机硬件、固件、软件和/或他们组合中实现。这些不同的实施方式可以包括在可编程系统上可执行和/或可解释的一个或多个计算机程序中的实施方式,该可编程系统包括至少一个可编程处理器,作为可以是专用的或通用的该可编程处理器耦合成从存储系统、至少一个输入设备和至少一个输出设备接收数据和指令,以及向存储系统、至少一个输入设备和至少一个输出设备发送数据和指令。
这些计算机程序(也称为程序、软件、软件应用或代码)包括用于可编程处理器的机器指令,并且可以以高级过程和/或面向对象的编程语言和/或以汇编/机器语言来实施。如本文所使用的,术语机器可读介质和计算机可读介质指的是用于向可编程处理器提供机器指令和/或数据的任何计算机程序产品、装置和/或设备(例如,磁盘、光盘、存储器、可编程逻辑设备(Programmable Logic Devices,PLD)),包括接收机器指令作为机器可读信号的机器可读介质。术语机器可读信号指的是用于向可编程处理器提供机器指令和/或数据的任何信号。
为了提供与用户的交互,这里描述的系统和技术可以在计算机上实施,该计算机具有用于向用户显示信息的显示设备(例如CRT(cathode ray tube,阴极射线管)或LCD(liquid crystal display,液晶显示器)以及用户可以通过其向计算机提供输入的键盘和指示设备(例如鼠标或轨迹球)。其他类型的设备也可以被用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感官反馈(例如视觉反馈、听觉反馈或触觉反馈);并且可以以任何形式接收来自用户的输入,包括声学输入、语音输入或触觉输入。
这里描述的系统和技术可以在计算系统中实施,该计算系统包括后端组件(例如,作为数据服务器),或者包括中间件组件(例如,应用服务器),或者包括前端组件(例如,具有用户可以通过其与这里描述的系统和技术的实施方式进行交互的图形用户界面或网络浏览器的客户端计算机),或者这种后端、中间件或前端组件的任意组合。系统的组件可以通过任何形式或介质的数字数据通信(例如通信网络)互连。通信网络的示例包括局域网(local area network,LAN)、广域网(wide area network,WAN)和互联网。
计算系统可以包括客户端和服务器。客户端和服务器通常彼此远离,并且通常通过通信网络进行交互。客户端和服务器的关系由于在各个计算机上运行并且彼此具有的客户端-服务器关系的计算机程序而产生。
尽管上面已经详细描述了几个实施方式,但是其他修改也是可能的。例如,虽然客户端应用被描述为访问(多个)代理,但是在其他实施方式中,(多个)代理可以被由一个或多个处理器实施的其他应用(诸如在一个或多个服务器上执行的应用)使用。此外,图中描绘的逻辑流程不要求所示的特定次序或顺序来实现期望的结果。此外,可以从所描述的流程中提供其他动作或消除动作,并且可以向所描述的系统添加其他组件或从所描述的系统中移除其他组件。因此,其他实施方式也在以下权利要求的范围内。
Claims (20)
1.一种计算机实施的方法,包括:
由计算设备确定与所述计算设备相关联的上下文;
基于与所述计算设备相关联的上下文,由计算设备标识热词,所述热词在被计算设备接收时,发起可用于由用户运行的操作的运行;
在标识所述热词之后,由计算设备的麦克风接收与话语相对应的音频数据;
由所述计算设备,通过将所述音频数据作为输入提供给热词模型来确定所述音频数据不包括所述热词;
由所述计算设备并且从用户接收不可听请求以执行与所述热词相关联的操作;
响应于接收到所述不可听请求以执行与所述热词相关联的操作,由所述计算设备运行与所述热词相关联的操作并更新所述热词模型;
在更新所述热词模型之后,由所述计算设备的麦克风接收与附加话语相对应的附加音频数据;
由所述计算设备,通过将所述附加音频数据作为输入提供给经更新的热词模型来确定所述附加音频数据包括所述热词;以及
响应于确定所述附加音频数据包括所述热词,由所述计算设备运行与所述热词相关联的操作。
2.根据权利要求1所述的方法,其中,确定所述音频数据不包括所述热词包括在不对所述音频数据执行语音识别的情况下,确定所述音频数据不包括所述热词。
3.根据权利要求1所述的方法,其中,确定所述音频数据不包括所述热词包括:
提取与所述话语相对应的所述音频数据的音频特征;
通过处理所述音频特征生成热词置信度得分;
确定所述热词置信度得分不满足热词置信度阈值;以及
基于确定所述热词置信度得分不满足热词置信度阈值,确定与所述话语相对应的所述音频数据不包括所述热词。
4.根据权利要求1所述的方法,包括:
在标识所述热词之后,接收与所述热词相对应的所述热词模型。
5.根据权利要求1所述的方法,包括:
由所述计算设备标识在所述计算设备上运行的应用,
其中所述上下文基于在所述计算设备上运行的应用,并且
其中可由所述用户运行的所述操作是在所述计算设备上运行的应用的操作。
6.根据权利要求1所述的方法,包括:
由所述计算设备确定所述上下文不再与所述计算设备相关联;以及
确定包括所述热词的随后接收的音频数据不触发与所述热词相关联的操作的运行。
7.根据权利要求1所述的方法,包括:
由所述计算设备标识所述计算设备的移动,
其中所述上下文基于所述计算设备的移动。
8.根据权利要求1所述的方法,包括:
由所述计算设备标识所述计算设备的位置,
其中所述上下文基于所述计算设备的位置。
9.根据权利要求1所述的方法,其中运行与所述热词相关联的操作包括:
对所述音频数据的不包括所述热词的部分执行语音识别,
其中所述操作基于所述音频数据的不包括所述热词的部分的转录。
10.根据权利要求1所述的方法,其中,所述音频数据仅包括所述热词。
11.根据权利要求1所述的方法,其中,所述音频数据的初始部分包括所述热词。
12.根据权利要求1所述的方法,包括:
由所述计算设备发送对于所述热词相对应的所述热词模型的请求以及标识与所述计算设备相关联的上下文的数据;以及
由所述计算设备接收所述热词模型,所述热词模型与所述热词相对应并且使用包括与所述上下文关联的背景噪声水平的语音样本来训练。
13.一种用于语音处理的系统,包括:
一个或多个计算机和存储指令的一个或多个存储设备,所述指令在由所述一个或多个计算机执行时,可操作以使所述一个或多个计算机执行包括以下各项的操作:
由计算设备确定与所述计算设备相关联的上下文;
基于与所述计算设备相关联的上下文,由计算设备标识热词,所述热词在被计算设备接收时,发起可用于由用户运行的操作的运行;
在标识所述热词之后,由所述计算设备的麦克风接收与话语相对应的音频数据;
由所述计算设备,通过将所述音频数据作为输入提供给热词模型来确定所述音频数据不包括所述热词;
由所述计算设备并且从用户接收不可听请求以执行与所述热词相关联的操作;
响应于接收到所述不可听请求以执行与所述热词相关联的操作,由所述计算设备运行与所述热词相关联的操作并更新所述热词模型;
在更新所述热词模型之后,由所述计算设备的麦克风接收与附加话语相对应的附加音频数据;
由所述计算设备,通过将所述附加音频数据作为输入提供给经更新的热词模型来确定所述附加音频数据包括所述热词;以及
响应于确定所述附加音频数据包括所述热词,由所述计算设备运行与所述热词相关联的操作。
14.根据权利要求13所述的系统,其中,确定所述音频数据不包括所述热词包括在不对所述音频数据执行语音识别的情况下,确定所述音频数据不包括所述热词。
15.根据权利要求13所述的系统,其中,确定所述音频数据不包括所述热词包括:
提取与所述话语相对应的所述音频数据的音频特征;
通过处理所述音频特征生成热词置信度得分;
确定所述热词置信度得分不满足热词置信度阈值;以及
基于确定所述热词置信度得分不满足热词置信度阈值,确定与所述话语相对应的所述音频数据不包括所述热词。
16.根据权利要求13所述的系统,其中,所述操作还包括:
在标识所述热词之后,接收与所述热词相对应的所述热词模型。
17.根据权利要求13所述的系统,其中,所述操作还包括:
由所述计算设备标识在所述计算设备上运行的应用,
其中所述上下文基于在所述计算设备上运行的应用,并且
其中可由所述用户运行的所述操作是在所述计算设备上运行的应用的操作。
18.根据权利要求13所述的系统,其中,所述操作还包括:
由所述计算设备确定所述上下文不再与所述计算设备相关联;以及
确定包括所述热词的随后接收的音频数据不触发与所述热词相关联的操作的运行。
19.根据权利要求13所述的系统,其中,运行与所述热词相关联的操作包括:
对所述音频数据的不包括所述热词的部分执行语音识别,
其中所述操作基于所述音频数据的不包括所述热词的部分的转录。
20.一种存储软件的非暂时性计算机可读介质,包括可由一个或多个计算机执行的指令,所述指令在这样的执行时使得所述一个或多个计算机执行包括以下各项的操作:
由计算设备确定与所述计算设备相关联的上下文;
基于与所述计算设备相关联的上下文,由所述计算设备标识热词,所述热词在被计算设备接收时,发起可用于由用户运行的操作的运行;
在标识所述热词之后,由所述计算设备的麦克风接收与话语相对应的音频数据;
由所述计算设备,通过将所述音频数据作为输入提供给热词模型来确定所述音频数据不包括所述热词;
由所述计算设备并且从用户接收不可听请求以执行与所述热词相关联的操作;
响应于接收到所述不可听请求以执行与所述热词相关联的操作,由所述计算设备运行与所述热词相关联的操作并更新所述热词模型;
在更新所述热词模型之后,由所述计算设备的麦克风接收与附加话语相对应的附加音频数据;
由所述计算设备,通过将所述附加音频数据作为输入提供给经更新的热词模型来确定所述附加音频数据包括所述热词;以及
响应于确定所述附加音频数据包括所述热词,由计算设备运行与所述热词相关联的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211675475.1A CN116052661B (zh) | 2016-12-27 | 2017-08-01 | 上下文热词 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/391,358 | 2016-12-27 | ||
US15/391,358 US10276161B2 (en) | 2016-12-27 | 2016-12-27 | Contextual hotwords |
PCT/US2017/044918 WO2018125292A1 (en) | 2016-12-27 | 2017-08-01 | Contextual hotwords |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211675475.1A Division CN116052661B (zh) | 2016-12-27 | 2017-08-01 | 上下文热词 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110140168A CN110140168A (zh) | 2019-08-16 |
CN110140168B true CN110140168B (zh) | 2022-12-06 |
Family
ID=59558544
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211675475.1A Active CN116052661B (zh) | 2016-12-27 | 2017-08-01 | 上下文热词 |
CN201780081195.9A Active CN110140168B (zh) | 2016-12-27 | 2017-08-01 | 上下文热词 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211675475.1A Active CN116052661B (zh) | 2016-12-27 | 2017-08-01 | 上下文热词 |
Country Status (6)
Country | Link |
---|---|
US (3) | US10276161B2 (zh) |
EP (2) | EP3627504A1 (zh) |
JP (2) | JP6780124B2 (zh) |
KR (2) | KR102312218B1 (zh) |
CN (2) | CN116052661B (zh) |
WO (1) | WO2018125292A1 (zh) |
Families Citing this family (94)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9812128B2 (en) * | 2014-10-09 | 2017-11-07 | Google Inc. | Device leadership negotiation among voice interface devices |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9772817B2 (en) | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
US10509626B2 (en) | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10152969B2 (en) | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US9743204B1 (en) | 2016-09-30 | 2017-08-22 | Sonos, Inc. | Multi-orientation playback device microphones |
US10217453B2 (en) * | 2016-10-14 | 2019-02-26 | Soundhound, Inc. | Virtual assistant configured by selection of wake-up phrase |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10276161B2 (en) | 2016-12-27 | 2019-04-30 | Google Llc | Contextual hotwords |
US10841412B2 (en) * | 2017-03-13 | 2020-11-17 | Motorola Mobility Llc | Method and apparatus for enabling context-based voice responses to always-on-display notifications |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
KR102416782B1 (ko) * | 2017-03-28 | 2022-07-05 | 삼성전자주식회사 | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
US10916252B2 (en) | 2017-11-10 | 2021-02-09 | Nvidia Corporation | Accelerated data transfer for latency reduction and real-time processing |
US10880650B2 (en) | 2017-12-10 | 2020-12-29 | Sonos, Inc. | Network microphone devices with automatic do not disturb actuation capabilities |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US10789940B2 (en) * | 2018-03-27 | 2020-09-29 | Lenovo (Singapore) Pte. Ltd. | Dynamic wake word identification |
EP3564949A1 (en) * | 2018-04-23 | 2019-11-06 | Spotify AB | Activation trigger processing |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10847178B2 (en) | 2018-05-18 | 2020-11-24 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
EP3807875B1 (en) * | 2018-08-09 | 2023-11-01 | Google LLC | Hotword recognition and passive assistance |
JP7322076B2 (ja) * | 2018-08-21 | 2023-08-07 | グーグル エルエルシー | 自動アシスタントを起動させるための動的および/またはコンテキスト固有のホットワード |
EP4036910A1 (en) | 2018-08-21 | 2022-08-03 | Google LLC | Dynamic and/or context-specific hot words to invoke automated assistant |
CN109117233A (zh) * | 2018-08-22 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 用于处理信息的方法和装置 |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US10878811B2 (en) | 2018-09-14 | 2020-12-29 | Sonos, Inc. | Networked devices, systems, and methods for intelligently deactivating wake-word engines |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11100925B2 (en) * | 2018-12-06 | 2021-08-24 | Comcast Cable Communications, Llc | Voice command trigger words |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US11651196B2 (en) * | 2019-02-26 | 2023-05-16 | Google Llc | Reinforcement learning techniques for selecting a software policy network and autonomously controlling a corresponding software client based on selected policy network |
US11417323B2 (en) | 2019-02-27 | 2022-08-16 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
KR20200104773A (ko) * | 2019-02-27 | 2020-09-04 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US10586540B1 (en) * | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
KR20210009596A (ko) * | 2019-07-17 | 2021-01-27 | 엘지전자 주식회사 | 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스 |
US11282500B2 (en) * | 2019-07-19 | 2022-03-22 | Cisco Technology, Inc. | Generating and training new wake words |
EP3970000A1 (en) * | 2019-07-19 | 2022-03-23 | Google LLC | Condensed spoken utterances for automated assistant control of an intricate application gui |
KR20190096862A (ko) * | 2019-07-30 | 2019-08-20 | 엘지전자 주식회사 | 인공지능 장치를 이용한 음성 인식 기반 사용자 인증 방법 및 이를 위한 장치 |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
CN110415705B (zh) * | 2019-08-01 | 2022-03-01 | 苏州奇梦者网络科技有限公司 | 一种热词识别方法、系统、装置及存储介质 |
CN112581969A (zh) * | 2019-09-29 | 2021-03-30 | 百度在线网络技术(北京)有限公司 | 语音控制方法、装置、电子设备和可读存储介质 |
CN112581946A (zh) * | 2019-09-29 | 2021-03-30 | 百度在线网络技术(北京)有限公司 | 语音控制方法、装置、电子设备和可读存储介质 |
CN114207710A (zh) | 2019-10-15 | 2022-03-18 | 谷歌有限责任公司 | 检测和/或登记热命令以由自动助理触发响应动作 |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
CN110879839A (zh) * | 2019-11-27 | 2020-03-13 | 北京声智科技有限公司 | 一种热词识别方法、装置及系统 |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
CN111028830B (zh) * | 2019-12-26 | 2022-07-15 | 大众问问(北京)信息科技有限公司 | 一种本地热词库更新方法、装置及设备 |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
CN111768783B (zh) * | 2020-06-30 | 2024-04-02 | 北京百度网讯科技有限公司 | 语音交互控制方法、装置、电子设备、存储介质和系统 |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11798530B2 (en) * | 2020-10-30 | 2023-10-24 | Google Llc | Simultaneous acoustic event detection across multiple assistant devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11557278B2 (en) * | 2020-12-10 | 2023-01-17 | Google Llc | Speaker dependent follow up actions and warm words |
US11551700B2 (en) | 2021-01-25 | 2023-01-10 | Sonos, Inc. | Systems and methods for power-efficient keyword detection |
US11557293B2 (en) * | 2021-05-17 | 2023-01-17 | Google Llc | Contextual suppression of assistant command(s) |
US11830489B2 (en) | 2021-06-30 | 2023-11-28 | Bank Of America Corporation | System and method for speech processing based on response content |
US20230017728A1 (en) * | 2021-07-14 | 2023-01-19 | Harman International Industries, Incorporated | Techniques for audio feature detection |
US11915698B1 (en) * | 2021-09-29 | 2024-02-27 | Amazon Technologies, Inc. | Sound source localization |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104584119A (zh) * | 2012-07-03 | 2015-04-29 | 谷歌公司 | 确定热词适合度 |
CN105960673A (zh) * | 2014-10-09 | 2016-09-21 | 谷歌公司 | 多个设备上的热词检测 |
CN106030699A (zh) * | 2014-10-09 | 2016-10-12 | 谷歌公司 | 多个设备上的热词检测 |
Family Cites Families (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3764302B2 (ja) * | 1999-08-04 | 2006-04-05 | 株式会社東芝 | 音声認識装置 |
EP1346342A1 (en) | 2000-12-20 | 2003-09-24 | Koninklijke Philips Electronics N.V. | Speechdriven setting of a language of interaction |
GB2372864B (en) | 2001-02-28 | 2005-09-07 | Vox Generation Ltd | Spoken language interface |
JP2002273036A (ja) * | 2001-03-19 | 2002-09-24 | Canon Inc | 電子ゲーム装置および電子ゲーム装置における処理方法 |
US6751595B2 (en) * | 2001-05-09 | 2004-06-15 | Bellsouth Intellectual Property Corporation | Multi-stage large vocabulary speech recognition system and method |
WO2002096067A2 (en) | 2001-05-22 | 2002-11-28 | Teltone Corporation | Pbx control system via remote telephone |
US7103543B2 (en) * | 2001-05-31 | 2006-09-05 | Sony Corporation | System and method for speech verification using a robust confidence measure |
GB0120672D0 (en) * | 2001-08-24 | 2001-10-17 | Mitel Knowledge Corp | Intermediate voice and DTMF detector device for improved speech recognition utilisation and penetration |
KR100499124B1 (ko) * | 2002-03-27 | 2005-07-04 | 삼성전자주식회사 | 직교 원형 마이크 어레이 시스템 및 이를 이용한 음원의3차원 방향을 검출하는 방법 |
JP2003308091A (ja) * | 2002-04-17 | 2003-10-31 | Pioneer Electronic Corp | 音声認識装置、音声認識方法および音声認識プログラム |
US20030212562A1 (en) | 2002-05-13 | 2003-11-13 | General Motors Corporation | Manual barge-in for server-based in-vehicle voice recognition systems |
US7502737B2 (en) * | 2002-06-24 | 2009-03-10 | Intel Corporation | Multi-pass recognition of spoken dialogue |
US7421390B2 (en) * | 2002-09-13 | 2008-09-02 | Sun Microsystems, Inc. | Method and system for voice control of software applications |
US7899500B2 (en) | 2002-09-24 | 2011-03-01 | At&T Intellectual Property I, L. P. | Apparatus and method for providing hands-free operation of a device |
US7027842B2 (en) | 2002-09-24 | 2006-04-11 | Bellsouth Intellectual Property Corporation | Apparatus and method for providing hands-free operation of a device |
US7519534B2 (en) * | 2002-10-31 | 2009-04-14 | Agiletv Corporation | Speech controlled access to content on a presentation medium |
JP4497834B2 (ja) * | 2003-04-28 | 2010-07-07 | パイオニア株式会社 | 音声認識装置及び音声認識方法並びに音声認識用プログラム及び情報記録媒体 |
US7624018B2 (en) | 2004-03-12 | 2009-11-24 | Microsoft Corporation | Speech recognition using categories and speech prefixing |
US7518631B2 (en) * | 2005-06-28 | 2009-04-14 | Microsoft Corporation | Audio-visual control system |
US8503624B2 (en) | 2005-09-28 | 2013-08-06 | Cisco Technology, Inc. | Method and apparatus to process an incoming message |
US7689417B2 (en) * | 2006-09-04 | 2010-03-30 | Fortemedia, Inc. | Method, system and apparatus for improved voice recognition |
US20080133245A1 (en) | 2006-12-04 | 2008-06-05 | Sehda, Inc. | Methods for speech-to-speech translation |
US8731146B2 (en) | 2007-01-04 | 2014-05-20 | At&T Intellectual Property I, L.P. | Call re-directed based on voice command |
US8060366B1 (en) | 2007-07-17 | 2011-11-15 | West Corporation | System, method, and computer-readable medium for verbal control of a conference call |
US20100004924A1 (en) * | 2008-07-03 | 2010-01-07 | Yuri Luis Paez | Method and system context-aware for identifying, activating and executing software that best respond to user requests generated in natural language |
US8548812B2 (en) | 2008-12-22 | 2013-10-01 | Avaya Inc. | Method and system for detecting a relevant utterance in a voice session |
US20130219333A1 (en) * | 2009-06-12 | 2013-08-22 | Adobe Systems Incorporated | Extensible Framework for Facilitating Interaction with Devices |
WO2011151502A1 (en) * | 2010-06-02 | 2011-12-08 | Nokia Corporation | Enhanced context awareness for speech recognition |
US20120089392A1 (en) * | 2010-10-07 | 2012-04-12 | Microsoft Corporation | Speech recognition user interface |
JP5709980B2 (ja) * | 2011-04-08 | 2015-04-30 | 三菱電機株式会社 | 音声認識装置およびナビゲーション装置 |
US9493130B2 (en) * | 2011-04-22 | 2016-11-15 | Angel A. Penilla | Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input |
US8762156B2 (en) * | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
US8924219B1 (en) * | 2011-09-30 | 2014-12-30 | Google Inc. | Multi hotword robust continuous voice command detection in mobile devices |
ES2409530B1 (es) | 2011-10-14 | 2014-05-14 | Telefónica, S.A. | Método para gestionar el reconocimiento del habla de llamadas de audio |
US20130124194A1 (en) * | 2011-11-10 | 2013-05-16 | Inventive, Inc. | Systems and methods for manipulating data using natural language commands |
EP2788978B1 (en) * | 2011-12-07 | 2020-09-23 | QUALCOMM Incorporated | Low power integrated circuit to analyze a digitized audio stream |
US20130238326A1 (en) * | 2012-03-08 | 2013-09-12 | Lg Electronics Inc. | Apparatus and method for multiple device voice control |
EP2639792A1 (en) * | 2012-03-16 | 2013-09-18 | France Télécom | Voice control of applications by associating user input with action-context idendifier pairs |
US10156455B2 (en) * | 2012-06-05 | 2018-12-18 | Apple Inc. | Context-aware voice guidance |
US9576572B2 (en) * | 2012-06-18 | 2017-02-21 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods and nodes for enabling and producing input to an application |
US8905511B2 (en) * | 2012-06-29 | 2014-12-09 | Static Control Components, Inc. | Network printer system |
US9715879B2 (en) * | 2012-07-02 | 2017-07-25 | Salesforce.Com, Inc. | Computer implemented methods and apparatus for selectively interacting with a server to build a local database for speech recognition at a device |
US9672815B2 (en) * | 2012-07-20 | 2017-06-06 | Interactive Intelligence Group, Inc. | Method and system for real-time keyword spotting for speech analytics |
US10276157B2 (en) * | 2012-10-01 | 2019-04-30 | Nuance Communications, Inc. | Systems and methods for providing a voice agent user interface |
US20140095172A1 (en) * | 2012-10-01 | 2014-04-03 | Nuance Communications, Inc. | Systems and methods for providing a voice agent user interface |
US9459176B2 (en) | 2012-10-26 | 2016-10-04 | Azima Holdings, Inc. | Voice controlled vibration data analyzer systems and methods |
CN103078915B (zh) * | 2012-12-28 | 2016-06-01 | 深圳职业技术学院 | 一种基于云计算车联网的车载语音点歌系统及其方法 |
US9460715B2 (en) * | 2013-03-04 | 2016-10-04 | Amazon Technologies, Inc. | Identification using audio signatures and additional characteristics |
US20140337031A1 (en) * | 2013-05-07 | 2014-11-13 | Qualcomm Incorporated | Method and apparatus for detecting a target keyword |
US20140379334A1 (en) * | 2013-06-20 | 2014-12-25 | Qnx Software Systems Limited | Natural language understanding automatic speech recognition post processing |
US9786296B2 (en) * | 2013-07-08 | 2017-10-10 | Qualcomm Incorporated | Method and apparatus for assigning keyword model to voice operated function |
KR102070623B1 (ko) * | 2013-07-09 | 2020-01-29 | 삼성전자 주식회사 | 비트 라인 등화 회로 |
KR102210717B1 (ko) * | 2013-07-09 | 2021-02-02 | 삼성전자 주식회사 | 전자 장치의 이메일 처리 방법 및 장치 |
US9548047B2 (en) * | 2013-07-31 | 2017-01-17 | Google Technology Holdings LLC | Method and apparatus for evaluating trigger phrase enrollment |
US20160293167A1 (en) * | 2013-10-10 | 2016-10-06 | Google Inc. | Speaker recognition using neural networks |
US9443522B2 (en) * | 2013-11-18 | 2016-09-13 | Beijing Lenovo Software Ltd. | Voice recognition method, voice controlling method, information processing method, and electronic apparatus |
US8719039B1 (en) | 2013-12-05 | 2014-05-06 | Google Inc. | Promoting voice actions to hotwords |
US11138971B2 (en) * | 2013-12-05 | 2021-10-05 | Lenovo (Singapore) Pte. Ltd. | Using context to interpret natural language speech recognition commands |
US8938394B1 (en) * | 2014-01-09 | 2015-01-20 | Google Inc. | Audio triggers based on context |
US10102848B2 (en) * | 2014-02-28 | 2018-10-16 | Google Llc | Hotwords presentation framework |
US9437188B1 (en) * | 2014-03-28 | 2016-09-06 | Knowles Electronics, Llc | Buffered reprocessing for multi-microphone automatic speech recognition assist |
US9953632B2 (en) * | 2014-04-17 | 2018-04-24 | Qualcomm Incorporated | Keyword model generation for detecting user-defined keyword |
US10770075B2 (en) * | 2014-04-21 | 2020-09-08 | Qualcomm Incorporated | Method and apparatus for activating application by speech input |
US9697828B1 (en) * | 2014-06-20 | 2017-07-04 | Amazon Technologies, Inc. | Keyword detection modeling using contextual and environmental information |
US9767794B2 (en) * | 2014-08-11 | 2017-09-19 | Nuance Communications, Inc. | Dialog flow management in hierarchical task dialogs |
US9959863B2 (en) * | 2014-09-08 | 2018-05-01 | Qualcomm Incorporated | Keyword detection using speaker-independent keyword models for user-designated keywords |
US10789041B2 (en) * | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9502032B2 (en) * | 2014-10-08 | 2016-11-22 | Google Inc. | Dynamically biasing language models |
US9837068B2 (en) * | 2014-10-22 | 2017-12-05 | Qualcomm Incorporated | Sound sample verification for generating sound detection model |
US9418656B2 (en) * | 2014-10-29 | 2016-08-16 | Google Inc. | Multi-stage hotword detection |
JP2018501195A (ja) | 2014-11-03 | 2018-01-18 | 清華大学Tsinghua University | 脂肪細胞分化およびインスリン抵抗性を阻害するための薬物 |
US9646611B2 (en) * | 2014-11-06 | 2017-05-09 | Microsoft Technology Licensing, Llc | Context-based actions |
US9775113B2 (en) * | 2014-12-11 | 2017-09-26 | Mediatek Inc. | Voice wakeup detecting device with digital microphone and associated method |
US9633661B1 (en) * | 2015-02-02 | 2017-04-25 | Amazon Technologies, Inc. | Speech-responsive portable speaker |
EP3067884B1 (en) * | 2015-03-13 | 2019-05-08 | Samsung Electronics Co., Ltd. | Speech recognition system and speech recognition method thereof |
JP2016218852A (ja) * | 2015-05-22 | 2016-12-22 | ソニー株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
US9819905B1 (en) * | 2015-05-28 | 2017-11-14 | Amazon Technologies, Inc. | Video communication sessions between whitelisted devices |
CN105895093A (zh) * | 2015-11-02 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 语音信息处理方法及装置 |
US9940929B2 (en) * | 2015-12-09 | 2018-04-10 | Lenovo (Singapore) Pte. Ltd. | Extending the period of voice recognition |
US10388280B2 (en) * | 2016-01-27 | 2019-08-20 | Motorola Mobility Llc | Method and apparatus for managing multiple voice operation trigger phrases |
US20170236148A1 (en) * | 2016-02-16 | 2017-08-17 | Google Inc. | Efficient Content Distribution |
US9972313B2 (en) * | 2016-03-01 | 2018-05-15 | Intel Corporation | Intermediate scoring and rejection loopback for improved key phrase detection |
WO2017217978A1 (en) * | 2016-06-15 | 2017-12-21 | Nuance Communications, Inc. | Techniques for wake-up word recognition and related systems and methods |
US10453449B2 (en) * | 2016-09-01 | 2019-10-22 | Amazon Technologies, Inc. | Indicator for voice-based communications |
US10437841B2 (en) * | 2016-10-10 | 2019-10-08 | Microsoft Technology Licensing, Llc | Digital assistant extension automatic ranking and selection |
US20180122372A1 (en) * | 2016-10-31 | 2018-05-03 | Soundhound, Inc. | Distinguishable open sounds |
US10134396B2 (en) * | 2016-12-07 | 2018-11-20 | Google Llc | Preventing of audio attacks |
US10083689B2 (en) * | 2016-12-23 | 2018-09-25 | Intel Corporation | Linear scoring for low power wake on voice |
US10276161B2 (en) | 2016-12-27 | 2019-04-30 | Google Llc | Contextual hotwords |
-
2016
- 2016-12-27 US US15/391,358 patent/US10276161B2/en active Active
-
2017
- 2017-08-01 JP JP2019540550A patent/JP6780124B2/ja active Active
- 2017-08-01 WO PCT/US2017/044918 patent/WO2018125292A1/en unknown
- 2017-08-01 CN CN202211675475.1A patent/CN116052661B/zh active Active
- 2017-08-01 EP EP19206983.9A patent/EP3627504A1/en active Pending
- 2017-08-01 KR KR1020197021993A patent/KR102312218B1/ko active IP Right Grant
- 2017-08-01 KR KR1020217031942A patent/KR102374519B1/ko active IP Right Grant
- 2017-08-01 CN CN201780081195.9A patent/CN110140168B/zh active Active
- 2017-08-01 EP EP17749345.9A patent/EP3485489B1/en active Active
-
2019
- 2019-03-25 US US16/362,831 patent/US10839803B2/en active Active
-
2020
- 2020-10-12 US US17/068,681 patent/US11430442B2/en active Active
- 2020-10-13 JP JP2020172546A patent/JP7078689B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104584119A (zh) * | 2012-07-03 | 2015-04-29 | 谷歌公司 | 确定热词适合度 |
CN105960673A (zh) * | 2014-10-09 | 2016-09-21 | 谷歌公司 | 多个设备上的热词检测 |
CN106030699A (zh) * | 2014-10-09 | 2016-10-12 | 谷歌公司 | 多个设备上的热词检测 |
Also Published As
Publication number | Publication date |
---|---|
KR102312218B1 (ko) | 2021-10-13 |
CN116052661B (zh) | 2024-03-12 |
CN116052661A (zh) | 2023-05-02 |
JP7078689B2 (ja) | 2022-05-31 |
EP3627504A1 (en) | 2020-03-25 |
US20210043210A1 (en) | 2021-02-11 |
JP6780124B2 (ja) | 2020-11-04 |
EP3485489B1 (en) | 2019-11-06 |
US10276161B2 (en) | 2019-04-30 |
KR102374519B1 (ko) | 2022-03-16 |
CN110140168A (zh) | 2019-08-16 |
US11430442B2 (en) | 2022-08-30 |
US20180182390A1 (en) | 2018-06-28 |
US10839803B2 (en) | 2020-11-17 |
US20190287528A1 (en) | 2019-09-19 |
JP2021015281A (ja) | 2021-02-12 |
WO2018125292A1 (en) | 2018-07-05 |
JP2020503568A (ja) | 2020-01-30 |
KR20210124531A (ko) | 2021-10-14 |
KR20190100334A (ko) | 2019-08-28 |
EP3485489A1 (en) | 2019-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110140168B (zh) | 上下文热词 | |
US11138977B1 (en) | Determining device groups | |
US9502032B2 (en) | Dynamically biasing language models | |
US9959863B2 (en) | Keyword detection using speaker-independent keyword models for user-designated keywords | |
US9805715B2 (en) | Method and system for recognizing speech commands using background and foreground acoustic models | |
US11862174B2 (en) | Voice command processing for locked devices | |
EP3676828A1 (en) | Context-based device arbitration | |
JP7358407B2 (ja) | コンピューティングデバイスとの継続的な会話の検出 | |
US9959887B2 (en) | Multi-pass speech activity detection strategy to improve automatic speech recognition | |
US11481188B1 (en) | Application launch delay and notification | |
US10839802B2 (en) | Personalized phrase spotting during automatic speech recognition | |
KR20210098250A (ko) | 전자 장치 및 이의 제어 방법 | |
US20240013782A1 (en) | History-Based ASR Mistake Corrections | |
US11935533B1 (en) | Content-related actions based on context | |
US11908463B1 (en) | Multi-session context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |