CN105340011A - 链接设备的无线控制 - Google Patents
链接设备的无线控制 Download PDFInfo
- Publication number
- CN105340011A CN105340011A CN201480037178.1A CN201480037178A CN105340011A CN 105340011 A CN105340011 A CN 105340011A CN 201480037178 A CN201480037178 A CN 201480037178A CN 105340011 A CN105340011 A CN 105340011A
- Authority
- CN
- China
- Prior art keywords
- equipment
- order
- device controller
- command
- universal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001755 vocal effect Effects 0.000 claims abstract description 63
- 238000000034 method Methods 0.000 claims description 81
- 230000008569 process Effects 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 19
- 230000009471 action Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 11
- 230000000977 initiatory effect Effects 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 description 20
- 239000000203 mixture Substances 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000004913 activation Effects 0.000 description 8
- 238000013519 translation Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- VRDIULHPQTYCLN-UHFFFAOYSA-N Prothionamide Chemical compound CCCC1=CC(C(N)=S)=CC=N1 VRDIULHPQTYCLN-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
- Selective Calling Equipment (AREA)
Abstract
一种通用设备控制器被配置来充当用于与无线地耦接到所述通用设备控制器的多个不同设备进行交互的代理机构。当所述通用设备控制器的用户用言语表达来自所述设备所理解的统一命令语言的命令时,所述通用设备控制器分析所述用户的言语表达并且识别能够执行相关联命令的无线设备。所述通用设备控制器随后识别用于与所识别设备进行交互的API,并且将所述言语表达翻译成所述所识别设备能够执行的设备命令。所述通用设备控制器随后向所述所识别设备发出所述设备命令。
Description
背景技术
相关申请的交叉引用
本申请要求2013年6月28日提交的标题为“SystemandMethodforWirelessControlofLinkedDevices(用于无线控制链接设备的系统和方法)”且具有序列号61/841,242的美国临时专利申请的权益。
发明领域
本发明的实施方案一般涉及人机接口,并且更具体地,涉及链接设备的无线控制。
相关技术的说明
现代计算设备可将广泛多种不同类型的接口展示给用户。例如,常规膝上型计算机通常包括用于与在所述膝上型计算机上执行的操作系统(OS)和/或各种软件应用进行交互的键盘和鼠标。类似地,常规智能电话通常包括用于与在所述智能电话上执行的OS和各种应用进行交互的触摸屏。不管设备实现的接口类型如何,所述设备的用户都必须学习如何与设备接口进行交互以便操作那个设备。由于典型的个人日常与之进行交互的设备的数量过多,所以通常需要大量的学习。
为了简化所需的学习,许多设备实现了语音控制功能以试图提供用于设备控制的更直观且更自然的接口。在具有语音控制功能的情况下,给定设备的用户用言语表达命令以致使所述设备执行相关联的操作。尽管语音控制方法可以简化单个设备的操作,但是当在许多不同设备上实现时,那种方法实际上可能使设备使用复杂化。
具体地说,实现语音控制的不同类型的设备通常展示出用于与那些设备进行交互的不同命令语言。因此,需要与许多不同的支持语音设备进行交互的用户记住同等数量的不同命令集。还使可用性复杂化的是,在两个或更多个设备上的相同操作可能与稍微不同的口头命令相关联。例如,第一设备可以在用户说出“编写电子邮件”时准备电子邮件,而第二设备可以在用户说出“写电子邮件”时准备电子邮件。这些细微的区别可能使用户困惑并且降低了语音控制功能的有用性。
如前述内容说明的,语音控制功能旨在简化设备的操作。然而,因为不同设备以不同方式、即通过不同的口头命令集来实现语音控制,所以语音控制实际上可能降低设备的可用性。在用户与许多不同设备进行交互的情况下,用户可能记不住与所有那些不同设备进行交互所需的所有唯一的命令集。因此,可能限制那些设备的有用性。
发明内容
所阐述的一个或多个实施方案包括一种存储程序指令的非暂时性计算机可读介质,所述程序指令在由处理单元执行时致使所述处理单元通过执行以下步骤而将言语表达翻译成用于一个或多个设备的命令:处理第一言语表达以识别能够发起与所述第一言语表达相关联的第一操作的第一设备;翻译所述第一言语表达以生成对应于所述第一操作的第一命令,其中所述第一命令被包括在与所述第一设备相关联的第一命令集中;以及通过无线连接将所述第一命令传输至所述第一设备以致使所述第一设备发起所述第一操作。
本文中所描述的方法的至少一个优点是,用户只需要记住来自通用命令语言的命令以便与任何数量的不同设备进行交互。因此,不需要用户记住用于每个不同的支持语音设备的不同命令语言。
附图简要说明
为了可以详细地理解阐述所述一个或多个实施方案的所陈述特征的方式,可以参考某些特定实施方案来提供对以上简要概述的一个或多个实施方案的更具体描述,所述特定实施方案中的一些在附图中示出。然而,应当指出的是,附图仅示出典型的实施方案,并且因此不应被视为以任何方式限制本发明的范围,因为本发明的范围也包括其他实施方案。
图1示出根据各种实施方案的被配置来控制一个或多个链接设备的通用设备控制器;
图2A更详细地示出根据各种实施方案的图1的通用设备控制器;
图2B示出根据各种实施方案的口头命令到特定于图1中所示链接设备的命令的示例性映射;
图3A-3C示出根据各种实施方案的示例性使用案例,其中图1的通用设备控制器代表用户向链接设备发出命令;
图4A-4D示出根据各种实施方案的示例性使用案例,其中图1的通用设备控制器在链接设备之间消除歧义以便将命令路由至适当的链接设备;
图5A-5C示出根据各种实施方案的示例性使用案例,其中图1的通用设备控制器基于用户偏好将命令路由至链接设备;
图6A-6H示出根据各种实施方案的示例性使用案例,其中图1的通用设备控制器将不同类型的数据传输至链接设备以发起设备操作;
图7是根据各种实施方案的用于初始化和配置图1的通用设备控制器的方法步骤的流程图;并且
图8是根据各种实施方案的用于基于从图1的通用设备控制器的用户接收到的语音命令而向链接设备发出命令的方法步骤的流程图。
具体实施方式
在以下描述中,阐述了许多具体细节以提供对某些特定实施方案的更透彻理解。然而,对于本领域的技术人员来说将明显的是,可以在不具有这些具体细节中的一个或多个或具有另外的具体细节的情况下实践其他实施方案。
系统综述
图1示出根据各种实施方案的被配置来控制一个或多个链接设备的通用设备控制器100。如图所示,通用设备控制器100可以是可由用户110佩戴或携带的可佩带设备。在替代的实施方案中,通用设备控制器100的功能可以并入到蓝牙耳机或其他类似耳机中。通用设备控制器100通过无线链路122耦接到智能电话120,通过无线链路132耦接到计算机130,通过无线链路142耦接到车辆140,并且通过无线链路152耦接到恒温器150。上述设备在本文中被统称为无线设备160。在实践中,通用设备控制器100可以与除智能电话120、计算机130、车辆140和恒温器150之外的广泛多种不同无线设备建立通信链路。图1中所示的特定无线设备160仅出于示例性目的示出并且不意图进行限制。无线链路122、132、142和152中的每一个可以是任何技术上可行的无线通信链路,包括但不限于WiFiTM链路、蓝牙连接或一般射频(RF)连接。
在操作中,通用设备控制器100充当用于控制耦接到其上的各种无线设备160的代理机构。用户110可以通过向通用设备控制器100表达言语命令来指导那些无线设备160中的任一个执行特定操作。例如,并且非限制性地,用户100可以用言语表达命令“关闭膝上型计算机”以便致使通用设备控制器100向膝上型计算机130发出断电命令。在另一个示例中,用户100可以用言语表达命令“设定加热到75度”以便致使通用设备控制器100向恒温器150发出气候改变命令,而无限制。图3A-6更详细地讨论了各种示例性使用案例的情境,其中出于控制无线设备160中的一个或多个的目的,用户110可以与通用设备控制器100进行交互。在概念上,通用设备控制器100充当用户110与那些不同无线设备160之间的中介。
通用设备控制器100被配置来实现“统一命令语言”,其包括可由通用设备控制器100辨识的命令集。统一命令语言在本文中更详细地进行描述并且以下还结合图2A-2B进行描述。统一命令语言中的命令可对应于仅一个特定设备可以执行的操作。例如,并且非限制性地,统一命令语言中的命令“启动引擎”将仅对应于启动车辆140的引擎的操作。或者,统一命令语言中的命令可对应于多于一个无线设备160能够执行的类似操作。例如,并且非限制性地,统一命令语言中的命令“编写电子邮件”可对应于使用智能电话120或计算机130编写电子邮件。通用设备控制器100被配置来使用以下结合图4A-4D更详细地描述的不同技术在能够执行相同操作的多个设备之间消除歧义。
当用户110用言语表达统一命令语言中的命令时,通用设备控制器100接收那个命令并且将所述命令映射成统一命令语言,并且随后识别耦接到其上的各种无线设备160中的能够执行对应于所述命令的操作的特定设备。通用设备控制器100随后获得与所识别的设备相关联的应用编程接口(API),并且使用那个API将所述命令从统一命令语言翻译成所识别的设备能够执行的设备特定命令。通用设备控制器100随后向所识别的设备发出该设备特定命令以致使那个设备执行相关联的操作。
在一个实施方案中,通用设备控制器100响应于来自用户110的除明确命令之外的广泛多种言语表达。例如,并且非限制性地,用户110可以简单地表达当前状态,诸如“我很冷”,并且通用设备控制器100随后将采取行动来改善那个当前状态,诸如通过与恒温器150进行交互来增加温度。在另一个示例中,非限制性地,通用设备控制器100可以分析用户110的语音的性质,诸如语音的音调或讲话的速度,并且随后基于那些性质来估计用户的心情。随后,通用设备控制器110可以致使无线多媒体设备(未示出)播放与那种心情相关联或补偿那种心情的音乐。一般来说,通用设备控制器100可以作用来通过响应于所检测或估计的用户110的当前状态发起特定动作来改善用户110的日常体验。在此过程中,通用设备控制器可以识别用于采取能够影响用户110的所识别的当前状态的特定动作的设备。
以这种方式,用户110只需要向通用设备控制器100说出命令或表达当前状态以便致使无线设备160中的任一个执行操作。这种方法可以简化那些无线设备160的使用并且改善与那些设备进行交互的用户体验。通用设备控制器100可以硬件和软件的任何技术上可行的组合来实现,尽管以下结合图2A更详细地描述了一个示例性实现方式。
图2A更详细地示出根据各种实施方案的通用设备控制器100。如图所示,通用设备控制器100包括耦接在一起的处理单元200、输入/输出(I/O)设备210、音频转换器220、无线收发器230和存储器单元240。存储器单元240包括包含以上所提及的统一命令语言244的软件应用242。存储器单元240还包括一组设备应用编程接口(API)246。
处理单元200可以是被配置来处理数据并执行软件应用的任何技术上可行的单元,包括但不限于例如中央处理单元(CPU)或专用集成电路(ASIC)。I/O设备210包括被配置来接收输入的设备(例如但不限于,一组按钮)、被配置来递送输出的设备(例如但不限于,显示屏)以及能够接收输入并且递送输出的设备(例如但不限于,通用串行总线(USB)端口)。
音频转换器220可以是被配置来接收并转换音频信号的任何技术上可行类型的设备。音频转换器220被配置来检测来自用户110的言语表达并且转换那些言语表达至处理单元200进行处理,如以下更详细的描述。非限制性地,所述言语表达可以是例如,除其他类型的话语之外,由用户表达的口头命令或一般感情。无线收发器230可以是被配置来与无线设备160建立无线通信链路的任何技术上可行的设备,包括但不限于WiFiTM收发器、蓝牙收发器、RF收发器等。无线收发器被配置来建立图1中所示的无线链路122、132、142和152。
存储器单元240可以是被配置来存储数据和程序代码的任何技术上可行的单元,包括但不限于例如随机存取存储器(RAM)模块或硬盘。存储器单元240内的软件应用242可以由处理单元200执行以便处理如上所提及的来自用户110的言语表达。在此过程中,软件应用242可以实现广泛多种不同话音识别算法以分析和解析与那些言语表达相关联的频率和幅度数据。软件应用242被配置来随后将言语表达映射成统一命令语言244。
如以上结合图1所提及的,统一命令语言244指定用户100可以用言语表达的口头命令集以便致使设备160中的一个或多个执行对应动作。当软件应用242处理口头命令时,软件应用242被配置来识别统一命令语言244内的对应于那个口头命令的特定命令。此外,统一命令语言244中的给定命令不需要与设备160中的仅一个相关联;应用242被配置来使用以下结合图4A-4D更详细地描述的各种技术识别用于执行与每个命令相关联的操作的最相关设备。
一旦软件应用244识别出用于执行与所述口头命令相关联的操作的特定设备,软件应用242随后就从API246中检索与所识别的设备相关联的API。与给定设备相关联的API包括,除其他之外,给定设备能够执行的设备特定命令集。基于与所识别的设备相关联的API,软件应用242将所述命令从统一命令语言翻译成设备特定命令,并且随后致使无线收发器230向所识别的设备发出设备特定命令。以下结合图2B更详细地描述以上讨论的命令处理和翻译方法。
图2B示出根据各种实施方案的口头命令到特定于图1中所示链接设备的命令的示例性映射。通用设备控制器100被配置来执行图2B中所示的映射过程,并且在此过程中可以处理或依赖于那个图中所示的任何数据。如图所示,通用设备控制器100被配置来将口头命令250映射到统一命令语言244中的命令244-0。统一命令语言244包括命令244-0至244-M,所述命令244-0至244-M同样反映可由通用设备控制器100辨识的口头命令集。命令244-0至244-M中的每一个指定能够执行与各自命令相关联的操作的设备260,其中设备260包括图1中所示的无线设备160的子集。
具体地说,命令244-0指定设备260-0能够执行与命令244-0相关联的操作,命令244-1指定设备260-1能够执行与命令244-1相关联的操作,并且命令244-M指定设备260-M能够执行与命令244-M相关联的操作。例如,并且非限制性地,命令244可以与“启动引擎”操作相关联,并且因此那个命令内的设备260将指定车辆140。在另一个示例中,并且非限制性地,命令244可以与“编写电子邮件”操作相关联,并且因此那个命令内的设备260将指定智能电话120和计算机130。
一旦通用设备控制器100已将口头命令250映射到命令244-0,通用设备控制器100就检索命令244-0内所指定的设备260-0并且随后从设备260-0内识别用于执行相关操作的具体设备。通用设备控制器100可以基于口头命令250来识别所述具体设备,或执行以上所提及的并且以下结合图4A-4D所讨论的消除歧义过程。一旦已从设备260-0内识别出特定无线设备160,通用设备控制器100随后就检索对应于那个设备的设备API246-0。
通用设备控制器100通常包括等于被配置成耦接到其上的无线设备160的数量的多个设备API246。然而,在一些情况下,通用设备控制器100可能缺乏用于具体无线设备的特定设备API。在那些情况下,通用设备控制器100被配置来,除其他可能性之外,例如但不限于通过从互联网下载相关设备API而获得相关设备API。每个设备API246包括反映能够由相关联的无线设备执行的命令的设备特定命令集270。具体地说,设备API246-0包括可由与设备API246-0相关联的无线设备执行的设备特定命令270-0,设备API246-1包括可由与设备API246-1相关联的无线设备执行的设备特定命令270-1,并且设备API246-N包括可由与设备API246-N相关联的无线设备执行的设备特定命令270-N。
在检索设备API246-0时,通用设备控制器100随后解析设备特定命令270-0以识别对应于命令244-0的具体设备特定命令。通用设备控制器100随后将所识别的设备特定命令传输至相关联的无线设备。在一些情况下,通用设备控制器100还可以基于口头命令250来配置设备特定命令。例如,并且非限制性地,口头命令250可以是“喂,计算机,编写给Mark的电子邮件”,在这种情况下,通用设备控制器100将利用被配置用于与“Mark”相关联的地址的接收人字段来配置与计算机130相关联的“编写电子邮件”设备特定命令270。在另一个示例中,并且非限制性地,口头命令250可以是“设定温度到75度”,在这种情况下,通用设备控制器100将利用被配置用于“75度”的“温度”字段来配置与恒温器150相关联的“温度设定”设备特定命令270。
在一些实施方案中,通用设备控制器100响应于从用户110接收到的除明确命令之外的言语表达,包括如以上结合图1所提及的当前状态的表达。在那些实施方案中,通用设备控制器100被配置来通过确定可能影响该当前状态的操作并且随后识别统一命令语言244中的对应命令而将当前状态的言语表达映射成统一命令语言244。例如,并且非限制性地,如果用户表达由口头命令250反映的当前状态“我很冷”,那么通用设备控制器100可以确定温度改变操作将影响那个具体的当前状态。随后,通用设备控制器100可以识别统一命令语言244内与温度改变相关联的命令。通过解析与那个命令相关联的设备260,通用设备控制器100将确定车辆140或恒温器150均能够执行温度改变操作。通用设备控制器100随后将使用本文中所讨论的任一歧义消除技术在那两个设备之间进行选择,识别用于所选择设备的设备特定命令270,并且向所选择设备发出那个设备特定命令270,从而影响由用户110表达的当前状态。
本领域的技术人员将理解,图2A中所示的通用设备控制器100的特定实现方式和图2B中所示的示例性映射过程仅提供用于示例性目的,并且不意图限制本发明的范围。在实践中,通用设备控制器100可以硬件和软件的广泛多种不同组合来实现。例如,非限制性地,通用设备控制器100可以通过被配置来执行上述功能的集成电路来实现。在另一个示例中,非限制性地,通用设备控制器100可以通过被配置来执行那种功能的片上系统来实现。一般来说,被配置来执行本文所述的通用设备控制器100的功能的任何设备均落在本发明的范围内。类似地,通用设备控制器100可以被配置来执行,除图2B中所示的示例性过程之外,用于将口头命令翻译成设备特定命令的任何技术上可行的方法。
在一些实施方案中,由用户110说出的并且与统一命令语言244相关联的人类语言可不同于支持语音无线设备160依赖的语言。在此类情况下,通用设备控制器100被配置来将从用户110接收到的口头命令翻译成支持语音无线设备160辨识的API调用或被翻译成无线设备160依赖的语言的语音命令。以这种方式,通用设备控制器100可以在与统一命令语言244相关联的人类语言下无缝地集成控制被配置用于许多不同人类语言的无线设备。
示出通用设备控制器的操作的示例性使用案例
图3A-3C示出根据各种实施方案的示例性使用案例,其中图1的通用设备控制器代表用户向链接设备发出命令。如图3A中所示,用户110向通用设备控制器100说出命令320,即“喂,电话,呼叫Mark”。通用设备控制器100接收命令320并且执行话音处理以将命令320映射成图2A中所示的统一命令语言244。通用设备控制器100随后识别能够执行对应于统一命令语言中的命令的操作的具体无线设备。在此过程中,通用设备控制器100可以确定用户110已明确地指示智能电话120应当执行所述操作,因为用户110已说出关键短语“喂,电话”。通用设备控制器100随后基于与智能电话120相关联的API将统一命令语言中的命令翻译成可由智能电话120执行的设备特定命令322。通用设备控制器100随后向智能电话120发出设备特定命令322以致使智能电话120呼叫Mark。
如图3B中所示,用户110向通用设备控制器100说出命令330,即“喂,计算机,编写给Mark的电子邮件”。通用设备控制器100接收命令330并且类似于以上所述,执行话音处理以将命令330映射成图2A-2B中所示的统一命令语言244。因为用户110已说出关键短语“喂,计算机”,所以通用设备控制器100将计算机130识别为能够执行期望操作。通用设备控制器100随后可以使用与计算机130相关联的API来将统一命令语言中的命令翻译成可由计算机130执行的设备特定命令332。通用设备控制器100随后向计算机130发出设备特定命令332以致使计算机130编写给Mark的电子邮件。
一般参照图3A-3B,通用设备控制器100被配置来辨识除特定无线设备160的名称(例如,“电话”、“计算机”、“车辆”等)之外的关键短语“喂”以便将命令路由至那些不同设备。本领域的技术人员将认识到,单词“喂”是非实质性的,并且可以改变或省略。一般来说,通用设备控制器100可以接收能够执行期望操作的无线设备160的特定指示,并且随后将命令路由至那个设备。通用设备控制器100还可以实现用于正确地路由命令的其他技术,包括如以下结合图3C所描述的自动确定最相关的设备、以及如以下结合图4A-4D更详细地描述的与用户110或无线设备160进行交互以确定适当的命令路由。
如图3C中所示,用户110向通用设备控制器100说出命令340,即“启动引擎”。通用设备控制器100接收命令340并且执行话音处理以将命令340映射成图2A-2B中所示的统一命令语言244。通用设备控制器100随后识别能够执行对应于统一命令语言中的命令的操作的具体设备。因为仅车辆140包括引擎,所以通用设备控制器100被配置来辨别命令340指示仅车辆140能够执行的操作。因此,通用设备控制器100基于与车辆140相关联的API将统一命令语言中的命令翻译成可由车辆140执行的设备特定命令342。通用设备控制器100随后向车辆140发出设备特定命令342以致使车辆140启动引擎。
图4A-4D示出根据各种实施方案的示例性使用案例,其中图1的通用设备控制器在链接设备之间消除歧义以便向适当的链接设备路由命令。如图4A中所示,用户110向通用设备控制器100说出命令400,即“增加温度”。通用设备控制器100接收命令320并且执行话音处理以将命令320映射成图2A-2B中所示的统一命令语言244。通用设备控制器100随后确定车辆140和恒温器150两者能够增加温度,并且试图在那两个设备之间消除歧义使得能够致使适当的设备增加温度。
具体地说,如图4B中所示,通用设备控制器100生成询问用户110的消息410,即两个可能设备中的哪一个应当增加温度。具体地说,消息410询问:“您想要增加车辆中的温度还是房屋中的温度?”
如图4C中所示,用户110利用响应420、即“增加房屋温度”做出响应。通用设备控制器100处理响应420并且确定恒温器150应当执行对应于命令400的动作。通用设备控制器100随后基于与恒温器150相关联的API将统一命令语言中的命令翻译成可由恒温器150执行的设备特定命令352。通用设备控制器100随后向恒温器150发出设备特定命令452以致使恒温器150增加房屋中的温度。用户110还可以向通用设备控制器100指示两个可能设备均应当增加温度。一般来说,用户110可以指定能够执行给定操作的任一无线设备160或无线设备集合应当执行那个操作,包括所有此类有能力的设备。出于命令路由的目的,通用设备控制器100还可以在无线设备160之间自动消除歧义,如以下结合图4D所述。
如图4D中所示,用户110占据车辆140,所述车辆140包括无线收发器440。当用户110说出图4A中所示的命令400时,通用设备控制器100确定用户110距离车辆140比距离驻留在房屋450内的恒温器150更近。通用设备控制器100因此确定命令400对应于应当由车辆140执行的气候改变操作。通用设备控制器100随后基于与车辆140相关联的API将统一命令语言中的命令翻译成可由车辆140执行的设备特定命令454。通用设备控制器100随后向车辆140内的无线收发器440发出设备特定命令454以致使车辆140增加那个车辆的客舱中的温度。
一般参照图4A-4D,本领域的技术人员将理解,由通用设备控制器100实现的用于在能够执行期望操作的多个设备之间消除歧义的技术仅呈现用于示例性目的。通用设备控制器100可以实现除结合这些图所讨论的那些之外的其他技术。例如,并且非限制性地,通用设备控制器100可以基于近来每个设备使用如何或设备使用频率而在能够执行期望操作的两个设备之间进行选择。通用设备控制器100还可以基于由用户110配置的用户偏好而在设备之间消除歧义。例如,并且非限制性地,只要有可能,用户110就可以将通用设备控制器100配置成优先通过计算机130而非智能电话120来编写电子邮件。其他路由标准可包括但不限于,利用一个设备相对于另一个设备执行操作的成本值(例如但不限于,通过WiFiTM相对于蜂窝网络发送电子邮件的成本)、一个设备相对于另一个设备的性能(例如但不限于,通过智能电话120相对于计算机130发送电子邮件所需的带宽)。
另外,通用设备控制器100可以基于各种标准在由一个或多个设备执行的类似操作之间进行选择。例如,通用设备控制器100可以基于(并不限于)成本、性能、所估计的在接收人读取消息之前的时间等而在通过电子邮件或通过文本消息向接收人发送消息之间进行选择。当不同无线设备160是以主从式配置彼此无线地耦接时,如以下结合图5A-5C更详细地描述,通用设备控制器100还可以根据用户偏好来执行命令路由操作。
图5A-5C示出根据各种实施方案的示例性使用案例,其中图1的通用设备控制器基于用户偏好向链接设备路由命令。如图5A中所示,还如图1中所示,通用设备控制器100通过无线链路122和152耦接至智能电话120和恒温器150。另外,智能电话120通过通信链路500耦接至恒温器150。在这个配置中,智能电话120可以远程地执行用于管理恒温器150的应用,从而允许用户110通过与恒温器管理应用进行交互而不是物理地调整恒温器150本身来改变气候设置。本领域的技术人员将认识到,在图5A中所示的配置中,智能电话120充当主设备而恒温器150充当从设备。
当通用设备控制器100以这种方式耦接至智能电话120和恒温器150两者时,用户110可以通过用言语表达统一命令语言中的命令来致使任一设备发起气候改变。例如,并且非限制性地,通用设备控制器100可以通过先前讨论的方式将所述命令映射到与智能电话120相关联的设备特定命令,并且随后向智能电话120发出该设备特定命令。在智能电话120上执行的恒温器管理应用随后可致使恒温器150执行所指示的气候改变。或者,非限制性地,通用设备控制器100可以将所述命令映射到与恒温器150相关联的设备特定命令并且随后直接向恒温器150发出该设备特定命令。通用设备控制器100被配置来通过经由以下讨论的方式与用户110进行交互而在以上提及的两个选项之间进行选择。
在图5A中,当用户110说出命令510、即“降低温度”时,通用设备控制器100确定智能电话120或恒温器150中的任一个能够致使相关联的操作被执行。随后,如图5B中所示,通用设备控制器100生成询问用户110的消息520,即“直接发出命令还是通过智能电话发出命令?”在图5C中,用户110利用响应530、即“直接”做出响应,从而向通用设备控制器100指示应当直接向恒温器150发出与恒温器150相关联的设备特定命令552。
一般参照图5A-5C,通用设备控制器100被配置来学习用户110的路由偏好。在那些图中所讨论的示例中,通用设备控制器100可以记录用户110偏好直接向恒温器150路由而不是通过智能电话120路由气候改变命令。本领域的技术人员将认识到,以上所述的技术可适用于命令路由可能有歧义的广泛多种不同的使用案例,并且那些图中所示的特定使用案例仅提供用于示例性目的。通用设备控制器100还被配置来,除其他之外,根据无线设备160的能力来向那些设备发出不同类型的命令,如以下结合图6A-6H更详细地描述的。
图6A-6H示出根据各种实施方案的示例性使用案例,其中图1的通用设备控制器将不同类型的数据传输至链接设备以发起设备操作。
如图6中所示,通用设备控制器100将激活信号620传输至智能电话120,将所记录的音频样本630传输至计算机130,将流式数据640-0和640-1传输至车辆140,并且将设备特定命令650传输至恒温器150。在图6A中所示的示例性情境中,智能电话120、计算机130和恒温器150中的每一个具有不同的接收和解释来自用户110的语音命令的能力,并且通用设备控制器100根据那些不同能力选择性地将不同类型的数据传输至那些设备。
具体地说,智能电话120能够接收来自用户110的语音命令并且将其解释为特定于智能电话120的命令。因此,代替通用设备控制器100接收和解释来自用户110的命令并且随后以结合图1-5C所讨论的方式将设备特定命令传输至智能电话120,当用户110用言语表达旨在用于智能电话120的命令时,通用设备控制器100只需要将激活信号620传输至智能电话120。一旦激活,智能电话120随后就可以简单地使用包括在那个智能电话中的语音控制功能来接收和解释那个命令(即,直接使用智能电话的内置麦克风和内置话音辨识功能来解释来自用户110的口头命令),并且发起对应的动作。以下结合图6B更详细地描述这种特定技术。
计算机130也可以通过与以上讨论的智能电话120类似的方式包括语音控制功能。然而,通用设备控制器100可能不能够具有足够的时间激活计算机130来接收和解释来自用户110的语音命令。替代地,通用设备控制器100记录反映从用户110接收到的语音命令的音频样本630,并且随后将那个音频样本630转发至计算机120(即,无需执行任何话音处理)。计算机120随后可以接收音频样本630并且执行话音处理以识别特定于计算机120的命令,并且随后发起对应于那个设备特定命令的动作。以下结合图6C更详细地描述这种特定技术。
车辆140可以配备有不同水平的语音控制功能,并且可能够接收表示与待执行的操作相关联的命令的流式数据,诸如流式数据640-0和640-1。流式数据640可以包括所接收的语音命令、压缩数据以及出于流式传输目的可以解析成个别数据包的其他信息。以下结合图6D-6G更详细地描述这种特定技术。
无论如何,恒温器150可以不包括语音控制功能或任何话音处理能力,并且因此通用设备控制器100可以简单地接收来自用户110的语音命令,使用与恒温器150相关联的API将那个命令从统一命令语言翻译成设备特定命令650,并且以先前描述的方式向恒温器150发出设备特定命令650。以下结合图6H更详细地描述这种特定技术。
在操作中,通用设备控制器100可以依赖于上述技术中的任一种,并且因此可以将激活信号、音频样本、流式数据和设备特定命令中的任一个传输至无线设备160中的任一个。在一个实施方案中,通用设备控制器100在发现过程期间确定每个无线设备160的能力,并且随后确定用于控制每个此类设备的特定方法。给定的方法可依赖于传输激活信号、语音模式或设备特定命令。在另一个实施方案中,通用设备控制器100可以被配置成基于来自用户110的反馈而依赖于任何此类方法。例如,并且非限制性地,通用设备控制器100可以生成关于在与给定设备进行交互时使用哪种方法的询问,并且随后接收来自用户110的指示偏好方法的响应。通用设备控制器100随后可以存储那个用户偏好以用于未来与给定设备的交互。以下还结合图6B-6H更详细地描述以上简要描述的不同技术。
在图6B中,用户110用言语表达触发信号612、即“喂,电话”和命令614、即“发短信告诉Mark我将会迟到”。通用设备控制器100接收触发信号612并且确定智能电话120能够通过语音控制功能解释口头命令,随后向智能电话120发出激活信号620。当接收到激活信号620时,智能电话120激活接收命令614的麦克风。智能电话614随后使用话音处理技术处理命令614,并且执行与那个命令相关联的动作。在图6B中所示的示例中,智能电话120生成针对接收人“Mark”的指示用户110将迟到的文本消息。
在图6C中,用户110用言语表达触发信号622、即“喂,计算机”和命令624、即“给Mark发电子邮件,我将会迟到”。通用设备控制器100接收触发信号622并且确定计算机130应当执行随后接收的命令。当接收到命令624时,通用设备控制器100记录与那个命令相关联的音频样本630,并且随后通过无线连接132将音频样本630传输至计算机130。计算机130接收音频样本630,并且随后使用话音处理技术处理那个样本以识别相关联的动作。具体地说,计算机130确定应当准备写给“Mark”的内容指示用户110将迟到的电子邮件。
在图6D中,用户110用言语表达触发信号622、即“喂,计算机”和命令624、即“给Mark发电子邮件,我将会迟到”,类似于图6C。通用设备控制器100在时间T0处接收激活信号622并且确定计算机130应当执行随后接收的命令。当在后续时间T1处接收到命令624时,通用设备控制器100发起包括命令624的数据流624(S)并且在时间T1处(或在时间T1之后不久)通过无线连接132将那个数据流式传输至计算机130。计算机130接收数据流624(S)。随后,使用话音处理技术,计算机130识别与命令624相关联的动作。具体地说,计算机130确定应当准备写给“Mark”的内容指示用户110将迟到的电子邮件。
在图6E中,用户110用言语表达命令,即“给Mark发电子邮件,我将会迟到”,所述命令可以被解析为两个部分,即部分626、“发电子邮件”和部分628、“Mark,我将会迟到”。虽然用户110未明确指示用于执行与所述命令相关联的动作的具体设备,但通用设备控制器100基于部分626(“发电子邮件”)而推断出计算机130应当执行那个动作。通用设备控制器100随后可以利用后续的流式数据(例如通过使用设备API246对计算机130的API调用)向计算机120发出用于准备电子邮件的设备特定命令(未示出)。当接收到部分628时,通用设备控制器100发起反映部分628的数据流628(S)并且通过无线连接132将那个数据流式传输至计算机130。计算机130接收数据流628(S),应用话音辨识过程,并且使用部分628的内容编写电子邮件并且将那个电子邮件传输给收件人(“Mark”)。
在图6F中,类似于图6E,用户110用言语表达命令“给Mark发电子邮件,我将会迟到”,所述命令可以被解析为两个部分,即部分626“发电子邮件”和部分628“Mark,我将会迟到”。通用设备控制器100在时间T0处接收部分626,并且在时间T1处接收部分628。通用设备控制器100基于部分626(“发电子邮件”)而推断出计算机130应当执行相关联的动作。当接收到部分628时,通用设备控制器100在时间T1处发起包括部分626和628两者的数据流632(S)。通用设备控制器100随后在时间T1处通过无线连接132将那个数据流式传输至计算机130。流式传输在具有时间延迟的情况下完成,所述时间延迟是由于首先需要解析部分626并且确定计算机130应当执行相关联的动作。由于这个时间延迟,部分628通过通用设备控制器上的FIFO(先进先出)缓冲器来路由。计算机130接收数据流632(S)并且使用话音处理技术来确定应当准备写给“Mark”的内容指示用户110将迟到的电子邮件。
在图6G中,类似于图6E-6F,用户110用言语表达命令“给Mark发电子邮件,我将会迟到”。然而,在图6G中,那个命令可以被解析成三个部分,即部分626“发电子邮件”、部分634“Mark”和部分636“我将会迟到”。通用设备控制器100在时间T0处接收部分626,在时间T1处接收部分634,并且在时间T2处接收部分636。通用设备控制器100基于部分626(“发电子邮件”)而推断出计算机130应当执行相关联的动作。当在时间T1处接收到部分634时,通用设备控制器100发起包括部分626和634两者的时间上压缩的数据流638(CS)。通用设备控制器100随后在时间T1处(或之后不久)通过无线连接132将那个数据流式传输至计算机130。
因为时间上压缩的数据流部分638(CS)显著短于并置的部分626和634,所以可以在时间T1与时间T2之间流式传输与部分626和634两者相关联的所有数据。换句话说,时间上压缩的数据流部分638(CS)(“给Mark发电子邮件”)可具有与单独的原始部分634(“Mark”)近似相同的持续时间。通用设备控制器100随后生成反映部分636的数据流部分642(S),并且在时间T2处通过无线连接132将那个数据流式传输至计算机130,从而在时间T2处变得与原始命令同步(赶上)并且补偿用于识别哪个无线设备160应当执行与命令相关联的动作所需的时间。计算机130接收时间上压缩的流式数据638(CS)并且此后立即接收未压缩的数据流642(S)。使用话音处理技术,计算机130确定应当准备写给“Mark”的内容指示用户110将迟到的电子邮件。由于部分626和634的时间压缩,用户说出其最后一个单词(“……迟到”)以及计算机接收这最后一个单词(“……迟到”)在时间上将重合(不考虑由于无线数据传输造成的极小延迟)。
在图6H中,用户110用言语表达触发信号644、即“喂,恒温器”和命令646、即“将温度设定到75度”。在接收到触发信号644时,通用设备控制器100确定恒温器150缺乏语音控制功能并且应当通过API调用进行控制。通用设备控制器100随后接收命令646,并且通过实现以上结合图2B所描述的方法将那个命令映射到设备特定命令620。通用设备控制器100随后通过无线链路152向恒温器150发出那个命令,从而致使恒温器150被设定到75度。
本领域的技术人员将理解,以上结合图6A-6H所描述的示例性使用案例的情境仅出于示例性目的提供用于示出通用设备控制器100可实现来控制无线链接设备的不同技术。此外,虽然参照特定的命令、设备和操作呈现,但以上讨论的示例并不意图将本发明的范围限于那些具体情况。
一般参照图1-6H,通用设备控制器100被配置来通过充当用于那些设备的中介或代理而管理耦接到其上的无线设备160。通过实现目前为止所描述的功能,通用设备控制器100可以改善无线设备100的可用性以及与那些设备相关的用户体验。以上结合图1-6所描述的技术还在下文结合图7-8以分步方式进行描述。
由通用设备控制器实现的示例性算法
图7是根据各种实施方案的用于初始化和配置图1的通用设备控制器的方法步骤的流程图。虽然所述方法步骤结合图1-6的系统进行描述,但本领域的技术人员将理解,被配置来以任何次序执行所述方法步骤的任何系统均在本发明的范围内。
如图所示,方法700开始于步骤702,在所述步骤702处通用设备控制器100发现附近的无线设备。通用设备控制器100可以执行任何技术上可行形式的设备发现过程,包括但不限于,定位WiFiTM访问点并且随后识别耦接到其上的其他设备、与附近的蓝牙设备直接进行交互、或使用RF信号执行与无线设备的一般信号交换。在步骤702处执行设备发现过程中,通用设备控制器100被配置来从每个所发现的设备获得反映(除其他之外)设备能力的设备信息。所述能力可以包括,例如但不限于,优选的无线连接协议(例如但不限于,WiFiTM、蓝牙)、语音控制功能的水平等。其他设备信息可以包括,例如但不限于,设备位置、设备电池水平等。
在步骤704处,通用设备控制器100与所发现的设备中的一个或多个配对。在此过程中,通用设备控制器100可以依赖于任何相关协议。另外,通用设备控制器100可以与依赖于不同协议的不同设备配对。
在步骤706处,通用设备控制器100识别用于将语音命令翻译成特定于所配对设备的命令的设备API。设备API可以是,例如但不限于,图2A-2B中所示的设备API246。一般来说,设备API允许通用设备控制器100将统一命令语言244(也在图2A-2B中示出)中的命令翻译成特定于给定设备的命令。
在步骤708处,通用设备控制器100根据需要为所配对设备配置命令路由偏好。在此过程中,通用设备控制器100可以与用户110进行交互以便通过以上结合图4A-4D所讨论的方式,在能够执行与由用户110用言语表达的命令相关联的操作的多个设备之间消除歧义。或者,通用设备控制器100可以确定,应当通过以上结合图5A-5C所讨论的方式经由主设备路由命令还是直接向从设备发出命令。一般来说,通用设备控制器可以通过持续的方式、即在通用设备控制器100的正常操作期间执行步骤708,以便连续地学习用户110的偏好。以下讨论的图8以分步的方式描述了通用设备控制器100的正常操作。
图8是根据各种实施方案的用于基于从图1的通用设备控制器的用户接收到的语音命令而向链接设备发出命令的方法步骤的流程图。虽然所述方法步骤结合图1-6的系统进行描述,但本领域的技术人员将理解,被配置来以任何次序执行所述方法步骤的任何系统均在本发明的范围内。
如图所示,方法800开始于步骤802,在所述步骤802处通用设备控制器100接收来自用户110的语音命令。所述语音命令可以是由图2A-2B中所示的统一命令语言244指定的。在一个实施方案中,通用设备控制器100还可以在步骤802处接收与用户110相关联的当前状态的表达。
在步骤804处,通用设备控制器100处理在步骤802处接收的语音命令,以识别图2A-2B的统一命令语言244中的对应命令。通用设备控制器100可以依赖于任何技术上可行形式的话音处理,以便将所记录的与所述语音命令相关联的音频模式映射到统一命令语言244内的命令。在通用设备控制器100在步骤802处接收当前状态的表达的实施方案中,通用设备控制器100可以被配置来将那个表达映射到统一命令语言244中的命令。
在步骤806处,通用设备控制器100识别无线设备160中的应当向其发出对应于统一命令语言中的命令的设备特定命令的一个无线设备160。在此过程中,通用设备控制器100可以确定在步骤802处所接收的语音命令明确指示具体无线设备,如以上结合图3A-3C所描述的。另外,通用设备控制器100还可以通过与用户110进行交互来识别具体无线设备,如以上结合图4A-4C所描述的。此外,通用设备控制器100可以自动在不同设备之间消除歧义,以便确定应当向其发出命令的一个无线设备,如以上结合图4D所描述的。
在步骤808处,通用设备控制器100获得用于在步骤806处所识别的无线设备的设备API。设备API可以是例如图2A-2B中所示的设备API246中的一个。用于所识别设备的设备API包括设备特定命令集,所识别的设备可以执行所述设备特定命令集以执行由在步骤802处从用户110接收的语音命令反映的期望操作。在步骤810处,通用设备控制器100基于在步骤810处获得的设备API将统一命令语言中的命令翻译成设备特定命令。在步骤812处,通用设备控制器100向所述无线设备发出设备特定命令以致使那个设备执行期望操作。
总而言之,通用设备控制器被配置来充当用于与无线地耦接到所述通用设备控制器的多个不同设备进行交互的代理机构。当通用设备控制器的用户用言语表达来自设备所理解的统一命令语言的命令时,通用设备控制器分析用户的言语表达并且识别能够执行相关联命令的无线设备。通用设备控制器随后识别用于与所识别设备进行交互的API,并且将所述言语表达翻译成所识别设备能够执行的设备命令。通用设备控制器随后向所识别设备发出设备命令。
在一个实施方案中,通用设备控制器100被配置来通过中介设备与缺乏无线连通性的那些类型的设备进行交互。例如,并且非限制性地,通用设备控制器100可以无线地耦接到空中机器人平台(诸如无人驾驶飞机(drone)),或被配置来执行各种物理动作的任何其他类型的自主机器人实体,包括缺乏无线能力的操纵设备。无人驾驶飞机可以,例如但不限于,按压较旧微波炉上的按钮。本领域的技术人员将认识到,任何类型的机器人实体均可以无线地耦接到通用设备控制器100并且被配置来代表通用设备控制器100和用户110与任何其他类型的设备进行交互。
本文中所描述的方法的至少一个优点是,通用设备控制器的用户只需要记住来自通用命令语言的命令以便与任何数量的不同设备进行交互。因此,不要求用户记住用于每个不同的支持语音无线设备的不同命令语言。另外,通用设备控制器允许用户用言语与未实现语音控制的设备进行交互,从而扩展了适用统一命令语言的设备组。此外,适用统一命令语言的设备组可包括被编程来以用户不知道的外国语言进行操作的设备。在此类情况下,通用设备控制器将口头命令翻译成此类设备能够辨识的命令。
本发明的一个实施方案可以实现为用于与计算机系统一起使用的程序产品。所述程序产品的程序限定各实施方案的功能(包括本文所述的方法)并且可以包含在多种计算机可读存储介质上。说明性计算机可读存储介质包括但不限于:(i)信息永久地存储在其上的不可写存储介质(例如计算机内的只读存储器设备,诸如可由CD-ROM驱动器读取的压缩盘只读存储器(CD-ROM)磁盘、快闪存储器、只读存储器(ROM)芯片或任何类型的固态非易失性半导体存储器);以及(ii)可改变的信息存储在其上的可写存储介质(例如,磁盘驱动器或硬盘驱动器内的软盘或任何类型的固态随机存取半导体存储器)。
以上已参考各特定实施方案对本发明进行了描述。然而,本领域的普通技术人员将理解,在不脱离如所附权利要求书中所阐明的本发明的更广泛的精神和范围的情况下,可以对本发明做出各种修改和改变。因此,应以说明意义而非以限制性意义看待前述描述和附图。
因此,本发明的实施方案的范围在以上权利要求书中阐明。
Claims (20)
1.一种存储程序指令的非暂时性计算机可读介质,所述程序指令在由处理单元执行时致使所述处理单元通过执行以下步骤将言语表达翻译成用于一个或多个设备的命令:
处理第一言语表达以识别能够发起与所述第一言语表达相关联的第一操作的第一设备;
翻译所述第一言语表达以生成对应于所述第一操作的第一命令,其中所述第一命令被包括在与所述第一设备相关联的第一命令集中;以及
通过无线连接将所述第一命令传输至所述第一设备以致使所述第一设备发起所述第一操作。
2.如权利要求1所述的非暂时性计算机可读介质,其中所述第一言语表达包括所述第一操作的指示或所述第一设备和所述第一操作两者的指示。
3.如权利要求1所述的非暂时性计算机可读介质,其中所述第一言语表达反映特定用户的状态,并且所述处理所述第一言语表达的步骤包括确定所述第一设备能够影响所述特定用户的所述状态。
4.如权利要求1所述的非暂时性计算机可读介质,其中所述处理所述第一言语表达以识别所述多个不同设备中的所述第一设备的步骤包括:
识别包括在所述一个或多个设备中的设备子集,其中包括在所述设备子集中的每个设备均能够发起所述第一操作;以及
对所述设备子集进行过滤以识别所述第一设备。
5.如权利要求4所述的非暂时性计算机可读介质,其中对所述设备子集进行过滤包括处理第二言语表达以将所述第一设备与所述设备子集中的其他设备区分开。
6.如权利要求4所述的非暂时性计算机可读介质,其中对所述设备子集进行过滤包括将所述第一设备识别为包括在所述设备子集中的驻留得最接近所述用户的设备。
7.如权利要求1所述的非暂时性计算机可读介质,其还包括以下步骤:
执行发现过程以识别所述多个不同设备;
执行与所述第一设备的配对过程以建立与所述第一设备的所述无线连接;以及
询问所述第一设备以识别所述第一命令集,其中所述第一命令集被包括在与所述第一设备相关联的应用编程接口中。
8.如权利要求1所述的非暂时性计算机可读介质,其中所述第一设备通过执行所述第一操作或致使无线地耦接到所述第一设备的第二设备执行所述第一操作来发起所述第一操作。
9.如权利要求8所述的非暂时性计算机可读介质,其还包括记录所述第一设备通过执行所述第一操作发起所述第一动作的偏好或者所述第一设备通过致使所述第二设备执行所述第一操作发起所述第一操作的偏好。
10.一种用于将言语表达翻译成用于一个或多个设备的命令的计算机实现的方法,所述方法包括:
处理第一言语表达以识别能够发起与所述第一言语表达相关联的第一操作的第一设备;
翻译所述第一言语表达以生成对应于所述第一操作的第一命令,其中所述第一命令被包括在与所述第一设备相关联的第一命令集中;以及
通过无线连接将所述第一命令传输至所述第一设备以致使所述第一设备发起所述第一操作。
11.如权利要求10所述的计算机实现的方法,其中所述第一言语表达包括指示所述一个或多个设备中的所述第一设备的第一设备命令。
12.如权利要求10所述的计算机实现的方法,其中所述第一言语表达包括与所述一个或多个设备中的所述第一设备相关联并且与包括在所述一个或多个设备中的第二设备相关联的第一设备命令。
13.如权利要求10所述的计算机实现的方法,其中所述处理所述第一言语表达以识别所述一个或多个设备中的所述第一设备的步骤包括:
识别所述一个或多个设备中的设备子集,其中所述设备子集中的每个设备均能够执行所述第一操作;以及
在所述设备子集中的设备之间消除歧义。
14.如权利要求13所述的计算机实现的方法,其中在所述设备子集中的设备之间消除歧义包括生成用于选择包括在所述设备子集中的特定设备的提示,其中所述第一设备包括所述特定设备。
15.如权利要求13所述的计算机实现的方法,其中在所述设备子集中的设备之间消除歧义包括测量用户与所述设备子集中的每个设备之间的距离以识别所述第一设备最接近所述用户。
16.如权利要求10所述的计算机实现的方法,其还包括:
发现所述多个设备;
与所述第一设备进行配对以建立与所述第一设备的所述无线连接;以及
获得与所述第一设备相关联的反映与所述第一设备相关联的一个或多个功能的设备参数集。
17.如权利要求10所述的计算机实现的方法,其中通过所述无线连接向所述第一设备发出所述第一命令包括:
接收指示所述第一操作应当由所述第一设备管理的第二设备执行的第二言语表达;以及
致使所述第一设备响应于所述第一命令而致使所述第二设备执行所述第一操作。
18.如权利要求17所述的计算机实现的方法,其还包括记录所述第一设备在接收到命令时应当致使所述第二设备执行与所述命令相关联的操作的偏好。
19.一种被配置来将言语表达翻译成用于一组两个或更多个设备的命令的计算设备,其包括:
转换器,所述转换器被配置来转换言语表达;
处理器,所述处理器耦接到所述转换器并且被配置来:
处理由所述转换器转换的第一言语表达以识别包括在所述一组两个或更多个设备中的第一设备,并且
翻译所述第一言语表达以生成包括在与第一设备相关联的命令集中的第一命令,其中所述第一命令反映所述第一言语表达,以及
无线收发器,所述无线收发器被配置来向所述第一设备发出所述第一命令以致使所述第一设备发起与所述第一命令相关联的第一操作。
20.如权利要求19所述的计算设备,其中所述处理器被配置来处理所述第一言语表达以通过以下方式识别所述第一设备:
确定所述第一操作对应于所述第一言语表达;以及
在所述第一设备执行所述第一命令时确定所述第一设备能够执行所述第一操作。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361841242P | 2013-06-28 | 2013-06-28 | |
US61/841,242 | 2013-06-28 | ||
PCT/US2014/044521 WO2014210429A1 (en) | 2013-06-28 | 2014-06-27 | Wireless control of linked devices |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105340011A true CN105340011A (zh) | 2016-02-17 |
CN105340011B CN105340011B (zh) | 2020-08-18 |
Family
ID=52116460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480037178.1A Active CN105340011B (zh) | 2013-06-28 | 2014-06-27 | 链接设备的无线控制 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10255930B2 (zh) |
EP (1) | EP3014610B1 (zh) |
CN (1) | CN105340011B (zh) |
WO (1) | WO2014210429A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106604209A (zh) * | 2016-12-14 | 2017-04-26 | 广东欧珀移动通信有限公司 | 一种基于蓝牙协议的功能设置方法及装置 |
CN106851450A (zh) * | 2016-12-26 | 2017-06-13 | 歌尔科技有限公司 | 一种无线耳机对及电子设备 |
CN113454588A (zh) * | 2019-02-22 | 2021-09-28 | 微软技术许可有限责任公司 | 同步跨设备应用平台 |
Families Citing this family (201)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
CN113470641B (zh) | 2013-02-07 | 2023-12-15 | 苹果公司 | 数字助理的语音触发器 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
KR101772152B1 (ko) | 2013-06-09 | 2017-08-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
WO2015184186A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10761704B2 (en) * | 2014-06-16 | 2020-09-01 | Braeburn Systems Llc | Graphical highlight for programming a control |
EP2958010A1 (en) | 2014-06-20 | 2015-12-23 | Thomson Licensing | Apparatus and method for controlling the apparatus by a user |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9389831B2 (en) * | 2014-08-06 | 2016-07-12 | Toyota Jidosha Kabushiki Kaisha | Sharing speech dialog capabilities of a vehicle |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9812126B2 (en) * | 2014-11-28 | 2017-11-07 | Microsoft Technology Licensing, Llc | Device arbitration for listening devices |
US9811312B2 (en) * | 2014-12-22 | 2017-11-07 | Intel Corporation | Connected device voice command support |
US10403267B2 (en) * | 2015-01-16 | 2019-09-03 | Samsung Electronics Co., Ltd | Method and device for performing voice recognition using grammar model |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
EP3591648B1 (en) * | 2015-05-19 | 2022-07-06 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US20160352773A1 (en) * | 2015-06-01 | 2016-12-01 | Phantom Cyber Corporation | Security action verification in a computing network |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
CN106469040B (zh) * | 2015-08-19 | 2019-06-21 | 华为终端有限公司 | 通信方法、服务器及设备 |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
CN105242556A (zh) * | 2015-10-28 | 2016-01-13 | 小米科技有限责任公司 | 智能设备的语音控制方法、装置、控制设备及智能设备 |
US10095473B2 (en) * | 2015-11-03 | 2018-10-09 | Honeywell International Inc. | Intent managing system |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
KR102453603B1 (ko) | 2015-11-10 | 2022-10-12 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US10255212B2 (en) * | 2015-11-19 | 2019-04-09 | Honeywell International Inc. | Automatic master-slave system and approach |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
KR20170086814A (ko) * | 2016-01-19 | 2017-07-27 | 삼성전자주식회사 | 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법 |
US10431218B2 (en) * | 2016-02-15 | 2019-10-01 | EVA Automation, Inc. | Integration and probabilistic control of electronic devices |
US10509626B2 (en) | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10743101B2 (en) | 2016-02-22 | 2020-08-11 | Sonos, Inc. | Content mixing |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
CN116913260A (zh) * | 2016-04-01 | 2023-10-20 | 英特尔公司 | 通过对话进行设备标识 |
JP2019518985A (ja) * | 2016-05-13 | 2019-07-04 | ボーズ・コーポレーションBose Corporation | 分散したマイクロホンからの音声の処理 |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10152969B2 (en) | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US10950229B2 (en) * | 2016-08-26 | 2021-03-16 | Harman International Industries, Incorporated | Configurable speech interface for vehicle infotainment systems |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US9743204B1 (en) | 2016-09-30 | 2017-08-22 | Sonos, Inc. | Multi-orientation playback device microphones |
US20180124901A1 (en) * | 2016-10-12 | 2018-05-03 | Sampath Sripathy | Speech-activated dimmable led |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
US10459687B2 (en) * | 2017-03-28 | 2019-10-29 | Wipro Limited | Method and system for controlling an internet of things device using multi-modal gesture commands |
US10643609B1 (en) * | 2017-03-29 | 2020-05-05 | Amazon Technologies, Inc. | Selecting speech inputs |
US10902855B2 (en) * | 2017-05-08 | 2021-01-26 | Motorola Mobility Llc | Methods and devices for negotiating performance of control operations with acoustic signals |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
DK179560B1 (en) * | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10636428B2 (en) | 2017-06-29 | 2020-04-28 | Microsoft Technology Licensing, Llc | Determining a target device for voice command interaction |
US11205421B2 (en) * | 2017-07-28 | 2021-12-21 | Cerence Operating Company | Selection system and method |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
US10665234B2 (en) * | 2017-10-18 | 2020-05-26 | Motorola Mobility Llc | Detecting audio trigger phrases for a voice recognition session |
CN116705020A (zh) | 2017-12-08 | 2023-09-05 | 谷歌有限责任公司 | 使设备与环境中的多个设备隔离以响应口头助理调用 |
US10880650B2 (en) | 2017-12-10 | 2020-12-29 | Sonos, Inc. | Network microphone devices with automatic do not disturb actuation capabilities |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
US10546585B2 (en) * | 2017-12-29 | 2020-01-28 | Comcast Cable Communications, Llc | Localizing and verifying utterances by audio fingerprinting |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10984799B2 (en) | 2018-03-23 | 2021-04-20 | Amazon Technologies, Inc. | Hybrid speech interface device |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
WO2019194922A1 (en) | 2018-04-02 | 2019-10-10 | Senko Advanced Components, Inc | Hybrid ingress protected connector and adapter assembly |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10847178B2 (en) | 2018-05-18 | 2020-11-24 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US10636425B2 (en) | 2018-06-05 | 2020-04-28 | Voicify, LLC | Voice application platform |
US10235999B1 (en) | 2018-06-05 | 2019-03-19 | Voicify, LLC | Voice application platform |
US10803865B2 (en) | 2018-06-05 | 2020-10-13 | Voicify, LLC | Voice application platform |
US11437029B2 (en) | 2018-06-05 | 2022-09-06 | Voicify, LLC | Voice application platform |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
NO20181210A1 (en) * | 2018-08-31 | 2020-03-02 | Elliptic Laboratories As | Voice assistant |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US10878811B2 (en) | 2018-09-14 | 2020-12-29 | Sonos, Inc. | Networked devices, systems, and methods for intelligently deactivating wake-word engines |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11100923B2 (en) * | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US10857909B2 (en) * | 2019-02-05 | 2020-12-08 | Lear Corporation | Electrical assembly |
US20200257544A1 (en) * | 2019-02-07 | 2020-08-13 | Goldmine World, Inc. | Personalized language conversion device for automatic translation of software interfaces |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11056127B2 (en) | 2019-04-30 | 2021-07-06 | At&T Intellectual Property I, L.P. | Method for embedding and executing audio semantics |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11551700B2 (en) | 2021-01-25 | 2023-01-10 | Sonos, Inc. | Systems and methods for power-efficient keyword detection |
US12021806B1 (en) | 2021-09-21 | 2024-06-25 | Apple Inc. | Intelligent message delivery |
DK202100097U3 (da) * | 2021-10-23 | 2023-01-26 | Sens Vue Aps | Elektronisk apparat, der omfatter et nærfelt stemmekontrol til detektions-, diagnose- og behandlingsudstyr |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020040377A1 (en) * | 1998-09-25 | 2002-04-04 | Newman Edward G. | Computer with audio interrupt system |
EP1215658A2 (en) * | 2000-12-05 | 2002-06-19 | Hewlett-Packard Company | Visual activation of voice controlled apparatus |
EP1217611A2 (en) * | 2000-12-19 | 2002-06-26 | Hewlett-Packard Company | Device location discovery by sound |
US20030122652A1 (en) * | 1999-07-23 | 2003-07-03 | Himmelstein Richard B. | Voice-controlled security with proximity detector |
EP1333426A1 (en) * | 2002-01-29 | 2003-08-06 | Samsung Electronics Co., Ltd. | Voice command interpreter with dialog focus tracking function and voice command interpreting method |
US6747566B2 (en) * | 2001-03-12 | 2004-06-08 | Shaw-Yuan Hou | Voice-activated remote control unit for multiple electrical apparatuses |
US20050035855A1 (en) * | 2003-08-11 | 2005-02-17 | Visteon Global Technologies, Inc. | Voice command system for remote control and monitoring of home networked devices |
US20070005370A1 (en) * | 2005-06-30 | 2007-01-04 | Scott Elshout | Voice-activated control system |
CN101599270A (zh) * | 2008-06-02 | 2009-12-09 | 海尔集团公司 | 语音服务器及语音控制的方法 |
US20090326936A1 (en) * | 2007-04-17 | 2009-12-31 | Honda Motor Co., Ltd. | Voice recognition device, voice recognition method, and voice recognition program |
EP2498250A1 (en) * | 2011-03-07 | 2012-09-12 | Accenture Global Services Limited | Client and server system for natural language-based control of a digital network of devices |
CN102693725A (zh) * | 2011-03-25 | 2012-09-26 | 通用汽车有限责任公司 | 依赖于文本信息语境的语音识别 |
US8340975B1 (en) * | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
CN102855872A (zh) * | 2012-09-07 | 2013-01-02 | 深圳市信利康电子有限公司 | 基于终端及互联网语音交互的家电控制方法及系统 |
CN102907077A (zh) * | 2010-04-08 | 2013-01-30 | 高通股份有限公司 | 用于移动装置的智能音频记录的系统和方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5983161A (en) * | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
US6584439B1 (en) | 1999-05-21 | 2003-06-24 | Winbond Electronics Corporation | Method and apparatus for controlling voice controlled devices |
US6885991B2 (en) * | 2000-12-07 | 2005-04-26 | United Parcel Service Of America, Inc. | Telephony-based speech recognition for providing information for sorting mail and packages |
US6721633B2 (en) * | 2001-09-28 | 2004-04-13 | Robert Bosch Gmbh | Method and device for interfacing a driver information system using a voice portal server |
US20040066710A1 (en) * | 2002-10-03 | 2004-04-08 | Yuen Wai Man | Voice-commanded alarm clock system, and associated methods |
-
2014
- 2014-06-27 EP EP14817540.9A patent/EP3014610B1/en active Active
- 2014-06-27 US US14/317,734 patent/US10255930B2/en active Active
- 2014-06-27 CN CN201480037178.1A patent/CN105340011B/zh active Active
- 2014-06-27 WO PCT/US2014/044521 patent/WO2014210429A1/en active Application Filing
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020040377A1 (en) * | 1998-09-25 | 2002-04-04 | Newman Edward G. | Computer with audio interrupt system |
US20030122652A1 (en) * | 1999-07-23 | 2003-07-03 | Himmelstein Richard B. | Voice-controlled security with proximity detector |
EP1215658A2 (en) * | 2000-12-05 | 2002-06-19 | Hewlett-Packard Company | Visual activation of voice controlled apparatus |
EP1217611A2 (en) * | 2000-12-19 | 2002-06-26 | Hewlett-Packard Company | Device location discovery by sound |
US6747566B2 (en) * | 2001-03-12 | 2004-06-08 | Shaw-Yuan Hou | Voice-activated remote control unit for multiple electrical apparatuses |
EP1333426A1 (en) * | 2002-01-29 | 2003-08-06 | Samsung Electronics Co., Ltd. | Voice command interpreter with dialog focus tracking function and voice command interpreting method |
US20050035855A1 (en) * | 2003-08-11 | 2005-02-17 | Visteon Global Technologies, Inc. | Voice command system for remote control and monitoring of home networked devices |
US20070005370A1 (en) * | 2005-06-30 | 2007-01-04 | Scott Elshout | Voice-activated control system |
US20090326936A1 (en) * | 2007-04-17 | 2009-12-31 | Honda Motor Co., Ltd. | Voice recognition device, voice recognition method, and voice recognition program |
CN101599270A (zh) * | 2008-06-02 | 2009-12-09 | 海尔集团公司 | 语音服务器及语音控制的方法 |
CN102907077A (zh) * | 2010-04-08 | 2013-01-30 | 高通股份有限公司 | 用于移动装置的智能音频记录的系统和方法 |
EP2498250A1 (en) * | 2011-03-07 | 2012-09-12 | Accenture Global Services Limited | Client and server system for natural language-based control of a digital network of devices |
CN102693725A (zh) * | 2011-03-25 | 2012-09-26 | 通用汽车有限责任公司 | 依赖于文本信息语境的语音识别 |
US8340975B1 (en) * | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
CN102855872A (zh) * | 2012-09-07 | 2013-01-02 | 深圳市信利康电子有限公司 | 基于终端及互联网语音交互的家电控制方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106604209A (zh) * | 2016-12-14 | 2017-04-26 | 广东欧珀移动通信有限公司 | 一种基于蓝牙协议的功能设置方法及装置 |
CN106851450A (zh) * | 2016-12-26 | 2017-06-13 | 歌尔科技有限公司 | 一种无线耳机对及电子设备 |
CN113454588A (zh) * | 2019-02-22 | 2021-09-28 | 微软技术许可有限责任公司 | 同步跨设备应用平台 |
CN113454588B (zh) * | 2019-02-22 | 2024-03-29 | 微软技术许可有限责任公司 | 同步跨设备应用平台 |
Also Published As
Publication number | Publication date |
---|---|
EP3014610A4 (en) | 2017-03-22 |
EP3014610B1 (en) | 2023-10-04 |
US10255930B2 (en) | 2019-04-09 |
EP3014610A1 (en) | 2016-05-04 |
WO2014210429A1 (en) | 2014-12-31 |
CN105340011B (zh) | 2020-08-18 |
US20150006184A1 (en) | 2015-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105340011A (zh) | 链接设备的无线控制 | |
EP3316123B1 (en) | Electronic device and controlling method thereof | |
US10778830B2 (en) | Electronic device and method for performing task using external device by electronic device | |
US10185534B2 (en) | Control method, controller, and recording medium | |
US9472193B2 (en) | Speech dialogue control method | |
US20200135191A1 (en) | Digital Voice Butler | |
EP3007416B1 (en) | Multi-connection method and electronic device supporting the same | |
US20170236519A1 (en) | Speech recognition using electronic device and server | |
JP6543676B2 (ja) | 送信制御装置及びプログラム | |
US20180014108A1 (en) | Earpiece with App Environment | |
US10091020B2 (en) | Electronic device and gateway for network service, and operation method therefor | |
KR20190099586A (ko) | 전자 장치, 전자 장치의 제어방법 및 서버 | |
KR101635068B1 (ko) | 로봇을 이용한 홈 네트워크 시스템 및 그 제어방법 | |
JP6150185B2 (ja) | 識別情報もしくはデータを送信する、格納する、受信する、および/または読み出す、および/または、アクセサリもしくは関連製品とスマート電子装置との間の情報もしくはデータを任意の異なったサーバもしくは記憶媒体におよび/またはからペアリングするためのシステム及び方法 | |
CN105847067A (zh) | Zigbee设备的升级方法和装置 | |
JP2017506772A (ja) | インテリジェントデバイスのシーンモードのカスタマイズ方法及び装置 | |
JP2022502713A (ja) | 電気機器のためのポータブルの自然言語処理インターフェースをカスタマイズするためのシステム、及び方法 | |
WO2016193417A1 (en) | Home appliance control method and control system | |
JP2022504887A (ja) | 複数の電気機器に跨るポータブルの自然言語処理インターフェースを提供するためのシステム、及び方法 | |
US20190056907A1 (en) | Electronic device, sound output system and electronic device control method for sound output system | |
EP3300296B1 (en) | Electronic device and gateway, and control method therefor | |
JP6678626B2 (ja) | ネットワークシステム、サーバ、通信機器、および情報処理方法 | |
US20200026486A1 (en) | Content streaming apparatus and method | |
JP2013037211A (ja) | 管理装置、カラオケシステム及び管理方法 | |
JP6999706B2 (ja) | 共有機器を制御するための方法及び端末 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |