CN106462383B - 具有定向接口的免提装置 - Google Patents
具有定向接口的免提装置 Download PDFInfo
- Publication number
- CN106462383B CN106462383B CN201580029277.XA CN201580029277A CN106462383B CN 106462383 B CN106462383 B CN 106462383B CN 201580029277 A CN201580029277 A CN 201580029277A CN 106462383 B CN106462383 B CN 106462383B
- Authority
- CN
- China
- Prior art keywords
- user
- source
- images
- response
- hands
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 claims abstract description 115
- 230000004044 response Effects 0.000 claims abstract description 70
- 230000009471 action Effects 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims description 45
- 230000001755 vocal effect Effects 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 32
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 6
- 230000002207 retinal effect Effects 0.000 claims description 3
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 12
- 238000003860 storage Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/403—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明的实施方案提供一种非暂时性计算机可读介质,其包含计算机程序代码,当被运行时,所述计算机程序代码执行操作。所述操作包括检测请求与第一装置交互并且来源于源的用户动作。另外,实施方案确定所述源相对于所述第一装置的当前位置所处的方向。还基于所述第一装置的当前状态来确定对所述用户动作的响应。实施方案还包括大体上在所述源所处的所述确定方向上输出所述确定响应。
Description
相关申请的交叉引用
本申请要求2014年6月3日提交的美国专利申请第14/294,328号的优先权。这个相关申请的主题特此以引用方式并入本文。
背景
发明领域
实施方案一般来说涉及用于装置的接口,并且更具体地说涉及用于提供能够进行装置免提操作的定向接口的技术。
现有技术描述
现今的互连装置比以前更加常见,并且此类装置的普及性正快速地持续增加。例如,人们具有移动装置(例如,智能手机)、电视机、平板计算装置、媒体播放器以及车辆导航系统并非不常见。随着越来越多的装置被构造成具有与其他装置通信的能力和逻辑,开启了为用户提供完全集成体验的新的可能性。
传统上,用户可使用许多输入机构与此类装置交互。这些输入机构的示例包括装置上的按钮、键盘、触摸屏界面、远程控制件等。最近,装置已被构造成允许用户通过语音辨识来与装置进行音频通信,例如,在用户说出待由装置执行的语声命令的情况下。此类装置为用户提供许多便利,诸如通过简单地对装置说话来输入冗长的数据串的能力。然而,许多此类装置仍然依靠传统输入机构来触发语音辨识模式。例如,装置可能需要用户按压装置上的某一按钮,以便使装置处于语音辨识模式中。因此,这些装置并不提供真正的免提体验。
发明内容
一个实施方案提供一种非暂时性计算机可读介质,其包含计算机程序代码,当被运行时,所述计算机程序代码执行操作。所述操作包括检测请求与第一装置交互并且来源于某个源位置的用户动作。另外,所述操作包括确定源位置相对于第一装置的当前位置所处的方向。所述操作还包括基于第一装置的当前状态来确定对用户动作的响应。此外,所述操作包括大体上在源位置所处的确定方向上输出确定响应。
另一个实施方案提供一种非暂时性计算机可读介质,其包含计算机程序代码,当被运行时,所述计算机程序代码执行操作。所述操作包括检测触发事件,所述触发事件包括以下各项中的至少一项:(i)检测语声触发以及(ii)在第一装置的方向上检测用户目光。另外,所述操作包括确定触发事件的源相对于第一装置的当前位置的方向。所述操作还包括通过大体上在触发事件的源所处的确定方向上将可听响应输出为可操纵声束来发起交互式语声对话。
又一个实施方案提供一种包括计算机处理器和存储器的设备,所述存储器包含程序,当被计算机处理器运行时,所述程序执行操作。所述操作包括检测来源于源位置的用户动作。另外,所述操作包括确定源位置相对于所述设备的当前位置所处的方向。所述操作还包括确定对于用户动作的响应。所述操作还包括大体上在源位置所处的确定方向上输出确定响应。
附图简要说明
图1是框图,其示出根据本文所述的一个实施方案的、包括配置有定向交互部件的免提装置的系统。
图2描绘根据本文所述的一个实施方案的物理环境,在所述物理环境中用户正与免提装置交互。
图3是流程图,其示出根据本文所述的一个实施方案的、用于处理免提装置处的语声指令的方法。
图4是流程图,其示出根据本文所述的一个实施方案的、通过向查询处理部件提交查询来处理免提装置处的语声指令的方法。
图5是框图,其示出根据本文所述的一个实施方案的、配置有定向交互部件的免提装置。
具体实施方式
虽然现今许多装置使得用户能够通过使用语音辨识技术来输入命令和其他数据,但是这些装置仍然需要用户借助于另一个输入机构使所述装置处于语音辨识模式中。例如,移动装置可使得用户能够说出文本串以用于发送短消息服务(SMS)消息,但是可能需要用户首先在预先确定的一段时间内按住移动装置上的特定按钮,以便使移动装置处于语音辨识模式中。作为另一个示例,车辆可包括允许用户通过大声说出地址信息而将地址信息输入到车辆导航系统中的逻辑。然而,在用户可说出供输入的地址信息之前,可能需要用户首先按压车辆的方向盘上的按钮并且导航菜单系统。因此,这些常规装置并没有为用户提供真正的免提体验,因为它们仍然需要用户通过使用手动输入机构(例如,装置上的按钮)使装置处于语音辨识模式中。
同样地,实施方案提供用于为装置的用户提供完全免提体验的技术。例如,实施方案可检测由第一用户执行的、请求与第一装置交互的用户动作。根据一个实施方案,用户动作可以是由用户说出的可听命令。在另一个实施方案中,用户动作可以是用户直接看着装置。实施方案随后可确定第一用户相对于装置的当前位置所处的方向。因此,如果用户动作包括用户对装置说出可听命令,那么装置上的逻辑便可处理来自装置上的多个麦克风中的每一个的声音数据,以便确定可听命令来源的方向。作为另一个示例,在用户动作表示用户直接看着装置的情况下,装置上的逻辑可分析从装置的一个或多个摄像机收集的图像,并且可基于所分析的图像以及指定装置上的各个摄像机位置的预定义数据来确定用户相对于装置所处的方向。
实施方案随后可基于第一装置的当前状态来确定对用户动作的可听响应。例如,装置上的逻辑可确定装置当前处于睡眠状态中,并且当检测到用户正看向装置的方向时,逻辑可确定适当的可听响应是询问用户“今天我怎么帮助您?”。确定的可听响应也可以基于用户动作中指定的内容来确定。因此,例如,在用户动作表示由用户说出的可听命令时,装置上的逻辑可分析可听命令并且可确定用户正请求一条特定信息。逻辑随后可生成查询,所述查询被配置来检索这条特定信息、传输供执行的查询、接收对应的查询结果并且基于所接收的查询结果生成可听响应。例如,如果逻辑确定用户动作正请求2014年感恩节的日期,那么逻辑便可检索这个信息并且可生成说出“今年的感恩节是在11月27日”的可听响应。
实施方案随后可在第一用户所处的确定方向上将确定的可听响应输出为可操纵声束。例如,装置可配置有波束成形扬声器阵列或致动的定向扬声器,随后可被配置来传输定向在特定方向上的音频波,并且装置上的逻辑可配置这些音频输出装置以在接收用户动作的方向(即,用户相对于装置所处的方向)上传输可听响应。这样做会使得可听响应能够大体上仅被用户或紧邻的其他用户听见。
图1是框图,其示出根据本文所述的一个实施方案的、包括配置有定向交互部件的免提装置的系统。如图所示,系统100包括配置有定向交互部件120的免提装置110以及云计算环境130,所述云计算环境130包括经由网络125而互连的查询处理部件140。一般来说,定向交互部件120被配置来:(a)检测来自相对于定向交互部件120所位于的装置的某一方向的用户动作,并且随后(b)针对定向在所述方向上的用户动作提供可听响应。例如,用户动作的示例包括但不限于由用户说出的语声指令(例如,通过分析使用免提装置110的麦克风装置记录的音频数据来检测的)以及正看向免提装置110的方向的用户(例如,通过分析免提装置110的摄像机装置所捕捉的图像来检测的)。
由定向交互部件120提供的可听响应可根据用户请求而变化。例如,如果用户在语声指令中提出具体问题(例如,“2014年的感恩节是什么时候?”),那么定向交互部件120可使用一个或多个麦克风装置来检测用户的语声指令,并且可分析从这些麦克风装置收集的数据以确定用户的问题(例如,使用语音辨识技术)。定向交互部件120随后可尝试确定具体问题的答案,并且定向交互部件120可呈现这个答案作为响应。例如,定向交互部件120可生成查询,所述查询被配置来返回针对语声指令所指定的具体问题的答案。定向交互部件120可将生成的查询提交给查询处理部件140,所述查询处理部件140可执行查询并且可将查询结果返回给定向交互部件120。
当接收查询结果时,定向交互部件120可生成可听响应并且可将这个响应呈现给用户。例如,定向交互部件120可将文本至语音转换算法应用到查询结果的一部分,以便生成针对用户语声指令的可听响应(例如,“感恩节将在2014年11月27日”)。定向交互部件120随后可使用免提装置的一个或多个音频输出装置来输出可听响应。
在一个实施方案中,定向交互部件120被配置来将可听响应输出为对准相对于免提装置110的位置的用户方向上的可操纵声束(例如,使用超定向扬声器)。例如,定向交互部件120可通过使用一个或多个摄像机装置捕捉用户的图像来确定用户所处的方向,并且可识别捕捉图像内的用户(例如,使用面部辨识技术)。定向交互部件120随后可基于所捕捉图像内的用户位置以及指定对应摄像机装置的位点的信息来确定用户所处的方向。定向交互部件120随后可使用确定方向上的波束成形扬声器阵列来输出可听响应,从而使得只有用户和紧邻用户的其他人可以听见所述可听响应。定向交互部件120可被配置来连续地跟踪用户当前相对于免提装置110的位置所处的方向,从而使得从免提装置投射的声束在用户的方向上连续地投射。
在一个实施方案中,定向交互部件120被配置来通过不断地监测从各个麦克风装置收集的音频数据而不断地收听来自用户的语声命令。在特定实施方案中,定向交互部件120被配置来维持睡眠状态,直到定向交互部件120检测到用户已瞥向免提装置110的方向。例如,定向交互部件120可监测免提装置110的一个或多个摄像机装置所捕捉的图像,并且可对所捕捉的图像执行面部辨识分析以确定用户何时正直接看着免提装置110。当检测到用户正看着装置110时,定向交互部件120随后可离开睡眠状态并且可开始主动地收听来自用户的语声命令。在特定实施方案中,定向交互部件120被配置来收听特定的语声触发(例如,特定的用户语声说出的字词或短语),并且定向交互部件120被配置来维持其睡眠状态,直到检测到语声触发。
另外,定向交互部件120可被配置来在响应于来自用户的请求之前针对用户执行验证和授权操作。例如,定向交互部件120可对从免提装置110的麦克风收集的数据执行语声签名分析以确保语音与已知的充分授权用户相匹配。作为另一个示例,定向交互部件120可执行面部特征辨识分析(例如,使用免提装置110的一个或多个摄像机装置,使用辨识用户面部特征(如远处的视网膜图样)的传感器,等等),以确保对免提装置说话的用户是已知的充分授权用户。
现将参照图2来论述一个示例,图2描绘根据本文所述的一个实施方案的物理环境,在所述物理环境中用户正与免提装置交互。如图所示,环境200包括第一用户210和第二用户240,并且第一用户210被展示为与配置有定向交互部件120的免提装置220交互。为了本示例的目的,假设免提装置220被配置来保持在睡眠状态中(即,在装置220不主动收听和处理语声指令的情况下),直到用户210看向装置220的方向。
在这个示例中,定向交互部件120可使用免提装置220的摄像机装置连续地捕捉用户210的图像。定向交互部件120随后可执行所捕捉图像的面部辨识分析以识别图像内的用户210的面部,并且定向交互部件120随后可确定用户的眼睛250当前是否正看向免提装置220的方向。这个过程可重复,直到定向交互部件120检测到用户正看向免提装置220的方向,在这一刻,其上部署有定向交互部件120的免提装置220可退出睡眠状态。在一个实施方案中,定向交互部件120可提供睡眠状态已被打破的确认(例如,输出可听声音来证实免提装置220现被唤醒并且正收听语声命令)。
为了本示例的目的,假设定向交互部件120已检测到用户的眼睛250直接看着免提装置220(或大体上看向免提装置220的方向)并且已离开睡眠状态。一旦装置220已离开睡眠状态,用户210便已说出待由免提装置执行的、由音频波260表示的语声命令。作为另一个示例,定向交互部件120可被配置来检测视网膜反射以便检测用户眼睛与免提装置的接触。作为又一个示例,定向交互部件120还可被配置来使用免提装置上的一个或多个热传感器以便检测用户以及用户与免提装置进行的眼神接触。更一般来说,与本文所述的功能性一致,可使用适合于确定用户何时正看向免提装置的方向的任何技术。
如上文所论述的,定向交互部件120可使用一个或多个麦克风装置来检测语声命令260,并且可处理由麦克风装置记录的音频数据以识别用户正请求什么内容。定向交互部件120随后可确定对用户请求的响应,并且可在用户210相对于免提装置220的位置的方向上输出确定响应。
例如,定向交互部件120可确定用户的语声指令260是对检索一周中未来一天的天气预报信息的请求。定向交互部件120随后可生成请求天气预报信息的查询并且可将这个查询传输到查询处理部件140。定向交互部件120可接收查询结果并且可确定对语声指令的可听响应(例如,通过使用查询结果的至少一部分来执行文本至语音转换)。
另外,定向交互部件120可确定用户210相对于装置220的位置所处的方向。一般来说,与本文所述的功能性一致,可使用适用于确定用户210相对于装置220的位置而言的位置的任何技术。例如,定向交互部件120可使用多个麦克风装置来记录用户210的语声指令,并且可基于语声命令在记录的每一个中的响度以及指定麦克风装置在免提装置上位于何处的信息来推断用户210相对于装置220的位置而言的位置。
一旦定向交互部件120确定用户所处的方向,定向交互部件120便可使用超定向扬声器来在确定方向上输出确定的可听响应,正如音频波230所示的。有利地,通过使用超定向扬声器,定向交互部件120可将可听响应输出为可操纵声束,从而使得只有用户210和紧邻用户210的那些人可以听见所述可听响应。因此,在这个示例中,可听响应230对于用户240而言可以是听不见的,即使用户210和240位于同一房间中。这样做会避免来自免提装置220的可听响应的播放打扰用户240,而同时也通过不输出整个房间可听见的可听响应来维持用户210的隐私。
图3是流程图,其示出根据本文所述的一个实施方案的、用于处理免提装置处的语声指令的方法。如图所示,方法300在方框310处开始,其中定向交互部件120从第一免提装置处的用户接收语声指令。例如,定向交互部件120可通过分析由免提装置的麦克风装置记录的数据来检测语声命令。在语声命令由免提装置的多个不同麦克风装置记录的情况下,定向交互部件120可选择麦克风装置中的一个所记录的数据来分析以便检测语声指令。在一个实施方案中,定向交互部件120被配置成在检测语声指令时分析来自麦克风装置中的每一个的数据。
在接收语声指令时,定向交互部件120确定用户相对于第一装置的当前位置所处的方向(方框315)。例如,定向交互部件120可确定接收语声指令的方向并且可确定用户位于同一方向上。作为一个示例,定向交互部件120可分析来自免提装置的多个麦克风中的每一个的数据,并且可使用这个数据连同关于麦克风装置中的每一个在手提装置上定位于何处的信息来确定语声指令的原始方向。例如,对于麦克风装置中的每一个的记录数据而言,如果对应声音数据中的语声命令相对较为响亮,那么定向交互部件120可确定用户更有可能位于相应麦克风所处的方向上,并且如果对应声音数据中的语声命令相对较为安静,那么可确定用户不太可能位于相应麦克风所处的方向上。定向交互部件120可利用从麦克风装置中的每一个捕捉的音频数据来重复这个过程,以便推断用户相对于第一装置的位置。应注意,此类实施方案可配置有在特定方向上具有已知敏感性的一个或多个麦克风,这正好与在所有方向上具有大致相同敏感性的全向麦克风相反。这样做会允许定向交互部件120使用麦克风装置的已知敏感性来确定语声命令所来源的方向。
作为另一个示例,定向交互部件120可基于麦克风阵列而使用声源定位技术来确定语声命令所来源的方向。在此类实施方案中,麦克风阵列可通过处理来自麦克风阵列内的单个麦克风的信号来感测传入语声命令的方向。然而,更一般来说,与本文所述的功能性一致,可使用用于确定语声命令所来源的方向的任何技术。
另外,定向交互部件120处理语声指令以确定语声指令所指定的用户请求(方框320)。例如,定向交互部件120可执行所记录的语声指令的语音辨识分析并且可基于语音辨识分析来生成文本串。定向交互部件120随后可解析文本串以确定用户请求。一般来说,用户请求表示任何命令、问题或者用户可给予免提装置的其他指示。此类用户请求的示例包括但不限于执行特定动作的明确指令(例如,开始播放特定播放列表的指令)以及请求一条特定信息的问题(例如,对于明天天气会是什么样的请求、对于John在明天下午两点是否有空的问题,等等)。
定向交互部件120随后确定对于语声指令的可听响应(方框325)。一般来说,定向交互部件120如何确定对于语声指令的适当响应取决于语声指令的内容。例如,如果语声指令指定开始播放来自特定播放列表的音乐,那么定向交互部件120可确定适当的可听响应是请求的简短证实,紧跟的是所请求音乐的播放。作为另一个示例,如果语声指令指定确定明天天气预报的内容,那么定向交互部件120可生成被配置来检索详细描述明天天气预报的查询结果的查询,并且在接收查询结果时,可通过将文本至语音转换应用到查询结果的至少一部分来生成可听响应。
定向交互部件120随后在确定方向上输出可听响应(方框330),并且方法300结束。例如,定向交互部件120可将可听响应输出为对准用户相对于免提装置所处的方向的可操纵声束。为了完成这一点,定向交互部件120可使用免提装置上的波束成形扬声器阵列和/或一个或多个致动的定向扬声器,以便在用户的方向上聚焦发射的音频波。也就是说,免提装置上的定向交互部件120可使用抛物面反射器以致使来自扬声器的音频波具有多个方向,从而将发射的音频波聚焦成可操纵声波(例如,定向在语声命令所来源的方向上)。通过这样做,定向交互部件120能够输出可听响应,从而使得大体上只有用户和紧邻所述用户的其他人可以听见所述可听响应,从而允许用户更容易且更舒适地使用免提装置而不打扰其他人。
图4是流程图,其示出根据本文所述的一个实施方案的、通过向查询处理部件提交查询来处理免提装置处的语声指令的方法。如图所示,方法400在方框410处开始,其中用户说出请求待由免提装置执行的动作的语声指令。定向交互部件120检测所说出的语声指令(方框415)并且处理语声指令以便进行确定(方框420)。例如,定向交互部件120可使用免提装置上的多个麦克风装置来检测所说出的语声指令,并且定向交互部件120随后可处理麦克风装置所记录的音频数据以解译语声指令。作为一个示例,定向交互部件120可执行所记录的音频数据的语音辨识分析以便生成文本串,并且定向交互部件120随后可分析文本串以便确定所说出的语声指令正请求的内容。
在这个示例中,假设用户已向免提装置询问明天的天气预报如何。在处理语声指令以确定用户正在询问关于明天的天气时,定向交互部件120基于语声指令来生成查询并且提交所述查询以供执行(方框425)。在这个实施方案中,查询是由查询处理部件接收,所述查询处理部件处理查询以产生查询结果(方框430)并且随后将查询结果返回给免提装置(方框435)。例如,查询处理部件可表示在云计算环境中运行的、能够接收和处理查询的web应用程序。
在一个实施方案中,查询处理部件表示在免提装置本身上运行的逻辑。例如,在此类实施方案中,查询处理部件可通过使用互联网搜索引擎来执行搜索并且随后处理搜索的结果(例如,由搜索引擎返回的一个或多个网页)而处理查询以便生成查询结果。例如,查询处理部件可被配置来从搜索引擎所返回的网页提取相关的天气信息并且可将天气信息作为查询结果返回。
定向交互部件120随后接收查询结果并且基于查询结果来确定响应(方框440)。例如,在这个示例中,定向交互部件120可确定向用户提供明天天气预报综述的可听响应。定向交互部件120还确定用户相对于免提装置的当前位置所处的方向(方框445)。例如,当用户说出语声指令时,定向交互部件120可基于免提装置的麦克风装置所记录的音频数据来确定用户的位置,并且可基于每个麦克风中的语声指令的响度以及指定麦克风中的每一个在免提装置上定位于何处的信息来推断用户相对于装置所处的方向。作为另一个示例,定向交互部件120可使用免提装置上的各个摄像机装置来捕捉图像,并且定向交互部件120可识别所捕捉图像中的至少一个内的用户面部。定向交互部件120随后可基于图像内的用户面部的位置以及指定各个摄像机装置的相应位置的信息来确定用户的方向。当然,此类示例仅为了说明目的而提供并且不具有限制性。更一般来说,与本文所述的功能性一致,可使用用于确定用户相对于免提装置的位置所处的方向的任何技术。
一旦确定方向,定向交互部件120便输出被投射在确定方向上的响应(方框450),并且完成了方法400的所描绘迭代。当然,应了解,可执行方法400的任意数量的迭代,或者所述过程可继续,例如,随着定向交互部件120检测来自用户的另外语声指令。
如上文所论述的,定向交互部件120可使用免提装置的一个或多个音频输出装置,以便将响应输出为对准于确定方向的可操纵声束。此类音频输出装置的示例包括免提装置内的波束成形扬声器阵列和一个或多个致动的定向扬声器。此外,可以预料的是,定向交互部件120可使用安装在来自免提装置的单独硬件部件上和/或佩戴在用户身体上(佩戴在身体上的定向扬声器)的定向扬声器来输出确定的响应。
此外,在确定方向上投射可听响应以外,除了或代替所述可听响应,定向交互部件120还可被配置来提供其他定向输出。例如,定向交互部件120可被配置来使用(例如)可操纵微型投影仪而针对用户的请求提供视觉响应,其中所述可操纵微型投影仪可用来以用户可见的方式投射视觉内容(例如,文本、图像、视频等)。此处,定向交互部件120可基于用户相对于免提装置所处的确定方向来定向所述投射。在一个实施方案中,定向交互部件120被配置来基于用户所处的方向并且进一步基于附近物理环境中可用的多个表面而确定将要投射视觉内容的位置,其中定向交互部件120被配置来选择适合于投射的且被确定处于用户视野内的所述多个表面中的一个。
在一个实施方案中,定向交互部件120可检测到用户正戴着入耳式或贴耳式音频装置,如耳塞、头戴式耳机、头戴式受话器、入耳式监听器、入耳式助听器、入耳式音频增强器等。在此类实施方案中,不是将响应投射为用户方向上的可操纵声束,而是定向交互部件120可将响应音频传输到用户的头戴式耳机。通过这样做,定向交互部件120有助于确保用户听见所投射的音频响应并且也会降低用户附近的其他人听见音频响应的机率。因此,定向交互部件120可避免确定响应的输出打扰用户附近的其他人,同时也改善了系统的安全性(例如,在用户不希望其他人无意中听到可听响应的情况下)。
图5是框图,其示出根据本文所述的一个实施方案的、配置有定向交互部件的免提装置。在这个示例中,免提装置500非限制性地包括处理器505、存储器510、I/O装置520、网络接口525以及触敏显示装置530。一般来说,处理器505检索并执行存储在存储器510中的编程指令。处理器505被包括来代表单个CPU、多个CPU、具有多个处理核心的单个CPU、具有多个执行路径的GPU等。存储器510一般被包括来代表随机存取存储器。网络接口525使得免提装置500能够连接到数据通信网络(例如,有线以太网连接或802.11无线网络)。装置500还可包括用于与其他装置通信的蓝牙收发器模块。此外,虽然所描绘的实施方案示出免提装置500的部件,但是本领域普通技术人员将认识到,实施方案可使用各种不同的硬件结构。此外,可明确地预料到,实施方案可使用能够执行本文所述功能的任何装置或计算机系统来实施。
存储器510表示大得足以存有必要程序和数据结构的任何存储器。存储器510可以是存储装置中的一个或组合,所述存储装置包括随机存取存储器、非易失性或备份存储器(例如,可编程或快闪存储器、只读存储器等)。另外,存储器510可视为包括物理上位于其他地方的存储器;例如,处于通信地耦接到免提装置500的另一个计算机或装置上。作为说明性地,存储器510包括操作系统515和定向交互部件120。操作系统515一般控制所述装置500上的应用程序的执行。操作系统515的示例包括UNIX、Microsoft操作系统的版本和操作系统的分布。操作系统515的另外示例包括用于游戏控制台的定制操作系统,包括用于诸如Nintendo和Sony等系统的定制操作系统以及被配置用于移动装置的操作系统(如Apple)。
I/O装置520表示各种各样的输入和输出装置,包括显示器、键盘、触摸屏等。例如,I/O装置520可包括用于控制所述装置500的一组按钮、开关或其他物理装置机构。例如,I/O装置520可包括用来控制使用装置500把玩的视频游戏的方面的一组定向按钮。在本公开的上下文中,I/O装置520可包括被配置来投射可操纵声束的至少一个音频输出装置。此类I/O装置520的示例包括波束成形扬声器阵列和致动的定向扬声器。然而,更一般来说,与本公开一致,可使用能够投射定向声束的任何装置。另外,如上文所论述的,除了或代替音频投射,一些实施方案还可投射视觉内容。例如,此类实施方案可配置有能够将视觉内容投射到物理环境中的可操纵微型投影仪。然而,更一般来说,可使用能够投射视觉内容的任何装置。此外,I/O装置520可包括用于检测用户动作和用于确定用户相对于装置500所处的方向的摄像机装置和麦克风。触敏显示器530可用于为装置500输出图形用户界面(例如,由操作系统515生成的界面)并且也可用来检测装置500的用户所执行的手势。
如上文所论述的,定向交互部件120可被配置来检测第一用户所执行的动作。此类动作的示例可包括(例如)由用户说出的可听语句以及用户注视装置500的方向。定向交互部件120可确定第一用户相对于设备的当前位置所处的方向。例如,定向交互部件120可使用I/O装置520(例如,摄像机、麦克风等)连同指定此类I/O装置520物理地定位在免提装置上何处的信息来确定接收用户动作的方向。定向交互部件120还可确定对于用户动作的可听响应。例如,定向交互部件120可确定用户所说出的可听语句是询问明天天气如何的请求,并且定向交互部件120可发出用以检索与明天的日期相关联的天气信息的查询并且可生成可听响应(例如,使用文本至语音合成器)以便将这个天气信息呈现给用户。定向交互部件120随后可使用I/O装置520来在第一用户所处的确定方向上将确定的可听响应输出为可操纵声束。这样做会为装置500的用户提供真正的免提体验。
在前述内容中,参考本发明的实施方案。然而,应理解,本公开不限于具体描述的实施方案。相反,不管是否与不同的实施方案相关,前述特征和元件的任何组合预期会实施和实践本发明。此外,尽管本发明的实施方案可达成超越其他可能解决方案和/或超越现有技术的优点,但是特定优点是否由给定实施方案达成并不限制本公开。因此,除非在权利要求书中明确指出,否则前述方面、特征、实施方案和优点仅是说明性的并且不视为所附权利要求书的要素和限制。同样地,除非在权利要求书中明确指出,对“本发明”的引用不应解释为对本文所公开的任何发明主题的概括并且不应视为所附权利要求书的要素和限制。
如本领域技术人员将了解的,本文所述的方面可体现为系统、方法或计算机程序产品。因此,本文所述的方面可以采用以下形式:完全硬件实施方案、完全软件实施方案(包括固件、常驻软件、微代码等),或者将软件与硬件方面组合的实施方案,所述实施方案在本文中一般都可以称为“电路”、“模块”或“系统”。此外,本文所述的方面可采用体现在一个或多个计算机可读介质中的计算机程序产品的形式,所述计算机可读介质具有体现于其上的计算机可读程序代码。
可以使用一个或多个计算机可读介质的任何组合。计算机可读介质可以是计算机可读信号介质或计算机可读存储介质。计算机可读存储介质可以是(例如)但不限于电子、磁性、光学、电磁、红外或半导体系统、设备或装置或者前述系统、设备或装置的任何合适组合。计算机可读存储介质的更具体示例(非详尽列表)将包括以下各项:具有一个或多个导线的电连接、便携式计算机软盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦可编程只读存储器(EPROM或快闪存储器)、光纤、便携式光盘只读存储器(CD-ROM)、光学存储装置、磁性存储装置或前述各项的任何合适组合。在本文档的上下文中,计算机可读存储介质可以是可含有或存储供指令执行系统、设备或装置使用或者与所述指令执行系统、设备或装置结合使用的程序的任何有形介质。
计算机可读信号介质可以包括(例如)处于基带中或作为载波一部分的传播数据信号,而其中体现有计算机可读程序代码。此类传播信号可以采用各种形式中的任何一种形式,包括但不限于电磁、光学或其任何合适组合。计算机可读信号介质可以是任何计算机可读介质,其并非计算机可读存储介质并且可以递送、传播或传送供指令执行系统、设备或装置使用或者与所述指令执行系统、设备或装置结合使用的程序。
体现在计算机可读介质上的程序代码可以使用任何适当的介质来传输,所述介质包括但不限于无线、有线线路、光纤电缆、RF等或前述各项的任何合适组合。
用于进行本发明方面的操作的计算机程序代码可以用一种或多种编程语言的任何组合来编写,所述编程语言包括面向对象的编程语言,如Java、Smalltalk、C++等,以及常规程序性编程语言,如“C”编程语言或类似的编程语言。程序代码可以完全在用户的计算机上运行、部分地在用户的计算机上运行、作为独立的软件包运行,部分地在用户的计算机上且部分地在远程计算机上运行,或者完全在远程计算机或服务器上运行。在后一种情景中,远程计算机可通过包括局域网(LAN)或广域网(WAN)等的任何类型的网络连接到用户的计算机,或者可与外部计算机形成连接(例如,使用互联网服务提供商而通过互联网)。
上文中参考根据本发明的实施方案的方法、设备(系统)和计算机程序产品的流程图图解和/或框图来描述本发明的方面。应理解,流程图图解和/或框图的每个方框以及流程图图解和/或框图中的方框的组合可以由计算机程序指令来实施。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理设备的处理器以便产生一种机器,从而使得经由计算机或其他可编程数据处理设备的处理器运行的指令会建立用于实施流程图和/或框图的一个或多个方框中所指定的功能/动作的方式。
还可以将这些计算机程序指令存储在可引导计算机、其他可编程数据处理设备或其他装置以特定方式发挥作用的计算机可读介质中,从而使得存储在计算机可读介质中的指令产生一种制品,所述制品包括实施流程图和/或框图的一个或多个方框中所指定的功能/动作的指令。
计算机程序指令也可以加载到计算机、其他可编程数据处理设备或其他装置上以便致使在所述计算机、其他可编程装置或其他装置上执行一系列操作步骤来产生计算机实施的过程,从而使得在计算机或其他可编程设备上运行的指令提供用于实施流程图和/或框图的一个或多个方框中所指定的功能/动作的过程。
本发明的实施方案可以通过云计算基础设施来提供给最终用户。云计算一般是指在网络上将可扩展计算资源作为服务来提供。更正式而言,云计算可以定义为一种计算能力,所述计算能力在计算资源与其底层技术架构(例如,服务器,储存器、网络)之间提供抽象概念,从而能够对可配置计算资源共享池进行便捷的按需网络访问,所述可配置计算资源共享池可以用最小的管理努力或服务提供商互动来快速提供和释放。因此,云计算允许用户访问“云”中的虚拟计算资源(例如,储存器、数据、应用程序以及甚至完整的虚拟化计算系统),而不考虑用来提供计算资源的底层物理系统(或那些系统的位点)。
通常,云计算资源是在即用即付的基础上提供给用户,其中仅针对实际使用的计算资源(例如,用户所消耗的存储空间量或用户所实例化的虚拟化系统数量)来向用户收费。用户可以在任何时间、从互联网上的任何地方来访问驻留于云中的任何资源。在本发明的上下文中,定向交互部件120可基于用户所说出的语声命令说出生成查询,并且可将生成的查询提交给在云计算环境中运行的查询处理部件。定向交互部件120随后可从查询处理部件接收查询结果,并且可基于查询结果的至少一部分生成可听响应来输出给用户。这样做会允许用户从以真正的免提方式附接到网络的任何计算装置提交查询,其中所述网络连接到云(例如,互联网)。
图示中的流程图和框图示出根据本发明的各种实施方案的系统、方法和计算机程序产品的可能实现方式的架构、功能性和操作。在这方面,流程图或框图中的每个方框可以表示代码的模块、区段或部分,其包括用于实施所指定逻辑功能的一个或多个可执行指令。也应注意的是,在一些替代性实现方式中,方框中所注明的功能可以不按图中所注明的顺序发生。例如,取决于所涉及的功能性,连续展示的两个方框实际上可大致同时执行,或者所述方框有时可以按相反顺序或不按顺序执行。还应当注意的是,框图和/或流程图图解中的每个方框以及框图和/或流程图图解中的方框的组合可以由执行指定功能或动作的、基于专用硬件的系统或者由专用硬件和计算机指令的组合来实施。
虽然前述内容是针对本发明的实施方案,但是在不背离本发明的基本范围的情况下可以设计本发明的其他和进一步的实施方案,并且本发明的范围是由所附权利要求书来决定。
Claims (19)
1.一种用于与用户交互的方法,包括:
检测请求与第一装置交互并且来源于源的用户动作;
基于一个或多个图像中的所述用户的面部的方向,确定所述源相对于所述第一装置的当前位置所处的方向;
基于所述第一装置的当前状态来确定对所述用户动作的响应;
在所确定的所述源所处的方向上作为可操纵声束来输出所确定的响应;
从所述第一装置附近的环境中的多个物理表面中选择第一物理表面,其中所述第一物理表面处于所述用户视野内;以及
使用可操纵投影仪,将视觉内容投射到所述第一物理表面上。
2.如权利要求1所述的方法,还包括:
通过所述第一装置的一个或多个传感器装置的操作来检测用户目光定向在所述第一装置的方向上,所述检测包括:
捕捉包括所述源的一个或多个图像;
分析所述捕捉的一个或多个图像以识别所述一个或多个图像中的一个图像内的面部;以及
基于所述一个或多个图像内的所识别的面部来确定所述用户目光是否定向在所述第一装置的所述方向上。
3.如权利要求1所述的方法,其中所述响应包括一个或多个帧,并且其中在所确定的所述源所处的方向上输出所确定的响应还包括:
在所述源的观察范围内确定物理表面;以及
使用所述第一装置的投影仪装置来将所述一个或多个帧投射到所述物理表面上。
4.如权利要求1所述的方法,其中所述用户动作包括语声命令,并且所述方法还包括:
分析所述语声命令以确定与所述语声命令对应的用户请求;以及
处理所述用户请求以产生结果,
其中所确定的响应提供所产生的结果的至少一个指示。
5.如权利要求4所述的方法,其中处理所述用户请求以产生结果还包括基于所述用户请求来生成可执行查询,并且其中处理所述用户请求以产生结果还包括执行所述可执行查询以产生查询结果,并且其中确定对所述用户动作的所述响应是基于与所述查询结果的至少一部分相关联的文本而使用文本至语音合成器来执行的。
6.一种用于与用户交互的方法,包括:
检测触发事件,包括以下至少一项:
检测语声触发;以及
检测第一装置的方向上的用户目光;
基于一个或多个图像中的所述用户的面部的方向,确定所述触发事件的源相对于所述第一装置的当前位置的方向;
通过在所确定的所述触发事件的所述源所处的方向上将可听响应作为可操纵声束输出来发起交互式语声对话;
从所述第一装置附近的环境中的多个物理表面中选择第一物理表面,其中所述第一物理表面处于所述用户视野内;以及
使用可操纵投影仪,将视觉内容投射到所述第一物理表面上。
7.如权利要求6所述的方法,还包括:
通过所述第一装置的一个或多个传感器的操作来检测所述用户目光定向在所述第一装置的所述方向上。
8.如权利要求6所述的方法,还包括:
分析所述语声触发以确定与所述语声触发对应的用户请求;以及
处理所述用户请求以产生结果,
其中所确定的可听响应提供所产生的结果的至少一个指示。
9.如权利要求8所述的方法,其中处理所述用户请求以产生结果还包括基于所述用户请求来生成可执行查询,并且其中处理所述用户请求以产生结果还包括执行所述可执行查询以产生查询结果,并且其中确定对所述用户请求的可听响应是基于与所述查询结果的至少一部分相关联的文本而使用文本至语音合成器来执行的。
10.如权利要求6所述的方法,还包括:
使用所述第一装置的一个或多个传感器装置来捕捉包括所述触发事件的所述源的描绘的一个或多个图像;以及
基于所捕捉的一个或多个图像的至少一部分与预定义图像的比较来验证所述触发事件的所述源。
11.如权利要求6所述的方法,还包括:
基于所述语声触发与预定义语声记录的比较来验证所述触发事件的所述源。
12.一种用于与用户交互的设备,其包括:
计算机处理器;
存储器,其包含程序,当由所述计算机处理器运行时,所述程序执行包括以下各项的操作:
检测来源于源的用户动作;
基于一个或多个图像中的所述用户的面部的方向,确定所述源相对于所述设备的当前位置所处的方向;
确定对所述用户动作的响应;以及
在所确定的所述源所处的方向上作为可操纵声束来输出所确定的响应;
从第一装置附近的环境中的多个物理表面中选择第一物理表面,其中所述第一物理表面处于所述用户视野内;以及
使用可操纵投影仪,将视觉内容投射到所述第一物理表面上。
13.如权利要求12所述的设备,其中所述一个或多个扬声器包括波束成形扬声器阵列。
14.如权利要求12所述的设备,其中所述一个或多个扬声器包括一个或多个被致动的定向扬声器。
15.如权利要求12所述的设备,所述操作还包括:
当检测到与关联于触发事件的所述源的、佩戴在身体上的音频输出装置的连接可用时,使用所述佩戴在身体上的音频输出装置来通过所述连接输出所确定的响应以便进行播放。
16.如权利要求12所述的设备,其中确定所述源相对于所述设备的当前位置所处的方向还包括:
使用所述设备的一个或多个传感器装置来捕捉一个或多个图像;
处理所述一个或多个图像以识别使用所述一个或多个传感器装置中的第一传感器装置捕捉的所述一个或多个图像中的第一图像内的所述源;以及
基于所述源在所述第一图像内的位置以及所述第一传感器装置在所述设备上的已知位置来确定所述源所处的方向。
17.如权利要求16所述的设备,所述操作还包括:
使用所述第一装置的一个或多个传感器装置来捕捉包括所述源的一个或多个图像;以及
基于所捕捉的一个或多个图像的至少一部分与预定义图像的比较来验证所述源。
18.如权利要求17所述的设备,其中基于所捕捉的一个或多个图像的至少一部分与第一用户的预定义图像的比较来验证所述源还包括:
基于所捕捉的一个或多个图像的至少一部分和所述第一用户的所述预定义图像来执行所述第一用户的面部辨识分析。
19.如权利要求17所述的设备,其中基于所捕捉的一个或多个图像的至少一部分与第一用户的预定义图像的比较来验证所述第一用户还包括:
基于所捕捉的一个或多个图像的所述至少一部分和所述第一用户的所述预定义图像来执行所述第一用户的视网膜扫描分析。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/294,328 US10318016B2 (en) | 2014-06-03 | 2014-06-03 | Hands free device with directional interface |
US14/294,328 | 2014-06-03 | ||
PCT/US2015/033599 WO2015187587A1 (en) | 2014-06-03 | 2015-06-01 | Hands free device with directional interface |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106462383A CN106462383A (zh) | 2017-02-22 |
CN106462383B true CN106462383B (zh) | 2021-09-03 |
Family
ID=54701692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580029277.XA Active CN106462383B (zh) | 2014-06-03 | 2015-06-01 | 具有定向接口的免提装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10318016B2 (zh) |
EP (1) | EP3152651A4 (zh) |
JP (1) | JP6585081B2 (zh) |
KR (1) | KR102481454B1 (zh) |
CN (1) | CN106462383B (zh) |
WO (1) | WO2015187587A1 (zh) |
Families Citing this family (172)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
KR101572768B1 (ko) | 2007-09-24 | 2015-11-27 | 애플 인크. | 전자 장치 내의 내장형 인증 시스템들 |
US8600120B2 (en) | 2008-01-03 | 2013-12-03 | Apple Inc. | Personal computing device control using face detection and recognition |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US9002322B2 (en) | 2011-09-29 | 2015-04-07 | Apple Inc. | Authentication with secondary approver |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
AU2014278592B2 (en) | 2013-06-09 | 2017-09-07 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
US10803538B2 (en) * | 2014-04-14 | 2020-10-13 | Optum, Inc. | System and method for automated data entry and workflow management |
US10482461B2 (en) | 2014-05-29 | 2019-11-19 | Apple Inc. | User interface for payments |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
AU2015266863B2 (en) | 2014-05-30 | 2018-03-15 | Apple Inc. | Multi-command single utterance input method |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10275207B2 (en) * | 2014-09-01 | 2019-04-30 | Samsung Electronics Co., Ltd. | Method and apparatus for playing audio files |
US9588498B2 (en) * | 2014-12-30 | 2017-03-07 | Nokia Technologies Oy | Method and apparatus for providing an intelligent alarm notification |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US9940637B2 (en) | 2015-06-05 | 2018-04-10 | Apple Inc. | User interface for loyalty accounts and private label accounts |
US20160358133A1 (en) | 2015-06-05 | 2016-12-08 | Apple Inc. | User interface for loyalty accounts and private label accounts for a wearable device |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US9905244B2 (en) * | 2016-02-02 | 2018-02-27 | Ebay Inc. | Personalized, real-time audio processing |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10509626B2 (en) | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
US9820039B2 (en) | 2016-02-22 | 2017-11-14 | Sonos, Inc. | Default playback devices |
DK179186B1 (en) | 2016-05-19 | 2018-01-15 | Apple Inc | REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10621581B2 (en) | 2016-06-11 | 2020-04-14 | Apple Inc. | User interface for transactions |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
CN109313759B (zh) | 2016-06-11 | 2022-04-26 | 苹果公司 | 用于交易的用户界面 |
DK201670622A1 (en) | 2016-06-12 | 2018-02-12 | Apple Inc | User interfaces for transactions |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10152969B2 (en) | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US9928734B2 (en) * | 2016-08-02 | 2018-03-27 | Nio Usa, Inc. | Vehicle-to-pedestrian communication systems |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US20180068313A1 (en) | 2016-09-06 | 2018-03-08 | Apple Inc. | User interfaces for stored-value accounts |
DK179978B1 (en) | 2016-09-23 | 2019-11-27 | Apple Inc. | IMAGE DATA FOR ENHANCED USER INTERACTIONS |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US9743204B1 (en) | 2016-09-30 | 2017-08-22 | Sonos, Inc. | Multi-orientation playback device microphones |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10496808B2 (en) | 2016-10-25 | 2019-12-03 | Apple Inc. | User interface for managing access to credentials for use in an operation |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
US11250844B2 (en) * | 2017-04-12 | 2022-02-15 | Soundhound, Inc. | Managing agent engagement in a man-machine dialog |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
KR20190024190A (ko) * | 2017-08-31 | 2019-03-08 | (주)휴맥스 | 음성 인식 영상 피드백 제공 시스템 및 방법 |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
KR102185854B1 (ko) | 2017-09-09 | 2020-12-02 | 애플 인크. | 생체측정 인증의 구현 |
EP4156129A1 (en) | 2017-09-09 | 2023-03-29 | Apple Inc. | Implementation of biometric enrollment |
CN112507307A (zh) * | 2017-09-09 | 2021-03-16 | 苹果公司 | 生物识别认证的实现 |
US10475454B2 (en) * | 2017-09-18 | 2019-11-12 | Motorola Mobility Llc | Directional display and audio broadcast |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
US10636419B2 (en) * | 2017-12-06 | 2020-04-28 | Sony Interactive Entertainment Inc. | Automatic dialogue design |
US10880650B2 (en) | 2017-12-10 | 2020-12-29 | Sonos, Inc. | Network microphone devices with automatic do not disturb actuation capabilities |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
CN108399916A (zh) * | 2018-01-08 | 2018-08-14 | 蔚来汽车有限公司 | 车载智能语音交互系统和方法、处理装置和存储装置 |
JP6984420B2 (ja) | 2018-01-09 | 2021-12-22 | トヨタ自動車株式会社 | 対話装置 |
WO2019152722A1 (en) | 2018-01-31 | 2019-08-08 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10847178B2 (en) | 2018-05-18 | 2020-11-24 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11170085B2 (en) | 2018-06-03 | 2021-11-09 | Apple Inc. | Implementation of biometric authentication |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10869128B2 (en) | 2018-08-07 | 2020-12-15 | Pangissimo Llc | Modular speaker system |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US10878811B2 (en) | 2018-09-14 | 2020-12-29 | Sonos, Inc. | Networked devices, systems, and methods for intelligently deactivating wake-word engines |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11100349B2 (en) | 2018-09-28 | 2021-08-24 | Apple Inc. | Audio assisted enrollment |
US10860096B2 (en) | 2018-09-28 | 2020-12-08 | Apple Inc. | Device control using gaze information |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11328352B2 (en) | 2019-03-24 | 2022-05-10 | Apple Inc. | User interfaces for managing an account |
US11102572B2 (en) | 2019-03-29 | 2021-08-24 | Asahi Kasei Kabushiki Kaisha | Apparatus for drawing attention to an object, method for drawing attention to an object, and computer readable non-transitory storage medium |
US10841690B2 (en) | 2019-03-29 | 2020-11-17 | Asahi Kasei Kabushiki Kaisha | Sound reproducing apparatus, sound reproducing method, and computer readable storage medium |
CN110070868B (zh) * | 2019-04-28 | 2021-10-08 | 广州小鹏汽车科技有限公司 | 车载系统的语音交互方法、装置、汽车和机器可读介质 |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US10999677B2 (en) | 2019-05-29 | 2021-05-04 | Asahi Kasei Kabushiki Kaisha | Sound reproducing apparatus having multiple directional speakers and sound reproducing method |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US10945088B2 (en) | 2019-06-05 | 2021-03-09 | Asahi Kasei Kabushiki Kaisha | Sound reproducing apparatus capable of self diagnostic and self-diagnostic method for a sound reproducing apparatus |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
KR102445496B1 (ko) * | 2019-09-30 | 2022-09-21 | 주식회사 엘지유플러스 | 착용형 장치 및 이의 동작 방법과 상황 인식 서버 |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11816194B2 (en) | 2020-06-21 | 2023-11-14 | Apple Inc. | User interfaces for managing secure operations |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11551700B2 (en) | 2021-01-25 | 2023-01-10 | Sonos, Inc. | Systems and methods for power-efficient keyword detection |
CN113993034B (zh) * | 2021-11-18 | 2023-04-07 | 厦门理工学院 | 一种用于话筒的指向性音响传播方法及系统 |
FR3136564A1 (fr) * | 2022-06-13 | 2023-12-15 | Psa Automobiles Sa | Procédé et dispositif de contrôle de rendu d’un contenu sonore dans un véhicule avec spatialisation du son |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5454106A (en) * | 1993-05-17 | 1995-09-26 | International Business Machines Corporation | Database retrieval system using natural language for presenting understood components of an ambiguous query on a user interface |
US7359782B2 (en) * | 1994-05-23 | 2008-04-15 | Automotive Technologies International, Inc. | Vehicular impact reactive system and method |
US6118888A (en) | 1997-02-28 | 2000-09-12 | Kabushiki Kaisha Toshiba | Multi-modal interface apparatus and method |
US6701294B1 (en) * | 2000-01-19 | 2004-03-02 | Lucent Technologies, Inc. | User interface for translating natural language inquiries into database queries and data presentations |
US20010034250A1 (en) * | 2000-01-24 | 2001-10-25 | Sanjay Chadha | Hand-held personal computing device with microdisplay |
DE10103610A1 (de) * | 2001-01-28 | 2002-08-14 | Audioton Kabelwerk Gmbh | Freisprecheinrichtung für den Betrieb von Mobiltelefonen in Kraftfahrzeugen |
US6600975B2 (en) * | 2001-05-28 | 2003-07-29 | Matsushita Electric Industrial Co., Ltd. | In-vehicle communication device and communication control method |
CN1774871A (zh) * | 2003-04-15 | 2006-05-17 | 专利创投公司 | 定向扬声器 |
DE602004017475D1 (de) * | 2003-08-07 | 2008-12-11 | Thomson Licensing | Verfahren zum wiedergeben von audio-dokumenten mit hilfe einer schnittstelle mit dokumentgruppen und assoziierte wiedergabeeinrichtung |
JP2005313291A (ja) | 2004-04-30 | 2005-11-10 | Mitsubishi Heavy Ind Ltd | ロボット行動とリンクした映像表示方法とその装置 |
EP1805976B1 (en) * | 2004-10-25 | 2010-05-05 | Nokia Corporation | Hands-free unit for a vehicle with an adjustable microphone |
CN100535842C (zh) | 2004-10-27 | 2009-09-02 | 富士通天株式会社 | 显示装置 |
US20060209013A1 (en) * | 2005-03-17 | 2006-09-21 | Mr. Dirk Fengels | Method of controlling a machine connected to a display by line of vision |
GB0519315D0 (en) * | 2005-07-21 | 2005-11-02 | Southwing S L | Personal communications systems |
US8370423B2 (en) * | 2006-06-16 | 2013-02-05 | Microsoft Corporation | Data synchronization and sharing relationships |
EP1879000A1 (en) * | 2006-07-10 | 2008-01-16 | Harman Becker Automotive Systems GmbH | Transmission of text messages by navigation systems |
KR100853234B1 (ko) | 2006-07-25 | 2008-08-20 | (주)영신전자 | 멀티미디어 데이터를 이용한 차량 보안 시스템 및 방법 |
JP4801623B2 (ja) | 2006-09-14 | 2011-10-26 | シャープ株式会社 | 電子機器および有効な機能の選択方法 |
JP5380777B2 (ja) | 2007-02-21 | 2014-01-08 | ヤマハ株式会社 | 音声会議装置 |
JP4926091B2 (ja) | 2008-02-19 | 2012-05-09 | 株式会社日立製作所 | 音響ポインティングデバイス、音源位置のポインティング方法及びコンピュータシステム |
US20090315715A1 (en) * | 2008-06-17 | 2009-12-24 | Larsen Jan Pt | Interactive desk unit |
US8676904B2 (en) * | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
KR102128562B1 (ko) * | 2008-11-10 | 2020-06-30 | 구글 엘엘씨 | 멀티센서 음성 검출 |
JP2010156825A (ja) | 2008-12-26 | 2010-07-15 | Fujitsu Ten Ltd | 音声出力装置 |
CA2772746C (en) * | 2009-08-31 | 2019-06-11 | Exalead | Trusted query system and method |
US9026581B2 (en) * | 2009-09-10 | 2015-05-05 | Google Technology Holdings LLC | Mobile device and method of operating same to interface content provider website |
US8751667B2 (en) * | 2010-04-07 | 2014-06-10 | Apple Inc. | Supporting hands-free services via a hands-free device for IP video calls |
US8913056B2 (en) * | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
US8700392B1 (en) * | 2010-09-10 | 2014-04-15 | Amazon Technologies, Inc. | Speech-inclusive device interfaces |
KR101183737B1 (ko) * | 2010-11-15 | 2012-09-17 | 서인아 | 동작 인식이 가능한 멀티 이어폰 장치 및 이 장치의 동작 인식 방법 |
US20120140918A1 (en) * | 2010-12-06 | 2012-06-07 | Pagebites, Inc. | System and method for echo reduction in audio and video telecommunications over a network |
WO2012107892A2 (en) * | 2011-02-09 | 2012-08-16 | Primesense Ltd. | Gaze detection in a 3d mapping environment |
US9262612B2 (en) * | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
JP5623961B2 (ja) * | 2011-03-30 | 2014-11-12 | クラリオン株式会社 | 音声通話装置及び車載装置 |
US8749573B2 (en) * | 2011-05-26 | 2014-06-10 | Nokia Corporation | Method and apparatus for providing input through an apparatus configured to provide for display of an image |
CN103049077A (zh) | 2011-10-14 | 2013-04-17 | 鸿富锦精密工业(深圳)有限公司 | 声音反馈装置及其工作方法 |
WO2013067539A1 (en) * | 2011-11-04 | 2013-05-10 | Massachusetts Eye & Ear Infirmary | Adaptive visual assistive device |
JP2013102373A (ja) * | 2011-11-09 | 2013-05-23 | Denso Corp | ハンズフリー装置 |
US8541745B2 (en) * | 2011-11-16 | 2013-09-24 | Motorola Mobility Llc | Methods and devices for clothing detection about a wearable electronic device |
US9710056B2 (en) * | 2012-03-21 | 2017-07-18 | Google Inc. | Methods and systems for correlating movement of a device with state changes of the device |
US10156455B2 (en) * | 2012-06-05 | 2018-12-18 | Apple Inc. | Context-aware voice guidance |
EP2871640B1 (en) | 2012-07-09 | 2021-01-06 | LG Electronics, Inc. | Speech recognition apparatus and method |
US9659577B1 (en) * | 2013-03-14 | 2017-05-23 | Amazon Technologies, Inc. | Voice controlled assistant with integrated control knob |
US9349365B2 (en) * | 2013-03-14 | 2016-05-24 | Accenture Global Services Limited | Voice based automation testing for hands free module |
WO2014146230A1 (en) * | 2013-03-18 | 2014-09-25 | Nokia Corporation | Method and apparatus for querying resources through search field |
US9304736B1 (en) * | 2013-04-18 | 2016-04-05 | Amazon Technologies, Inc. | Voice controlled assistant with non-verbal code entry |
US9319782B1 (en) * | 2013-12-20 | 2016-04-19 | Amazon Technologies, Inc. | Distributed speaker synchronization |
-
2014
- 2014-06-03 US US14/294,328 patent/US10318016B2/en active Active
-
2015
- 2015-06-01 KR KR1020167033732A patent/KR102481454B1/ko active IP Right Grant
- 2015-06-01 CN CN201580029277.XA patent/CN106462383B/zh active Active
- 2015-06-01 JP JP2016567026A patent/JP6585081B2/ja active Active
- 2015-06-01 WO PCT/US2015/033599 patent/WO2015187587A1/en active Application Filing
- 2015-06-01 EP EP15802793.8A patent/EP3152651A4/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
EP3152651A4 (en) | 2018-05-30 |
WO2015187587A1 (en) | 2015-12-10 |
CN106462383A (zh) | 2017-02-22 |
JP2017526024A (ja) | 2017-09-07 |
KR20170013264A (ko) | 2017-02-06 |
US20150346845A1 (en) | 2015-12-03 |
KR102481454B1 (ko) | 2022-12-26 |
EP3152651A1 (en) | 2017-04-12 |
US10318016B2 (en) | 2019-06-11 |
JP6585081B2 (ja) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106462383B (zh) | 具有定向接口的免提装置 | |
US11470382B2 (en) | Methods and systems for detecting audio output of associated device | |
US10803856B2 (en) | Audio message extraction | |
US20190013025A1 (en) | Providing an ambient assist mode for computing devices | |
US20180018965A1 (en) | Combining Gesture and Voice User Interfaces | |
US10585486B2 (en) | Gesture interactive wearable spatial audio system | |
US9076450B1 (en) | Directed audio for speech recognition | |
US20140241702A1 (en) | Dynamic audio perspective change during video playback | |
KR102488285B1 (ko) | 디지털 어시스턴트를 이용한 오디오 정보 제공 | |
US10671343B1 (en) | Graphical interface to preview functionality available for speech-enabled processing | |
US20190362709A1 (en) | Offline Voice Enrollment | |
US20160323666A1 (en) | System and method for cognitive filtering of audio in noisy environments | |
JP6874437B2 (ja) | コミュニケーションロボット、プログラム及びシステム | |
Panek et al. | Challenges in adopting speech control for assistive robots | |
CN114327348A (zh) | 可穿戴计算设备音频接口 | |
US11935557B2 (en) | Techniques for detecting and processing domain-specific terminology | |
US20240194205A1 (en) | Wearable device control based on voice command of verified user | |
US20240312455A1 (en) | Transferring actions from a shared device to a personal device associated with an account of a user | |
KR20220118109A (ko) | 스피커 및 마이크를 포함하는 전자 장치 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |