CN104254818B - 音频用户交互辨识和应用程序接口 - Google Patents

音频用户交互辨识和应用程序接口 Download PDF

Info

Publication number
CN104254818B
CN104254818B CN201380022338.0A CN201380022338A CN104254818B CN 104254818 B CN104254818 B CN 104254818B CN 201380022338 A CN201380022338 A CN 201380022338A CN 104254818 B CN104254818 B CN 104254818B
Authority
CN
China
Prior art keywords
user
array
microphone
doa
oriented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380022338.0A
Other languages
English (en)
Other versions
CN104254818A (zh
Inventor
金莱轩
辛钟元
埃里克·维瑟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN104254818A publication Critical patent/CN104254818A/zh
Application granted granted Critical
Publication of CN104254818B publication Critical patent/CN104254818B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones

Abstract

本发明揭示一种应用程序接口,其考虑了在其中正呈现基于音频的上下文信息和/或基于视觉的语义信息的交互式多参与者环境中用户相对于正在说话的人的凝视方向。在这些各种实施方案当中,可使用两种不同类型的麦克风阵列装置MAD。第一类型的MAD是可导向麦克风阵列(也称为可导向阵列),其由用户佩戴在关于用户的眼睛的已知定向上,且其中多个用户可各自佩戴可导向阵列。第二类型的MAD是固定位置麦克风阵列(也称为固定阵列),其放置于与用户(其中一或多者正使用可导向阵列)相同的声学空间中。

Description

音频用户交互辨识和应用程序接口
相关申请案的交叉参考
本申请案依据35U.S.C.§119(e)的权益主张2012年5月11日申请且标题为“音频用户交互辨识和上下文精炼(AUDIO USER INTERACTION RECOGNITION AND CONTEXTREFINEMENT)”的第61/645,818号美国临时专利申请案、2012年6月29日申请且标题为“音频用户交互辨识和应用程序接口(AUDIO USER INTERACTION RECOGNITION AND APPLICATIONINTERFACE)”的第61/666,207号美国临时专利申请案的优先权,且主张2012年11月12日申请且标题为“音频用户交互辨识和应用程序接口(AUDIO USER INTERACTION RECOGNITIONAND APPLICATION INTERFACE)”的第13/674,789号美国非临时专利申请案的优先权,以上申请案的内容明确地以引用方式并入本文。
背景技术
应用程序接口是用户用来与包括系统应用程序(也称为“应用程序”)的一或多个装置交互以便实现用户对应用程序的有效操作和控制的装置。通常,应用程序接口包括硬件和软件组件两者以提供输入装置(允许用户操纵应用程序)和输出装置(允许应用程序指示用户的操纵的效果)两者。来自应用程序接口的输出提供反馈和/或将信息从应用程序递送到用户,其又帮助用户做出操作决策。任何新型应用程序接口的目的是以为用户产生经改善或增强结果的方式改进应用程序的操作,且一般对应用程序接口的较有意义的改进是减少用户的输入同时实现相同或较好所要输出且同时最小化非所要输出的那些改进。
单独来说,可通过在不同时间点确定用户正看着的方向来推导大量有用信息。实际上,在若干不同潜在用途的若干不同上下文中已经采用了使用若干基于视觉的方法中的任一者的大量凝视跟踪研究(即,通过若干现存手段中的任一者跟踪用户眼睛)。然而,了解用户的凝视方向仅提供关于用户关注的一个维度的语义信息,且不考虑大部分由语音和其它可闻(和/或视觉)通信装置给出的上下文信息。换句话说,与当今当前正使用的较简单形式的信息相比,凝视跟踪结合语音跟踪的组合提供关于用户的较丰富且较有意义的信息。
发明内容
为了使用户输入最少,同时递送改善的输出,可由应用程序接口通过知道在说话或收听时用户正看着的方向来推导有用信息,信息可用以增强用户与多种不同应用程序接口上下文的交互。为了实现这些益处,来自一或多个可导向麦克风阵列的输入结合来自固定麦克风阵列的输入可用以在正呈现基于音频的上下文信息和/或基于视觉的语义信息时确定一个人正看着谁或一个人相对于正在说话的人注意什么内容。凝视跟踪结合语音跟踪的组合提供了较丰富且较有意义的与应用的交互的机会。本文揭示的各种实施方案是针对经由应用程序接口的增强用户交互,所述应用程序接口考虑了在其中正呈现基于音频的上下文信息和/或基于视觉的语义信息的交互式多参与者环境中用户相对于正在说话的人的凝视方向。
本文揭示的某些实施方案至少基于来自固定阵列和一个可导向阵列处的音频检测组件(即,麦克风型或其它声音检测装置)检测用户的凝视方向视线,且确定显示装置是否在所述用户的视线中。如果显示装置在用户的视线中,那么在显示装置上显示第一图像,且如果显示装置不在用户的视线中,那么在显示装置上显示第二图像。
本文揭示的某些其它实施方案基于来自固定阵列和至少一个可导向阵列的多个音频检测组件检测多个参与者的共同凝视方向目标,确定所述目标是否为显示装置,且如果目标是显示装置,那么激活所述显示装置以完成显示呈现,在所述显示呈现期间在所述显示装置不是目标的周期中暂停呈现且当所述显示装置再次为目标时继续呈现。一旦显示呈现完成便减活所述显示装置。
一些实施方案可使得可导向阵列能够检测何时装置在范围中,接收从可导向阵列返回的信号,当装置在范围中时在显示器上显示第一图像,以及当装置不在范围中时在显示器上显示第二图像。一些其它实施方案可检测何时置于与可佩戴阵列的视线中,从移动装置接收第一图像,以及再定向且再显示所述显示图像以使得第二图像与移动装置上的第一图像对准。再其它实施方案可经由可导向阵列检测何时显示装置在对应于用户的视线的范围中,接收从可导向阵列返回的信号,当可导向阵列在范围中时在显示器上显示第一图像,以及当可导向阵列不在范围中时在显示器上显示第二图像。
提供此概述以用简化形式介绍概念的选择,所述概念在以下详细描述中进一步描述。此概述既定不识别所主张标的物的关键特征或本质特征,也既定不用以限制所主张标的物的范围。
附图说明
当结合附图阅读时更好地理解前述概述以及以下对说明性实施例的详细描述。为了说明实施例的目的,在图中展示实施例的实例性构造;然而,实施例不限于所揭示的特定方法和手段。在图中:
图1是可用以确定上下文信息的各自佩戴可导向麦克风阵列的用户群组连同固定麦克风阵列的图;
图2是使用可导向麦克风阵列和固定麦克风阵列确定用户交互的方法的实施方案的操作流程;
图3是使用可导向麦克风阵列和固定麦克风阵列确定用户交互的方法的另一实施方案的操作流程;
图4是可提供用户身份和用户正观看哪一方向的指示的实例性显示的图;
图5是可产生和显示且指示各种用户交互和会议数据的用户接口的图;
图6是可产生且显示(例如,在移动装置显示器上)且指示各种用户交互(例如,在会议期间)的用户接口的实例性显示的图;
图7是指示相对于各种话题的各种用户交互的实例性显示的图;
图8是指示随着时间的各种用户交互的实例性显示的图;
图9是指示随着时间的各种用户交互的另一实例性显示的图;
图10是使用交叉相关测量相似性的方法的实施方案的操作流程;
图11是使用交叉累积量测量相似性的方法的实施方案的操作流程;
图12是使用时域最小二乘法拟合测量相似性的方法的实施方案的操作流程;
图13是使用频域最小二乘法拟合测量相似性的方法的实施方案的操作流程;
图14是使用板仓-斋藤距离测量相似性的方法的实施方案的操作流程;
图15是使用基于特征的方法测量相似性的方法的实施方案的操作流程;
图16展示实例性用户接口显示;
图17展示示范性用户接口显示以展示显示上的合作缩放;
图18是用于放大目标参与者的方法的实施方案的操作流程;
图19展示具有额外候选观看方向的实例性用户接口显示;
图20是用于自适应地精炼目标说话者的波束的方法的实施方案的操作流程;
图21展示相对于麦克风对的平面波传播的远场模型;
图22展示线性阵列中的多个麦克风对;
图23展示四个不同DOA的未缠绕相位延迟对频率的绘图,且图24展示相同DOA的缠绕相位延迟对频率的绘图;
图25展示两个DOA候选的测得相位延迟值和所计算值的实例;
图26展示沿着电视机屏幕的顶部边限布置的线性麦克风阵列;
图27展示计算帧的DOA差的实例;
图28展示计算DOA估计的实例;
图29展示针对每一频率识别DOA估计的实例;
图30展示使用所计算可能性来针对给定频率识别最佳麦克风对和最佳DOA候选的实例;
图31展示可能性计算的实例;
图32展示扬声器电话应用的实例;
图33展示逐对DOA估计到麦克风阵列的平面中的360°范围的映射;
图34和35展示DOA估计中的模糊性;
图36展示观测到的DOA的正负号与x-y平面的象限之间的关系;
图37到40展示其中源位于麦克风的平面上方的实例;
图41展示沿着非正交轴的麦克风对的实例;
图42展示使用图41的阵列获得相对于正交x和y轴的DOA估计的实例;
图43和44展示针对两对麦克风阵列(例如,如图45中所示)的逐对正规化波束成形器/空波束成形器(BFNF)的实例;
图46展示逐对正规化最小方差无失真响应(MVDR)BFNF的实例;
图47展示其中矩阵AHA并非条件不良的频率的逐对BFNF的实例;
图48展示导向向量的实例;
图49展示如本文描述的源方向估计的集成方法的流程图;
图50是图1的经增强版本,其进一步包含共同地或个别地可用于用户的多个装置,所述装置也用以作为系统的应用程序接口来传达信息;
图51A是用于增强投影装置的视觉显示的示范性方法的操作流程;
图51B是图50的图100,其展示用户观看房间的显示装置(与图50形成对比,其中用户不在看房间的显示装置);
图52A和52B是使用便携式显示装置(即,包括显示器的移动装置)且看着第二用户的方向的第一用户的透视图;
图52C是用于在用户和目标(另一用户、显示屏幕等等)的直接视线附近时增强用户体验的个人显示装置的方法的操作流程;
图53是具有超声功能的显示装置的说明;以及
图54是利用相关方法确定从用户的角度偏移的说明。
具体实施方式
部分1:概述
本文揭示的各种实施方案是针对经由应用程序接口的增强用户交互,所述应用程序接口考虑了在其中正呈现基于音频的上下文信息和/或基于视觉的语义信息的交互式多参与者环境中用户相对于正在说话的人的凝视方向。在这些各种实施方案当中,可使用两种不同类型的麦克风阵列装置(MAD)。第一类型的MAD是可导向麦克风阵列(也称为可导向阵列),其由用户佩戴在关于用户的眼睛的已知定向上,且其中多个用户可各自佩戴可导向阵列。第二类型的MAD是固定位置麦克风阵列(也称为固定阵列),其放置于与用户(其中一或多者正使用可导向阵列)相同的声学空间中。这些组件和与其介接的装置可共同地称为“内容/上下文系统”或为了方便而简称为“系统”。
对于若干实施方案,可导向麦克风阵列可为有源噪声控制(ANC)头戴式耳机或助听器的部分,且可存在各自与例如会议或群组中的不同用户或说话者(本文也称为参与者)相关联的多个可导向阵列。在此上下文中,固定麦克风阵列将随后用以使用音频波束来分离在群组会议期间说话和收听的不同人,所述音频波束对应于所述不同人相对于所述固定阵列定位的方向。评估固定阵列的经分离说话者的音频波束与可导向阵列的输出之间的相关或相似性。
对于某些实施方案,可使用固定麦克风阵列和/或可导向麦克风阵列确定作用中说话者的位置。显然,关于后一种情况,当用户(佩戴可导向麦克风阵列)转动他/她的头时,用户的波束模式的观看方向也改变。通过使来自可导向麦克风阵列的经波束成形输出(或任一类型的经空间滤波输出)与对应于每一作用中说话者的固定麦克风阵列输出相关或另外确定其相似性,可确定用户正看着(例如,注意着、听着等等)的人的识别。系统还可确定用户是否正共同地看着例如共同显示装置或空间中的其它对象。
对于若干此类实施方案,则对应于形成环境内的参与者的共同凝视方向和音频方向的信息——即,多个用户的个别凝视方向的一般方向或相交点,或来自音频源的多个用户的一般方向或相交点——可用以指示在任一给定时间的当前作用中说话者,且可针对凝视于所述说话者的那些用户增强此作用中说话者的音频呈现。所识别作用中说话者也可为跟踪(或记录)交互进程的音频和/或视觉俘获装置的焦点,其中在作用中说话者在人们之间改变时,音频和/或视觉俘获装置(即,麦克风型或其它声音检测装置)的焦点也改变。
在一些实施方案中,关于对特定用户/参与者特定的环境内的参与者的凝视方向和音频方向的信息可用以增强用于特定针对所述特定用户的装置的应用程序用户接口控制。举例来说,用户可拥有移动显示装置,所述显示装置与音频/视觉环境介接,且基于其用户相对于房间中其它用户的凝视方向可相应地自动执行不同功能。举例来说,对于在用户的凝视与用户凝视的主体(例如,另一参与者)前方和之间对准的移动装置,装置可自动显示关于所述用户的凝视主体的信息(例如,识别信息、另一参与者最后的作用中说话的文字重放等等)。如本文使用,“移动装置”包含(但不限于)移动电话和智能电话、电子邮件和/或因特网装置、便携式GPS接收器、个人媒体播放器、手持式游戏机、个人数字助理(PDA)、电子书阅读器、平板装置、上网本、笔记本计算机、膝上型计算机和其它便携式计算机。关于例如前述投影屏幕等其它应用,移动显示器在与用户的凝视和投影屏幕相交时可显示关于经预编程为仅用于此目的的呈现的屏幕的内容的补充信息。类似地,用户重复地凝视一对象、随后个人装置、随后所述对象且随后所述个人装置例如可类似地触发装置自动显示关于正经受用户的交替凝视活动的对象的信息。
在其它实施方案中,关于对特定用户/参与者特定的环境内的参与者的凝视方向和音频方向的信息可用以通过交互地提供有帮助的提示和线索来增强用户自己在环境中的音频交互。举例来说,对于作为作用中说话者的用户,所述用户的个人显示装置(辨识出用户是当前作用中说话者)可跟踪用户与其它参与者的眼神接触以计量谁最主动地收听、谁的注意力被吸引到房间中另外的某个人或某物以及谁在进行私下讨论。装置又可随后提供线索以引导说话者集中于特定其它参与者以较好地鼓励他们或另外吸引他们进入讨论。
在又其它实施方案中,关于对特定用户/参与者特定的环境内的参与者的凝视方向和音频方向的信息可用以增强对所述用户特定的多个装置的互操作性。举例来说,用户可具有手表型显示装置,其作为手表操作但当被带到用户的视线与另一参与者和环境中的其它信息源(音频或视觉)之间时也作为上述交互式显示器操作。举例来说,当保持在低水平时,手表显示器可仅提供例如时间、日期等等典型数据,但当升高到较直接地介入于用户的视线与目标(人、投影显示器等等)之间时提供特定于环境和参与者(且具体来说用户和目标参与者或对象)的音频/视觉交互的不同信息。
替代实施方案也可针对在具有或不具有固定阵列和可移动阵列的情况下操作的手表型显示装置。举例来说,当保持在低水平时,手表显示器可进入省电模式,但当升高到较高的观看水平时在检测到低光照环境时提供被照亮的显示。而且,此些实施方案仍可使用超声发射和检测。
对于基于本文先前提到的前述实施方案中的若干者的某些额外实施方案,个人显示装置可利用超声来检测其相对于其用户的位置以便知道如何最佳地自动与用户交互。短程超声质量使得个人装置能够对个别用户工作而不干扰采用相似技术的其它用户。类似地,不同类型的发射器可用于例如投影屏幕和类似物等其它对象以使得其能够较好地检测凝视方向和其它输入,这又有助于适当输出设定的选择。举例来说,对于手表型显示器,如果手表具有超声发射器,那么由用户佩戴的可导向阵列(及其麦克风或“麦克风”)可检测装置的“到达方向”(DOA)。如果从用户到装置不存在阻挡且如果DOA“在范围内”——即在例如+/-30度等某一角度范围(经常由希腊字母θ表示)内和/或在例如2英尺、10英尺或100英尺等某一接近距离内——那么可检测到超声发射且可相应地修改显示。而且,由于其随着距离的快速能量损失,超声到检测装置的接近度可在防止重叠和其它条件中起到重要作用。
在随后的揭示内容中,部分2提供关于本文使用的术语和命名的阐释以更好地理解对所描述的各种实施方案做出的揭示。部分3提供本文揭示的各种实施方案可利用的底层技术的示范性方面的扩展描述。部分4随后更详细描述上文提到的应用程序接口的各种示范性实施方案。部分5随后描述关于本文描述的各种实施方案的额外细节和替代例。
部分2:关于术语和命名的阐释
除非由其上下文明确限制,否则术语“信号”在此用以指示其普通意义中的任一者,包含如在电线、总线或其它传输媒体上表示的存储器位置(或存储器位置集合)的状态。除非由其上下文明确限制,否则术语“产生”在此用以指示其普通意义中的任一者,例如计算或以其它方式产生。除非由其上下文明确限制,否则术语“计算”在此用以指示其普通意义中的任一者,例如计算、评估、估计和/或从多个值中选择。除非由其上下文明确限制,否则术语“获得”用以指示其普通意义中的任一者,例如计算、推导、接收(例如,从外部装置)和/或检索(例如,从存储元件阵列)。除非由其上下文明确限制,否则术语“选择”用以指示其普通意义中的任一者,例如识别、指示、应用和/或使用两者或两者以上的集合中的至少一者且少于全部。在本发明描述和权利要求书中使用术语“包括”的情况下,其并不排除其它元件或操作。术语“基于”(如“A基于B”中)用以指示其普通意义中的任一者,包含如下情况:(i)“推导自”(例如,“B是A的前体”),(ii)“至少基于”(例如,“A至少基于B”),以及在特定上下文中适当的情况下,(iii)“等于”(例如,“A等于B”或“A与B相同”)。类似地,术语“响应于”用以指示其普通意义中的任一者,包含“至少响应于”。
对多麦克风音频感测装置的麦克风的“位置”的参考指示所述麦克风的声学敏感面的中心的位置,除非上下文另外指示。根据特定上下文,术语“通道”有时候用以指示信号路径且在其它时候用以指示由此路径载运的信号。除非另外指示,否则术语“系列”用以指示两个或两个以上项目的序列。术语“对数”用以指示基于十的对数,但此运算向其它基数的扩展在本发明的范围内。术语“频率分量”用以指示信号的一组频率或频带当中的一者,例如所述信号的频域表示的样本(或“区间”)(例如,由快速傅立叶变换产生)或所述信号的子带(例如,巴克(Bark)尺度或梅尔(mel)尺度子带)。
除非另外指示,否则对具有特定特征的设备的操作的任何揭示也明确预期揭示具有类似特征的方法(且反之亦然),且对根据特定配置的设备的操作的任何揭示也明确预期揭示根据类似配置的方法(且反之亦然)。术语“配置”可参考由其特定上下文指示的方法、设备和/或系统来使用。术语“方法”、“过程”、“程序”和“技术”一般地且可互换地使用,除非特定上下文另外指示。术语“设备”和“装置”也一般地且可互换地使用,除非特定上下文另外指示。术语“元件”和“模块”通常用以指示较大配置的一部分。除非由其上下文明确限制,且尽管特定参考本文描述的内容/上下文系统的各种实施方案和利用而使用词语“系统”,术语“系统”在此一般用以指示其普通意义中的任一者,包含“相互作用以用于共同目的的元件群组”。
通过引用文档的一部分的任何并入也应当理解为并入了在所述部分内参考的术语或变量的定义,此些定义在文档中的别处出现的地方,以及在所并入部分中参考的任何图式。除非初始通过定冠词介绍,否则用以修改权利要求元素的序数术语(例如,“第一”、“第二”、“第三”等等)本身并不指示所述权利要求元素相对于另一元素的任何优先级或次序,而是仅使所述权利要求元素区别于具有相同名称(但出于序数术语的使用)的另一权利要求元素。除非通过其上下文明确限制,否则术语“多个”和“集合”中的每一者在本文用以指示大于一的整数量。
部分3:底层技术的示范性描述
本文描述组合基于视觉和听力的方法以使得用户能够朝向人(或声音源)导向,以便使用声音传感器和多种基于位置的计算和所得的交互增强来更清楚地理解在所述时刻正呈现的基于音频的信息(例如,对话的上下文和/或声音源的身份)。
举例来说,固定阵列的经分离说话者的音频束与可导向阵列的输出之间的相关或相似性可用以跟踪说话者之间的社交交互。相关仅是相似性量度的一个实例,且可使用任何相似性测量或确定技术。
更特定来说,用户(本文也称为说话者或参与者)群组的社交交互或社交联网分析可使用响应于分别与群组的每一用户相关联的固定阵列的经分离说话者的音频束与每一可导向阵列的输出之间的相关或其它相似性量度而产生的连接曲线图来执行和显示。因此,举例来说,可使用会议参与者之间的连接曲线图在参与者的群组会议中执行自动社交网络分析以推导关于谁主动参加呈现或(更一般地)保持用户的注意的呈现的有效性的有用信息。
图1是可用以确定上下文信息的各自佩戴可导向麦克风阵列110的用户群组连同与用户在相同空间(例如,房间)中的固定位置麦克风阵列150的图100。如图1所示,房间(或其它经界定空间)中的用户群组的每一用户105佩戴可导向麦克风阵列(例如,作为可包含执行自适应噪声控制(ANC)的能力的头戴式耳机),且固定位置麦克风阵列150位于房间中(例如,桌子上、电话中等等)。固定位置麦克风阵列150可例如为例如视频游戏平台、平板计算机、笔记本计算机或移动装置等电子装置的部分,或可为独立装置或实施方案。替代地或另外,固定位置麦克风阵列150可包括分布式麦克风阵列(即,分布式麦克风)。
佩戴头戴式耳机的用户105可从指向用户的物理视觉(或“观看”)方向的他的可导向(例如,可佩戴)麦克风阵列产生固定波束模式120。如果用户转动他的头,那么用户的波束模式的观看方向也改变。作用中说话者的位置可使用固定麦克风阵列来确定。通过从具有对应于每一作用中说话者的固定麦克风阵列输出的可导向麦克风阵列相关经波束成形输出(或任一类型的空间经滤波输出)或另外确定其相似性,可确定用户正看着(例如,注意着、听着等等)的人的识别。每一头戴式耳机可具有与主处理器(例如,集中式本地或远程计算装置中)通信(例如,经由无线通信链路)以分析头戴式耳机和/或固定阵列之间的波束的相关或相似性的处理器。
换句话说,在任一时间时刻的固定波束模式可基于可与固定麦克风阵列输出相关的用户的物理观看方向来形成,进而经由连接曲线图130(例如,在例如手持机、膝上型计算机、平板计算机、计算机、上网本或移动计算装置等任一类型的计算装置的显示器上显示)提供目标用户的社交交互的视觉指示。因此,通过使来自可导向麦克风阵列的经波束成形输出与对应于每一作用中说话用户的固定麦克风阵列输出相关,可执行和显示社交交互或网络分析的跟踪。而且,通过检查来自观看方向可导向麦克风阵列的经波束成形输出与对应于每一作用中说话者的位置固定麦克风阵列输出之间的相似性,用户正看着或注意着的人可被识别且放大。
图2是使用可导向麦克风阵列和固定麦克风阵列确定用户交互的方法200的实施方案的操作流程。在210处,可导向麦克风阵列和固定麦克风阵列大致在同时各自接收声音(但可检测小的变化且用以计算用户的相对位置)。在220处,由可导向麦克风阵列和固定麦克风阵列中的每一者产生例如经波束成形输出等经空间滤波输出。在230处,将每一可导向麦克风阵列的经空间滤波输出与固定麦克风阵列的经空间滤波输出进行比较。可使用用于确定相似性或相关的任何已知技术。在240处,从230获得的相似性或相关信息可用以确定和/或显示用户交互信息,如本文进一步描述。
图3是使用可导向麦克风阵列和固定位置麦克风阵列确定用户交互的方法300的另一实施方案的操作流程。多个用户中的每一者具有可导向立体麦克风阵列,例如ANC头戴式耳机,其具有对应于每一此用户的视觉凝视方向的已知定向。在305处可导向阵列(ANC头戴式耳机中)中的每一者提供固定边射波束成形,其中在310处在用户观看方向上(即,在可导向阵列的用户正观看的方向上)产生经波束成形输出(或任一类型的经空间滤波输出)。
具有相关联处理器的固定麦克风阵列(例如在移动装置中)在围绕固定麦克风阵列的三个维度(3D)中在320处执行到达方向(DOA)估计,且在325处分离作用中说话者。在370处确定作用中说话者的数目,且在380处产生每一作用中说话者的单独输出(由例如识别号识别)。在一实施方案中,可在330处执行作用中说话者的说话者辨识和标记。
在340处测量固定阵列的经分离说话者与可导向阵列的输出之间的相似性。使用测得的相似性和DOA估计和说话者ID,可在350处产生和显示用户交互的视觉化(具有说话者身份(ID)或参与者ID)。在360处可将每一用户的观看方向作为例如移动装置坐标提供到固定阵列。
可产生连接曲线图(也称为交互曲线图),其显示例如(a)谁正在讲话和/或听着谁和/或看着谁,(b)谁正在支配和/或领导群组的讨论,和/或(c)谁已厌烦、未参与和/或安静。可执行实时会议分析以帮助会议和未来会议的效率。例如会议时间、地点(例如,会议位置)、说话者身份或参与者身份、会议话题或标的以及参与者数目等信息例如可显示且在分析中使用。
图4是可提供用户身份和用户正观看哪一方向的指示的实例性显示器403的图400。连同用户正观看的方向(参与者观看方向410)一起显示用户身份(参与者ID 406)。在例如会议期间,参与者观看方向410的此显示可产生且提供到关注方,例如会议管理者或领导者或监督者,使得关注方可看见在会议的各个时间所述参与者正看着谁。虽然在图403中仅展示一个参与者ID 406和参与者观看方向410,但这既定不是限制性的。关注方可接收一个以上参与者的此信息,且此信息可取决于实施方案在一或多个显示器上同时显示。用于在显示器403上显示而产生的数据可存储在存储器中且在较晚时间检索和显示,以及实时显示。
图5是可在显示器418上产生和显示且指示各种用户交互和会议数据的用户接口的图415。可产生和显示(例如,在会议期间实时)各种类型的信息,例如正在讲话的参与者的识别符(ID)420、正在听着的参与者的ID 422和/或未参与的参与者的ID 424(例如,在所述时刻不在听、在超过预定时间量或会议的至少一百分比的时间中不在听、看着除了正在讲话的参与者之外的某个地方或看着另一预定位置或方向等等)。在例如会议期间,此显示4108可产生且提供到关注方,例如会议管理者或领导者或监督者。
可在显示418上显示额外数据,例如会议时间426、会议位置428、会议长度430(即,持续时间)、会议话题432以及会议参与者数目434。可显示此数据中的一些或全部。另外或替代地,取决于实施方案可显示其它数据,例如所有参与者的ID和如本文进一步描述可产生的其它统计数据。用于在显示器418上显示而产生的信息和数据可存储在存储器中且在较晚时间检索和显示,以及实时显示。
应注意,即使参与者仅在会议中听着(且未说话),她也将是参与的,因为所述参与者的麦克风(可导向麦克风阵列)将仍在她正听着时观看的方向上拾取声音。因此,即使参与者不说话,也将仍存在与她的收听相关联的待分析的声音。
可产生和显示用户接口(例如,在移动装置显示器或其它计算装置显示器上,例如与手持机、膝上型计算机、平板计算机、计算机、上网本或移动计算装置相关联的显示器),其指示在会议期间的各种用户交互。图4是可产生且显示(例如,在移动装置显示器443上)且指示各种用户交互(例如,在会议期间)的用户接口440的实例性显示的图。在此实例中,每一箭头454的方向指示谁正看着谁(在此实例中仅展示一个箭头454,但取决于实施方案和特定时间的用户交互可展示多个此类箭头)。每一箭头的厚度指示交互的相对强度(例如,基于连接时间等等)。从一个人或到一个人无箭头指示所述用户未涉及于群组会议中。针对用户可显示百分比数字,其指示针对群组会议的参与比率。可显示指示符448以识别会议的领导者,且可确定和显示百分比450、452以分别展示讨论中有多少被引导到一个人,且讨论中有多少是来自所述人。在一实施方案中,可使用颜色或突出显示来指示参与者群组的领导者。
在图6的实例中,约翰(John)和马克(Mark)正进行很多交互,如相对大的厚箭头446指示。玛丽(Mary)是安静的。可执行实时会议分析(例如上文相对于图4和5以及本文别处所描述)以帮助会议的效率。举例来说,因为看上去玛丽不在对话中,所以约翰可鼓励玛丽参与(例如,通过向玛丽问问题)。
可在一时间周期上(例如,一个月、一年等等)累积社交交互绘图以评估例如群组动态性或话题动态性。图7是指示相对于各种话题464的各种用户交互的实例性显示462的图460。此信息可在一或多个会议期间俘获,存储在一存储器(或多个存储器)中,且在较晚时间(例如,在历史数据分析期间)以一或多个格式显示。此处,每一参与者ID 466连同其针对各种话题464的参与比率468一起列出。
因此举例来说,简(Jane)在关于“设计”的会议中具有20%参与比率,在关于“代码走查”的会议中具有40%参与比率,且在关于“文档化”的会议中具有10%参与比率。此数据可用以确定哪些参与者最适合或关注例如特定话题,或哪些参与者可能需要相对于特定话题的更多鼓励。参与比率可经确定且基于本文描述的一或多个数据项目,例如在会议中说话的时间量、在会议中注意的时间量、在会议中收听的时间量等等。虽然在图7中展示百分比,但可使用任何相对测量、编号或指示系统或技术来识别参与水平或比率中的相对强度和/或弱度。
图460中的“L”用作实例性指示符以指示哪一用户在某一话题中参与最多,进而指示例如所述话题的潜在领导者。可使用任何指示符,例如颜色、突出显示或特定符号。在此实例中,约翰最多地参与设计,简最多地参与代码走查,且玛丽最多地参与文档化。因此,他们可被识别为相应话题中的潜在领导者。
另外,可针对一或多个会议参与者产生具有交互历史的个人时间线。因此,不仅可俘获、分析在会议期间的单个快照或时间周期且显示(在实时或较晚离线显示)与其有关的信息,而且可存储(例如,在例如移动装置等计算装置或例如手持机、膝上型计算机、平板计算机、计算机、上网本或移动计算装置等任一类型的计算装置的存储器中)、分析和显示(例如,在例如移动装置等计算装置或例如手持机、膝上型计算机、平板计算机、计算机、上网本或移动计算装置等任一类型的计算装置的日历或其它显示中)随着时间的历史。
图8是可用于例如在一或多个会议之后的历史分析的指示随着时间的各种用户交互的实例性显示472的图470。此处,连同例如会议日期和会议话题等信息一起提供用户识别符474。随着时间476提供此显示472上的信息478。其针对每一周期或时刻展示信息478,例如在所述周期或时刻用户正看着谁、在那时用户是否正在说话,以及在所述周期或时刻正看着所述用户的会议参与者的百分比。此信息478可在会议期间的预定时间(例如,每分钟、每5分钟等等)确定,或经确定为例如特定时间周期上的平均值或其它经加权确定。此信息仅作为实例提供且无意为限制性的,可产生和显示额外或替代信息作为信息478。
图8中显示的信息可用于会议分析和用户分析。因此,在图8中,可确定当简不在说话时用户简通常看着玛丽或马克,但当简在说话时简看着约翰。图8还指示当简不在说话时,看着简的参与者的百分比为零,但此百分比在简说话时增加。
还可产生、存储、分析和显示交互统计数据。举例来说,可跟踪且显示人之间的交互演进。可使用随着时间的回归加权(例如,0.9*历史数据+0.1*当前数据),使得随着数据变得较旧,其变得较不相关,其中最当前数据被加权最高(或反之亦然)。以此方式,用户可能够看见他或其他人正在与哪些人联网多于其他人。可将额外统计数据作为分析中的因数以提供更准确的交互信息。举例来说,可与会议、历史和/或参与者交互数据一起使用(组合)从电子邮件交换或其它通信获得的交互信息以提供额外(例如,较准确)交互信息。
图9是指示随着时间的各种用户交互的另一实例性显示482的图480。此处,连同交互尺度488和时间周期一起识别用户简。图480展示其它用户ID 484和过去的月份列表486。在此实例中的交互尺度范围是从0到10,其中0表示无交互且10表示在月份486中的每一者中所识别用户与简之间的非常强的交互。此信息可产生且提供为历史数据,且例如由会议参与者或领导者或监督者使用来查看和分析随着时间的各种用户交互,以例如看谁在何时与谁最强地交互。
作为另一实例,可执行在线学习监视以确定远程位点的学生是否正在主动参与。同样,还预期用于具有参与者交互的视频游戏的应用,其中可存在在可能的声音事件位置当中用户正看着何处的立即辨识。
图10是方法500的实施方案的操作流程,且使用交叉相关作为示范性量度,但可使用任何相似性测量技术。在503处,固定麦克风阵列提供作用中说话者的数目N和作用中说话者的经分离语音信号。一个信号(声音)由固定麦克风阵列接收。固定麦克风阵列的输出包括波束,每一参与者对应于一个波束。因此,单独输出与每一参与者相关联。在510处,可导向麦克风阵列提供用户的观看方向。对于每一用户,个别用户的输出与从固定麦克风阵列输出的波形(或其它经空间滤波输出)中的每一者相关。
在515处可使用此信息产生位置映射。可利用与用户何时转向某人且看着他们有关的信息。如图示可使用例如506处所示的众所周知的经典相关方程式,其中E等于期望值且c为相关值。每当存在最大峰时,就是强相关角度。在一实施方案中,可使用物理约束或系统复杂性来预定最大可允许时间移位。举例来说,仅当佩戴可导向阵列的用户在作用中时,可测量和使用可导向麦克风与固定麦克风之间的时间延迟。应注意,常规帧长度20ms对应于几乎7米。角度θ是作用中说话者相对于收听用户定位的相对角度。在513处可确定固定阵列与可导向阵列之间的角度θ。
图11是测量相似性的方法520的实施方案的操作流程,且使用交叉累积量作为示范性量度,但可使用任何相似性测量技术。在523处,固定麦克风阵列提供作用中说话者的数目N和作用中说话者的经分离语音信号。一个信号(声音)由固定麦克风阵列接收。固定麦克风阵列的输出包括波束,每一参与者对应于一个波束。因此,单独输出与每一参与者相关联。在530处,可导向麦克风阵列提供用户的观看方向。对于每一用户,个别用户的输出与从固定麦克风阵列输出的波形(或其它经空间滤波输出)中的每一者相关。
在525处可使用此信息产生位置映射。可利用与用户何时转向某人且看着他们有关的信息。如图示可使用526处所示的众所周知的经典累积量方程式,其中E等于期望值且c为相关值。每当存在最大峰时,就是强相关角度。角度θ是作用中说话者相对于收听用户定位的相对角度。在513处可确定固定阵列与可导向阵列之间的角度θ。
应注意,可使用任何相似性或相关技术。关于可能的相似性量度,实际上可使用任何距离度量,例如(但不限于)以下众所周知的技术:(1)具有可允许时间调整的最小二乘法拟合:时域或频域;(2)基于特征的方法:使用线性预测译码(LPC)或梅尔频率倒谱系数(MFCC);和(3)基于较高阶的方法:交叉累积量、经验库贝克-李柏发散(Kullback-LeiblerDivergence)或板仓-斋藤(Itakura-Saito)距离。
图12是使用时域最小二乘法拟合测量相似性的方法540的实施方案的操作流程,且图13是使用频域最小二乘法拟合测量相似性的方法550的实施方案的操作流程。使用时域最小二乘法拟合的方法540类似于上述图11的方法520,不同的是替代于使用526的累积量方程,可如所示使用542处所示的时域方程式。类似地,方法550类似于图11的方法520,但不是使用能量正规化,而是使用快速傅立叶变换(FFT)结合552处所示的频域方程式。
图14是使用板仓-斋藤距离测量相似性的方法560的实施方案的操作流程。此技术类似于图13的FFT技术,但使用562处所示的方程式。图15是使用基于特征的方法测量相似性的方法570的实施方案的操作流程。如573和575处所示执行且结合图10的其它操作503、510、513和515以及572处所示的方程式来执行特征提取。
在一实施方案中,固定麦克风阵列的经分离说话者的音频波束与可导向麦克风阵列的输出之间的相关或相似性可用以放大目标说话者。此类型的合作缩放可提供用于放大所要说话者的用户接口。
换句话说,可执行合作放大,其中为具有多个装置的多个用户提供用户接口以用于通过仅看着目标说话者来放大目标说话者。可经由头戴式耳机或手持机在目标人处产生波束成形,使得可组合多个装置的所有可用资源以用于合作缩放,进而增强目标人的观看方向。
举例来说,用户可看着目标人,且可通过使用头戴式耳机或手持机(无论哪一者较靠近目标人)在目标人处产生波束成形。这可通过使用包含具有两个麦克风的隐藏相机的装置来实现。当多个装置的多个用户看着目标人时,相机可视觉上聚焦于所述人。另外,装置可通过使用(例如,全部)可用麦克风在听觉上聚焦(即,放大)所述人来增强目标人的观看方向。
另外,可通过消除其它说话者且增强目标人的话音来在听觉上放大目标人。所述增强也可使用头戴式耳机或手持机(无论哪一者较靠近目标人)来完成。
图16中展示示范性用户接口显示600。所述显示(例如,在移动装置显示器610或其它显示装置上显示)展示作用中用户位置620和相关联能量630。图17展示示范性用户接口显示,用以展示显示器上的合作缩放,其中说话者1如显示660中所示从初始显示650放大。
图18是用于放大目标人的方法700的实施方案的操作流程。如图3中,在710处可导向阵列705(在ANC头戴式耳机中)提供固定边射波束成形,其中在用户观看方向上(即,在可导向阵列的用户正观看的方向上)产生经波束成形输出。具有相关联处理器的固定麦克风阵列707(例如在移动装置中)在围绕固定麦克风阵列的三个维度中执行DOA估计,且在720处分离作用中说话者。确定作用中说话者的数目,且产生每一作用中说话者的单独输出(由例如识别号识别)。
在一实施方案中,可在730处执行作用中说话者的说话者辨识和标记。在750处确定固定阵列的经分离说话者与可导向阵列的输出之间的相关或相似性。使用相关或相似性测量和说话者的ID,可在760处检测、定位和放大目标用户。
可用例如具有两个麦克风的隐藏相机等装置代替用户,且仅通过看着目标人,便可以用通过听觉以及视觉的缩放来聚焦于目标人。
具有多个装置的摄像机应用是预期的。观看方向是已知的,且其它装置的所有可用麦克风可用以增强观看方向源。
在一实施方案中,固定阵列的经分离说话者的音频波束与可导向阵列的输出之间的相关或相似性可用以自适应地形成目标说话者的较好波束。以此方式,可自适应地精炼固定麦克风波束成形器,使得固定波束成形器可自适应地产生新观看方向。
举例来说,头戴式耳机麦克风阵列的波束成形器输出可用作参考以精炼固定麦克风阵列的波束成形器的观看方向。头戴式耳机波束成形器输出与当前固定麦克风阵列波束成形器输出之间的相关或相似性可同头戴式耳机波束成形器输出与具有稍微移动的观看方向的固定麦克风阵列波束成形器输出之间的相关或相似性进行比较。
图19展示具有额外候选观看方向810的实例性用户接口显示800。通过利用如图19所示的头戴式耳机波束成形器输出与原始固定麦克风波束成形器输出820之间的相关或相似性,可产生固定波束成形器的新候选观看方向。使用此技术,头戴式耳机麦克风波束成形器输出可用作参考以精炼固定麦克风波束成形器的观看方向。举例来说,图19中的说话者1可正在说话,且在他说话时,可自适应地形成新候选观看方向。
图20是用于自适应地精炼目标说话者的波束的方法900的实施方案的操作流程。如图3中,在910处可导向阵列905(例如,在ANC头戴式耳机中)提供固定边射波束成形,其中在用户观看方向上(即,在可导向阵列的用户正观看的方向上)产生经波束成形输出。具有相关联处理器的固定麦克风阵列907(例如在移动装置中)在围绕固定麦克风阵列的三个维度中执行DOA估计,且在920处分离作用中说话者。确定作用中说话者的数目,且产生每一作用中说话者的单独输出(由例如识别号识别)。如同图18,在950处确定固定阵列的经分离说话者与可导向阵列的输出之间的相关或相似性。
继续图20,在960处,使用所确定相关或相似性来增加作用中用户的DOA附近的角度分辨率,且再次执行作用中说话者的分离。使用增加的角度分辨率和可导向阵列的输出,在970处,确定固定阵列的经分离说话者与可导向阵列的输出之间的另一相关或相似性量度。在980处可随后使用此相关或相似性量度来放大目标说话者。
为在背景噪声和混响下充分稳健的同时多个声音事件的音频信号的每一帧估计三维到达方向(DOA)的方法是一个挑战。通过最大化可靠频率区间的数目可获得稳健性。可能希望此方法适合于任意形状的麦克风阵列几何形状,使得可避免麦克风几何形状上的特定约束。如本文描述的逐对1D方法可适当地并入到任何几何形状中。
针对此一般扬声器电话应用或远场应用可实施解决方案。可实施此方法以在无麦克风放置约束的情况下操作。也可实施此方法以使用上至奈奎斯特频率且下至较低频率的可用频率区间(例如,通过支持具有较大麦克风间距离的麦克风对的使用)来跟踪源。并非限于用于跟踪的单个对,可实施此方法以选择所有可用对当中的最佳对。此方法可用以支持甚至远场情境(多达三到五米或更大的距离)中的源跟踪,且提供高得多的DOA分辨率。其它潜在特征包含获得作用中源的确切2D表示。为了最佳结果,可能希望每一源是稀疏宽带音频源,且每一频率区间大部分由不超过一个源支配。
对于由一对麦克风在特定DOA上从点源直接接收的信号,相位延迟对于每一频率分量不同且还取决于麦克风之间的间距。在特定频率区间处的相位延迟的观测值可计算为复FFT系数的虚项与复FFT稀疏的实项的比率的反正切。如图21所示,在特定频率f处的相位延迟值可涉及在作为的远场(即,平面波)假设下的源DOA,其中d表示麦克风之间的距离(以m计),θ表示相对于与阵列轴正交的方向的到达角度(以弧度计),f表示频率(以Hz计),且c表示声音速度(以m/s计)。对于不具有混响的单个点源的理想情况,相位延迟与频率的比率将在所有频率上具有相同值
此方法在实践中受到麦克风对的空间混叠频率限制,所述频率可界定为信号的波长为麦克风之间的距离d的两倍的频率。空间混叠造成相位缠绕,其对可用以为特定麦克风对提供可靠相位延迟测量的频率范围施加上限。图23展示针对四个不同DOA的未缠绕相位延迟对频率的绘图,且图24展示针对相同DOA的缠绕相位延迟对频率的绘图,其中以黑体展示每一绘图的初始部分(即,直到第一缠绕发生)。通过对测得相位进行解缠绕来延伸相位延迟测量的有用频率范围的尝试通常是不可靠的。
替代于相位解缠绕,建议的方法针对DOA候选库存中的每一者将测得的(例如,缠绕)相位延迟与缠绕相位延迟的预计算值进行比较。图25展示包含(有噪声)测得相位延迟值(灰色)和库存的两个DOA候选(实线和虚线)的相位延迟值的角度对频率绘图的此实例,其中相位经缠绕于π到-π的范围。随后通过针对每一DOA候选θi计算在频率分量f的范围上第i DOA候选的相位延迟值与观测相位延迟值之间的对应误差ei,且识别对应于最小误差的DOA候选值,来确定最佳匹配于所观测信号的DOA候选。在一个实例中,误差ei表达为即作为在频率分量的所要范围或其它集合F上观测与候选相位延迟值之间的差平方的和
每一DOA候选θi的相位延迟值可在运行时间之前(例如,在设计或制造期间)根据c和d的已知值以及频率分量f的所要范围来计算,且在装置的使用期间从存储装置检索。此预计算库存可经配置以支持所要角度范围和分辨率(例如,均匀分辨率,例如一、二、五或十度,或所要不均匀分辨率)和所要频率范围和分辨率(也可为均匀或不均匀的)。
可能希望在尽可能多的频率区间上计算误差ei,以增加针对噪声的稳健性。举例来说,可能希望误差计算包含来自超越空间混叠频率的频率区间的项。在特定应用中,最大频率区间可受到其它因素限制,所述因素可包含可用存储器、计算复杂性、在高频率下刚性体的强反射等等。
语音信号通常在时间频率域中是稀疏的。如果源在频域中不相连,那么可同时跟踪两个源。如果源在时域中不相连,那么可在同一频率跟踪两个源。可能希望阵列包含至少等于在任何一个时间待区分的不同源方向的数目的数目的麦克风。麦克风可为全向的(例如,对于蜂窝式电话或专用会议装置可为典型的)或定向的(例如,对于例如机顶盒等装置可为典型的)。
此多通道处理一般适用于例如用于扬声器电话应用的源跟踪。此技术可用以计算所接收多通道信号的帧的DOA估计。此方法可在每一频率区间计算每一候选角度相对于观测角度的误差,其由相位延迟指示。所述频率区间处的目标角度是具有最小误差的候选。在一个实例中,随后在频率区间上将误差求和以获得所述候选的可能性量度。在另一实例中,在所有频率区间上最经常发生的目标DOA候选中的一或多者被识别为给定帧的DOA估计(或多个估计)。
可应用此方法以获得瞬时跟踪结果(例如,具有小于一个帧的延迟)。延迟取决于FFT大小和重叠程度。举例来说,对于具有50%重叠和16kHz取样频率的512点FFT,所得的256样本延迟对应于十六毫秒。此方法可用以支持通常多达两到三米或甚至多达五米的源-阵列距离的源方向区分。
误差也可视为方差(即,个别误差偏离预期值的程度)。时域接收信号到频域中的转换(例如,通过应用FFT)具有使每一区间中的频谱平均化的作用。此平均化在使用子带表示(例如,梅尔尺度或巴克尺度)的情况下甚至更明显。另外,可能希望对DOA估计执行时域平滑(例如,通过作为回归平滑器应用,例如一阶无限脉冲响应滤波器)。
可能希望减少误差计算操作的计算复杂性(例如,通过使用例如二元树等搜索策略,和/或应用已知信息,例如从一或多个先前帧的DOA候选选择)。
即使可在相位延迟方面测量方向信息,通常也希望获得指示源DOA的结果。因此,可能希望在DOA方面而非相位延迟方面计算误差。
在DOA方面的误差ei的表达式可通过假定观测缠绕相位延迟的表达式为DOA的函数来推导,例如
等效于作为DOA函数的未缠绕相位延迟的对应表达式,例如
由于相位缠绕所致的近似不连续性除外。误差ei可随后表达为
其中在频率f下观测与候选相位延迟之间的差在DOA方面表达为
执行泰勒级数展开以获得以下一阶近似:
其用以获得在频率f下观测的DOA与DOA候选θi之间的差的表达式:
此表达式可在假定观测缠绕相位延迟与未缠绕相位延迟的等效的情况下用以在DOA方面表达误差ei
其中[Ψfwrob),Ψfwri)]的值界定为
为了避免在端射方向(θ=+/-90°)除以零,可能希望改为使用二阶近似来执行此展开,如下:
其中
如以上一阶实例中,此表达式可在假定观测缠绕相位延迟与未缠绕相位延迟的等效的情况下用以在DOA方面表达误差ei作为观测和候选缠绕相位延迟值的函数。
如图27中所示,所接收信号的给定帧的观测与候选DOA之间的差可以此方式在所接收麦克风信号(例如,)的多个频率f中的每一者处且针对多个DOA候选θi中的每一者计算。如图28中证明,给定帧的DOA估计可通过将所述帧中的所有频率区间上的每一候选的平方差求和以获得误差ei且选择具有最小误差的DOA候选来确定。替代地,如图29中证明,此些差可用以识别每一频率处的最佳匹配(即,最小平方差)DOA候选。帧的DOA估计可随后确定为所有频率区间上的最频繁DOA。
如图31所示,可针对每一候选角度i和每一帧k的频率集合F中的每一者计算误差项。可能希望在计算的DOA差或误差方面指示源活动的可能性。此可能性的一个实例L可针对特定帧、频率和角度表达为
对于表达式(1),在特定频率处的极好匹配可造成对应可能性支配所有其它可能性。为了减少此易感性,可能希望包含规则化项λ,如以下表达式中:
语音往往在时间和频率两者上稀疏,使得在频率集合F上的和可包含来自由噪声支配的区间的结果。可能希望包含偏置项β,如以下表达式中:
可随着频率和/或时间变化的偏置项可基于噪声的假定分布(例如,高斯)。另外或替代地,偏置项可基于噪声的初始估计(例如,来自仅噪声初始帧)。另外或替代地,可例如由话音活动检测模块指示,基于来自仅噪声帧的信息动态地更新偏置项。
频率特定可能性结果可投影到(帧,角度)平面上以获得每帧的DOA估计其对噪声和混响是稳健的,因为仅目标支配性频率区间贡献于估计。在此求和中,其中误差较大的项具有接近零的值,且因此变为对估计较不重要。如果一方向源在一些频率区间中是支配性的,那么在那些频率区间处的误差值将针对所述角度较接近于零。而且,如果另一方向源在其它频率区间中是支配性的,那么在所述其它频率区间处的误差值将针对其它角度较接近于零。
基于方向成员关系(例如,用于话音活动检测),可能性结果还可投影到(帧,频率)平面上以指示每频率区间的可能性信息。此可能性可用以指示语音活动的可能性。另外或替代地,此信息可例如用以通过根据到达方向对帧和/或频率分量进行分类来支持所接收信号的时间和/或频率选择性掩蔽。
角度图表示类似于谱图表示。可通过在每一帧处绘制在每一频率下的当前DOA候选的可能性来获得角度图。
具有大间距的麦克风对通常不适合于高频率,因为空间混叠在针对此对的低频率下开始。然而,如本文描述的DOA估计方法允许使用超越相位缠绕开始的频率且甚至高达奈奎斯特频率(即,取样率的一半)的相位延迟测量。通过放松空间混叠约束,此方法使得能够使用具有较大麦克风间间距的麦克风对。由于与具有小麦克风间距离的阵列相比,具有大麦克风间距离的阵列通常在低频率下提供较好的方向性,因此较大阵列的使用通常也将有用相位延迟测量的范围延伸到较低频率中。
本文描述的DOA估计原理可延伸到线性阵列中的多个麦克风对(例如,如图22中所示)。用于远场情境的此应用的一个实例是沿着电视机或其它大格式视频显示屏幕的边限布置的线性麦克风阵列(例如,如图26中所示)。可能希望将此阵列配置为在麦克风之间具有不均匀(例如,对数)间距,如图22和26的实例中。
对于远场源,线性阵列的多个麦克风对将具有基本上相同的DOA。因此,一个选项是将DOA估计为来自阵列中的两个或两个以上对的DOA估计的平均值。然而,平均化方案可受到所述对中的甚至单个一对的失配影响,其可降低DOA估计准确性。替代地,可能希望从阵列的两对或两对以上麦克风当中选择用于每一频率的最佳麦克风对(例如,在所述频率下给出最小误差ei的对),使得针对不同频带可选择不同麦克风对。在麦克风对的空间混叠频率下,误差将较大。因此,此方法将往往在频率接近于其缠绕频率时自动避开麦克风对,因此避免DOA估计中的相关不确定性。对于较高频率区间,在麦克风之间具有较短距离的对将通常提供较好估计且可自动偏好,而对于较低频率区间,在麦克风之间具有较大距离的对将通常提供较好估计且可自动偏好。在图22中所示的四麦克风实例中,不同的六对麦克风是可能的(即,)。
在一个实例中,对于每一轴的最佳对是通过针对每一频率f计算PxI值来选择,其中P是对的数目,I是库存的大小,且每一值epi是观测角度θpf(对于对p和频率f)与候选角度θif之间的平方绝对差。对于每一频率f,选择对应于最低误差值epi的对p。此误差值还指示在频率f下的最佳DOA候选θi(如图30中所示)。
由麦克风对接收的信号可如本文描述经处理以提供相对于麦克风对的轴线在多达180度的范围上提供估计DOA。所要角度跨度和分辨率在所述范围内可为任意的(例如,均匀(线性)或不均匀(非线性),限于所关注的选定扇区等等)。另外或替代地,所要频率跨度和分辨率可为任意的(例如,线性、对数、梅尔尺度、巴克尺度等等)。
在图22中所示的模型中,来自麦克风对的在0与+/-90度之间的每一DOA估计指示相对于与所述对的轴线正交的平面的角度。此估计描述围绕所述对的轴线的圆锥,且沿着此圆锥的表面的源的实际方向是不确定的。举例来说,来自单个麦克风对的DOA估计不指示所述源是否在麦克风对前方或后方。因此,虽然在线性阵列中可使用两个以上麦克风来改善一频率范围上的DOA估计性能,但由线性阵列支持的DOA估计范围通常限于180度。
本文描述的DOA估计原理也可延伸到二维(2D)麦克风阵列。举例来说,2D阵列可用以将源DOA估计范围延伸到多达完整360°(例如,提供与例如雷达和生物医学扫描等应用中相似的范围)。此阵列可在例如扬声器电话应用中使用以甚至针对电话相对于一或多个源的任意放置也支持良好性能。
甚至对于远场点源,2D阵列的多个麦克风对也通常将不共享相同DOA。举例来说,相对于阵列的平面的源高度(例如,在z轴上)可在2D跟踪中起重要作用。图32展示扬声器电话应用的实例,其中由麦克风轴线界定的x-y平面平行于电话放置于其上的表面(例如,桌面)。在此实例中,源是从沿着x轴的位置说话但在z轴的方向上偏移的人(例如,说话者的嘴部高于桌面)。相对于由麦克风阵列界定的x-y平面,源的方向是沿着x轴,如图32中所示。沿着y轴的麦克风对将源的DOA估计为从x-z平面的零度。然而由于说话者高于x-y平面的高度,沿着x轴的麦克风对将源的DOA估计为从x轴的30°(即,从y-z平面的60度),而不是沿着x轴。图34和35展示与此DOA估计相关联的干扰圆锥的两个视图,其造成相对于麦克风轴线的估计说话者方向中的模糊性。
例如以下表达式
其中θ1和θ2分别为对1和2的估计DOA,可用以将DOA的所有对投影到其中定位三个麦克风的平面中的360°范围。此投影可用以使得能够在麦克风阵列周围的360°范围上跟踪作用中说话者的方向,无论高度差如何。应用以上表达式以将图32的DOA估计(0°,60°)投影到x-y平面中产生
其可映射到如图33中所示的270°的组合方向估计(例如,方位角)。
在定性使用情况下,源将位于未投影到麦克风轴线上的方向上。图37到40展示其中源位于麦克风的平面上方的此实例。在此实例中,源信号的DOA穿过点(x,y,z)=(5,2,5)。图37展示从+z方向所见的x-y平面,图38和40展示从麦克风MC30的方向所见的x-z平面,且图39展示从麦克风MC10的方向所见的y-z平面。图37中的阴影区域指示由y轴麦克风对MC20-MC30观测到的与DOAθ1相关联的干扰圆锥CY,且图38中的阴影区域指示由x轴麦克风对MC10-MC20观测到的与DOAθ2相关联的干扰圆锥CX。在图39中,阴影区域指示圆锥CY,且虚线圆指示圆锥CY与穿过源且与x轴正交的平面的交点。此圆上指示其与圆锥CY的交点的两个点是源的候选位置。同样,在图40中,阴影区域指示圆锥CX,虚线圆指示圆锥CY与穿过源且与y轴正交的平面的交点,且此圆上指示其与圆锥CX的交点的两个点是源的候选位置。可见在此2D情况下,相对于源是否高于或低于x-y平面仍有模糊性。
对于图37到40中所示的实例,由x轴麦克风对MC10-MC20观测到的DOA是且由y轴麦克风对MC20-MC30观测到的DOA是使用表达式(4)将这些方向投影到x-y平面中产生分别相对于x和y轴的所要角度的量值(21.8°,68.2°),其对应于给定源位置(x,y,z)=(5,2,5)。观测到的角度的正负号指示源位于其中的x-y象限,如图36中所示。
事实上,2D麦克风阵列几乎给出3D信息,除了针对上下干扰。举例来说,由麦克风 对MC10-MC20和MC20-MC30观测到的到达方向也可用以估计源的仰角相对于x-y平面的量 值。如果d表示从麦克风MC20到源的向量,那么向量d到x轴、y轴和x-y平面上的投影的长度 可分别表达为d sin(θ2),d sin(θ1)和仰角的量值可随后估计为
虽然图32到33和37到40的特定实例中的麦克风对具有正交轴,但应注意,对于具有非正交轴的麦克风对,表达式(4)可用以将DOA估计投影到那些非正交轴,且从所述点直接获得相对于正交轴的组合方向估计的表示。图41展示麦克风阵列MC10-MC20-MC30的实例,其中对MC20-MC30的轴线1位于x-y平面中且相对于y轴偏斜一偏斜角θ0
图42展示以来自图41中所示的阵列的观测(θ1,θ2)获得x-y平面中相对于正交轴x和y的组合方向估计的实例。如果d表示从麦克风MC20到源的向量,那么向量d到x轴和轴线1上的投影的长度可分别表达为d sin(θ2)和d sin(θ1)。向量(x,y)表示向量d到x-y平面上的投影。x的估计值是已知的,且其保留以估计y的值。
y的估计可使用向量(x,y)到轴线1上的投影p1=(d sinθ1sinθ0,d sinθ1cosθ0)来执行。观测到向量(x,y)与向量p1之间的差正交于p1,将y计算为
x-y平面中相对于正交的x和y轴的所要到达方向可随后分别表达为
到2D阵列的DOA估计的延伸通常良好地适于且足以用于扬声器电话应用。然而,到N维阵列的进一步延伸也是可能的,且可以直接方式执行。对于其中一个目标是支配性的跟踪应用,可能希望选择N对以用于表示N个维度。一旦以特定麦克风对获得2D结果,便可利用另一可用对来增加自由度。举例来说,图37到42说明使用来自x-y平面中的不同麦克风对的观测DOA估计来获得投影到x-y平面中的源方向的估计。以相同方式,来自x轴麦克风对和z轴麦克风对(或x-z平面中的其它对)的观测DOA估计可用以获得投影到x-z平面中的源方向的估计,且对于y-z平面或与麦克风中的三者或三者以上相交的任一其它平面是相同的。
来自不同维度的DOA误差的估计可用以例如使用例如以下表达式来获得组合可能性估计
其中θ0,i表示为对i选择的DOA候选。使用不同误差当中的最大者可能需要优先于接近于干扰圆锥中的仅一者的估计而促进对接近于两个观测的干扰圆锥的估计的选择,且因此可能指示错误的峰。此组合结果可用以获得如本文所述的(帧,角度)平面和/或如本文所述的(帧,频率)绘图。
本文描述的DOA估计原理可用以支持多个说话者当中的选择。举例来说,多个源的位置可与特定说话者的手动选择(例如,按下特定按钮以选择特定对应用户)或特定说话者的自动选择(例如,通过说话者辨识)组合。在一个此类应用中,电话经配置以辨识其所有者的话音,且优先于其它源的方向而自动选择对应于所述话音的方向。
源DOA可容易地在1D中界定,例如从-90°到+90°。从任意相对位置处的两个以上麦克风,建议使用如上所述的1D的直接延伸,例如2D中的两对情况中的(θ1,θ2)、3D中的三对情况中的(θ1,θ2,θ3)等等。
关键问题是如何将空间滤波应用于成对1D DOA估计的此组合。在此情况下,通过增强用于每一对的导向向量可应用如图43中所示的波束成形器/空波束成形器(BFNF)。在此图中,AH表示A的共轭转置,x表示麦克风通道,且y表示经空间滤波通道。使用如图43中所示的伪逆运算A+=(AHA)-1AH允许使用非方阵。对于例如如图45中说明的三麦克风情况(即,两个麦克风对),行数目2*2=4而非3,使得额外的行使矩阵为非方阵。
由于图43中所示的方法是基于稳健的1D DOA估计,因此不需要麦克风几何形状的完全了解,且也不需要同时使用所有麦克风的DOA估计。此方法良好地适合于与如本文所述的基于角度图的DOA估计一起使用,但也可使用任何其它1D DOA估计方法。图44展示如图43中所示的BFNF的实例,其还包含正规化因数以防止在空间混叠频率下的不良条件的逆。
图46展示逐对(PW)正规化MVDR(最小方差无失真响应)BFNF的实例,其中获得导向向量(阵列流形向量)的方式不同于常规方法。在此情况下,由于两个对之间的麦克风的共享而消除了共同通道。通过测量或通过使用sinc函数的理论计算来获得噪声相干矩阵Γ。应注意,图43、44和46的实例可经一般化于任意数目的源N,使得N<=M,其中M是麦克风的数目。
图47展示在矩阵AHA并未条件不良的情况下可使用的另一实例,其可使用矩阵的条件数或行列式来确定。如果矩阵条件不良,那么可能希望绕过用作源通道的频率区间的一个麦克风信号,同时继续应用方法以对其中矩阵AHA并未条件不良的其它频率区间进行空间滤波。此选项节省了用于计算用于正规化的分母的计算。图43到47中的方法证明了可在每一频率区间处独立应用的BFNF技术。使用如本文所述的用于每一频率和麦克风对的DOA估计来构造导向向量。举例来说,用于DOAθi,频率f和麦克风数目m(1或2)的对p和源n的导向向量的每一元素可计算为
其中lp指示对p的麦克风之间的距离,ω指示频率区间数,且fs指示取样频率。图48展示如图45中所示的阵列的导向向量的实例。
PWBFNF方案可用于抑制干扰者直到可用自由度的直接路径(不具有平滑轨迹假设的瞬时抑制,使用方向性掩蔽的额外噪声抑制增益,使用带宽延伸的额外噪声抑制增益)。象限框架的单通道后处理可用于静态噪声和噪声参考处置。
可能希望获得瞬时抑制,但也提供例如音乐噪声等假象的最小化。可能希望最大地使用可用自由度来用于BFNF。可在所有频率上固定一个DOA,或可准许频率上的稍微失配的对准。可仅使用当前帧,或可实施前馈网络。可针对高达奈奎斯特速率的范围中的所有频率(例如,不良条件的频率除外)设定BFNF。可使用自然掩蔽方法(例如,以获得平稳自然无缝的激进性过渡)。
图49展示如本文描述的集成方法的一个实例的流程图。此方法包含用于相位延迟估计的库存匹配任务,用以获得DOA误差方差值的方差计算任务,维度匹配和/或对选择任务,以及用以将选定DOA候选的DOA误差方差映射到源活动可能性估计的任务。逐对DOA估计结果也可用以跟踪一或多个作用中说话者,执行逐对空间滤波操作,和或执行时间和/或频率选择性掩蔽。活动可能性估计和/或空间滤波操作也可用以获得噪声估计以支持单通道噪声抑制操作。
部分4:应用程序接口的示范性实施方案
如先前论述,本文揭示的各种实施方案是针对经由应用程序接口的增强用户交互,所述应用程序接口考虑了在其中使用例如先前部分中论述的技术实施方案正呈现基于音频的上下文信息和/或基于视觉的语义信息的交互式多参与者环境中用户相对于正在说话的人的凝视方向。更具体来说,对于本文以下揭示的各种实施方案中的若干者,可使用两个不同类型的麦克风阵列装置(MAD)。第一类型的MAD是可导向麦克风阵列(也称为可导向阵列),其由用户佩戴在关于用户的眼睛的已知定向上,且其中多个用户可各自佩戴可导向阵列。第二类型的MAD是固定位置麦克风阵列(也称为固定阵列),其放置于与用户(其中一或多者正使用可导向阵列)相同的声学空间中。对于某些实施方案,可导向麦克风阵列可为有源噪声控制(ANC)头戴式耳机或助听器的部分,且可存在各自与例如会议或群组中的不同用户或说话者(本文也称为参与者)相关联的多个可导向阵列。
再次参见图1,房间中的用户群组的每一用户105佩戴可导向麦克风阵列110(例如,头戴式耳机),且还存在位于房间中的固定麦克风阵列150。佩戴头戴式耳机的用户105可从他的定向于用户的物理视觉(或“观看”)方向上的可导向(例如,可佩戴)麦克风阵列产生固定波束模式120,使得如果用户转动他的头,那么用户的波束模式观看方向也改变。通过使来自可导向麦克风阵列的经波束成形输出(或任一类型的经空间滤波输出)与对应于每一作用中说话者的固定麦克风阵列输出相关或另外确定其相似性,可使用固定麦克风阵列确定作用中说话者的位置,且进而可确定用户正看着(例如,注意着、听着等等)的人。
然而除了前述情况,系统还可确定用户是否共同地看着例如共同显示装置或空间中的其它对象,例如个人手持式装置(例如移动装置)或个人可佩戴装置(例如手表),如本文所述。在此这可一般地称为“共同凝视方向”且广义地对应于多个用户的凝视方向的一般方向或相交点,或由多个用户(或更具体来说,个别可导向阵列)感知的音频源的一般方向或相交点。对应于来自环境内的参与者的共同凝视方向和音频方向的信息可用以指示作用中说话者,且可针对凝视于所述说话者的那些参与者增强此作用中说话者的音频呈现。类似地,所识别作用中说话者也可为跟踪(或记录)交互进程的音频和/或视觉俘获装置的焦点,其中在作用中说话者在人们之间改变时,音频和/或视觉俘获装置的焦点也改变。
图50是图1的经增强版本,其进一步包含共同地或个别地可用于用户的多个装置,所述装置也用以作为系统的应用程序接口来传达信息。如此图中所示,房间中还存在群组显示装置160、个人手持式装置170,以及在此说明中为腕表型装置的个人可佩戴装置180。虽然仅展示群组显示装置160,但可利用任何数目、大小、类型或风格的投影显示装置。同样,虽然展示仅一个用户105具有个人手持式装置160,但其它用户105也可具有个人手持式装置且在需要的情况下甚至具有多个个人手持式装置,且对于个人可佩戴装置170也是如此。另外,包含(但不限于)本文在别处描述的各种此些装置中的任一者的个人计算装置和类似物也可与系统集成。同样,任一种群组显示系统也可容易实施且是完全预期的而不受本发明限制。
举例来说,关于群组显示装置,且对于本文揭示的各种实施方案,关于环境内的参与者的凝视方向和音频方向的信息可用以增强用来促进音频和/或视觉信息的呈现的环境控制。对于某些此类实施方案,当房间中的参与者正凝视着房间中的显示装置时,可自动使照明变暗以增强屏幕的观看,同时可相应地增加预记录的呈现的音量。对于包含作用中说话者的交互式音频/视觉呈现的某些其它实施方案,变暗和增加的音量可仅在静默的时间跨度期间发生,且随后当再次识别出作用中说话者时所述呈现可暂停,照明可增加到正常水平,且/或呈现的音量可自动相应地减小。
图51A是用于增强投影装置的视觉显示的示范性方法10的操作流程。图51B是图50的图100,其展示用户105观看房间的显示装置160(与图50形成对比,其中用户105不在看房间的显示装置160)。参见图51A,在步骤12处,系统监视以检测何时参与者共同地凝视例如投影屏幕等群组显示装置。对于呈现幻灯片,此检测可部分地基于例如作用中说话者的凝视方向来加权,而对于组合音频/视频呈现,检测可针对凝视方向和无作用中说话者来触发。在步骤14处,且在检测到用户105事实上凝视着显示装置160(如图51B中说明)后,即刻激活显示装置以开始音频视觉呈现,使房间中的照明变暗以增强呈现的观看(未图示),和/或增加呈现的音量到目标最大水平(也未图示),等等(统称为“增强设定”)。在步骤16处,系统监视房间以检测在呈现期间的作用中说话者或共同凝视方向的改变,且当检测到时(即,当房间返回到图50的状态时,其中用户105不再共同地凝视投影屏幕160),系统则暂停呈现且可能使光变亮一点或减小任何呈现声音(统称为“暂停设定”)。当用户再次返回其共同凝视于显示装置时,系统则返回到14以继续呈现和增强设定。系统可在14与16(分别对应于图51B和21)之间回归地操作直到呈现完成。在步骤18处,当系统检测到呈现何时结束时,系统则使显示屏幕减活,使房间中的照明变亮,等等(统称为“原始设定”),且随后在例如队列中存在另一呈现的情况下返回到步骤12处的监视以开始下一呈现。
同样,关于对特定用户/参与者特定的环境内的参与者的凝视方向和音频方向的信息可用以增强用于特定针对所述特定用户的装置的应用程序用户接口控制。举例来说,用户可拥有个人显示装置(或任一种移动显示装置),其通过系统与音频/视觉环境介接,且基于其用户相对于房间中的其它用户的凝视方向,可相应地自动执行不同功能,例如在不同上下文中显示不同信息或简单地确定显示是否应接通或断开。
更具体来说,本文揭示的某些实施方案至少基于来自固定阵列和一个可导向阵列的音频检测组件(即,麦克风型或其它声音检测装置)检测用户的视线凝视方向;确定显示装置是否在用户的视线中;如果显示装置在用户的视线中,那么在显示装置上显示第一图像;且如果显示装置不在用户的视线中,那么显示第二图像。对于各种此类实施方案,“音频检测组件”和“音频组件”是麦克风。
举例来说,对于在用户的凝视与用户凝视的主体(例如,另一参与者)前方和之间对准的移动装置(即,手持式便携式装置),装置可自动显示关于所述用户的凝视主体的信息(例如,识别信息、另一参与者最后的作用中说话的文字重放等等)。关于例如前述投影屏幕等其它应用,移动显示器在与用户的凝视和投影屏幕相交时可显示关于经预编程为仅用于此目的的呈现的屏幕的内容的补充信息。类似地,用户重复地凝视一对象、随后个人装置、随后所述对象且随后所述个人装置例如可类似地触发装置自动显示关于正经受用户的交替凝视活动的对象的信息。最后,装置可简单地在不使用时(即,不在用户的视场内)省电且当在使用时(即,在用户的视场内)自动接通。
图52A和52B是使用便携式显示装置170(即,包括显示器的移动装置)且看着第二用户105b的方向的第一用户105a的透视图。在图52A中,装置保持为低且不在第一用户105a的视线105x附近,而在图52B中,显示装置170保持在上位于观看第二用户105b的第一用户105a的视线105x附近。因此,在图52A中,个人显示装置170例如处于“屏幕关闭”状态以省电(由“暗”屏幕表示),而在52B中,个人显示装置170在保持在上处于视线105x附近时为“接通”(由“亮”屏幕表示),而且在检测到第一用户105a凝视的目标的身份后,还可显示关于第二用户105b的信息(由显示装置170的屏幕上的文字表示)。
图52C是用于在用户和目标(另一用户、显示屏幕等等)的直接视线附近时增强用户体验的个人显示装置的方法20的操作流程。在22处,装置回归地检测其是否处于其用户与目标之间的视线定向。随后在24处,装置随后识别目标,且在26处,基于目标选择增强信息来显示。在28处,装置检查以查看何时停止显示信息,例如当装置不再处于用户与目标之间的视线中时或当用户看着别处时,且当不再处于视线中时停止显示且返回到22以继续监视是否有下一目标。
类似地,在对特定用户/参与者特定的环境内的参与者的凝视方向和音频方向的上下文中显示的信息可用以通过交互地提供有帮助的提示和线索来增强用户自己在环境中的音频交互。举例来说,对于作为作用中说话者的用户,所述用户的个人显示装置(辨识出用户是当前作用中说话者)可跟踪用户与其它参与者的眼神接触以计量谁最主动地收听、谁的注意力被吸引到房间中另外的某个人或某物以及谁在进行私下讨论。装置又可随后提供线索以引导说话者集中于特定其它参与者以较好地鼓励他们或另外吸引他们进入讨论。
对于其它实施方案,关于对特定用户/参与者特定的环境内的参与者的凝视方向和音频方向的信息可用以增强对所述用户特定的多个装置的互操作性。举例来说,用户可具有手表型显示装置,其作为手表操作但当被带到用户的视线与另一参与者或环境中的其它信息源(音频或视觉)之间时也作为上述交互式显示器操作。举例来说,当保持在低水平时,手表显示器可仅提供例如时间、日期等等典型数据,但当升高到较直接地介入于用户的视线与目标(人、投影显示器等等)之间时提供特定于环境和参与者(且具体来说用户和目标参与者或对象)的音频/视觉交互的不同信息。
对于基于前述实施方案中的若干者的再其它实施方案,个人显示装置可利用超声来检测其相对于其用户的位置以便知道如何最佳地自动与用户交互。短程超声质量使得个人装置能够对个别用户工作而不干扰采用相似技术的其它用户。类似地,不同类型的发射器可用于例如投影屏幕和类似物等其它对象以使得其能够较好地检测凝视方向和其它输入,这又有助于适当输出设定的选择。举例来说,对于手表型显示器,如果手表具有超声发射器,那么由用户佩戴的可导向阵列(及其麦克风或“麦克风”)可检测装置的“到达方向”(DOA)。如果从用户到装置不存在阻挡且如果DOA“在范围中”(或“在范围内”)——即在例如+/-30度等某一角度范围(经常由希腊字母θ表示)内和/或在例如2英尺、10英尺或100英尺等某一接近距离内——那么可检测到超声发射且可相应地修改显示。而且,由于其随着距离的快速能量损失,超声到检测装置的接近度可在防止重叠和其它条件中起到重要作用。
应注意,对于某些应用确定装置是否“在范围中”可包括对应于装置是否举起以被观看的水平分量(即,是否直接在前方对后方的某处或在用户的凝视方向的侧面)和/或垂直分量(即,是否在其可由用户看见的眼睛水平对其处于其可能由用户存储的腰部水平)。另外,对于基于视线的确定,例如对应于用户正凝视的某物的信息显示,可能类似地需要垂直分量和水平分量来确定用户在三维空间中正凝视着什么,例如凝视着桌面上的显示器(且不是桌子自身)或特定的人(且不是站在旁边但在既定目标侧面的另一个人)。因此,在某些上下文中可能需要两个分量(垂直和水平)在范围内(且各自为“真”)以便使总体确定为真。举例来说,如果用户正凝视着来自布置成行和列的显示器群组(例如,类似于例如一字棋棋盘的3x3网格)当中的显示器,那么必须确定用户凝视方向的垂直分量和水平分量两者以确认用户正凝视着哪一显示器。
图53是佩戴包括两个麦克风404和406(或“麦克风”)的可导向阵列且保持两个具有超声功能的显示装置412和414的用户400的说明,其中第一装置412在范围内(且相应地修改其显示)而第二装置414在范围外(且不修改其显示或例如关闭其显示以省电)。
图54说明其中如果用户的移动装置和手表(均具有显示器)具有麦克风则装置可用以利用本文较早提到的相关方法确定从用户的角度偏移的情形。随后,当用户看着与看着手表的用户成直线的特定方向时,针对由于电话与手表之间的定向失配所致的偏移可随后用补偿来再配置视觉化(即,甚至当装置未完美定向时显示器也完美定向,如图示)。显示器可嵌入其中的类似于手表型装置的其它装置包含手镯型装置、项链型装置、戒指型装置、眼镜型装置等等。
对于由图53和54表征的某些此类实施方案,利用至少一个专用超声发射器可为有利的。然而,如果专用超声发射器不可用,那么手表或其它此类装置的噪声发射扬声器(如果存在)也可能用作超声发射器。另外,多向麦克风也可能附接到手表装置以用于某些实施方案,且相应地结合可导向阵列来操作。另一方面,对于不具有超声发射器或多向麦克风的手表(或其它装置),某些实施方案仍可同步声音事件显示的坐标,尽管将不可确定对应用户是否正看着手表(且因此不可使用声学信息来接通或断开手表,因为手表不拥有必要的声学能力)。
部分5:额外细节和替代例
本文揭示的方法和设备可一般应用于任何收发和/或音频感测应用中,尤其是此些应用的移动或另外便携式实例。举例来说,本文揭示的配置的范围包含驻留在经配置以采用码分多址(CDMA)空中接口的无线电话通信系统中的通信装置。然而,所属领域的技术人员将了解,具有如本文描述的特征的方法和设备可驻留在采用所属领域的技术人员已知的广泛多种技术的各种通信系统中的任一者中,例如采用有线和/或无线(例如,CDMA、TDMA、FDMA和/或TD-SCDMA)发射信道上的IP话音(VoIP)的系统。
明确预期且在此揭示,本文揭示的通信装置可适于在包交换(例如,经布置以根据例如VoIP等协议载运音频发射的有线和/或无线网络)和/或电路交换的网络中使用。还明确预期且在此揭示,本文揭示的通信装置可适于在窄带译码系统(例如,对大约四或五千赫的音频频率范围进行编码的系统)中使用和/或在宽带译码系统(例如,对大于五千赫的音频频率进行编码的系统)中使用,包含全带宽带译码系统和分带宽带译码系统。
可与如本文描述的通信装置的发射器和/或接收器一起使用或适于与其一起使用的编解码器的实例包含:增强型可变速率编解码器,如标题为“增强型可变速率编解码器,用于宽带扩展频谱数字系统的语音服务选项3、68和70(Enhanced Variable Rate Codec,Speech Service Options 3,68,and 70for Wideband Spread Spectrum DigitalSystems)”第三代合作伙伴计划2(3GPP2)文档C.S0014-C,v1.0(2007年2月,在www-dot-3gpp-dot-org在线可用)中描述;可选择模式声码器语音编解码器,如标题为“用于宽带扩展频谱通信系统的可选择模式声码器(SMV)服务选项(Selectable Mode Vocoder(SMV)Service Option for Wideband Spread Spectrum Communication Systems)”的3GPP2文档C.S0030-0,v3.0(2004年1月,在www-dot-3gPP-dot-org在线可用)中描述;自适应多速率(AMR)语音编解码器,如文档ETSI TS 126092V6.0.0(欧洲电信标准协会(ETSI),法国索菲亚安提波利斯企业邮政编码,2004年12月)中描述;以及AMR宽带语音编解码器,如文档ETSITS 126192V6.0.0(ETSI,2004年12月)中描述。此编解码器可例如用以从所接收无线通信信号恢复经再生音频信号。
提供所描述配置的呈现以使得所属领域的技术人员能够制作或使用本文揭示的方法和其它结构。本文展示和描述的流程图、框图和其它结构仅为实例,且这些结构的其它变体也在本发明的范围内。对这些配置的各种修改是可能的,且在此呈现的一般原理也可应用于其它配置。因此,本发明既定不限于上文展示的配置,而是应被赋予与本文以任何方式(包含所申请的形成原始发明的一部分的所附权利要求书中)揭示的原理和新颖特征一致的最广范围。
所属领域的技术人员将了解,可使用多种不同技艺和技术中的任一者来表示信息和信号。举例来说,贯穿以上描述可参考的数据、指令、命令、信息、信号、位和符号可通过电压、电流、电磁波、磁场或磁粒子、光场或光粒子或其任一组合来表示。
用于如本文揭示的配置的实施的重要设计要求可包含最小化处理延迟和/或计算复杂性(通常以每秒百万指令或MIPS测量),尤其是针对计算密集型应用,例如经压缩音频或视听信息的重放(例如,根据例如本文识别的实例中的一者的压缩格式编码的文件或流)或用于宽带通信的应用(例如,在高于八千赫的取样率下的话音通信,例如12、16、32、44.1、48或192kHz)。
如本文揭示的设备(例如,经配置以执行如本文描述的技术的任一装置)可以被视为适合于既定应用的硬件与软件和/或与固件的任一组合来实施。举例来说,此设备的元件可制造为例如驻留在同一芯片上或芯片组中的两个或两个以上芯片当中的电子和/或光学装置。此装置的一个实例是例如晶体管或逻辑门等逻辑元件的固定或可编程阵列,且这些元件中的任一者可实施为一或多个此类阵列。这些元件中的任何两个或两个以上或甚至全部可在相同的一或多个阵列内实施。此一或多个阵列可在一或多个芯片内(例如,在包含两个或两个以上芯片的芯片组内)实施。
本文揭示的设备的各种设施方案的一或多个元件可整体或部分地实施为经布置以在一或多个固定或可编程逻辑元件阵列上执行的一或多个指令集,所述逻辑元件阵列例如为微处理器、嵌入式处理器、IP核心、数字信号处理器、FPGA(现场可编程门阵列)、ASSP(专用标准产品)和ASIC(专用集成电路)。如本文揭示的设备的实施方案的各种元件中的任一者也可体现为一或多个计算机(例如,包含经编程以执行一或多个指令集或指令序列的一或多个阵列的机器,也称为“处理器”),且这些元件中的任何两个或两个以上或甚至全部可在相同的此类一或多个计算机内实施。
如本文揭示的处理器或用于处理的其它装置可制造为例如驻留在同一芯片上或芯片组中的两个或两个以上芯片当中的一或多个电子和/或光学装置。此装置的一个实例是例如晶体管或逻辑门等逻辑元件的固定或可编程阵列,且这些元件中的任一者可实施为一或多个此类阵列。此一或多个阵列可在一或多个芯片内(例如,在包含两个或两个以上芯片的芯片组内)实施。此些阵列的实例包含固定或可编程逻辑元件阵列,例如微处理器、嵌入式处理器、IP核心、DSP、FPGA、ASSP和ASIC。如本文揭示的处理器或用于处理的其它装置也可体现为一或多个计算机(例如,包含经编程以执行一或多个指令集或指令序列的一或多个阵列的机器)或其它处理器。如本文描述的处理器可用以执行不直接与本文描述的实施方案的程序相关的任务或其它指令集,例如与其中嵌入处理器的装置或系统(例如,音频感测装置)的另一操作相关的任务。如本文揭示的方法的部分还可由音频感测装置的处理器执行,且所述方法的另一部分在一或多个其它处理器的控制下执行。
所属领域的技术人员将了解,结合本文揭示的配置描述的各种说明性模块、逻辑块、电路和测试以及其它操作可实施为电子硬件、计算机软件或两者的组合。此些模块、逻辑块、电路和操作可以通用处理器、数字信号处理器(DSP)、ASIC或ASSP、FPGA或其它可编程逻辑装置、离散门或晶体管逻辑、离散硬件组件或其经设计以产生如本文揭示的配置的任一组合来实施或执行。举例来说,此配置可至少部分地实施为硬连线电路、制造于专用集成电路中的电路配置,或者加载到非易失性存储装置中的固件程序或作为机器可读代码从数据存储媒体加载或加载到其中的软件程序,此代码是可由例如通用处理器或其它数字信号处理单元等逻辑元件阵列执行的指令。通用处理器可为微处理器,但在替代例中,处理器可为任何常规处理器、控制器、微控制器或状态机。处理器也可实施为计算装置的组合,例如DSP与微处理器的组合、多个微处理器、结合DSP核心的一或多个微处理器,或任何其它此类配置。软件模块可驻留于非暂时性存储媒体中,例如RAM(随机存取存储器)、ROM(只读存储器)、例如快闪RAM等非易失性RAM(NVRAM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、寄存器、硬盘、可装卸式磁盘、或CD-ROM,或此项技术中已知的任一其它形式的存储媒体中。说明性存储媒体耦合到处理器,使得处理器可从存储媒体读取信息和向存储媒体写入信息。在替代方案中,存储器媒体可与处理器成一体式。处理器和存储媒体可驻留在ASIC中。ASIC可驻留在用户终端中。在替代方案中,处理器和存储媒体可作为离散组件驻留在用户终端中。
应注意,本文揭示的各种方法可由例如处理器等逻辑元件阵列执行,且如本文描述的设备的各种元件可实施为经设计以在此阵列上执行的模块。如本文使用,术语“模块”或“子模块”可指代呈软件、硬件或固件形式的任何方法、设备、装置、单元或包含计算机指令(例如,逻辑表达式)的计算机可读数据存储媒体。应了解,多个模块或系统可组合为一个模块或系统,且一个模块或系统可分离为多个模块或系统以执行相同功能。当以软件或其它计算机可执行指令实施时,过程的元素基本上是用以执行相关任务的代码段,例如例程、程序、对象、组件、数据结构和类似物。术语“软件”应理解为包含源代码、汇编语言代码、机器代码、二进制码、固件、宏码、微码、可由逻辑元件阵列执行的任何一或多个指令集或指令序列,和此些实例的任一组合。程序或代码段可存储在处理器可读媒体中或通过体现于载波中的计算机数据信号在传输媒体或通信链路上发射。
本文描述的方法的任务中的每一者可直接以硬件、以由处理器执行的软件模块或以两者的组合来体现。在如本文揭示的方法的实施方案的典型应用中,逻辑元件(例如,逻辑门)阵列经配置以执行所述方法的各种任务中的一者、一者以上或甚至全部。所述任务中的一或多者(可能全部)也可实施为代码(例如,一或多个指令集),体现于计算机程序产品(例如,例如磁盘、快闪或其它非易失性存储器卡、半导体存储器芯片等等一或多个数据存储媒体)中,其可由包含逻辑元件阵列(例如,处理器、微处理器、微控制器或其它有限状态机)的机器(例如,计算机)读取和/或执行。如本文揭示的方法的实施方案的任务也可由一个以上此类阵列或机器执行。在这些或其它实施方案中,所述任务可在例如蜂窝式电话等用于无线通信的装置或具有此通信能力的其它装置内执行。此装置可经配置以与电路交换和/或包交换网络通信(例如,使用例如VoIP等一或多个协议)。举例来说,此装置可包含经配置以接收和/或发射经编码帧的RF电路。
明确地揭示了本文揭示的各种方法可由例如手持机、头戴式耳机或便携式数字助理(PDA)等便携式通信装置执行,且本文描述的各种设备可包含在此装置内。
在一或多个示范性实施例中,本文描述的操作可以硬件、软件、固件或其任一组合实施。如果以软件实施,那么此些操作可作为一或多个指令或代码存储在计算机可读媒体上或经由计算机可读媒体传输。术语“计算机可读媒体”包含计算机可读存储媒体和通信(例如,传输)媒体两者。举例来说而非限制,计算机可读存储媒体可包括:存储元件阵列,例如半导体存储器(可包含(不限于)动态或静态RAM、ROM、EEPROM和/或快闪RAM)或铁电的、磁阻的、双向的、聚合的或相变存储器;CD-ROM或其它光盘存储装置;和/或磁盘存储装置或其它磁性存储装置。此存储媒体可以可由计算机存取的指令或数据结构的形式存储信息。通信媒体可包括可用以用指令或数据结构的形式载运所要程序代码且可由计算机存取的任何媒体,包含促进计算机程序从一处转移到另一处的任何媒体。而且,将任何连接恰当地称为计算机可读媒体。举例来说,如果使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)或例如红外线、无线电和/或微波等无线技术从网站、服务器或其它远程源发射软件,那么同轴电缆、光纤电缆、双绞线、DSL或例如红外线、无线电和/或微波等无线技术包含于媒体的定义中。如本文所使用,磁盘和光盘包含压缩光盘(CD)、激光光盘、光学光盘、数字多功能光盘(DVD)、软磁盘和Blu-ray DiscTM(蓝光光盘协会,加利福尼亚环球城),其中磁盘通常以磁性方式再生数据,而光盘用激光以光学方式再生数据。以上各项的组合也应包含在计算机可读媒体的范围内。
如本文描述的声信号处理设备可并入到接受语音输入以便控制某些操作或可另外得益于所要噪声与背景噪声的分离的电子装置(例如通信装置)中。许多应用可得益于增强或分离清晰的所要声音与源自多个方向的背景声音。此些应用可包含并入有例如话音辨识和检测、语音增强和分离、话音激活的控制和类似情况的能力的电子或计算装置中的人机接口。可能希望实施此声信号处理设备以适合于仅提供有限处理能力的装置中。
如本文描述的设备的实施方案的一或多个元件可用以执行不直接与所述设备的操作相关的任务或其它指令集,例如与其中嵌入所述设备的装置或系统的另一操作相关的任务。此设备的实施方案的一或多个元件也可具有共同的结构(例如,用以在不同时间执行对应于不同元件的代码的部分的处理器,经执行以在不同时间执行对应于不同元件的任务的指令集,或在不同时间执行用于不同元件的操作的电子和/或光学装置的布置)。
提供本发明的先前描述以使得所属领域的技术人员能够制作或使用本发明。所属领域的技术人员将容易明了对本发明的各种修改,且在不脱离本发明的范围的情况下可将本文界定的一般原理应用于其它变化。因此,本发明既定不限于本文描述的实例和设计,而是应被赋予与本文揭示的原理和新颖特征一致的最广范围。
虽然示范性实施方案可涉及在一或多个独立计算机系统的情形中利用当前揭示标的物的方面,但所述标的物不受此限制,而是可结合例如网络或分布式计算环境等任何计算环境来实施。再者,当前揭示标的物的方面可在多个处理芯片或装置中实施或跨多个处理芯片或装置实施,且存储可类似地跨多个装置实现。此些装置可能包含例如PC、网络服务器和手持式装置。
虽然已用特定于结构特征和/或方法动作的语言描述了标的物,但应了解,所附权利要求书中界定的标的物不一定限于上述特定特征或动作。而是,上述特定特征和动作是作为实施权利要求书的实例形式来揭示。

Claims (10)

1.一种用于显示信息的方法,所述方法包括:
经由可导向麦克风阵列检测来自移动显示装置的超声传输以确定何时所述移动显示装置在用户的凝视方向内;
当所述移动显示装置在所述用户的所述凝视方向内时,在所述移动显示装置上显示第一图像;以及
当所述移动显示装置不在所述用户的所述凝视方向内时,在所述移动显示装置上显示第二图像。
2.根据权利要求1所述的方法,其中所述第二图像是空白显示或非特定显示中的一者。
3.根据权利要求1所述的方法,其中所述移动显示装置包含可移动到所述用户的所述凝视方向内的个人显示装置。
4.根据权利要求3所述的方法,其中所述第一图像具体关于基于所述凝视方向所述用户正看着谁。
5.根据权利要求1所述的方法,其中基于所述用户的所述凝视方向的水平分量和垂直分量来确定所述凝视方向,所述水平分量和所述垂直分量对应于所述移动显示装置是否被举起以被观看。
6.一种用于显示信息的设备,所述设备包括:
用于经由可导向麦克风阵列检测来自移动显示装置的超声传输以确定何时所述移动显示装置在用户的凝视方向内的装置;
用于当所述移动显示装置在所述用户的所述凝视方向内时,在所述移动显示装置上显示第一图像的装置;以及
用于当所述移动显示装置不在所述用户的所述凝视方向内时,显示第二图像的装置。
7.根据权利要求6所述的设备,其中所述第二图像是空白显示或非特定显示中的一者。
8.根据权利要求6所述的设备,其中所述移动显示装置包含可移动到所述用户的所述凝视方向内的个人显示装置。
9.根据权利要求8所述的设备,其中所述第一图像具体关于基于所述凝视方向所述用户正看着谁。
10.根据权利要求6所述的设备,其中基于所述用户的所述凝视方向的水平分量和垂直分量来确定所述凝视方向,所述水平分量和所述垂直分量对应于所述移动显示装置是否被举起以被观看。
CN201380022338.0A 2012-05-11 2013-05-06 音频用户交互辨识和应用程序接口 Active CN104254818B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261645818P 2012-05-11 2012-05-11
US61/645,818 2012-05-11
US201261666207P 2012-06-29 2012-06-29
US61/666,207 2012-06-29
US13/674,789 US9746916B2 (en) 2012-05-11 2012-11-12 Audio user interaction recognition and application interface
US13/674,789 2012-11-12
PCT/US2013/039639 WO2013169623A1 (en) 2012-05-11 2013-05-06 Audio user interaction recognition and application interface

Publications (2)

Publication Number Publication Date
CN104254818A CN104254818A (zh) 2014-12-31
CN104254818B true CN104254818B (zh) 2019-03-22

Family

ID=49548241

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380022338.0A Active CN104254818B (zh) 2012-05-11 2013-05-06 音频用户交互辨识和应用程序接口

Country Status (5)

Country Link
US (2) US9746916B2 (zh)
EP (1) EP2847650A1 (zh)
CN (1) CN104254818B (zh)
IN (1) IN2014MN02025A (zh)
WO (1) WO2013169623A1 (zh)

Families Citing this family (162)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9746916B2 (en) * 2012-05-11 2017-08-29 Qualcomm Incorporated Audio user interaction recognition and application interface
US9736604B2 (en) 2012-05-11 2017-08-15 Qualcomm Incorporated Audio user interaction recognition and context refinement
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US20140003654A1 (en) * 2012-06-29 2014-01-02 Nokia Corporation Method and apparatus for identifying line-of-sight and related objects of subjects in images and videos
US9497544B2 (en) 2012-07-02 2016-11-15 Qualcomm Incorporated Systems and methods for surround sound echo reduction
US9813262B2 (en) 2012-12-03 2017-11-07 Google Technology Holdings LLC Method and apparatus for selectively transmitting data using spatial diversity
US9652135B2 (en) * 2012-12-10 2017-05-16 Samsung Electronics Co., Ltd. Mobile device of bangle type, control method thereof, and user interface (ui) display method
US9979531B2 (en) 2013-01-03 2018-05-22 Google Technology Holdings LLC Method and apparatus for tuning a communication device for multi band operation
JP2016508007A (ja) 2013-02-07 2016-03-10 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
US10102850B1 (en) * 2013-02-25 2018-10-16 Amazon Technologies, Inc. Direction based end-pointing for speech recognition
US10229697B2 (en) * 2013-03-12 2019-03-12 Google Technology Holdings LLC Apparatus and method for beamforming to obtain voice and noise signals
US9232072B2 (en) * 2013-03-13 2016-01-05 Google Inc. Participant controlled spatial AEC
US10750132B2 (en) * 2013-03-14 2020-08-18 Pelco, Inc. System and method for audio source localization using multiple audio sensors
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP2840807A1 (en) * 2013-08-19 2015-02-25 Oticon A/s External microphone array and hearing aid using it
KR101882594B1 (ko) * 2013-09-03 2018-07-26 토비 에이비 휴대용 눈 추적 디바이스
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US20150162000A1 (en) * 2013-12-10 2015-06-11 Harman International Industries, Incorporated Context aware, proactive digital assistant
US8874448B1 (en) * 2014-04-01 2014-10-28 Google Inc. Attention-based dynamic audio level adjustment
US10529359B2 (en) * 2014-04-17 2020-01-07 Microsoft Technology Licensing, Llc Conversation detection
US9922667B2 (en) * 2014-04-17 2018-03-20 Microsoft Technology Licensing, Llc Conversation, presence and context detection for hologram suppression
KR20170067682A (ko) * 2014-05-26 2017-06-16 블라디미르 셔먼 음향 신호 수집을 위한 코드 실행가능 방법, 회로, 장치, 시스템 및 관련 컴퓨터
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9766702B2 (en) 2014-06-19 2017-09-19 Apple Inc. User detection by a computing device
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10079941B2 (en) * 2014-07-07 2018-09-18 Dolby Laboratories Licensing Corporation Audio capture and render device having a visual display and user interface for use for audio conferencing
US20170160800A1 (en) * 2014-07-09 2017-06-08 Nokia Technologies Oy Device control
US10275207B2 (en) * 2014-09-01 2019-04-30 Samsung Electronics Co., Ltd. Method and apparatus for playing audio files
US10180974B2 (en) * 2014-09-16 2019-01-15 International Business Machines Corporation System and method for generating content corresponding to an event
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9928371B2 (en) 2014-11-19 2018-03-27 Papal, Inc. Systems and methods for protecting information displayed on a user interface of a device
US9886598B2 (en) * 2014-12-29 2018-02-06 Paypal, Inc. Automatic adjustment of a display to obscure data
US20170277738A1 (en) * 2015-01-29 2017-09-28 Palantir Technologies Inc. Temporal representation of structured information in an object model
JP6738342B2 (ja) 2015-02-13 2020-08-12 ヌープル, インコーポレーテッドNoopl, Inc. 聴力を改善するためのシステムおよび方法
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US20160328987A1 (en) * 2015-05-08 2016-11-10 International Business Machines Corporation Detecting the mood of a group
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
JP6739907B2 (ja) * 2015-06-18 2020-08-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器特定方法、機器特定装置及びプログラム
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
KR20170044386A (ko) * 2015-10-15 2017-04-25 삼성전자주식회사 전자기기 및 전자기기의 제어방법
US9928372B2 (en) 2015-10-23 2018-03-27 Paypal, Inc. Selective screen privacy
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US9905244B2 (en) * 2016-02-02 2018-02-27 Ebay Inc. Personalized, real-time audio processing
FR3047628B1 (fr) * 2016-02-05 2018-05-25 Christophe Guedon Procede d'aide au suivi d'une conversation pour personne malentendante
US10824320B2 (en) * 2016-03-07 2020-11-03 Facebook, Inc. Systems and methods for presenting content
JP6436427B2 (ja) * 2016-03-25 2018-12-12 パナソニックIpマネジメント株式会社 収音装置
US20170330565A1 (en) * 2016-05-13 2017-11-16 Bose Corporation Handling Responses to Speech Processing
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US11195542B2 (en) 2019-10-31 2021-12-07 Ron Zass Detecting repetitions in audio data
US20180018963A1 (en) * 2016-07-16 2018-01-18 Ron Zass System and method for detecting articulation errors
GB2552722A (en) * 2016-08-03 2018-02-07 Cirrus Logic Int Semiconductor Ltd Speaker recognition
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
WO2018088450A1 (ja) * 2016-11-08 2018-05-17 ヤマハ株式会社 音声提供装置、音声再生装置、音声提供方法及び音声再生方法
GB2557219A (en) * 2016-11-30 2018-06-20 Nokia Technologies Oy Distributed audio capture and mixing controlling
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
EP3576992A4 (en) 2017-02-03 2020-12-02 Fasetto, Inc. SYSTEMS AND METHODS FOR STORING DATA IN KEY DEVICES
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10334360B2 (en) * 2017-06-12 2019-06-25 Revolabs, Inc Method for accurately calculating the direction of arrival of sound at a microphone array
GB2563670A (en) 2017-06-23 2018-12-26 Nokia Technologies Oy Sound source distance estimation
US11763834B2 (en) * 2017-07-19 2023-09-19 Nippon Telegraph And Telephone Corporation Mask calculation device, cluster weight learning device, mask calculation neural network learning device, mask calculation method, cluster weight learning method, and mask calculation neural network learning method
US10528600B1 (en) * 2017-09-13 2020-01-07 Hrl Laboratories, Llc System to identify unknown communication behavior relationships from time series
US11195107B1 (en) * 2017-09-13 2021-12-07 Hrl Laboratories, Llc Method of malicious social activity prediction using spatial-temporal social network data
US10349122B2 (en) 2017-12-11 2019-07-09 Sony Corporation Accessibility for the hearing-impaired using keyword to establish audio settings
EP3725091A1 (en) * 2017-12-14 2020-10-21 Barco N.V. Method and system for locating the origin of an audio signal within a defined space
US20190190908A1 (en) * 2017-12-19 2019-06-20 Melo Inc. Systems and methods for automatic meeting management using identity database
EP3503539B1 (en) * 2017-12-21 2020-08-12 Axis AB Operation control of battery-powered devices
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10674305B2 (en) * 2018-03-15 2020-06-02 Microsoft Technology Licensing, Llc Remote multi-dimensional audio
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
MX2020010857A (es) * 2018-04-17 2021-01-15 Fasetto Inc Presentacion de dispositivo con comentarios en tiempo real.
US10923139B2 (en) 2018-05-02 2021-02-16 Melo Inc. Systems and methods for processing meeting information obtained from multiple sources
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US10699709B2 (en) * 2018-06-08 2020-06-30 International Business Machines Corporation Conference call analysis and automated information exchange
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN113747330A (zh) 2018-10-15 2021-12-03 奥康科技有限公司 助听器系统和方法
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US10817251B2 (en) 2018-11-29 2020-10-27 Bose Corporation Dynamic capability demonstration in wearable audio device
US10922044B2 (en) * 2018-11-29 2021-02-16 Bose Corporation Wearable audio device capability demonstration
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US10923098B2 (en) 2019-02-13 2021-02-16 Bose Corporation Binaural recording-based demonstration of wearable audio device functions
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
EP4004593A4 (en) * 2019-07-26 2023-03-29 Hewlett-Packard Development Company, L.P. RADAR-BASED NOISE FILTERS
CN110515066B (zh) * 2019-08-20 2023-03-24 立晟智能科技(成都)有限公司 一种车载毫米波雷达及其目标高度测量方法
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN111970593A (zh) * 2020-07-27 2020-11-20 歌尔科技有限公司 无线耳机的控制方法、装置及无线耳机
US11483647B2 (en) * 2020-09-17 2022-10-25 Bose Corporation Systems and methods for adaptive beamforming
KR20230050466A (ko) 2020-09-25 2023-04-14 애플 인크. 사용자 인터페이스들을 내비게이팅하기 위한 방법들
US20220101873A1 (en) * 2020-09-30 2022-03-31 Harman International Industries, Incorporated Techniques for providing feedback on the veracity of spoken statements
US11290837B1 (en) * 2020-10-23 2022-03-29 Facebook Technologies, Llc Audio system using persistent sound source selection for audio enhancement
US11792243B2 (en) 2022-01-19 2023-10-17 Bank Of America Corporation System and method for conducting multi-session user interactions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999167A (en) * 1996-11-08 1999-12-07 Stephen A. Marsh Cursor control device
DE10217822C1 (de) * 2002-04-17 2003-09-25 Daimler Chrysler Ag Verfahren und Vorrichtung zur Blickrichtungserkennung einer Person mittels wenigstens eines richtungsselektiven Mikrofons
EP2172801A2 (de) * 2008-10-01 2010-04-07 Robert Bosch GmbH Verfahren für eine Anzeige einer visuellen Warndarstellung

Family Cites Families (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3185505B2 (ja) 1993-12-24 2001-07-11 株式会社日立製作所 会議録作成支援装置
JP2749780B2 (ja) 1994-09-30 1998-05-13 株式会社エイ・ティ・アール人間情報通信研究所 適応化型相互相関装置
WO1996036960A1 (en) 1995-05-19 1996-11-21 Intelligent Devices, L.L.C. Non-contact user interface for data processing system
JP3862315B2 (ja) 1996-03-13 2006-12-27 キヤノン株式会社 画像表示装置及びその制御方法
US5810395A (en) 1996-12-30 1998-09-22 Morgan; Dale C. Method for recording and tracking the progress of activities
JP4230518B2 (ja) 1997-10-07 2009-02-25 雅信 鯨田 場所・角度連動型の複数連携型表示システム
GB2342802B (en) 1998-10-14 2003-04-16 Picturetel Corp Method and apparatus for indexing conference content
US6424719B1 (en) 1999-07-29 2002-07-23 Lucent Technologies Inc. Acoustic crosstalk cancellation system
JP3598932B2 (ja) 2000-02-23 2004-12-08 日本電気株式会社 話者方向検出回路及びそれに用いる話者方向検出方法
JP2001252258A (ja) 2000-03-09 2001-09-18 Casio Comput Co Ltd 体脂肪表示制御装置及び身長表示制御装置
US6490578B1 (en) 2000-04-05 2002-12-03 Sybase, Inc. Database system with methodology for high-performance date
US7119828B1 (en) 2001-04-13 2006-10-10 Kizhnerman M Sean System and method for establishing and controlling an on-demand teleconference by a remote computer
US20030020750A1 (en) 2001-07-26 2003-01-30 International Business Machines Corporation Specifying messaging session subject preferences
US20030038754A1 (en) 2001-08-22 2003-02-27 Mikael Goldstein Method and apparatus for gaze responsive text presentation in RSVP display
US7062533B2 (en) 2001-09-20 2006-06-13 International Business Machines Corporation Specifying monitored user participation in messaging sessions
FR2830153B1 (fr) 2001-09-21 2004-07-02 France Telecom Ensemble de transmission d'images numeriques, procedes mis en oeuvre dans un tel ensemble, dispositif d'emission d'images numeriques et dispositif d'affichage d'images numeriques
US6980485B2 (en) 2001-10-25 2005-12-27 Polycom, Inc. Automatic camera tracking using beamforming
US20030101060A1 (en) 2001-11-29 2003-05-29 Bickley Corine A. Use of historical data for a voice application interface
US7298930B1 (en) 2002-11-29 2007-11-20 Ricoh Company, Ltd. Multimodal access of meeting recordings
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7177413B2 (en) 2003-04-30 2007-02-13 Cisco Technology, Inc. Head position based telephone conference system and associated method
US20040235520A1 (en) 2003-05-20 2004-11-25 Cadiz Jonathan Jay Enhanced telephony computer user interface allowing user interaction and control of a telephone using a personal computer
US20050021344A1 (en) 2003-07-24 2005-01-27 International Business Machines Corporation Access to enhanced conferencing services using the tele-chat system
KR20050021656A (ko) 2003-08-25 2005-03-07 에스케이텔레텍주식회사 통화 상대별 통화 시간 분류 저장 방법
JP2005124160A (ja) 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 会議支援システム、情報表示装置、プログラム、及び制御方法
US7590941B2 (en) 2003-10-09 2009-09-15 Hewlett-Packard Development Company, L.P. Communication and collaboration system using rich media environments
WO2006006935A1 (en) 2004-07-08 2006-01-19 Agency For Science, Technology And Research Capturing sound from a target region
US7604396B1 (en) * 2004-08-30 2009-10-20 Don Karterman Wristwatch with movable movement case
US7307921B1 (en) * 2004-08-30 2007-12-11 Karterman Don S Wristwatch with movable movement case
US7667728B2 (en) 2004-10-15 2010-02-23 Lifesize Communications, Inc. Video and audio conferencing system with spatial audio
US7688344B2 (en) 2004-12-17 2010-03-30 Fuji Xerox Co., Ltd. Systems and methods for mediating teleconferences
CA2595239C (en) 2005-01-19 2016-12-20 Dermaspect Llc Devices and methods for identifying and monitoring changes of a suspect area on a patient
US7460150B1 (en) 2005-03-14 2008-12-02 Avaya Inc. Using gaze detection to determine an area of interest within a scene
US7995717B2 (en) 2005-05-18 2011-08-09 Mattersight Corporation Method and system for analyzing separated voice data of a telephonic communication between a customer and a contact center by applying a psychological behavioral model thereto
US9300790B2 (en) 2005-06-24 2016-03-29 Securus Technologies, Inc. Multi-party conversation analyzer and logger
EP1750209A1 (de) 2005-08-02 2007-02-07 IMS Health GmbH & Co. OHG Verfahren und Vorrichtung zur automatischen Darstellung von in Datenbereichen geordneten Daten
US20070106724A1 (en) 2005-11-04 2007-05-10 Gorti Sreenivasa R Enhanced IP conferencing service
WO2007072757A1 (ja) 2005-12-19 2007-06-28 Yamaha Corporation 放収音装置
JP5055781B2 (ja) 2006-02-14 2012-10-24 株式会社日立製作所 会話音声分析方法、及び、会話音声分析装置
US20130124623A1 (en) 2006-09-12 2013-05-16 Adobe Systems Incorporated Attention tracking in an online conference
US20090157672A1 (en) 2006-11-15 2009-06-18 Sunil Vemuri Method and system for memory augmentation
EP1959378B1 (en) 2007-02-14 2014-08-27 Software AG Collaboration application and method
US8111838B2 (en) 2007-02-28 2012-02-07 Panasonic Corporation Conferencing apparatus for echo cancellation using a microphone arrangement
US20080216125A1 (en) 2007-03-01 2008-09-04 Microsoft Corporation Mobile Device Collaboration
US20080259731A1 (en) 2007-04-17 2008-10-23 Happonen Aki P Methods and apparatuses for user controlled beamforming
US8392503B2 (en) 2007-06-19 2013-03-05 Cisco Technology, Inc. Reporting participant attention level to presenter during a web-based rich-media conference
US8639501B2 (en) 2007-06-27 2014-01-28 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for enhancing spatial audio signals
US8243902B2 (en) 2007-09-27 2012-08-14 Siemens Enterprise Communications, Inc. Method and apparatus for mapping of conference call participants using positional presence
US8509454B2 (en) 2007-11-01 2013-08-13 Nokia Corporation Focusing on a portion of an audio scene for an audio signal
US8219387B2 (en) 2007-12-10 2012-07-10 Microsoft Corporation Identifying far-end sound
FR2925811A1 (fr) 2007-12-20 2009-06-26 Alcatel Lucent Sas Procede et agent de traitement de messages echanges entre terminaux.
US8344998B2 (en) 2008-02-01 2013-01-01 Wimm Labs, Inc. Gesture-based power management of a wearable portable electronic device with display
EP2088802B1 (en) 2008-02-07 2013-07-10 Oticon A/S Method of estimating weighting function of audio signals in a hearing aid
JP2009301166A (ja) 2008-06-11 2009-12-24 Panasonic Corp 電子機器制御装置
US8364481B2 (en) 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
EP2146519B1 (en) 2008-07-16 2012-06-06 Nuance Communications, Inc. Beamforming pre-processing for speaker localization
US8314829B2 (en) 2008-08-12 2012-11-20 Microsoft Corporation Satellite microphones for improved speaker detection and zoom
US20100040217A1 (en) 2008-08-18 2010-02-18 Sony Ericsson Mobile Communications Ab System and method for identifying an active participant in a multiple user communication session
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8045695B2 (en) 2008-09-29 2011-10-25 Yahoo! Inc System for determining active copresence of users during interactions
US20100123785A1 (en) 2008-11-17 2010-05-20 Apple Inc. Graphic Control for Directional Audio Input
FR2941307B1 (fr) 2009-01-19 2012-03-30 Peugeot Citroen Automobiles Sa Systeme d'affichage d'informations notamment pour vehicule automobile et vehicule automobile comportant un tel systeme d'affichage.
US8442833B2 (en) 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
JP5267995B2 (ja) 2009-05-15 2013-08-21 独立行政法人情報通信研究機構 会話グループ把握装置、会話グループ把握方法、及びプログラム
US8416715B2 (en) 2009-06-15 2013-04-09 Microsoft Corporation Interest determination for auditory enhancement
US9111263B2 (en) 2009-06-15 2015-08-18 Microsoft Technology Licensing, Llc Adaptive meeting management
US8351589B2 (en) 2009-06-16 2013-01-08 Microsoft Corporation Spatial audio for audio conferencing
US8887068B2 (en) 2009-07-31 2014-11-11 Verizon Patent And Licensing Inc. Methods and systems for visually chronicling a conference session
US20110242298A1 (en) * 2009-08-21 2011-10-06 Microsoft Corporation Private video presentation
US8477920B2 (en) 2009-09-28 2013-07-02 At&T Mobility Ii Llc Systems and methods for managing the status of participants of a tele-networking meeting
TW201112045A (en) 2009-09-28 2011-04-01 Wistron Corp Viewing direction determination method, viewing direction determination apparatus, image processing method, image processing apparatus and display device
US8903064B2 (en) 2009-09-30 2014-12-02 Shoretel, Inc. Maintaining history information for a user across multiple types of end points
US8531485B2 (en) 2009-10-29 2013-09-10 Immersion Corporation Systems and methods for compensating for visual distortion caused by surface features on a display
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8661034B2 (en) 2010-02-03 2014-02-25 Gartner, Inc. Bimodal recommendation engine for recommending items and peers
CN102474681B (zh) 2010-06-30 2014-12-10 松下电器产业株式会社 交谈检测装置、助听器和交谈检测方法
US20120019557A1 (en) 2010-07-22 2012-01-26 Sony Ericsson Mobile Communications Ab Displaying augmented reality information
JP4818454B1 (ja) 2010-08-27 2011-11-16 株式会社東芝 表示装置、及び表示方法
JP5740575B2 (ja) 2010-09-28 2015-06-24 パナソニックIpマネジメント株式会社 音声処理装置および音声処理方法
US8855341B2 (en) * 2010-10-25 2014-10-07 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for head tracking based on recorded sound signals
TW201227128A (en) * 2010-12-21 2012-07-01 J Touch Corp Three-dimensional image display device and electrochromic module thereof
US8698872B2 (en) 2011-03-02 2014-04-15 At&T Intellectual Property I, Lp System and method for notification of events of interest during a video conference
CN102736254B (zh) * 2011-04-12 2014-10-08 夏普株式会社 视认切换用眼镜及显示控制装置
US8581956B2 (en) 2011-04-29 2013-11-12 Hewlett-Packard Development Company, L.P. Methods and systems for communicating focus of attention in a video conference
US9538133B2 (en) 2011-09-23 2017-01-03 Jie Diao Conveying gaze information in virtual conference
JP5772447B2 (ja) 2011-09-27 2015-09-02 富士ゼロックス株式会社 音声解析装置
KR101810170B1 (ko) * 2011-10-10 2017-12-20 삼성전자 주식회사 사용자 위치 기반 이미지 표시 방법 및 장치
CN110111882B (zh) 2011-10-24 2024-03-15 哈佛大学校长及研究员协会 通过人工智能和移动健康技术、在不损害准确性的情况下对病症进行增强诊断
EP2774353A4 (en) 2011-11-03 2015-11-18 Intel Corp PICTURES BASED ON EYE PERSONALIZATION
CN102547209B (zh) 2012-02-06 2015-07-22 华为技术有限公司 视讯设备控制方法、装置及视讯系统
US9369667B2 (en) 2012-04-11 2016-06-14 Jie Diao Conveying gaze information in virtual conference
US9857451B2 (en) 2012-04-13 2018-01-02 Qualcomm Incorporated Systems and methods for mapping a source location
US9002938B2 (en) 2012-04-26 2015-04-07 International Business Machines Corporation Notifying electronic meeting participants of interesting information
US9746916B2 (en) 2012-05-11 2017-08-29 Qualcomm Incorporated Audio user interaction recognition and application interface
US9736604B2 (en) 2012-05-11 2017-08-15 Qualcomm Incorporated Audio user interaction recognition and context refinement
US9443521B1 (en) 2013-02-14 2016-09-13 Sociometric Solutions, Inc. Methods for automatically analyzing conversational turn-taking patterns

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999167A (en) * 1996-11-08 1999-12-07 Stephen A. Marsh Cursor control device
DE10217822C1 (de) * 2002-04-17 2003-09-25 Daimler Chrysler Ag Verfahren und Vorrichtung zur Blickrichtungserkennung einer Person mittels wenigstens eines richtungsselektiven Mikrofons
EP2172801A2 (de) * 2008-10-01 2010-04-07 Robert Bosch GmbH Verfahren für eine Anzeige einer visuellen Warndarstellung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Estimating Dominance in Multi-Party Meetings Using Speaker Diarization;Hayley Hung et al.;《Audio Speech & Language Processing IEEE Transaction on》;20111231;摘要、正文第3-11页,附图1-9

Also Published As

Publication number Publication date
IN2014MN02025A (zh) 2015-08-14
US20170308164A1 (en) 2017-10-26
WO2013169623A1 (en) 2013-11-14
US20130300648A1 (en) 2013-11-14
EP2847650A1 (en) 2015-03-18
US9746916B2 (en) 2017-08-29
US10073521B2 (en) 2018-09-11
CN104254818A (zh) 2014-12-31

Similar Documents

Publication Publication Date Title
CN104254818B (zh) 音频用户交互辨识和应用程序接口
CN104246878B (zh) 音频用户交互辨识和上下文精炼
CN104220896B (zh) 用于估计到达方向的系统、方法和设备
JP2018532151A (ja) 音声対応デバイス間の調停
US10582117B1 (en) Automatic camera control in a video conference system
Ahuja et al. Direction-of-voice (dov) estimation for intuitive speech interaction with smart devices ecosystems
Hao et al. Spectral flux-based convolutional neural network architecture for speech source localization and its real-time implementation
Yang et al. Model-based head orientation estimation for smart devices
Lehmann Particle filtering methods for acoustic source localisation and tracking
Nguyen et al. Selection of the closest sound source for robot auditory attention in multi-source scenarios
CN115516553A (zh) 用于多麦克风自动临床文档化的系统和方法
Habib et al. Auditory inspired methods for localization of multiple concurrent speakers
Ronzhin et al. Client and Speech Detection System for Intelligent Infokiosk
Mathews Development and evaluation of spherical microphone array-enabled systems for immersive multi-user environments
WO2023157963A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Bian et al. Sound source localization in domestic environment
Deadman Simulating realistic multiparty speech data: for the development of distant microphone ASR systems
Gomez Speaker Diarization and Identification from Single-Channel Classroom Audio Recording Using Virtual Microphones
Omologo Front-end processing of a distant-talking speech interface for control of an interactive TV system
Ronzhin et al. User Preference Model for Conscious Services in Smart Environments
McCowan et al. Understanding of Human Interactions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant