CN101874404B - 用于语音和视频通信的增强接口 - Google Patents

用于语音和视频通信的增强接口 Download PDF

Info

Publication number
CN101874404B
CN101874404B CN2008801173937A CN200880117393A CN101874404B CN 101874404 B CN101874404 B CN 101874404B CN 2008801173937 A CN2008801173937 A CN 2008801173937A CN 200880117393 A CN200880117393 A CN 200880117393A CN 101874404 B CN101874404 B CN 101874404B
Authority
CN
China
Prior art keywords
user
project
attitude
state
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2008801173937A
Other languages
English (en)
Other versions
CN101874404A (zh
Inventor
埃文·希尔德雷思
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Priority to CN201310364747.0A priority Critical patent/CN103442201B/zh
Publication of CN101874404A publication Critical patent/CN101874404A/zh
Application granted granted Critical
Publication of CN101874404B publication Critical patent/CN101874404B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/10Aspects of automatic or semi-automatic exchanges related to the purpose or context of the telephonic communication
    • H04M2203/1016Telecontrol
    • H04M2203/1025Telecontrol of avatars
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/25Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service
    • H04M2203/251Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably
    • H04M2203/253Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably where a visual mode is used instead of a voice mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/60Aspects of automatic or semi-automatic exchanges related to security aspects in telephonic communication systems
    • H04M2203/6054Biometric subscriber identification

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

一种用于语音和视频通信的增强的接口,其中,从一系列相机图像中识别用户的姿态,并且提供包含控件和所述用户的表示的用户接口。所述过程还包括基于所识别的姿态使所述表示与所述控件交互作用,并基于所述交互作用控制电信会话。

Description

用于语音和视频通信的增强接口
相关申请的交叉引用
本申请要求2007年9月24日提交的No.60/974,774号美国临时专利申请的优先权,并通过引用将其包含于此。
技术领域
本公开涉及用户输入机制,并且至少一种具体配置涉及用户输入机制,该用户输入机制被配置成使用户能够控制语音和视频通信。
背景技术
各种基于语音的电子控制系统可以允许用户和计算机应用程序或者其他的语音或者视频应用程序交互作用(interact)。但是,这些系统仅勉强适用于输入文本、数字,或者适用于从大量选项中进行选择。
发明内容
根据一个一般性实施方式,用户可以通过执行各种规定的姿态控制通信会话,例如电话会议会话。通过在各种时间访问用户的图像,姿态被自动识别并映射到控件输入(control input),例如用于开始或者终止电信会话的输入,或者用于将会话置于各种状态的输入。在其他的特征中,接口(interface)可以显示最初环绕所识别的用户的表示(representation)(例如,化身)的定制图标,通过用户身体的直率、直观和自然的运动来实现对人物(characters)命令的轻松选择。
根据另一个一般性实施方式,一种计算机实施的过程包括从一系列相机图像中识别用户的姿态,并提供包括控件(control)和用户的表示的用户接口。所述过程还包括基于所识别的姿态使所述表示与控件交互作用,并基于所述交互作用控制电信会话。
实施方式可以包括下列特征中的一个或多个。例如,控制电信会话还可以包括把电信会话从第一状态改变到不同的第二状态(a second differentstate),并且第一或第二状态可以包括待机状态、通知状态、呼出(outgoing)呼叫状态、连接状态、静音状态、菜单状态、连接选项状态、直接拨号状态、重新拨号状态、搜索状态、浏览状态、消息菜单状态、消息回放状态,或者配置状态。电信会话还可以包括语音和视频电信会话。
在额外的示例性实施方式中,控制电信会话还可以包括基于识别出接合姿态(engagement gesture)而把电信会话从待机状态改变到呼叫或者菜单状态。所述过程还可以包括确定用户的身份,并且基于所确定的身份使能(enabling)控件。所述过程可以包括只有所确定的用户身份和预期的(intended)呼叫接收者匹配才把电信会话从连接状态改变到呼叫状态。所述过程可以包括确定图像内的用户的身份,并基于所确定身份中的至少一个使能或者禁止(disabling)控件。
在进一步的示例性实施方式中,控制电信会话可以包括基于识别出解除接合姿态(disengagement gesture)而把电信会话改变到待机状态。所述过程可以包括把相机图像之一聚焦在用户上,其中聚焦相机图像之一可以包括使相机焦点保持在正在移动的用户上,或者使相机图像之一以用户为中心。所述过程可以包括定位(localizing)音频以聚焦在用户上。识别用户的姿态可以包括识别在第一用户已经执行了第一接合姿态以后第二用户已经执行了第二接合姿态,并且控制电信会话可以包括基于识别出第二用户已经执行了第二接合姿态而把焦点改变到第二用户。
在其他的示例性实施方式中,所述过程可以包括确定第一用户是否已经放弃(relinquished)焦点,只有第一用户已经放弃焦点,所述焦点才可以被改变。确定第一用户是否已经放弃焦点可以包括确定第一用户是否已经结束讲话,或者确定第一用户是否已经执行了放弃姿态。所述过程可以包括确定用户的身份,其中,控制电信会话还包括在浏览状态中显示与所确定的身份相关联的联系人集合(a set of contacts),或者把所确定的用户身份传送到由用户设定的(placed)呼叫接收者。
根据另一个一般性实施方式,一种设备包括被配置成从一系列相机图像中识别用户的姿态、并提供包括控件和用户的表示的用户接口的处理器。所述处理器还被配置成基于所识别的姿态使所述表示与控件交互作用,并基于所述交互作用控制电信会话。
根据另一个一般性实施方式,一种计算机可读介质用计算机程序编码。所述计算机程序包括当被执行时,操作以使计算机执行操作的指令,所述操作包括从一系列相机图像中识别用户的姿态,并提供包括控件和用户的表示的用户接口。所述操作还包括基于所识别的姿态使所述表示与控件交互作用,并基于所述交互作用控制电信会话。
根据另一个一般性实施方式,一种系统包括一个或多个计算机和耦合到所述一个或多个计算机的计算机可读介质。所述计算机可读介质具有存储于其上的指令,所述指令在被所述一个或多个计算机执行时使所述一个或多个计算机执行操作,所述操作包括从一系列相机图像中识别用户的姿态,并提供包括控件和用户的表示的用户接口。所述操作还包括基于所识别的姿态使所述表示与控件交互作用,并基于所述交互作用控制电信会话。
下面在附图和描述中阐述了一个或多个实施方式的细节。从所述描述、附图和权利要求,本公开的其他潜在特征和优点将会清楚。
附图说明
图1是示出了增强的基于相机的输入的概念图。
图2是用来实施增强的基于相机的输入的设备的框图。
图3示出了设备的部件的配置。
图4示出了使用增强的基于相机的输入的示范性过程。
图5到图7示出了包括用户的表示的接口的例子。
图8和图9示出了触摸图形的用户的表示的例子。
图10示出了用于选择项目的接口的例子。
图11到图29示出了沿着引导线对齐的项目的示范性选择。
图30是示出了系统的状态的流程图。
图31描绘了通知用户接口的例子。
图32示出了包括执行接合手姿态的用户的相机图像的例子。
图33示出了包括执行解除接合手姿态的用户的相机图像的例子。
图34示出了包括多个坐在会议桌旁的人的相机图像的例子。
图35到图36示出了通过剪裁和缩放相机图像聚焦在用户上的例子。
图37示出了把焦点从第一用户改变到第二用户的相机图像的例子。
图38示出了菜单状态用户接口的例子。
图39示出了直接拨号状态用户接口的例子。
图40到图41示出了重新拨号状态用户接口的例子。
图42示出了连接选项和信息状态用户接口的例子。
图43示出了消息回放状态中的用户接口的例子。
图44示出了根据另一个一般性实施方式的示范性计算机处理系统的部件。
具体实施方式
使用这里描述的增强的方法,用户可以通过执行各种规定的姿态来控制通信会话,例如电话会议会话。通过在各种时间访问用户的图像,姿态被自动识别并映射到控件输入,例如用于开始或者终止电信会话的输入,或者用于将会话置于各种状态的输入。在其他的特征中,接口可以显示最初环绕所识别的用户的表示(例如,化身)的定制图标,通过用户身体的直率、直观和自然的运动来实现对人物命令的轻松选择。
因此,描述了允许用户使用相机追踪(tracking)来控制语音和视频通信的方法。例如,这种方法可以在会议室环境(setting)中使用,其中,通信系统在物理上可以在用户所及之外,或者在用户可能希望显得如同在商业环境中那样的另一位置。例如,这种方法也可以在起居室环境中使用,其中,坐在沙发上的用户可以和包括在电视或者其他显示设备上显示的接口的通信系统交互作用。
所述方法可以从一系列相机图像中识别用户的姿态,并提供包括控件和用户的表示的用户接口。基于所识别的姿态,系统可以使所述表示与控件交互作用,然后基于所述交互作用控制电信会话。
例如,系统可以包括手姿态(hand gesture)识别过程,该手姿态识别过程被配置成检测用户的手姿态,并基于所检测的手姿态执行功能。例如,用户可能通过执行手、上臂或者身体“接合”姿态来应答呼入(incoming)呼叫。在多个用户参与呼叫的实施方式中,用户可以通过执行相同或者不同的姿态来获取或者改变焦点,例如“解除接合”姿态、“改变焦点”姿态或者“释放控制”姿态。
图1是示出增强的基于相机的输入的上下文说明图。图1包括起居室102的视图。用户104(即,“BOB”)不正式地着装,并且正坐在起居室102中的沙发上,和孩子106相邻。用户104和孩子106正坐在显示器108(例如,电视屏幕)的前面,并且在接到呼叫之前可能正在观看节目或者在玩视频游戏。
显示器108连接到媒体集线器110。媒体集线器110被配置成接受呼入电话或者视频会议呼叫。媒体集线器110连接到相机112(例如,网络摄像头),或者另外包括相机112。在这个实施方式中,显示器108包括扬声器113。在其他的实施方式中,扬声器113被包括在媒体集线器中,或者在媒体集线器和显示器108外部(例如,电视扬声器)。媒体集线器110还包括或者另外连接到用于接收和数字化环境声音的麦克风。
在这个例子中,媒体集线器110检测呼入呼叫并通过音频和/或视频消息警告用户104。在这个例子中,当扬声器113输出指示“呼入呼叫:董事会”的音频时,用户104被警告呼入呼叫来自该用户公司的董事会。例如,通过将文本转语音(text-to-speech)能力施加于呼叫者ID系统,或者通过其他机制,可以产生这样的警告。当进行正式的电话会议时,虽然BOB的非正式着装和周边环境本可能让他担心,但是这里描述的增强的方法通过产生隐藏他的非正式着装和周边环境的视觉化身(visual avatar)解决了这些问题,或者以更适当的可视化来代替。
响应于检测到呼入呼叫,用户接口120可以被示出在显示器108上,可以替换、或者部分或完全地覆盖用户104在接收到呼叫之前正在显示器108上观看的视频内容。用户接口120包括用户表示121。在这个例子中,用户表示121是一种化身,其显示了被相机112在相机视场的区(region)124中捕获的用户104的面部122。
尽管用户104未穿着工作装,但是在用户接口120中用户表示121被示出为穿着正装和领带。用户表示121的外观(appearance)(例如,化身的外观)可以被基于呼叫者的身份、一天中的时间、用户喜好、或者其他因素而改变。例如,根据用户设置,用户表示可以被配置成看起来更像用户104或者不像用户104。在更极端的例子中,用户表示121可以穿着燕尾服,或者比用户104实际上穿着的更不正式的服装(即,游泳衣)。此外,用户的面部122或者其他身体部分也可以被改变,例如显得更瘦,具有不同的发型和风格,去除附属物(即,手饰),或者具有完全不同的样子(即,怪兽、外星人、卡通人物、另一个人的样子,或者任何其他外表)。
用户接口120包括项目126-132的表示。项目126-132可以沿着引导线134对齐(aligned)。引导线134可以显示或者不显示。
响应于用户104的运动或者姿态而控制用户表示121。例如,当用户104抬起其左上臂136时,用户表示121的左上臂138被以对应的方式抬起。在其他的例子中,用户的运动和用户表示的运动可以被镜像(mirrored)。用户104可以移动其上臂136以使用户表示121的手140移动靠近或者覆盖项目126-132之一。例如,手140可以覆盖“接受呼叫”项目130,导致与该项目130的交互作用。作为与“接受呼叫”项目130交互作用的结果,呼入呼叫被接受。
图1包括会议室150的视图。呼叫者152(即,“JANE”)正和其他人一起站在会议室150中,其中,呼叫者152正使用类似的系统执行类似的姿态以调用呼叫。作为用户104接受来自呼叫者152的呼入呼叫的结果,用户表示121的图像154现实在安装在会议室150中的显示器156上。图像154以用户104为中心(centered around),而不显示起居室102中的其他人(即,孩子106)。显示器156以及相机158和麦克风可以连接到位于会议室150中的媒体集线器。
在显示器108上示出被相机158捕获的呼叫者152的表示160。在扬声器113上播放由会议室中的麦克风捕获的呼叫者152的语音的音频(即,“嗨,BOB,我是JANE”)。显示器108的插页(inset)162显示用户接口120,允许用户进一步控制通信,例如切断呼叫或者使呼叫静音。
用户接口120还包括菜单按钮170、用户设置按钮172、擦除(erase)按钮174、自动完成按钮176、处于禁止状态的按钮178、拨号按钮180和文本区域(area)182。可以选择菜单按钮170以显示额外的特征。可以选择用户设置按钮172来配置特定于用户104的设置。例如,面部检测和识别过程可能已经识别了用户104。
用户104可以把电话号码或者联系人姓名或者文本消息输入文本区域182。例如,沿着引导线134可以显示字母的表示,并且被选择的字母可以显示在文本区域182中。用户可以选择拨号按钮180来把呼叫连接到在文本区域182中显示的电话号码或者联系人。可以选择自动完成按钮176来接受先前拨号的号码或者与文本区域182中显示的文本部分地匹配的联系人姓名。用户可以选择擦除按钮174以便从文本区域182擦除字符。
用户104可以选择语音邮件项目126以便导航到语音邮件特征。可以选择忽略项目128以忽略呼入呼叫。例如,可以选择转移到办公室项目132以便把呼入呼叫转移到办公室分机。
按钮178可能因检测到存在孩子106或者出于另外的原因而处于禁止状态。例如,如果在相机112的视场内检测到孩子,则快速拨号或者长途拨号功能或者对面向成人的内容的访问可以被禁止。在另一个例子中,和按钮178相关联的功能可以被通信提供商禁止,例如,在文本消息服务正在维修的情况下或者服务被暂停的情况下。
图2是用来实施增强的基于相机的输入的设备200的框图。简单地说,除了其他事物,设备200至少包括用户接口201、存储介质202、相机204、处理器205、麦克风206、一个或多个扬声器207和网络接口208。某些元件或者它们的相关功能可以被组合。
在图3中示出了设备200的部件的示例性物理配置,其中,相机301和麦克风302被连接到处理器303并放在显示器104上方。扬声器305附着于显示器304,并且处理器303连接到网络306。
往回参考图2,处理器205可以被包括在PC(个人计算机)、有线电视接收机、视频游戏控制台、电话或者其他类型的设备中。处理器205可以被包括在任何类型的电子设备中,并且可以和多个处理器结合操作。相机204捕获或者另外产生可被传送到处理器205的相机图像。处理器205可以使用贯穿本公开描述的技术来处理相机图像。
麦克风206可以是全方向的或者单方向的,并接受过滤和未过滤的可听(audible)输入,并且可以产生被传送到处理器205的声音数据。处理器205可以产生用于在用户接口201上呈现(rendering)的用户界面,并且处理器205也可以产生被传送到扬声器207并由其转换为声音的音频数据。
使用设备200,增强的基于相机的输入可以用来帮助与用户接口的控件进行交互作用,例如以允许由用户选择项目。和控件的交互作用不要求用户在手中持有例如逆向反射器、陀螺设备的任何专用(specialized)对象或者遥控器,而是直观地把上臂或者手运动映射到光标或者其他输入。基于系统的具体的期望配置,可以使用专用对象。
用户接口201是用于允许用户和设备或者该设备调用的应用程序交互作用的机制。用户接口201可以实现输入和输出,允许用户操纵设备或者使设备产生用户操纵的效果。设备200可以利用任何类型的用户接口201,例如图形用户接口(GUI)、语音用户接口或者触摸或触觉用户接口。
用户接口201可以被配置成呈现视觉显示图像。例如,用户接口201可以是监视器、电视、液晶显示器(LCD)、等离子体显示设备、具有投影仪屏幕的投影仪、自动立体显示器、阴极射线管(CRT)显示器、数字光处理(digitallight processing,DLP)显示器,或者任何其他类型的被配置成呈现显示图像的显示设备。用户接口201可以包括一个或多个显示设备。在某些配置中,用户接口201可以被配置成显示和应用程序相关联的图像,例如由应用程序产生的显示图像,包括控件和例如化身的对象。存储介质202存储和记录信息或者数据,并且可以是光学存储介质、磁性存储介质、快闪存储器,或者任何其他存储介质类型。
相机204是用来捕获图像的设备,所述图像或者作为静态照片,或者作为一系列运动图像。相机204可以使用可见频谱的光或者具有电磁频谱的其他部分,例如红外线。例如,相机204可以是数码相机、数码摄像机,或者被配置成捕获图像的任何其他类型的设备。相机204可以包括一个或多个相机。在某些例子中,相机204可以被配置成捕获和应用程序交互作用的用户或者对象的图像。例如,相机204可以被配置成在相机204的视场内在身体上与应用程序交互作用的人或者用户的图像。
相机204可以是立体相机、飞行时间(time-of-flight)相机,或者任何其他相机。例如,相机204可以是能够采样背景图像以便检测用户的运动和类似地检测用户的姿态的图像检测器。相机204可以产生灰度图像、彩色图像,或者距离图像,例如能够产生距离图像的立体相机或者飞行时间相机。立体相机可以包括两个在略微不同的视点获取图像的图像传感器,其中,处理器比较从不同的视点获取的图像以计算图像的部分的距离。飞行时间相机可以包括产生光脉冲的发射器,所述光可以是红外光,其中,测量光脉冲从发射器传播到目标并回到传感器的时间以计算图像的部分的距离。
设备200通过有线或者无线路径被电连接到相机204和用户接口201,并被配置成控制处理器205的操作,以提供基于相机的输入。在一种配置中,设备200使用处理器205或者其他的控制电路来执行提供给增强的基于相机的输入的应用程序。具体来说,设备从相机204接收输入,并处理所接收的输入以计算用户接口201中的用户的表示的位置和移动,并基于这些移动与控件交互作用。
在一个示例实施方式中,通过使用相机检测执行姿态的用户的图像而产生输入。例如,移动电话可以被放在桌子上,并且可操作以产生使用面朝前方相机(face-forward camera)的用户的图像。或者,使用相机204可以检测或者识别姿态,例如通过使用光流(optical flow)或者某种其他方法检测“向左倾斜”姿态,并使用这个检测的姿态把用户的表示向左移动并选择被布置在控件左侧的项目,或者通过检测“向右前倾斜”姿态以便把用户的表示向中间(neutral)位置的上和右移动,以选择被布置在控件右上侧的项目。
因此,相机204还可以包括某个其他类型的能够检测设备200的角位置的输入设备或者模块,例如陀螺仪、加速度计或者光流追踪器,或者被它们代替。在这个方面,相机可以用倾斜传感器输入补充或者代替,以执行用户期望的功能或者命令。因此,用户姿态的检测可以不使用相机来进行。通过例如在用户接口上对控制可视化的、以相同种类的比划图案(stroke pattern)移动所述设备,使用户能够以直率、直观和视觉愉悦和刺激的方式控制相同的接口或者应用程序。
麦克风206可以包括多个可操作以便在空间上定位声音的传感器。麦克风206可以包括过滤过程,所述过程可操作以便抑制背景噪声并取消回声。麦克风206可以是用户接口201的一部分,例如计算机监视器包括搭载的(on-board)麦克风的情况,或者,可以与用户接口201分离,例如具有内置(built-in)麦克风的网络摄像头被连接到计算机监视器上的USB端口的情况。音频扬声器207可操作以产生声音。和麦克风206类似,音频扬声器207可以是用户接口201的一部分,或者可以与用户接口201分离。
处理器205可以在网络接口208上连接一个或多个网络。处理器205可以连接到能够把音频或视频通信传送到其他系统的计算机、电话或者视频网络(例如,因特网、网际协议语音(Voice over Internet Protocol,VOIP)、公共交换电话网络(public switched telephone network,PSTN)、电话会议服务,或者有线电视服务)。网络可以包括例如以下中的一个或多个:因特网、广域网(WAN)、局域网(LAN)、模拟或者数字的有线和无线电话网络(例如,PSTN、综合业务数字网络(Integrated Services Digital Network,ISDN)和数字订户线(Digital Subscriber Line,xDSL))、广播、电视、有线电视、卫星,和/或任何其他的用于携带数据或者VOIP服务的传递或者隧道机制。
网络还可以包括电路交换语音网络、分组交换数据网络,或者任何其他能够携带语音通信的网络。例如,电路交换语音网络可以包括PSTN,并且分组交换数据网络可以包括基于网际协议(IP)、X.25或者帧中继或者其他相当的(comparable)技术的网络,并且可以使用例如VOIP或者其他相当的用于语音数据通信的协议支持语音。网络可以包括多个网络或者子网络,它们中的每一个均包括例如有线或者无线数据路径(pathway)。
数据200可以实施协助语音和视频通信的过程。例如,处理器205可以执行与语音和视频通信相关的应用程序,并在用户接口201上呈现允许用户与和语音和视频通信相关的应用程序交互作用的界面。
设备200可以实施音频数据解压缩过程。来自远程用户的语音可以在网络上作为压缩数据传送,所述压缩数据在被扬声器207转换为声音之前被解压缩。音频数据解压缩过程可以利用音频压缩方法,例如码激励线性预测(Code Excited Linear Prediction,CELP)、先进音频编码(Advanced AudioCoding,AAC),或者其他方法。
设备200可以实施视频数据解压缩过程。远程用户的视频可以在网络上作为压缩数据传送,所述压缩数据在被用户接口201显示之前被解压缩。视频解压缩过程可以利用视频压缩方法,例如国际电信联盟(InternationalTelecommunications Union,ITU)H.323、H.264、运动画面专家组(MovingPicture Experts Group)MPEG-2、MPEG-4,或者其他方法。
设备200可以实施音频回声取消过程。回声取消(echo cancellation)可以包括声学回声取消。当扬声器207产生的声音被麦克风206感测到(sensed)时,可能出现声学回声。因此,来自远程用户的在网络上传送并通过扬声器207播放的语音可能被麦克风206感测,并在网络上传送回远程用户。这是不期望的。声学回声可能受到扬声器207、麦克风206和环境(例如房间的混响或声学性质)的特性的影响。
声学回声取消过程可以包括:采样参考音频信号、使用扬声器从参考音频信号中产生声音、使用麦克风感测由扬声器产生的声音,并采样由麦克风感测的声音作为第二音频信号。补偿扬声器、麦克风和环境的特性的影响的预测参考音频信号可以被产生并与第二音频信号进行比较。可以从第二音频信号去除(remove)预测参考音频信号以产生回声被抑制或者消除(eliminate)的第三音频信号。本公开并不局限于特定的回声取消过程,也可以使用其他回声取消技术。
设备200可以实施音频数据压缩过程。来自本地用户的由麦克风感测并被回声取消过程处理过的语音可以被压缩,并在网络上作为压缩数据传送到远程用户。音频数据压缩过程可以利用音频压缩方法,例如码激励线性预测(Code Excited Linear Prediction,CELP)、先进音频编码(Advanced AudioCoding,AAC),或者其他方法。
系统可以实施视频数据压缩过程。本地用户的由相机捕获的视频可以被压缩,并在网络上作为压缩数据传送到远程用户。视频压缩过程可以利用视频压缩方法,例如国际电信联盟(International Telecommunications Union,ITU)H.323、H.264、运动画面专家组(Moving Picture Experts Group)MPEG-2、MPEG-4,或者其他方法。
处理器205可操作以执行几个相机追踪过程,包括手姿态识别过程、面部检测过程、面部识别过程、用户位置过程、产生用户的表示的过程,以及把用户位置与应用程序产生的项目比较的过程。这些过程中的一些是可选的,或者可以被组合。系统不局限于这些过程,并且可以执行其他过程来实施贯穿本公开描述的技术。
在某些实施方式中,处理器205可操作以执行几个语音和视频通信过程,包括音频解压缩过程、视频解压缩过程、音频回声取消过程、音频压缩过程和视频压缩过程。用于协助语音和视频通信的一些或者全部过程可以由处理器205执行。或者,处理器205可以和执行通信操作的外部设备进行通信。
尽管设备200已经被描述为个人计算机(PC)或者机顶盒,但是仅仅是为了简洁的目的才做出这样的描述,并且其他的实施方式或者表现形式也是可以预期的。例如,设备200可以被实施为电视、音乐播放器、数码相框、超移动个人计算机(ultra-mobile personal computer,UMPC)、移动因特网设备(mobile internet device,MID)、数码相框(digital picture frame,DPF)、便携式媒体播放器(portable media player,PMP)、通用或者专用计算机(例如台式计算机、工作站或者膝上型计算机)、服务器、游戏设备或者控制台,或者任何其他类型的包括处理器或者其他被配置成执行指令的控制电路的电子设备,或者任何其他的包括用户接口的装置。
图4示出了用于控制电信会话的示范性过程400。简单地说,过程400包括:从一系列相机图像中识别用户的姿态、提供包括控件和用户的表示的用户接口、基于所识别的姿态使所述表示与控件交互作用,并基于所述交互作用控制电信会话。也可以使用其他的过程,并且过程400可以按不同于所示的顺序发生,或者可以包括更少或者更多的操作。
更详细地,当过程400开始时(S401),从一系列相机图像中识别用户的姿态(S402)。例如,可以监控一个或多个相机图像以识别手姿态或者利用其他对象或者身体部分做出的姿态。例如,相机可以捕获与在显示设备上显示的接口交互作用的用户的一个或多个图像。处理器可以访问被相机捕获的图像,并通过处理图像识别手姿态。
如这里通篇所使用的,“姿态”(gesture)意指利用整个或者部分人体或者多个人体做出的非语言通信的形式,并且和例如讲话的语言通信相反。例如,姿态可以由第一位置、姿势(pose)或者表情和第二姿势、位置或者表情之间的移动、变化或者变形来定义。示例的姿态包括例如“空中引号”姿态、鞠躬姿态、屈膝礼、吻脸颊、手指或者手运动、屈膝、摇头或者移动、庆祝成功的击掌、点头、悲伤面孔、举起的拳头、敬礼、猛击或者挥舞运动、竖大拇指运动、手画圆圈或者挥手姿态,或者手指指向姿态。
因此,从一系列图像,可以导出定义用户的主意、见解、情绪、沟通、命令、演示或者表情的姿态。例如,用户的姿态可以是单个或者多个手指姿态、单个手姿态、单个手和上臂姿态、单个手和上臂和身体姿态、双手姿态、头姿势或者体位(posture)的变化、眼睛位置的变化、面部表情的变化、身体姿势或者体位的变化,或者任何其他有表现力的身体状态的变形。
为了简洁,用来执行相关姿态的身体部分一般被称为“控制对象”。例如,用户可以使用其整个身体或者利用其他物理对象表达命令,在这种情况下,其他们的整个身体或者其他的物理对象可以是控制对象。用户可以通过眨他们的眼睛、通过张开其鼻孔,或者通过摆动手指来更巧妙地表达命令,在这种情况下,眼皮、鼻子或者手指可以是控制对象。单个图像或者两个图像之间的用户姿态可以表达使能或者“接合”姿态。控制对象也可以是物理设备,例如红外手指灯、逆向反射器、或者遥控器。
识别手姿态的过程可以包括分析运动。分析运动可以包括:从一系列相机图像中计算光流图、聚类(clustering)具有类似方向和大小的运动的流图(flow map)的区,和在一个时间段内聚类的(clustered)运动和统计模型(例如隐式马可夫模型)进行比较,以便把运动分类为姿态。运动是外观和位置不变的,因此,可以在红外相机图像序列上被检测到(例如其不取决于皮肤颜色)。在其中在红外相机图像序列中检测运动的实施方式中,可以在低环境光中检测姿态。当用于能够测量距离的相机时(例如立体相机或者飞行时间相机),运动分析可以使用二维运动或三维运动。
识别手姿态的过程可以包括分析颜色。分析颜色可以包括把相机图像和颜色模型进行比较,识别相机图像的具有符合人类皮肤的颜色的部分,聚类相机图像的具有符合人类皮肤的颜色的那些部分,并且如果聚类满足一组尺寸和形状标准,则把其分类为手。分析颜色还可以包括把聚类形状和一组手姿势(hand pose)标准进行比较,以便把手姿势分类为手姿态。另外,分析颜色可以包括在一个时间段内产生手聚类位置的路径(path),并把所述路径和统计模型进行比较以便把运动分类为姿态。
识别手姿态的过程可以包括分析特征。分析特征可以包括识别相机图像内的基本形状特征(例如边缘),并识别可能对应于手的特征集合。特征的空间结构可以被和统计模型进行比较,以便把手姿势或者手移动分类为姿态。
识别手姿态的过程还可以包括把手位置和面部(或者身体)位置进行比较,并使用相对手位置。面部位置可以通过面部检测过程来确定,并且可以使用相对于所检测的面部的手位置来检测姿态或者其他输入命令。
识别手姿态的过程可以包括运动、颜色和形状技术的组合。本公开并不局限于特定的手姿态检测过程,也可以使用其他用于检测手姿态或者其他的输入命令的技术。
系统可以实施检测一个或多个相机图像内的面部的过程。面部检测过程可以确定一个或多个相机图像内的人面部的位置、尺寸,或者其他的物理特性。
检测相机图像内的面部的过程可以包括分析颜色。分析颜色可以包括把相机图像和颜色模型进行比较,识别相机图像的具有符合人类皮肤的颜色和面部特征的部分,聚类相机图像的具有符合人类皮肤的颜色和面部特征的那些部分,并且如果聚类满足一组尺寸和形状标准,则把其分类为面部。
检测相机图像内的面部的过程可以包括分析特征。分析特征可以包括识别一个或多个相机图像内的特征(例如边缘或者梯度),并识别可以对应于面部的特征集合。本公开并不局限于特定的面部检测过程,也可以使用用于检测面部的其他技术。
所述系统可以实施在一个或多个相机图像内识别面部以识别特定用户的过程。例如,处理器103可以分析由相机101捕获的图像以检测位于相机101前面的用户的面部。在检测面部之后,处理器103可以分析所检测的面部来确定所检测的面部是否属于可识别或者已知的用户。
在相机图像内识别面部的过程可以包括选择图像的检测到面部的部分,并且把图像的该部分和模板进行比较。所述系统可以包括用户的模板。可以在配置状态中使用下面更详细地描述的技术产生所述模板。
在使用了测程相机(例如立体相机或者飞行时间相机)的情况下,识别相机图像内的面部的过程可以包括使用三维面部识别过程。三维面部识别过程可以包括选择图像的检测到面部的部分(例如使用面部检测过程的结果),产生所检测的面部的三维模型(例如网格数据)和纹理模型,并把所述三维模型和纹理模型和用户的模板进行比较。在配置状态中可以使用在下面更详细地描述的技术产生所述模板。
在相机图像内识别面部的过程可以包括使用本征图像(eigenimage)过程。本征图像面部识别过程可以包括选择图像的检测到面部的部分(例如使用面部检测过程的结果),计算协方差矩阵,计算所述协方差矩阵的本征向量(eigenvector)和本征值(eigenvalue),执行主(principal)成分分析以选择主成分并减少本征向量和本征值的维度,把作为结果的本征图像数据和预先定义的本征图像数据集合进行比较以产生在所检测的面部和预先定义的本征图像数据集合中的面部之间的相似性测量集合,并执行统计分析来把本征图像分类为特定用户的面部。统计分析可以利用在训练过程期间产生的数据,在配置状态中可以使用在下面更详细地描述的技术执行所述训练过程。本公开并不局限于特定的面部识别过程,也可以使用用于识别面部的其他技术。
所述系统可以实施识别相机图像的与用户相关联的部分的过程。用户位置可以包括一个或多个用户的手的位置。或者,用户位置可以包括用户的身体或者用户的面部的位置。用户位置可以包括用户的形状的描述(例如剪影或者轮廓)。用户位置可以包括分割数据(segmentation data),所述分割数据对于相机图像的每一个像素,把像素分类为前景(例如用户的一部分)或者背景,并且用户位置过程可以包括产生被分割的相机图像的过程。
被分割的相机图像可以是色度键控(chroma keyed)相机图像。可以获取正站在彩色背景前面的用户的色度键控相机图像。在某些实施方式中,色度键控过程识别相机图像的颜色与背景的颜色匹配的部分,并把那些部分分类为背景。相机图像的颜色偏离背景的颜色的部分有可能是用户的部分,并且被分类为前景。
色度键控过程可以包括产生背景的颜色模型。颜色模型可以定义代表背景的颜色的范围。色度键控过程可以包括把图像和颜色模型进行比较,并且如果每一个像素的颜色值落入由颜色模型指示的颜色范围内,则把所述像素分类为背景,否则分类为前景。
色度键控过程还可以包括过滤过程,以减少噪声并改变较小的孤立聚类(small isolated cluster)的分类(例如,去除背景中可能被分类为前景的孤立部分,并填充前景中的孔洞)。过滤过程可以包括卷积核(convolution kernel)。
被分割的相机图像可以是深度键控相机图像。深度键控相机图像通常由能够确定距离的相机(例如立体相机或飞行时间相机)获取。飞行时间相机的例子包括由Canesta生产的飞行时间相机,其中红外发射器发射红外光脉冲,并且光学传感器测量光传播到目标并回到相机所花费的时间。飞行时间相机基于测得的时间来计算目标的距离。
立体相机的例子包括由Tyzx生产的立体相机,其中,立体相机包括从多个视点捕获场景的图像的多个光学传感器,并且比较所述多个图像以确定在多个视点之间目标位置上的差距。立体相机基于所确定的差距来计算目标的距离。
基于在图像的部分中包括的目标的距离,可以把图像的部分分类为前景和背景。分类过程可以包括把距离和阈值进行比较,藉此,如果距离比阈值短,则把该部分分类为前景,并且如果距离比阈值长,则把该部分分类为背景。例如,分类过程可以包括把距离和背景模型进行比较,其中背景模型代表没有用户的场景部分(例如地板和家具)的深度。在这个例子中,如果距离比模型的对应部分短,则分类过程可以把部分分类为前景,并且如果距离等于模型的对应部分或者比模型的对应部分长,则把部分分类为背景。
深度键控过程还可以包括过滤过程,以减少噪声和改变较小的孤立聚类的分类(例如,去除背景的可能被分类为前景的孤立部分,并填充前景中的孔洞)。过滤过程可以包括卷积核。
被分割的相机图像可以使用背景模型来分割。可以获取正站在任意静态背景前面的用户的色度键控相机图像。相机图像可以和代表背景的预期外观的背景模型进行比较。对于背景的每一个部分(例如像素),背景模型可以包括代表背景的颜色范围。可以通过存储没有用户的场景的图像来获取背景颜色模型。如果相机图像的部分的颜色和背景颜色模型的对应部分的颜色类似,则该部分可以被分类为背景。如果相机图像的部分的颜色和背景颜色模型的对应部分的颜色不类似,则该部分可以被分类为前景。
背景分割过程还可以包括过滤过程,以减小噪声和改变较小的孤立聚类的分类(例如,去除背景的可能被分类为前景的孤立部分,并填充前景中的孔洞)。过滤过程可以包括卷积核。背景分割过程还可以包括学习过程,用于更新背景模型以补偿背景中的变化或者环境光变化。
被分割的相机图像可以被使用皮肤颜色模型来分割。相机图像可以被和代表用户的皮肤的预期外观的皮肤颜色模型进行比较。皮肤颜色模型可以被预先定义,并基于在大量人的图像中被采样的皮肤颜色。在某些实施方式中,如果相机图像的部分和皮肤颜色模型内的颜色类似,则该部分被分类为前景,并且,如果相机图像的部分的颜色和皮肤颜色模型中出现的任何颜色都不类似,则该部分被分类为背景。
被分割的相机图像可以是运动图像,藉此,图像的包括运动的部分被分类为前景,并且图像的表现为静态的部分被分类为背景。按运动分割相机图像的过程可以包括:获取一系列相机图像,计算连续图像之间的差异,并把所述差异和阈值进行比较。运动分割过程还可以包括过滤过程,以减小噪声和改变较小的孤立聚类的分类(例如,去除背景的可能被分类为前景的孤立部分,并填充前景中的孔洞)。过滤过程可以包括卷积核。
运动分割过程还可以包括运动历史过程。在某个例子中,运动历史过程存储对应于每一个像素的最近发生运动的时间的表示。如果运动历史揭示对于每一个像素在一个时间阈值内运动已经发生,则运动历史过程可以把像素分类为前景,否则把像素分类为背景。
把代表分割数据的用户位置细化(refine)为对应于用户的手的用户位置的过程可以包括分析被分割的相机图像的前景部分的形状。例如,过程可以识别最上面的(top-most)前景部分(例如像素),并计算用户位置为最上面的前景部分的位置。或者,分析被分割的相机图像的前景部分的形状可以包括产生前景部分的轮廓的过程,识别所述轮廓的形状特征的过程,以及将形状特征识别为手的过程。用户位置可以被计算为手位置。
确定对应于用户的手的用户位置的过程可以包括分析相机图像以识别用户的手,并确定手的位置。识别相机图像内的手位置的示范性方法把相机图像的部分和代表用户皮肤的预期外观的皮肤颜色模型进行比较。如果相机图像的部分的颜色和皮肤颜色模型内的颜色类似,则该部分可以被分类为皮肤。被分类为皮肤的部分可以被聚类到部分的聚类中,并且总体位置和尺寸满足一个或多个标准的部分的聚类被分类为手。本公开并不局限于特定的识别相机图像内的手位置的方法,也可以采用其他的手追踪方法。
参考图4,当姿态被识别时,提供包括控件和用户的表示的用户接口(S404)。可以显示用户的表示以最小化与接口交互作用所要求的训练和技能。用户的表示可以协助用户轻松地识别相对于屏幕上项目位置的其手位置,并轻松地移动其手位置以便和项目位置重合(coincident)。用户的表示可以是例如化身或者鼠标光标。
当提供了用户接口时,基于所识别的姿态使所述表示与控件交互作用(S406)。例如,可以选择邻近用户表示(例如邻近鼠标光标,或者邻近化身的手)的按钮或者项目。
基于所述表示和用户接口控件的交互作用,电信会话被控制(S408),从而结束过程400(S410)。例如,仅举几例,可以接受或者拒绝呼入呼叫,可以播放语音邮件消息,或者可以拨号电话号码或者联系人。
图5示出了示例用户接口500。用户接口500包括用户表示501。用户接口500可以包括一组前景图形,例如项目502、文本503和按钮504、505、506和507的表示,它们中的一些可以被呈现在用户表示501的上面(over),部分地挡住(occluding)用户表示501。
显示用户接口500可以包括把相机图像和第二图像混和(blending)。第二图像可以包括由应用程序产生的图像、视频游戏图像、电视图像,等等。对于用户接口的每一个像素,混和相机图像可以包括把相机图像像素值和第二图像像素值组合(combining)。如下所示,等式(1)可以用于把相机图像与第二图像混和,其中D表示结果,C表示相机图像,S表示第二图像,x和y参照图像内的像素位置,并且α表示范围0到1的混和比例:
D(x,y)=α·C(x,y)+(1-α)·S(x,y)        (1)
图6示出了包括用户表示601的用户接口600的另一个例子。显示用户的表示的实施方式可以包括显示分割的图像,其中所述图像被分割为前景和背景部分。在某些实施方式中,有可能是用户表示的一部分的图像的部分(例如像素、区域、块、点或者区)被分类为前景,并且不可能是用户表示的一部分的部分被分类为背景。
显示被分割的图像可以包括只呈现被分类为前景的部分。只呈现被分类为前景的部分的实施方式可以包括产生表示不透明度的阿尔法通道(alphachannel),其中前景部分被定义为不透明的,并且背景部分被定义为透明的。在这个实施方式中,用户表示601可以被使用阿尔法通道和一组背景图形组合,以使用户表示601挡住(例如在区域602中)背景图形603。包括项目604的表示、文本606和按钮608、610、612和614的一组前景图形可以被呈现在组合的用户表示601和背景图形的上面,部分地挡住用户表示601和背景图像。额外的前景和背景图形可以由应用程序产生。
图7示出了包括用户表示701的用户接口700的又一个例子。显示用户的表示的实施方式可以包括显示计算机产生的图像,例如计算机鼠标光标或者手的图形表示。如图7中所示,计算机产生的图像701的位置可以对应于用户位置702,并且可以是用户的表示。
显示用户的表示的实施方式可以包括显示呼出的视频的预览(例如在视频会议呼叫中)。可以显示其他的用户表示以帮助用户和接口交互作用。可以显示用户的运动的表示(例如过去的运动或者运动历史)来帮助用户和接口交互作用。
所述系统可以实施检测用户何时触摸例如按钮的前景图形的过程。当用户的表示、或者所述表示的一部分占用、指向或者邻近用户接口内和被前景图形占用的位置重合的位置时,用户可以触摸前景图形。
图8示出了触摸图形的用户的表示的例子。确定用户触摸的过程可以包括分析被分割的相机图形,其中相机图形被分割为前景和背景部分。参考图8,图像的可能表示用户的部分(例如像素)可以被分类为前景803,并且不可能表示用户的部分(例如像素)可以被分类为背景。可以定义区801以使区801表示例如按钮802的交互作用前景图形的尺寸和位置。所述过程可以确定被分割的相机图像在区内(例如在区801内)的部分(例如像素),如阴影区域804所示。使用被分割的相机图像确定触摸的过程可以包括对区801内的前景部分(例如像素)的数量计数,把计数和阈值进行比较,并且如果所述计数大于阈值,则把该区分类为被触摸。
在某些实施方式中,使用被分割的相机图像确定用户位置的过程可以包括在一个时间段内累积对区801内前景部分(例如像素)的数量的计数。对于每一个视频帧,可以从累积的计数去除预先定义的数量,到最小值零,并且当前计数可以被添加到累积计数器,到最大值阈值。当累积计数达到阈值时,所述区可以被分类为被触摸。前景图形可以包括相对于阈值的累积计数的表示,以便向用户提供视觉反馈。例如,图形可以包括条形图或者饼形图805,或者可以用取决于累积计数的颜色或者尺寸来呈现。
图9示出了触摸图形的用户的表示的另一个例子。确定用户触摸的过程可以包括把用户位置和区进行比较。参考图9,可以定义区901以使区901代表例如按钮902的交互作用前景图形的尺寸和位置。使用用户位置确定触摸的过程可以包括如果用户位置903在区901内,则把区901分类为被触摸。
在某些实施方式中,使用被分割的相机图像确定用户位置的过程可以包括对视频帧的数量或者用户位置处于区内的时间量进行计数。对于每一个视频帧,如果确定用户位置处于区内,则计数可以被增大(到最大值阈值),并且如果用户位置不在区内,则计数可以被减小(到最小值零)。当累积计数达到阈值时,所述区可以被分类为被触摸。前景图形可以包括相对于阈值累积计数的表示,以便向用户提供视觉反馈。例如,图形可以包括条形图或者饼形图905,或者可以用取决于累积计数的颜色或者尺寸来呈现。
所述系统可以实施协助用户选择项目的增强的用户接口过程。项目可以包括文本和数字,藉此,增强的用户接口过程协助输入文本和数字。
图10示出了包括对象1002和控件1005的用户接口1001,对象1002例如图标或者化身(描绘为虚线圆),控件1005还可以包括引导线1004。尽管在图10中引导线1004示出为虚线,但是在其他的示例实施方式中,引导线1004被描绘为实线,或者根本不被描绘。
控件1005允许直观选择或者输出例如字母1006的项目,同时允许在邻近、靠近、部分或者完全被引导线1004限制或者包围或者限定的区中显示对象1002的一部分或者整体。当确定项目要被输出或者选择时,例如当用户选择调用文本数据的录入的输入字段时,控件1005被定位在用户接口1001中允许显示项目1006和对象1002的位置,因而被相对于、关于、基于或者针对于对象1002定义。换句话说,对象1002的位置可以表示锚定位置,引导线1004和控件1005的其他元素可以关于所述锚定位置来取向或者对准,或者,其他元素可以对于该锚定位置来定位。
为了确定这个锚定位置,确定定义引导线1004的对象和该对象的位置。在某些情况下,可以预先确定或者预先定义对象,例如控件1005被结合化身、用户图形、把手、图标、列表、数据表、数据图、文本录入字段、另一个控件或者部件,或者用户接口1001的已知空白区输出的情况,或者控件1005包括它们的情况。在其他情况下,对象在控件1005要被输出时被动态地确定,例如用户跳转到(tabs to)文本字段并且该文本字段被用作对象的情况,用户接口1001的空白区被基于用户1001的当前状态定位的情况,屏幕上最大的、突出的、最绚丽的(colorful)或最不绚丽的对象被动态地确定为所述对象的情况,或者聚焦的(in focus)元素、区或者窗口被动态确定为所述对象的情况。
在这些和其他情况下,检测对象1002的尺寸、形状、位置、边界或者其他上下文,并且引导线1004被以与这些检测的上下文的关系来定义。例如,引导线1004可以被定义成和对象或者对象的一部分具有覆盖(overlapping)或者非覆盖关系、二等分关系、分开关系、空间约束或者受限关系,或者任何其他关系,例如基于对象1002的尺寸、形状、比例或者解剖模型的关系。
总之,并且除此之外,用户接口1001包括可以是用户的表示的对象1002和构成项目集合的项目1006。可以以动态方式显示项目1006,以使项目1006被用允许用户方便并且可靠地选择每一个项目的尺寸和位置显示。由于本不可能把项目1006中的每一个均以大尺寸安排在用户接口1001内或者和引导线1004对准,可以以该大尺寸呈现项目1006的子集。
图11到图15示出了示范性的从沿着引导线对齐的项目集合中选择特定项目。在图11中,项目集合1101被沿着引导线1102对齐。被映射到并描绘为化身的手的光标1104向着关注的项目1101r移动。
在图12中,光标1204的位置和引导线1202交叉。引导线1202的交叉可以启动进一步的检测过程,该检测过程基于每一个项目和光标1204之间的距离选择或者识别项目1201的子集1201a。在相机图形中检测到光标1204时,基于用户的手在用户身体周围空间中的位置来确定光标1204的位置。
项目1201的子集1201a被以更大的字体尺寸或者比例显示,以协助用户更容易或者更直观的选择。选择项目1201的子集1201a和放大项目1201的子集1201a的显示可以响应于检测到光标1204已经和引导线1202交叉而发生,或者可以和光标1204相对于引导线1202的位置无关地发生。在检测到光标1204在基位置(base position)1206和引导线1202交叉或者检测到项目已被选择时,可以产生用户反馈,包括例如声音、影像、闪光,和/或例如振动的触觉输出。
在图13中,用户选择关注的项目1301r。突出显示(highlight)项目的子集1301允许用户选择包含关注的项目1301r的一般区域,在该区域内对项目“放大”,并且可靠和方便地选择关注的表示字母“R”的项目1301r。选择可以使用鼠标事件、键盘或者小键盘敲击、姿态识别、基于相机的输入或者通过很多其他的方法发生。
可以以很多方式检测代表光标1304已经和引导线1302交叉的位置的基位置1306的位置。例如,如图14中所示,基位置1406的位置可以被确定为在引导线1401上方(above)检测到光标1404后的一个时间所观察到的、引导线1401上最靠近光标1404,或者最靠近被突出显示的例如项目1401r的项目的位置。
也可以使用其他方法检测基位置。例如,可以在光标1404和引导线1401交叉时检测基位置1406的位置,或者使用在和引导线1401交叉之前或者之后时的光标1404的位置。例如,图15示出了表示在和引导线1502交叉之前观察到的光标位置的端点(endpoint)1508和表示在和引导线1502交叉以后时观察到的光标位置的端点1510。基位置1506可以被确定为由端点1508和端点1510限定的线段1504和引导线1501的交叉点。
回到图12,突出显示项目1201的子集1201a可以包括沿着引导线1202确定对应于构成子集1201a的项目的位置。在某些实施方式中,位于基位置1206附近的项目被选择为要突出显示的项目1201的子集1201a的一部分(例如被以大尺寸显示),以使靠近基位置1206的项目保持在或者靠近其原始的、非突出显示的位置,并且更远离基位置1206的项目朝外移动以容纳项目1201的子集1201a的尺寸上的增加。
下面的等式(2)可以用来确定在子集1201a已被突出显示以后不在子集1201a内的项目的位置。
X i ′ = X b + ( X i - X b ) · ( S i ′ S i ) - - - ( 2 )
在等式(2)中,Xi表示在原始状态中沿着引导线的项目i的位置,Xi’表示在放大状态中沿着引导线的项目i的位置,Xb表示沿着引导线的基位置,Si表示在原始状态中项目i的基本尺寸,并且Si’表示在放大状态中项目i的尺寸。
图16示出了在突出显示项目的子集之前的第一状态1601中和在突出显示项目的子集之后的第二状态1602中的项目的子集。例如,如果光标1604起初在项目“S”下和引导线1605交叉(以使基位置1606和项目“S”重合),则项目“S”保持在其原始位置,并且项目“R”相对于其原始位置朝左位移了距离1607。因此第二状态1602演示了突出显示后项目的按比例缩放尺寸和位置。
图17示出了在突出显示项目的子集之前的第一状态1701中和在突出显示项目的子集之后的第二状态1702中的项目的子集。例如,如果光标1704起初在项目“Q”下和引导线1705交叉(以使基位置1706和项目“Q”重合),则项目“Q”将保持在其原始位置,并且项目“R”相对于其原始位置朝右位移了距离1707。因此第二状态1702演示了突出显示后按比例缩放的项目。因此,用来选择特定项目的光标1704的位置可以取决于起初光标1704和引导线1705交叉的位置。
图18示出了在与项目子集的突出显示相关联的状态1801到1804中的项目子集。具体来说,图18示出了分别选择和突出显示项目1801a-c的第一到第三子集1806到1808的概观。第二和第三子集1807和1808可以分别根据光标1811相对于第一和第二子集1806和1807的位置定位。
在状态1801中,项目1801a反映其原始的非突出显示的尺寸和位置。在状态1802中,项目1801b的第一子集1806已被选择和突出显示。在状态1803中,项目1810c的第二子集1807已经被选择和突出显示。在状态1804中,项目1801d的第三子集1808已经被选择和突出显示。
在状态1802中,光标1811a起初在项目“S”下和引导线1812a交叉(以使基位置和项目“S”重合),项目“S”保持在其原始位置中,并且周围的字母被从其原始位置朝外位移。从状态1802过渡到状态1803,如果光标1811b移动到右边,则选择在光标1811c的距离内的项目1810c的第二子集1807。在第三状态1803中,如果光标1811c沿着引导线1812c移动到和被放大的项目“T”重合,则项目“T”保持在其放大的位置,并且项目“V”被突出显示,沿着引导线1812c朝右进一步移动距离1815。
如果对于某些项目在引导线1812c上不存在足够的空间,例如项目“W”到项目“Z”,则项目被“推离”引导线的末端,并且不被显示。从状态1803过渡到状态1804,如果光标1811c继续进一步朝着引导线1812c的右端移动,可能没有足够的空间来显示作为第二子集1807的一部分的额外的项目,并且第三子集1808可以被形成(作为第二子集1807的子集)。
为了选择在第二子集1807右边位置上的项目,例如项目“U”,或者已经被“推离”引导线末端的项目,例如项目“W”到项目“Z”,用户可以把引导线1812c和光标1811c重新交叉,并且和引导线1812c第三次交叉以建立更靠近期望项目的新的基位置。此外,不是把项目“推离”到引导线1812c的右端,可以转而“推离”在引导线左端的项目以容纳否则将被“推离”右端的项目的显示。在某些实施方式中,项目可以根据引导线上可用的空间而在尺寸上被减小,以使所有项目都在引导线上显示,而不是“推离”项目。
在其他的实施方式中,被“推离”引导线的右端的项目可以在引导线的左端上重新出现。在利用连续的(例如环形的)引导线的实施方式中,可以绕着引导线推动项目。因此,在用户可以绕着连续的引导线顺时针地移动光标的环形引导线的例子中,被从当前的项目子集排除的项目可以以小于光标的角速度顺时针流动(因为它们在增长的项目被添加到子集时要为增长的项目让位)。在这个例子中,对于项目绕着引导线的一圈,光标可以绕着引导线移动多圈。
可以使用滚动来协助选择否则将已被推离引导线末端的项目。例如,滚动可以包括检测光标1811c是否在引导线1812c末端的预先定义的距离内,并且将速度施加于项目位置。在相对于基位置计算项目位置(见上面等式(1))的情况下,速度可以被施加于基位置,并且项目可以被相应地位移。
图19示出了示范性速度函数,其中,水平轴1901表示沿着引导线的位置,并且垂直轴1902表示速度。使用这个速度函数,通过在光标位置靠近引导线的末端时施加速度,项目被移动或者平移,并且当光标位置在引导线中心时,项目不被移动或者平移(因为速度是零)。
图20示出了可用来基于光笔位置相对于引导线之间的距离(由水平轴2002反映)按比例缩放项目子集中的项目的尺寸(由垂直轴2001反映)的示范性按比例缩放函数。如曲线2004所表示的,项目的尺寸(Si’)因此可以是光标的当前位置的函数。和非突出显示项目相关联的或者如果光标还未和引导线交叉,则和所有项目相关联的基尺寸(Si)由参考点2005确定,并且线2006定义了和被突出显示的项目相关联的最大尺寸。
在一个示例实施方式中,靠近点2005曲线2004的斜率近似1∶1,所以随着对光标的靠近减小,项目尺寸显得线性地并且成比例地增长。靠近最大尺寸,项目的增长可以开始逐渐减小,以便随着光标变得越来越多地靠近被突出显示的项目,产生审美愉悦的过渡。
图21和图22示出了例如当光标2101和引导线2102交叉时由增强的控件使用按比例缩放特征。高度2104表示光标2101的位置和引导线2102之间的距离,并且高度2105表示子集2107中的项目的尺寸,例如项目2106r。子集2107中的项目的高度2105被基于高度2104按比例缩放,使项目在光标2101已和引导线2102以小量交叉的图21中比在光标2201已和引导线2202以更小量交叉的图22显得更大。和上面一样,可以使用基于相机的输入来确定光标2101的位置。
图23和图24示出了示范性引导线,其中,项目的子集被突出显示。具体来说,图23示出了示范性引导线2301,其中项目2304的子集2302被以放大方式显示。选择项目2304的子集2302可以包括选择预先定义数量的项目,或者基于项目的尺寸动态地选择许多项目包括在子集2302内。
包括在子集2302中的项目的数量可以被动态地选择,以使子集2302的项目跨过引导线2301的整个长度2307,或者,它们可以跨过引导线2301的一部分。如图23中所示,被从子集2302排除的项目2305a和项目2305b也可以被沿着引导线2301显示。子集2302中的项目的数量也可以基于子集内的项目的尺寸变化,例如,子集2107(图21中)显示五个项目,而子集2207(图22中)显示三个项目,尽管子集2107的宽度和子集2207的宽度相同。
通过以大尺寸显示子集的项目来突出显示项目可以包括以相同的大尺寸显示所有的被突出显示的项目,如图23中所示,或者,可以通过以取决于其沿着引导线相对于光标位置的位置的尺寸显示子集内的各个项目,如图24中所示。
图24示出了示范性引导线2401,其中,项目2404的子集2402被以变化的项目尺寸显示。例如,可以把在子集2402的末端的项目2405p和项目2405t(分别表示字母“P”和“T”)的尺寸定得比在子集2402的中心的项目,例如项目2405r(表示字母“R”)小。在子集2402中以变化的尺寸显示项目可以产生愉悦的审美外观,并且可以使对增强的控件的使用更为直观。如图24中所示,被从子集2402排除的项目2405a和项目2405b也可以被沿着引导线2401显示。
以大尺寸显示子集2302和2402的项目可以包括给项目赋予动画。动画可以包括放大子集的项目,并在较短的时间段上沿着引导线平移项目的位置(例如保持项目垂直于引导线)。被从子集2302和2402排除的项目可以被赋予动画以便在尺寸上收缩,并沿着引导线朝外移动,从而给子集2302和子集2402“让位”。
被从引导线的末端“推离”的项目可以简单地消失,或者可以被赋予动画以便从引导线的边缘离开或者被以视觉上刺激或者滑稽的方式破坏,例如被燃烧、内爆、蒸发、爆炸、液化、破碎,或者其他的技术。类似地,因在引导线上空间被让出而再次出现的先前被“推离”的项目可以简单地再次出现,或者可以被赋予动画以便从用户接口的顶部落回到引导线上或者被以视觉上刺激或者滑稽的方式自然地产生。
在引导线不连续的情况下,项目可以被赋予动画以跨过不连续性移动。项目可以被赋予动画以便以高速度跨过间隙移动,或者可以被赋予动画以便使用上面的视觉效果中的任何一个被“推离”或者“再次出现”。同样地,被“推离”引导线的一端以在相反端再次出现的项目可以被赋予动画以便在引导线端点之间高速移动,或者可以被赋予动画以便使用上面的视觉效果中的任何一个被“推离”或者“再次出现”。
图25描绘了沿着引导线的项目的激活,其中“激活”或者“突出显示”一般涉及确定要选择的项目。确定要选择的项目的系统可以使用迟滞。选择可以包括当光标最初和引导线交叉时确定初始被选择项目,其中所述初始被选择项目可以是其位置在距离上最靠近基位置的项目。此后,为了减小当光标被置于项目之间时在两个邻近项目之间的无意的摇曳,选择可以包括每当光标运动超过了相邻项目之间的中点预先定义的距离就确定新的被选择项目。
例如,两个项目2502r和2502s沿着引导线2501的位置由线2504r和2504s指示,项目2502r和项目2502s之间的中点的位置由线2505指示,并且距离2506表示预先定义的距离。例如,如果项目2502s(即字母“S”)是初始被选择项目,用户将沿朝着项目2502r(即字母“R”)的方向把光标移动到线2507左面以选择项目2502r,线2507是超过中点2505的预先定义的距离。如果随后选择了项目2502r,则为了重新选择项目2502s,用户将把光标沿朝着项目2502s的方向移动到线2509的右面,线2509是超过中点2505的预先定义的距离2506。
可以基于预期光标在用户试图保持静止时摇曳或者晃动的期望最大距离定义所述预先定义的距离,补偿由无意识的身体震颤或者输入单元的限制导致的用户移动的影响。当光标的位置在引导线以下时,或者当光标未被找到或者不在特定用户接口内或者由增强的控件占据的用户接口区内时,项目可以被解除选择。项目的选择还可以产生用户反馈,例如包括声音、影像,和/或例如震动的触觉输出。
显示子集的项目可以包括显示项目以使其外观提供关于其选择状态的用户反馈。例如,被选择的项目可以被以独特的颜色显示,或者以例如鲜艳外观的视觉效果显示。当项目处于被选择状态比第一预先定义的持续时间阈值长时,当前选择的项目可以被激活或者突出显示。就此而言,当光标被保持在项目上方一段时间后,项目被激活。如果被选择的项目保持被选择比第二预先定义的持续时间阈值长,则激活可以被重复或者取消。
而且,当光标的位置静止了一段时间后,项目可以被激活或者突出显示。当平行于引导线的位置分量中的变化小于预先定义的距离阈值超过了预先定义的时间阈值时,光标可以被分类为静止。例如,最靠近光标的位置的项目被识别和激活。如果光标保持被分类为静止比第二预先定义的持续时间阈值长,则激活可以被重复或者取消。此外,项目可以被基于光标位置和相对于引导线之间的距离激活。例如,当这样的距离超过了预先定义的距离阈值时,项目可以被激活。
在其他的例子中,在选择项目后,可以由另一类型的用户输入导致项目的激活。例如,用户可以提供另一类型的用户输入来激活被选择的项目。在这些例子中,为了激活被选择的项目,用户可以触摸用户输入按钮(例如在控制器上),提供可听输入(例如说“激活”),执行另一类型的姿态(例如,朝显示器移动用来选择项目的手,或者把用户的另一只手移动到用户接口的另一位置来激活被选择的项目),或者提供任何其他类型的用户输入。
图26到图29示出了示范性项目集合。在图26中,包括来自英文字母表的字符的项目2601包括项目2602,项目2602在被激活或被选择时,打开第二个项目集合。当被选择时,第二个项目集合可以沿着引导线2604和项目2601或者项目2601的一部分一起出现,或者第二个项目集合可以在引导线2604上替换项目2601。从用来表示项目2602的符号,用户可以直观地确定第二个项目集合包括数字。
图27示出了与引导线2702对准的项目2701。当选择图26中的项目2602时,显示项目2701。一旦选择了第二个项目集合,在引导线2702下面去除光标或者从显示项目2701的用户接口去除光标可以让项目2601被重新选择或者重新激活。项目2701包括项目2704,项目2704在被激活时重新打开、重新激活或者重新选择项目2601。从用来表示项目2704的符号,用户可以直观地确定项目2601包括来自英文字母表的字符。
图28示出了与引导线2803对准的项目2801,其中,项目均表示被已知与标准电话小键盘上的键相关联的数字和字母的组合。图29示出了项目2901,当项目2801的项目2802被选择时(见图28)显示项目2901,并且项目2901包括与标准电话小键盘上的键数字“7”相关联的字符的组合。
使用在图26到图29中示出的项目,可以提供基于相机的文本输入机制,例如通过顺序地把形成单词的字母填入文本字段中。在激活数字、字母、文本符号或者预先定义的文本后,所述数字、字母、文本符号或者预先定义的文本可以被附加到已经被输入的字符串。或者,项目的激活(例如来自图26中的项目2601的项目)可以显示进一步的项目,并且进一步的项目的项目的激活可以把被激活的字符附加到字符串。所述项目之一可以是退格项目,用于协助从项目串去除最近的项目。
基于相机的文本输入机制可以包括组合字符来形成复合字符。用于日文文本输入的文本输入机制可以包括组合假名字符来形成日文汉字字符(用日文个人计算机键盘的用户熟悉的方法)。第一个项目集合可以包括表示假名的项目。当假名项目被激活时,对应的假名字符被附加到字符串。项目集合可以包括表示操作的项目,所述项目在被激活时,激活把最近的假名串字符转换为日文汉字的过程。把最近的串的假名字符转换为日文汉字的过程可以包括显示第二个候选日文汉字项目集合。激活日文汉字项目激活了用所激活的日文汉字替换最近的串的假名字符的过程。这种基于相机的文本输入方法可以被扩展到其他的语言。
用于日文文本输入的替换方法可以包括显示表示假名的第一个项目集合。当假名项目被激活时,显示第二个项目集合。第二个项目集合可以包括日文汉字,所述被激活的假名形成了所述日文汉字的一部分。这个集合可以大于上面描述的第二集合。这种文本输入方法可以扩展到其他的语言。
一种文本输入机制可以在项目集合中包括确认项目。当被激活时,确认项目激活一个过程,藉此将字符串提供给应用程序。此外,文本输入机制可以包括推测文本完成过程。推测文本完成过程可以搜索字典以找到包含字符串的字符的最可能的文本。可以在输出字段中显示所述最可能的文本。可以基于文本输入机制被使用的上下文选择在推测文本完成过程中使用的字典。例如,字典可以包括当文本输入机制被用来输入名称时的名称。
取决于应用程序的状态,应用程序过程可以确定用于用户接口的项目。激活项目可以向应用程序过程提供消息。可以基于所述消息控制应用程序过程。
图30示出了系统状态的例子。系统可以包括在图30中所示的各种状态。系统可以包括下列状态:待机状态3001,其中系统等待呼入的呼叫或者用户来激活所述系统;通知状态3002,其中,系统向用户通知呼入的呼叫并等待用户来激活系统;呼叫状态3003,其中系统协助与另一系统的音频或者视频通信;菜单状态3004,其中系统显示选项和功能供用户选择;直接拨号状态3005,其中系统允许用户输入电话号码或者地址;重新拨号状态3006,其中系统允许用户选择和近来呼叫相关联的联系人;搜索状态3007,其中系统允许用户输入名称,并且匹配的联系人被在数据库中找到;浏览状态3008,其中系统允许用户浏览数据库中的联系人;连接选项和确认状态3009,其中系统显示关于联系人的信息并确认用户呼叫该联系人的意图;连接状态3010,其中系统和远程系统建立连接;消息菜单状态3011,其中系统允许用户选择消息来查看;消息回放状态3012,其中系统播放消息;消息静音状态3013,其中呼叫被静音;和,配置状态3014,其中用户可以配置所述系统,例如注册其面部。所述系统可以包括更少的状态,或者未被列出的额外的状态。系统可以以不同于图30中所示的方式或者顺序输入各种状态。
系统包括待机状态3001。系统在处于待机状态3001中时可以是不显眼的(inconspicuous),以使系统不响应于偶发的用户移动或者在显示设备104上不显示任何不必要的东西。当系统处于待机时,这可以允许显示器被其他应用程序使用,或者用于其他目的(例如看电视或者玩儿视频游戏)。
当处于待机状态3001中时,系统可以针对呼入的呼叫监控网络。当接收到呼入的呼叫或者其他的消息时,系统可以进入通知状态3002。
系统可以被配置成在接收到呼入的呼叫时把控制信号发送到显示设备。控制信号可以打开显示设备,并选择输入设置,以使所述显示设备显示由系统产生的图像。系统可以被配置成在接收到呼入的呼叫时把控制信号发送到其他的应用程序或者设备。例如,当接收到呼叫时,控制信号可以暂停应用程序或者程序执行(例如在接收到呼叫时暂停正玩儿的视频游戏或者正观看的电视节目)。举几个例子来说,控制信号可以是红外信号、直接的有线连接上的电子信号或者网络消息。
系统可以被配置成如果面部检测过程检测到面部则进入通知状态3002。这可以允许系统避免在不存在用户时打开显示设备。
系统可以被配置成接受预期用于多个用户的呼叫。系统可以以识别对应于呼叫所预期用户的用户面部的面部识别过程为条件进入通知状态3002。这可以允许系统避免在预期的接收者不在场时打断其他用户的活动。这也可以帮助确保预期的接收者的隐私受到保护。
当检测到进入的通信时,系统可以进入通知状态3002。当处于通知状态3002中时,系统可以产生在显示设备上显示的视觉提示。
图31描绘了通知用户接口3101的例子。视觉提示3102可以叠加在由其他的应用程序或者其他的设备(例如电视节目或者视频游戏,如图31中所示)产生的其他的视频内容3103上。当处于通知状态3002中时,系统也可以产生在音频扬声器上产生的音频提示。音频提示可以和由其他的应用程序或者其他的设备,例如电视节目或者视频游戏产生的其他音频内容混和。
当处于待机状态3001中和通知状态3002中时,系统可以针对接合手姿态监控由相机捕获的图像。处理器可以检测接合手姿态以便用户可以通过执行接合手姿态与系统接合。接合手姿态可以是不可能被用户意外地执行的姿态,并且足够简单,以至于其可以被无需在显示设备上显示用户的表示地执行。
图32示出了包括执行接合手姿态的用户的相机图形的例子。如图32中所示,示例接合手姿态包括按垂直运动向上抬起手,直到其在用户的头上方为止。这个姿态足够不寻常以至于其不可能被用户意外地或者无意识地执行。用户可以认为这个姿态是直观的并且容易记住,因为它可以是学校中学生抬起他的手来“吸引”(engage)老师的回忆。
接合姿态可以是在显示器前相机的追踪区中做出的被保持预先确定的时间量的特定手姿势或者手运动序列。一个示例姿态是一种保持处于竖直位置,所有的手指和拇指分散得很开的手姿势。另一个例子是挥手运动,或者通过在用户的面部前伸出其上臂,并在其头部前按圆圈移动其上臂做出的环形手运动。本质上,接合姿态向产生用户接口的设备指明了用户为发生进一步的基于相机的输入做好了准备。为了减少错误,接合姿态可以是非典型姿态,例如在正常对话其间将不会利用身体语言下意识地做出的姿态,或者将不会在普通的正常人类活动的进行中做出的姿态。
手姿态识别过程可以在系统处于待机状态3001和/或通知状态3002中时识别接合手姿态。参考图30,在系统在处于待机状态3001中时,当检测到接合手姿态时可以进入菜单状态3004。在系统处于通知状态3002中时,当检测到接合手姿态时可以呼入呼叫状态3003。
系统可以被配置成使得只有呼叫的预期接收者或者系统的授权用户才可以回答呼叫。手姿态识别过程可以检测接合手姿态,并且辨别识别过程可以识别执行接合手姿态的用户。在这个例子中,如果,或者只有执行接合手姿态的用户被面部识别过程识别为呼叫的预期接收者或者系统的授权用户,系统才可以呼入呼叫状态3003。
可以定义解除接合手姿态。解除接合手姿态可以是不可能被用户意外地执行的姿态。图33示出了包括执行解除接合手姿态的用户的相机图像的例子。如图33中所示,解除接合手姿态可以包括水平地移动手。
系统可以被配置成当检测到解除接合手姿态时静音通知消息。当处于通知状态3002时,由处理器执行的手姿态识别过程可以针对解除接合手姿态监控由相机捕获的图像。如果处理器检测到解除接合手姿态,则处理器可以指挥系统返回待机状态3001。
在某些实施方式中,系统可以被配置成当检测到解除接合手姿态时断开呼叫。当处于呼叫状态3003中时,由处理器执行的手姿态识别过程可以针对解除接合手姿态监控由相机捕获的图像。如果处理器检测到解除接合手姿态,则处理器可以指挥系统返回待机状态3001。
也可以定义静音手姿态。手姿态识别过程可以针对静音手姿态监控由相机捕获的图像,并且如果检测到静音手姿态则进入静音状态3013。
系统可以被配置成聚集在用户上。聚集在用户上可以包括对相机摇全景和变焦,以便用户的面部出现在相机图像的中心,并且处于规定的尺寸。聚集在用户上可以包括剪裁和缩放相机图像,以便在相机图像中用户的面部出现在中心。可以定义规定的尺寸以便贯穿运动范围,相机图像包括用户的上臂。也可以定义规定的尺寸,以便用户能够到达相机图像边缘的预先定义的距离内,从而保证交互作用项目和按钮(例如图5的项目502、504、505、506和507)在用户所及之内。
系统也可以被配置成基于用户的参考位置聚集在用户上。用户参考位置可以由面部检测过程确定。例如,用户参考位置可以被确定为最靠近检测到接合手姿态的位置的面部位置。
图34示出了包括坐在会议桌边的多个人的相机图像的例子。坐在会议桌边的人可能参与视频会议会话。参考图34,数字3401、3402、3403、3404和3405指示由面部检测过程确定的面部位置。接合手姿态的位置由数字3406指示。靠近面部位置(3404)被选择作为用户参考位置。靠近面部位置可以被作为具有面部位置和姿态位置之间的距离的水平分量(3407)的最小绝对值的面部位置和姿态位置对计算。孤立距离的水平分量可能是有益的,因为可以预计在接合手姿态期间手位置在头上方。用户参考位置也可以由用户位置过程确定,在用户位置过程中,被分割的图像的前景部分的面心被确定是用户位置。
系统可以追踪用户参考位置以使相机在用户移动时保持聚集在用户上(例如相机图像跟随用户)。相机摇全景和变焦可以帮助保证用户保持在被传送的图像内(例如在视频会议期间)。相机摇全景和变焦也可以帮助保证可以在显示设备上显示的按钮保持在用户的轻松可及的范围内。
对相机摇全景和变焦可以包括把控制信息传送到被电动致动器。电动致动器可以摇相机的视点,并且操纵相机光学器件对相机图像变焦距。聚集在用户上可以包括使用图像处理或者其他的计算技术来模拟摇全景变焦功能。例如,聚集在用户上可以包括通过剪裁和缩放相机图像来模拟摇全景变焦功能。
图35和图36示出了通过剪裁和缩放相机图像聚焦在用户上的例子。参考图35,剪裁相机图像3501可以包括选择包括用户参考位置3503的相机图像的一部分3502。缩放相机图像可以包括通过放大或者抽选产生图像,其中所产生的图像的尺寸可以和该部分的尺寸不同。
系统还可以包括基于用户参考位置定位音频以聚焦在用户上。麦克风可以包括多个传感器(例如多个麦克风)。声音定位过程可以增大起源于和用户参考位置对应的方向的声音的灵敏度,并减小起源自其他方向的声音的灵敏度。例如,执行声音定位过程的处理器可以关闭位于远离用户参考位置的麦克风或者传感器(例如,处理器可以保留最靠近的麦克风或者传感器开启)。声音定位过程可以利用波束形成过程,藉此比较麦克风阵列的每一个传感器接收的信号的相位和幅度。
系统可以被配置成在多用户环境(例如会议室)把焦点从第一个用户改变到第二个用户。如上所述,第一个用户可以执行手姿态(例如接合手姿态)以获取焦点。稍后(但是在同一呼叫期间),第二个用户可以执行手姿态(例如,接合手姿态,或者焦点转移姿态)来从第一个用户获取焦点。例如,响应于检测到由第二个用户执行的接合手姿态,相机图像可以从第一个用户摇到第二个用户,并且麦克风可以定位第二个用户的声音。
图37示出了把焦点从第一个用户改变到第二个用户的相机图像的例子。参考图37的例子(其描绘了和图36的例子类似的图像),相机图像3701的第一部分3702基于第一用户参考位置3703选择。系统可以包括当处于呼叫状态3003中时操作的手姿态识别过程。在对相机摇全局和变焦包括剪裁和缩放相机图像的实施方式中,手姿态识别过程可以分析整个相机图像3701(例如不仅是部分3702)以识别第二个用户。在检测到第二个用户的接合手姿态以后,相机图像3701的第二部分3704基于第二用户参考位置3705选择。相机图像的一部分(3702或者3704)可以被视频压缩过程压缩,并在网络上传送。这个例子允许多用户环境中的用户通过执行手姿态选择其自身作为主动的发言人。
系统还可以包括仲裁过程以厉行对用户何时可以获得焦点的限制。例如,仲裁过程可以通过分析来自第一个用户的方向的定位声音,把该声音分类为语音或非语音,并只有在未检测到第一个用户的语音时才允许第二个用户获得焦点来防止第二个用户打断第一个用户。仲裁过程可以排队用户获得焦点的请求,并在不再检测到第一个用户的语音时聚焦在下一个排队的用户上。或者,仲裁过程可以排队获得焦点的用户请求,并在姿态识别过程检测到由第一个用户执行的手姿态,从而允许第一个用户指示他或她何时完成并打算放弃焦点时聚焦在下一个排队的用户上。
当处于呼叫状态3003中时,系统可以显示被聚焦用户的预览图像。预览图像可以包括被摇全局或变焦的相机图像,或者相机图像的被剪裁和缩放的部分。预览图像可以占据用户接口的一部分。一个或多个远程用户的视频图像可以占据用户接口的其他部分。
一些操作,例如接合系统和回答呼入的呼叫,可以使用无需直接的用户反馈的手姿态被执行。但是,用户可以无需直接的用户反馈执行的手姿态的数量和复杂度可能受用户训练限制。某些系统状态中的某些操作可能要求复杂的用户交互作用,例如选择联系人或者拨号号码。当在这些状态中时,系统可以显示用户的表示。显示用户的表示可以帮助用户触摸屏幕上项目,从而减少用户训练要求并产生直观的接口。上面描述了产生用户的表示的过程、把用户位置和应用程序产生的项目比较的过程,以及协助输入文本和数字的增强的用户接口过程。
系统可以奥克菜单状态3004。菜单状态3004可以使用户能够选择进入不同的状态或者可以使用户能够改变系统选项或者设置。图38示出了菜单状态用户接口3801的例子。菜单状态用户接口3801包括一组按钮(3802到3807),所述一组按钮在被选择时事的系统进入另一状态。利用每一个按钮上的图标图像或者文本,按钮可以表示每一个状态。
菜单状态3004可以包括确定用户的身份的面部识别过程。如果用户未被识别,或者对某些功能的未授权的访问,则状态可以被禁止。例如,可以不允许孩子进入直接拨号状态3005,因为直接拨号状态允许任意联系人被拨号。在菜单状态中可以显示状况(例如,未查看的消息的数量)。
系统可以包括直接拨号状态3005。在直接拨号状态3005中,用户可以输入联系人号码或者地址(例如电话号码、电子邮件地址、Skype用户手柄、Xbox实况玩儿家标签,等等)。直接拨号状态3005可以使用协助用户选择项目的增强的用户接口。协助用户选择项目的增强的用户接口过程可以包括表示数字、字母、常用短语(例如“.com”或者本地电话区号)的项目集合和功能(例如退格)。可以基于通信网络(例如,如果到电话网络的连接可用时,项目集合可以包括数字)确定所述项目集合。被输入的字母或者数字可以显示为文本。
图39示出了直接拨号状态用户接口3900的例子。表示字母的项目集合被显示为项目的表示3902。通过增强的用户接口过程输入的文本被示出为文本3903。在直接拨号状态3005中,针对退格功能,可以显示按钮(例如按钮3904),或者,可以识别手姿态,以去除近来的数字或者字母。
在直接拨号状态3005中,针对拨号功能可以显示按钮(例如按钮3905),或者,可以识别手姿态,这启动了初始化与当前输入的联系人或者电话号码的通信的过程。用于拨号功能的按钮或者手姿态可以被缺省地禁止,并且在确定联系人信息是完整的时(例如正确的电话号码位数)被使能。多个拨号功能可能可用,表示直接拨号状态3005中或者连接选项状态3009中的不同的连接选项(例如只有语音,或者语音和视频)。在选择拨号功能以后,系统可以进入连续选项状态3009。或者,系统可以绕过连接选项状态并直接到达连接状态3010。
直接拨号状态3005可以包括自动完成过程。自动完成过程基于部分输入的联系人号码或者地址针对潜在匹配搜索联系人集合。联系人集合可以包括近来被拨号的联系人集合、错过的呼叫的集合,以及地址薄中的联系人集合。自动完成过程可以包括基于由面部识别过程确定的用户的身份过滤联系人集合。例如,只有由所识别的联系人拨号的联系人,或者所识别的用户的个人地址薄中的联系人可以被包括供考虑作为潜在匹配。这可以增强用户的隐私。在直接拨号状态3005中,自动完成过程潜在匹配可以用将潜在匹配与由用户输入的文本(例如图39中所示的文本3903的灰色字母)区别的视觉样式(例如,彩色)显示。针对接受功能,可以显示按钮(例如按钮3906),或者,手姿态被识别,接受功能接受由自动完成过程指示的联系人,并开始初始化与该联系人的通信的过程。
直接拨号状态3005可以包括确定用户的身份的面部识别过程。可以基于用户的身份来限制用户可以输入和拨号的联系人。例如,可以防止未被识别用户拨长途电话号码。
直接拨号状态3005可以显示针对退出功能的按钮(例如按钮3907)或识别手姿态,退出功能使系统返回菜单状态3004。或者,退出功能可以返回到待机状态3001。
系统可以包括搜索状态3007。在搜索状态中,用户可以输入名称。对于输入的名称,系统可以针对潜在匹配搜索联系人集合。搜索状态可以使用协助用户选择项目的增强的用户接口。增强的用户接口可以包括表示字母、数字和功能(例如退格)的项目集合。被输入的字母或者数字可以被显示为文本。
例如,图39中的用户接口3900示出了搜索状态用户接口的例子,其中,用户从项目3902选择字母,并且输入的字母被显示为文本3903。和直接拨号状态3005类似,搜索状态3007可以包括自动完成过程。基于部分输入的联系人名称,或者完整的联系人名称,搜索过程针对潜在匹配搜索联系人集合。联系人集合可以包括近来被拨号的联系人集合、错过的呼叫的集合,以及地址薄中的联系人集合。自动完成过程可以包括基于由面部识别过程确定的用户的身份过滤联系人集合。例如,只有被该用户拨号的联系人,或者在该用户的个人地址薄中的联系人可以被包括供考虑作为潜在匹配。这可以增强用户的隐私。搜索状态3007可以用将潜在匹配与由用户输入的文本(例如图39中所示的文本3903的灰色字母)区别的视觉样式(例如,彩色)显示自动完成过程潜在匹配。针对接受功能,搜索状态3007可以显示按钮(例如按钮3906),或者,识别手姿态,接受功能接受由自动完成过程指示的联系人,并开始初始化与该联系人的通信的过程。
针对退出功能,搜索状态3007可以显示按钮(例如按钮3907),或者,识别手姿态,退出功能使系统返回到菜单状态3004。或者,退出功能可以返回待机状态3001。系统可以包括重新拨号状态3006。在重新拨号状态3006中,用户可以选择先前被拨号的联系人。重新拨号状态3006可以列出联系人集合。联系人集合可以包括近来被拨号的联系人、呼出的呼叫、呼入的呼叫和错过的呼叫。
重新拨号状态3006可以包括确定用户的身份的面部识别过程。可以基于用户的身份过滤联系人集合。例如,联系人集合可以只包括由所识别的用户先前拨号过的联系人。
图40示出了重新拨号用户接口4000的例子。对应于联系人集合的子集,重新拨号状态可以显示一组按钮(例如按钮4001)或者识别手姿态集合。当联系人被选择时,系统可以开始初始化与被选择的联系人的通信的过程。或者,系统可以显示表示与联系人相关联的功能的额外的按钮或者识别额外的手姿态。与联系人相关联的功能可以包括显示关于联系人的信息、选择与联系人通信的方法(例如拨联系人的手机、办公室或者家庭电话号码)、给联系人发送消息,或者从集合擦除该联系人。这些选项可以在重新拨号状态3006或者连接选项状态3009中展示。在选择了拨号功能以后,系统可以进入连接选项状态3009。或者,系统可以绕过连接选项状态3009并直接到达连接状态3010。
重新拨号状态还可以显示滚动联系人子集的按钮(例如按钮4002和按钮4003)或者识别手姿态。当选择了按钮4002和按钮4003其中之一时,可以选择新的联系人子集。滚动允许用户从大量联系人中选择。
重新拨号状态3006可以使用协助用户选择项目的增强的用户接口。所述增强的用户接口可以包括表示联系人的集合。图41示出了重新拨号用户接口4100的例子。项目集合4102被以小尺寸显示,所以可以显示大的列表。联系人的大小和位置被动态地调整以便协助选择联系人。项目集合4102可以被相对于引导线4101对齐,其中,引导线4101如图41中所示那样垂直取向。增强的用户接口可以包括表示类别的第一集合。选择第一集合的项目可以显示第二个项目集合,第二集合包括归档在第一被选择类别下的联系人。类别可以包括字母表的字母,并且类别中的项目可以包括以该字母开始的联系人名称。
显示联系人可以包括显示联系人的状态。状态可以表示联系人的有效性(例如,该联系人当前是否在线)。针对退出功能,重新拨号状态3006可以显示按钮(例如按钮4104)或者识别手姿态,退出功能可以使系统返回菜单状态3004。或者,退出功能可以返回待机状态3001。
系统可以包括浏览状态3008。在浏览状态3008中,用户可以选择先前已知的联系人。浏览状态3008可以列出联系人集合。联系人集合可以包括个人联系人列表中的联系人,或者远程数据库中的联系人(例如,在线电话薄或者公司目录,并且还可以包括人名、企业名称、部门名称等等。)
浏览状态3008可以包括确定用户的身份的面部识别过程。可以基于用户的身份过滤联系人集合。例如,联系人集合可以包括所识别的用户的个人地址簿中的联系人。在另一个例子中,如果授权用户未被识别,则联系人集合可以排除数据库中的联系人(例如,可以防止未成年的用户联系面向成人的业务)。
浏览状态3008用户接口可以显得和图40中示出的用户接口4000类似。对于联系人集合的子集的每一个联系人,浏览状态3008可以显示按钮或者识别手姿态。当选择了联系人时,系统可以开始初始化与被选择的联系人的通信的过程。或者,系统可以显示表示与联系人相关联的功能的额外的按钮或者识别额外的手姿态。与联系人相关联的功能可以包括显示关于联系人的信息、选择与联系人通信的方法(例如拨联系人的手机、办公室或者家庭电话号码)、给联系人发送消息,或者显示关于该联系人的信息(例如地址或者广告)。这些选项可以在重新拨号状态3006或者连接选项状态3009中展示。在选择了拨号功能以后,系统可以进入连接选项状态3009。或者,系统可以绕过连接选项状态3009并直接到达连接状态3010。
浏览状态3008还可以显示滚动联系人子集的一个或多个按钮或者识别手姿态。当滚动按钮被选择或者滚动手姿态被执行时,可以选择新的联系人子集。滚动允许用户从大量联系人中选择。
浏览状态3008可以使用协助用户选择项目的增强的用户接口。联系人可以被以小尺寸显示。联系人的大小和位置被动态地调整以便协助选择联系人。增强的用户接口可以包括表示类别的第一集合。选择第一集合的项目可以显示第二个项目集合,第二集合包括归档在第一被选择类别下的联系人。类别可以包括字母表的字母,并且类别中的项目可以包括以该字母开始的联系人名称。类别可以包括表示和用户的关系的关键词(例如朋友、家庭、业务伙伴,等等)。类别可以包括表示服务的关键词(例如销售、支持、运输,等等)。
显示联系人可以包括显示联系人的状态。状态可以表示联系人的有效性(例如,该联系人当前是在线、离线还是请求不被打扰)。状态可以由图标(例如图标4005)表示。连接选项和信息状态3009可以展示多个连接选项(例如只有语音、语音和视频,以及拨联系人的手机、办公室或者家庭电话号码)。连接选项和信息状态3009也可以提供向联系人发送消息或者添加和从联系人集合擦除联系人的选项。连接选项和信息状态3009还可以显示关于联系人的信息。
图42示出了连接选项和信息状态用户接口4200的例子。针对每一个连接方法,状态3009可以包括按钮(例如按钮4201、4202和4203)或者识别手姿态。选择连接方法可以使过程前进到连接状态3010。显示连接方法可以包括显示连接方法的状态。状态可以表示通过该方法连接到联系人的有效性(例如,该联系人当前是在线、离线还是请求不被打扰)。状态可以被表示为图标(例如图标4204)。
针对消息功能,连接选项状态3009可以包括按钮(例如按钮4205)或者识别手姿态。消息功能可以允许用户记录消息。消息可以被传送到联系人。
如果联系人不在用户的联系人列表中,连接选项状态3009可以包括用于把联系人添加到用户的联系人列表的按钮或者识别手姿态。如果联系人在用户的联系人列表中,则该状态可以包括用于把联系人从用户的联系人列表去除的按钮(例如按钮4206)或者识别手姿态。所述状态也可以显示用于退出功能的按钮(例如按钮4207)或者识别手姿态,退出功能使系统返回菜单状态3004。或者,退出功能可以返回待机状态3001。
连接选项状态3009可以显示联系人名称4208和关于联系人的信息4209。显示关于联系人的信息可以包括搜索并从数据库检出信息。在连接状态3010中,系统可以包括初始化与被选择的联系人的通信的过程。响应于用户完成输入电话号码或者联系人、启动自动完成过程、选择拨号功能、接受呼入的呼叫等,过程可以前进到连接状态3010。
系统可以包括面部识别过程。当建立与远程用户的通信时,呼叫者的身份可以被传送,以使远程用户的系统可以显示正在呼叫的人的身份。在连接状态3010中时,系统可以显示连接状况。连接状况可以指示连接的强度(例如强或者弱),或者可以指示连接的有效性(例如连接或者断开)。
消息菜单状态3011允许用户检查消息。消息菜单状态3011可以展示消息列表。消息列表可以显得类似于如图40或者图41中所示的联系人列表。选择消息允许在消息回放状态3012中播放该消息。
在消息回放状态3012中播放消息可以包括展示音频或者视频记录。消息回放状态3012可以显示对应于回放操作(例如暂停、快进、后退或者擦除)的一组按钮或者识别一组手姿态。
在消息互访状态3012的实施方式中,用户的表示可以挡住正被播放的视频的一部分。用户的表示可以和记录的视频混和。或者,可以在消息状态用户接口的单独部分中显示用户的表示。
图43示出了消息回放状态中的用户接口的例子。参考图43的例子,用户接口4300可以包括记录的视频被播放的部分4301。用户接口4300还可以包括用户的表示被显示的部分4302。在部分4302中可以包括按钮(例如按钮4303),提供对回放操作的访问。用户接口还可以包括关于联系人和消息的信息(例如日期和时间)。
静音状态3013可以在呼叫期间给本地用户提供隐私。静音状态3013可以继续显示远程用户。静音状态3013可以包括继续呼叫的按钮或者识别手姿态,从而重新呼入呼叫状态3003。静音状态3013可以包括结束呼叫的按钮或者识别手姿态,从而到达待机状态3001或者菜单状态3004。静音状态3013可以包括进入直接拨号3005、重新拨号3006、搜索3007或者浏览状态3008的按钮或者识别手姿态,藉此被选择的联系人可以被添加到现有呼叫(例如三方呼叫)。
系统可以包括配置状态3014。配置状态3014可以展示通信和网络选项(例如IP地址)。配置状态3014可以展示个人地址簿功能(例如添加、编辑或者删除联系人)。配置状态3014可以包括面部识别学习过程,藉此用户的面部被分析并以该用户的名称存储。所存储的图像可以用作面部识别过程的模板。
图44是通用或专用计算机系统4400的例子的示意图。系统4400可以用于结合根据一个实施方式的过程400描述的操作。系统4400包括处理器4410、存储器4420、存储设备4430和输入/输出设备4440。使用系统总线4450互连部件4410、4420、4430和4440中的每一个。处理器4410能够处理用于在系统4400内执行的指令。在一个实施方式中,处理器4410是单线程处理器。在另一个实施方式中,处理器4410是多线程处理器。处理器4410能够处理存储在存储器4420中或者存储设备4430上的指令以便在输入/输出设备4440上显示用于用户接口的图形信息。
存储器4420在系统4400内存储信息。在一个实施方式中,存储器4420是计算机可读介质。在一个实施方式中,存储器4420是易失性存储器单元。在另一个实施方式中,存储器4420是非易失性存储器单元。
存储设备4430能够为系统4400提供海量存储。在一个实施方式中,存储设备4430是计算机可读介质。在各种不同的实施方式中,存储设备4430可以是软盘设备、硬盘设备、光盘设备,或者磁带设备。
输入/输出设备4440为系统4400提供输入/输出操作。在一个实施方式中,输入/输出设备4440包括键盘和/或指点设备。在另一个实施方式中,输入/输出设备4440包括用于显示图形用户接口的显示单元。
所描述的特征可以在数字电子线路中或者在计算机硬件、固件、软件或者其组合中实施。所述装置可以被在计算机程序产品中实施,所述计算机程序产品有形地体现在信息载体中,例如在机器可读存储设备中或者传播的信号中,用于由可编程处理器执行,并且方法步骤可以由执行指令程序的可编程处理器执行,以便通过对输入数据操作并产生输出来执行所描述的实施方式的功能。所描述的特征可以有利地在一个或多个计算机程序中实施,所述计算机程序可在包括至少一个可编程处理器、至少一个输入设备和至少一个输出设备的可编程系统上执行,所述可编程处理器被耦合成从数据存储系统接收数据和指令,并把数据和指令传送到所述数据存储系统。计算机程序是可在计算机中直接或者间接地使用以执行某个活动或者带来某个结果的指令集合。计算机程序可以用任何形式的编程语言书写,包括汇编或者解释语言,并且其可以被以任何形式部署,包括作为独立程序或者作为模块、部件、子例程或者其他适于在计算环境中使用的单元。
举例来说,用于执行指令程序的合适的处理器包括通用和专用微处理器,并且任何种类的计算机的唯一的处理器或者多个处理器中的一个。一般地,处理器将从只读存储器或者随机访问存储器或者这两者接收指令和数据。计算机的必要元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器。一般地,计算机也将包括或者可操作地耦合成与用于存储数据文件的一个或多个海量存储设备通信,这些设备包括磁盘、例如内部硬盘和可移动盘、磁光盘和光盘。适于具体实施计算机程序指令和数据的存储设备包括所有形式的非易失存储器,例如包括半导体存储器设备、例如EPROM、EEPROM和快闪存储器设备;磁盘,例如内部硬盘和可移动盘、磁光盘和CD-ROM和DVD-ROM盘。处理器和存储器可以被ASIC(专用集成电路)补充或者被包含在ASIC中。
为了提供与用户的交互作用,所述特征可以被实施在具有例如CRT(阴极射线管)或者LCD(液晶显示器)监视器的用于向用户显示信息的显示设备和键盘以及例如鼠标或者轨迹球的指点设备的计算机上,通过键盘和指点设备用户可以向计算机提供输入。
所述特征可以被实施在包括例如数据服务器的后端部件或者包括例如应用程序服务器或者因特网服务器的中间件部件或者包括例如具有图形用户接口或者因特网浏览器的客户端计算机的前端部件,或者其任意组合的计算机系统中。系统的部件可以通过任何形式或者介质的数字数据通信连接,例如通信网络。通信网络的例子包括例如LAN、WAN,以及形成因特网的计算机和网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般彼此远离,并且通常通过网络交互作用,例如所描述的那个。客户端和服务器的关系因运行于相应计算机上并且彼此具有客户端-服务器关系的计算机程序而出现。
已经描述了许多实施方式。尽管如此,将会理解,不偏离权利要求的精神和范围可以做出各种修改。因此,其他的实施例在下列权利要求的范围内。

Claims (18)

1.一种计算机实施的方法,包含:
从一系列相机图像中识别用户的姿态,其中在所述一系列相机图像中的至少一个图像中呈现多个人,所述多个人包括所述用户;
使用基于所识别的接合姿态和所述用户的面部而识别的用户参考位置,将一个或多个相机图像聚焦在所述用户上;
提供包含控件和所述用户的表示的用户接口;
基于所识别的姿态使所述表示与所述控件交互作用;和
基于所述交互作用控制电信会话。
2.如权利要求1所述的方法,其中:
控制所述电信会话还包含把所述电信会话从第一状态改变到不同的第二状态,并且
第一或第二状态包含待机状态、通知状态、呼出呼叫状态、连接状态、静音状态、菜单状态、连接选项状态、直接拨号状态、重新拨号状态、搜索状态、浏览状态、消息菜单状态、消息回放状态,或者配置状态。
3.如权利要求1所述的方法,其中,所述电信会话还包含语音和视频电信会话。
4.如权利要求1所述的方法,其中,控制所述电信会话还包含基于识别出接合姿态而把所述电信会话从待机状态改变到呼叫或者菜单状态。
5.如权利要求1所述的方法,还包含:
确定所述用户的身份;和
基于所确定的身份使能所述控件。
6.如权利要求5所述的方法,还包含只有所确定的用户身份和呼叫的预期接收者匹配时才把所述电信会话从连接状态改变到呼叫状态。
7.如权利要求1所述的方法,还包含:
确定所述图像内的用户的身份;和
基于所确定身份中的至少一个使能或者禁止所述控件。
8.如权利要求1所述的方法,其中,控制所述电信会话还包含基于识别出解除接合姿态而把所述电信会话改变到待机状态。
9.如权利要求1所述的方法,其中,聚焦所述相机图像之一还包含把相机焦点保持在正在移动的用户上。
10.如权利要求1所述的方法,其中,聚焦所述相机图像之一还包含使所述相机图像之一以所述用户为中心。
11.如权利要求1所述的方法,还包含定位音频以聚焦在所述用户上。
12.如权利要求1所述的方法,其中:
识别所述用户的姿态还包含识别在第一用户已经执行了第一接合姿态以后第二用户已经执行了第二接合姿态,
控制所述电信会话还包含基于识别出第二用户已经执行了第二接合姿态而把焦点改变到第二用户。
13.如权利要求12所述的方法,还包含:
确定第一用户是否已经放弃焦点,
其中,只有第一用户已经放弃焦点,所述焦点才被改变。
14.如权利要求13所述的方法,其中,确定第一用户是否已经放弃所述焦点还包含确定第一用户是否已经结束讲话。
15.如权利要求13所述的方法,其中,确定第一用户是否已经放弃所述焦点还包含确定第一用户是否已经执行了放弃姿态。
16.如权利要求1所述的方法,还包含:
确定所述用户的身份,
其中,控制所述电信会话还包含在浏览状态中显示与所确定的身份相关联的联系人集合。
17.如权利要求1所述的方法,还包含:
基于面部识别确定所述用户的身份,
其中,控制所述电信会话还包含把所确定的所述用户身份传送到由所述用户设定的呼叫接收者。
18.一种用于电信的装置,其包含:
用于从一系列相机图像中识别用户的姿态的装置,其中在所述一系列相机图像中的至少一个图像中呈现多个人,所述多个人包括所述用户;
用于使用基于所识别的接合姿态和所述用户的面部而识别的用户参考位置,将一个或多个相机图像聚焦在所述用户上的装置;
用于提供包括控件和所述用户的表示的用户接口的装置;
用于基于所识别的姿态使所述表示与所述控件交互作用的装置;和
用于基于所述交互作用控制电信会话的装置。
CN2008801173937A 2007-09-24 2008-09-23 用于语音和视频通信的增强接口 Active CN101874404B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310364747.0A CN103442201B (zh) 2007-09-24 2008-09-23 用于语音和视频通信的增强接口

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US97477407P 2007-09-24 2007-09-24
US60/974,774 2007-09-24
PCT/US2008/077351 WO2009042579A1 (en) 2007-09-24 2008-09-23 Enhanced interface for voice and video communications

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201310364747.0A Division CN103442201B (zh) 2007-09-24 2008-09-23 用于语音和视频通信的增强接口

Publications (2)

Publication Number Publication Date
CN101874404A CN101874404A (zh) 2010-10-27
CN101874404B true CN101874404B (zh) 2013-09-18

Family

ID=40471157

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2008801173937A Active CN101874404B (zh) 2007-09-24 2008-09-23 用于语音和视频通信的增强接口
CN201310364747.0A Active CN103442201B (zh) 2007-09-24 2008-09-23 用于语音和视频通信的增强接口

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201310364747.0A Active CN103442201B (zh) 2007-09-24 2008-09-23 用于语音和视频通信的增强接口

Country Status (5)

Country Link
US (2) US8325214B2 (zh)
EP (2) EP2201761B1 (zh)
JP (1) JP5559691B2 (zh)
CN (2) CN101874404B (zh)
WO (1) WO2009042579A1 (zh)

Families Citing this family (387)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US20050088407A1 (en) * 2003-10-24 2005-04-28 Matthew Bell Method and system for managing an interactive video display system
CN101536494B (zh) * 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
EP1889171A4 (en) * 2005-04-07 2012-11-28 Visionsense Ltd METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US9805591B2 (en) * 2005-09-08 2017-10-31 Universal Electronics Inc. System and method for widget-assisted setup of a universal remote control
US11769398B2 (en) 2005-09-08 2023-09-26 Universal Electronics Inc. System and method for widget-assisted setup of a universal remote control
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8059887B2 (en) * 2006-09-25 2011-11-15 Sri International System and method for providing mobile range sensing
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
EP2150893A4 (en) 2007-04-24 2012-08-22 Oblong Ind Inc PROTEINS, POOLS AND SLAWX IN PROCESSING ENVIRONMENTS
EP2188737A4 (en) 2007-09-14 2011-05-18 Intellectual Ventures Holding 67 Llc PROCESSING BREAKFAST USER INTERACTIONS
WO2009042579A1 (en) 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US9330589B2 (en) 2011-11-16 2016-05-03 Nanolumens Acquisition, Inc. Systems for facilitating virtual presence
US20090177976A1 (en) 2008-01-09 2009-07-09 Bokor Brian R Managing and presenting avatar mood effects in a virtual world
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
KR101599875B1 (ko) * 2008-04-17 2016-03-14 삼성전자주식회사 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 부호화 방법 및 장치, 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 복호화 방법 및 장치
KR20090110242A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 신호를 처리하는 방법 및 장치
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
EP2304527A4 (en) * 2008-06-18 2013-03-27 Oblong Ind Inc GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES
US8433101B2 (en) * 2008-07-31 2013-04-30 Samsung Electronics Co., Ltd. System and method for waving detection based on object trajectory
JP5410720B2 (ja) 2008-09-25 2014-02-05 日立コンシューマエレクトロニクス株式会社 ディジタル情報信号送受信装置、およびディジタル情報信号送受信方法
US20100091085A1 (en) * 2008-10-15 2010-04-15 Sony Corporation And Sony Electronics Inc. Augmenting tv menu icon with images in front of tv
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US10086262B1 (en) * 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US20100131864A1 (en) * 2008-11-21 2010-05-27 Bokor Brian R Avatar profile creation and linking in a virtual world
US20100153858A1 (en) * 2008-12-11 2010-06-17 Paul Gausman Uniform virtual environments
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US20100228153A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US9024976B2 (en) 2009-03-05 2015-05-05 The Invention Science Fund I, Llc Postural information system and method
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8253774B2 (en) 2009-03-30 2012-08-28 Microsoft Corporation Ambulatory presence features
US20100257462A1 (en) * 2009-04-01 2010-10-07 Avaya Inc Interpretation of gestures to provide visual queues
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
KR101581883B1 (ko) * 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8649554B2 (en) * 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US20100289912A1 (en) * 2009-05-14 2010-11-18 Sony Ericsson Mobile Communications Ab Camera arrangement with image modification
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US10188295B2 (en) * 2009-06-01 2019-01-29 The Curators Of The University Of Missouri Integrated sensor network methods and systems
US8711198B2 (en) * 2009-06-04 2014-04-29 Hewlett-Packard Development Company, L.P. Video conference
US9594431B2 (en) * 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
US8428368B2 (en) 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
US9277021B2 (en) * 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address
JP5343773B2 (ja) * 2009-09-04 2013-11-13 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
JP5568929B2 (ja) * 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
US8305188B2 (en) * 2009-10-07 2012-11-06 Samsung Electronics Co., Ltd. System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
US8964018B2 (en) * 2009-10-30 2015-02-24 Hewlett-Packard Development Company, L.P. Video display systems
US20130232580A1 (en) * 2009-12-29 2013-09-05 Isaac S. Daniel System and method for administering remote content
US8613008B2 (en) 2010-01-11 2013-12-17 Lead Technology Capital Management, Llc System and method for broadcasting media
US8355951B1 (en) 2009-12-29 2013-01-15 Lead Technology Capital Management, Llc System and method for monetizing broadcast media based on the number of viewers
US10007768B2 (en) 2009-11-27 2018-06-26 Isaac Daniel Inventorship Group Llc System and method for distributing broadcast media based on a number of viewers
DE102009057725A1 (de) * 2009-12-10 2011-06-16 Siemens Enterprise Communications Gmbh & Co. Kg Signalgebende Vorrichtung, Signalisiervorrichtung, Signalgebungsverfahren sowie Signalisierverfahren
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
CN102104766A (zh) * 2009-12-18 2011-06-22 深圳富泰宏精密工业有限公司 视频通话中的隐私保护系统及方法
US9711034B2 (en) * 2010-01-11 2017-07-18 Isaac S. Daniel Security system and method
TWI471755B (zh) * 2010-01-13 2015-02-01 Chao Lieh Chen 能操控電氣設備作動模式的操控裝置
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
FI20105105A0 (fi) * 2010-02-04 2010-02-04 Axel Technologies Medialaitteen käyttöliittymä
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
GB2477959A (en) * 2010-02-19 2011-08-24 Sony Europ Navigation and display of an array of selectable items
US8379134B2 (en) * 2010-02-26 2013-02-19 Research In Motion Limited Object detection and selection using gesture recognition
IL204436A (en) * 2010-03-11 2016-03-31 Deutsche Telekom Ag A system and method for remote control of online TV by waving hands
CN107256094A (zh) * 2010-04-13 2017-10-17 诺基亚技术有限公司 装置、方法、计算机程序和用户接口
KR20110116525A (ko) * 2010-04-19 2011-10-26 엘지전자 주식회사 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
JP2011232894A (ja) * 2010-04-26 2011-11-17 Renesas Electronics Corp インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
US20110279368A1 (en) * 2010-05-12 2011-11-17 Microsoft Corporation Inferring user intent to engage a motion capture system
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US9274594B2 (en) * 2010-05-28 2016-03-01 Microsoft Technology Licensing, Llc Cloud-based personal trait profile data
US20110304649A1 (en) * 2010-06-10 2011-12-15 Microsoft Corporation Character selection
US20110310010A1 (en) 2010-06-17 2011-12-22 Primesense Ltd. Gesture based user interface
WO2011156957A1 (en) 2010-06-17 2011-12-22 Nokia Corporation Method and apparatus for determining input
US8542320B2 (en) * 2010-06-17 2013-09-24 Sony Corporation Method and system to control a non-gesture controlled device using gesture interactions with a gesture controlled device
RU2010126303A (ru) * 2010-06-29 2012-01-10 Владимир Витальевич Мирошниченко (RU) Распознавание сообщений человека
JP5012968B2 (ja) * 2010-07-15 2012-08-29 コニカミノルタビジネステクノロジーズ株式会社 会議システム
US20130135199A1 (en) * 2010-08-10 2013-05-30 Pointgrab Ltd System and method for user interaction with projected content
EP2421252A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
TWI507047B (zh) * 2010-08-24 2015-11-01 Hon Hai Prec Ind Co Ltd 麥克風控制系統及方法
US8823739B2 (en) * 2010-08-25 2014-09-02 International Business Machines Corporation Background replacement for videoconferencing
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
JP2012068713A (ja) 2010-09-21 2012-04-05 Sony Corp 情報処理装置、および情報処理方法
US8937551B2 (en) 2010-09-28 2015-01-20 Isaac S. Daniel Covert security alarm system
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
JP2012085009A (ja) 2010-10-07 2012-04-26 Sony Corp 情報処理装置および情報処理方法
US9294722B2 (en) * 2010-10-19 2016-03-22 Microsoft Technology Licensing, Llc Optimized telepresence using mobile device gestures
US8284082B2 (en) 2010-10-27 2012-10-09 Sling Media Pvt. Ltd. Dynamic encode setting adjustment
CN103221968A (zh) * 2010-11-10 2013-07-24 日本电气株式会社 信息通知系统、信息通知方法、信息处理设备及其控制方法和控制程序
US9721481B2 (en) 2010-11-11 2017-08-01 Echostar Ukraine L.L.C. Hearing and speech impaired electronic device control
EP2453386B1 (en) * 2010-11-11 2019-03-06 LG Electronics Inc. Multimedia device, multiple image sensors having different types and method for controlling the same
TW201222429A (en) * 2010-11-23 2012-06-01 Inventec Corp Web camera device and operating method thereof
JP2015038648A (ja) * 2010-12-24 2015-02-26 株式会社東芝 情報処理装置、制御方法およびプログラム
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
KR101781557B1 (ko) * 2011-01-05 2017-09-26 구글 인코포레이티드 텍스트 입력을 용이하게 하기 위한 방법 및 시스템
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
DE102011002577A1 (de) * 2011-01-12 2012-07-12 3Vi Gmbh Fernsteuerungseinrichtung zur Steuerung einer Vorrichtung anhand eines beweglichen Objektes sowie Schnittstellen-Modul zur Kommunikation zwischen Modulen einer derartigen Fernsteuerungseinrichtung oder zwischen einem der Module und einer externen Vorrichtung
JP5361913B2 (ja) * 2011-01-25 2013-12-04 株式会社ソニー・コンピュータエンタテインメント 入力装置、入力方法及びコンピュータプログラム
US20120206348A1 (en) * 2011-02-10 2012-08-16 Kim Sangki Display device and method of controlling the same
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
EP2681638A4 (en) * 2011-02-28 2016-08-03 Facecake Marketing Technologies Inc VIRTUAL REFLECTION IN REAL TIME
WO2012117570A1 (ja) 2011-03-03 2012-09-07 オムロン株式会社 ジェスチャ入力装置およびジェスチャ入力装置の制御方法
US20140218300A1 (en) * 2011-03-04 2014-08-07 Nikon Corporation Projection device
GB2488784A (en) * 2011-03-07 2012-09-12 Sharp Kk A method for user interaction of the device in which a template is generated from an object
JP5585505B2 (ja) * 2011-03-17 2014-09-10 セイコーエプソン株式会社 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム
US9857868B2 (en) * 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
JP2012205037A (ja) 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
US20120254735A1 (en) * 2011-03-30 2012-10-04 Elwha LLC, a limited liability company of the State of Delaware Presentation format selection based at least on device transfer determination
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US8497942B2 (en) 2011-04-07 2013-07-30 Sony Corporation User interface for audio video display device such as TV
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
KR101804848B1 (ko) * 2011-04-22 2017-12-06 삼성전자주식회사 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
JP5408188B2 (ja) * 2011-05-19 2014-02-05 コニカミノルタ株式会社 会議システム、会議管理装置、会議管理方法およびプログラム
US20120304067A1 (en) * 2011-05-25 2012-11-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling user interface using sound recognition
US20120311503A1 (en) * 2011-06-06 2012-12-06 Microsoft Corporation Gesture to trigger application-pertinent information
JP5840399B2 (ja) * 2011-06-24 2016-01-06 株式会社東芝 情報処理装置
JP5865615B2 (ja) * 2011-06-30 2016-02-17 株式会社東芝 電子機器および制御方法
US8776250B2 (en) * 2011-07-08 2014-07-08 Research Foundation Of The City University Of New York Method of comparing private data without revealing the data
US9197637B2 (en) 2011-07-08 2015-11-24 Research Foundation Of The City University Of New York Method of comparing private data without revealing the data
US9041734B2 (en) 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
US8943396B2 (en) 2011-07-18 2015-01-27 At&T Intellectual Property I, Lp Method and apparatus for multi-experience adaptation of media content
US9084001B2 (en) 2011-07-18 2015-07-14 At&T Intellectual Property I, Lp Method and apparatus for multi-experience metadata translation of media content with metadata
JP5790229B2 (ja) * 2011-07-19 2015-10-07 株式会社リコー 情報処理装置および情報処理方法
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US8891868B1 (en) 2011-08-04 2014-11-18 Amazon Technologies, Inc. Recognizing gestures captured by video
US8942412B2 (en) 2011-08-11 2015-01-27 At&T Intellectual Property I, Lp Method and apparatus for controlling multi-experience translation of media content
US9237362B2 (en) * 2011-08-11 2016-01-12 At&T Intellectual Property I, Lp Method and apparatus for multi-experience translation of media content with sensor sharing
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
JP5862143B2 (ja) * 2011-09-15 2016-02-16 オムロン株式会社 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
JP2013065112A (ja) * 2011-09-15 2013-04-11 Omron Corp ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
US20130104089A1 (en) * 2011-10-20 2013-04-25 Fuji Xerox Co., Ltd. Gesture-based methods for interacting with instant messaging and event-based communication applications
US8490146B2 (en) 2011-11-01 2013-07-16 Google Inc. Dual mode proximity sensor
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
EP2595031A3 (en) * 2011-11-16 2016-01-06 Samsung Electronics Co., Ltd Display apparatus and control method thereof
US8847881B2 (en) 2011-11-18 2014-09-30 Sony Corporation Gesture and voice recognition for control of a device
US8983089B1 (en) 2011-11-28 2015-03-17 Rawles Llc Sound source localization using multiple microphone arrays
US8754926B1 (en) 2011-11-29 2014-06-17 Google Inc. Managing nodes of a synchronous communication conference
EP2602692A1 (en) * 2011-12-05 2013-06-12 Alcatel Lucent Method for recognizing gestures and gesture detector
CN103186227A (zh) * 2011-12-28 2013-07-03 北京德信互动网络技术有限公司 人机互动系统和方法
KR20130076677A (ko) * 2011-12-28 2013-07-08 삼성전자주식회사 디스플레이 장치, 영상 처리 시스템, 디스플레이 방법 및 영상 처리 방법
KR101910659B1 (ko) * 2011-12-29 2018-10-24 삼성전자주식회사 디지털 영상장치 및 그 제어방법
KR20130076947A (ko) 2011-12-29 2013-07-09 삼성전자주식회사 영상장치 및 그 제어방법
US9931154B2 (en) 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
US9625993B2 (en) 2012-01-11 2017-04-18 Biosense Webster (Israel) Ltd. Touch free operation of devices by use of depth sensors
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US8884928B1 (en) 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
WO2013114806A1 (ja) * 2012-01-30 2013-08-08 九州日本電気ソフトウェア株式会社 生体認証装置及び生体認証方法
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9348323B2 (en) * 2012-02-03 2016-05-24 Oki Electric Industry Co., Ltd. Device cooperation control system and method based on motion of a mobile device
JP6057407B2 (ja) * 2012-02-22 2017-01-11 学校法人東京電機大学 タッチ位置入力装置及びタッチ位置入力方法
KR101330810B1 (ko) * 2012-02-24 2013-11-18 주식회사 팬택 원거리 제스쳐 인식 기능을 갖는 디바이스 및 그 방법
CN103297742A (zh) * 2012-02-27 2013-09-11 联想(北京)有限公司 数据处理方法、微处理器、通信终端及服务器
US9060095B2 (en) * 2012-03-14 2015-06-16 Google Inc. Modifying an appearance of a participant during a video conference
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
EP2834774A4 (en) * 2012-04-01 2016-06-08 Intel Corp ANALYSIS OF HUMAN COMMUNICATIONS IN GESTURE
US9448635B2 (en) * 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
US9408561B2 (en) 2012-04-27 2016-08-09 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
US9597016B2 (en) 2012-04-27 2017-03-21 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
TWI476706B (zh) * 2012-04-30 2015-03-11 Pixart Imaging Inc 偵測物件移動輸出命令的方法及其系統
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
JP2013239113A (ja) * 2012-05-17 2013-11-28 Sharp Corp 電子機器、電子機器におけるアイコン操作方法、および電子機器におけるアイコン操作をコンピュータに実行させるコンピュータプログラム
WO2013175847A1 (ja) 2012-05-22 2013-11-28 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP5900161B2 (ja) 2012-05-29 2016-04-06 ソニー株式会社 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体
US10114609B2 (en) * 2012-05-31 2018-10-30 Opportunity Partners Inc. Computing interface for users with disabilities
US9170667B2 (en) * 2012-06-01 2015-10-27 Microsoft Technology Licensing, Llc Contextual user interface
US9438805B2 (en) 2012-06-08 2016-09-06 Sony Corporation Terminal device and image capturing method
US9100544B2 (en) * 2012-06-11 2015-08-04 Intel Corporation Providing spontaneous connection and interaction between local and remote interaction devices
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US9098739B2 (en) 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching
KR20140005688A (ko) * 2012-07-06 2014-01-15 삼성전자주식회사 사용자 인터페이스 방법 및 장치
US9697418B2 (en) * 2012-07-09 2017-07-04 Qualcomm Incorporated Unsupervised movement detection and gesture recognition
WO2014010543A1 (ja) * 2012-07-09 2014-01-16 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、入力受付方法及びプログラム
WO2014010290A1 (ja) * 2012-07-13 2014-01-16 ソニー株式会社 情報処理システムおよび記憶媒体
JP6360050B2 (ja) 2012-07-13 2018-07-18 ソフトキネティック ソフトウェア 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
TW201405443A (zh) * 2012-07-17 2014-02-01 Wistron Corp 手勢輸入系統及方法
US9122312B2 (en) 2012-07-19 2015-09-01 Infosys Limited System and method for interacting with a computing device
CN103576839B (zh) * 2012-07-24 2019-03-12 广州三星通信技术研究有限公司 基于面部识别来控制终端操作的设备和方法
US9191619B2 (en) * 2012-08-01 2015-11-17 Google Inc. Using an avatar in a videoconferencing system
EP2693746B1 (en) * 2012-08-03 2015-09-30 Alcatel Lucent Method and apparatus for enabling visual mute of a participant during video conferencing
US8819812B1 (en) * 2012-08-16 2014-08-26 Amazon Technologies, Inc. Gesture recognition for device input
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
KR20140034612A (ko) * 2012-09-12 2014-03-20 삼성전자주식회사 멀티 유저를 위한 디스플레이 장치 및 그 제어 방법
US9148625B2 (en) * 2012-09-21 2015-09-29 Cisco Technology, Inc. Transition control in a videoconference
KR102035134B1 (ko) * 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US9423886B1 (en) 2012-10-02 2016-08-23 Amazon Technologies, Inc. Sensor connectivity approaches
US9268407B1 (en) * 2012-10-10 2016-02-23 Amazon Technologies, Inc. Interface elements for managing gesture control
US20140098991A1 (en) * 2012-10-10 2014-04-10 PixArt Imaging Incorporation, R.O.C. Game doll recognition system, recognition method and game system using the same
US20140108940A1 (en) * 2012-10-15 2014-04-17 Nvidia Corporation Method and system of remote communication over a network
KR102095765B1 (ko) * 2012-10-19 2020-04-01 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR20140063272A (ko) * 2012-11-16 2014-05-27 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US9930082B2 (en) 2012-11-20 2018-03-27 Nvidia Corporation Method and system for network driven automatic adaptive rendering impedance
CN103873661B (zh) * 2012-12-14 2017-07-21 联想(北京)有限公司 状态切换方法及电子设备
US9235326B2 (en) * 2012-12-20 2016-01-12 International Business Machines Corporation Manipulation of user interface controls
KR101800617B1 (ko) * 2013-01-02 2017-12-20 삼성전자주식회사 디스플레이 장치 및 이의 화상 통화 방법
US9690378B2 (en) * 2013-01-30 2017-06-27 Olympus Corporation Operation apparatus
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
WO2014119258A1 (ja) * 2013-01-31 2014-08-07 パナソニック株式会社 情報処理方法及び情報処理装置
US9019337B2 (en) * 2013-02-21 2015-04-28 Avaya Inc. System and method for managing a presentation
DE102013003033A1 (de) * 2013-02-22 2014-08-28 Audi Ag Verfahren zum Betreiben einer Wiedergabeeinrichtung sowie Vorrichtung mit einer solchen Wiedergabeeinrichtung
KR102040288B1 (ko) * 2013-02-27 2019-11-04 삼성전자주식회사 디스플레이 장치
US20140250413A1 (en) * 2013-03-03 2014-09-04 Microsoft Corporation Enhanced presentation environments
US9065972B1 (en) * 2013-03-07 2015-06-23 Rawles Llc User face capture in projection-based systems
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US20140253430A1 (en) * 2013-03-08 2014-09-11 Google Inc. Providing events responsive to spatial gestures
US9519351B2 (en) 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
DE102013004244A1 (de) * 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Löschschaltfläche und/oder Listenauswahl-Schaltfläche
DE102013004246A1 (de) 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Vervollständigungs-Kennzeichnung
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9110541B1 (en) * 2013-03-14 2015-08-18 Amazon Technologies, Inc. Interface selection approaches for multi-dimensional input
US9467777B2 (en) * 2013-03-15 2016-10-11 Cirrus Logic, Inc. Interface for a digital microphone array
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US10612289B2 (en) 2013-03-18 2020-04-07 Fadi Ibsies Automated door
US10257470B2 (en) * 2013-03-18 2019-04-09 Fadi Ibsies Automated door
US9858052B2 (en) * 2013-03-21 2018-01-02 Razer (Asia-Pacific) Pte. Ltd. Decentralized operating system
US9298266B2 (en) * 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US10514256B1 (en) * 2013-05-06 2019-12-24 Amazon Technologies, Inc. Single source multi camera vision system
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US20140368434A1 (en) * 2013-06-13 2014-12-18 Microsoft Corporation Generation of text by way of a touchless interface
US20140380223A1 (en) * 2013-06-20 2014-12-25 Lsi Corporation User interface comprising radial layout soft keypad
CN104345871B (zh) * 2013-07-26 2017-06-23 株式会社东芝 设备选择系统
US9819604B2 (en) 2013-07-31 2017-11-14 Nvidia Corporation Real time network adaptive low latency transport stream muxing of audio/video streams for miracast
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US9766855B2 (en) * 2013-09-10 2017-09-19 Avigilon Corporation Method and apparatus for controlling surveillance system with gesture and/or audio commands
JP6413215B2 (ja) * 2013-09-17 2018-10-31 株式会社リコー 伝送端末及びプログラム
US10055013B2 (en) 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US9507429B1 (en) * 2013-09-26 2016-11-29 Amazon Technologies, Inc. Obscure cameras as input
US9367203B1 (en) 2013-10-04 2016-06-14 Amazon Technologies, Inc. User interface techniques for simulating three-dimensional depth
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9854013B1 (en) * 2013-10-16 2017-12-26 Google Llc Synchronous communication system and method
CN103605701A (zh) 2013-11-07 2014-02-26 北京智谷睿拓技术服务有限公司 通信对象的确定方法及确定装置
CN103607538A (zh) 2013-11-07 2014-02-26 北京智谷睿拓技术服务有限公司 拍摄方法及拍摄装置
CN103634629A (zh) * 2013-11-07 2014-03-12 康佳集团股份有限公司 一种机顶盒共享移动终端摄像头的方法和装置
US9451434B2 (en) 2013-11-27 2016-09-20 At&T Intellectual Property I, L.P. Direct interaction between a user and a communication network
US9740296B2 (en) 2013-12-16 2017-08-22 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras in the interaction space
CN103997616B (zh) * 2013-12-20 2019-02-05 三亚中兴软件有限责任公司 一种处理视频会议画面的方法、装置及会议终端
US9507417B2 (en) * 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
EP2891950B1 (en) 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US10713389B2 (en) 2014-02-07 2020-07-14 Lenovo (Singapore) Pte. Ltd. Control input filtering
US9823748B2 (en) * 2014-02-07 2017-11-21 Lenovo (Singapore) Pte. Ltd. Control input handling
US10444938B1 (en) * 2014-02-26 2019-10-15 Symantec Corporation Systems and methods for customizing user icons
JP2015170173A (ja) 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6550643B2 (ja) * 2014-03-14 2019-07-31 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
EP2940979A1 (en) * 2014-05-02 2015-11-04 Alcatel Lucent Process for managing the connection of users through their terminals to a multimedia conference session
KR102193029B1 (ko) * 2014-05-09 2020-12-18 삼성전자주식회사 디스플레이 장치 및 그의 화상 통화 수행 방법
CN105323531A (zh) * 2014-06-30 2016-02-10 三亚中兴软件有限责任公司 视频会议热点场景的检测方法和装置
JP2016015009A (ja) 2014-07-02 2016-01-28 ソニー株式会社 情報処理システム、情報処理端末、および情報処理方法
US9531998B1 (en) * 2015-07-02 2016-12-27 Krush Technologies, Llc Facial gesture recognition and video analysis tool
US9445048B1 (en) 2014-07-29 2016-09-13 Google Inc. Gesture-initiated actions in videoconferences
US9888202B2 (en) * 2014-08-06 2018-02-06 Verizon Patent And Licensing Inc. Searching for broadcast channels based on channel names
JP6320237B2 (ja) * 2014-08-08 2018-05-09 株式会社東芝 仮想試着装置、仮想試着方法、およびプログラム
JP6464635B2 (ja) 2014-09-26 2019-02-06 株式会社リコー 画像処理装置、画像処理装置の制御方法、及びプログラム
US9940583B1 (en) 2014-09-26 2018-04-10 Amazon Technologies, Inc. Transmitting content to kiosk after determining future location of user
US20160092034A1 (en) * 2014-09-26 2016-03-31 Amazon Technologies, Inc. Kiosk Providing High Speed Data Transfer
US10237329B1 (en) 2014-09-26 2019-03-19 Amazon Technologies, Inc. Wirelessly preparing device for high speed data transfer
US20160150196A1 (en) * 2014-11-25 2016-05-26 Jon Patrik Horvath Movement and distance triggered image recording system
US20160180799A1 (en) * 2014-12-23 2016-06-23 Intel Corporation Multi-user notification system
US10244175B2 (en) * 2015-03-09 2019-03-26 Apple Inc. Automatic cropping of video content
CN106921627A (zh) * 2015-12-25 2017-07-04 阿尔格布鲁控股有限公司 提供到外部电话网络的呼叫转发的VoIP
US10565455B2 (en) * 2015-04-30 2020-02-18 Ants Technology (Hk) Limited Methods and systems for audiovisual communication
JP6455310B2 (ja) * 2015-05-18 2019-01-23 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP6483556B2 (ja) * 2015-07-15 2019-03-13 株式会社東芝 操作認識装置、操作認識方法及びプログラム
CN106488170B (zh) * 2015-08-28 2020-01-10 华为技术有限公司 视频通讯的方法和系统
US11864926B2 (en) 2015-08-28 2024-01-09 Foresite Healthcare, Llc Systems and methods for detecting attempted bed exit
US9843766B2 (en) 2015-08-28 2017-12-12 Samsung Electronics Co., Ltd. Video communication device and operation thereof
US10206630B2 (en) 2015-08-28 2019-02-19 Foresite Healthcare, Llc Systems for automatic assessment of fall risk
US10353473B2 (en) * 2015-11-19 2019-07-16 International Business Machines Corporation Client device motion control via a video feed
WO2017100167A1 (en) 2015-12-06 2017-06-15 Voicebox Technologies Corporation System and method of conversational adjustment based on user's cognitive state and/or situational state
US10382729B2 (en) * 2016-01-06 2019-08-13 Vivint, Inc. Home automation system-initiated calls
US10271012B2 (en) 2016-01-06 2019-04-23 Vivint, Inc. Home automation system-initiated calls
US20170289766A1 (en) * 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Digital Assistant Experience based on Presence Detection
EP3474737A4 (en) 2016-06-28 2019-12-04 Foresite Healthcare, LLC SYSTEMS AND METHODS FOR USE IN FALL DETECTION USING THERMAL DETECTION
JP6699406B2 (ja) * 2016-07-05 2020-05-27 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
EP3267289B1 (en) * 2016-07-05 2019-02-27 Ricoh Company, Ltd. Information processing apparatus, position information generation method, and information processing system
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
EP3487595A4 (en) 2016-07-25 2019-12-25 CTRL-Labs Corporation SYSTEM AND METHOD FOR MEASURING MOVEMENTS OF ARTICULATED RIGID BODIES
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
EP3487402B1 (en) 2016-07-25 2021-05-05 Facebook Technologies, LLC Methods and apparatus for inferring user intent based on neuromuscular signals
US10687759B2 (en) 2018-05-29 2020-06-23 Facebook Technologies, Llc Shielding techniques for noise reduction in surface electromyography signal measurement and related systems and methods
US11635736B2 (en) 2017-10-19 2023-04-25 Meta Platforms Technologies, Llc Systems and methods for identifying biological structures associated with neuromuscular source signals
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10528122B2 (en) * 2016-09-30 2020-01-07 Intel Corporation Gesture experiences in multi-user environments
CN106648063B (zh) * 2016-10-19 2020-11-06 北京小米移动软件有限公司 手势识别方法及装置
US10511891B2 (en) * 2016-11-21 2019-12-17 Google Llc Video playback in group communications
JP2018093412A (ja) * 2016-12-06 2018-06-14 株式会社日立製作所 演算装置、送信プログラム、送信方法
US11599890B1 (en) * 2016-12-22 2023-03-07 Wells Fargo Bank, N.A. Holistic fraud cocoon
JP6275891B1 (ja) * 2017-01-27 2018-02-07 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018136766A (ja) * 2017-02-22 2018-08-30 ソニー株式会社 情報処理装置、情報処理方法、プログラム
US10691217B2 (en) * 2017-04-20 2020-06-23 Fuji Xerox Co., Ltd. Methods and systems for providing a camera-based graphical user interface
CN109388231A (zh) * 2017-08-14 2019-02-26 广东畅响源教育科技有限公司 基于标准模型实现vr物体或场景交互操控的系统及方法
US20190122031A1 (en) * 2017-10-25 2019-04-25 Interdigital Ce Patent Holdings Devices, systems and methods for privacy-preserving security
US10671974B2 (en) * 2018-01-09 2020-06-02 Sony Interactive Entertainment LLC Robot interaction with a tele-presence system
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
EP3743892A4 (en) 2018-01-25 2021-03-24 Facebook Technologies, Inc. VISUALIZATION OF INFORMATION ON THE STATE OF A RECONSTRUCTED HAND
US10970936B2 (en) 2018-10-05 2021-04-06 Facebook Technologies, Llc Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US10592735B2 (en) 2018-02-12 2020-03-17 Cisco Technology, Inc. Collaboration event content sharing
JP2019191946A (ja) * 2018-04-25 2019-10-31 パイオニア株式会社 情報処理装置
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
WO2019217320A1 (en) * 2018-05-08 2019-11-14 Google Llc Mixing audio based on a pose of a user
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
EP3807795A4 (en) 2018-06-14 2021-08-11 Facebook Technologies, LLC. USER IDENTIFICATION AND AUTHENTICATION BY MEANS OF NEUROMUSCULAR SIGNATURES
WO2020018892A1 (en) 2018-07-19 2020-01-23 Ctrl-Labs Corporation Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
WO2020036958A1 (en) 2018-08-13 2020-02-20 Ctrl-Labs Corporation Real-time spike detection and identification
CN109224437A (zh) 2018-08-28 2019-01-18 腾讯科技(深圳)有限公司 一种应用场景的交互方法和终端以及存储介质
WO2020047429A1 (en) 2018-08-31 2020-03-05 Ctrl-Labs Corporation Camera-guided interpretation of neuromuscular signals
WO2020061451A1 (en) * 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
WO2020069181A1 (en) 2018-09-26 2020-04-02 Ctrl-Labs Corporation Neuromuscular control of physical objects in an environment
KR102192582B1 (ko) * 2018-12-13 2020-12-17 한동대학교 산학협력단 인공지능 기반의 사용자 동작 인식을 통한 브라우저 제어 방법
CN109710205A (zh) * 2018-12-25 2019-05-03 华勤通讯技术有限公司 一种电子设备的屏幕显示方法及电子设备
US11294472B2 (en) * 2019-01-11 2022-04-05 Microsoft Technology Licensing, Llc Augmented two-stage hand gesture input
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11087162B2 (en) * 2019-08-01 2021-08-10 Nvidia Corporation Determining relative regions of interest in images using object detection
CN112540739B (zh) * 2019-09-21 2023-11-03 华为技术有限公司 一种投屏方法及系统
KR20210061638A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 전자 장치 및 그 제어 방법
US11144128B2 (en) * 2019-11-20 2021-10-12 Verizon Patent And Licensing Inc. Systems and methods for controlling video wall content using air gestures
US11460927B2 (en) * 2020-03-19 2022-10-04 DTEN, Inc. Auto-framing through speech and video localizations
US11112875B1 (en) * 2020-03-20 2021-09-07 Huawei Technologies Co., Ltd. Methods and systems for controlling a device using hand gestures in multi-user environment
JP7387167B2 (ja) * 2020-05-01 2023-11-28 tonari株式会社 仮想的空間接続装置、システム
JP6872066B1 (ja) * 2020-07-03 2021-05-19 株式会社シーエーシー コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
CN112235520B (zh) * 2020-12-07 2021-05-04 腾讯科技(深圳)有限公司 一种图像处理方法、装置、电子设备及存储介质
JP2022122637A (ja) * 2021-02-10 2022-08-23 シャープ株式会社 表示装置、表示方法、及び表示プログラム
KR20220138430A (ko) * 2021-02-22 2022-10-13 알서포트 주식회사 인공신경망을 이용한 동작 인식 화상회의 방법
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
FR3124872A1 (fr) * 2021-07-02 2023-01-06 Faurecia Interieur Industrie Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés
WO2023003544A1 (en) * 2021-07-20 2023-01-26 Hewlett-Packard Development Company, L.P. Virtual meeting exits
US11430132B1 (en) * 2021-08-19 2022-08-30 Unity Technologies Sf Replacing moving objects with background information in a video scene
US20230085330A1 (en) * 2021-09-15 2023-03-16 Neural Lab, Inc. Touchless image-based input interface
WO2023044172A1 (en) * 2021-09-20 2023-03-23 Idoru, Inc. Systems and method for calculating liability of a driver of a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040047461A1 (en) * 2002-09-10 2004-03-11 Weisman Jordan Kent Method and apparatus for improved conference call management
CN1774726A (zh) * 2002-12-11 2006-05-17 皇家飞利浦电子股份有限公司 用于校正视频电话图像中头部姿态的方法和装置
CN1797284A (zh) * 2004-12-30 2006-07-05 中国科学院自动化研究所 基于玩家姿势和语音的电子游戏场景和角色控制方法
WO2007093984A2 (en) * 2006-02-16 2007-08-23 Ftk Technologies Ltd. A system and method of inputting data into a computing system

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
DE69634913T2 (de) * 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
JPH08332170A (ja) 1995-06-08 1996-12-17 Matsushita Electric Ind Co Ltd ビデオスコープ
US6335927B1 (en) 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
KR19990011180A (ko) 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
DE69830295T2 (de) * 1997-11-27 2005-10-13 Matsushita Electric Industrial Co., Ltd., Kadoma Steuerungsverfahren
US5940118A (en) * 1997-12-22 1999-08-17 Nortel Networks Corporation System and method for steering directional microphones
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
DE19839638C2 (de) 1998-08-31 2000-06-21 Siemens Ag System zur Ermöglichung einer Selbstkontrolle hinsichtlich durchzuführender Körperbewegungsabläufe durch die sich bewegende Person
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US6827579B2 (en) 2000-11-16 2004-12-07 Rutgers, The State University Of Nj Method and apparatus for rehabilitation of neuromotor disorders
US6894714B2 (en) * 2000-12-05 2005-05-17 Koninklijke Philips Electronics N.V. Method and apparatus for predicting events in video conferencing and other applications
US6775014B2 (en) 2001-01-17 2004-08-10 Fujixerox Co., Ltd. System and method for determining the location of a target in a room or small area
US7761505B2 (en) * 2002-11-18 2010-07-20 Openpeak Inc. System, method and computer program product for concurrent performance of video teleconference and delivery of multimedia presentation and archiving of same
US6920942B2 (en) 2003-01-29 2005-07-26 Varco I/P, Inc. Method and apparatus for directly controlling pressure and position associated with an adjustable choke apparatus
US20050080849A1 (en) 2003-10-09 2005-04-14 Wee Susie J. Management system for rich media environments
JP3847753B2 (ja) * 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20050239028A1 (en) 2004-04-03 2005-10-27 Wu Chang J R Stance guide and method of use
JP4241484B2 (ja) * 2004-04-14 2009-03-18 日本電気株式会社 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置
KR20070043962A (ko) * 2004-07-05 2007-04-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 시스템에 대한 사용자의 액세스를 확립하는 방법
US20080289002A1 (en) * 2004-07-08 2008-11-20 Koninklijke Philips Electronics, N.V. Method and a System for Communication Between a User and a System
US8456506B2 (en) * 2004-08-03 2013-06-04 Applied Minds, Llc Systems and methods for enhancing teleconferencing collaboration
JP2006130221A (ja) 2004-11-09 2006-05-25 Konica Minolta Medical & Graphic Inc 医用画像転送装置、プログラム及び記憶媒体
CN101536494B (zh) * 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US20070009139A1 (en) 2005-07-11 2007-01-11 Agere Systems Inc. Facial recognition device for a handheld electronic device and a method of using the same
JP2007072564A (ja) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP2007081732A (ja) * 2005-09-13 2007-03-29 Canon Inc 撮像装置
US20070057912A1 (en) * 2005-09-14 2007-03-15 Romriell Joseph N Method and system for controlling an interface of a device through motion gestures
JP2007178542A (ja) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd 撮像装置
US8125509B2 (en) * 2006-01-24 2012-02-28 Lifesize Communications, Inc. Facial recognition for a videoconference
KR100705598B1 (ko) * 2006-02-10 2007-04-09 삼성전자주식회사 얼굴인식을 통한 화상전화기의 사용자 정보 접근제어장치그 방법
KR100783552B1 (ko) 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US7873067B2 (en) * 2006-12-29 2011-01-18 Alcatel-Lucent Usa Inc. Adaptive method of floor control with fast response time and fairness in communication network
US8154583B2 (en) * 2007-05-31 2012-04-10 Eastman Kodak Company Eye gazing imaging for video communications
WO2009042579A1 (en) 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
TW201020896A (en) * 2008-11-19 2010-06-01 Nat Applied Res Laboratories Method of gesture control
US8749557B2 (en) * 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040047461A1 (en) * 2002-09-10 2004-03-11 Weisman Jordan Kent Method and apparatus for improved conference call management
CN1774726A (zh) * 2002-12-11 2006-05-17 皇家飞利浦电子股份有限公司 用于校正视频电话图像中头部姿态的方法和装置
CN1797284A (zh) * 2004-12-30 2006-07-05 中国科学院自动化研究所 基于玩家姿势和语音的电子游戏场景和角色控制方法
WO2007093984A2 (en) * 2006-02-16 2007-08-23 Ftk Technologies Ltd. A system and method of inputting data into a computing system

Also Published As

Publication number Publication date
EP2597868A1 (en) 2013-05-29
EP2201761B1 (en) 2013-11-20
US8830292B2 (en) 2014-09-09
WO2009042579A1 (en) 2009-04-02
EP2597868B1 (en) 2017-09-13
CN101874404A (zh) 2010-10-27
EP2201761A1 (en) 2010-06-30
CN103442201A (zh) 2013-12-11
EP2201761A4 (en) 2010-12-01
US20130027503A1 (en) 2013-01-31
CN103442201B (zh) 2018-01-02
JP5559691B2 (ja) 2014-07-23
US20090079813A1 (en) 2009-03-26
JP2010541398A (ja) 2010-12-24
US8325214B2 (en) 2012-12-04

Similar Documents

Publication Publication Date Title
CN101874404B (zh) 用于语音和视频通信的增强接口
US11849255B2 (en) Multi-participant live communication user interface
EP3616050B1 (en) Apparatus and method for voice command context
US10592103B2 (en) Mobile terminal and method for controlling the same
US20170236330A1 (en) Novel dual hmd and vr device with novel control methods and software
CN115718537A (zh) 用于提供计算机生成的体验的设备、方法和图形用户界面
CN110134484A (zh) 消息图标的显示方法、装置、终端及存储介质
KR20190133080A (ko) 증강 현실 시스템용 터치프리 인터페이스
CN108108012A (zh) 信息交互方法和装置
US20120229509A1 (en) System and method for user interaction
CN109189986A (zh) 信息推荐方法、装置、电子设备和可读存储介质
AU2023248185B2 (en) Multi-participant live communication user interface
KR101464431B1 (ko) 감성 표현 전달 방법 및 감성 표현 전달 장치
WO2023058393A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020158218A1 (ja) 情報処理装置、情報処理方法及びプログラム
AU2021200789B1 (en) Multi-participant live communication user interface
KR20170093631A (ko) 적응적 컨텐츠 출력 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: QUALCOMM INC.

Free format text: FORMER OWNER: GESTURE TEK INC.

Effective date: 20120118

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20120118

Address after: American California

Applicant after: Qualcomm Inc.

Address before: American California

Applicant before: Gesturetek Inc.

C14 Grant of patent or utility model
GR01 Patent grant