CN108399010A - 增强的基于相机的输入 - Google Patents

增强的基于相机的输入 Download PDF

Info

Publication number
CN108399010A
CN108399010A CN201810420206.8A CN201810420206A CN108399010A CN 108399010 A CN108399010 A CN 108399010A CN 201810420206 A CN201810420206 A CN 201810420206A CN 108399010 A CN108399010 A CN 108399010A
Authority
CN
China
Prior art keywords
project
datum line
user
user interface
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810420206.8A
Other languages
English (en)
Other versions
CN108399010B (zh
Inventor
埃文·希尔德雷思
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN108399010A publication Critical patent/CN108399010A/zh
Application granted granted Critical
Publication of CN108399010B publication Critical patent/CN108399010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Abstract

本发明涉及一种增强的基于相机的输入,其中在场景内用户的图像定义围绕用户的检测区域,并且检测目标(例如手)在检测区域内的位置。另外,基于检测到的目标的位置与用户界面中的控件(例如虚拟键盘的按键)交互。

Description

增强的基于相机的输入
分案申请的相关信息
本案是分案申请。该分案的母案是申请日为2008年7月25日、申请号为200880109208.X、发明名称为“增强的基于相机的输入”的发明专利申请案。所述母案具有申请日为2008年7月25日、申请号为201310072501.6、发明名称为“增强的基于相机的输入”的发明专利分案申请。
相关申请的交叉引用
本申请要求于2008年5月21日提交的美国专利申请No.12/124375和于2008年4月14日提交的美国专利申请No.12/102587的优先权,这两件申请均要求于2007年7月27日提交的美国临时专利申请No.60/952448的权益。这些申请中每一件申请的公开内容都通过引用并入此处。
技术领域
本公开一般涉及计算机输入,并且根据一个具体实施方式,涉及基于相机的人机界面。
背景技术
在用户界面的领域中,控件(或微件)是计算机用户与之交互的界面元素,例如窗口或文本框。在一些情况下,控件(例如虚拟按钮)可具有与该控件的物理对应物相似的功能和外观。典型地,用户使用计算机鼠标或键盘与控件交互。
发明内容
根据一个一般实施方式,在此描述的增强控件可以用于便于从项目组中选择项目,例如在构成字母表的字母组中选择字母,或者在大量的功能中选择功能。通过沿基准线确定这些项目朝向或对准这些项目,这些项目可以显示得不重叠、不妨碍或不使也显示在用户界面中的一部分目标不清楚,从而使用户能够直观地选择项目。
可以通过将光标悬停在项目上持续设定的一段时期,或在光标定位在项目上方的同时通过选择诸如鼠标按键或键盘按键的物理控件,或通过其它方法,来出现选择。项目的选择或潜在选择可导致项目改变其外观(也就是‘激活的’或‘突出的’),从而沿基准线将项目彼此区分开并且减少选择错误。给基准线的定义或定位提供基础的目标可以自己与项目交互,例如在输入装置或其它用户输入的动作映射到由沿基准线对准的项目所围绕的化身的手臂动作的情况下。
根据一个一般实施方式,计算机执行的处理包括在用户界面中相对于目标定义基准线,以及在不模糊目标的条件下显示与基准线对准的项目。该处理还包括基于接收对所显示项目其中一个的选择而输出所选择的项目。
实施方式可包括一个或多个下列特征。例如,选择可以是基于光标的用户选择。可以确定目标在用户界面中的位置,其中基准线可以动态地定义为围绕所确定的位置的至少一部分。在用户界面中可以检测第二目标,其中基准线可以动态地定义为在与第二目标相对的目标的一侧上。可以检测所确定的位置的改变,并且可以基于所确定的改变相对于目标重新定义基准线。
在另一例子中,基准线可以是直的、弯曲的、圆形的、多边形的或锯齿形的基准线,其中每个项目可以是文字数字式字符、符号、背景或名称。输出所选择的项目还可以包括突
出所选择的项目,例如通过改变所选择的项目的颜色、不透明度或大小。改变所选择的项目的颜色、不透明度或大小还可以包括将所选择的项目的颜色、不透明度或大小改变为第一级别,并且将与所选择的项目邻接的项目的颜色、不透明度或大小改变为第二级别。显示项目还可包括沿基准线均匀地分布项目。目标可以是用户界面中的空白区域或化身。基准线的起点和终点可以水平地或垂直地对准。
在另外的例子中,定义基准线还可以包括确定化身的控制部分的动作范围,以及在控制部分的动作范围内定义基准线,其中该基准线可以定义为沿控制部分的动作范围的外边缘。可以指定化身的第一或第二潜在控制部分为控制部分,指定的控制部分可以被活动起来,并且可以将控制部分指定从第一潜在控制部分交换到第二潜在控制部分,或从第二潜在控制部分交换到第一潜在控制部分。
根据另一一般实施方式,计算机程序产品有形地具体体现在机器可读介质中。计算机程序产品包括这样的指令:当由机器读取时运行以致使数据处理设备在用户界面中相对于目标定义基准线,用以在不模糊目标的条件下显示与基准线对准的项目,以及用以基于接收对所显示的项目中的一个的选择而输出所选择的项目。
根据另外的一般实施方式,一种装置包括处理器和用户界面。处理器在用户界面中相对于目标定义基准线。用户界面在不模糊目标的条件下显示与基准线对准的项目,以及基于接收对所显示项目中的一个的选择而输出所选择的项目。
在再一一般实施方式中,用户例如通过在他们身体周围的空间中摆动或有目的地确定他们的一只手臂或两只手臂的位置来做示意动作。相机拍摄用户的图像,并且从图像确定用户的位置。使用该位置,在用户周围定义这样的检测区域:如果用户打算执行输入示意动作,那么用户的手或手臂将可能在该检测区域中。通过检查该定义的检测区域来检测用户的手或手臂,并且这些检测到的控制目标的位置或动作映射到计算机应用的输入。
在一个实例中,并且基于对用户身体的能力和限制定义或建模的解剖模型,检测区域定义为在用户头部上方图像的区域中,并且向外延伸到用户体侧。检测到的控制目标的位置或动作可以被映射到光标、化身、表现、鼠标事件或其它元素,以与用户界面上的控件(例如,滚动条、按钮、虚拟键盘、下拉菜单或任何其它控件)交互。
根据再一一般实施方式,在场景内用户的图像中定义围绕用户的检测区域,并且检测目标(例如手)在检测区域内的位置。另外,基于检测到的目标的位置与用户界面中的控件(例如虚拟键盘的按键)交互。与控件交互还可以包括选择字符。
实施方式可包括一个或多个下列特征。例如,可以检测用户的约定示意动作(engagement gesture),其中可以基于检测约定示意动作来检测目标的位置。用户界面还可以包括用户的代表,其中控件可以包括与相对于代表定义的基准线对准的项目,并且在不模糊代表的条件下显示项目。用户的代表还可以包括这样的化身或光标,其中基于检测到的目标的位置使化身活动起来以模仿用户的动作。控件可以显示在用户界面内代表的上方或旁边。
在再一例子中,定义检测区域还可以包括确定用户的头部或躯干的位置,以及基于所确定的头部或躯干的位置定义检测区域不包括躯干。可以使用图像分割来确定用户的躯干位置,并且可以使用面部检测确定用户的头部位置。可替换地,定义检测区域还可以包括确定用户手臂的到达范围,以及基于所确定的手臂的到达范围,定义检测区域不包括手
臂不能达到的图像区域的至少一部分。相反地,定义检测区域还可以包括基于所确定的躯干的位置,确定目标不能到达的、图像的不能到达区域,以及定义检测区域不包括所确定的图像的不能到达区域。用户的手臂的到达范围可以是基于用户的躯干、头部或肩部的所确定的位置。
在再一例子中,图像可以被裁剪且显示在用户界面内。用户的图像可以居中,其中可以基于将图像居中来裁剪图像。可以确定放大倍数,该放大倍数使得在居中的图像内用户可到达控件,其中可以基于放大倍数来裁剪图像。可以使用解剖模型确定放大倍数。可以检测用户的面部,可以基于检测到的面部确定用户的身份,并且可以基于用户的身份调整控件。可以检测第二目标在检测区域内的位置,并且可以基于检测到的第二目标的位置与用户界面内的第二控件交互,或可以基于第二目标的位置调整控件。
在再一例子中,可以使用相机拍摄图像。检测区域可以成形为用户上方的弧形检测子区域,该弧形检测子区域与两个直线形检测子区域邻近,每个直线形检测子区域位于用户一侧。可以检测目标关于映射的基准线在检测区域内的位置。可以显示经分割的图像作为用户的代表。
根据再一一般实施方式,计算机可读介质通过计算机程序产品编码。计算机程序产品包括这样的指令:当执行该指令时运行以使得计算机在场景内用户的图像中定义围绕用户的检测区域,并且检测目标在检测区域内的位置。计算机程序产品还包括这样的指令:当机器读取该指令时运行以使得数据处理设备基于检测到的目标的位置与用户界面中的控件交互。
根据再一一般实施方式,装置包括处理器。处理器配置成适合于或可操作以在场景内用户的图像中定义围绕用户的检测区域,以及检测目标在检测区域内的位置。处理器还配置成基于检测到的目标的位置与用户界面内的控件交互。
提供了该简短概要,以便能够快速理解通过本文件描述的各种构想和实施方式。通过参考下面的详细描述以及附图可以获得更加全面的理解。应该理解,可以采用其它实施方式并且可以进行改变。
附图说明
图1是示出增强的基于相机的输入的概念示意图。
图2是用于执行增强的基于相机的输入的装置的框图。
图3示出了使用增强的基于相机的输入的示例性处理过程。
图4示出了用于拍摄用户的图像的示例性系统。
图5描述了使用图4的系统拍摄的用户的示例性图像。
图6描述了在图5中示出的图像内定义的示例性检测区域。
图7示出了通过对较大图像进行居中和裁剪产生较小的图像。
图8示出了在包括两个候选用户的场景中在控制用户周围定义的检测区域。
图9示出了示意动作到控件输入的示例性映射。
图10是使用示例性增强控件的用户界面的概念示意图。
图11示出了包括目标和示例性增强控件的用户界面,该示例性增强控件还包括基准线(guide line)。
图12至图19示出了示例性基准线布置以及基准线和目标之间的示例性关系。
图20至图38示出了沿基准线对准的项目的示例性选择。
图39示出了包括一个或多个示例性增强控件的用户界面。
图40示出了使用基于相机的输入的其它示例性控件。
图41示出了计算装置的外观的例子。
图42是示出图41中所示的计算机的内部结构的框图。
具体实施方式
根据一个一般实施方式,在此描述的增强控件可以用于便于从项目组中选择项目,例如在构成字母表的字母组中选择字母,或者在大量的功能中选择功能。通过沿基准线定位或对准这些项目,这些项目可以显示得不重叠、不妨碍或不以其它方式模糊也显示在用户界面中的目标的一部分,从而使用户能够直观地选择项目。
另外,使用在此描述的增强方法,用户可以通过在他们身体周围的空间中摆动或以其它方式定位他们的一只手臂或两只手臂而用示意动作表达。相机拍摄用户的图像,并且从图像中确定用户的位置。使用该位置,在用户周围定义这样的检测区域:如果用户打算给计算机应用输入命令,那么在检测区域中很可能发现用户的手或手臂。通过检查定义区域来检测用户的手或手臂,并且这些检测到的控制目标的位置或动作用作给计算机应用的输入。
在一个实例中,并且基于定义或模拟用户身体的能力和限制的解剖模型,检测区域定义在用户头部上方并且向外延伸到用户体侧的区域中。检测到的控制目标的位置或动作可以被映射到光标、化身、代表、鼠标事件或其它元素,以与用户界面上的控件(例如,滚动条、按钮、虚拟键盘、下拉菜单或任何其它微件)交互。
图1是示出增强的基于相机的输入的概念示意图。场景100包括用户101,用户101坐在机顶盒104前面的沙发102上,观看电视节目或听音乐。机顶盒104连接到电视105和相机106。作为与机顶盒104交互的一种方法,用户可伸展他的左手107超过他的头部109,并且使用相机106生成场景100的图像110。该图像可以是用静态相机拍摄的单个图像,或者是使用摄影机拍摄的一系列图像中的一个或多个图像。
在场景100的图像110中,定义用户101周围的检测区域111。在该例子中,检测区域111包括用户101上方的弧形检测子区域111a,该弧形检测子区域111a与用户101两侧的直线形检测子区域111b和111c邻接。检测区域111可以表示图像110的这样一部分:其中除了命令输入示意动作之外不太可能出现其它动作。
例如,检测区域111可以不包括与用户的躯干或头部相关联的图像区域,因为这些区域会经历与输入示意动作无关的正常身体运动所引起的动作的很大部分。类似地,也可以不包括接近于躯干的这些区域:在用户101下意识地移动或仅仅调整他们自己的位置时,手臂或头部可能占据在该区域中。另外,用户101身体不能够到达的图像区域也可以不包括在检测区域111中。
因此,检测区域111占据图像的这样一部分:在该区域内检测到的控制目标将较可能表示用户101输入命令的故意示意动作。在这点上,在后续的检查检测区域111以确定控制目标是否位于该区域内的处理操作中,可以仅对于检测区域111或对于小于整个图
像但包括检测区域111的那些图像部分来执行这些操作。
因此,检测区域111可定义为相机106的视场内这样的区域:在该区域中用户101可以通过身体部分的动作来表明他们正在执行命令输入、发信号或做示意动作。然而,类似地,检测区域111可以定义为也不包括相机106的这样一部分视场:其中动作发生地如此频繁以至于难于辨别不打算作为命令输入的示意动作与打算作为命令输入的示意动作。
在这点上,在调整(setup)或校准操作中,对于图像中的每个像素,像素图可以量化装置工作期间视场内每个单独的像素经历的动作数量。使用该像素图,检测区域可以通过将经历的动作数量小于特定最小阈值的那些像素排除在外定义,因为这些像素可能表示用户到达范围之外的背景或像素。类似地,检测区域可以定义为不包括经历的动作数量大于特定的最大阈值的那些像素,因为这些像素可能表示经历不表示命令输入的频繁动作的像素。不表示命令输入的示意动作或动作的例子可以包括,由呼吸导致的用户胸膛的动作,在对内容、身体语言反应时用户的眼睛或面部的活动,或者下意识的身体移动、颤搐或抖动。
可以基于解剖模型(anatomical model)定义检测区域111。例如,可以估计或测量用户头部的高度或宽度,并且用户的手的正常到达范围可以估计为该测量值的三倍。使用该估计,弧形检测区域可以定义在远离用户胸部两倍到三倍该测量值的距离处。通过该估计,可以忽略小于该距离发生的、表示身体或躯干运动的动作,以及该距离之外发生的、表示不可能由用户手臂产生的背景运动的动作。
在这方面,图像110包括不能到达区域113,该不能达到区域113包括图像110的那些这样的部分:基于解剖模型并假设用户的就座位置将保持相对固定而确定为手107不能够到达的部分。图像110还包括由躯干占据的躯干区域114,预期该躯干区域114包括这样的背景目标或用户动作:与检测到的其它目标(例如检测区域111内检测到的手107)的动作或位置相比,这些背景目标或用户动作与基于相机的输入不太相关或是基于相机的输入的干扰。由于相机106可以保持固定,因此检测区域111可以以直接方式映射到另一图像或其它图像上,例如后续图像。
一旦将检测区域111映射到另一图像,那么就可以从其它图像中检测出手107在检测区域111内的绝对位置或相对位置。可替换地,因为动作可能比位置更易于检测到,因此可以检测出手107在检测区域111中的动作。另外,如果检测区域111被划分成或定义为多个离散的块,例如块112a至112g,那么可以输出哪个指示块最接近于手107或由于手107而最模糊的指示。例如,如果手107使块112e比使任何其它块更模糊,那么可以输出块112e是所选择的块的指示。该指示可以包括标识该块的唯一标识符。
在用户界面114中,手107在检测区域111内的位置映射到与控件117交互的光标位置、代表(representation)或虚拟控制目标,例如化身116的虚拟手115。在控制控件117或与控件117交互中,手107在检测区域111内的运动可使化身116活动起来,从而使得与控件117的交互对于用户而言更直观并且视觉上愉快。通过与控件117交互,用户101选择项目119(字母“R”),该项目119出现在用户界面114的输出区域120中。
化身可以用图像110拍摄用户的身体外观的一部分来包装。通过该方法,对于用户101而言看起来似乎他们在用户界面114中操作装置或物理上与装置交互。换一种说法,相机106可以拍摄用户101的外观图像,并将该外观图像覆盖到构成化身的三维线框上,将
用户101的外观赋予该化身。
用户101的动作到化身116的动作的映射能够以1∶1的关系出现,可以将动作镜像,可以采用加速,或者可以将化身的动作强制到特定的“锁定(snap to)”点。另外,在速度模式中,控制目标在检测区域内的位置还可以表示这样的速度:化身应该以该速度继续移动直到控制目标的位置改变。根据所期望的具体配置,例如,用户101的动作和化身116的动作可以相互镜像,以使得用户抬高左手107会使化身的右手121抬高。
图2是用于实现增强的基于相机的输入的装置200的框图。简言之,除其它部件之外,装置200包括用户界面201、存储介质202、输入单元204和处理器205。使用装置200,增强的基于相机的输入可以用于便于与用户界面的控件交互,例如使得用户能够选择项目。与控件交互并不需要用户手握任何专门的目标,例如他们手中的回射器(retro-reflector)、陀螺仪装置(gyroscopic device)或遥感控制器,而是直观地将手臂或手的动作映射到光标或其它输入。
用户界面201是用于使得用户能够与装置或与由装置调用的应用交互的机构。用户界面201既可以影响输入也可以影响输出,使得用户能够操作装置或使得装置产生用户的操作的效果。装置200可以采用任何类型的用户界面201,例如图形用户界面(GUI)、声音用户界面或触摸的或触觉的用户界面。
用户界面201可以配置成呈现视觉显示图像。例如,用户界面201可以是监视器、电视机、液晶显示器(LCD)、等离子显示装置、具有投影屏幕的投影机、自动立体显示器、阴极射线管(CRT)显示器、数字光处理(DLP)显示器或配置成呈现显示图像的任何其它类型的显示装置。用户界面201可以包括一个或多个显示装置。在一些构造中,用户界面201可以配置成显示与应用相关联的图像,例如由应用生成的显示图像,包括控件和诸如化身的目标。存储介质202存储和记录信息或数据,并且可以是光学存储介质、磁存储介质、闪存或任何其它存储介质类型。
相机204是用于拍摄图像的装置,将图像拍摄为静止照片或一系列运动图像。相机204可以使用可见光谱的光或电磁频谱的其它部分,例如红外线。例如,相机204可以是数码相机、数码摄像机或配置成拍摄图像的任何其它类型的装置。相机204可以包括一个或多个相机。在一些例子中,相机204可以配置成拍摄与应用交互的目标或用户的图像。例如,相机204可以配置成拍摄在相机204的视场内物理上与应用交互的用户或人的图像。
相机可以是立体相机(stereo camera)、飞行时间(time-of-flight)相机或任何其它相机。例如,相机204可以是能够对背景图像采样的图像检测器,以便检测用户的动作以及类似地,用户的示意动作。相机204可生成灰度图像、彩色图像或距离图像(distanceimage),例如能够生成距离图像的立体相机或飞行时间相机。立体相机可以包括在稍有不同的视点处获取图像的两个图像传感器,在立体相机中处理器比较从不同视点获得的图像以计算图像部分的距离。飞行时间相机可以包括生成光脉冲的发射器,该光可以是红外光,在飞行时间相机中光脉冲从发射器到目标并且返回到传感器的时间被测量以计算图像部分的距离。
装置200经过有线或无线路径电连接到相机204和用户界面201,并且配置成控制处理器205的操作以提供基于相机的输入。在一个构造中,装置200使用处理器205或其它控制电路以执行提供用于增强的基于相机的输入的应用。具体地,装置接收来自相机
204的输入并且处理接收的输入,以计算用户的代表在用户界面201中的位置和运动,并且基于这些运动与控件交互。
在一个示例的实施方式中,通过使用相机检测做示意动作的用户的图像来产生输入。例如,移动电话可以置于桌上并且可以是可操作用于使用面前(face-forward)的相机生成用户的图像。可替换地,使用相机204可以检测或识别示意动作,例如通过使用光流(optical flow)或一些其它方法检测“向左(tilt left)倾斜”示意动作,以及使用检测到的示意动作以向左移动用户的代表且选择位于控件的左侧的项目,或通过检测“向前和向右倾斜”示意动作,以向上移动用户的代表且移动到中心位置的右方,从而选择位于控件的上部右侧的项目。
因此,相机204还可以包括或替换成能够检测装置200的角位置的一些其它类型的输入装置或模块,例如陀螺仪(gyroscope)、加速计(accelerometer)或光流追踪器(optical flow tracker)。在这点上,相机可以补充以倾斜传感器输入或用倾斜传感器输入替换,以执行用户期望的功能或命令。同样地,可以不使用相机而发生用户示意动作的检测。例如,通过以在用户界面上的控件上可视化的相同类型的笔划模式(stroke pattern)移动装置,用户能够以直接的、直觉的和视觉上愉快且刺激的方式控制相同的界面或应用。
尽管已经将装置200描述为个人计算机(PC)或机顶盒,但是这样的描述仅仅是为了简明,并且还可构思其它实施方式或表现形式。例如,装置200可以实现为电视机、超便携式个人计算机(ultra-mobile personal computer,UMPC)、移动互联网设备(MID)、数码相框(digital picture frame,DPF)、便携式媒体播放器(PMP)、通用计算机(例如:台式计算机、工作站或笔记本计算机)、服务器、游戏设备或控制台,或包括处理器或配置成执行指令的其它控制电路的任何其它类型的电子装置,或包括用户界面的任何其它设备。
图3示出了实时地或接近实时地使用增强的基于相机的输入的处理过程300。周围检测区域可以与用户重叠或可以不与用户重叠,包括用户的频繁移动部分。简言之,处理过程300包括在场景内用户的图像中定义围绕用户的检测区域,以及检测目标在检测区域内的位置。另外,处理过程300包括基于检测到的目标的位置与用户界面内的控件交互。
更详细地,当处理过程300开始(S301)时,在场景内用户的图像中定义围绕用户的检测区域(S302)。简要地参考前述,图4示出了用于拍摄用户410(从侧面示出)的图像的示例性系统400,并且图5描述了使用相同的示例性系统400拍摄的用户410(从正面示出)的示例性图像500。
具体地,系统400包括机顶盒401、相机402和电视机404。相机402拍摄其视场403内的某一场景的图像,其中该场景例如包括伸展的右手405、头部406、躯干407和用户410的两条腿409的一部分、用户410坐在其上的沙发411以及用户410和沙发411后面的背景,例如墙壁。
可以使用任何数量的图像压缩技术中一种或多种来压缩或存储图像500,该图像500是静止图像或来自一系列运动图像中的一幅图像。图像500可以是用于触摸检测的经分割的相机图像,也用于确定和显示用户界面中的用户代表。使用相机402拍摄图像之后,可以在网络上传输该图像。
在用户执行约定示意动作之后,可以定义围绕用户的检测区域。约定示意动作激活或调用这样的功能:监控用于基于示意动作的命令输入的其它图像,以及忽略、过滤或排
除随机的、无意识的身体动作或者没有定义命令输入的其它身体动作或背景动作。
如此处始终使用的那样,“示意动作”意在指代通过人体的部分或整体或多个人体进行的非语言(non-verbal)交流形式,并且与诸如讲话这样的语言交流形成对照。例如,可以通过在第一位置、姿势或表情与第二姿势、位置或表情之间的移动、改变或变换来定义示意动作。示例性的示意动作例如包括:“打引号(air quote)”手势、鞠躬姿势、屈膝礼、面颊亲吻、手指或手动作、跪拜、头部摇动或移动、击掌、点头、悲伤的面部、举起的拳头、敬礼、击打或摇动动作、竖起大拇指的动作或手指指向示意动作。
约定示意动作可以是保持预定量时间的、在显示器前面的相机跟踪区域中用手势表达的特定手势或手动作序列。一个示例性的手势是:这样一个手势:保持竖直位置且所有的手指和拇指充分地分开。另一例子是通过在用户面前伸展他们的手臂,并且在用户头部前方呈圆形地移动他们的手臂而完成的圆形手动作。实质上,约定示意动作向生成用户界面的装置说明用户已准备好发生更进一步的基于相机的输入。为了减少错误,约定示意动作可以是非典型的示意动作,例如在正常交谈期间不会下意识地用身体语言做出的示意动作,或在正常人类活动的通常表现中不会做出的示意动作。
因而,从这两幅图像可以得到定义了用户的想法、意见、情感、交流、命令、示范或表情的示意动作。例如,用户的示意动作可以是单个或多个手指姿势;单个手姿势;单个手和手臂姿势;单个手和手臂以及身体姿势;双手姿势;头部姿势或姿态的改变;眼睛位置的改变;面部表情的改变;身体姿势或姿态的改变或任何其它表达性的身体状态的转换。
为了简洁,用于执行相关示意动作的身体部分或多个身体部分通常称为“控制目标”。例如,用户可以使用他们的整个身体或用其他身体目标表达命令,在此情况下,他们的整个身体或其他身体目标可以是控制目标。用户可以通过眨眼睛、通过扩鼻孔或通过摆动手指,更加微妙地表达命令,在此情况下,眼睑、鼻子或手指可以是控制目标。单个图像中或两个图像之间用户的示意动作可以是启动或“约定”示意动作的表示。控制目标还可以是物理装置,例如红外手指光、回射器或遥控装置。
存在从相机图像中确定用户示意动作的许多方式。例如,通过使用手、手臂、身体、头部或其它目标位置信息的示意动作分析和检测处理,可以检测“在空中画圆”或“将手挥到一侧”的示意动作。尽管示意动作可以包括两维或三维位置转移,例如当做出挥动手势时,但是在其它情况下示意动作包括没有伴随的位置转移的转换。例如,如果通过伸直五个手指、手掌向前用手发出“停止”信号,那么如果所有五个手指缩回成球并且手掌保持向前,则即使是手或手臂的整体位置保持固定,用户的姿势也发生改变并由此表达示意动作。
可以使用启发式技术检测示意动作,例如通过确定手位置信息是否通过明确(explicit)的规则集。例如,如果下面的示意动作检测规则得以满足:(1)经过小于预定限度的时间间隔,水平位置的改变大于预定距离;(2)经过该时间间隔,水平位置单调地改变;(3)经过该时间间隔,垂直位置的改变小于预定距离;以及(4)在该时间间隔的结束时的位置比在该时间间隔的开始时的位置更靠近检测区域的边界(或在检测区域的边界上),那么可以识别“将手挥到一侧”的示意动作。
一些示意动作采用以明确的次序被执行且满足的多个规则集,其中规则集的满足致使系统改变到应用不同规则集的状态。这样的系统可能不能够检测微妙的示意动作,在此情况下可以使用隐马尔可夫模型(Hidden MarkovModel),因为这些模型使得能够检测一
系列具体动作,并且还考虑这些动作充分符合某一示意动作的整体可能性。
除了身体、手臂或手的示意动作之外,可以从一个或多个图像中识别出手指指向示意动作。例如,“指向左”的示意动作可以用用户手指的指尖做出,并且通过分析手指图像来检测。指纹分析或其它方法可以用于确定指向指尖的方向。在其它示例性的实施方式中,并且如上所述,可以不使用相机来检测示意动作,例如在示意动作是语言示意动作的情况下或者使用倾斜传感器或加速计来检测时。
在相机拍摄的用户图像中,用户的手臂可以被识别为做出从向下第一位置到伸开的手掌向前的第二位置的手势。用户执行该约定示意动作可以致使用户的代表连同控件一起显示在用户界面内。因为当执行该示意动作时,用户可能不在相机视场的中心,因此在约定之后可以调用重新对准、裁剪、重新确定中心或放大处理。
在一个示例性实施方式中,图像500是抠像相机图像,例如所获得的位于彩色背景前面的用户410的图像。抠像处理识别图像500的那些颜色与背景颜色匹配的部分并且将那些部分分类为背景。图像500的那些颜色偏离背景颜色的部分较可能是用户410的部分,并且被分类为前景。
在其它示例性实施方式中,图像500是深度键相机图像。典型地,通过能够确定深度或距离的相机来获得深度键相机图像,例如飞行时间相机(例如由生产的相机)或立体相机(例如由生产的相机)。对于一个示例性的飞行时间相机,红外发射器发射红外光脉冲,光学传感器测量光行进到目标并且返回到相机所花费的时间,并且基于该时间计算目标的距离。
对于一个示例性的立体相机,多个光学传感器从多个视角拍摄场景的图像。于是立体相机能够比较多个图像,以确定多个视角之间目标位置的差异,并且基于该差异计算目标的距离。基于该距离将图像部分分类为前景和背景。分类处理可以包括将该距离与阈值进行比较,从而,如果该距离小于阈值则将这些部分分类为前景,并且如果该距离大于阈值则将这些部分分类为背景。分类处理还可以包括将该距离与背景模型进行比较,由此背景模型表示没有用户的场景部分(例如地板和家具)的深度。如果该距离短于模型的相应部分,则这些部分可以分类为前景,并且如果该距离等于或长于模型的相应部分,则这些部分可以分类为背景。
在另一例子中,图像500使用背景颜色模型。例如,图像500可以与表示背景的期望外观的背景颜色模型进行比较。通过存储没有用户的场景图像可以获取背景颜色模型。如果相机图像的某部分的颜色与背景颜色模型的相应部分的颜色相似,那么就将该部分分类为背景。如果相机图像的某部分的颜色不与背景颜色模型的相应部分的颜色相似,那么就将该部分分类为前景。
在另外的例子中,使用皮肤颜色模型对图像500进行分割。例如,可以将图像500与表示用户皮肤的期望外观的皮肤颜色模型进行比较。可以预先定义皮肤颜色模型,并且基于大量的人的图像中采样的皮肤颜色。还可以基于用户皮肤的图像来定义皮肤颜色模型。如果相机图像的某部分的颜色与皮肤颜色模型内的颜色相似,那么就将该部分分类为前景。如果颜色不与皮肤颜色模型内出现的任何颜色相似,那么就将该部分分类为背景。
另外,图像500可以是动作图像,从而包括动作的图像部分被分类为前景,并且看起来静态的图像部分被分类为背景。通过动作划分相机图像可以包括获取一系列相机图
像,计算连续图像之间的差异,以及将该差异与阈值进行比较。可以使用用于检测一个或多个图像中的动作的其它技术,例如光流。
尽管上文已经描述数个用于产生经分割的相机图像的示例性方法,但是实际上可以构思其它方法或技术,并且这些其它方法或技术可以取代所述方法、作为所述方法的补充或结合所述方法使用。
因为随后可以使用用户410的位置(“身体位置”)(除了别的之外)来定义检测区域的位置,用以定义控件在用户界面内的位置,或用以裁剪或放大图像,因此在图像500内检测身体位置。身体位置可以是使用面部检测确定的头部406的位置。面部检测可以扫描相机图像的各部分以检测与人面部外观相应的特征。
身体位置还可以是:用户的手臂位置,使得所有的项目都在手臂容易到达范围内;躯干407、腿部409、重心或躯干中心的位置;或者该位置可以与用户410的其它部分或方面相关,例如肩部位置。身体位置可以定义为点、线或定义为包括用户身体的全部或一部分的区域或范围。为了计算效率,身体位置可以定义为简单的形状,例如方形或圆形。例如,在图5中,可以将位置501(示出为加号(+))确定、计算或估计为身体位置。
如图6所示,在用户410的图像500中定义用户410周围的检测区域600。一般地,检测区域表示检测到控制目标(也就是手或手臂)的图像部分,因此一般不包括图像500中控制目标不可能位于的的部分以及其中的背景、动作或其它因素使得难以发现控制目标或计算昂贵的图像部分。因此,将图像500例如分割成检测区域600、不可到达区域601和躯干区域602。
由于用户躯干或头部这些身体部分运动频繁,因此检测区域600可以不包括与用户躯干或头部相关联的躯干区域602。躯干区域602还包括图像500的这些区域:该区域接近躯干,在用户410下意识地运动或仅仅调整他们自己的位置时手臂或手也可能占据该区域。另外,用户410身体不能够到达的不可到达区域601不包括在检测区域600中。剩余的检测区域600占据这样一部分图像:在该区域内检测的控制目标应当更可能表明用户410的故意身体运动或命令输入。在这点上,在检查检测区域600以确定控制目标是否位于该区域内的后续处理操作中,可以仅对于检测区域600或者对于小于整个图像但包括检测区域600的那些图像部分来执行这些处理操作。
可以根据用户的动作范围对检测区域600定位。动作范围的确定可以基于复杂的解剖模型,例如模仿生物运动(bio-kinetic)限制或人类身体的能力并且将这些能力应用于用户的模型。在一些情况下,也可以使用较简单的拇指规则(rules-of-thumb),例如估计用户手臂可到达的距离等于用户头部的大小乘以某一乘数的方法。在其它情况下,可以基于用户身份(例如,使用面部识别而确定)以及存储在装置内关于用户的信息(例如,用户的年龄和性别)来估计用户手臂到达范围。在任何情况下,通过用户的一些方面来定义检测区域600的具体定位。照此,假定用户被检测区域600围绕。
因此,可以将检测区域600定义为在相机的视场内这样的区域中:在该区域中对于用户410而言,通过身体部分的动作来表明他们在执行命令输入、发信号或打手势是可行的或可能的。然而,类似地,可以将检测区域600定义为在相机的这样一部分视场外:在该部分中动作发生得如此频繁以至于难于将有意图的命令输入示意动作与非命令输入动作区分开来。
可以将基准线604定位在检测区域600中。例如,基准线604可以确定为平行于检测区域600的边界603的线(或与之具有其它的空间关系)。如下面更加详细的描述,可以沿基准线604设置可选择项目。例如,在图10中,沿用户界面1000内的基准线1009设置可选择项目1010a至1010z。
图7示出了通过对较大图像进行居中和裁剪来产生较小图像。具体地,类似于图像500的图像700已经以用户头部701的头部位置703为中心且被放大,以产生经裁剪的图像702。使相机图像的某些部分居中或放大能够使得控制目标(例如手704)的运动能够更加直观地或容易地映射到最后所得到的用户界面内的用户的代表上。
可以在用户界面内显示裁剪的图像702或裁剪的图像702的放大视图。可以使用户的图像居中,其中可以基于将图像居中对图像进行裁剪。可以确定使得居中的图像内控件对用户是可到达的放大倍数,其中可以基于该放大倍数而进一步裁剪图像。可以使用解剖模型确定放大倍数。
在图7中,对图像700拍全景或进行缩放使得身体位置相对于例如在用户界面中示出的控件的组件这样的一些项目进行定位。通过这样的处理可以模拟拍全景或缩放:拍摄全相机图像700,以及从全相机图像700中选择将放大或缩小以适合显示的经裁剪的图像702。将经裁剪的图像702按比例缩放以填充用户界面的显示图像,并且存储或丢弃全相机图像的剩余部分。如下文进一步详细地描述,坐标,例如身体位置703或手位置704的坐标,可以相应地映射到在用户界面上显示的用户的代表上的特征。
检测区域可以包括用户上方的弧形检测子区域,该弧形检测子区域与两个直线形检测子区域邻接,每个直线形检测子区域位于用户一侧。尽管上文已经将检测区域描述和示出为马蹄形,但是还可以基于制造商的预先设置或用户设置使用其它形状,或者可以动态地确定检测区域的形状。例如,检测区域可以是圆形形状,仅仅直线形状或包括对称或非对称形状的任何其它形状。检测区域还可以定义多个非邻近区域,例如对于具有虚拟键盘控件的用户(例如参见图40)。
图8示出了在包括两个候选用户的场景中,在控制用户周围定义的检测区域。具体地,一旦在图像800中检测到两个候选用户801和802时,检测区域804可以定义成考虑非控制用户802的手臂的动作范围805。换种说法,如果在检测区域804的某一部分中能够检测到非控制用户802(或非控制用户802的控制目标),那么就可以不将该部分从检测区域中排除在外。另外,可以针对用户界面800内每个用户定义检测区域,其中在那些不然就将出现检测区域重叠的图像区域处,裁剪(或者对于具体的处理操作,标记)每个检测区域的边界。
结果是,检测区域804可以采用更加复杂的、动态定义的形状。可替换地,可以将较少计算花费的规则应用于图像,以便基于图像的主题或场景定义检测区域。例如,如果用户接近墙壁或其他人,那么在墙壁或其他人的相反侧,可以接近于用户定义直线形的或其它形状的检测区域。
可以将交互项目设置在检测区域804中。可以计算项目的位置和大小以使得所有的项目至少部分地设置在检测区域804中,并且当改变检测区域定义时,例如为了避免非控制用户802的手臂,可以重新计算,以使得所有的项目保持在检测区域内。可以沿检测区域804内的基准线设置项目,并且可以使项目的位置活动起来以沿基准线移动,使得所有
的项目出现在经裁剪的检测区域内。
检测目标(例如手)在检测区域内的位置(S304)。通过将先前定义的检测区域应用或叠在新图像上,可以检测在同一图像或另一图像或其它图像中,例如后续图像中的目标的位置。例如,检测区域可以定义在场景的区域内或图像的区域内。如果相机或用户在移动,那么可以从图像到图像地调整检测区域以补偿该运动。为了与用户界面中的控件交互,确定用户的控制部分的位置(“用户位置”),用于映射到用户界面内的光标、标记、化身或用户的其它代表。
可以以若干方式表达控制目标的位置。例如并且如图9的图像900所示,用户902的手位置901可以表达为绝对或相对坐标(x,y),或者表达为角度θ或离已知点904(例如身体位置)的角度θ和绝对或相对距离d。另外,如果检测区域905被划分成多个子区域(例如子区域905a至905h)或与多个交互元素相关联,那么控制目标的位置可以表达为子区域的唯一标识符或者与手位置901重叠或最靠近手位置901的交互元素。在图9中,例如,因为手位置901重叠子区域905e,所以控制目标的位置可以简单地表达为与子区域905e相关联的标识符。还可以使用以一维、两维或三维表达目标位置的其它方法。
确定用户位置可以包括分析经分割的相机图像,其中相机图像被分割成前景部分和背景部分。例如,可能表示用户的部分图像(例如像素)分类为前景,不可能表示用户的部分分类为背景。使用经分割的相机图像确定用户位置将基准线上方的图像部分考虑在内,并且选择地,可以包括基准线下方的短距离。可以将用户位置计算为区域内所有前景部分的平均位置。使用经分割的相机图像确定用户位置可以包括对区域内前景部分的数量进行计数,以及将该计数与阈值进行比较,并且如果该计数大于阈值则根据所找到的用户位置对用户位置分类。
使用经分割的相机图像确定用户位置还可以包括将区域内的前景部分聚集成簇,选择簇(cluster),以及将用户位置计算为簇内所有前景部分(例如像素)的平均位置。计算平均位置可以包括计算加权平均,其中对于越在基准线上方的部分,该部分的权重越大。
通过对越在基准线上方的部分加权越大,平均位置较可能是基准线上方的一部分用户。在一些实施方式中,系统可以配置成使得与用户界面交互的用户位置大部分是在基准线下方。在这些实施方式中,系统可以配置成使得用户能够通过将用户的手定位在头上并且在基准线上方而选择字符。另外,在这些实施方式中,通过对越在基准线上方的部分加权越大,用户的检测到的平均位置较可能是表示用户的手的指尖。
在其它实施方式中,使用经分割的相机图像确定用户位置包括分析经分割的相机图像的前景部分的形状。分析前景部分的形状可以包括识别顶端前景部分,以及将用户位置计算为顶端前景部分的位置。可替换地,分析经分割的相机图像的前景部分的形状可以包括生成前景部分的轮廓,识别轮廓的形状特征,以及确定形状特征是否是手。可以将用户位置计算为手位置。
另外,确定用户位置可以包括分析相机图像以识别用户的手,以及确定手的位置。识别相机图像内的手位置可以包括将部分相机图像与表示用户皮肤的期望外观的皮肤颜色模型进行比较。如果部分相机图像的颜色类似于皮肤颜色模型内的颜色,那么就将该部分分类为皮肤。被分类为皮肤的部分聚集成部分簇,并且将总体位置和大小满足一个或多个标准的部分簇分类为手。可以使用识别相机图像内的手位置的各种方法,并且应该理解,
可以采用其它手跟踪方法。
用户界面可以采用区域集合。区域集合可以包括关于集合中每个项目的区域。确定每个区域的触摸状态可以包括确定是否有被分类为前景的经分割的相机图像(例如用户)的部分在区域内。在其它例子中,确定每个区域的触摸状态可以包括确定被分类为用户的手的、经分割的相机图像的一部分是否在区域内。该区域集合可以包括关于子集的每个项目的区域。区域集合可以基于用户的交互而变动(例如,在显示图像内移动)。
显示用户的代表可以包括显示这样的化身:其外观可以由用户配置。例如,用户可以配置化身的性别、大小、面部特征和衣服。显示用户的代表可以包括检测用户的身份,以及显示与检测到的用户的身份相应的用户代表。可以使用面部识别检测用户的身份。与检测到的用户的身份相应的用户代表可以包括化身,其外观由用户配置。
显示用户的代表可以包括显示相机图像,例如覆盖到化身上的用户的纹理图像。例如,从摄像机获取视频图像并且呈现在显示器中。视频图像可以包括用户的图像以及用户所在的房间(以及用户周围的其它事物)。包括子集的项目和文本的前景图形集合可以呈现在视频相机图像上,部分地遮住相机图像。
显示用户的代表可以包括显示经分割的相机图像,其中相机图像分割成前景部分和背景部分。例如,很可能代表用户的图像部分被分类为前景,较不可能代表用户的部分被分类为背景。
显示经分割的相机图像可以包括仅仅呈现分类为前景的部分。仅仅呈现分类为前景的部分可以包括生成表示不透明度(opacity)的阿尔法通道(alphachannel),以及使用阿尔法通道将相机图像与背景图形集合组合,其中前景部分定义为不透明的,并且背景部分定义为透明的。
因此,用户界面可以显示前景元素和背景元素。前景元素可以遮住背景元素。包括子集的项目和文本的前景图形集合呈现在前景元素和背景图形上,部分地与前景元素和背景元素重叠。可以通过应用生成另外的前景元素和背景元素或图形。
基于检测到的目标的位置,与用户界面中的控件(例如虚拟键盘的按键)交互(S305),并且处理过程300结束(S306)。在一个例子中,控件是虚拟键盘或鼠标。在另一例子中,控件可以包括与相对于代表定义的基准线对准的项目,其中在不使代表模糊的条件下显示项目。
再次返回到图9,控制目标的位置被映射到控制输入。例如,可以基于将手位置901(表达为(x,y),θ,θ+d,子区域或交互元素标识符或一些其它标记)输入到查找表、数据库或公式,来确定光标位置。例如,在用户界面910中,光标位置911可以表达为绝对或相对屏幕坐标(x’,y’),或角度θ’或远离已知位置(例如化身身体位置912)的角度θ’加距离d’。可替换地,如果用户界面910定义多个区域914,那么输出光标位置911可以标识为与输入子区域或交互元素标识符相应的区域的唯一标识符。在示出的例子中,因为区域914d相应于子区域905e,因此光标位置911显示在区域914d内。
于是,通过调用与光标位置相关联的功能性而发生与控件交互。例如,调用的功能性可以选择或挑选靠近光标位置的项目、运行应用、执行媒体集线器功能、触发鼠标事件、改变控件的状态或执行任何其它人机输入。
输入位置参数(例如x,y,θ或d)可以与输出位置参数相同或可以与之处于1∶1
的关系。例如,用户手臂的角度θ可以与化身手臂的角度θ’相同或与之镜像。例如在用户界面920中,将光标位置921设置在相对于化身身体位置922的角度θ处。因此化身(或光标)可以表示用户,并且可以位于控件的上方、下方或旁边。
基于检测到的目标的位置,可以使化身活动起来以模仿用户的动作。可以检测用户的面部,可以基于检测到的面部确定用户的身份,并且可以基于用户的身份调整控件。可以检测检测区域内第二目标的位置,并且可以基于检测到的第二目标的位置与用户界面内的第二控件交互。
上文的图1至图9示出了可以将基于相机的输入应用于增强的控件,例如通过将图像中拍摄到的用户手臂动作映射到用户界面内的光标或用户的其它代表。在这点上,下文中图10至图39示出了一种增强的控件的非限制性例子,其可以通过基于相机的输入使用,或者适配为接受基于相机的输入。不同控件也可以使用基于相机的输入,例如图40或其它图中示出的控件。
图10是在状态1004a至1004d中示出的使用示例性增强的控件1002的用户界面1000的概念示意图,该增强的控件1002使用基于相机的输入。在状态1004a中,用户界面1000包括(除了其它之外)化身1006和设置在化身1006上方的控件1002,其中该状态1004a出现在检测约定示意动作之前,或者在检测约定示意动作之后但在所定义的检测区域内检测到控制目标之前。控件1002包括基准线1009(在状态1004a中示为虚线),以及每一个都表示英文字母表中的字母的项目1010a至1010z。尽管将项目1010a至1010z示出为表示字母,但是它们也可以表示其它的,例如图标、功能、图像、目标、符号、应用、字符或者相似或不相似的项目的组或簇。
在状态1004a中,因为还没有检测到用户输入(也就是,在图像中用户周围的定义区域内没有检测到用户的手或手臂),所化身1006描绘成处于松弛(neutral)或放松位置,其中化身1006的手臂1011a和1011b放松地沿靠着化身1006的躯干1012。
化身1006可以具有类似人的外观,并且能够在虚拟世界里操纵(navigate)。化身的例子包括类似于由BLIZZARD出品的WORLD OF的视频游戏以及诸如由LINDEN RESEARCH,出品的SECOND的虚拟世界中的可以游戏的字符。可以将基于相机的输入映射到目标的控制部分,例如化身的手,用化身的动作在用户身体周围的空间中镜像或模仿他们的动作。通过用相机拍摄用户的纹理图像以及将该图像重叠到化身1006上,化身1006可以具有用户的外观。
“项目”意在指代用户可能想从单元或元素集合中选择的任何单元或元素,包括但不限于与该项目类似或不类似的单元或元素。该集合可以包括少至没有项目或多至数百、数千或数百万个项目。在一个简单的例子中,项目是字母字符,并且项目集合包括英文字母表中的26个字母,或52个大小写字母。类似地,该集合可以由符号字符组成或包括符号字符,例如符号!、@、#、$、%、^、&、*、(、)、{、}、<、>、:、;、‘、“、?、/、~、`,或一般经由键盘或小键盘选择不可得到的其它符号。其它集合可以包括从名称、图标、功能或设置的列表中可以选择的名称,例如人名或地名,该设置例如是媒体设置(例如,“播放”、“音量调大”、“关闭”、“记录系列”等)。
在这点上,项目可以包括数字(0至9);字母(例如,英文字母表的字母A至Z,或日文文字中的假名(kana)字符);文本符号(例如,空格“”,连字符“-”,句号“.”);预定
的或动态确定的文本短语(例如,“.com”,“.org”,“常见问题解答”、“主菜单”、“发送”、“接听电话”、“播放DVD”、“关机”等);名称;标题;时间;日期;操作、事件、处理或功能(例如,“保存游戏”、“载入游戏”、“开始应用”、“传输数据”、“媒体播放器”、“照片浏览器”、“漆刷”、“电子邮件”、“地图”);配置选项(例如,“640×480分辨率模式”、“800×600分辨率模式”、“专家模式”、“新手模式”、“训练模式”、“作弊模式”);或任何其它信息或信息组合。
当在用户周围的定义区域内检测到用户的诸如手的控制目标时,出现状态1004b。该位置被映射到用加号示出的光标位置,其通过项目1010z所处的用户界面1000区域上方,并由此定义与鼠标悬停情形相类似的情形。一旦检测到鼠标悬停情形,就使化身1006的手臂1011b活动起来以看起来似乎化身1006指向或抓取项目1010z。另外,当项目1010z的大小增大时它变得突出,如同邻近项目1010y真的变小一样。在项目1010z上方的鼠标悬停情形还导致输出项目1010z,例如通过在输出区域1014中显示项目1010z,或通过使用文本语音转换器以使用扬声器发出项目1010z的音。因此鼠标悬停情形可以将相关联的项目置于预先选择的、激活的或突出的状态,尽管项目的预先选择或突出没有严格地要求项目改变其外观。
当用户在他们身体周围的空间中将他伸展的手移动到接近他的头部上方的定义区域内的位置时,并且当检测到该更加垂直的位置时,用户界面1000过渡到状态1004c。该手位置映射到控件1002的项目1010s上方沿基准线1009的新光标位置。使化身1006的手臂1011b活动起来,并且跟随用户的手在空间中的运动。由于用户的代表接近项目或越过基准线1009,因此被接近的项目通过增大尺寸而变得突出,并且随着代表远离突出的项目行进,项目减小尺寸。
当用户选择物理按钮或执行另外的选择示意动作(例如用他的另一只手执行的示意动作,或通过改变他的手姿势)时,可以输出激活的项目1010s。也可以通过将代表悬停在字母上方持续预定时间段,或者通过在标签式光标位于字母上方的同时选择键盘按键,来出现选择。字母的选择(或潜在选择)可以导致项目变得突出,从而沿基准线将字母区分开。化身或用于定义基准线位置的其它目标可以自身与项目交互,如同用户的运动映射到化身1006的手臂1011b的动作的情况一样。
在状态1004d中,已经选择项目1010s。一旦选择,项目就返回到它们初始的非突出的情形。另外,化身1006的手臂1011b返回到其邻近躯干1012的初始放松位置。例如在输出区域1014中输出选择的项目1010s。
如各种状态所示,可以使用增强的控件,以便于从组成字母表的字母组中选择一个字母或多个字母。通过将这些项目沿基准线定向或对准,这些项目显示得不重叠、不阻塞或不以其它方式模糊化身或其它目标,从而使得用户能够直观地选择项目。
使用图2所示的装置,可以调用、输出和使用增强的控件。简言之,该处理可以包括相对于用户界面内的一个目标定义基准线,以及在不使目标模糊的条件下显示以基准线对准的项目。另外,基于接收选择所显示项目中的一个项目可以输出所选择的项目。
更具体地,可以相对于用户界面内的一个目标定义基准线。这可以在当用户手动地表明应该显示增强的控件时、或者当确定项目是将输入的项目时(例如用户前进到文本输入区时)开始。因为,通过增大突出的项目的大小,可以使用增强的控件以沿着基准线显示更多的项目,其中如果所有的项目具有相同的尺度,那么该基准线通常将适合于用户界
面内,因此,也可以在确定了在不使用增强的控件条件下所有的项目无法有效地显示在用户界面内之后开始基准线的定义。这样做,增强的控件为项目子集提供以充分的或有效的大小显示,以使得用户能够容易且可靠地选择特定项目。
简要地参考前述,图11示出了用户界面1101,该用户界面1101包括目标1102(用虚线描述)和还包括基准线1104的控件1105。尽管在图11中将基准线1104示出为虚线,但是在其它示例性的实施方式中,基准线1104描述为实线或完全不描述。
控件1105使得能够直观地选择或输出诸如字母1106的项目,同时使得能够在邻接、靠近、部分地或完全地由基准线1104界定或围绕或定义的区域中示出一部分或全部目标1102。当确定将输出或所选择的项目时,例如当用户选择要求文本数据输入的输入字段时,控件定位在用户界面1101中这样的位置:该位置使得能够显示项目1106和目标1102,并且由此相对于、对于、基于或关于目标1102定义。换种说法,目标1102的位置可以表示这样的锚位置:基准线1104和控件1105的其它元素可以关于该锚位置定向或对准,或其它元素可以相对于该锚位置定位。
为了确定该锚位置,确定将通过其来定义基准线1104的目标和该目标的位置。在一些情况下,可以预先确定或预定义目标,这些情况例如连同化身、用户的图像、旋钮、图标、列表、数据表、数据图形、文本输入字段、另外的控件或微件、或用户界面1101的已知空白区域一起输出控件1105或者控件1105包括上述的情况。在其它情况下,当将输出控件1105时,动态地确定目标,这些情况例如在用户跳格到文本字段并且该文本字段用作目标的情况,在基于用户界面1101的当前状态对用户界面1101的空白区域定位的情况,在动态地确定屏幕上最大的、突出的、最鲜艳或最不鲜艳的目标成为目标的情况,或动态地确定焦点对准的元素、区域或窗口为目标的情况。
在这些或其它情况中,检测目标1102的大小、形状、位置、边界或其它背景,并且关于这些检测到的背景定义基准线1104。例如,可以将基准线1104定义成与目标或一部分目标具有重叠或非重叠的关系、平分的关系、划分的关系、空间约束或限制的关系、或任何其它关系,例如基于目标1102的大小、形状、比例或解剖模型的关系。
总之,除了其它之外,用户界面1101包括可以是用户代表的目标1102以及组成项目集合的项目1106。可以以动态的方式显示项目1106,使得项目1106显示的大小和位置使得用户能够便利地且可靠地选择每个项目。因为可能不能够使得每一个项目1106都适合于用户界面1101或以大尺寸与基准线1104对准,因此可以以较大的尺寸呈现项目1106的子集。
图12和图13示出了示例性的基准线布置以及基准线和目标之间的示例性关系。在图12中,基准线1201是直的,并且定义成与目标1202重叠,或划分目标1202的顶部三分之一,或使目标的头部1204与目标1202的躯干1205分开。在图13中,基准线1301是弯曲的,并且定义成顶部距目标1302上方某个像素的距离,或者不使目标1302变模糊,或者在目标1302的手臂1304(或其它控制部分)的动作范围内。
可以相对于目标定义基准线,使得以基准线对准的项目在目标的到达范围内。如图13所示,弯曲的基准线1301形成弧形,使得化身1302的其中一个伸展的手臂1304能够到达任何单个项目或项目子集。在一些情况下,基于化身1302的手臂1304的长度可以确定弯曲的基准线1301的曲率半径,以使得当其中一个手臂1304处于伸展和头顶上的位置时,
弯曲的基准线1301的位置相应于其中一个手臂1304的自然摆动。在其它情况下,可以基于输入装置的范围(例如,倾斜传感器的倾斜角度的范围,或视频游戏控制器上方向键的运动范围)确定弯曲的基准线1301的曲率半径。在其它情况下,基于用户的动作范围(例如,根据用户手臂的长度)可以确定弯曲的基准线1301的曲率半径。确定用户的动作范围可以包括检测用户的身份(使用面部检测),以及基于特定用户的年龄、性别或关于用户的其它信息来估计该用户的动作范围。
尽管已经将基准线描述为位于项目下方,其中光标在基准线上方移动以选择项目,但是可以是其它布局和配置。例如,基准线可以定位在可选择项目的上方,或可选择项目的侧面,并且可以水平地、垂直地或对角地朝向。
除了图12和图13中示出的直的和弯曲的基准线之外,基准线可以采用锯齿形、圆形、多边形或任何其它形状。基准线的起点和终点可以水平地或垂直地对准,或者这些点可以不处于任何类型的对准中。基准线可以是圆形的和连续的,从而基准线没有受限的起点或终点(或没有出现起点或终点),或起点和终点是一致的。基准线自身可以是运动的或被活动起来的目标,使得沿基准线对准的项目自身恒定地或间歇地运动或活动。
可以基于复杂的解剖模型确定动作范围,例如模仿生物运动限制或人体能力并且将这些能力应用于化身或用户的模型。还可以使用更简单的拇指规则,例如化身手臂可到达的距离等于化身头部的大小乘以乘数的估计方法。在任何情况下,通过目标的一些方面来定义基准线的具体定位、定向、对准、或构造。为此,可以说目标1302由基准线1301包围。
基于目标的位置,可以动态地将基准线定义为围绕一部分已确定的位置。如果目标或目标的一部分位于圆周内,并且基准线定义为该圆周的任何一部分的弧线,那么可以将基准线视为围绕目标。例如如图13所示,如果延伸的话,那么基准线1301将形成围绕大部分目标1302的圆周,除了表示目标1302的手指的、将伸到圆周之外的小区域之外。
由于基准线的定义可以是动态的,因而可以实时地或接近实时地重新定义基准线,使得用户可以察觉或观察基准线的重新定义或重新定位。例如,当检测到没有其它目标邻近目标时,基准线可以初始地定义为在该目标上方,如图13所示。如图14所示,如果第二目标1401进入控制目标1404的左侧的用户界面1402内,那么可以对基准线1405重新定义或重新定位以远离第二目标1401,或者被动态地定义为在与第二目标1401相对的控制目标1404的一侧。第二目标可以相应于相机图像中的第二用户、通过网络控制的第二用户的化身、通过程序控制的非参与人物的化身或其它类型的目标。该特征可以有利地使增强的控件能够更加有效地应用于具有多个运动目标的非静态用户界面。
定义基准线还可以包括确定化身的控制部分的动作范围,以及在控制部分的动作范围内定义基准线,其中可以沿控制部分的动作范围的外边缘来定义基准线。例如,可以基于化身的手臂长度确定垂直朝向的基准线1405的曲率半径,使得当手臂处于到一侧的伸展位置时,垂直定向的基准线1405的位置相应于化身的手臂的自然摆动。
在另一例子中,例如在项目的数量太大而不能与单个基准线相关联的情况下,或者在用户界面挤满其它元素的情况下,每个项目可能实际上表示多个项目或项目簇,或者可以将基准线划分成多个部分并且由此可以定义不连续的部分,或者可以定义多个基准线。在图15中,因为用户界面1500包括几乎占据其整个垂直长度的目标1501,因此基准线1502定义有非连续的部分或区域1504(如虚线所示),从而有效地将基准线1502划分成基准线部分1502a和1502b。
在图16中,因为待选择或输出的项目的数量大,并且可能使得难以在单个基准线上显示或选择项目或不直观,因此在用户界面内定义两个基准线1601和1602。尽管基准线1601和1602示出为具有相同的一般形状且平行,但是不是必须采用这两个特征。例如,基准线1601可以是一般沿目标1604的左侧垂直对准的锯齿形基准线,基准线1602可以是定义成与目标1604自身的躯干重叠的六边形基准线,或在所有侧完全围绕目标1604的圆形基准线。
第一基准线上的项目的选择可以产生与第二基准线对准的项目的显示或定义,例如在第一基准线用于字母字符的选择的情况下,在这种情况下,一旦选定了字母字符,以第一基准线上显示的字母字符开始的名称(或其它项目类型)就在第二基准线上显示或输出。
代替相对于目标来定义基准线,还可以基于用户界面的边界来定义或定位基准线。例如,基准线可以定义成从用户界面的一个边缘(或靠近一个边缘的点)延伸到相对的边缘(或靠近相对边缘的点)。可以基于用户界面的位置或其它部件,例如,相对于桌面图标、用户界面按钮、或虚拟世界内的目标,来定义或定位基准线。基准线可以是关于用户界面的边界对称的或不对称的。
可以在模糊目标或不模糊目标的条件下显示与基准线对准的项目。如果每个项目的底部、中间、右侧、左侧、中心或其它部分在基准线上,或设置成平行于基准线上与项目相应的点,那么项目可以与基准线对准。例如在图11中,因为各个项目的一部分平行于基准线1104,所以即使项目1106a和1106z没有彼此严格地对准,项目1106a和1106z也都各自与基准线1104对准。当显示时,对准的项目1106整体上呈现基准线1104自身的通常形状或外表。图12还示出了与基准线1201对准的项目,因为基准线1201是直的,因此第一项目1206a和最后的项目1206z一般也彼此对准。
如图17的用户界面1700所示,在每个项目的中心或其它内部点与基准线1701对准的情况下,每个项目可以绕其中心旋转,以给予所显示的项目不那么完全一样或者看起来比较随机化。还可以通过将项目偏移到基准线上方和下方(或平行于基准线的一些其它线)来进一步强调该随机化,使得一些项目出现在基准线上方而一些项目出现在基准线的下方,虽然成批的项目一般仍与基准线对准,或呈现由基准线定义的一般外表、感觉、方向、配置或布置。
项目可以沿基准线均匀地分布或者也可以不均匀分布。例如,项目可以初始地均匀分布,然后当光标悬停在具体项目上且该项目调整大小时不均匀地重新分布。可替换地,默认或优选的项目可以沿基准线分布,以看起来与较不优选的项目相比较为突出。另外,通过模板或算术函数可以确定项目之间的间隔,或者该间隔可以是完全地随机化的。
因为当显示目标时,目标或至少一部分目标是可见的,因此认为目标是不模糊的。换种说法,通过在不模糊目标的条件下显示项目,项目不会完全重叠或者妨碍目标的可见性。项目的一些特征,例如项目的透明性、颜色或线宽可以改变(或选择性地改变,例如在项目将重叠目标的地方),以使得目标差不多是可见的。
在第一时间点可以在不模糊目标的条件下显示项目,例如初始地显示项目的时间,并且在早于或晚于第一时间点的第二时间点,项目可以模糊、遮蔽、使暗淡、妨碍或重叠
目标或一部分目标。举例来说,图12和图13中分别示出了在不模糊各个目标的条件下显示的项目,因为各个目标的至少一部分在用户界面内是可见的。在另一例子中,图16示出了在不模糊相关联的目标的条件下显示的项目,因为任一项目都没有哪一部分重叠、妨碍或干预用户界面内相关联的目标的任何部分的可见性。
例如使用鼠标或相机输入,可以接收对所显示的项目其中之一的选择。在一个实施方式中,用户界面可以定义围绕每个项目的这样的区域:其中如果在一个项目的相关联区域内检测到光标或目标的控制部分,那么就选择该项目。可以基于用户的交互动态地重新定义该区域,例如,基于鼠标悬停情形或者当检测到光标已经越过基准线时就增大尺寸,或者当光标远离、突出不同的项目或再次越过了基准线时就减小区域的尺寸。
如下文更详细的描述,根据用户使用的实现选择的输入单元类型,可以经由多种方法出现项目的选择。例如,该选择可以是使用鼠标的、基于光标的用户选择,其中用户将鼠标的光标定位或悬停在将选择的项目上方(导致鼠标悬停事件),压下鼠标按键(导致鼠标按下事件),以及释放鼠标按键(导致鼠标释放(mouseup)事件)。也可以使用其它鼠标事件,以便使用鼠标选择项目,例如点击事件,连按(双击)事件,或仅鼠标悬停事件。
使用键盘,用户可以从一个项目跳格到另一个项目,并且选择另外的键盘按键(例如,空格键或返回键)以选择突出的项目,或者用户可以开始键入字符以缩减期望的项目或识别期望的项目以进行选择。使用视频游戏控制器或手持式遥控器,用户可以压下方向键来改变突出的项目,或压下按钮来选择突出的项目。使用具有倾斜传感器的移动装置,用户可以使装置向左、向右、向上或向下倾斜,以向左、向右、向上或向下移动光标或其它指示器,直至突出期望的项目,然后压下按键或摇动移动装置以记录该选择。使用触摸屏装置,用户可以直接地触摸输出期望项目的用户界面X和Y坐标。使用语音界面,用户可以说出命令,例如“tab(跳格)”、“left(左)”、“right(右)”、“select(选择)”或者使光标在项目之间移动的其它相似语音命令,并且选择期望的项目。
用户可以使用鼠标或视频游戏控制器来直接地控制化身。例如,使用视频游戏控制器,用户可以移动模拟控制棒来移动化身的手臂,从而将模拟控制棒的角度映射到化身的手臂的角度。用户可以使用动作拍摄装置来直接地控制化身,从而化身的手臂模仿用户真实的手臂动作。
在此描述的增强的控件与基于控制系统的视频相兼容。具体地,相机可以检测图像,例如用户的图像,并且图像的部分、图像内的动作或从图像识别的示意动作可以实时地或接近实时地动态映射到光标。例如,围绕用户的检测区域可以定义为在场景内用户的图像中,并且可以检测目标(例如手)在检测区域内的位置。基于检测到的目标的位置与增强的控件交互。
尽管为了简要省略了其它输入机制、方法或技术的进一步描述,但是可以说,可以使用任何想到的方法、技术或机制来自动地或手动地选择项目。
目标可以是用户的代表,例如化身。通过在用户界面内显示用户的代表,减少了训练需求,这是因为,用户可以容易地识别目标相对于项目位置的位置,并且可以快速地移动光标或化身的控制部分(例如手)的位置,以与期望的项目位置相一致。在此方面,光标或化身的控制部分的位置用于检测对用户界面中显示的项目的选择或“触摸”。
在目标是化身的情况下,可以将化身的潜在控制部分指定为将被活动起来的控制
部分。例如,控制部分可以是化身的一个或多个手臂、腿、肘、膝盖、手或手指;或化身的头部或躯干;或化身的身体特征,例如鼻子、眼睛、耳朵、肚脐、颈部或头发;或化身的衣服、佩戴物或其它穿着,例如衣服、珠宝或其它个人物品。随着接收到用户输入,指定的控制部分被活动起来以与项目交互或给出与项目交互的景象。
在目标具有旋钮或开关外观的情况下,控制部分可以是从目标主体延伸的箭头,并且目标可以旋转到朝向项目的点。在目标包括粒子系统效应的情况下,例如火焰、等离子体、闪电的模拟或液体,粒子可以形成指向项目的延伸,例如闪电或水滴的变形,从而给出与项目交互的景象。
例如在图13中,目标1302是化身,并且化身的手臂1304a指定为控制部分。随着用户移动或使他们的手臂在他们身体周围的空间中向左或向右运动,手臂1304a被活动起来以分别地向左或向右移动,并且基于项目接近手臂,或更具体地来说接近手臂上的手或手指,来选择项目。类似地,手1307也可以指定为控制部分。在相似的配置中,用户的单只手或双手在他们身体周围的空间中向上或向下的动作可以致使手臂1304a或手1305向上或向下运动,例如以与人的动作相合的方式。
因为在手臂1304a或手1305没有接近项目或基准线(或没有与之交互)的一些情况下,这些向上或向下的动作可以使手臂1304a或手1305远离项目,因此项目表面上的“选择”将不会导致输出项目。通过定义基准线使得化身大部分在基准线下方,通过将化身的手定位在化身的头部上方并且在基准线上方,可以出现由目标进行的字符或项目的选择。
指定化身的潜在控制部分作为控制部分可以动态地交换到另外的控制部分。例如并且再次参考图13,如果用户交换他们用作控制目标的手臂,或向右移动单个手臂经过与项目1306n相关联的位置,那么控制部分就可以从左臂1304a转换到右臂1304b,使得左臂1304a能够沿基准线1301与项目1306n左侧的所有项目交互并进行选择,以及使得右臂1304b能够沿基准线1301与项目1306o右侧的所有项目交互并进行选择。这样的特征可以增加用户体验的视觉愉悦性,因为代替仅仅使用简单的鼠标光标沿着项目选择项目,用户看起来像是控制以现实和直观方式反应的化身。
如果出现交换,并且不再将左臂1304a指定为控制目标,那么使左臂1304a活动起来以返回到松弛的、休息的或放松的位置,例如沿目标1302的体侧的位置。相反地,这样的交换将导致右臂1304b被无痕迹地活动起来,以沿着目标1302的体侧从放松位置移动到之前由手臂1304a占据的位置,或邻近该位置的位置。继续该例子,如果用户沿基准线在由项目1306n和1306o限制的空间之间来回地快速移动他们的手臂或双臂,那么化身将以愉悦的、幽默的或视觉上刺激的方式交替地使他们的手臂从目标1302的侧部摆动到目标1302的头上。
在另一例子中,可以将化身的眼睛指定为控制目标,并且他们可以看起来可以沿基准线凝视或跟随项目,该基准线可以围绕目标。没有指定为控制目标的其它部分化身也可以被活动起来,例如看起来对突出的项目反应,或基于突出的项目将化身定位在期望的姿势或更加现实的姿势中。在一个实施方式中,可以使化身的嘴活动起来,以看起来似乎在说话或用语言表达所选择的或突出的项目,或者可以使化身的颈部或头部活动起来以伸长脖子,从而增加强调化身正在尽力看或考虑突出的目标的景象。
以类似的方式,如果在用户界面中显示多个目标(例如,多个化身),那么当接近
于突出的字母或增强的控制时,可以基于用户选择或基于任何其它因素换入第二目标作为控制目标。因此,控制部分或控制目标的指定可以从第一潜在控制部分或目标交换到第二潜在控制部分或目标,或从第二潜在控制部分或目标交换到第一潜在控制部分或目标。
可以输出所选择的项目。输出所选择的项目还可以包括显示所选择的项目,输出所选择的项目的电子标记,或通过在用户界面内改变所选择的项目的颜色、不透明度或大小来突出所选择的项目。所选择的项目或所选择的项目的标记可以输出到另外的装置或存储介质以供后续使用。
在图11中,所选择的项目1106r的颜色、不透明度或大小已经改变到第一级别或程度,从而使得所选择的项目1106r在沿基准线1104显示的所有项目中看起来最大,并且与所选择的项目1106r等距且邻接的项目1106p和1106t的颜色、不透明性或大小已经改变到第二较低级别或程度。仍然通过改变邻接项目的颜色、不透明度、大小或其它特征,用户能够较容易地识别光标的位置或所选择的项目的位置,增加直观特性和控制器的易于使用性。即使在没有明确地呈现光标图像的情况下,项目的颜色、不透明度、大小或其它特征也可以指示光标位置。
因为增强的控件使得在给定时间点能够选择少量的项目,从而大部分项目保持未选择,所以可以减小未选择项目的大小以使得能够在用户界面内显示大量的项目。然而,增大考虑选择的某些项目的大小可能会增大考虑选择的项目的整体识别或可读性,从而提高控件的可靠性。换种说法,通过减小未选择项目的大小,能够比分开地选择或触摸给用户呈现数量更多的可选择项目。
如下面更加详细地描述,在用户界面1101的输出区域1107中可以连同之前选择的项目1106f以及预测项目1109一起输出所选择的项目1106r,预测项目1109是基于当前选择的项目和之前选择的项目,使用预测或预言试探法动态地确定的。
增强的控件提供了从项目集合中屏幕(on-screen)选择项目,例如从字母表中选择字母。显示用户代表,以使得代表可以便利地且可靠地触摸沿基准线或相对于代表动态定位的弧线对准的可选择项目。可以在代表的一部分与沿基准线的项目区域交互的情况下确定触摸。当代表的一部分进入触摸区域时,可以放大或突出接近该触摸区域的项目。
尽管在上文中将基准线描述为相对于用户界面的边界或目标在二维中定义,但是也可以在三维中定义基准线。例如,并且如图18所示,基准线1801可以具有一般在与用户界面相同的X-Y平面内定义的第一基准线部分1802,以及一般在Z平面内定义的第二基准线部分1804,Z平面看起来相对于用户界面的X-Y平面正交地延伸。可以使用其它平面或轴。
使用三维的基准线,能够用控件显示的项目数量会呈指数增长。例如,除了通过左右移动化身1806的手臂来选择基准线1801上的项目“O”之外,用户可以在空间中向前或向后移动他们的手臂来选择其它项目,当该其它项目被选择时在输出区域1809中显示,例如字符“”1807。基准线部分1802和1804这两者都定义在化身1806的手臂的三维方向上可以到达范围内。
另外,尽管上文已经将基准线描述为包括离散的起点和终点,但是在其它实施方式中,基准线可以不具有起点和终点,或可以具有没有起点和终点的外观,或起点和终点可以一致。例如,图19中的用户界面1900包括用于选择项目1902a至1902g的圆形基准线
1901。圆形基准线包括起点1905和终点1906,然而这些点相一致,且与任何其它点相比在基准线1901上没有突出或可见。
另外,并且与一些其它示例性控件不同,项目1902a至1902g各自相应于将由应用调用的功能,如图标所示。例如,当化身1904选择地球图标1902a时,可以调用映射应用。同样地,可以以直观地且视觉上愉悦的方式使用在此描述的增强的控件,用于字符的选择以及用于调用更复杂的功能性。其它图标可以表示其它功能,包括诸如音量调大和调小功能的媒体功能、发送邮件功能、禁止控制功能或图像浏览功能。
图20至图24示出了在沿基准线2002对准的项目集合2001中具体项目的示例性选择。在图20中,映射到且描述为化身的手的光标2004朝向感兴趣的项目2001r移动。在图21中,光标2004的位置越过基准线2002。越过基准线2002可以起动进一步的检测处理,该检测处理基于每个项目和光标2004之间的距离,选择或识别项目2001的子集2101。基于用户的手在围绕他们身体的空间中的位置来确定光标2004的位置,如在相机图像中检测一样。
以更大的尺寸或字体比例显示项目2001的子集2101,便于用户更容易选择。可以响应于检测到光标2004已经越过基准线2002,出现项目2001的子集2101的选择以及项目2001的子集2101的放大显示,或者不管光标2004相对于基准线2002的位置为何都可以出现。当在基本位置2102检测到光标2004越过基准线2001或者检测到已经选择项目时,就可以生成用户反馈,包括例如声音、肖像和/或诸如振动的触觉输出。
在图22中,用户选择感兴趣的项目2001r。突出子集2101使得用户能够选择包括感兴趣项目2001r的一般区域,“放大”该区域内的项目,以及可靠地且便利地选择感兴趣的项目2001r,该项目2001r表示字母“R”。可以使用鼠标事件、键盘或键区敲击、示意动作识别、基于相机的输入或通过许多其它方法来出现选择。
可以用许多方式检测基本位置2102的位置,该基本位置表示光标2004已经越过基准线2001的位置。例如,并且如图23所示,基本位置2102的位置可以确定为基准线2001上这样的位置:该位置是在检测出光标2004在基准线2001上方之后的时刻观察到的最靠近光标2004的位置,或最靠近诸如项目2001r的突出项目的位置。
也可以使用其它方法检测基本位置。例如,可以在光标2004越过基准线2001时,或者在越过基准线2001之前和之后的时间使用光标2004的位置,检测基本位置2102的位置。例如,图24示出了端点2401以及端点2402,端点2401表示在越过基准线2002之前的时间观察的光标2004的位置,端点2402表示在越过基准线2002之后的时间观察的光标2004的位置。基本位置可以确定为由端点2401和2402定义的线段2404与基准线2001的交叉点。
突出项目2001的子集2101可以包括确定沿组成子集2101的项目的基准线2001的位置。在一些实施方式中,选择位于接近基本位置2102的项目为项目2001的子集2101的将突出(例如,以大尺寸显示)的部分,使得接近基本位置2102的项目保持在或接近它们初始的非突出的位置,并且更加远离基本位置2102的项目向外移动,以适合项目2001的子集2101的尺寸增大。
下面的方程(1)可以用于在已经突出子集2101之后确定不在子集2101内的项目的位置。
Xi′=Xb+(Xi-Xb)·(Si′
Si
)---(1)
在方程(1)中,Xi表示在初始状态下项目i沿基准线的位置;X′i表示在放大状态下项目i沿基准线的位置;Xb表示沿基准线的基本位置;Si表示在初始状态下项目i的基本尺寸;并且S′i表示在放大状态下项目i的尺寸。
图25示出了在突出项目的子集之前的第一状态2501中以及在突出项目的子集之后的第二状态2502中项目的子集。例如,如果光标2505最初越过项目“S”下方的基准线2505(使得基本位置2506与项目“S”相一致),那么项目“S”就保持在其初始位置,而项目“R”相对于其初始位置左移距离2507。因此,第二状态2502表明在突出显示后项目的缩放大小和位置。
图26示出了在突出项目的子集之前的第一状态2601中以及在突出项目的子集之后的第二状态2602中项目的子集。例如,如果光标2604越过项目“Q”下方的基准线2605(使得基本位置2606与项目“Q”相一致),那么项目“Q”将保持在其初始位置,并且项目“R”相对于其初始位置右移距离2607。因此,第二状态2602表明在突出显示后经缩放的项目。因而,用于选择具体项目的光标2604的位置可以取决于光标2604最初地越过基准线2605的位置。
图27示出了在与突出项目子集相关联的状态2701至2704下项目的子集。具体地,图27示出了项目2710的第一子集2706至第三子集2708的选择和突出的概况。可以根据相对于第一子集2706和第二子集2707的光标2711的位置,分别对第二子集2707和第三子集2708定位。
在第一状态2701中,项目2710反映它们初始的没有突出的大小和位置。在状态2702中,已经选择和突出项目2710的第一子集2706。在状态2703中,已经选择和突出项目2710的第二子集2707。在状态2704中,已经选择和突出项目2710的第三子集2708。
在状态2702中,光标2711最初地越过项目“S”下方的基准线2712(使得基本位置与项目“S”相一致),项目“S”保持在其初始位置,并且周围的字母从它们的初始位置向外移。从状态2702过渡到状态2703,如果光标2711向右移动,那么选择光标2711的距离内项目2710的第二子集2707。在状态2703中,如果光标2711沿基准线2712移动以与放大的项目“T”相一致,那么项目“T”保持在其放大的位置,并且沿基准线2712进一步朝向右侧移动距离2715来突出项目“V”。
如果在基准线2712上没有足够的空间用于某些项目,例如项目“W”至“Z”,那么这些项目就被“推出”基准线的末端,并且不显示。从状态2703过渡到状态2704,如果光标2711朝向基准线2712的右端继续移动,那么也可能没有足够的空间显示作为第二子集2707的一部分的另外的项目,并且可以组成第三子集2708(作为第二子集2707的子集)。
为了选择第二子集2707的右侧部分上的项目,例如项目“U”,或已经被“推出”基准线的末端的项目,例如项目“W”至“Z”,用户可以用光标2711再次越过基准线2712,并且第三次越过基准线2712以建立更靠近期望项目的新基本位置。另外,代替将项目“推出”基准线2712的右端,而可以将基准线左端上的项目“推出”,以容纳否则将被“推出”右端的项目的显示。在一些实施方式中,代替“推出”项目,可以根据基准线上可用的空间来减小项目大小,使得所有的项目显示在基准线上。
在其它实施方式中,被“推出”基准线右端的项目可以再次出现在基准线左端。在采用连续的(例如圆形的)基准线的实施方式中,项目可以绕基准线推进。因此,在用户可以绕连续的基准线顺时针移动光标的圆形基准线的例子中,排除在项目的当前子集中以外的项目可以以比光标更小的角速度顺时针流动(它们为项目腾出空间以便当增加到子集时提高速度的)。在该例子中,对于项目绕基准线的一次回转,光标可以绕基准线移动多次回转。
可以使用滚动(scrolling)以便于选择否则将被推出基准线末端的项目。滚动可以包括检测光标2711是否在基准线2712末端的预定距离内,并且将某一速度应用于项目位置。在相对于基本位置来计算项目位置的情况下(参见上文中的方程(1)),可以将速度应用于基本位置,并且因此可以移动项目。
图28示出了示例性的速度函数,其中横轴2801表示沿基准线的位置,并且纵轴2802表示速度。使用该速度函数,当光标位置接近基准线末端时,通过施加速度来移动或转移项目,当光标位置在基准线的中间时,不移动或转移项目(因为速度是零)。
图29示出了这样的示例性缩放函数,其用于基于光标位置相对于基准线的距离(由横轴2902反映),缩放项目子集中的项目的大小(由纵轴2901反映)。如曲线2904所示,项目(S′i)的大小因此可以是光标的当前位置的函数。通过参考点2905确定与非突出项目或所有项目(如果光标没有越过基准线的话)相关联的基本尺寸(Si),而线2906定义与突出项目相关联的最大尺寸。
在一个示例性的实施方式中,曲线2904靠近点2905的斜率大约是1∶1,因此随着与光标接近距离的减小,项目大小看起来线性地且按比例地增大。项目将开始增大接近最大尺寸,以随着光标变得逐渐接近于突出的项目而产生审美愉悦的过渡。
图30和图31示出了增强的控件的缩放特征的使用,特别是出现在光标3001越过基准线3002时。高度3004表示光标3001的位置和基准线3002之间的距离,并且高度2005表示子集3007中的项目的大小,例如项目3006r。子集3007中项目的高度3005基于高度3004而缩放,使得项目在图30中看起来比在图31中更大,在图30中,光标3001已经越过基准线3002较小量,而在图31中,光标3001已经越过基准线3002更小的量。如上,可以使用基于相机的输入来确定光标3001的位置。
图32和图33示出了示例性的基准线,其中突出了项目的子集。具体地,图32示出了示例性的基准线3201,其中以放大的方式显示项目3204的子集3202。选择项目3204的子集3202可以包括选择预定数量的项目,或基于项目的大小动态地一定数量的项目以包括在子集3202内。
可以动态地选择包括在子集3202内的一定数量的项目,使得子集3202的项目跨越基准线3201的整个长度3207,或者它们可以跨越一部分基准线3201。如图32所示,也可以沿基准线3201显示不包括在子集3202中的项目3205a和3205b。可以基于子集内项目的大小改变子集3202中项目的数量,例如子集3007(图30中)显示五个项目,而子集3007(图31中)显示三个项目,即使子集3007的宽度保持一样。
通过以大尺寸显示子集的项目来突出项目可以包括以相同的大尺寸显示所有突出项目,如图32所示,或通过在子集内以这样的大小显示各个项目:该尺寸取决于各个项目相对于光标位置沿基准线的位置,如图25所示。
图33示出了这样的示例性基准线3301:其中以变化的项目大小显示项目3304的子集3302。例如,在子集3302端处的项目3305p和3305t(分别表示字母“P”和“T”)的大小可以比子集3302中心处的一个项目或多个项目要小,例如比项目3305r(表示字母“R”)小。用变化的尺寸显示子集3302中的项目可以产生愉悦的审美外观,并且可以更加直观地使用增强的控件。如图33所示,也可以沿基准线3301显示不包括在子集3302中的项目3305a和3305b。
以大尺寸显示子集3202和3302的项目可以包括使项目活动起来。使项目活动起来可以包括放大子集的项目以及经过短的时间段沿基准线平移项目的位置(例如,保持项目垂直于基准线)。可以使不包括在子集3202和3302中的项目活动起来以收缩尺寸并沿基准线朝外移动,从而为子集3202和3302“腾出空间”。
“推出”基准线末端的项目可以简单地消失,或者可以被活动为以跌出基准线的边缘,或以视觉上刺激或幽默的方式消灭,例如通过燃烧、内爆、蒸发、爆炸、液化、压碎或其它技术。类似地,由于在基准线上产生空间而再次出现的先前被“推出”项目可以简单地重新出现,或者可以被活动为从用户界面的顶部落下返回到基准线,或以视觉上刺激或幽默的方式自发生成。
在基准线不连续的情况下,可以使项目活动起来以移动越过不连续处。可以使项目活动为以高速移动越过间歇,或可以使用任何上述视觉效应而被活动为被“推出”和“重新出现”。同样地,可以被“推出”基准线的一端以重新出现在相对端上的项目活动为在基准线端点之间高速移动,或可以使用任何上述视觉效应而被活动为被“推出”和“重新出现”。
图34描述了项目沿基准线的激活,其中“激活”或“突出”一般地涉及确定项目以进行选择。确定项目以进行选择的系统可以使用滞后现象。选择可以包括确定当光标初始地越过基准线时初始选择的项目,其中初始选择的项目可以是其位置在距离上最靠近基本位置的项目。此后,为了减小当光标放置在两个相邻项目之间时项目之间非有意的闪烁,选择可以包括每当光标移动超出相邻项目之间的中点预定距离就确定新选择的项目。
例如,由线3404r和3404s示出两个项目3402r和3402s沿基准线3401的位置,由线3405示出项目3402r和3402s之间的中点位置,并且距离3406表示预定义距离。例如,如果项目3402s(也就是字母“S”)是初始选择的项目,那么用户将光标移动到线3407左侧沿朝向项目3402r(也就是字母“R”)的方向超过中点3405的预定义距离3406,以选择项目3402r。如果随后选择了项目3402r,那么为了重新选择项目3402s,用户就将光标移动到线3409的右侧沿朝向项目3402s的方向超过中点3405的预定义距离3406。
考虑由无意的身体颤动或输入单元的限制而导致的用户运动的影响,可以基于预期最大距离定义所述预定义距离,所述预期最大距离是在用户尝试保持静止的同时,可能预期光标摇摆或摇动的距离。当光标的位置在基准线下方时,或当没有找到光标或光标不在特定用户界面内或者不在由增强的控件占据的用户界面区域内时,可以取消选择项目。项目的选择还可以生成用户反馈,包括例如声音、肖像和/或诸如振动的触觉输出。
显示子集的项目可以包括显示项目以使得它们的外观给用户提供关于它们的选择状态的反馈。例如,可以以唯一的颜色显示所选择的项目,或用诸如增大外观的视觉效果来显示所选择的项目。当项目处于选择状态持续的时间长于第一预定持续阈值时,可以激活或突出当前所选择的项目。在这点上,当光标保持在项目上方持续一时间段时激活该项
目。如果所选择的项目保持被选择持续的时间长于第二预定持续阈值,就可以重复激活或取消激活。
另外,当光标的位置是固定的且持续一时间段时,可以激活或突出项目。当平行于基准线的分量的位置改变小于预定距离阈值且持续时间长于预定时间阈值时,光标可以分类为固定的。例如,识别和激活最靠近光标位置的项目。如果光标保持分类为固定的且持续时间长于第二预定持续阈值,那么可以重复激活或取消激活。另外地,可以基于光标的位置之间且相对于基准线的距离来激活项目。例如,可以在该距离超过预定距离阈值时激活项目。
在其它例子中,可以在选择项目之后通过另外类型的用户输入导致激活项目。例如,用户可以提供另外类型的用户输入以激活所选择的项目。在这些例子中,为了激活所选择的项目,用户可以触摸用户输入按钮(例如,在控制器上),提供听觉的输入(例如,说“激活”),执行另外类型的示意动作(例如,朝向显示器移动用于选择项目的手,或移动用户的另一只手到显示图像的另外部分以激活所选择的项目),或提供任何其它类型的用户输入。
图35至图38示出了示例性的项目集合。在图35中,具有来自英文字母表的字符的项目3501包括项目3502,当激活或选择该项目3502时,该项目3502打开第二项目集合。当选择时,可以沿基准线3504出现具有项目3501或项目3501一部分的第二项目集合,或第二项目集合可以替换基准线3504上的项目3501。从用于表示项目3502的符号中,用户可以直观地确定第二项目集合包括数字。
图36示出了与基准线3602对准的项目3601。当选择图35中的项目3502时显示项目3601。一旦选择第二项目集合,移除基准线3602下方的光标或从显示项目3601的用户界面中移除光标就可以导致重新选择或重新激活项目3501。项目3601包括项目3604,当项目3604被激活时重新打开、重新激活或重新选择项目3501。从用于表示项目3604的符号中,用户可以直观地确定项目3501包括来自英文字母表的字符。
图37示出了与基准线3701对准的项目3701,其中这些项目各自表示已知与标准电话键区上的按键相关联的数字和字母的结合。图38示出了项目3801,当选择项目3701的项目3702(参见图37)时显示该项目3801,并且该项目3801包括与标准电话键区上的数字键“7”相关联的字符和数字“7”的结合。
使用图35至图38中示出的项目,可以提供基于相机的文本输入机制,例如通过顺序地将组成词的字母填入到文本字段中。一旦激活数字、字母、文本符号或预定文本,数字、字母、文本符号或预定文本就可以附到已经输入的字符串中。可替换地,项目(例如图35中来自项目3501的项目)的激活可以显示更多的项目,更多项目的项目激活可以将激活的字符附到字符串。其中一个项目可以是退格项目,以便于从项目串中去除最近的项目。
基于相机的文本输入机制可以包括组合字符以组成复合字符。用于日文文本输入的文本输入机制可以包括结合假名字符以组成日文汉字字符(以对于日本个人计算机键盘的用户来说熟悉的方法)。第一项目集合可以包括表示假名的项目。当激活假名项目时,将相应的假名字符附到字符串上。项目集合可以包括表示操作的项目,该项目在被激活时激活将串的最近假名字符转换成日文汉字的处理。将串的最近假名字符转换成日文汉字的处理可以包括显示候选的日文汉字项目的第二集合。激活日文汉字项目激活这样的处理:其中用激活的日文汉字替换串的最近假名字符。该基于相机的文本输入方法可以延伸到其
它语言。
用于日文文本输入的替换方法可以包括显示表示假名的第一项目集合。当激活假名项目时,显示第二项目集合。第二项目集合可以包括日文汉字,激活的假名组成该日文汉字的一部分。该集合可以大于上述的第二集合。该文本输入方法可以延伸到其它语言。
文本输入机制可以包括确认项目集合中的项目。经确认的项目在被激活时激活处理,由此将字符串提供给应用。另外,文本输入机构可以包括预测(predictive)文本完成处理。预测文本完成处理可以检索字典以发现包括字符串的字符的最可能文本。可以在输出字段中显示该最可能文本。可以基于其中使用了文本输入机制的上下文来选择用于预测文本完成处理的字典。例如,当文本输入机构用于输入名称时,字典可以包括名称。
根据应用的状态,应用处理可以确定用于用户界面的项目。激活项目可以将消息提供给应用处理。基于该消息可以控制该应用处理。
图39示出了包括基于相机输入和示例性增强的控件的示例性用户界面3900。由于用户可以访问用户界面3900上各种文本输入字段,因此文本输入字段用作定义基准线的目标,并且适合于文本输入字段的项目显示为与基准线对准而不使文本输入字段本身模糊。用户可以选择与基准线对准的项目,以填充相关联的文本输入字段。尽管用户界面3900看起来同时示出多个可见的增强的控件,但是这样的模拟显示仅仅是示例性的,并且用于示出可能的控制位置、构造、对准和项目类型。例如在其它的用户界面中,每次将显示一个增强的控件。
例如,如果用户访问文本输入字段3901,例如通过跳格到该字段,通过用鼠标光标选择该字段,或通过做出合适的示意动作,则相对于文本输入字段3901定义基准线3902,并且项目3904显示成与基准线3902对准,以使得不模糊文本输入字段3901。因为文本输入字段3901接受文本或字符数据,因此增强的控件自动确定字母字符项目3904适合于目标类型。当用户从项目3904中选择项目时,文本输入字段3901填充有所选择的项目。代替从基准线3902选择项目,用户还可以使用围绕化身3906定义的增强的控件3905,用于用项目填充各种字段。
根据用户打手势以跳格或者访问用户界面3900中的其它字段,可以动态地定义其它增强的控件,输出项目用于选择。例如,访问社会保障号码字段3907可以致使在字段3907上方显示数字项目3909;访问性别字段3910可以致使在字段3910上方动态地输出性别项目3911;访问国籍字段3912可以致使在两个基准线3914和3915上显示国家项目3913,这两个基准线3914和3915分别在字段3912的上方和下方;访问婚姻状态字段3917可以致使在字段3917的右侧的基准线3910上显示婚姻状态指示器项目3919,其中由于空间限制、用户偏好或其它原因,基准线3910可以动态地定义在右侧;访问街道地址字段3920可以致使在字段3920上方的基准线3924上显示项目3921,项目3921包括数字以及沿基准线3924用字母字符替换数字的字母符号3922;以及访问状态字段3925可以致使在定义于字段3925上方的两个基准线3927和3929上显示包括状态名称的项目3926。
虽然在上文中已经将增强的基于相机的输入描述为使用具体类型的控件,但是也可以使用其它类型的控件。例如,如图40所示,基于相机的输入可以用于与控件4001交互,该控件4001包括基准线部分4002(如上所述)以及虚拟的按钮部分4004。控件4005包括在化身4007的任一侧对准的多个按钮4006a至4006h。控件4008是这样的示意动作
轮控件(gesture wheelcontrol):其中通过用户代表(在此情况下是手4010)选择交互元素(例如交互元素4009)致使交互元素进一步显示字符或由交互元素表示的其它项目。
另外,控件4012是一个虚拟键盘,该虚拟键盘包括以QWERTY键盘构造布置在用户界面上的虚拟按键4014。控件4012可以不需要用户代表出现在用户界面上。例如,代替示出作为用户代表的手或化身,当空间中的用户控制目标占据与虚拟按键相应的检测区域内的位置时,虚拟按键4014中的每一个都可以点亮。控件4015是一个标准窗口应用桌面,包括可以使用代表4019与之交互的图标4016a至4016c以及功能元素4017。
控件4020包括用户4021的一个代表,该代表可以是被交互元素4022a至4022c围绕的、用户的相机图像,这些交互元素分别表示向左滚动、向右滚动以及调用功能。使用基于相机的输入,用户4021的代表致使调用与交互元素4022a至4022c相关联的功能性。在该例子中,滚动功能使得用户能够从在用户界面底部显示的应用条中选择应用4024,并且调用所选择的应用。在显示的例子中,已经选择代表4021以调用照片浏览应用4024d。
图41示出了计算装置4101的外在外观的例子,该计算装置4101还包括处理器和用户界面。处理器被配置、适配或可以操作为在场景内的用户图像中定义围绕用户的检测区域,并且检测目标在检测区域内的位置。处理器还被配置成基于检测到的目标的位置与用户界面内的控件交互。
更详细地,计算装置4101的硬件环境包括:用于显示文本和图像以与用户交互的监视器4108,用于将文本数据和用户命令输入到计算装置4101的键盘4109,用于指向、选择和操作在监视器4108上显示的目标的鼠标4110,固定磁盘驱动器4111,可移动磁盘驱动器4112,磁带机4114,硬拷贝输出装置,计算机网络连接和数字输入装置4117。
监视器4108显示这样的图形、图像和文本:其包括用于由计算装置4101使用的软件应用的用户界面,以及需要操作计算装置4101的操作系统程序。用户使用键盘4109输入命令和数据,以操作和控制计算机操作系统程序以及应用程序。鼠标4110可以是任何类型的指向装置,并且可以是操作杆、轨迹球、触摸板或其它指向装置。在诸如固定磁盘驱动器4111的计算机可读存储介质中,本地地存储有用于显示用户界面以及使得用户能够输入或选择文本、数字或从选项菜单中选择的软件。
在另外的实施方式中,固定磁盘驱动器4111自身可以包括大量的物理驱动单元,例如独立磁盘的冗余阵列(“RAID”),或可以是物理上位于分立的计算单元中的磁盘阵列或磁盘驱动器场所。这样的计算机可读存储介质允许计算装置4101访问存储在可移动的和不可移动的存储介质中的计算机可执行处理步骤、应用程序等。
计算机网络连接可以是调制解调器连接,包括以太网的局域网(“LAN”)连接,或诸如数字用户线(“DSL”)、电缆高速因特网连接、拨号连接、T-1线、T-3线、光纤连接或卫星连接的宽带广域网(“WAN”)连接。网络4106可以是LAN网络、公司或政府WAN网络、因特网或其它网络。
计算机网络连接可以是有线或无线连接器。无线连接器的例子例如包括:INFRARED DATA无线连接器、光学无线连接器、INSTITUTE OF ELECTRICAL ANDELECTRONICS标准802.11无线连接器、无线连接器、正交频分复用(“OFDM”)超宽带(“UWB”)无线连接器、时间调制超宽带(“TM-UWB”)无线连接器、或其它无线连接器。有线连接器的例子例如包括:
-1394连接器、通用串行总线(“USB”)连接器、串行端口连接器、并行端口连接器或其它有线连接器。
可移动磁盘驱动器4112是用于从计算装置4101下载数据或将数据上载到计算装置4101的可移动存储装置。可移动磁盘驱动器4112可以是软盘驱动器、驱动器、只读光盘存储器(“CD-ROM”)驱动器、可记录光盘驱动器(“CD-R”)、可重写光盘驱动器(“CD-RW”)、闪存、USB闪存存储器、闪盘(thumb drive)、pen drive、key drive、高密度数字多功能光盘(“HD-DVD”)光盘驱动器、蓝光光盘驱动器、全息数字数据存储(“HDDS”)光盘驱动器或各种可记录的或可重写的数字多功能光盘(“DVD”)驱动器中的任何一种,例如可记录的DVD(“DVD-R”或“DVD+R”)、可重写的DVD(“DVD-RW”或“DVD+RW”)或DVD-RAM。操作系统程序、应用和各种数据文件存储在磁盘中,这些磁盘存储在固定磁盘驱动器4111上或存储在用于可移动磁盘驱动器4112的可移动介质上。
磁带机4114是用于从计算装置4101下载数据或将数据上载到计算装置4101的磁带存储装置。该磁带机4114可以是四分之一英寸盘式磁带(“QIC”)、4mm数字音频磁带(“DAT”)、8mm数字线性磁带(“DLT”)驱动器或其它类型的磁带。
另外,尽管在上文中将计算装置4101描述为桌面PC,但是在另外的实施方式中,计算装置4101可以是膝上型计算机、工作站、中型计算机、大型机、嵌入系统、电话、掌上计算机或平板计算机、PDA、游戏装置或控制台、数码相框、电线会议装置或其它类型的计算机。
图42是示出图41中所示的计算机的内部结构的框图。现在描述计算装置4101的示例性内部结构。计算环境包括:计算机中央处理单元(“CPU”)4201,其中处理包括操作系统或应用的计算机指令;提供通信界面以及用于在监视器4108上呈现图形、图像和文本的处理功能的显示界面4202;给键盘4109提供通信界面的键盘界面4204;给鼠标4110提供通信界面的指向装置界面4205或等效的指向装置;给数字输入装置4117提供通信界面的数字输入界面4206;给硬拷贝输出装置提供通信界面的硬拷贝输出装置界面;随机存取存储器(“RAM”)4210,其中计算机指令和数据存储在易失性存储装置中用于由计算机CPU4201处理;只读存储器(“ROM”)4211,其中用于基本系统功能的不变低级系统代码或数据存储在非易失性存储装置中,该基本系统功能例如是基本的输入和输出(“I/O”)、启动或接收来自键盘4109的按键输入;以及存储器4220或其它合适类型的存储器(例如,随机存取存储器(“RAM”)、只读存储器(“ROM”)、可编程的只读存储器(“PROM”)、可擦写可编程只读存储器(“EPROM”)、电可擦写可编程只读存储器(“EEPROM”)、磁盘、光盘、软盘、硬盘、可移动磁带、闪存驱动器),其中存储包括操作系统4221、应用程序4222(包括增强的基于相机的输入应用4223,以及根据需要的其它应用4224)的文件和数据文件4225;经由计算机网络连接给网络提供通信界面的计算机网络界面。组成装置和计算机CPU4201通过计算机总线4227而彼此通信。
根据另一一般实施方式,通过计算机程序产品而编码计算机可读介质。计算机程序产品包括这样的指令:当执行该指令时运行以使得计算机在场景内的用户图像中定义围绕用户的检测区域,以及检测目标在检测区域内的位置。计算机程序产品还包括这样的指令:当机器读取该指令时运行以使得数据处理设备基于检测到的目标的位置与用户界面内的控件交互。
RAM 4210与计算机总线4227交互,以在执行诸如操作系统应用程序之类的软件程序期间,将提供快速RAM存储给计算机CPU 4201以及装置驱动器。更具体地,计算机CPU4201将来自固定磁盘驱动器4111或其它存储介质中的计算机可执行处理步骤载入到RAM 4210的字段中,以为了执行软件程序。数据这样存储在RAM4210中:其中在执行期间通过计算机CPU4201访问数据。
计算装置4101存储用于操作系统4221、应用程序4222的计算机可以执行代码,应用程序4222例如是文字处理、电子数据表、介绍、游戏或其它应用。尽管可以使用上述的实施方式提供基于相机的输入,但是还可以将根据本公开的这些功能实现为动态链接库(“DLL”)或者插入到其它应用程序,例如诸如Internet Explorer网页浏览器的因特网网页浏览器。
计算机CPU 4201是大量的高性能计算机处理器中的一个,这些高性能计算机处理器包括处理器、处理器、精简指令集计算机(“RISC”)处理器、处理器、机器构架处理器、HP处理器或用于大型机的专用计算机处理器。在另外的配置中,计算机CPU3301是多于一个的处理单元,包括在高性能工作站和服务器中的多个CPU构造,或大型机中的多个可扩展处理单元。
操作系统4221可以是WINDOWSXP工作站;WINDOWSXP服务器;各种风格的操作系统,包括用于工作站和服务器的用于工作站和服务器的用于基于CPU的工作站和服务器的用于工作站和服务器的HP UXWORKLOAD用于工作站和服务器的用于数字设备公司计算机的VAX/VMS、用于HP基于计算机的用于基础工作站和服务器的MAC用于移动装置的SYMBIANWINDOWS或WINDOWS (“NOS”)、或用于计算机的专用操作系统或嵌入系统。用于操作系统4221的应用开发或框架可以是:BINARYRUNTIME ENVIRONMENT FORJava平台、MicroEdition(“Java ME”)或Java 2平台、Micro Edition();PYTHONTMNET Compact。
虽然图41和42示出了计算装置的一个可能实施方式,该计算装置执行程序代码或程序或处理步骤,并被配置成提供增强的控件以使得用户能够直观地且容易地输入文本、数字或从大量的项目中进行选择,但是也可以使用其它类型的计算机或实施方式。
已经描述了大量的实施方式。然而,应当理解,在不脱离本公开的精神和范围的情况下可以进行各种修改。因而,其它实施方式都在所附权利要求的范围内。

Claims (31)

1.一种计算机实现的方法,其包括:
获得在场景内控制目标的图像,所述图像由相机拍摄;
基于所述场景内所述控制目标的位置,确定显示屏上用户界面内第一目标的位置,其中,所述第一目标包括控制部分和非控制部分;
确定第一项目集合;以及
基于所述第一目标的所确定的位置以及所述第一项目集合中所述项目的数量,动态定位所述显示屏上所述用户界面内一个或更多个基准线,其中:
所述项目在所述显示屏上显示,并与所述用户界面内的所述一个或更多个基准线对准;且
所述一个或更多个基准线被定位使得:
所述项目被定位在所述第一目标的所述控制部分的经确定的动作范围内;且
所述项目不与所述第一目标的所述非控制部分重叠。
2.根据权利要求1所述的计算机实现的方法,其中,所述用户界面在移动设备显示屏上显示。
3.根据权利要求1所述的计算机实现的方法,其中,所述用户界面在电视显示屏上显示。
4.根据权利要求1所述的计算机实现的方法,其中,所述第一目标包括用户的代表。
5.根据权利要求1所述的计算机实现的方法,进一步包括:
确定所述用户界面内第二目标的位置;以及
重新定位所述一个或更多个基准线,使得所述项目不与所述第二目标重叠。
6.根据权利要求5所述的计算机实现的方法,其中,所述重新定位包括改变下列各者中的一者或更多者:
项目的颜色;
项目的线宽;
项目的大小;或
项目的透明性。
7.根据权利要求5所述的计算机实现的方法,其中,所述重新定位包括重新定位所述一个或更多个基准线,使得项目在所述第二目标的控制部分的经确定的动作范围之外。
8.根据权利要求1所述的计算机实现的方法,进一步包括:
确定在所述用户界面内所述第一目标的新的位置;以及
基于所述新位置重新定位所述一个或更多个基准线,使得所述项目不与所述第一目标的所述非控制部分重叠。
9.根据权利要求1所述的计算机实现的方法,进一步包括:
接收对项目的选择;以及
基于所述选择,创建新的基准线,所述新的基准线具有与之对准的第二项目集合。
10.根据权利要求9所述的计算机实现的方法,其中:
所述一个或更多个基准线的基准线部分一般在与所述用户界面相同的X-Y平面内被定义;以及
创建所述新的基准线包括创建一般在不是所述X-Y平面的平面内被定义的所述新的基准线。
11.根据权利要求10所述的计算机实现的方法,其中,从所述新的基准线的第一端到所述新的基准线的第二端,与所述新的基准线对准的项目的大小减小。
12.包括处理器的设备,经配置以:
获得在场景内控制目标的图像,所述图像由相机拍摄;
基于所述场景内所述控制目标的位置,确定显示屏上用户界面内第一目标的位置,其中,所述第一目标包括控制部分和非控制部分;
确定第一项目集合;以及
基于所述第一目标的所确定的位置以及所述第一项目集合中项目的数量,动态定位所述显示屏上所述用户界面内一个或更多个基准线,其中:
所述项目在所述显示屏上显示,并与所述用户界面内的所述一个或更多个基准线对准;且
所述一个或更多个基准线被定位使得:
所述项目被定位在所述第一目标的所述控制部分的经确定的动作范围内;且
所述项目不与所述第一目标的所述非控制部分重叠。
13.根据权利要求12所述的设备,其中,所述设备是移动设备。
14.根据权利要求12所述的设备,所述处理器进一步经配置以:
确定所述用户界面内第二目标的位置;以及
重新定位所述一个或更多个基准线,使得所述项目不与所述第二目标重叠。
15.根据权利要求14所述的设备,其中,所述重新定位包括改变下列各者中的一者或更多者:
项目的颜色;
项目的线宽;
项目的大小;或
项目的透明性。
16.根据权利要求14所述的设备,其中,所述处理器经配置以重新定位所述一个或更多个基准线,使得项目在所述第二目标的控制部分的经确定的动作范围之外。
17.根据权利要求12所述的设备,其中所述处理器进一步经配置以:
确定在所述用户界面内所述第一目标的新的位置;以及
基于所述新位置重新定位所述一个或更多个基准线,使得所述项目不与所述第一目标的所述非控制部分重叠。
18.根据权利要求12所述的设备,其中所述处理器进一步经配置以:
接收对项目的选择;以及
基于所述选择,创建新的基准线,所述新的基准线具有与之对准的第二项目集合。
19.根据权利要求18所述的设备,其中所述处理器进一步经配置以:
使得所述一个或更多个基准线的基准线部分一般在与所述用户界面相同的X-Y平面内被定义;以及
创建一般在不是所述X-Y平面的平面内被定义的所述新的基准线。
20.根据权利要求18所述的设备,其中,所述处理器经配置使得从所述新的基准线的第一端到所述新的基准线的第二端,与所述新的基准线对准的项目以减小的大小显示。
21.一种设备,其包括:
用于获得在场景内控制目标的图像的装置,所述图像由用于拍摄图像的装置拍摄;
用于基于所述场景内所述控制目标的位置,确定显示屏上用户界面内第一目标的位置的装置,其中,所述第一目标包括控制部分和非控制部分;
用于确定第一项目集合的装置;以及
用于基于所述第一目标的所确定的位置以及所述第一项目集合中项目的数量,动态定位所述显示屏上所述用户界面内一个或更多个基准线的装置,其中:
所述项目在所述显示屏上显示,并与所述用户界面内的所述一个或更多个基准线对准;且
所述一个或更多个基准线被定位使得:
所述项目被定位在所述第一目标的所述控制部分的经确定的动作范围内;且
所述项目不与所述第一目标的非控制部分重叠。
22.根据权利要求21所述的设备,进一步包括:
用于确定所述用户界面内第二目标的位置的装置;以及
用于重新定位所述一个或更多个基准线,使得所述项目不与所述第二目标重叠的装置。
23.根据权利要求22所述的设备,其中,所述用于重新定位的装置包括用于改变下列各者中的一者或更多者的装置:
项目的颜色;
项目的线宽;
项目的大小;或
项目的透明性。
24.根据权利要求22所述的设备,其中,所述用于重新定位的装置包括用于重新定位所述一个或更多个基准线,使得项目在所述第二目标的控制部分的经确定的动作范围之外的装置。
25.根据权利要求21所述的设备,进一步包括:
用于确定在所述用户界面内所述第一目标的新的位置的装置;以及
用于基于所述新位置重新定位所述一个或更多个基准线,使得所述项目不与所述第一目标的所述非控制部分重叠的装置。
26.根据权利要求21所述的设备,进一步包括:
用于接收对项目的选择的装置;以及
用于基于所述选择,创建新的基准线的装置,所述新的基准线具有与之对准的第二项目集合。
27.根据权利要求26所述的设备,其中:
所述一个或更多个基准线的基准线部分一般在与所述用户界面相同的X-Y平面内被定义;以及
所述创建所述新的基准线的装置包括用于创建一般在不是所述X-Y平面的平面内被定义的所述新的基准线的装置。
28.根据权利要求27所述的设备,进一步包括用于使得从所述新的基准线的第一端到所述新的基准线的第二端,与所述新的基准线对准的项目的大小减小的装置。
29.一种编码有指令的非易失性计算机可读介质,当执行指令的时候,操作使得计算机执行包括如下的操作:
获得在场景内控制目标的图像,所述图像由相机拍摄;
基于所述场景内所述控制目标的位置,确定显示屏上用户界面内第一目标的位置,其中,所述第一目标包括控制部分和非控制部分;
确定第一项目集合;以及
基于所述第一目标的所确定的位置以及所述第一项目集合中项目的数量,动态定位所述显示屏上所述用户界面内一个或更多个基准线,其中:
所述项目在所述显示屏上显示,并与所述用户界面内的所述一个或更多个基准线对准;且
所述一个或更多个基准线被定位使得:
所述项目被定位在所述第一目标的所述控制部分的经确定的动作范围内;且
所述项目不与所述第一目标的所述非控制部分重叠。
30.根据权利要求29所述的计算机可读介质,进一步包括引起所述计算机执行以下操作的指令:
确定所述用户界面内第二目标的位置;以及
重新定位所述一个或更多个基准线,使得所述项目不与所述第二目标重叠。
31.根据权利要求29所述的计算机可读介质,进一步包括引起所述计算机执行以下操作的指令:
接收对项目的选择;以及
基于所述选择,创建新的基准线,所述新的基准线具有与之对准的第二项目集合。
CN201810420206.8A 2007-07-27 2008-07-25 增强的基于相机的输入 Active CN108399010B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US95244807P 2007-07-27 2007-07-27
US60/952,448 2007-07-27
US12/102,587 2008-04-14
US12/102,587 US8726194B2 (en) 2007-07-27 2008-04-14 Item selection using enhanced control
US12/124,375 2008-05-21
US12/124,375 US8659548B2 (en) 2007-07-27 2008-05-21 Enhanced camera-based input
CN200880109208XA CN101810003B (zh) 2007-07-27 2008-07-25 增强的基于相机的输入

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN200880109208XA Division CN101810003B (zh) 2007-07-27 2008-07-25 增强的基于相机的输入

Publications (2)

Publication Number Publication Date
CN108399010A true CN108399010A (zh) 2018-08-14
CN108399010B CN108399010B (zh) 2021-02-19

Family

ID=40294873

Family Applications (3)

Application Number Title Priority Date Filing Date
CN200880109208XA Active CN101810003B (zh) 2007-07-27 2008-07-25 增强的基于相机的输入
CN2013100725016A Pending CN103218041A (zh) 2007-07-27 2008-07-25 增强的基于相机的输入
CN201810420206.8A Active CN108399010B (zh) 2007-07-27 2008-07-25 增强的基于相机的输入

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN200880109208XA Active CN101810003B (zh) 2007-07-27 2008-07-25 增强的基于相机的输入
CN2013100725016A Pending CN103218041A (zh) 2007-07-27 2008-07-25 增强的基于相机的输入

Country Status (4)

Country Link
US (6) US8726194B2 (zh)
JP (3) JP5575645B2 (zh)
CN (3) CN101810003B (zh)
WO (1) WO2009018161A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110908568A (zh) * 2018-09-18 2020-03-24 网易(杭州)网络有限公司 一种虚拟对象的控制方法和装置
US20220198764A1 (en) * 2020-12-18 2022-06-23 Arkh, Inc. Spatially Aware Environment Relocalization

Families Citing this family (736)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7159194B2 (en) * 2001-11-30 2007-01-02 Palm, Inc. Orientation dependent functionality of an electronic device
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
AU2003301043A1 (en) * 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
CN1902930B (zh) * 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
EP1851750A4 (en) 2005-02-08 2010-08-25 Oblong Ind Inc SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES
EP1889171A4 (en) 2005-04-07 2012-11-28 Visionsense Ltd METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP3920904B1 (ja) * 2006-02-23 2007-05-30 株式会社コナミデジタルエンタテインメント 通信ゲームシステム、通信ゲーム制御方法、ならびに、プログラム
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
JP5905662B2 (ja) 2007-04-24 2016-04-20 オブロング・インダストリーズ・インコーポレーテッド プロテイン、プール、およびスロークス処理環境
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
AU2008299883B2 (en) 2007-09-14 2012-03-15 Facebook, Inc. Processing of gesture-based user interactions
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP4938617B2 (ja) * 2007-10-18 2012-05-23 幸輝郎 村井 オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20120204133A1 (en) * 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US20090193361A1 (en) * 2008-01-30 2009-07-30 Research In Motion Limited Electronic device and method of controlling same
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
KR20090110242A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 신호를 처리하는 방법 및 장치
KR101599875B1 (ko) * 2008-04-17 2016-03-14 삼성전자주식회사 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 부호화 방법 및 장치, 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 복호화 방법 및 장치
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US8405727B2 (en) * 2008-05-01 2013-03-26 Apple Inc. Apparatus and method for calibrating image capture devices
US20090305785A1 (en) * 2008-06-06 2009-12-10 Microsoft Corporation Gesture controlled game screen navigation
US20090312100A1 (en) * 2008-06-12 2009-12-17 Harris Scott C Face Simulation in Networking
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
KR101652535B1 (ko) * 2008-06-18 2016-08-30 오블롱 인더스트리즈, 인크 차량 인터페이스를 위한 제스처 기반 제어 시스템
MY168264A (en) * 2008-07-15 2018-10-16 Dtt holdings pty ltd Method for preparing a patent for a medical treatment
US9324173B2 (en) 2008-07-17 2016-04-26 International Business Machines Corporation System and method for enabling multiple-state avatars
US8146020B2 (en) * 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
WO2010011929A1 (en) 2008-07-25 2010-01-28 Gesturetek, Inc. Enhanced detection of waving engagement gesture
US8957914B2 (en) * 2008-07-25 2015-02-17 International Business Machines Corporation Method for extending a virtual environment through registration
US10166470B2 (en) * 2008-08-01 2019-01-01 International Business Machines Corporation Method for providing a virtual world layer
US8508671B2 (en) 2008-09-08 2013-08-13 Apple Inc. Projection systems and methods
US8538084B2 (en) * 2008-09-08 2013-09-17 Apple Inc. Method and apparatus for depth sensing keystoning
JP4752887B2 (ja) * 2008-09-12 2011-08-17 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US8704832B2 (en) 2008-09-20 2014-04-22 Mixamo, Inc. Interactive design, synthesis and delivery of 3D character motion data through the web
US20100079426A1 (en) * 2008-09-26 2010-04-01 Apple Inc. Spatial ambient light profiling
US8527908B2 (en) * 2008-09-26 2013-09-03 Apple Inc. Computer user interface system and methods
US20100079653A1 (en) * 2008-09-26 2010-04-01 Apple Inc. Portable computing system with a secondary image output
US7881603B2 (en) * 2008-09-26 2011-02-01 Apple Inc. Dichroic aperture for electronic imaging device
US8610726B2 (en) * 2008-09-26 2013-12-17 Apple Inc. Computer systems and methods with projected display
US8869197B2 (en) 2008-10-01 2014-10-21 At&T Intellectual Property I, Lp Presentation of an avatar in a media communication system
JP4793422B2 (ja) * 2008-10-10 2011-10-12 ソニー株式会社 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム
US8749556B2 (en) 2008-10-14 2014-06-10 Mixamo, Inc. Data compression for real-time streaming of deformable 3D models for 3D animation
US8863212B2 (en) * 2008-10-16 2014-10-14 At&T Intellectual Property I, Lp Presentation of an adaptive avatar
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
KR101185589B1 (ko) * 2008-11-14 2012-09-24 (주)마이크로인피니티 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스
US8954894B2 (en) * 2008-11-15 2015-02-10 Adobe Systems Incorporated Gesture-initiated symbol entry
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
EP2368168B1 (en) * 2008-11-21 2018-07-11 London Health Sciences Centre Research Inc. Hands-free pointer system
US8982122B2 (en) 2008-11-24 2015-03-17 Mixamo, Inc. Real time concurrent design of shape, texture, and motion for 3D character animation
US8659596B2 (en) * 2008-11-24 2014-02-25 Mixamo, Inc. Real time generation of animation-ready 3D character models
US8232989B2 (en) * 2008-12-28 2012-07-31 Avaya Inc. Method and apparatus for enhancing control of an avatar in a three dimensional computer-generated virtual environment
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8565477B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8565476B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8267781B2 (en) * 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US9105014B2 (en) 2009-02-03 2015-08-11 International Business Machines Corporation Interactive avatar in messaging environment
US9195317B2 (en) * 2009-02-05 2015-11-24 Opentv, Inc. System and method for generating a user interface for text and item selection
US20100259547A1 (en) 2009-02-12 2010-10-14 Mixamo, Inc. Web platform for interactive design, synthesis and delivery of 3d character motion data
US9436276B2 (en) * 2009-02-25 2016-09-06 Microsoft Technology Licensing, Llc Second-person avatars
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US20100285877A1 (en) * 2009-05-05 2010-11-11 Mixamo, Inc. Distributed markerless motion capture
US20100289912A1 (en) * 2009-05-14 2010-11-18 Sony Ericsson Mobile Communications Ab Camera arrangement with image modification
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8615713B2 (en) * 2009-06-26 2013-12-24 Xerox Corporation Managing document interactions in collaborative document environments of virtual worlds
JP5291560B2 (ja) * 2009-07-27 2013-09-18 パナソニック株式会社 操作装置
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
JP5614014B2 (ja) 2009-09-04 2014-10-29 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
CN102656543A (zh) * 2009-09-22 2012-09-05 泊布欧斯技术有限公司 计算机装置的远程控制
US8619128B2 (en) 2009-09-30 2013-12-31 Apple Inc. Systems and methods for an imaging system using multiple image sensors
US8502926B2 (en) * 2009-09-30 2013-08-06 Apple Inc. Display system having coherent and incoherent light sources
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US8325136B2 (en) 2009-12-01 2012-12-04 Raytheon Company Computer display pointer device for a display
US8687070B2 (en) 2009-12-22 2014-04-01 Apple Inc. Image capture device having tilt and/or perspective correction
WO2011075891A1 (en) * 2009-12-23 2011-06-30 Nokia Corporation Method and apparatus for facilitating text editing and related computer program product and computer readable medium
JP5520318B2 (ja) * 2009-12-28 2014-06-11 パナソニック株式会社 操作音ガイド装置及び操作音ガイド方法
US20110162004A1 (en) * 2009-12-30 2011-06-30 Cevat Yerli Sensor device for a computer-controlled video entertainment system
US9207765B2 (en) * 2009-12-31 2015-12-08 Microsoft Technology Licensing, Llc Recognizing interactive media input
WO2011083531A1 (ja) * 2010-01-08 2011-07-14 パナソニック株式会社 表示領域制御装置、表示領域制御方法および集積回路
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US9542001B2 (en) 2010-01-14 2017-01-10 Brainlab Ag Controlling a surgical navigation system
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
GB2477959A (en) * 2010-02-19 2011-08-24 Sony Europ Navigation and display of an array of selectable items
EP2539797B1 (en) 2010-02-25 2019-04-03 Hewlett Packard Development Company, L.P. Representative image
JP5659510B2 (ja) * 2010-03-10 2015-01-28 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
EP2548100B1 (en) * 2010-03-15 2019-05-15 Koninklijke Philips N.V. A method and system for controlling at least one device
US8756522B2 (en) * 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
JP5320332B2 (ja) * 2010-03-19 2013-10-23 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
US20110239115A1 (en) * 2010-03-26 2011-09-29 Motorola, Inc. Selecting an avatar on a display screen of a mobile device
US8818027B2 (en) * 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
JP5434767B2 (ja) * 2010-04-16 2014-03-05 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
US8928672B2 (en) 2010-04-28 2015-01-06 Mixamo, Inc. Real-time automatic concatenation of 3D animation sequences
US9539510B2 (en) * 2010-04-30 2017-01-10 Microsoft Technology Licensing, Llc Reshapable connector with variable rigidity
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
JP2011253292A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
US9639151B2 (en) 2010-06-10 2017-05-02 Koninklijke Philips N.V. Method and apparatus for presenting an option
US20110304649A1 (en) * 2010-06-10 2011-12-15 Microsoft Corporation Character selection
US8749557B2 (en) * 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US20110304774A1 (en) * 2010-06-11 2011-12-15 Microsoft Corporation Contextual tagging of recorded data
USD667416S1 (en) * 2010-06-11 2012-09-18 Microsoft Corporation Display screen with graphical user interface
US8670029B2 (en) * 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US20110310010A1 (en) * 2010-06-17 2011-12-22 Primesense Ltd. Gesture based user interface
JP5700963B2 (ja) * 2010-06-29 2015-04-15 キヤノン株式会社 情報処理装置およびその制御方法
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
EP2402838A1 (en) * 2010-07-03 2012-01-04 Fachhochschule Dortmund Methods and device for the determination and/or feedback and/or control of the effective measurement space in motion capturing systems
AT510176B1 (de) * 2010-07-07 2012-02-15 Roman Eugenio Mag Anderl Verfahren zur steuerung einer interaktiven anzeige
WO2012008960A1 (en) * 2010-07-15 2012-01-19 Hewlett-Packard Development Company L.P. First response and second response
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
CN102906671B (zh) * 2010-07-20 2016-03-02 松下电器(美国)知识产权公司 手势输入装置及手势输入方法
WO2012011044A1 (en) 2010-07-20 2012-01-26 Primesense Ltd. Interactive reality augmentation for natural interaction
US8797328B2 (en) 2010-07-23 2014-08-05 Mixamo, Inc. Automatic generation of 3D character animation from 3D meshes
JP5675196B2 (ja) * 2010-07-24 2015-02-25 キヤノン株式会社 情報処理装置及びその制御方法
WO2012014590A1 (ja) * 2010-07-28 2012-02-02 パイオニア株式会社 映像処理装置及び方法
CN102348041A (zh) * 2010-08-06 2012-02-08 天津三星光电子有限公司 具有虚拟键盘输入照片标注功能的数码相机
US8497897B2 (en) 2010-08-17 2013-07-30 Apple Inc. Image capture using luminance and chrominance sensors
US8719066B2 (en) * 2010-08-17 2014-05-06 Edifice Technologies Inc. Systems and methods for capturing, managing, sharing, and visualising asset information of an organization
US9118832B2 (en) 2010-08-17 2015-08-25 Nokia Technologies Oy Input method
JP5609416B2 (ja) 2010-08-19 2014-10-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5561031B2 (ja) * 2010-08-30 2014-07-30 コニカミノルタ株式会社 表示処理装置、スクロール表示方法、およびコンピュータプログラム
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
JP5625643B2 (ja) 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法
JP5829390B2 (ja) 2010-09-07 2015-12-09 ソニー株式会社 情報処理装置、および情報処理方法
US20120059647A1 (en) * 2010-09-08 2012-03-08 International Business Machines Corporation Touchless Texting Exercise
JP5178797B2 (ja) * 2010-09-13 2013-04-10 キヤノン株式会社 表示制御装置及び表示制御方法
JP5256265B2 (ja) * 2010-09-17 2013-08-07 株式会社ソニー・コンピュータエンタテインメント コンピュータシステム、コンピュータシステムの制御方法、プログラム及び情報記憶媒体
US9870068B2 (en) 2010-09-19 2018-01-16 Facebook, Inc. Depth mapping with a head mounted display using stereo cameras and structured light
JP5515067B2 (ja) * 2011-07-05 2014-06-11 島根県 操作入力装置および操作判定方法並びにプログラム
CN103154858B (zh) * 2010-09-22 2016-03-30 岛根县 操作输入装置与方法及程序
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
US8538132B2 (en) 2010-09-24 2013-09-17 Apple Inc. Component concentricity
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
JP5598232B2 (ja) 2010-10-04 2014-10-01 ソニー株式会社 情報処理装置、情報処理システムおよび情報処理方法
KR20120046973A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 움직임 정보 생성 방법 및 장치
US8861797B2 (en) * 2010-11-12 2014-10-14 At&T Intellectual Property I, L.P. Calibrating vision systems
EP2455841A3 (en) * 2010-11-22 2015-07-15 Samsung Electronics Co., Ltd. Apparatus and method for selecting item using movement of object
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8656279B2 (en) * 2010-12-14 2014-02-18 Sap Ag Global settings for the enablement of culture-based gestures
US8920241B2 (en) * 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
US9821224B2 (en) * 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
CN103154856B (zh) 2010-12-29 2016-01-06 英派尔科技开发有限公司 针对手势识别的环境相关动态范围控制
EP2661705A4 (en) * 2011-01-05 2016-06-01 Google Inc METHOD AND SYSTEM FOR FACILITATING TEXT INPUT
US9015641B2 (en) 2011-01-06 2015-04-21 Blackberry Limited Electronic device and method of providing visual notification of a received communication
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
EP2666070A4 (en) 2011-01-19 2016-10-12 Hewlett Packard Development Co METHOD AND SYSTEM FOR MULTIMODAL CONTROL AND GESTURE CONTROL
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US20130004928A1 (en) * 2011-01-31 2013-01-03 Jesse Ackerman Reaction training apparatus and methods of use
US20140317577A1 (en) * 2011-02-04 2014-10-23 Koninklijke Philips N.V. Gesture controllable system uses proprioception to create absolute frame of reference
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
CN106943743B (zh) * 2011-02-11 2024-04-26 漳州市阿思星谷电子科技有限公司 一种人机互动控制方法
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US20140082559A1 (en) * 2011-02-22 2014-03-20 Bradley Neal Suggs Control area for facilitating user input
KR101896947B1 (ko) * 2011-02-23 2018-10-31 엘지이노텍 주식회사 제스쳐를 이용한 입력 장치 및 방법
US20120218395A1 (en) * 2011-02-25 2012-08-30 Microsoft Corporation User interface presentation and interactions
GB2488785A (en) * 2011-03-07 2012-09-12 Sharp Kk A method of user interaction with a device in which a cursor position is calculated using information from tracking part of the user (face) and an object
KR101852428B1 (ko) * 2011-03-09 2018-04-26 엘지전자 주식회사 이동 단말기 및 그의 3d객체 제어방법
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
TW201237773A (en) * 2011-03-15 2012-09-16 Wistron Corp An electronic system, image adjusting method and computer program product thereof
KR101781908B1 (ko) * 2011-03-24 2017-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US20120249468A1 (en) * 2011-04-04 2012-10-04 Microsoft Corporation Virtual Touchpad Using a Depth Camera
WO2012144666A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Display device and control method therof
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
US9440144B2 (en) * 2011-04-21 2016-09-13 Sony Interactive Entertainment Inc. User identified to a controller
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) * 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
US8619049B2 (en) 2011-05-17 2013-12-31 Microsoft Corporation Monitoring interactions between two or more objects within an environment
KR20120130466A (ko) * 2011-05-23 2012-12-03 삼성전자주식회사 휴대단말기에서 외부장치의 데이터를 제어할 수 있는 장치 및 방법
CN102810239A (zh) * 2011-05-31 2012-12-05 鸿富锦精密工业(深圳)有限公司 意外防止系统及方法
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US20120311503A1 (en) * 2011-06-06 2012-12-06 Microsoft Corporation Gesture to trigger application-pertinent information
JP2013008365A (ja) * 2011-06-23 2013-01-10 Ailive Inc 運動感知型機器を用いる遠隔制御
JP5840399B2 (ja) * 2011-06-24 2016-01-06 株式会社東芝 情報処理装置
US9176608B1 (en) 2011-06-27 2015-11-03 Amazon Technologies, Inc. Camera based sensor for motion detection
US9266019B2 (en) * 2011-07-01 2016-02-23 Empire Technology Development Llc Safety scheme for gesture-based game
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9041734B2 (en) 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
US10049482B2 (en) 2011-07-22 2018-08-14 Adobe Systems Incorporated Systems and methods for animation recommendations
KR101773988B1 (ko) * 2011-07-29 2017-09-01 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 시각적 계층화 시스템 및 시각적 계층화 방법
US9030487B2 (en) * 2011-08-01 2015-05-12 Lg Electronics Inc. Electronic device for displaying three-dimensional image and method of using the same
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US8891868B1 (en) 2011-08-04 2014-11-18 Amazon Technologies, Inc. Recognizing gestures captured by video
JP5649535B2 (ja) * 2011-08-05 2015-01-07 株式会社東芝 コマンド発行装置、コマンド発行方法およびプログラム
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US8798362B2 (en) * 2011-08-15 2014-08-05 Hewlett-Packard Development Company, L.P. Clothing search in images
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9390318B2 (en) 2011-08-31 2016-07-12 Empire Technology Development Llc Position-setup for gesture-based game system
US9596398B2 (en) * 2011-09-02 2017-03-14 Microsoft Technology Licensing, Llc Automatic image capture
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario
US20130346508A1 (en) * 2011-09-12 2013-12-26 Wenlong Li Cooperative provision of personalized user functions using shared and personal devices
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
US20130080976A1 (en) * 2011-09-28 2013-03-28 Microsoft Corporation Motion controlled list scrolling
US8711091B2 (en) * 2011-10-14 2014-04-29 Lenovo (Singapore) Pte. Ltd. Automatic logical position adjustment of multiple screens
JP5202712B2 (ja) * 2011-10-28 2013-06-05 株式会社東芝 表示装置、及び情報送信方法
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
CN103105924B (zh) * 2011-11-15 2015-09-09 中国科学院深圳先进技术研究院 人机交互方法和装置
US10748325B2 (en) 2011-11-17 2020-08-18 Adobe Inc. System and method for automatic rigging of three dimensional characters for facial animation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
CN103135754B (zh) * 2011-12-02 2016-05-11 深圳泰山体育科技股份有限公司 采用交互设备实现交互的方法
KR101567591B1 (ko) 2011-12-02 2015-11-20 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 제스처 기반 게임 시스템을 위한 안전 체계
EP2602692A1 (en) 2011-12-05 2013-06-12 Alcatel Lucent Method for recognizing gestures and gesture detector
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8684821B2 (en) 2011-12-19 2014-04-01 Empire Technology Development Llc Pause and resume schemes for gesture-based game
US9207852B1 (en) * 2011-12-20 2015-12-08 Amazon Technologies, Inc. Input mechanisms for electronic devices
CN102495675A (zh) * 2011-12-20 2012-06-13 陈岚婕 互动式多媒体广告控制系统
US20120092248A1 (en) * 2011-12-23 2012-04-19 Sasanka Prabhala method, apparatus, and system for energy efficiency and energy conservation including dynamic user interface based on viewing conditions
US9927878B2 (en) 2011-12-28 2018-03-27 Nikon Corporation Display device and projection device
JP2013152711A (ja) * 2011-12-28 2013-08-08 Nikon Corp 投影装置及び表示装置
KR101237472B1 (ko) * 2011-12-30 2013-02-28 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20130081580A (ko) * 2012-01-09 2013-07-17 삼성전자주식회사 표시 장치 및 그 제어 방법
US20130181892A1 (en) * 2012-01-13 2013-07-18 Nokia Corporation Image Adjusting
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
LT2618316T (lt) * 2012-01-23 2018-11-12 Novomatic Ag Gestais valdomas "laimės ratas"
US8884928B1 (en) 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
US20130198690A1 (en) * 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
JP2013165366A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
US9055027B2 (en) * 2012-02-13 2015-06-09 Lenovo (Beijing) Co., Ltd. Transmission method and electronic device
US20150220149A1 (en) * 2012-02-14 2015-08-06 Google Inc. Systems and methods for a virtual grasping user interface
US9791932B2 (en) * 2012-02-27 2017-10-17 Microsoft Technology Licensing, Llc Semaphore gesture for human-machine interface
WO2013130682A1 (en) * 2012-02-27 2013-09-06 5 Examples, Inc. Date entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
US10503373B2 (en) * 2012-03-14 2019-12-10 Sony Interactive Entertainment LLC Visual feedback for highlight-driven gesture user interfaces
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US8654076B2 (en) * 2012-03-15 2014-02-18 Nokia Corporation Touch screen hover input handling
US9373025B2 (en) 2012-03-20 2016-06-21 A9.Com, Inc. Structured lighting-based content interactions in multiple environments
CN104718540A (zh) * 2012-03-20 2015-06-17 A9.Com公司 多种环境中的基于结构化照明的内容交互
JP5646532B2 (ja) * 2012-03-26 2014-12-24 ヤフー株式会社 操作入力装置、操作入力方法、及び、プログラム
AU2013239179B2 (en) 2012-03-26 2015-08-20 Apple Inc. Enhanced virtual touchpad and touchscreen
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
JP6068741B2 (ja) * 2012-03-30 2017-01-25 シャープ株式会社 表示システム
US8928590B1 (en) * 2012-04-03 2015-01-06 Edge 3 Technologies, Inc. Gesture keyboard method and apparatus
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
TWI454966B (zh) * 2012-04-24 2014-10-01 Wistron Corp 手勢控制方法及手勢控制裝置
US8994650B2 (en) 2012-04-27 2015-03-31 Qualcomm Incorporated Processing image input to communicate a command to a remote display device
TWI476706B (zh) * 2012-04-30 2015-03-11 Pixart Imaging Inc 偵測物件移動輸出命令的方法及其系統
TWI485577B (zh) * 2012-05-03 2015-05-21 Compal Electronics Inc 電子裝置及其操作方法
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
TWI590098B (zh) * 2012-05-09 2017-07-01 劉鴻達 以臉部表情為輸入的控制系統
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9619036B2 (en) 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
JP5713959B2 (ja) * 2012-05-23 2015-05-07 株式会社東芝 電子機器、方法、およびプログラム
US9747306B2 (en) * 2012-05-25 2017-08-29 Atheer, Inc. Method and apparatus for identifying input features for later recognition
US10114609B2 (en) 2012-05-31 2018-10-30 Opportunity Partners Inc. Computing interface for users with disabilities
US9262068B2 (en) * 2012-05-31 2016-02-16 Opportunity Partners Inc. Interactive surface
US8957973B2 (en) * 2012-06-11 2015-02-17 Omnivision Technologies, Inc. Shutter release using secondary camera
WO2014002803A1 (ja) * 2012-06-25 2014-01-03 オムロン株式会社 モーションセンサ、物体動作検知方法及び遊技機
CN102799273B (zh) * 2012-07-11 2015-04-15 华南理工大学 交互控制系统及其交互控制方法
TW201405443A (zh) * 2012-07-17 2014-02-01 Wistron Corp 手勢輸入系統及方法
CN102854981A (zh) * 2012-07-30 2013-01-02 成都西可科技有限公司 基于体感技术的虚拟键盘文字输入方法
USD733729S1 (en) * 2012-09-04 2015-07-07 Samsung Electronics Co, Ltd. TV display screen with graphical user interface
KR102035134B1 (ko) 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US9423886B1 (en) 2012-10-02 2016-08-23 Amazon Technologies, Inc. Sensor connectivity approaches
WO2014054716A1 (ja) 2012-10-03 2014-04-10 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
JP5774235B2 (ja) * 2012-10-03 2015-09-09 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
JP6103875B2 (ja) * 2012-10-16 2017-03-29 キヤノン株式会社 ハンドジェスチャ認識装置及びその制御方法
TWI475496B (zh) * 2012-10-16 2015-03-01 Wistron Corp 手勢控制裝置及於手勢控制裝置中設定及取消手勢操作區域之方法
CN102945078A (zh) * 2012-11-13 2013-02-27 深圳先进技术研究院 人机交互设备及人机交互方法
US9064168B2 (en) * 2012-12-14 2015-06-23 Hand Held Products, Inc. Selective output of decoded message data
US20140139556A1 (en) * 2012-11-22 2014-05-22 Shanghai Powermo Information Tech. Co. Ltd. Apparatus and method for displaying software keyboards thereof
KR101450586B1 (ko) * 2012-11-28 2014-10-15 (주) 미디어인터랙티브 동작 인식 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US9977492B2 (en) * 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
JP5950806B2 (ja) * 2012-12-06 2016-07-13 三菱電機株式会社 入力装置、情報処理方法、及び情報処理プログラム
US10051329B2 (en) * 2012-12-10 2018-08-14 DISH Technologies L.L.C. Apparatus, systems, and methods for selecting and presenting information about program content
US10474342B2 (en) * 2012-12-17 2019-11-12 Microsoft Technology Licensing, Llc Scrollable user interface control
US20140340498A1 (en) * 2012-12-20 2014-11-20 Google Inc. Using distance between objects in touchless gestural interfaces
DE102012224321B4 (de) * 2012-12-21 2022-12-15 Applejack 199 L.P. Messvorrichtung zum Erfassen einer Schlagbewegung eines Schlägers, Trainingsvorrichtung und Verfahren zum Training einer Schlagbewegung
US20140176690A1 (en) * 2012-12-21 2014-06-26 Technologies Humanware Inc. Magnification system
TW201426434A (zh) * 2012-12-21 2014-07-01 Ind Tech Res Inst 非接觸式控制系統
JP2014127124A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
CN103902192A (zh) * 2012-12-28 2014-07-02 腾讯科技(北京)有限公司 人机交互操作的触发控制方法和装置
KR20140087787A (ko) * 2012-12-31 2014-07-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
JP6171353B2 (ja) * 2013-01-18 2017-08-02 株式会社リコー 情報処理装置、システム、情報処理方法およびプログラム
JP6070211B2 (ja) * 2013-01-22 2017-02-01 株式会社リコー 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
SE536989C2 (sv) * 2013-01-22 2014-11-25 Crunchfish Ab Förbättrad återkoppling i ett beröringsfritt användargränssnitt
AU2014213692B2 (en) 2013-02-07 2019-05-23 Dizmo Ag System for organizing and displaying information on a display device
JP5950845B2 (ja) * 2013-02-07 2016-07-13 三菱電機株式会社 入力装置、情報処理方法、及び情報処理プログラム
US20140258942A1 (en) * 2013-03-05 2014-09-11 Intel Corporation Interaction of multiple perceptual sensing inputs
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
DE102013004246A1 (de) 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Vervollständigungs-Kennzeichnung
DE102013004244A1 (de) * 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Löschschaltfläche und/oder Listenauswahl-Schaltfläche
US10120540B2 (en) * 2013-03-14 2018-11-06 Samsung Electronics Co., Ltd. Visual feedback for user interface navigation on television system
US10220303B1 (en) 2013-03-15 2019-03-05 Harmonix Music Systems, Inc. Gesture-based music game
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
EP2797308A3 (en) * 2013-04-22 2015-01-07 Technologies Humanware Inc Live panning system and method
US10140631B2 (en) 2013-05-01 2018-11-27 Cloudsignt, Inc. Image processing server
US9569465B2 (en) 2013-05-01 2017-02-14 Cloudsight, Inc. Image processing
US9575995B2 (en) 2013-05-01 2017-02-21 Cloudsight, Inc. Image processing methods
US10223454B2 (en) 2013-05-01 2019-03-05 Cloudsight, Inc. Image directed search
US9438947B2 (en) 2013-05-01 2016-09-06 Google Inc. Content annotation tool
US9830522B2 (en) * 2013-05-01 2017-11-28 Cloudsight, Inc. Image processing including object selection
US9639867B2 (en) 2013-05-01 2017-05-02 Cloudsight, Inc. Image processing system including image priority
US9665595B2 (en) 2013-05-01 2017-05-30 Cloudsight, Inc. Image processing client
US9563955B1 (en) 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
CN103279188A (zh) * 2013-05-29 2013-09-04 山东大学 一种基于Kinect无接触性操作控制PPT的方法
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US20140368434A1 (en) * 2013-06-13 2014-12-18 Microsoft Corporation Generation of text by way of a touchless interface
TWI474264B (zh) * 2013-06-14 2015-02-21 Utechzone Co Ltd 行車警示方法及車用電子裝置
CN103336579A (zh) * 2013-07-05 2013-10-02 百度在线网络技术(北京)有限公司 穿戴式设备的输入方法和穿戴式设备
EP3686754A1 (en) * 2013-07-30 2020-07-29 Kodak Alaris Inc. System and method for creating navigable views of ordered images
US9356061B2 (en) 2013-08-05 2016-05-31 Apple Inc. Image sensor with buried light shield and vertical gate
TWI508027B (zh) * 2013-08-08 2015-11-11 Huper Lab Co Ltd 三維偵測裝置及其偵測影像之方法
JP6123562B2 (ja) * 2013-08-08 2017-05-10 株式会社ニコン 撮像装置
US9177410B2 (en) * 2013-08-09 2015-11-03 Ayla Mandel System and method for creating avatars or animated sequences using human body features extracted from a still image
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
CN103489107B (zh) * 2013-08-16 2015-11-25 北京京东尚科信息技术有限公司 一种制作虚拟试衣模特图像的方法和装置
TW201508609A (zh) * 2013-08-19 2015-03-01 Wistron Corp 互動方法及其相關互動式系統
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
CN103428551A (zh) * 2013-08-24 2013-12-04 渭南高新区金石为开咨询有限公司 一种手势遥控系统
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US10055013B2 (en) 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
EP3047354A1 (en) * 2013-09-17 2016-07-27 Koninklijke Philips N.V. Gesture enabled simultaneous selection of range and value
US20150091841A1 (en) * 2013-09-30 2015-04-02 Kobo Incorporated Multi-part gesture for operating an electronic personal display
US9367203B1 (en) 2013-10-04 2016-06-14 Amazon Technologies, Inc. User interface techniques for simulating three-dimensional depth
US10318100B2 (en) * 2013-10-16 2019-06-11 Atheer, Inc. Method and apparatus for addressing obstruction in an interface
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
CA2924622C (en) 2013-10-23 2020-03-10 Oculus Vr, Llc. Three dimensional depth mapping using dynamic structured light
JP6113857B2 (ja) * 2013-10-30 2017-04-12 株式会社東芝 電子機器、操作制御方法及びプログラム
WO2015072150A1 (ja) * 2013-11-15 2015-05-21 パナソニックIpマネジメント株式会社 情報表示装置及び情報表示方法
US9451434B2 (en) 2013-11-27 2016-09-20 At&T Intellectual Property I, L.P. Direct interaction between a user and a communication network
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
KR20150062317A (ko) * 2013-11-29 2015-06-08 현대모비스 주식회사 자동차의 통합 멀티미디어 장치
JP5770251B2 (ja) * 2013-12-02 2015-08-26 日立マクセル株式会社 操作制御装置
US9891712B2 (en) 2013-12-16 2018-02-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras with vectors
US20150169153A1 (en) * 2013-12-17 2015-06-18 Lenovo (Singapore) Pte, Ltd. Enhancing a viewing area around a cursor
CN105027031A (zh) * 2013-12-19 2015-11-04 谷歌公司 使用在无触摸手势界面中的物体之间的距离
US9538072B2 (en) * 2013-12-23 2017-01-03 Lenovo (Singapore) Pte. Ltd. Gesture invoked image capture
WO2015099683A1 (en) * 2013-12-23 2015-07-02 Empire Technology Development, Llc Suppression of real features in see-through display
US20150185858A1 (en) * 2013-12-26 2015-07-02 Wes A. Nagara System and method of plane field activation for a gesture-based control system
CN103713823B (zh) * 2013-12-30 2017-12-26 深圳泰山体育科技股份有限公司 实时更新操作区位置的方法及系统
JP6929644B2 (ja) * 2013-12-31 2021-09-01 グーグル エルエルシーGoogle LLC 注視によるメディア選択及び編集のためのシステム並びに方法
JP6269316B2 (ja) 2014-01-08 2018-01-31 富士通株式会社 入力装置、入力方法および入力プログラム
US9529445B2 (en) 2014-01-08 2016-12-27 Fujitsu Limited Input device and input method
US20160349926A1 (en) * 2014-01-10 2016-12-01 Nec Corporation Interface device, portable device, control device and module
US9720506B2 (en) * 2014-01-14 2017-08-01 Microsoft Technology Licensing, Llc 3D silhouette sensing system
US9928874B2 (en) 2014-02-05 2018-03-27 Snap Inc. Method for real-time video processing involving changing features of an object in the video
JP2017512327A (ja) * 2014-02-07 2017-05-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 制御システム及び制御システムの動作方法
US9443031B2 (en) * 2014-02-13 2016-09-13 Apteryx, Inc. System and method to capture an image over the web
CN103997668B (zh) * 2014-02-25 2017-12-22 华为技术有限公司 移动设备选中显示方法及终端设备
CN106170820A (zh) * 2014-02-26 2016-11-30 株式会社索思未来 图像识别系统以及半导体集成电路
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US10222866B2 (en) * 2014-03-24 2019-03-05 Beijing Lenovo Software Ltd. Information processing method and electronic device
JP2015196091A (ja) * 2014-04-02 2015-11-09 アップルジャック 199 エル.ピー. アバターが仮想環境内でプレイヤーを表すためのセンサベースのゲームシステム
CA2885880C (en) * 2014-04-04 2018-07-31 Image Searcher, Inc. Image processing including object selection
US20150301606A1 (en) * 2014-04-18 2015-10-22 Valentin Andrei Techniques for improved wearable computing device gesture based interactions
US20170168584A1 (en) * 2014-05-08 2017-06-15 Nec Solution Innovators, Ltd. Operation screen display device, operation screen display method, and non-temporary recording medium
US10845884B2 (en) * 2014-05-13 2020-11-24 Lenovo (Singapore) Pte. Ltd. Detecting inadvertent gesture controls
JP5963806B2 (ja) * 2014-05-30 2016-08-03 京セラドキュメントソリューションズ株式会社 文字入力システム、情報処理装置、文字入力方法
USD903660S1 (en) 2014-05-30 2020-12-01 Maria Francisca Jones Electronic device with graphical user interface
USD813242S1 (en) 2014-05-30 2018-03-20 Maria Francisca Jones Display screen with graphical user interface
USD849763S1 (en) 2014-05-30 2019-05-28 Maria Francisca Jones Electronic device with graphical user interface
WO2015188011A1 (en) * 2014-06-04 2015-12-10 Quantum Interface, Llc. Dynamic environment for object and attribute display and interaction
US9526983B2 (en) * 2014-06-04 2016-12-27 Chih-Feng Lin Virtual reality avatar traveling control system and virtual reality avatar traveling control method
US10474317B2 (en) * 2014-06-25 2019-11-12 Oracle International Corporation Dynamic node grouping in grid-based visualizations
JP6282188B2 (ja) * 2014-07-04 2018-02-21 クラリオン株式会社 情報処理装置
KR101567469B1 (ko) 2014-07-09 2015-11-20 주식회사 버추어패브릭스 증강 현실 기기를 위한 가상 입력 장치 제어 장치 및 방법
WO2016009016A1 (en) * 2014-07-17 2016-01-21 Koninklijke Philips N.V. Method of obtaining gesture zone definition data for a control system based on user input
JP6428020B2 (ja) * 2014-07-24 2018-11-28 セイコーエプソン株式会社 Gui装置
US9645641B2 (en) * 2014-08-01 2017-05-09 Microsoft Technology Licensing, Llc Reflection-based control activation
USD726199S1 (en) * 2014-08-29 2015-04-07 Nike, Inc. Display screen with emoticon
USD725129S1 (en) * 2014-08-29 2015-03-24 Nike, Inc. Display screen with emoticon
USD723578S1 (en) * 2014-08-29 2015-03-03 Nike, Inc. Display screen with emoticon
USD724099S1 (en) * 2014-08-29 2015-03-10 Nike, Inc. Display screen with emoticon
USD725130S1 (en) * 2014-08-29 2015-03-24 Nike, Inc. Display screen with emoticon
USD723046S1 (en) * 2014-08-29 2015-02-24 Nike, Inc. Display screen with emoticon
USD723579S1 (en) * 2014-08-29 2015-03-03 Nike, Inc. Display screen with emoticon
USD723577S1 (en) * 2014-08-29 2015-03-03 Nike, Inc. Display screen with emoticon
USD725131S1 (en) * 2014-08-29 2015-03-24 Nike, Inc. Display screen with emoticon
USD724098S1 (en) * 2014-08-29 2015-03-10 Nike, Inc. Display screen with emoticon
USD724606S1 (en) * 2014-08-29 2015-03-17 Nike, Inc. Display screen with emoticon
JP6519074B2 (ja) * 2014-09-08 2019-05-29 任天堂株式会社 電子機器
US10788948B2 (en) 2018-03-07 2020-09-29 Quantum Interface, Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
TWI591514B (zh) * 2014-11-07 2017-07-11 鴻海精密工業股份有限公司 手勢創建系統及方法
CN107079126A (zh) 2014-11-13 2017-08-18 惠普发展公司,有限责任合伙企业 图像投影
CN113050802A (zh) * 2014-12-18 2021-06-29 脸谱科技有限责任公司 用于在虚拟现实环境中导航的方法、系统及设备
USD778320S1 (en) * 2015-01-05 2017-02-07 Nike, Inc. Display screen with icon
KR102329124B1 (ko) * 2015-01-05 2021-11-19 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
US20180011612A1 (en) * 2015-01-20 2018-01-11 Gürkan Öztürk A method for layout and selection of the menu elements in man-machine interface
JP6494305B2 (ja) 2015-01-29 2019-04-03 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、表示装置、および情報処理方法
JP6561400B2 (ja) * 2015-02-10 2019-08-21 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6534011B2 (ja) 2015-02-10 2019-06-26 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6519075B2 (ja) * 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6603024B2 (ja) 2015-02-10 2019-11-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2016157587A (ja) * 2015-02-24 2016-09-01 サンケン電気株式会社 照明装置
CA2977374C (en) 2015-02-25 2019-04-16 Facebook, Inc. Identifying an object in a volume based on characteristics of light reflected by the object
KR20160109304A (ko) * 2015-03-10 2016-09-21 삼성전자주식회사 원격 조정 장치 및 원격 조정 장치의 화면 제어방법
EP3274653B1 (en) 2015-03-22 2020-11-25 Facebook Technologies, LLC Depth mapping with a head mounted display using stereo cameras and structured light
US9536136B2 (en) * 2015-03-24 2017-01-03 Intel Corporation Multi-layer skin detection and fused hand pose matching
CN105045373B (zh) * 2015-03-26 2018-01-09 济南大学 一种面向用户心理模型表达的三维手势交互方法
CN104714649A (zh) * 2015-03-31 2015-06-17 王子强 一种基于kinect的裸眼3D UI交互方法
KR20160123879A (ko) * 2015-04-17 2016-10-26 삼성전자주식회사 전자 장치 및 그의 화면 표시 방법
CN104866096B (zh) * 2015-05-18 2018-01-05 中国科学院软件研究所 一种利用上臂伸展信息进行命令选择的方法
WO2016185634A1 (ja) * 2015-05-21 2016-11-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
DE102015006613A1 (de) * 2015-05-21 2016-11-24 Audi Ag Bediensystem und Verfahren zum Betreiben eines Bediensystems für ein Kraftfahrzeug
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
US10503392B2 (en) * 2015-06-25 2019-12-10 Oath Inc. User interface adjustment methods and systems
WO2017006426A1 (ja) * 2015-07-07 2017-01-12 日立マクセル株式会社 表示システム、ウェアラブルデバイス、および映像表示装置
CN107533373B (zh) * 2015-08-04 2020-09-08 谷歌有限责任公司 虚拟现实中经由手与对象的场境敏感碰撞的输入
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US10503360B2 (en) * 2015-11-30 2019-12-10 Unisys Corporation System and method for adaptive control and annotation interface
US10459597B2 (en) * 2016-02-03 2019-10-29 Salesforce.Com, Inc. System and method to navigate 3D data on mobile and desktop
US10157484B2 (en) * 2016-03-11 2018-12-18 International Business Machines Corporation Schema-driven object alignment
CN105892665B (zh) * 2016-03-31 2019-02-05 联想(北京)有限公司 信息处理方法及电子设备
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
CN105912102B (zh) * 2016-03-31 2019-02-05 联想(北京)有限公司 一种信息处理方法和电子设备
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
US10474353B2 (en) 2016-05-31 2019-11-12 Snap Inc. Application control using a gesture based trigger
US10559111B2 (en) 2016-06-23 2020-02-11 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
WO2017223530A1 (en) 2016-06-23 2017-12-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
US10360708B2 (en) 2016-06-30 2019-07-23 Snap Inc. Avatar based ideogram generation
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
JP6230666B2 (ja) * 2016-06-30 2017-11-15 シャープ株式会社 データ入力装置、データ入力方法、及びデータ入力プログラム
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US10348662B2 (en) 2016-07-19 2019-07-09 Snap Inc. Generating customized electronic messaging graphics
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US10990174B2 (en) 2016-07-25 2021-04-27 Facebook Technologies, Llc Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
CN110337269B (zh) 2016-07-25 2021-09-21 脸谱科技有限责任公司 基于神经肌肉信号推断用户意图的方法和装置
EP3487595A4 (en) 2016-07-25 2019-12-25 CTRL-Labs Corporation SYSTEM AND METHOD FOR MEASURING MOVEMENTS OF ARTICULATED RIGID BODIES
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
WO2018053445A1 (en) * 2016-09-19 2018-03-22 Baylor College Of Medicine Instrumented trail making task (itmt)
DK179978B1 (en) 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
KR20210013323A (ko) 2016-09-23 2021-02-03 애플 인크. 아바타 생성 및 편집
US10609036B1 (en) 2016-10-10 2020-03-31 Snap Inc. Social media post subscribe requests for buffer user accounts
US10198626B2 (en) 2016-10-19 2019-02-05 Snap Inc. Neural networks for facial modeling
US10593116B2 (en) 2016-10-24 2020-03-17 Snap Inc. Augmented reality object manipulation
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
US10699461B2 (en) * 2016-12-20 2020-06-30 Sony Interactive Entertainment LLC Telepresence of multiple users in interactive virtual space
KR20180074400A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
CN108268227B (zh) * 2017-01-04 2020-12-01 京东方科技集团股份有限公司 显示设备
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
US10242477B1 (en) 2017-01-16 2019-03-26 Snap Inc. Coded vision system
US10951562B2 (en) 2017-01-18 2021-03-16 Snap. Inc. Customized contextual media content item generation
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10255268B2 (en) 2017-01-30 2019-04-09 International Business Machines Corporation Text prediction using multiple devices
US10558749B2 (en) * 2017-01-30 2020-02-11 International Business Machines Corporation Text prediction using captured image from an image capture device
JP6809267B2 (ja) * 2017-02-10 2021-01-06 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
US20180267615A1 (en) * 2017-03-20 2018-09-20 Daqri, Llc Gesture-based graphical keyboard for computing devices
USD868080S1 (en) 2017-03-27 2019-11-26 Sony Corporation Display panel or screen with an animated graphical user interface
USD815120S1 (en) * 2017-03-27 2018-04-10 Sony Corporation Display panel or screen with animated graphical user interface
US11069103B1 (en) 2017-04-20 2021-07-20 Snap Inc. Customized user interface for electronic communications
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
CN110945555A (zh) 2017-04-27 2020-03-31 斯纳普公司 社交媒体平台上用户位置的区域级别表示
WO2018201334A1 (zh) * 2017-05-03 2018-11-08 深圳市智晟达科技有限公司 一种数字电视系统
JP6719418B2 (ja) * 2017-05-08 2020-07-08 株式会社ニコン 電子機器
KR102439054B1 (ko) 2017-05-16 2022-09-02 애플 인크. 이모지 레코딩 및 전송
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
JP6922410B2 (ja) * 2017-05-19 2021-08-18 富士通株式会社 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法
US10679428B1 (en) 2017-05-26 2020-06-09 Snap Inc. Neural network-based image stream modification
USD857739S1 (en) * 2017-06-05 2019-08-27 Apple Inc. Display screen or portion thereof with animated graphical user interface
CN107273869B (zh) * 2017-06-29 2020-04-24 联想(北京)有限公司 手势识别控制方法和电子设备
US10411798B2 (en) * 2017-07-13 2019-09-10 Qualcomm Incorporated Power optimized VLC signal processing with efficient handling of ISP/VFE
US11122094B2 (en) 2017-07-28 2021-09-14 Snap Inc. Software application manager for messaging applications
US10782793B2 (en) 2017-08-10 2020-09-22 Google Llc Context-sensitive hand interaction
CN107493495B (zh) * 2017-08-14 2019-12-13 深圳市国华识别科技开发有限公司 交互位置确定方法、系统、存储介质和智能终端
US10904615B2 (en) * 2017-09-07 2021-01-26 International Business Machines Corporation Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed
CN112040858A (zh) 2017-10-19 2020-12-04 脸谱科技有限责任公司 用于识别与神经肌肉源信号相关的生物结构的系统和方法
US10586368B2 (en) 2017-10-26 2020-03-10 Snap Inc. Joint audio-video facial animation system
US10657695B2 (en) 2017-10-30 2020-05-19 Snap Inc. Animated chat presence
KR20190054397A (ko) * 2017-11-13 2019-05-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US11460974B1 (en) 2017-11-28 2022-10-04 Snap Inc. Content discovery refresh
US11411895B2 (en) 2017-11-29 2022-08-09 Snap Inc. Generating aggregated media content items for a group of users in an electronic messaging application
KR102387861B1 (ko) 2017-11-29 2022-04-18 스냅 인코포레이티드 전자 메시징 애플리케이션들을 위한 그래픽 렌더링
AU2017276290A1 (en) 2017-12-14 2019-07-04 Canon Kabushiki Kaisha Method, system and apparatus for selecting items in a graphical user interface
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US10949648B1 (en) 2018-01-23 2021-03-16 Snap Inc. Region-based stabilized face tracking
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11567573B2 (en) * 2018-09-20 2023-01-31 Meta Platforms Technologies, Llc Neuromuscular text entry, writing and drawing in augmented reality systems
US10970936B2 (en) 2018-10-05 2021-04-06 Facebook Technologies, Llc Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11069148B2 (en) 2018-01-25 2021-07-20 Facebook Technologies, Llc Visualization of reconstructed handstate information
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10726603B1 (en) 2018-02-28 2020-07-28 Snap Inc. Animated expressive icon
US11310176B2 (en) 2018-04-13 2022-04-19 Snap Inc. Content suggestion system
EP3782124A1 (en) 2018-04-18 2021-02-24 Snap Inc. Augmented expression system
KR102524586B1 (ko) * 2018-04-30 2023-04-21 삼성전자주식회사 전자 장치 및 그 동작방법
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK180212B1 (en) * 2018-05-07 2020-08-19 Apple Inc USER INTERFACE FOR CREATING AVATAR
DK201870378A1 (en) 2018-05-07 2020-01-13 Apple Inc. DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US10198845B1 (en) 2018-05-29 2019-02-05 LoomAi, Inc. Methods and systems for animating facial expressions
EP3801216A4 (en) 2018-05-29 2021-04-14 Facebook Technologies, LLC. SHIELDING TECHNIQUES FOR NOISE REDUCTION IN SURFACE ELECTROMYOGRAPHY SIGNAL MEASUREMENT AND RELATED SYSTEMS AND METHODS
US11601721B2 (en) * 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
WO2019241701A1 (en) 2018-06-14 2019-12-19 Ctrl-Labs Corporation User identification and authentication with neuromuscular signatures
KR20210024174A (ko) 2018-07-19 2021-03-04 소울 머신스 리미티드 머신 인터랙션
US11045137B2 (en) 2018-07-19 2021-06-29 Facebook Technologies, Llc Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
US11074675B2 (en) 2018-07-31 2021-07-27 Snap Inc. Eye texture inpainting
EP3836836B1 (en) 2018-08-13 2024-03-20 Meta Platforms Technologies, LLC Real-time spike detection and identification
US11030813B2 (en) 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
CN112996430A (zh) 2018-08-31 2021-06-18 脸谱科技有限责任公司 神经肌肉信号的相机引导的解释
US10896534B1 (en) 2018-09-19 2021-01-19 Snap Inc. Avatar style transformation using neural networks
US10732725B2 (en) 2018-09-25 2020-08-04 XRSpace CO., LTD. Method and apparatus of interactive display based on gesture recognition
US10895964B1 (en) 2018-09-25 2021-01-19 Snap Inc. Interface to display shared user groups
CN112771478A (zh) 2018-09-26 2021-05-07 脸谱科技有限责任公司 对环境中的物理对象的神经肌肉控制
US11245658B2 (en) 2018-09-28 2022-02-08 Snap Inc. System and method of generating private notifications between users in a communication session
US10904181B2 (en) 2018-09-28 2021-01-26 Snap Inc. Generating customized graphics having reactions to electronic message content
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
US11189070B2 (en) 2018-09-28 2021-11-30 Snap Inc. System and method of generating targeted user lists using customizable avatar characteristics
US10872451B2 (en) 2018-10-31 2020-12-22 Snap Inc. 3D avatar rendering
US11103795B1 (en) 2018-10-31 2021-08-31 Snap Inc. Game drawer
EP3886693A4 (en) 2018-11-27 2022-06-08 Facebook Technologies, LLC. METHOD AND DEVICE FOR AUTOCALIBRATION OF A PORTABLE ELECTRODE SENSING SYSTEM
US11176737B2 (en) 2018-11-27 2021-11-16 Snap Inc. Textured mesh building
US10902661B1 (en) 2018-11-28 2021-01-26 Snap Inc. Dynamic composite user identifier
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
US10861170B1 (en) 2018-11-30 2020-12-08 Snap Inc. Efficient human pose tracking in videos
US11055514B1 (en) 2018-12-14 2021-07-06 Snap Inc. Image face manipulation
EP3667460A1 (en) * 2018-12-14 2020-06-17 InterDigital CE Patent Holdings Methods and apparatus for user -device interaction
US11516173B1 (en) 2018-12-26 2022-11-29 Snap Inc. Message composition interface
JP6717393B2 (ja) * 2019-01-08 2020-07-01 株式会社ニコン 電子機器
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US10984575B2 (en) 2019-02-06 2021-04-20 Snap Inc. Body pose estimation
US10656797B1 (en) 2019-02-06 2020-05-19 Snap Inc. Global event-based avatar
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
JP7090791B2 (ja) * 2019-02-19 2022-06-24 株式会社Nttドコモ 情報処理装置
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
WO2020179813A1 (ja) * 2019-03-05 2020-09-10 株式会社Nttドコモ 情報処理装置
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US10674311B1 (en) 2019-03-28 2020-06-02 Snap Inc. Points of interest in a location sharing system
US11166123B1 (en) 2019-03-28 2021-11-02 Snap Inc. Grouped transmission of location data in a location sharing system
US10992619B2 (en) 2019-04-30 2021-04-27 Snap Inc. Messaging system with avatar generation
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
USD916872S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a graphical user interface
USD916810S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a graphical user interface
USD916871S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a transitional graphical user interface
USD916811S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a transitional graphical user interface
USD916809S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a transitional graphical user interface
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
USD917534S1 (en) * 2019-06-10 2021-04-27 Aristocrat Technologies Australia Pty Limited Display screen or portion thereof with transitional graphical user interface
EP3991067A1 (en) 2019-06-26 2022-05-04 Google LLC Radar-based authentication status feedback
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
US11676199B2 (en) 2019-06-28 2023-06-13 Snap Inc. Generating customizable avatar outfits
US11188190B2 (en) 2019-06-28 2021-11-30 Snap Inc. Generating animation overlays in a communication session
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11589094B2 (en) * 2019-07-22 2023-02-21 At&T Intellectual Property I, L.P. System and method for recommending media content based on actual viewers
US11551393B2 (en) 2019-07-23 2023-01-10 LoomAi, Inc. Systems and methods for animation generation
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
KR20220005081A (ko) 2019-07-26 2022-01-12 구글 엘엘씨 Imu 및 레이더를 기반으로 한 상태 감소
EP4004686A1 (en) 2019-07-26 2022-06-01 Google LLC Authentication management through imu and radar
US11163914B2 (en) * 2019-08-01 2021-11-02 Bank Of America Corporation Managing enterprise security by utilizing a smart keyboard and a smart mouse device
US11455081B2 (en) 2019-08-05 2022-09-27 Snap Inc. Message thread prioritization interface
US10911387B1 (en) 2019-08-12 2021-02-02 Snap Inc. Message reminder interface
WO2021040742A1 (en) 2019-08-30 2021-03-04 Google Llc Input-mode notification for a multi-input node
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
CN112753005B (zh) * 2019-08-30 2024-03-01 谷歌有限责任公司 移动设备的输入方法
CN113892072A (zh) 2019-08-30 2022-01-04 谷歌有限责任公司 用于暂停的雷达姿势的视觉指示器
US11320969B2 (en) 2019-09-16 2022-05-03 Snap Inc. Messaging system with battery level sharing
US11425062B2 (en) 2019-09-27 2022-08-23 Snap Inc. Recommended content viewed by friends
US11080917B2 (en) 2019-09-30 2021-08-03 Snap Inc. Dynamic parameterized user avatar stories
US11341569B2 (en) * 2019-10-25 2022-05-24 7-Eleven, Inc. System and method for populating a virtual shopping cart based on video of a customer's shopping session at a physical store
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
JP7339604B2 (ja) * 2019-11-12 2023-09-06 オムロン株式会社 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
US11063891B2 (en) 2019-12-03 2021-07-13 Snap Inc. Personalized avatar notification
US11128586B2 (en) 2019-12-09 2021-09-21 Snap Inc. Context sensitive avatar captions
US11036989B1 (en) 2019-12-11 2021-06-15 Snap Inc. Skeletal tracking using previous frames
US11227442B1 (en) 2019-12-19 2022-01-18 Snap Inc. 3D captions with semantic graphical elements
US11263817B1 (en) 2019-12-19 2022-03-01 Snap Inc. 3D captions with face tracking
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11140515B1 (en) 2019-12-30 2021-10-05 Snap Inc. Interfaces for relative device positioning
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
US11284144B2 (en) 2020-01-30 2022-03-22 Snap Inc. Video generation system to render frames on demand using a fleet of GPUs
US11036781B1 (en) 2020-01-30 2021-06-15 Snap Inc. Video generation system to render frames on demand using a fleet of servers
EP4096798A1 (en) 2020-01-30 2022-12-07 Snap Inc. System for generating media content items on demand
US11356720B2 (en) 2020-01-30 2022-06-07 Snap Inc. Video generation system to render frames on demand
JP7392512B2 (ja) 2020-02-20 2023-12-06 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US11217020B2 (en) 2020-03-16 2022-01-04 Snap Inc. 3D cutout image modification
US11625873B2 (en) 2020-03-30 2023-04-11 Snap Inc. Personalized media overlay recommendation
US11818286B2 (en) 2020-03-30 2023-11-14 Snap Inc. Avatar recommendation and reply
KR20220157502A (ko) 2020-03-31 2022-11-29 스냅 인코포레이티드 증강 현실 미용 제품 튜토리얼들
JP2021174314A (ja) * 2020-04-27 2021-11-01 横河電機株式会社 ソフトウェア開発環境提供システム、ソフトウェア開発環境提供方法、及びソフトウェア開発環境提供プログラム
CN112639689A (zh) * 2020-04-30 2021-04-09 华为技术有限公司 基于隔空手势的控制方法、装置及系统
US11956190B2 (en) 2020-05-08 2024-04-09 Snap Inc. Messaging system with a carousel of related entities
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
CN111625179B (zh) * 2020-06-02 2021-11-16 京东方科技集团股份有限公司 图形绘制方法、电子设备及计算机存储介质
US11543939B2 (en) 2020-06-08 2023-01-03 Snap Inc. Encoded image based messaging system
US11922010B2 (en) 2020-06-08 2024-03-05 Snap Inc. Providing contextual information with keyboard interface for messaging system
US11356392B2 (en) 2020-06-10 2022-06-07 Snap Inc. Messaging system including an external-resource dock and drawer
US11580682B1 (en) 2020-06-30 2023-02-14 Snap Inc. Messaging system with augmented reality makeup
CN111988522B (zh) * 2020-07-28 2022-04-22 北京达佳互联信息技术有限公司 拍摄控制方法、装置、电子设备及存储介质
US20220066605A1 (en) * 2020-08-26 2022-03-03 BlueStack Systems, Inc. Methods, Systems and Computer Program Products for Enabling Scrolling Within a Software Application
US11863513B2 (en) 2020-08-31 2024-01-02 Snap Inc. Media content playback and comments management
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
US11470025B2 (en) 2020-09-21 2022-10-11 Snap Inc. Chats with micro sound clips
US11452939B2 (en) 2020-09-21 2022-09-27 Snap Inc. Graphical marker generation system for synchronizing users
US11910269B2 (en) 2020-09-25 2024-02-20 Snap Inc. Augmented reality content items including user avatar to share location
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11450051B2 (en) 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11748931B2 (en) 2020-11-18 2023-09-05 Snap Inc. Body animation sharing and remixing
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
US11503090B2 (en) 2020-11-30 2022-11-15 At&T Intellectual Property I, L.P. Remote audience feedback mechanism
US11790531B2 (en) 2021-02-24 2023-10-17 Snap Inc. Whole body segmentation
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11809633B2 (en) 2021-03-16 2023-11-07 Snap Inc. Mirroring device with pointing based navigation
US11798201B2 (en) 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11978283B2 (en) 2021-03-16 2024-05-07 Snap Inc. Mirroring device with a hands-free mode
US11544885B2 (en) 2021-03-19 2023-01-03 Snap Inc. Augmented reality experience based on physical items
US11562548B2 (en) 2021-03-22 2023-01-24 Snap Inc. True size eyewear in real time
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
US11636654B2 (en) 2021-05-19 2023-04-25 Snap Inc. AR-based connected portal shopping
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11776190B2 (en) * 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
WO2023276216A1 (ja) * 2021-06-29 2023-01-05 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
US11941227B2 (en) 2021-06-30 2024-03-26 Snap Inc. Hybrid search system for customizable media
US11854069B2 (en) 2021-07-16 2023-12-26 Snap Inc. Personalized try-on ads
EP4141619A1 (en) * 2021-08-26 2023-03-01 TK Elevator Innovation and Operations GmbH Touchless visualisation and command system and corresponding method and use and computer program
US11908083B2 (en) 2021-08-31 2024-02-20 Snap Inc. Deforming custom mesh based on body mesh
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures
US11673054B2 (en) 2021-09-07 2023-06-13 Snap Inc. Controlling AR games on fashion items
US11663792B2 (en) 2021-09-08 2023-05-30 Snap Inc. Body fitted accessory with physics simulation
US11900506B2 (en) 2021-09-09 2024-02-13 Snap Inc. Controlling interactive fashion based on facial expressions
US11734866B2 (en) 2021-09-13 2023-08-22 Snap Inc. Controlling interactive fashion based on voice
US11798238B2 (en) 2021-09-14 2023-10-24 Snap Inc. Blending body mesh into external mesh
US11836866B2 (en) 2021-09-20 2023-12-05 Snap Inc. Deforming real-world object using an external mesh
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
US11636662B2 (en) 2021-09-30 2023-04-25 Snap Inc. Body normal network light and rendering control
US20230116341A1 (en) * 2021-09-30 2023-04-13 Futian ZHANG Methods and apparatuses for hand gesture-based control of selection focus
US11836862B2 (en) 2021-10-11 2023-12-05 Snap Inc. External mesh with vertex attributes
US11790614B2 (en) 2021-10-11 2023-10-17 Snap Inc. Inferring intent from pose and speech input
US11651572B2 (en) 2021-10-11 2023-05-16 Snap Inc. Light and rendering of garments
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality
US11763481B2 (en) 2021-10-20 2023-09-19 Snap Inc. Mirror-based augmented reality experience
US11960784B2 (en) 2021-12-07 2024-04-16 Snap Inc. Shared augmented reality unboxing experience
US11748958B2 (en) 2021-12-07 2023-09-05 Snap Inc. Augmented reality unboxing experience
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
US11887260B2 (en) 2021-12-30 2024-01-30 Snap Inc. AR position indicator
US11928783B2 (en) 2021-12-30 2024-03-12 Snap Inc. AR position and orientation along a plane
US11823346B2 (en) 2022-01-17 2023-11-21 Snap Inc. AR body part tracking system
US11954762B2 (en) 2022-01-19 2024-04-09 Snap Inc. Object replacement system
JP7336553B2 (ja) 2022-02-07 2023-08-31 三菱電機Itソリューションズ株式会社 処理実行装置、処理実行方法及び処理実行プログラム
US20230377223A1 (en) * 2022-05-18 2023-11-23 Snap Inc. Hand-tracked text selection and modification
US11870745B1 (en) 2022-06-28 2024-01-09 Snap Inc. Media gallery sharing and management
WO2024049574A1 (en) * 2022-08-29 2024-03-07 Travertine Design Engine Llc Video game environment and avatars
US11893166B1 (en) 2022-11-08 2024-02-06 Snap Inc. User avatar movement control using an augmented reality eyewear device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5565888A (en) * 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US20020041327A1 (en) * 2000-07-24 2002-04-11 Evan Hildreth Video-based image control system
US20020090115A1 (en) * 2000-11-24 2002-07-11 Yuichi Abe Image processing method and contactless image input apparatus utilizing the method
CN1636178A (zh) * 2001-01-22 2005-07-06 皇家菲利浦电子有限公司 基于手势的输入和目标指示的单个摄像机系统
CN1643939A (zh) * 2002-03-27 2005-07-20 三洋电机株式会社 立体图像处理方法及装置
CN1969301A (zh) * 2004-06-18 2007-05-23 Igt公司 游戏机用户界面

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
EP0823683B1 (en) 1995-04-28 2005-07-06 Matsushita Electric Industrial Co., Ltd. Interface device
JPH08332170A (ja) * 1995-06-08 1996-12-17 Matsushita Electric Ind Co Ltd ビデオスコープ
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US6335927B1 (en) * 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
JPH1139132A (ja) 1997-07-15 1999-02-12 Sharp Corp インターフェースシステム
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6130677A (en) * 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
DE19839638C2 (de) * 1998-08-31 2000-06-21 Siemens Ag System zur Ermöglichung einer Selbstkontrolle hinsichtlich durchzuführender Körperbewegungsabläufe durch die sich bewegende Person
JP2000194469A (ja) 1998-12-28 2000-07-14 Nec Corp 項目表示制御装置
JP2000284879A (ja) 1999-01-29 2000-10-13 Square Co Ltd ゲーム装置、ビデオゲームにおけるコマンド入力方法、及び、その方法を実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体
DE19917660A1 (de) * 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
US7124374B1 (en) 2000-03-06 2006-10-17 Carl Herman Haken Graphical interface control system
EP1148411A3 (en) * 2000-04-21 2005-09-14 Sony Corporation Information processing apparatus and method for recognising user gesture
JP2001312743A (ja) 2000-04-28 2001-11-09 Tomohiro Kuroda 自動人体コピーモデル作成装置
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2002116859A (ja) 2000-10-11 2002-04-19 Sony Corp 情報処理装置、命令認識処理方法及びプログラム格納媒体
US6827579B2 (en) * 2000-11-16 2004-12-07 Rutgers, The State University Of Nj Method and apparatus for rehabilitation of neuromotor disorders
JP2002157606A (ja) 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
AU2002243265A1 (en) * 2000-11-19 2002-06-24 Canesta, Inc. Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions
DE10100615A1 (de) * 2001-01-09 2002-07-18 Siemens Ag Handerkennung mit Positionsbestimmung
US6775014B2 (en) * 2001-01-17 2004-08-10 Fujixerox Co., Ltd. System and method for determining the location of a target in a room or small area
US6697072B2 (en) * 2001-03-26 2004-02-24 Intel Corporation Method and system for controlling an avatar using computer vision
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US20030095154A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Method and apparatus for a gesture-based user interface
US6907576B2 (en) * 2002-03-04 2005-06-14 Microsoft Corporation Legibility of selected content
WO2003098417A2 (en) * 2002-05-21 2003-11-27 Koninklijke Philips Electronics N.V. Object entry into an electronic device
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7298871B2 (en) * 2002-06-07 2007-11-20 Koninklijke Philips Electronics N.V. System and method for adapting the ambience of a local environment according to the location and personal preferences of people in the local environment
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US6839417B2 (en) * 2002-09-10 2005-01-04 Myriad Entertainment, Inc. Method and apparatus for improved conference call management
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
US7898529B2 (en) * 2003-01-08 2011-03-01 Autodesk, Inc. User interface having a placement and layout suitable for pen-based computers
US6920942B2 (en) * 2003-01-29 2005-07-26 Varco I/P, Inc. Method and apparatus for directly controlling pressure and position associated with an adjustable choke apparatus
JP4286556B2 (ja) 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
JP2004258766A (ja) 2003-02-24 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP4906227B2 (ja) 2003-05-19 2012-03-28 ソニー株式会社 撮像装置
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US20050080849A1 (en) * 2003-10-09 2005-04-14 Wee Susie J. Management system for rich media environments
JP4824409B2 (ja) 2004-01-06 2011-11-30 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法
EP1553764A1 (en) 2004-01-07 2005-07-13 Thomson Licensing S.A. System and process for selecting an item in a list of items and associated products
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20050239028A1 (en) * 2004-04-03 2005-10-27 Wu Chang J R Stance guide and method of use
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US20060017654A1 (en) * 2004-07-23 2006-01-26 Romo Justin R Virtual reality interactivity system and method
JP4419768B2 (ja) 2004-09-21 2010-02-24 日本ビクター株式会社 電子機器の制御装置
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
JP2006130221A (ja) * 2004-11-09 2006-05-25 Konica Minolta Medical & Graphic Inc 医用画像転送装置、プログラム及び記憶媒体
EP1851750A4 (en) * 2005-02-08 2010-08-25 Oblong Ind Inc SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
JP4276640B2 (ja) 2005-06-17 2009-06-10 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理装置の制御方法及び情報処理プログラム
KR20070006477A (ko) * 2005-07-08 2007-01-11 삼성전자주식회사 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치
US20070009139A1 (en) * 2005-07-11 2007-01-11 Agere Systems Inc. Facial recognition device for a handheld electronic device and a method of using the same
JP4785457B2 (ja) 2005-08-08 2011-10-05 キヤノン株式会社 表示制御装置及び表示制御方法
JP2007108941A (ja) * 2005-10-12 2007-04-26 Sharp Corp 機器制御装置、リモートコントローラ、機器、機器制御方法、機器制御プログラム、および機器制御プログラムを記録したコンピュータ読取り可能な記録媒体
US7788607B2 (en) * 2005-12-01 2010-08-31 Navisense Method and system for mapping virtual coordinates
US8549442B2 (en) 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
US7429988B2 (en) * 2006-03-06 2008-09-30 At&T Intellectual Property I, L.P. Methods and apparatus for convenient change of display characters on a handheld device
US8766983B2 (en) * 2006-05-07 2014-07-01 Sony Computer Entertainment Inc. Methods and systems for processing an interchange of real time effects during video communication
KR100776801B1 (ko) * 2006-07-19 2007-11-19 한국전자통신연구원 화상 처리 시스템에서의 제스처 인식 장치 및 방법
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
WO2008137708A1 (en) 2007-05-04 2008-11-13 Gesturetek, Inc. Camera-based user input for compact devices
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
WO2010106394A1 (en) * 2009-03-16 2010-09-23 Sony Ericsson Mobile Communications Ab Personalized user interface based on picture analysis
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5565888A (en) * 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US20020041327A1 (en) * 2000-07-24 2002-04-11 Evan Hildreth Video-based image control system
US20020090115A1 (en) * 2000-11-24 2002-07-11 Yuichi Abe Image processing method and contactless image input apparatus utilizing the method
CN1636178A (zh) * 2001-01-22 2005-07-06 皇家菲利浦电子有限公司 基于手势的输入和目标指示的单个摄像机系统
CN1643939A (zh) * 2002-03-27 2005-07-20 三洋电机株式会社 立体图像处理方法及装置
CN1969301A (zh) * 2004-06-18 2007-05-23 Igt公司 游戏机用户界面

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110908568A (zh) * 2018-09-18 2020-03-24 网易(杭州)网络有限公司 一种虚拟对象的控制方法和装置
US20220198764A1 (en) * 2020-12-18 2022-06-23 Arkh, Inc. Spatially Aware Environment Relocalization

Also Published As

Publication number Publication date
JP5575645B2 (ja) 2014-08-20
US20200117322A1 (en) 2020-04-16
US20090031240A1 (en) 2009-01-29
CN101810003A (zh) 2010-08-18
US20230110688A1 (en) 2023-04-13
CN103218041A (zh) 2013-07-24
US8726194B2 (en) 2014-05-13
US20140118249A1 (en) 2014-05-01
US8659548B2 (en) 2014-02-25
CN101810003B (zh) 2013-04-10
JP2014149856A (ja) 2014-08-21
US10268339B2 (en) 2019-04-23
US20090027337A1 (en) 2009-01-29
JP6037344B2 (ja) 2016-12-07
JP2016194948A (ja) 2016-11-17
JP6382261B2 (ja) 2018-08-29
US11500514B2 (en) 2022-11-15
CN108399010B (zh) 2021-02-19
US20140331181A1 (en) 2014-11-06
US11960706B2 (en) 2024-04-16
WO2009018161A1 (en) 2009-02-05
US10509536B2 (en) 2019-12-17
JP2010534895A (ja) 2010-11-11

Similar Documents

Publication Publication Date Title
CN101810003B (zh) 增强的基于相机的输入
US10866632B2 (en) Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US11775080B2 (en) User-defined virtual interaction space and manipulation of virtual cameras with vectors
US11875012B2 (en) Throwable interface for augmented reality and virtual reality environments
US20220083880A1 (en) Interactions with virtual objects for machine control
US10331222B2 (en) Gesture recognition techniques
JP6031071B2 (ja) 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
US20200004403A1 (en) Interaction strength using virtual objects for machine control
CN102915112A (zh) 用于近距离动作跟踪的系统和方法
US20150241984A1 (en) Methods and Devices for Natural Human Interfaces and for Man Machine and Machine to Machine Activities
JP2013037675A5 (zh)
Piumsomboon Natural hand interaction for augmented reality.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant