CN104871116B - 信息处理装置、信息处理方法及介质 - Google Patents
信息处理装置、信息处理方法及介质 Download PDFInfo
- Publication number
- CN104871116B CN104871116B CN201380067325.5A CN201380067325A CN104871116B CN 104871116 B CN104871116 B CN 104871116B CN 201380067325 A CN201380067325 A CN 201380067325A CN 104871116 B CN104871116 B CN 104871116B
- Authority
- CN
- China
- Prior art keywords
- objects
- user
- identification
- image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
一种信息处理系统,包括处理电路,该处理电路被配置为响应于对用户启动的操作对象的识别,来控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,识别后位置在空间上与预定显示特征的显示位置有关,该预定显示特征是从摄像机捕获图像得到的图像,其中,靠近模式对于该UI对象和其他UI对象是不统一的,使得不同UI对象的相应靠近速度或相应识别后位置是不同的,其中,第一检测姿势触发该UI对象的移动,并且与第一检测姿势不同的第二检测姿势触发另一UI对象的移动。
Description
技术领域
本公开内容涉及信息处理装置、信息处理方法及程序。
本公开内容包含与2012年12月27日向日本专利局提交的日本优先权专利申请JP2012-285025中公开的主题有关的主题,该日本优先权专利申请的全部内容通过引用并入在本文中。
背景技术
近年来,已经提出了经由来自摄像机的图像来接收用户输入的用户界面(UI)。
作为一个示例,JP 2002-196855A公开了一种方法,该方法将用于UI目的的目标图像叠加在用户的镜像图像所出现的图像上,并且执行与用户手的运动所选择的目标图像关联的应用处理。JP 2005-216061A同时公开了一种方法,该方法通过确定在输入图像中的用户的头和手的位置并且自动地在所确定的位置附近显示目标图像,来消除在使用摄像机图像的UI中进行初始设置(例如设置摄像机角度)的困难。
引用列表
专利文献
PTL 1:JP 2002-196855A
PTL 2:JP 2005-216061A
发明内容
技术问题
然而,在用户的头或手的附近的屏幕区域是有限的。这意味着使用JP 2005-216061A中公开的方法,当在UI中提供大量的可选择对象时,屏幕变得挤满了这些对象,这反过来使得可用性降低。
因此,期望的是实现即使当提供大量可选择对象时也能够避免由于屏幕拥挤而引起可用性降低的改进的UI。
问题的解决方案
根据一个方面,描述了一种信息处理系统,该信息处理系统包括:处理电路,所述处理电路被配置为响应于对用户启动的操作对象的识别来控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,所述识别后位置在空间上与预定显示特征的显示位置有关,其中,所述预定显示特征是从摄像机捕获图像得到的图像,其中,靠近模式对于所述UI对象和其他UI对象是不统一的,使得不同UI对象的相应靠近速度或相应识别后位置是不同的,其中,第一检测姿势触发所述UI对象的移动,并且与第一检测姿势不同的第二检测姿势触发另一UI对象的移动。
根据另一个方面,描述了一种信息处理方法,该信息处理方法包括:使用处理电路响应于对用户启动的操作对象的识别来控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,识别后位置在空间上与预定显示特征的显示位置有关,以及所述预定显示特征是从摄像机捕获图像得到的图像,其中,靠近模式对于所述UI对象和其他UI对象是不统一的,使得不同UI对象的相应靠近速度或相应识别后位置是不同的,其中,第一检测姿势触发所述UI对象的移动,并且与第一检测姿势不同的第二检测姿势触发另一UI对象的移动。
根据又一方面,描述了一种具有计算机可读指令的非暂态计算机可读介质,该计算机可读指令在被处理电路执行时执行方法,该方法包括:使用该处理电路响应于对用户启动的操作对象的识别来控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,识别后位置在空间上与预定显示特征的显示位置有关,以及所述预定显示特征是从摄像机捕获图像得到的图像,其中,靠近模式对于所述UI对象和其他UI对象是不统一的,使得不同UI对象的相应靠近速度或相应识别后位置是不同的,其中,第一检测姿势触发所述UI对象的移动,并且与第一检测姿势不同的第二检测姿势触发另一UI对象的移动。
发明的有益效果
根据本公开内容的以上实施方式,实现了下述UI:该UI即使当提供大量可选择对象时也能够避免由于屏幕的拥挤而引起的可用性降低。
附图说明
[图1]图1是有助于解释根据本公开内容的第一实施方式的信息处理装置的概述的图。
[图2]图2是有助于解释根据本公开内容的第二实施方式的信息处理装置的概述的图。
[图3]图3是示出了根据第一实施方式的信息处理装置的示例硬件配置的框图。
[图4]图4是示出了根据第一实施方式的信息处理装置的逻辑功能的示例配置的框图。
[图5]图5是有助于解释图像识别结果的一个示例的图。
[图6]图6是有助于解释可以被识别的另一姿势的第一示例的图。
[图7]图7是有助于解释可以被识别的另一姿势的第二示例的图。
[图8]图8是有助于解释可以被识别的另一姿势的第三示例的图。
[图9]图9是有助于解释可以被识别的另一姿势的第四示例的图。
[图10]图10是有助于解释可以被识别的另一姿势的第五示例的图。
[图11]图11是有助于解释可以被识别的另一姿势的第六示例的图。
[图12]图12是有助于解释可以被识别的另一姿势的第七示例的图。
[图13]图13是有助于解释UI对象的第一示例的图。
[图14]图14是有助于解释UI对象的第二示例的图。
[图15]图15是有助于解释UI对象朝向用户靠近的模式的第一示例的图。
[图16]图16是有助于解释UI对象朝向用户靠近的模式的第二示例的图。
[图17]图17是有助于解释UI对象朝向用户靠近的模式的第三示例的图。
[图18]图18是有助于解释UI对象朝向用户靠近的模式的第四示例的图。
[图19]图19是有助于解释与在图17中所示的示例对应的优先级数据的示例的图。
[图20]图20是有助于解释与在图18中所示的示例对应的优先级数据的示例的图。
[图21]图21是有助于解释UI对象朝向用户靠近的模式的第五示例的图。
[图22]图22是有助于解释操作事件的第一示例的图。
[图23]图23是有助于解释操作事件的第二示例的图。
[图24]图24是有助于解释操作事件的第三示例和第四示例的图。
[图25]图25是有助于解释操作事件的第五示例的图。
[图26]图26是有助于解释操作事件的第六示例的图。
[图27]图27是有助于解释操作事件的第七示例和第八示例的图。
[图28]图28是有助于解释操作事件的第九示例的图。
[图29]图29是有助于解释包含多个操作对象的操作场景的第一示例的图。
[图30]图30是有助于解释包含多个操作对象的操作场景的第二示例的图。
[图31]图31是有助于解释包含多个操作对象的操作场景的第三示例的图。
[图32]图32是有助于解释输出图像的窗口组成的第一示例的图。
[图33]图33是有助于解释输出图像的窗口组成的第二示例的图。
[图34]图34是示出了根据第一实施方式的处理流程的示例的前半部分流程图。
[图35]图35是示出了根据第一实施方式的处理流程的示例的后半部分流程图。
[图36]图36示出了根据第二实施方式的信息处理装置的示例硬件配置的框图。
[图37]图37是有助于解释在第二实施方式中的操作场景的示例的图。
具体实施方式
在下文中,将参照附图详细地描述本公开内容的优选实施方式。要注意的是,在本说明书和附图中,具有基本上相同的功能和结构的结构元件用相同的附图标记来标示,并且省略了这些结构元件的重复解释。
按以下指示的顺序给出下面的描述。
1.概述
2.第一实施方式
2-1.示例硬件配置
2-2.示例功能配置
2-3.UI对象的靠近模式
2-4.操作事件的各种示例
2-5.多个操作对象的结合
2-6.示例窗口组成
2-7.示例处理流程
3.第二实施方式
4.结论
<1.概述>
首先,将参照图1和图2描述可以应用根据本公开内容的实施方式的技术的信息处理装置的概述。根据本公开内容的实施方式的技术可以应用于使用以下图像的多种装置和系统:在该图像中用户出现,作为用户界面的一部分。作为示例,根据本公开内容的实施方式的技术可以应用于数字家用电器,例如电视装置。根据本公开内容的实施方式的技术也可以应用于终端装置,例如PC(个人计算机)、智能电话、PDA(个人数字助理)或游戏控制台。根据本公开内容的实施方式的技术也可以应用于特殊用途的装置,例如娱乐装置。
图1是有助于解释根据本公开内容的第一实施方式的信息处理装置100的概述的图。如在图1中所示,信息处理装置100是电视装置。信息处理装置100包括摄像机101、麦克风102以及显示器108。摄像机101收集正在看着信息处理装置100的显示器108的用户的图像。麦克风102收集由这样的用户产生的语音样本。显示器108显示由信息处理装置100生成的图像。由显示器108显示的图像除了内容图像之外还可以包括用户界面(UI)。在图1的示例中,用户Ua和Ub正在看着显示器108。在显示器108上,显示UI图像W01。使用由摄像机101收集的收集图像来生成UI图像W01,并且UI图像W01实现了所谓的“镜像图像”显示。多个UI对象Obj叠加在UI图像W01上。用户Ua和Ub可以通过经由使用他们身体的各种姿势操作UI对象Obj来与图像处理装置100进行交互。经由麦克风102输入至信息处理装置100的语音命令也可以用来实现与信息处理装置100的交互。
图2是有助于解释根据本公开内容的第二实施方式的信息处理装置200的概述的图。如在图2中所示,信息处理装置200是平板PC。信息处理装置200包括摄像机201、麦克风202以及显示器208。摄像机201收集正在看着信息处理装置200的显示器208的用户的图像。麦克风202收集由这样的用户产生的语音样本。显示器208显示由信息处理装置200生成的图像。由显示器208显示的图像除了内容图像之外还可以包括用户界面(UI)图像。在图2的示例中,用户Uc正在看着显示器208。在显示器208上,显示UI图像W02。使用由摄像机201收集的收集图像来生成UI图像W02,并且UI图像W02实现了所谓的“镜像图像”显示。多个UI对象Obj也叠加在UI图像W02上。用户Uc可以通过经由使用身体的各种姿势操作UI对象Obj来与图像处理装置200进行交互。
根据现有的方法,由用户操作的UI对象可以自动地布置在图像中用户的头或手的附近。然而,由于在用户的头或手附近的屏幕区域是有限的,因此当提供多个UI对象时,存在着这些UI对象拥挤在用户附近的风险。如果UI对象拥挤在有限的屏幕区域,选择单个UI对象就变得困难,这反过来可以使得可用性降低。由于这个原因,信息处理装置100和信息处理装置200根据在下面部分详细描述的框架来避免这样的可用性降低。
<2.第一实施方式>
<2-1.示例硬件配置>
图3示出了信息处理装置100的示例硬件配置的框图。如在图3中所示,信息处理装置100包括摄像机101、麦克风102、输入设备103、通信接口(I/F)104、存储器105、调谐器106、解码器107、显示器108、扬声器109、远程控制I/F 110、总线111以及处理器112。
(1)摄像机
摄像机101包括图像收集元件,例如CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体),并且收集图像。由摄像机101收集的图像(构成视频的帧)被当作由信息处理装置100处理的输入图像。
(2)麦克风
麦克风102收集由用户产生的语音样本并且生成语音信号。由麦克风102生成的语音信号可以被当作要由信息处理装置100进行语音识别的输入语音。麦克风102可以是全方向的麦克风,或具有固定方向或可变方向的麦克风。
(3)输入设备
输入设备103是由用户使用以直接操作信息处理装置100的设备。作为示例,输入设备103可以包括设置在信息处理装置100的壳体上的按钮、开关、刻度盘等。当检测到用户输入时,输入设备103生成与所检测到的用户输入对应的输入信号。
(4)通信接口
通信I/F 104用作为信息处理装置100与其它装置之间的通信的媒介。通信I/F104支持任意无线通信协议或有线通信协议,并且与其他装置建立通信连接。
(5)存储器
存储器105由存储介质(例如半导体存储器或硬盘驱动器)构成,并且存储由信息处理装置100处理的程序和数据以及内容数据。作为一个示例,由存储器105存储的数据可以包括用于后面描述的图像识别和语音识别的特征数据。要注意的是,在本说明书中描述的一些程序和数据或所有程序和数据可以不由存储器105存储,以及作为替代可以从外部数据源(作为示例,数据服务器、网络存储装置或外部附接的存储器)获取。
(6)调谐器
调谐器106从经由天线(没有示出)接收的广播信号的期望频道上提取内容信号,并且将内容信号解调。调谐器106然后将解调的内容信号输出至解码器107。
(7)解码器
解码器107对来自从调谐器106输入的内容信号的内容数据进行解码。解码器107可以对来自经由通信I/F 104接收的内容信号的内容数据进行解码。内容图像可以基于由解码器107解码的内容数据来生成。
(8)显示器
显示器108具有由LCD(液晶显示屏)、OLED(有机发光二极管)、CRT(阴极射线管)等构成的屏幕,并且显示器108显示由信息处理装置100生成的图像。作为示例,参照图1和图2描述的内容图像和UI图像可以显示在显示器108的屏幕上。
(9)扬声器
扬声器109具有膜片和电路元件例如放大器,并且基于由信息处理装置100生成的输出语音信号来输出音频。扬声器109的音量是可变的。
(10)远程控制接口
远程控制I/F 110是接收从用户使用的远程控制器发送的远程控制信号(红外信号或其他无线信号)的接口。当检测到远程控制信号时,远程控制I/F 110生成与所检测到的远程控制信号对应的输入信号。
(11)总线
总线111使摄像机101、麦克风102、输入设备103、通信I/F 104、存储器105、调谐器106、解码器107、显示器108、扬声器109、远程控制I/F 110以及处理器112互相连接。
(12)处理器
作为示例,处理器112可以是CPU(中央处理单元)或DSP(数字信号处理器)。通过执行存储在存储器105中的程序或在另一存储介质上的程序,处理器112使得信息处理装置100以后面描述的各种方式运行。
<2-2.示例功能配置>
图4是示出了由图3中所示的信息处理装置100的存储器105和处理器112所实现的逻辑功能的示例配置的框图。如在图4中所示,信息处理装置100包括图像获取单元120、语音获取单元130、应用单元140、识别单元150、特征数据库(DB)160、控制单元170以及操作DB180。识别单元150包括图像识别单元152和语音识别单元154。控制单元170包括操作控制单元172和优先级设置单元174。
(1)图像获取单元
图像获取单元120获取由摄像机101收集的图像作为输入图像。输入图像通常是构成用户出现的视频的一系列帧中的单个帧。图像获取单元120然后将所获取的图像输出至识别单元150及控制单元170。
(2)语音获取单元
语音获取单元130获取由麦克风102生成的语音信号作为输入语音。语音获取单元130然后将所获取的输入语音输出至识别单元150。要注意的是,根据本实施方式可以省略输入语音的处理。
(3)应用单元
应用单元140执行信息处理装置100的各种应用功能。作为示例,可以由应用单元140执行电视节目再现功能、电子节目指南显示功能、记录设置功能、内容再现功能、内容搜索功能以及因特网浏览功能。应用单元140将经由应用功能生成的应用图像(应用图像可以包括内容图像)和音频输出至控制单元170。
在本实施方式中,由应用单元140执行的至少一些处理与在UI图像上布置的UI对象关联。可以响应于涉及所关联的UI对象的操作事件来执行这样的处理。可以经由UI对象执行的处理可以包括任意的处理,例如针对电视节目再现功能设置频道和音量,针对电子节目指南显示功能设置频道和时间段,针对内容再现功能选择内容,以及针对内容搜索功能指定搜索关键字并且执行搜索。
(4)图像识别单元
图像识别单元152在从图像获取单元120输入的输入图像中识别用户使用的操作对象。在本实施方式中,操作对象是用户的手。做出指定形状(例如用户的手是展开形状、抓握形状或用手指指示的形状)的用户的手可以被用作操作对象。在其他实施方式中,作为用户的手的替代,用户的脚或由用户持有的已知的实际对象可以被用作操作对象。作为一个示例,图像识别单元152可以通过将从输入图像提取的图像特征值与特征DB160预先存储的操作对象的图像特征值进行匹配来识别输入图像中的手区域。用相同的方式,图像识别单元152可以识别输入图像中的脸区域。
图5是有助于解释图像识别单元152的图像识别结果的一个示例的图。如在图5中所示,用户Ua出现在输入图像W03中。用户Ua面对摄像机101并且举起他的左手。通过匹配图像特征值或通过使用其它已知方法,图像识别单元152能够识别在输入图像W03中的手区域A01和脸区域A02。图像识别单元152然后将示出这样的识别区域在图像中的位置的位置数据输出至控制单元170。
作为一个示例,图像识别单元152可以通过将在输入图像中识别的脸区域的图像部分(脸部图像)与特征DB 160预先存储的已知的脸部图像数据进行匹配来识别用户。作为示例,由图像识别单元152产生的用户识别结果可以用于对UI图像中显示的菜单进行个性化,或者被应用单元140用于推荐内容,以及用于对语音识别进行调整。
在本实施方式中,图像识别单元152也识别在输入图像中出现的用户的姿势。在图5的示例中,图像识别单元152通过监测用户的手区域A01的运动来识别姿势G0。姿势G0是举起手的姿势(“举手”)。要注意的是,在本说明书中,词语“姿势”被认为也包括静态“姿态”(形态),静态“姿态”不包含用户身体的动态运动。识别用户姿势时,图像识别单元152将示出所识别的姿势类型的姿势数据输出至控制单元170。
现在将参照图6至图12描述可以由图像识别单元152识别的姿势的示例。
在图6中,示出了手区域A11。手区域A11以短的间隔被左右挥动。根据用户手的这样的运动,图像识别单元152可以识别姿势G1。姿势G1是挥动手的姿势(“挥动”)。
在图7中,示出了手区域A12。手区域A12在特定的时间长度内在输入图像中基本上是静止的。根据用户手的这样静止的状态,图像识别单元152可以识别姿势G2。姿势G2(“保持不动”)是保持手不动的姿势。
在图8中,示出了手区域A13。在手区域A13中出现的用户手以逆时针方向绕着手腕附近的中心点旋转。根据用户手的这样的运动,图像识别单元152可以识别姿势G3a。姿势G3a(“旋转”)是旋转手的姿势。
在图9中,示出了手区域A14。在手区域A14中出现的用户手是除了食指以外的手指被弯曲的形状,并且手以逆时针方向绕着手腕附近的中心点旋转。根据用户手的这样的运动,图像识别单元152可以识别姿势G3b。姿势G3b(“旋转”)也是旋转手的姿势。
在图10中,示出了手区域A15。在手区域A15中出现的用户的手在运动,以将手腕向右弯曲。根据用户手的这样的运动,图像识别单元152可以识别姿势G4a。姿势G4a(“触摸”)是触摸对象的姿势。
在图11中,示出了手区域A16。在手区域A16中出现的用户的手在运动,以将手腕向前弯曲,同时手处于除了食指以外的所有手指被弯曲的形状。根据用户手的这样的运动,图像识别单元152可以识别姿势G4b。姿势G4b(“触摸”)也是触摸对象的姿势。
在图12中,示出了手区域A17。在手区域A17中出现的用户手从手掌展开的形状改变至手掌闭合的形状。根据用户手的这样的运动,图像识别单元152可以识别姿势G5。姿势G5(“抓握”)也是抓握对象的姿势。
要注意的是,在本文中描述的姿势只是示例。图像识别单元152不需要识别许多这样的姿势,和/或图像识别单元152可以另外地识别其他类型的姿势。
(5)语音识别单元
语音识别单元154基于从语音获取单元130输入的输入语音对用户的语音执行语音识别。如果,例如所执行的应用程序或UI接收语音命令的输入,则语音识别单元154根据用户的语音来识别语音命令,并且将识别的语音命令的标识符输出至应用单元140或控制单元170。
(6)特征DB
特征DB 160预先存储由图像识别单元152在图像识别中使用的图像特征数据。作为一个示例,图像特征数据可以包括用户使用的操作对象(例如手)和用户脸的已知的图像特征值。图像特征数据也可以包括每个用户的脸部图像数据。图像特征数据也可以包括定义要由图像识别单元152识别的姿势的姿势定义数据。特征DB 160也可以预先存储要由语音识别单元154用于语音识别的语音特征数据。
(7)操作控制单元
操作控制单元172通过将至少一个UI对象叠加在输入图像上来生成UI图像,并且在显示器108的屏幕上显示生成的UI图像(与输入图像对应的输出图像)。用于生成UI图像的输入图像可以与要由图像识别单元152用来识别操作对象的输入图像(作为一个示例,具有降低的分辨率的图像可以用于识别操作对象)不同。操作控制单元172然后基于从图像识别单元152输入的操作对象的识别结果来控制至少一个UI对象的显示和操作。
图13是有助于解释UI对象的第一示例的图。在第一示例中,UI对象是应用菜单的菜单项。如在图13中所示,UI图像W04包括UI对象B11至UI对象B16。UI对象B11是用于当再现电视节目时设置音量的菜单项(音量)。UI对象B12是用于设置要再现的频道的菜单项(频道)。UI对象B13是用于启动电子节目指南显示功能的菜单项(TV指南)。UI对象B14是用于启动其他应用程序功能的菜单项(应用程序)。UI对象B15是用于启动因特网浏览功能的菜单项(因特网)。UI对象B16是用于启动信息处理装置100的装置设置功能的菜单项(设置)。这样的菜单项可以分层来定义,作为一个示例,子项“增加音量”以及“减少音量”可以呈现在用于设置音量的菜单项的UI对象B11的下面。如果使用输入图像识别各个用户,则可以显示针对各个用户个性化的一组UI对象。
图14是有助于解释UI对象的第二示例的图。在该第二示例中,UI对象是内容项。如在图14中所示,UI图像W05包括UI对象B21至UI对象B26。UI对象B21至UI对象B26分别表示照相内容的缩略图。要注意的是,UI对象可以是替代照相内容的其他类型的内容项,例如视频内容、音乐内容或文本内容。
如在图13和图14中所示,在操作对象还没有被识别的情况下,操作控制单元172在默认显示位置布置UI对象。默认显示位置可以是被设置为固定的位置,或者可以是根据一些类型的算法而移动(作为一个示例,为了浮动而移动)的位置。操作控制单元172然后使得在操作对象识别之前显示的至少一个UI对象的显示位置在操作对象识别之后朝向用户靠近。操作控制单元172可以使得UI对象的显示位置朝向所识别的操作对象靠近或者朝向与所识别的操作对象不同的用户的身体部分靠近。因此,由于UI对象的位置朝向所识别的操作对象(例如用户的手)移动,所以UI对象的位置在空间上与所识别的操作对象有关。
在某些场景下,UI对象朝向用户靠近的模式是统一的。也就是说,操作控制单元172将要进行靠近的UI对象的靠近速度设置为相同值,使得这样的UI对象都以相同的靠近速度朝向用户靠近。
在另一场景下,UI对象朝向用户靠近的模式是不统一的。也就是说,操作控制单元172将要进行靠近的UI对象的靠近速度设置为不同值,使得UI对象以不同的靠近速度朝向用户靠近。除了(或替代于)靠近速度,UI对象的其他属性可以不统一地来设置。作为示例,这样的其他属性可以包括靠近开始定时、靠近后显示位置(在下文中称为“目标位置”)、显示大小、透明度和深度中至少之一。
作为一个示例,当使得UI对象的显示位置朝向用户靠近时,操作控制单元172可以根据针对相应对象设置的优先级来改变相应对象的靠近模式。这样的优先级由优先级设置单元174根据特定的优先级设置标准来预先设置,并且由操作DB 180存储。优先级设置标准的第一示例是与UI对象的操作历史有关的标准。作为一个示例,针对具有较高操作频率(每特定时间段的过去的操作次数)的UI对象可以将优先级设置为较高,以及针对具有较低操作频率的UI对象可以将优先级设置为较低。针对在过去的较近定时处被操作的UI对象可以将优先级设置为较高。优先级设置标准的第二示例是与用户属性有关的标准。作为一个示例,在多个内容项中,与以下内容项对应的UI对象的优先级可以设置为较高值:该内容项具有基于用户属性根据已知推荐技术计算的高推荐得分。操作控制单元172可以提供给用户用于在多个候选者之间在期望的定时处切换优先级设置标准的UI。这样的UI可以通过任何方法(例如用户姿势或语音命令)来实现。
通常,操作控制单元172设置UI对象的靠近速度和其他属性,以便使用户更容易对具有较高优先级的对象进行操作。更具体地,作为一个示例,操作控制单元172将具有较高优先级的对象朝向用户的靠近速度设置为较高。操作控制单元172也可以将具有较高优先级的对象的靠近开始定时设置为较早。此外,针对具有较高优先级的对象,操作控制单元172可以将目标位置设置为更接近用户,将显示大小设置为更大,将透明度设置为更低或将深度设置为更浅。
无论UI对象朝向用户靠近的模式是统一的还是不统一的,操作控制单元172响应于预先定义的多个操作事件来控制用户对UI对象的操作。操作事件通常包括可以用来完成这样的识别的用户姿势识别以及语音命令识别。至少一个操作事件是新操作对象的识别。新操作对象的识别可以触发UI对象朝向用户靠近。另一操作事件可以触发与UI对象关联的处理的执行(启动)。在本说明书中后面描述了可以在本实施方式中使用的操作事件的一些特定示例。
操作控制单元172也控制经由显示器108对UI图像的显示。作为一个示例,操作控制单元172可以在显示器108的屏幕上显示仅叠加有UI对象的UI图像。可替代地,操作控制单元172可以在屏幕上显示通过结合应用单元140所生成的应用图像和UI图像而生成的单个输出图像。后面描述了可以在本公开内容中使用的输出图像的窗口组成的一些示例。
(8)优先级设置单元
优先级设置单元174根据在前面描述的优先级设置标准来设置每个UI对象的优先级。作为一个示例,根据与UI对象的操作历史有关的优先级设置标准,优先级设置单元174可以将具有较高操作频率的UI对象的优先级设置为较高。此外,根据与用户属性有关的优先级设置标准,优先级设置单元174可以将与具有较高推荐得分的内容项对应的UI对象的优先级设置为较高。优先级设置单元174也可以随机地设置UI对象的优先级以向UI增加令人惊讶的元素。优先级设置单元174可以例如当UI对象已被操作时或者当用户属性已改变时更新优先级数据。
(9)操作DB
操作DB 180存储由操作控制单元172使用以控制UI对象的显示和操作的数据。由操作DB 180存储的数据包括示出了每个UI对象的默认显示位置和其他属性的默认值的对象数据。由操作DB 180存储的数据也可以包括示出了由优先级设置单元174设置的优先级的优先级数据、示出了每个用户的操作历史的操作历史数据、以及示出了每个用户的属性(例如年龄、性别、职业和爱好)的用户数据。
<2-3.UI对象的靠近模式>
这部分将参照图15至图21描述UI对象朝向用户靠近的模式的一些示例。
(1)第一示例
图15是有助于解释UI对象朝向用户靠近的模式的第一示例的图。在该第一示例中,UI对象的靠近模式是统一的。在充分地靠近用户后,各个UI对象从用户附近移开,而不停留在这样的目标位置。
在图15中,沿着时间轴示出了四个UI图像ST11至ST14。
用户Ud出现在UI图像ST11中,并且实现了镜像图像显示。UI对象B11至UI对象B16被布置在默认显示位置。在此假定由于用户Ud举起他的手,图像识别单元152识别姿势G0。
在下一个UI图像ST12中,用户Ud举起他的手。响应于姿势G0的识别,操作控制单元172使得UI对象B11至UI对象B16开始朝向用户Ud靠近(作为一个示例,朝向作为用户Ud的操作对象的手移动)。在UI图像ST12中,UI对象B13被放置在最接近用户Ud的位置。
在下一个UI图像ST13中,UI对象B13返回默认的显示位置,并且替代于UI对象B13,UI对象B12和UI对象B14被放置在用户Ud的手附近。在下一个UI图像ST14中,UI对象B12和UI对象B14返回默认的显示位置,并且替代于UI对象B12和UI对象B14,UI对象B11、B15以及B16被放置在用户Ud的手附近。
根据该靠近模式,用户可以用仅仅移动他的手或臂的简单操作来在UI图像ST12时触摸UI对象B13,在UI图像ST13时触摸UI对象B12和UI对象B14中的任一个,以及在UI图像ST14时触摸UI对象B11、B15及B16中的任一个。在此时,由于在用户附近的屏幕区域没有挤满大量的UI对象,减少了执行错误操作(例如触摸错误的UI对象)的风险。
(2)第二示例
图16是有助于解释UI对象朝向用户靠近的模式的第二示例的图。在该第二示例中,UI对象的靠近模式是不统一的。在充分地靠近用户后,各个UI对象停留在它们的目标位置处。
在图16中,沿着时间轴示出了四个UI图像ST21至ST24。
用户Ud出现在UI图像ST21中并且实现了镜像图像显示。UI对象B11至UI对象B16被布置在默认显示位置。在此假定由于用户Ud举起他的手,图像识别单元152识别姿势G0。
在下一个UI图像ST22中,用户Ud举起他的手。响应于姿势G0的识别,操作控制单元172使得UI对象B11至UI对象B16开始朝向用户Ud靠近。在UI图像ST22中,UI对象B13被放置在最接近用户Ud的位置。
在下一个UI图像ST23中,UI对象B13停留在其目标位置,并且UI对象B12和UI对象B14也到达用户Ud的手附近。在下一个UI图像ST24中,UI对象B12、B13及B14停留在其目标位置,并且UI对象B11、B15及B16也到达用户Ud的手附近。
根据该靠近模式,用户可以用仅仅移动他的手或臂的简单操作来在UI图像ST22时触摸UI对象B13,在UI图像ST23时触摸UI对象B12、B13及B14中的任一个,在UI图像ST24时触摸UI对象B11至UI对象B16中的任一个。特别地,在UI图像ST22和UI图像ST23时,避免了大量的UI对象拥挤在用户附近的屏幕区域。此外,如下面所述,如果使用用于将指定UI对象的显示位置移动远离用户的操作事件,可以在UI对象B11至UI对象B16到达用户附近的情况下减轻在用户附近的屏幕区域的拥挤。
(3)第三示例
图17是有助于解释UI对象朝向用户靠近的模式的第三示例的图。在该第三示例中,UI对象的靠近模式是不统一的,并且操作控制单元172将要进行靠近的UI对象的靠近速度设置为不同值。
在图17中,沿着时间轴示出了三个UI图像ST31至ST33。
用户Ud出现在UI图像ST31中,并且实现了镜像图像显示。UI对象B11至UI对象B16被布置在默认显示位置。在此假定由于用户Ud举起他的手,图像识别单元152识别姿势G0。
在下一个UI图像ST32中,用户Ud举起他的手。响应于姿势G0的识别,操作控制单元172根据由优先级设置单元174设置的优先级来设置UI对象B11至UI对象B16的各自的靠近速度V11至V16。在图17的示例中,假定由优先级设置单元174根据与各个UI对象的操作历史有关的优先级设置标准所设置的优先级被操作控制单元172使用。
图19是有助于解释与图17中的第三示例对应的优先级数据的示例的图。如在图19中所示,优先级数据182a包括三个数据项,即“对象ID”、“操作频率”及“优先级”。“对象ID”是用于唯一地识别每个UI对象的标识符。“操作频率”示出了每个UI对象在每个特定时间段(例如,一周、一天或几小时)中的过去的操作数。“优先级”示出了对每个UI对象设置的优先级。在这里,作为一个示例,以三个等级(即“高”、“中”及“低”)中的一个来设置优先级。在图19的示例中,UI对象B11和UI对象B15的操作频率是第一最高和第二最高,以及因此UI对象B11和UI对象B15的优先级设置为高。UI对象B12的操作频率是第三高,因此UI对象B12的优先级设置为中。剩余的UI对象B13、UI对象B14、UI对象B16的优先级设置为低。
操作控制单元172参考这样的优先级数据182a并且将UI对象B11的靠近速度V11和UI对象B15的靠近速度V15设置为最快速度,将UI对象B12的靠近速度V12设置为次快速度,以及将UI对象B13的靠近速度V13、UI对象B14的靠近速度V14及UI对象B16的靠近速度V16设置为最慢速度。如在图17中所示,在UI图像ST33中,UI对象B11和UI对象B15最早到达用户Ud手的附近。
根据该靠近模式,用户可以快速地操作最频繁操作的UI对象。并且,由于在用户附近的屏幕区域没有变成挤满大量的UI对象,所以减少了执行错误操作(例如触摸错误的UI对象)的风险。
(4)第四示例
图18是有助于解释UI对象朝向用户靠近的模式的第四示例的图。在该第四示例中,UI对象的靠近模式是不统一的,并且操作控制单元172将要进行靠近的UI对象的靠近速度设置为不同值。
在图18中,沿着时间轴示出了三个UI图像ST41至ST43。
用户Ud出现在UI图像ST41中,并且实现了镜像图像显示。UI对象B21至UI对象B26被布置在默认显示位置。在此假定由于用户Ud举起他的手,图像识别单元152识别姿势G0。
在下一个UI图像ST42中,用户Ud举起他的手。响应于姿势G0的识别,操作控制单元172根据由优先级设置单元174设置的优先级来设置UI对象B21至UI对象B26的各自的靠近速度V21至V26。在图18的示例中,假定优先级设置单元174根据与用户属性有关的优先级设置标准所设置的优先级被操作控制单元172使用。
图20是有助于解释与图18中的第四示例对应的优先级数据的示例的图。如在图20中所示,优先级数据182b包括三个数据项,即“对象ID”、“推荐得分”及“优先级”。“对象ID”是用于唯一地识别每个UI对象的标识符。“推荐得分”示出了基于用户的属性和与内容有关的信息所计算(通过任意已知的推荐算法)的推荐得分。“优先级”示出了对每个UI对象设置的优先级。在这里,作为一个示例,假定以三个等级(即“高”、“中”及“低”)中的一个来设置优先级。在图20的示例中,UI对象B21的推荐得分最高,以及因此UI对象B21的优先级设置为高。UI对象B22和UI对象B25的推荐得分是第二高和第三高,以及因此UI对象B22和UI对象B25的优先级设置为中。剩余的UI对象B23、B24及B26的优先级设置为低。
操作控制单元172参考这样的优先级数据182b,并且将UI对象B21的靠近速度V21设置为最快速度,将UI对象B22的靠近速度V22和UI对象B25的靠近速度V25设置为次快速度,以及将UI对象B23的靠近速度V23、UI对象B24的靠近速度V24及UI对象B26的靠近速度V26设置为最慢速度。回到图18,在UI图像ST42中,UI对象B21最早到达用户Ud手的附近。然而,如果UI对象B21(以及下面的UI对象B22、B25)不被用户Ud操作,则在下一个UI图像ST43中,具有较慢靠近速度的UI对象B23、B24及B26可以到达用户Ud的附近。
根据该靠近模式,用户可以快速地操作由推荐算法确定为更适合于这种用户的UI对象。并且,由于在用户附近的屏幕区域没有挤满大量的UI对象,所以减少了执行错误操作(例如触摸错误的UI对象)的风险。
(5)第五示例
图21是有助于解释UI对象朝向用户靠近的模式的第五示例的图。在该第五示例中,UI对象的靠近模式是不统一的,并且操作控制单元172将要进行靠近的UI对象的靠近速度设置为不同值。操作控制单元172还将进行靠近的UI对象的显示大小设置为不同值。
在图21中,沿着时间轴示出了三个UI图像ST51至ST53。
用户Ud出现在UI图像ST51中,并且实现了镜像图像显示。UI对象B11至UI对象B16被布置在默认显示位置。在此假定由于用户Ud举起他的手,图像识别单元152识别姿势G0。
在下一个UI图像ST52中,用户Ud举起他的手。响应于姿势G0的识别,操作控制单元172根据由优先级设置单元174设置的优先级来设置UI对象B11至UI对象B16的各自的靠近速度和显示大小。在图21的示例中,假定使用在图19中示出的优先级数据182a。
操作控制单元172参考这样的优先级数据182a,并且将UI对象B11的靠近速度V11和UI对象B15的靠近速度V15设置为最快速度,将UI对象B12的靠近速度V12设置为次快速度,以及将UI对象B13的靠近速度V13、UI对象B14的靠近速度V14及UI对象B16的靠近速度V16设置为最慢速度。操作控制单元172还将UI对象B11和B15的显示大小设置为最大,将UI对象B12的显示大小设置为次级大,以及将UI对象B13、B14及B16的显示大小设置为最小。
在下一个UI图像ST53中,大部分UI对象已经到达用户Ud手的附近,并且在这些UI对象中,UI对象B11和B15具有比其他UI对象更大的显示大小。
根据该靠近模式,用户可以更快速和更准确地操作具有更高优先级的UI对象。
<2-4.操作事件的各种示例>
在本部分,将参照图22至图28来描述与操作控制单元172的控制有关的操作事件的一些示例。
(1)第一示例
图22是有助于解释操作事件的第一示例的图。在图22中,示出了作为操作对象的用户的手和UI对象B13。根据弯曲手腕的用户手的运动,图像识别单元152可以识别触摸UI对象的姿势G4b。通过比较手区域此时在UI图像中的位置与各个UI对象的显示位置,操作控制单元172可以确定UI对象B13被指定(即,被触摸)。如果在特定的时间长度内手区域的位置与同一UI对象的显示位置重合,则操作控制单元172也可以确定该UI对象被指定。响应于这样的操作事件,操作控制单元172使得应用单元140执行与指定的UI对象B13关联的处理。在图22的示例中,由于UI对象B13是用于启动电子节目指南显示功能的菜单项,因此然后可以通过应用单元140在屏幕上显示电子节目指南。
由于使用这样的操作事件,甚至在遥控器不在手边时用户也能够远程地控制信息处理装置100。在此时,由于用户所需的唯一运动是简单的姿势,所以用户能够在不感到压力的情况下使信息处理装置100执行期望的处理(例如,菜单处理或应用处理)。
要注意的是,与UI对象关联的处理可以是用于UI控制的处理。例如,可以响应于对触摸UI对象的姿势的识别来执行从指定的菜单项打开子菜单项,调用与指定的菜单项对应的设置屏幕等。
(2)第二示例
图23是有助于解释操作事件的第二示例的图。如在图23中所示,在图15中所示的UI图像ST14之后的UI图像ST15中,作为操作对象的用户Ud的左手与UI对象B16重合。当这发生时,操作控制单元172确定UI对象B16被用户Ud指定。此外,假定由用户发出的特定语音命令VR1被语音识别单元154识别。在图23的示例中,语音命令VR1与“开始(Go)!”的语音输入相对应。操作控制单元172使得应用单元140响应于操作事件来执行与指定的UI对象B16关联的处理,其中该操作事件与语音识别单元154对语音命令VR1的识别相对应。
在UI图像ST15中,操作控制单元172将指定UI对象B16的显示属性(例如,纹理、颜色、透明度、显示大小以及深度中至少之一)设置为与其他UI对象不同的属性值。通过将UI对象B16的显示属性设置为与其他UI对象不同,用户可以了解UI对象B16被适当地指定。
在使用这样的操作事件的情况下,即使当遥控器不在手边时用户也可以远程地控制信息处理装置100。在此时,由于用户所需的唯一运动是简单的姿势,这可以减少用户的压力。要注意的是,对于在本部分描述的操作事件的其他示例,可以用语音命令的识别来替代用户姿势的识别。
(3)第三示例和第四示例
图24是有助于解释操作事件的第三示例和第四示例的图。在图24中,也示出了在图16中示出的UI图像ST24以及下面的UI图像ST25和UI图像ST26。在UI图像ST24中,UI对象B11至UI对象B16具有在作为操作对象的用户Ud手的附近以环形布置的显示位置。在这之后,图像识别单元152可以根据在特定时间长度内手在输入图像中基本保持静止的用户手的运动来识别保持手静止的姿势G2。操作控制单元172响应于与姿势G2的识别对应的操作事件来停止UI对象B11至UI对象B16在屏幕上的运动。在下一个UI图像ST25中,也没有更新UI对象B11至UI对象B16的显示位置。
在下一个UI图像ST26中,图像识别单元152可以根据作为操作对象的用户Ud的手进行旋转的运动来识别旋转手的姿势G3a。响应于这样的操作事件,操作控制单元172使UI对象B11至UI对象B16的显示位置绕着图像中的参考点旋转(沿图像中的D1方向)。作为示例,这里提到的参考点可以是手区域的重心,UI对象B11至UI对象B16的中心,或任何其它任意点。
由于使用前面描述的停止UI对象的运动的操作事件,所以当期望的UI对象已经到达适合操作的显示位置时,用户可以停止对象的进一步运动,然后可以准确地操作期望的UI对象。
此外,由于使用前面描述的旋转UI对象的显示位置的操作事件,所以用户可以将已靠近用户附近的UI对象的显示位置移动至更容易处理的位置。替代于响应旋转手的姿势的识别来旋转UI对象的显示位置,可以响应于用户手的运动来平行地移动UI对象的显示位置。注意,替代于图24中的示例所示的所有显示UI对象旋转或移动,可以仅使一些UI对象旋转或移动。作为一个示例,要旋转或移动的至少一个UI对象可以由用户用他的/她的手跟踪UI对象的姿势来指定。
(4)第五示例
图25是有助于解释操作事件的第五示例的图。在图25的上半部分,作为操作对象的用户的手与UI对象B13和UI对象B14一起示出。图像识别单元152可以根据用户的手向左和向右挥动的运动来识别挥动手的姿势G1。通过比较此时手区域在UI图像中的位置与各个UI对象的显示位置,操作控制单元172可以确定UI对象B13被指定。响应于这样的操作事件,操作控制单元172使指定UI对象B13的显示位置远离于用户移动。在图25的下半部分,UI对象B13的显示位置被移动远离用户,并且替代于UI对象B13,UI对象B14靠近用户的手。
由于使用这样的操作事件,即使不需要的UI对象比期望的UI对象更早地靠近用户,用户仍然可以从用户附近的屏幕区域移除不需要的UI对象,从而防止该屏幕区域的拥挤。
(5)第六示例
图26是有助于解释操作事件的第六示例的图。在图26中,沿着时间轴示出了在图21中所示的UI图像ST51和UI图像ST52以及下面的UI图像ST54。
用户Ud出现在UI图像ST51中,并且实现了镜像图像显示。UI对象B11至UI对象B16也被布置在默认显示位置。UI对象B11至UI对象B16是属于预先定义的多个分类中的第一分类的对象。作为一个示例,第一分类是与电视节目再现功能有关的分类。要注意的是,在初始状态,UI对象不需要对于用户可见。例如,在初始状态下,UI对象可以被放置在屏幕外,或者可以是透明的或半透明的。UI对象可以在用户举起他的/她的手的定时处从非活动状态(未显示或半透明的)改变为活动状态(显示的或非透明的)。
在UI图像ST52中,由于用户Ud举起他的手,UI对象B11至UI对象B16开始靠近用户Ud。在UI图像ST52中,图像识别单元152可以根据用户的手向左和向右挥动的运动来识别挥动手的姿势G1。响应于与姿势G1的识别对应的操作事件,操作控制单元172用属于第二分类的UI对象替换布置在UI图像中的对象B11至对象B16。第二分类可以是不同于第一分类的任意分类(例如与内容再现功能有关的分类)。
在UI图像ST54中,对象B11至对象B16被从屏幕移除,并且新的UI对象B31至UI对象B37被布置在屏幕上。
由于使用这样的操作事件,信息处理装置100能够在屏幕上仅显示一些UI对象,而不显示可以在屏幕上显示的所有UI对象候选者。因此,显著缓解了屏幕区域的拥挤。用户也可以经由简单的姿势使此时暂时未显示的期望UI对象显示在屏幕上,以及适当地操作这样的UI对象。
要注意的是,要在UI图像中显示的UI对象的分类的选择可以取决于用户手的形状。例如,可以响应于分别表示数字一至数字五的五种手形的识别,用属于第一分类至第五分类中的任何一种分类的UI对象来替代到目前为止已经显示的UI对象。
此外,姿势G1可以被定义为不是用于切换要显示的UI对象的分类的姿势,而是用于切换用来设置靠近速度的优先级设置标准的姿势。在这种情况下,响应于与姿势G1对应的操作事件,操作控制单元172根据新的优先级设置标准来重设被显示的UI对象中的至少一个的优先级。
(6)第七示例和第八示例
图27是有助于解释操作事件的第七示例和第八示例的图。在图27中,沿着时间轴示出了在图18中示出的UI图像ST42以及下面的UI图像ST44、ST45和ST46。
用户Ud出现在UI图像ST42中,并且举起他的手。UI对象B21至UI对象B26以操作控制单元172分别设置的靠近速度朝向用户Ud靠近。
在下一个UI图像ST44中,图像识别单元152可以根据从手掌展开的形状改变成手闭合的形状的用户手的运动来识别抓握对象的姿势G5。通过比较此时手区域在UI图像中的位置与各个UI对象的显示位置,操作控制单元172可以确定UI对象B25被指定(即,被抓握)。响应于与姿势G5的识别对应的操作事件,操作控制单元172此后使指定UI对象B25的显示位置跟踪手区域的位置(也就是说,使UI对象B25与操作对象一起移动)。
在下一个UI图像ST45中,除指定UI对象B25之外的UI对象被移除。此外,在图像中设置两个屏幕区域R11和R12。作为一个示例,在UI图像中,操作控制单元172可以设置与指定UI对象B25所关联的处理数量相等数量的屏幕区域。作为一个示例,如果UI对象B25是用于照相内容的内容项,则屏幕区域R11可以与启动图像浏览器关联,以及屏幕区域R12可以与发送附加有照相内容的消息关联。
在下一个UI图像ST46中,由于用户手区域向与屏幕区域R12重合的位置运动,UI对象B25的显示位置也向与屏幕区域R12重合的位置移动。响应于与UI对象B25向该特定屏幕区域的运动对应的操作事件,操作控制单元172使得应用单元140执行与UI对象B25关联的处理。在这里,作为一个示例,通过应用单元140启动消息发送功能,并且照相内容可以被附加至新消息。
由于使用这样的操作事件,即使在多种处理与单个UI对象有关的情况下,用户也可以用容易的和直观的操作来启动用于UI对象的期望处理。
(7)第九示例
图28是有助于解释操作事件的第九示例的图。在图28中,沿着时间轴示出了四个UI图像ST61至ST64。
用户Ud出现在UI图像ST61中,并且实现了镜像图像显示。UI对象B11至UI对象B16也被布置在默认显示位置。UI对象B11至UI对象B16是属于预先定义的多个分类中的第一分类的对象。作为一个示例,第一分类是与电视节目再现功能有关的分类。此外,在图像中设置了四个屏幕区域R21至R24。屏幕区域R21至屏幕区域R24可以分别与不同的分类关联。
在UI图像ST62中,由于用户Ud举起她的手,UI对象B11至UI对象B16开始朝向用户Ud接近。用户Ud手的位置与屏幕区域R23重合。假定屏幕区域R23与第一分类关联。
在UI图像ST63中,由于手区域的位置在向下方向上降低,用户Ud手区域的位置与屏幕区域R24重合。假定屏幕区域R24与不同于第一分类的分类关联。响应于与作为操作对象的手在屏幕区域之间的运动对应的操作事件,在UI图像中布置的对象B11至对象B16被以属于另一分类的对象来替换。
在UI图像ST63中,对象B11至对象B16被从屏幕移除,并且新的UI对象B41至UI对象B45被布置在图像上。在下一个UI图像ST64中,UI对象B41至UI对象B45开始朝向用户Ud靠近。
用与在前面描述的第六示例相同的方式,由于使用这样的操作事件,信息处理装置100能够在屏幕上仅显示一些UI对象,而不是显示可以显示的所有UI对象候选者。因此,显著缓解了屏幕区域的拥挤。用户也可以经由仅仅移动手的简单操作来使在当时未显示的期望UI对象显示在屏幕上,以及适当地操作这样的UI对象。
<2-5多个操作对象的结合>
到目前为止主要描述了在输入图像中识别单个操作对象的示例。然而,利用根据本公开内容的技术,可以在输入图像中识别多个操作对象。在本部分,将参照图29至图31来描述包含多个操作对象的一些示例操作场景。
(1)第一示例
图29是有助于解释包含多个操作对象的操作场景的第一示例的图。在该第一示例中,单个用户的左手和右手被识别为单独的操作对象。
在图29中,沿着时间轴示出了四个UI图像ST71至ST74。
用户Ud出现在UI图像ST71中,并且实现了镜像图像显示。UI对象B51至UI对象B58被布置在默认显示位置。假定在本文中UI对象B51至UI对象B58根据分组标准被分成多个组。作为示例,可以根据与在前面描述的优先级、相应菜单项或内容项的类型、或显示位置有关的标准来分组UI对象,或者可以随机地分组UI对象。
在下一个UI图像ST72中,用户Ud举起他的左手,并且手区域A21被识别。响应于针对手区域A21对姿势G0的识别,操作控制单元172使得包括在第一组中的UI对象B53至UI对象B56开始朝向用户Ud靠近。
在下一个UI图像ST73中,用户Ud还举起他的右手,并且手区域A22被识别。响应针对手区域A22对姿势G0的识别,操作控制单元172使得包括在第二组中的UI对象B51、B52、B57及B58开始朝向用户Ud靠近。
在下一个UI图像ST74中,UI对象B53至UI对象B56在用户Ud的左手附近以环形布置,并且UI对象B51、B52、B57及B58在用户Ud的右手附近以环形布置。作为一个示例,响应于用户将他的手合在一起的姿势的识别,操作控制单元172可以通过将这些UI对象的两个环合并来形成单个环。如果手区域位于屏幕的边缘部分,操作控制单元172可以使环的形状变形。
根据该操作场景,用户可以使用双手使大量UI对象靠近用户附近。通过将双手可以到达的区域进行合并所生成的范围比一个手可以到达的区域更宽。这意味着用户可以快速地从附近的大量UI对象中指定期望的UI对象,并且操作该期望的UI对象。
(2)第二示例
图30是有助于解释包含多个操作对象的操作场景的第二示例的图。在该第二示例中,两个用户的手被识别为单独的操作对象。
在图30中,沿着时间轴示出了两个UI图像ST81至UI图像ST82。
用户Ud和用户Ue出现在UI图像ST81中,并且实现了镜像图像显示。还显示了UI对象B61至UI对象B68。用户Ud举起他的左手并且手区域A21被识别。响应于针对手区域A21对姿势G0的识别,UI对象B61至UI对象B68朝向用户Ud靠近。
在下一个UI图像ST82中,用户Ud举起她的右手并且手区域A31被识别。响应于针对手区域A31对姿势G0的识别,操作控制单元172使得UI对象B61、B64、B65和B68开始朝向用户Ue靠近。作为一个示例,UI对象可以根据与每个用户的操作历史或用户属性有关的分组标准被分成多个组。在图30的示例中,尽管UI对象B62、B63、B66和B67包括在意图用于用户Ud的第一组中,但是UI对象B61、B64、B65和B68包括在意图用于用户Ue的第二组中。
在UI图像ST82中,通过将UI对象B61、B64、B65和B68的显示属性(例如,颜色)设置为与其他UI对象不同的属性值,操作控制单元172表示UI对象B61、B64、B65和B68包括在意图用于用户Ue的第二组中。如果两组的目标位置互相干扰,操作控制单元172可以使目标位置移位以消除这样的干扰。
根据该操作场景,可以在多个用户之间共享UI对象。当在多个用户之间共享UI对象时,对于每个用户可以使针对该用户的适当UI对象靠近该用户,从而可以快速地操作期望的UI对象。参照图25描述的操作事件的第五示例可以被定义为将UI对象传递至另一用户的操作事件,可以在这个操作场景中使用这样的操作。
(3)第三示例
图31是有助于解释包含多个操作对象的操作场景的第三示例的图。在该第三示例中,两个用户的手也被识别为单独的操作对象。
在图31中,沿着时间轴示出了在图30中示出的UI图像ST81和下面的UI图像ST83。
用户Ud和用户Ue出现在UI图像ST81中,并且实现了镜像图像显示。还显示了UI对象B61至UI对象B68。用户Ud举起他的左手并且手区域A21被识别。响应于针对手区域A21对姿势G0的识别,UI对象B61至UI对象B68继续朝向用户Ud靠近。
在下一个UI图像ST83中,用户Ue使用她的右手触摸UI对象B65。响应于针对用户Ue右手的手区域A32对姿势G4a的识别,操作控制单元172可以确定UI对象B65被指定。响应于这样的操作事件,操作控制单元172使应用单元140执行与指定的UI对象B65关联的处理。
根据该操作场景,不同的用户可以容易地操作已经朝向给定用户靠近的UI对象。
要注意的是,到目前为止主要描述了UI对象在UI图像中是二维布置的示例。然而,各个UI对象不限于具有二维显示位置,并且可以具有与深度对应的属性。如果信息处理装置100能够使用已知的方法(例如视差)来识别摄像机与操作对象之间距离,操作控制单元172可以基于这样识别的距离来确定哪个UI对象已经被用户指定。
<2-6.示例窗口组成>
图32和图33示出了可以由本实施方式使用的输出图像的窗口组成的示例。在这样的图中,由显示器108显示UI窗口WUI和应用窗口WAPP。UI窗口WUI显示由操作控制单元172生成的UI图像。应用窗口WAPP显示从应用单元140输入的应用图像(例如,内容图像)。在图32的第一示例中,应用窗口WAPP合并在UI窗口WUI的右下角处。在图33的第二示例中,UI窗口WUI与应用窗口WAPP的一部分混合。通过使用这样的窗口组成,作为一个示例,甚至当用户手边没有遥控器时,用户也可以经由UI对象来控制信息处理装置100的功能,同时观看内容图像。
<2-7.示例处理流程>
图34和35中的流程图示出了根据本实施方式的可以由信息处理装置100执行的处理的流程的示例。在本文中描述的处理针对一系列帧中的每个帧进行重复,其中该一系列帧构成摄像机101收集的视频。
如在图34中所示,第一图像获取单元120获取由摄像机101收集的图像作为输入图像(步骤S100)。图像获取单元120然后将所获取的输入图像输出至识别单元150以及控制单元170。
接下来,图像识别单元152对出现在从图像获取单元120输入的输入图像中的操作对象进行识别(步骤S105)。在这里假定操作对象是用户的手。例如,图像识别单元152识别输入图像中的手区域,并且将示出这样识别的手区域的位置的位置数据输出至控制单元170。图像识别单元152也基于手区域的运动来识别用户姿势。此外,也可以由语音识别单元154基于输入语音来识别语音命令。
接下来,操作控制单元172基于从图像识别单元152输入的图像识别结果以及基于根据需要可以从语音识别单元154输入的语音识别结果来确定操作事件(步骤S110)。随后的处理根据在这里确定的操作事件来分支。
在步骤S115中,操作控制单元172确定是否要显示新的一组UI对象(步骤S115)。作为示例,如果UI图像要被重新显示,或者如果已检测到参照图26或图28描述的操作事件,操作控制单元172确定要显示新的一组UI对象。如果在这里确定不显示新的一组UI对象,则保持在先前帧中显示的UI对象,并且处理进行至步骤S120。同时,如果在这里确定要显示新的一组UI对象,则处理进行至步骤S135。
在步骤S120中,操作控制单元172确定UI对象中的任一个是否被选择(步骤S120)。作为一个示例,如果检测到参照图22、图23、图27或图31描述的操作事件,则操作控制单元172确定UI对象已经被选择。如果在这里确定UI对象被选择,处理进行至步骤S125。如果不是,则处理进行至步骤S145。
在步骤S125中,响应于选择UI对象的操作事件,操作控制单元172使得应用单元140执行与选择的UI对象关联的处理(步骤S125)。例如,通过增加所选择的UI对象的操作频率,优先级设置单元174然后更新优先级数据(步骤S130)。在这之后,处理返回至步骤S100。
在步骤S135中,操作控制单元172建立新的一组UI对象(步骤S135)。作为一个示例,操作控制单元172指定属于与先前帧中显示的一组UI对象不同分类的一组UI对象。操作控制单元172然后在默认显示位置布置新的一组中包括的UI对象(步骤S140)。在这之后,处理进行至步骤S145。
在步骤S145中,操作控制单元172确定操作对象是否被重新识别(步骤S145)。作为示例,如果检测到参照图15至图18描述的姿势G0,操作控制单元172确定操作对象被重新识别。在这里,如果确定操作对象被重新识别,处理进行至步骤S150。如果不是,则跳过在步骤S150中的处理。
在步骤S150中,操作控制单元172设置UI对象的靠近速度和其他属性(步骤S150)。作为一个示例,操作控制单元172可以将具有较高优先级的对象朝向用户的靠近速度设置为较高的速度。操作控制单元172也可以将具有较高优先级的对象的显示大小设置为较大的大小。
如图35上部所示,操作控制单元172然后确定UI对象的显示位置是否应被更新(步骤S155)。作为一个示例,如果检测到参照图24描述的姿势G2,操作控制单元172确定显示位置的更新不是必须的。在这里,如果确定UI对象的显示位置应被更新,处理进行至步骤S160。如果不是,则跳过在步骤S160和步骤S165中的处理。
在步骤S160中,操作控制单元172对与特殊事件有关的UI对象的显示位置进行更新(步骤S160)。作为一个示例,如果操作控制单元172检测到参照图25描述的操作事件,则指定的UI对象的显示位置被移动远离用户。此外,如果检测到参照图24描述的姿势G3a,则操作控制单元172旋转UI对象的显示位置。
操作控制单元172然后基于其他UI对象的靠近速度来更新其他UI对象的显示位置(步骤S165)。作为一个示例,具有较快靠近速度的UI对象的显示位置可以被移动得更接近用户。
在这之后,操作控制单元172根据经由到目前为止的处理所决定的显示位置和属性,在输入图像上叠加至少一个UI对象,从而来生成UI图像(步骤S170)。操作控制单元172将包含生成的UI图像的输出图像显示在显示器108的屏幕上(步骤S175)。在这之后,处理返回至步骤S100。
<3.第二实施方式>
如在前面所述,根据本公开内容的实施方式的技术不限于电视装置,并且可以应用于不同类型的装置。由于这个原因,现在将描述根据本公开内容的实施方式的技术被应用到包括因特网的信息处理装置200的示例,作为第二实施方式。如参照图2所述,信息处理装置200是平板PC。
(1)示例硬件配置
图36示出了信息处理装置200的示例硬件配置的框图。如在图36中所示,信息处理装置200包括摄像机201、麦克风202、输入设备203、通信I/F 204、存储器205、显示器208、扬声器209、总线211以及处理器212。
摄像机201包括图像收集元件,例如CCD或CMOS,并且收集图像。由摄像机201收集的图像(构成视频的帧)被当作是由信息处理装置200处理的输入图像。
传感器202可以包括各种传感器,例如测量传感器、加速度传感器以及陀螺仪传感器。由传感器202生成的传感器数据可以由信息处理装置200的应用功能来使用。
输入设备203是由用户使用以直接操作信息处理装置200或对信息处理装置200输入信息的设备。作为一个示例,输入设备203可以包括触摸板、按钮、开关等。当检测到用户输入时,输入设备203生成与所检测到的用户输入对应的输入信号。
通信I/F 204用作为在信息处理装置200与其他装置之间进行通信的媒介。通信I/F 204支持任意无线通信协议或有线通信协议,并且与其他装置建立通信连接。
存储器205由存储介质(例如半导体存储器或硬盘驱动器)构成,并且存储由信息处理装置200处理的程序和数据以及内容数据。要注意的是,一些程序和数据或所有程序和数据可以不由存储器205存储,作为替代,可以从外部数据源(作为示例,数据服务器、网络存储装置或外部附接的存储器)获取。
显示器208具有由LCD、OLED等构成的屏幕,并且显示由信息处理装置200生成的图像。作为一个示例,与在第一实施方式中描述的UI图像相同的UI图像可以显示在显示器208的屏幕上。
扬声器209具有膜片和电路元件例如放大器,并且基于由信息处理装置200生成的输出音频信号来输出音频。扬声器209的音量是可变的。
总线211使摄像机201、麦克风202、输入设备203、通信I/F 204、存储器205、显示器208、扬声器209、以及处理器212互相连接。
作为示例,处理器212可以是CPU或DSP。通过执行存储在存储器205中的程序或在其他存储介质上的程序,用与根据第一实施方式的信息处理装置100的处理器112相同的方式,处理器212使得信息处理装置200以多种方式运行。除了在应用功能上的不同,由信息处理装置200的存储器205和处理器212实现的逻辑功能的配置可以与在图4中所示的信息处理装置100的配置相同。
(2)示例操作场景
图37是有助于解释第二实施方式的操作场景的示例的图。在图37中,沿着时间轴示出了四个输出图像ST91至ST94。在该场景中,各个输出图像由在左半边的因特网浏览器的应用图像WAPP和在右半边的UI图像WUI组成。
在输出图像ST91中,应用图像WAPP包括网页中所写的文本。在图37中,从网页的文本提取的三个关键字“XXX计算机娱乐有限公司”、“游戏台”以及“圣诞节”被矩形框包围。用户Ud出现在UI图像WUI中,并且实现了镜像图像显示。
例如,可以在作为操作对象的用户Ud的手被识别之后显示下一个输出图像ST92。在输出图像ST92中,UI对象B71至UI对象B73被叠加在UI图像上。UI对象B71与关键字“XXX计算机娱乐有限公司”关联。UI对象B72与关键字“游戏台”关联。UI对象B73与关键字“圣诞节”关联。
在下一个输出图像ST93中,用户Ud的手与UI对象B72重合。在UI图像中设置了三个屏幕区R41、R42及R43。屏幕区R41与网络搜索(文本搜索)处理关联。屏幕区R42与图像搜索处理关联。屏幕区R43与影片搜索处理关联。
在下一个输出图像ST94中,UI对象B72移动以便跟踪用户Ud的手的运动,并且移动到与屏幕区R41重合的位置。响应于这样的操作事件,信息处理装置200的操作控制单元172使得应用单元140执行使用对象B72所示的关键字“游戏台”的网络搜索功能。
<4.结论>
到目前为止参照图1至图37详细地描述了本公开内容的实施方式。根据上述实施方式,多个UI对象显示在UI图像中,其中该UI图像显示用户的镜像图像,并且在基于图像识别结果来控制UI对象的操作的UI中,在操作对象(例如用户的手)被识别之前所显示的UI对象的显示位置在该操作对象被识别之后朝向用户靠近。因此,因为在用户附近的有限屏幕区域没有被少量UI对象填满,所以可以避免由于屏幕拥挤引起的可用性的降低。
并且,根据上述实施方式,UI对象朝向用户靠近的模式可以根据针对各个UI对象设置的优先级而变化。因此,用户能够快速地操作具有较高优先级的UI对象(例如,以更高频率操作的UI对象或被确定为适合于用户的UI对象)。
根据上述实施方式,可以实现由用户姿势触发的各种操作事件。因此,甚至当用户没有遥控器或其他物理操作设备时,用户也能够使用靠近用户附近的UI对象来灵活地操作信息设备。
要注意的是,由本公开内容的实施方式所描述的各种装置执行的一系列处理通常使用软件来实现。作为一个示例,构成实现此一系列处理的软件的程序预先存储在存储介质(非暂态介质)上,其中该存储介质被设置在这样的装置的内部或外部。作为一个示例,在执行期间,这样的程序然后被写进RAM(随机存取存储器)并且由处理器例如CPU来执行。
尽管参照附图详细地描述了本公开内容的优选实施方式,但本公开内容的技术范围不限于此。本领域普通技术人员应理解,可以根据设计需求和其他因素进行各种修改、组合、子组合以及替选,只要其在所附权利要求或其等同物的范围内。
此外,本技术也可以被配置如下:
(1)
一种信息处理系统,包括:
处理电路,所述处理电路被配置为
响应于对用户启动的操作对象的识别,控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,所述识别后位置在空间上与预定显示特征的显示位置有关,以及其中,所述预定显示特征是从摄像机捕获图像得到的图像。
(2)
根据(1)所述的信息处理系统,其中,
所述处理电路被配置成根据与所述UI对象有关的参数来改变所述UI对象的靠近模式。
(3)
根据(2)所述的信息处理系统,其中,
所述靠近模式对于显示对象和其他显示对象是不统一的,使得不同显示对象的相应靠近速度是不同的。
(4)
根据(2)所述的信息处理系统,其中,
所述参数是优先级。
(5)根据(4)所述的信息处理系统,其中,所述优先级基于操作频率或推荐。
(6)
根据(2)所述的信息处理系统,其中,
所述靠近模式对于显示对象和其他显示对象是不统一的,使得不同显示对象的相应识别后显示位置是不同的。
(7)
根据(2)所述的信息处理系统,其中,
对于显示对象和另一显示对象的移动的触发条件是不同的。
(8)
根据(7)所述的信息处理系统,其中,
第一检测姿势触发所述显示对象的移动,并且第二检测姿势触发所述另一显示对象的移动。
(9)
根据(7)所述的信息处理系统,其中,
所述显示对象与所述另一显示对象被显示在围绕所述操作对象的环中。
(10)
根据(1)所述的信息处理系统,其中,所述处理电路被配置成控制多个UI对象的移动。
(11)
根据(1)所述的信息处理系统,其中,
对于所述UI对象和不同的UI对象,UI对象的识别后位置是不同的。
(12)
根据(11)所述的信息处理系统,其中,
当所述UI对象被识别为比所述不同的UI对象的优先级更高时,所述识别后位置更接近所述操作对象,以及当所述UI对象被识别为比所述不同的UI对象的优先级更低时,所述识别后位置更远离所述操作对象。
(13)
根据(1)所述的信息处理系统,其中,
所述预定显示特征是所述用户的身体部分。
(14)
根据(1)所述的信息处理系统,其中,
所述预定显示特征是所述操作对象。
(15)
根据(1)所述的信息处理系统,其中,
所述预定显示特征是用户图像的特征。
(16)
根据(1)所述的信息处理系统,其中,
所述预定显示特征是用户动作的特征。
(17)
根据(16)所述的信息处理系统,其中,
所述处理电路也被配置成实现图像识别单元,所述图像识别单元将用户的特征识别为所述操作对象。
(18)
根据(1)所述的信息处理系统,其中,
显示对象的所述识别后位置距所述操作对象的距离比所述识别前位置距所述操作对象的距离更近,使得所述显示对象朝向所述操作对象移动。
(19)
一种信息处理方法,包括:响应于对用户启动的操作对象的识别,使用处理电路来控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,所述识别后位置在空间上与预定显示特征的显示位置有关,以及所述预定显示特征是从摄像机捕获图像得到的图像。
(20)
一种具有计算机可读指令的非暂态计算机可读介质,所述计算机可读指令在被处理电路执行时执行方法,所述方法包括:
响应于对用户启动的操作对象的识别,使用所述处理电路来控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,所述识别后位置在空间上与预定显示特征的显示位置有关,以及所述预定显示特征是从摄像机捕获图像得到的图像。
此外,本技术也可以被配置如下:
(1)
一种信息处理装置,包括:
图像获取单元,所述图像获取获取输入图像;
识别单元,所述识别单元在输入图像中识别由用户使用的操作对象;以及控制单元,所述控制单元在屏幕上显示与所述输入图像对应并且叠加有要由所述用户操作的多个对象的输出图像,以及所述控制单元基于所述操作对象的识别结果来控制所述对象中的至少一个的显示,
其中,所述控制单元使在所述操作对象的识别之前在所述屏幕上显示的多个UI对象的显示位置在所述操作对象的识别之后分别向所述用户靠近。
(2)
根据(1)所述的信息处理装置,其中:
其中,所述控制单元根据针对各个对象设置的优先级来改变各个对象朝向所述用户靠近的模式。
(3)
根据(2)所述的信息处理装置,其中:
所述控制单元设置所述多个对象的靠近速度、靠近开始定时、靠近后显示位置、显示大小、透明度以及深度中的至少一个,以便使所述用户更容易对具有较高优先级的对象进行操作。
(4)
根据(3)所述的信息处理装置,其中:
所述控制单元将具有较高优先级的对象朝向用户的靠近速度设置为较高速度。
(5)
根据(2)至(4)中任一项所述的信息处理装置,还包括:
优先级设置单元,所述优先级设置单元根据与每个对象的操作历史和所述用户的属性中的任一个有关的设置标准,来设置所述多个对象中的每个对象的优先级。
(6)
根据(1)至(5)中任一项所述的信息处理装置,还包括:
应用单元,所述应用单元执行与各个对象关联的处理,
其中,所述控制单元操作为响应于第一事件,使所述应用单元执行与所述操作对象指定的对象关联的处理。
(7)
根据(1)至(6)中任一项所述的信息处理装置,
其中,所述控制单元操作为响应于第二事件,停止在屏幕上所述多个对象的移动。
(8)
根据(7)所述的信息处理装置,其中,
所述控制单元操作为在所述多个对象的移动停止之后响应于第三事件,使所述多个对象的显示位置绕着所述图像中的参考点旋转。
(9)
根据(1)至(8)中任一项所述的信息处理装置,
其中,所述控制单元操作为响应于第四事件,将所述操作对象附近的至少一个对象的显示位置移动远离所述用户。
(10)
根据(1)至(9)中任一项所述的信息处理装置,
其中,所述多个对象属于预先定义的多个分类中的第一分类,以及
其中,所述控制单元操作为响应于第五事件,用属于不同于所述第一分类的第二分类的对象来替换在所述输入图像上叠加的所述多个对象。
(11)
根据(6)至(10)中任一项所述的信息处理装置,
其中,所述操作对象是所述用户的手,以及
其中,所述第一事件是所述识别单元对所述用户的特定姿势的识别。
(12)
根据(6)至(10)中任一项所述的信息处理装置,
其中,所述第一事件是对所述用户发出的特定语音命令的识别。
(13)
根据(6)所述的信息处理装置,
其中,所述控制单元将由所述操作对象指定的对象的显示位置与所述操作对象一起移动,以及
其中,所述第一事件是所述对象移动至特定屏幕区域。
(14)
根据(13)所述的信息处理装置,其中,
其中,所述控制单元在屏幕上设置与所述操作对象指定的对象关联的处理数量相等数量的屏幕区域。
(15)
根据(10)所述的信息处理装置,其中,
其中,所述第一分类和所述第二分类与不同屏幕区域关联,以及
其中,所述第五事件是所述操作对象从与所述第一分类关联的第一屏幕区域移动至与所述第二分类关联的第二屏幕区域。
(16)
根据(1)至(15)中任一项所述的信息处理装置,
其中,所述操作对象是所述用户的右手和左手,以及
其中,所述控制单元操作为在识别所述右手和所述左手中的一个之后,使得所述多个对象中的第一组向所述右手和所述左手中所识别的一个靠近,以及操作为在识别所述右手和所述左手中的另一个之后,使得所述多个对象中的第二组向所述右手和所述左手中所识别的另一个靠近。
(17)
根据(1)至(15)中任一项所述的信息处理装置,
其中,所述操作对象是第一用户的手和第二用户的手,以及
其中,所述控制单元操作为在识别所述第一用户的手之后,使得所述多个对象中的第一组向所述第一用户靠近,以及操作为在识别所述第二用户的手之后,使得所述多个对象中的第二组向所述第二用户靠近。
(18)
根据(6)所述的信息处理装置,其中,
其中,所述控制单元操作为响应于指定至少一个对象的第六事件,使得所述应用单元执行与所指定对象关联的处理,以及
其中,所述第六事件是对另一用户对所指定对象的特定姿势的识别。
(19)
一种由信息处理装置执行的信息处理方法,所述信息处理方法包括:
获取输入图像;
在输入图像中识别由用户使用的操作对象;
在屏幕上显示与所述输入图像对应并且叠加有要由所述用户操作的多个对象的输出对象;以及
使在所述操作对象的识别之前在所述屏幕上显示的多个对象的显示位置在所述操作对象的识别之后分别向所述用户靠近。
(20)
一种程序,所述程序用于使控制信息处理装置的计算机用作为:
图像获取单元,所述图像获取获取输入图像;
识别单元,所述识别单元在输入图像中识别由用户使用的操作对象;以及控制单元,所述控制单元在屏幕上显示与所述输入图像对应并且叠加有要由所述用户操作的多个对象的输出图像,以及所述控制单元基于所述操作对象的识别结果来控制所述对象中的至少一个的显示,
其中,所述控制单元使在所述操作对象的识别之前在所述屏幕上显示的多个对象的显示位置在所述操作对象的识别之后分别向所述用户靠近。
附图标记列表
100、200 信息处理装置
120 图像获取单元
140 应用单元
152 图像识别单元
154 语音识别单元
172 操作控制单元
174 优先级设置单元
Claims (16)
1.一种信息处理系统,包括:
处理电路,所述处理电路被配置为
响应于对用户启动的操作对象的识别,控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,所述识别后位置在空间上与预定显示特征的显示位置有关,以及所述预定显示特征是从摄像机捕获图像得到的图像,
其中,靠近模式对于所述UI对象和其他UI对象是不统一的,使得不同UI对象的相应靠近速度或相应识别后位置是不同的,
其中,第一检测姿势触发所述UI对象的移动,并且与所述第一检测姿势不同的第二检测姿势触发另一UI对象的移动。
2.根据权利要求1所述的信息处理系统,其中,
所述处理电路被配置成根据与所述UI对象有关的参数来改变所述UI对象的靠近模式。
3.根据权利要求2所述的信息处理系统,其中,
所述参数是优先级。
4.根据权利要求3所述的信息处理系统,其中,所述优先级基于操作频率或推荐。
5.根据权利要求1所述的信息处理系统,其中,
所述UI对象与所述另一UI对象被显示在围绕所述操作对象的环中。
6.根据权利要求1所述的信息处理系统,其中,所述处理电路被配置成控制多个UI对象的移动。
7.根据权利要求1所述的信息处理系统,其中,
对于所述UI对象和不同的UI对象,UI对象的识别后位置是不同的。
8.根据权利要求7所述的信息处理系统,其中,
当所述UI对象被识别为比所述不同的UI对象的优先级更高时,所述识别后位置更接近所述操作对象,以及当所述UI对象被识别为比所述不同的UI对象的优先级更低时,所述识别后位置更远离所述操作对象。
9.根据权利要求1所述的信息处理系统,其中,
所述预定显示特征是所述用户的身体部分。
10.根据权利要求1所述的信息处理系统,其中,
所述预定显示特征是所述操作对象。
11.根据权利要求1所述的信息处理系统,其中,
所述预定显示特征是用户图像的特征。
12.根据权利要求1所述的信息处理系统,其中,
所述预定显示特征是用户动作的特征。
13.根据权利要求12所述的信息处理系统,其中,
所述处理电路也被配置成实现图像识别单元,所述图像识别单元将所述用户的特征识别为所述操作对象。
14.根据权利要求1所述的信息处理系统,其中,
所述UI对象的识别后位置距所述操作对象的距离比所述识别前位置距所述操作对象的距离更近,使得所述UI对象朝向所述操作对象移动。
15.一种信息处理方法,包括:
响应于对用户启动的操作对象的识别,使用处理电路来控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,所述识别后位置在空间上与预定显示特征的显示位置有关,以及所述预定显示特征是从摄像机捕获图像得到的图像,
其中,靠近模式对于所述UI对象和其他UI对象是不统一的,使得不同UI对象的相应靠近速度或相应识别后位置是不同的,
其中,第一检测姿势触发所述UI对象的移动,并且与所述第一检测姿势不同的第二检测姿势触发另一UI对象的移动。
16.一种具有计算机可读指令的非暂态计算机可读介质,所述计算机可读指令在被处理电路执行时执行方法,所述方法包括:
响应于对用户启动的操作对象的识别,使用所述处理电路来控制显示屏幕上的UI对象从识别前位置向识别后位置的移动,其中,所述识别后位置在空间上与预定显示特征的显示位置有关,以及所述预定显示特征是从摄像机捕获图像得到的图像,
其中,靠近模式对于所述UI对象和其他UI对象是不统一的,使得不同UI对象的相应靠近速度或相应识别后位置是不同的,
其中,第一检测姿势触发所述UI对象的移动,并且与所述第一检测姿势不同的第二检测姿势触发另一UI对象的移动。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012285025A JP2014127124A (ja) | 2012-12-27 | 2012-12-27 | 情報処理装置、情報処理方法及びプログラム |
JP2012-285025 | 2012-12-27 | ||
PCT/JP2013/006979 WO2014103167A1 (en) | 2012-12-27 | 2013-11-27 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104871116A CN104871116A (zh) | 2015-08-26 |
CN104871116B true CN104871116B (zh) | 2018-02-06 |
Family
ID=49759494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380067325.5A Expired - Fee Related CN104871116B (zh) | 2012-12-27 | 2013-11-27 | 信息处理装置、信息处理方法及介质 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20150253949A1 (zh) |
EP (1) | EP2939084B1 (zh) |
JP (1) | JP2014127124A (zh) |
CN (1) | CN104871116B (zh) |
TW (1) | TW201502955A (zh) |
WO (1) | WO2014103167A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6245610B2 (ja) * | 2014-03-28 | 2017-12-13 | シーシーエス株式会社 | 照明制御電源 |
WO2017001557A1 (en) | 2015-07-02 | 2017-01-05 | Gambro Lundia Ab | Human-shaped graphical element for medical treatment user interfaces |
JP6444345B2 (ja) * | 2016-08-23 | 2018-12-26 | 株式会社コロプラ | 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム |
US10691217B2 (en) * | 2017-04-20 | 2020-06-23 | Fuji Xerox Co., Ltd. | Methods and systems for providing a camera-based graphical user interface |
JP7173024B2 (ja) | 2017-09-29 | 2022-11-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7139902B2 (ja) * | 2018-11-14 | 2022-09-21 | トヨタ自動車株式会社 | 報知装置 |
US11240058B2 (en) * | 2019-03-29 | 2022-02-01 | Qualcomm Incorporated | System and method to view occupant status and manage devices of building |
JP2022064414A (ja) * | 2020-10-14 | 2022-04-26 | 株式会社Donuts | ユーザインタフェース変更推奨方法、ユーザインタフェース変更推奨プログラム、及びユーザインタフェース変更推奨システム |
CN115097995A (zh) * | 2022-06-23 | 2022-09-23 | 京东方科技集团股份有限公司 | 界面交互方法、界面交互装置以及计算机存储介质 |
CN117596418A (zh) * | 2023-10-11 | 2024-02-23 | 书行科技(北京)有限公司 | 直播间ui展示控制方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006235771A (ja) * | 2005-02-23 | 2006-09-07 | Victor Co Of Japan Ltd | 遠隔操作装置 |
CN101566914A (zh) * | 2008-04-22 | 2009-10-28 | 株式会社日立制作所 | 输入装置 |
JP2010020601A (ja) * | 2008-07-11 | 2010-01-28 | Nec Corp | 携帯端末、タッチパネルの項目配置方法およびプログラム |
CN102023799A (zh) * | 2009-09-14 | 2011-04-20 | 索尼公司 | 信息处理装置、显示方法和程序 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0955591A3 (en) * | 1992-04-30 | 2004-05-12 | Apple Computer, Inc. | Method and apparatus for organizing information in a computer system |
JPH09128141A (ja) * | 1995-11-07 | 1997-05-16 | Sony Corp | 制御装置および制御方法 |
JP2002341990A (ja) * | 2001-05-18 | 2002-11-29 | Sharp Corp | 情報処理装置,情報処理装置の制御プログラム,同制御プログラムを格納した記憶媒体 |
JP3847753B2 (ja) * | 2004-01-30 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
JP2007079641A (ja) * | 2005-09-09 | 2007-03-29 | Canon Inc | 情報処理装置及び情報処理方法及びプログラム及び記憶媒体 |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
JP5256109B2 (ja) * | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
US9405456B2 (en) * | 2009-06-08 | 2016-08-02 | Xerox Corporation | Manipulation of displayed objects by virtual magnetism |
US20110107216A1 (en) * | 2009-11-03 | 2011-05-05 | Qualcomm Incorporated | Gesture-based user interface |
US9977472B2 (en) * | 2010-03-19 | 2018-05-22 | Nokia Technologies Oy | Method and apparatus for displaying relative motion of objects on graphical user interface |
JP5501992B2 (ja) * | 2010-05-28 | 2014-05-28 | パナソニック株式会社 | 情報端末、画面部品表示方法、プログラム、及び記録媒体 |
US8593418B2 (en) * | 2010-08-08 | 2013-11-26 | Qualcomm Incorporated | Method and system for adjusting display content |
KR101252169B1 (ko) * | 2011-05-27 | 2013-04-05 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
CN104508599A (zh) * | 2012-07-13 | 2015-04-08 | 株式会社果汁 | 要素选择装置、要素选择方法、及程序 |
US9589538B2 (en) * | 2012-10-17 | 2017-03-07 | Perceptive Pixel, Inc. | Controlling virtual objects |
-
2012
- 2012-12-27 JP JP2012285025A patent/JP2014127124A/ja active Pending
-
2013
- 2013-11-27 CN CN201380067325.5A patent/CN104871116B/zh not_active Expired - Fee Related
- 2013-11-27 WO PCT/JP2013/006979 patent/WO2014103167A1/en active Application Filing
- 2013-11-27 EP EP13803276.8A patent/EP2939084B1/en active Active
- 2013-11-27 US US14/433,909 patent/US20150253949A1/en not_active Abandoned
- 2013-12-19 TW TW102147234A patent/TW201502955A/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006235771A (ja) * | 2005-02-23 | 2006-09-07 | Victor Co Of Japan Ltd | 遠隔操作装置 |
CN101566914A (zh) * | 2008-04-22 | 2009-10-28 | 株式会社日立制作所 | 输入装置 |
JP2010020601A (ja) * | 2008-07-11 | 2010-01-28 | Nec Corp | 携帯端末、タッチパネルの項目配置方法およびプログラム |
CN102023799A (zh) * | 2009-09-14 | 2011-04-20 | 索尼公司 | 信息处理装置、显示方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
TW201502955A (zh) | 2015-01-16 |
EP2939084B1 (en) | 2020-04-08 |
WO2014103167A1 (en) | 2014-07-03 |
US20150253949A1 (en) | 2015-09-10 |
JP2014127124A (ja) | 2014-07-07 |
CN104871116A (zh) | 2015-08-26 |
EP2939084A1 (en) | 2015-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104871116B (zh) | 信息处理装置、信息处理方法及介质 | |
CN106502638B (zh) | 用于提供视听反馈的设备、方法和图形用户界面 | |
TWI685816B (zh) | 圖像處理方法和相關的圖像處理裝置 | |
CN108021305A (zh) | 应用关联启动的方法、装置及移动终端 | |
US10182141B2 (en) | Apparatus and method for providing transitions between screens | |
CN104350446A (zh) | 上下文用户界面 | |
TW201331825A (zh) | 用以在螢幕間提供視覺過渡之裝置及方法 | |
US20140362002A1 (en) | Display control device, display control method, and computer program product | |
TWI496106B (zh) | 界面顯示系統與方法 | |
EP2710455A2 (en) | Method and apparatus for providing quick access to device functionality | |
CN107643828A (zh) | 对车辆中的用户行为进行识别和响应的方法和系统 | |
CN110456953A (zh) | 文件夹界面切换方法及终端设备 | |
CN108519851A (zh) | 一种界面切换方法及移动终端 | |
CN106780685A (zh) | 一种动态图片的生成方法及终端 | |
CN108763317A (zh) | 一种辅助选取图片的方法和终端设备 | |
CN104238741A (zh) | 包括径向布局软键区的用户接口 | |
CN110069188A (zh) | 标识显示方法及终端设备 | |
CN106796810A (zh) | 在用户界面上从视频选择帧 | |
CN107357515A (zh) | 多应用程序画面同时呈现的方法及其系统 | |
CN110045890A (zh) | 应用标识的显示方法及终端设备 | |
CN108388354A (zh) | 一种输入法候选区域的显示方法和移动终端 | |
CN108509108A (zh) | 一种应用程序图标排列方法及移动终端 | |
CN107943359A (zh) | 一种应用程序的控制的方法、终端及计算机可读介质 | |
CN108170329A (zh) | 一种显示控制方法及终端设备 | |
CN110442277A (zh) | 显示预览窗口信息的方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180206 Termination date: 20211127 |