CN104040474B - 信息处理设备、信息处理方法以及记录介质 - Google Patents
信息处理设备、信息处理方法以及记录介质 Download PDFInfo
- Publication number
- CN104040474B CN104040474B CN201380004826.9A CN201380004826A CN104040474B CN 104040474 B CN104040474 B CN 104040474B CN 201380004826 A CN201380004826 A CN 201380004826A CN 104040474 B CN104040474 B CN 104040474B
- Authority
- CN
- China
- Prior art keywords
- user
- unit
- display
- screen
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种信息处理设备,可以包括控制单元,该控制单元通过检测从设备的外部输入至设备的至少一个信息信号,基于对于(i)用户的位置变化以及(ii)用户的状态的确定来控制用户接口,其中,该控制单元基于用户的位置和用户的状态,将显示单元的显示屏划分为供用户使用的一个或更多个区域。
Description
相关申请的交叉引用
本申请要求于2012年1月13日提交日本专利局的日本专利申请JP2012-005551的优先权,其全部内容通过引用合并到本文中。
技术领域
本公开内容涉及具有还用作为输入单元的显示屏(诸如触摸板)的信息处理设备、信息处理方法及计算机程序,更具体地,涉及包括大屏幕的信息处理设备、信息处理方法及计算机程序,该大屏幕能够被多个用户共享,并且使得多个用户能够通过触摸板的操作执行协同动作。
背景技术
近年来,具有还用作为输入单元的显示屏(诸如触摸板)的平板终端迅速普及。由于使用窗口小部件或桌面作为接口能够容易地在视觉上看到平板终端的操作方法,所以平板终端能够比通过使用键盘或鼠标进行输入操作的个人计算机更方便用户使用。
已经提出了如下触敏装置:其从多点感测装置(诸如多点触摸屏)读取基于与该多点感测装置相关联的触摸输入的数据,并且基于从多点感测装置读取的数据来识别多点手势(例如,参见PTL 1)。
通常,在平板终端的屏幕上以各种取向布置有用户要操作的多个对象。要操作的单独对象可以包括再现内容(如运动图像或静止图像)、从另一用户接收的电子邮件或消息等。为了正好面对用户来显示期望的要操作的对象,用户需要单独地旋转地操作平板终端主体。例如,可以容易地旋转操作具有A4或A5尺寸的平板终端。然而,当平板终端具有几十英寸的大屏幕时,对于单个用户来说当操作对象时难以旋转地操作平板终端。
可以考虑多个用户同时对具有大屏幕的平板终端中的单独对象进行操作的使用形式。
例如,已经提出了如下平板终端:当通过使用接近传感器检测到在终端的侧边缘中用户存在的位置时,识别用户的右臂与左臂之间的区域,并且将该区域映射到用户的触摸点区域上(例如,参见NPL 1)。当检测到多个用户时,通过设置用户对每个对象的各自操作权限或通过事先阻止用户的额外参与,平板终端禁止用户操作由另一用户操作的对象,以便旋转该对象以正好面对该用户。
作为由多个用户共享具有大屏幕的平板终端的使用形式,除了如上所述用户各自操作要操作的对象的情况以外,还可以考虑用户交换要操作的对象并且执行协同动作的情况。当设置由用户占用的触摸点区域,并且在每个区域中由用户操作给定操作权限的对象时,难以实现协同动作。
当显示在终端的屏幕上的GUI固定而不取决于用户与屏幕之间的距离或用户状态时,存在如下问题:用户可能位于很远,但是显示在屏幕上的信息太细密而不能使该信息被很好地理解,或用户可能位于附近,而小量的信息显示在屏幕上。类似地,当使得用户能够操作终端的输入单元固定而不取决于用户与屏幕之间的距离或用户状态时,存在如下问题:用户可能位于附近但没有用于操作终端的遥控器,或用户为了操作触摸板而需要接近终端。
在根据相关技术的对象显示系统中,在不考虑对象的实际尺寸信息的情况下,在屏幕上显示实际存在的对象的图像。因此,存在如下问题:要显示的对象的尺寸取决于屏幕的尺寸或分辨率(dpi)而变化。
在显示系统中,当在屏幕上以并列或重叠方式同时显示多个源的图像内容时,同时显示的图像的尺寸关系不正确,并且图像的相应区域的尺寸或位置全部不同,因此用户难以识别图像。
当具有旋转机制的终端中的屏幕的方向变化时,对用户来说难以识别图像,因此需要旋转显示屏。
引用列表
专利文献
PTL 1 JP-A-2010-170573
非专利文献
NPL 1:http://www.autodeskresearch.com/publications/medusa(2011年12月15日)概要
发明内容
技术问题
期望提供包括大屏幕的信息处理设备、信息处理方法及计算机程序,该大屏幕能够被多个用户共享,并且可以使得多个用户通过触摸板的操作适当地执行协同动作。
也期望提供不管用户位置或用户状态而对用户操作给出高度便利性的信息处理设备、信息处理方法及计算机程序。
也期望提供能够在不取决于实际对象的尺寸或屏幕的尺寸或分辨率的情况下在屏幕上以适当的尺寸正常显示对象的图像的信息处理设备、信息处理方法及计算机程序。
也期望提供能够在屏幕上以并列或重叠方式适当地同时显示多个源的图像内容的信息处理设备、信息处理方法及计算机程序。
也期望提供能够在任何旋转角度或者在旋转其主体时在其变化过程中最佳地调整图像内容的显示形式的信息处理设备、信息处理方法及计算机程序。
问题的解决方案
根据本公开内容的一个实施方式,一种信息处理设备可以包括控制单元,该控制单元通过检测从设备的外部输入至该设备的至少一个信息信号,基于对于(i)用户的位置变化以及(ii)用户的状态的确定来控制用户接口,其中,该控制单元基于用户的位置和用户的状态,将显示单元的显示屏划分为供用户使用的一个或更多个区域。
根据本公开内容的一个实施方式,一种信息处理方法可以包括由处理器通过检测从信息处理设备的外部输入至该信息处理设备的至少一个信息信号,基于对于(i)用户的位置变化以及(ii)用户的状态的确定来控制用户接口,其中,基于用户的位置和用户的状态,将显示单元的显示屏划分为供用户使用的一个或更多个区域。
根据本公开内容的一个实施方式,一种记录有程序的非暂态记录介质,该程序在被计算机执行时使得计算机执行一种方法,该方法包括:通过检测从信息处理设备的外部输入至该信息处理设备的至少一个信息信号,基于对于(i)用户的位置变化以及(ii)用户的状态的确定来控制用户接口,其中,基于用户的位置和用户的状态,将显示单元的显示屏划分为供用户使用的一个或更多个区域。
根据本公开内容的实施方式的计算机程序定义了以计算机可读格式描述的以便于在计算机上实现预定处理的计算机程序。换句话说,通过将根据本公开内容的实施方式的计算机程序安装在计算机中,在计算机上进行协同动作,以实现与根据本公开内容的其他实施方式的信息处理设备相同的操作优点。
有益效果
根据本公开内容的实施方式,可以提供包括大屏幕的信息处理设备、信息处理方法以及计算机程序,该大屏幕可以被多个用户共享,并且可以允许多个用户通过触摸板的操作适当地进行协同动作。
根据本公开内容的实施方式,可以提供通过取决于用户位置或用户状态优化显示GUI或输入单元来对用户给予高便利性的信息处理设备、信息处理方法以及计算机程序。
根据本公开内容的实施方式,可以提供在不取决于实际对象的尺寸或屏幕的尺寸或分辨率的情况下,一般能够在屏幕上以适当的尺寸显示对象的图像的信息处理设备、信息处理方法以及计算机程序。
根据本公开内容的实施方式,可以提供能够提供以下屏幕的信息处理设备、信息处理方法以及计算机程序,该屏幕能够被用户容易地识别,并且在该屏幕中,当在屏幕上以并列或重叠方式同时显示多个源的图像内容时通过执行图像归一化处理而将图像的相应区域的尺寸或位置相互匹配。
根据本公开内容的实施方式,可以提供能够在任何旋转角度或者在旋转其主体时在其变化过程中最佳地调整图像内容的显示形式的信息处理设备、信息处理方法以及计算机程序。
根据下文要描述的实施方式或参照附图的详细描述,本公开内容的其他要求、特征或优点将变得明显。
附图说明
[图1]图1是示出了具有大屏幕的信息处理设备的使用形式的示例(墙面)的图。
[图2]图2是示出了具有大屏幕的信息处理设备的使用形式的另一示例(桌面)的图。
[图3A]图3A是示出了具有大屏幕的信息处理设备的使用形式的又一示例的图。
[图3B]图3B是示出了具有大屏幕的信息处理设备的使用形式的又一示例的图。
[图3C]图3C是示出了具有大屏幕的信息处理设备的使用形式的又一示例的图。
[图4]图4是示意性示出了信息处理设备的功能配置的图。
[图5]图5是示出了输入接口单元的内部配置的图。
[图6]图6是示出了输出接口单元的内部配置的图。
[图7]图7是示出了对要操作的对象进行处理的操作单元的内部配置的图。
[图8]图8是示出了在屏幕上设置用户占用区域的状态的图。
[图9A]图9A是示出了在设置用户占用区域A之前将要操作的相应对象#1至#6随机定向的状态的图。
[图9B]图9B是示出了通过设置用户A的用户占用区域A将要操作的对象#1至#6变成正好面对用户A的状态的图。
[图10]图10是示出了通过检测除了用户A以外的用户B的存在,来在屏幕上额外设置共用区域和用户B的用户占用区域B的状态的图。
[图11]图11是示出了通过检测除了用户A和用户B以外的用户D的存在,来在屏幕上额外设置共用区域和用户D的用户占用区域D的状态的图。
[图12]图12是示出了通过检测除了用户A、用户B和用户D以外的用户C的存在,来在屏幕上额外设置共用区域和用户C的用户占用区域C的状态的图。
[图13A]图13A是示出了用于基于屏幕的形状或尺寸以及用户数量将屏幕划分成相应用户的用户占用区域的区域划分模式的图。
[图13B]图13B是示出了用于基于屏幕的形状或尺寸以及用户数量将屏幕划分成相应用户的用户占用区域的区域划分模式的图。
[图13C]图13C是示出了用于基于屏幕的形状或尺寸以及用户数量将屏幕划分成相应用户的用户占用区域的区域划分模式的图。
[图13D]图13D是示出了用于基于屏幕的形状或尺寸以及用户数量将屏幕划分成相应用户的用户占用区域的区域划分模式的图。
[图13E]图13E是示出了用于基于屏幕的形状或尺寸以及用户数量将屏幕划分成相应用户的用户占用区域的区域划分模式的图。
[图14]图14是示出了由监视器区域划分单元执行的监视器区域划分处理的流程的流程图。
[图15]图15是示出了通过将对象拖动或抛掷到用户占用区域中,来将要操作的对象自动旋转成正好面对用户的状态的图。
[图16A]图16A是示出了将新出现在用户占用区域中的对象自动旋转成正好面对用户的状态的图。
[图16B]图16B是示出了将新出现在用户占用区域中的对象自动旋转成正好面对用户的状态的图。
[图17]图17是示出了由对象优化单元执行的对象优化处理的流程的流程图。
[图18]图18是示出了取决于用户触摸对象的位置来控制旋转方向的状态的图。
[图19]图19是示出了取决于用户触摸对象的位置来控制旋转方向的状态的图。
[图20]图20是示出了在信息处理设备与由用户携带的终端之间交换对象的交互的示例的图。
[图21]图21是示出了由装置交互数据发送和接收单元执行的装置交互数据发送和接收处理的流程的流程图。
[图22]图22是示出了将要操作的对象在用户占用区域之间移动以拷贝对象的状态的图。
[图23]图23是示出了取决于到用户的距离来执行优化处理的操作单元的内部配置的图。
[图24A]图24A是示出了表格的图,在该表格中设置了基于用户位置和用户状态由显示GUI优化单元执行的GUI显示优化处理。
[图24B]图24B是示出了信息处理设备的屏幕基于用户位置和用户状态的变化的图。
[图24C]图24C是示出了信息处理设备的屏幕基于用户位置和用户状态的变化的图。
[图24D]图24D是示出了信息处理设备的屏幕基于用户位置和用户状态的变化的图。
[图24E]图24E是示出了信息处理设备的屏幕基于用户位置和用户状态的变化的图。
[图25A]图25A是示出了用于随机显示要操作的各种对象以及自动变换对象的屏幕的显示示例的图。
[图25B]图25B是示出了要自动变换的多个对象的显示位置或尺寸时刻改变的屏幕的显示示例的图。
[图26]图26是示出了在用户看电视但不操作电视的状态下的屏幕的显示示例的图。
[图27A]图27A是示出了在用户正在操作电视的状态下的屏幕的显示示例的图。
[图27B]图27B是示出了在用户正在操作电视的状态下的屏幕的显示示例的图。
[图28]图28示出了表格的图,在该表格中设置了基于用户位置和用户状态由输入单元优化单元执行的输入单元优化处理。
[图29]图29是表格的图,在该表格中设置了基于用户位置由距离检测模式切换单元执行的距离检测模式切换处理。
[图30]图30是示出了根据相关技术的对象显示系统的问题的图。
[图31]图31是示出了根据相关技术的对象显示系统的问题的图。
[图32]图32是示出了执行与监视器性能对应的对象实际尺寸显示处理的操作单元的内部配置的图。
[图33]图33是示出了在具有不同监视器规格的屏幕上以实际尺寸显示同一对象的图像的示例的图。
[图34]图34是示出了在同一屏幕上以正确的相互尺寸关系显示具有不同实际尺寸的两个对象的图像的示例的图。
[图35]图35是示出了以实际尺寸显示对象的图像的示例的图。
[图36]图36是示出了以实际尺寸显示的对象的图像被旋转或在姿态方面被改变的示例的图。
[图37A]图37A是示出了估计主题的实际尺寸信息的状态的图。
[图37B]图37B是示出了基于所估计的主题的实际尺寸信息来执行对象实际尺寸显示处理的状态的图。
[图38A]图38A是示出了相互视频聊天的用户的面部尺寸或位置全部不同的状态的图。
[图38B]图38B是示出了通过对多个图像的归一化处理将相互视频聊天的用户的面部尺寸或位置相互匹配的状态的图。
[图39A]图39A是示出了并列显示在屏幕上的用户的体形的尺寸或位置与指导者的体形的尺寸或位置不相互匹配的状态的图。
[图39B]图39B是示出了通过对多个图像的归一化处理,将并列显示在屏幕上的用户的体形的尺寸或位置与指导者的体形的尺寸或位置相互匹配的状态的图。
[图39C]图39C是示出了通过对多个图像的归一化处理而归一化的用户的体形被显示为与指导者的体形重叠的状态的图。
[图40A]图40A是示出了产品的样品图像没有以正确的尺寸关系在适当位置处与用户的图像重叠的状态的图。
[图40B]图40B是示出了产品的样品图像以正确的尺寸关系在适当位置处与用户的图像重叠的状态的图。
[图41]图41是示出了执行图像归一化处理的操作单元的内部配置的图。
[图42]图42是示出了图像内容的整个区域被显示为不在任何旋转角度覆盖图像内容的显示形式的图。
[图43]图43是示出了在任何旋转角度将图像内容中的感兴趣区域最大化的显示形式的图。
[图44]图44是示出了旋转图像内容以便不显示无效区域的显示形式的图。
[图45]图45是示出了关于图42至图44示出的显示形式中的旋转位置的图像内容的缩放比的关系的图。
[图46]图46是示出了当旋转信息处理设备时在操作单元中控制图像内容的显示形式的处理的流程的流程图。
[图47]图47是示出了操作单元的内部配置的图,该操作单元在信息处理设备主体的任何旋转角度或者在其转变过程中执行调整图像内容的显示形式的处理。
具体实施方式
在下文中,将参照附图详细描述本公开内容的实施方式。
A.系统配置
根据一种实施方式的信息处理设备100具有大屏幕,并且可以将如图1所示的悬挂在墙上的“墙面”形式和如图2所示的安装在桌子上的“桌面”形式考虑为信息处理设备的主要使用形式。
在图1中示出的“墙面”形式中,通过使用例如旋转和附接机制单元180将信息处理设备100旋转且可拆卸地附接至墙。旋转和附接机制单元180还用作信息处理设备100与其外部之间的电接触,电源电缆或网络电缆(在图中未示出两者)通过旋转和附接机制单元180连接至信息处理设备100,并且信息处理设备100可以从商用交流电源接收驱动电力,并且能够访问因特网上的各种服务器。
如下文将描述的,信息处理设备100包括距离传感器、接近传感器和触摸传感器,并且能够获取正好面对屏幕的用户位置(距离和方向)。当检测到用户时或在正在检测用户的状态下,可以在屏幕上表达波状检测指示符(下文将描述)或表示检测状态的照明,以给用户视觉反馈。
信息处理设备100基于用户位置自动选择最佳交互。例如,信息处理设备100基于用户位置自动选择或调整GUI(图形用户接口)显示,诸如要操作的对象的构架和信息密度。信息处理设备100可以基于用户位置或到用户的距离,从多个输入单元(诸如具有屏幕的触摸输入、接近输入、使用手等的手势、遥控器以及基于用户状态的间接操作)中自动选择一个输入单元。
信息处理设备100包括一个或更多个摄像机,并且除了用户位置以外还可以根据使用摄像机捕捉的图像来识别人、对象或装置。信息处理设备100包括极近距离通信单元,并且还可以直接且自然地向极近距离内的附近用户所携带的装置发送数据和从极近距离内的附近用户所携带的装置接收数据。
在墙面形式的大屏幕上,定义了由用户操作的对象。要操作的每个对象具有功能模块(如运动图像、静止图像、文本内容、因特网网站、应用或窗口小部件)的特定显示区域。要操作的对象包括电视广播的接收内容、来自记录介质的再现内容、通过网络获取的流视频、以及从另一设备(如用户携带的移动终端)输入的运动图像和静止图像。
如图1所示,当悬挂在墙上的信息处理设备100的旋转位置被设置成水平放置大屏幕时,可以几乎以电影中显示的视野将图像显示为具有与整个屏幕相对应的尺寸的对象。
在此,如图3A所示,当悬挂在墙上的信息处理设备100的旋转位置被设置成竖直放置大屏幕时,可以竖直地布置具有16:9的宽高比的三个屏幕。例如,可以同时布置和显示三种内容#1至#3:同时从不同的广播站接收的广播内容、来自记录介质的再现内容以及网络上的流视频。当用户使用例如指尖竖直操作屏幕时,如图3B所示,竖直地滚动相应的内容。当用户使用指尖水平地操作三级中的任何地方时,如图3C所示,水平地滚动相应级的屏幕。
另一方面,在图2中示出的“桌面”形式中,将信息处理设备100直接安装在桌子上。在图1中示出的使用形式中,旋转和附接机制单元180也用作电接触(如上所述)。然而,在如图2所示信息处理设备100安装在桌子上的状态下,与信息处理设备100的电接触是不可见的。因此,在图中示出的桌面形式中,信息处理设备100可以被构造成以内置电池而不使用电源来操作。当信息处理设备100包括与无线LAN(局域网)的移动站的功能相对应的无线通信单元,并且旋转和附接机制单元180包括与无线LAN的接入点的功能相对应的无线通信单元时,信息处理设备100可以通过与旋转和附接机制单元180(甚至在桌面形式中其作为接入点)的无线通信来访问因特网上的各种服务器。
在桌面形式的大屏幕上,定义了要操作的多个对象。要操作的每个对象具有功能模块(如运动图像、静止图像、文本内容、因特网网站、应用或窗口小部件)的特定显示区域。
信息处理设备100包括在大屏幕的四个边缘中的每个边缘处检测用户的存在或状态的接近传感器。如上所述,接近大屏幕的用户可以被使用摄像机成像,并且可以被识别为人。极近距离通信单元检测被检测到存在的用户是否携带诸如移动终端的装置,或检测来自用户所携带的终端的数据发送和接收请求。当用户或由用户携带的终端被检测到时,或在正在检测用户的状态下,可以在屏幕上表达波状检测指示符或表示检测状态的照明(下文将描述),以给用户视觉反馈。
当通过使用接近传感器等检测用户的存在时,信息处理设备100使用检测结果来执行UI控制。当除了检测到用户的存在以外还检测到躯干、手或腿、用户的头的位置等时,检测结果可以用于更详细的UI控制。信息处理设备100包括极近距离通信单元,并且还可以直接且自然地向极近距离内的附近用户发送数据和从极近距离内的附近用户接收数据。
在此,作为UI控制的示例,信息处理设备100取决于所检测的用户的布置,来在大屏幕中设置每个用户的用户占用区域以及由用户共享的共用区域。检测每个用户在用户占用区域和共用区域中的触摸传感器输入。屏幕的形状以及区域被划分的模式不限于矩形形状,而是可以具有以下形状:如正方形形状、环形形状以及包括立体形状(如圆锥形状)的形状。
当信息处理设备100的屏幕在尺寸上增大时,在桌面形式中产生使得多个用户可以同时输入触摸的空间余量(margin of space)。如上所述,通过在屏幕中设置共用区域和用户的用户占用区域,多个用户可以舒适且有效地享受同时操作。
将放置在用户占用区域中的对象的操作权限给予相应的用户。用户可以通过将对象从共用区域或另一用户的用户占用区域移动到他或她自己的用户占用区域,来将要操作的对象的操作权移动到他或她自己。当要操作的对象进入用户占用区域中时,自动改变其显示,使得对象正好面对用户。
当要操作的对象在用户占用区域之间移动时,取决于进行移动操作的触摸位置,物理地且自然地移动对象。当用户朝向彼此拉一个对象时,可以划分或拷贝要操作的对象。
图4示意性示出了信息处理设备100的功能框图。信息处理设备100包括:从外部接收信息信号的输入接口单元110、基于输入信息信号执行显示屏等的控制的操作处理的操作单元120、基于操作结果将信息输出至外部的输出接口单元130、由硬盘驱动器(HDD)等形成的大容量存储单元140、连接至外部网络的通信单元150、提供驱动电力的电源单元160、以及电视调谐器单元170。存储单元140存储由操作单元120执行的各种处理算法以及用于操作单元120中的操作处理的各种数据库。
输入接口单元110的主要功能包括:检测用户的存在、检测所检测到的用户对屏幕(即触摸板)的触摸操作、检测由用户携带的装置(如移动终端)以及从该装置接收传输数据的处理。图5示出了输入接口单元110的内部配置。
遥控器接收单元501从遥控器或移动终端接收遥控器信号。信号分析单元502通过对所接收的遥控器信号进行解调和解码来获取遥控器命令。
摄像机单元503采用单目式,或者双目式和主动式中的一种或两种。摄像机单元503由成像装置,如CMOS(互补金属氧化物半导体)或CCD(电荷耦合装置)构成。摄像机单元503包括控制其平移、倾斜、缩放等的摄像机控制器。摄像机单元503通知操作单元120摄像机信息,如平移、倾斜、缩放,并且可以基于来自操作单元120的摄像机控制信息来控制摄像机单元503的平移、倾斜、缩放。
图像识别单元504识别由摄像机单元503捕捉的图像。具体地,图像识别单元504通过使用背景差异检测用户的面部或手部运动来识别手势,识别包括在捕捉图像中的用户的面部,识别躯干,或识别到用户的距离。
麦克风单元505接收由用户发出的声音或语音。语音识别单元506对输入语音信号进行识别。
距离传感器507例如由PSD(位置敏感检测器)构成,并且检测从用户或对象返回的信号。信号分析单元508分析所检测的信号并且测量到用户或对象的距离。除了PSD传感器以外,热电传感器或简单摄像机可以用作距离传感器507。一般地,距离传感器507监视用户是否存在于距信息处理设备100的一定半径内,例如距其5至10米。因此,优选地,具有低功耗的传感器装置可以用作距离传感器507。
触摸检测单元509由在屏幕上叠加的触摸传感器等构成,并且从用户的指尖与屏幕接触的地方处输出检测信号。信号分析单元510分析检测信号,并且获取位置信息。
接近传感器511安装在大屏幕的四个侧边缘中每一个处,并且通过使用例如电容来检测用户身体接近屏幕。信号分析单元512分析检测信号。
极近距离通信单元513通过例如NFC(近场通信)来从用户携带的装置接收非接触通信信号。信号分析单元514通过对所接收的信号进行解调和解码来获取接收数据。
三轴传感器单元515由陀螺仪等构成,并且检测信息处理设备100关于x轴、y轴和z轴的姿态。GPS(全球定位系统)接收单元516接收GPS卫星的信号。信号分析单元517分析来自三轴传感器单元515和GPS接收单元516的信号,并且获取信息处理设备100的位置信息或姿态信息。
输入接口集成单元520将信息信号的输入集成,并且将所集成的信息信号输出至操作单元120。输入接口集成单元520将信号分析单元508、510、512和514的分析结果集成,并且获取和输出在信息处理设备100周围的用户的位置信息至操作单元120。
操作单元120的主要功能包括基于输入接口单元110的用户检测结果、屏幕触摸检测结果以及从用户携带的装置所接收的数据来进行操作处理,如UI屏幕生成处理,并且将操作结果输出至输出接口单元130。操作单元120可以通过加载安装在存储单元140中的应用程序并且执行所加载的应用程序来执行每个应用的处理操作。将在下文中描述与每个应用对应的操作单元120的功能配置。
输出接口单元130的主要功能包括基于操作单元120的操作结果在屏幕上显示UI,并且将数据发送至用户携带的装置。图6示出了输出接口单元130的内部配置。
输出接口集成单元610基于操作单元120的监视器划分处理、对象优化处理以及装置交互数据发送和接收处理的操作结果来集成和处理信息输出。
输出接口集成单元610指示内容显示单元601将运动图像内容或静止图像内容(如所接收的电视广播内容和从诸如蓝光光盘的记录介质再现的内容)的图像和语音输出至显示单元603和扬声器单元604。
输出接口集成单元610指示GUI显示单元602将要操作的对象显示在显示单元603上。
输出接口集成单元610指示照明显示单元605从照明单元606输出表示检测状态的照明显示。
输出接口集成单元610指示极近距离通信单元513通过非接触通信将数据发送至用户携带的装置等。
信息处理设备100可以基于从摄像机单元503所捕捉图像中的识别或距离传感器507、触摸传感器509、接近传感器511、极近距离通信单元513等的检测信号来检测用户。通过从摄像机单元503所捕捉的图像中识别面部或通过使用极近距离通信单元513来识别用户携带的装置,可以指定所检测到的用户的个人身份。所指定的用户可以登录到信息处理设备100。能够登录的账户可以限于特定用户。信息处理设备100取决于用户位置或用户状态适当地使用距离传感器507、触摸传感器509和接近传感器511,来接收用户的操作。
信息处理设备100通过通信单元150连接至外部网络。到外部网络的连接格式仅限于有线方式和无线方式中之一。信息处理设备100可以与移动终端(如用户携带的智能手机)或另一设备(如平板终端)通信。所谓的“三个屏幕”可以由信息处理设备100、移动终端和平板终端这三种类型的设备的组合来构成。信息处理设备100可以提供以下UI:该UI使得三个屏幕在比其他两个屏幕更大的屏幕上相互交互。
例如,在用户触摸屏幕或将他的或她携带的终端带到靠近信息处理设备100的动作的背景下,在信息处理设备100与相应的携带终端之间发送和接收数据(如运动图像、静止图像、文本内容等),该数据是要操作的对象的实体。可以在外部网络上安装云服务器等,并且三个屏幕可以使用云服务器的操作能力。也就是说,可以通过使用信息处理设备100享受云计算的益处。
下面将顺序描述信息处理设备100的一些应用。
B.多个用户在大屏幕上的同时操作
信息处理设备100可以由多个用户通过使用大屏幕而同时操作。具体地,由于信息处理设备包括对于大屏幕的四个侧边缘中的每一个检测用户的存在或用户状态的接近传感器511,并且取决于多个用户的布置在屏幕中设置用户占用区域和共用区域,所以多个用户可以舒适且有效地同时操作信息处理设备。
当信息处理设备100的屏幕在尺寸上增大时,在桌面形式中产生多个用户可以同时输入触摸的这样的空间余量。如上所述,通过在屏幕中设置共用区域和用户的用户占用区域,多个用户可以舒适且有效地享受同时操作。
将对于放置在用户占用区域中的对象的操作权限给予相应的用户。用户可以通过将对象从共用区域或另一用户的用户占用区域移动到他或她自己的用户占用区域,来将要操作的对象的操作权限移动到他或她自己。当要操作的对象进入用户的用户占用区域时,自动改变其显示,使得对象正好面对用户。
当要操作的对象在用户占用区域之间移动时,取决于进行移动操作的触摸位置来物理地且自然地移动对象。当用户相互拉一个对象时,可以划分或拷贝要操作的对象。
当执行该应用时操作单元120的主要功能包括优化对象,以及基于输入接口单元110中的用户检测结果、屏幕触摸检测结果以及从用户携带的装置接收的数据来生成UI。图7示出了用于处理要操作的对象的操作单元120的内部配置。操作单元120包括监视器区域划分单元710、对象优化单元720以及装置交互数据发送和接收单元730。
当从输入接口集成单元520获取用户的位置信息时,监视器区域划分单元710参照存储在存储单元140中的装置数据库711以及与形状或传感器布置有关的区域划分模式数据库712在屏幕上设置用户占用区域和共用区域。监视器区域划分单元710将设置的区域信息输出至对象优化单元720以及装置交互数据发送和接收单元730。下文将描述监视器区域划分处理的流程的细节。
对象优化单元720从输入接口集成单元520接收与在屏幕上对要操作的对象执行的操作有关的信息。对象优化单元720根据从存储单元140加载的优化算法721来执行与用户的操作(如旋转、移动、显示、划分或拷贝由用户操作的对象)对应的对象优化处理,并且将经优化的对象输出到显示单元603的屏幕上。下文将描述对象优化处理的细节。
装置交互数据发送和接收单元730从输入接口集成单元520接收用户或用户携带的装置的位置信息以及与该装置发送和接收的数据。装置交互数据发送和接收单元730根据从存储单元140加载的发送和接收算法731,通过与用户携带的装置的交互来执行数据发送和接收处理。对象优化单元720与数据发送和接收处理对应地优化对象。例如,对象优化单元720伴随着通过与用户携带装置的交互的数据发送和接收处理来执行对象优化处理,诸如旋转、移动、显示或拷贝与所发送和接收的数据相关联的对象,并且将经优化的对象输出到显示单元603的屏幕。下文将描述伴随着与装置的交互的对象优化处理的细节。
随后,将详细描述监视器区域划分处理。将监视器区域划分处理假定为在信息处理设备100以桌面形式被多个用户共享的使用形式下的处理,但也可以在信息处理设备以墙面形式被多个用户共享的使用形式下进行。
当通过使用输入接口集成单元520来检测用户的存在时,监视器区域划分单元710对屏幕分配相应用户的用户占用区域。图8示出了当基于布置在屏幕的侧边缘上的接近传感器511(或距离传感器507)的检测信号而检测到用户A的存在时,监视器区域划分单元710在屏幕中设置用户A的用户占用区域A的状态。当检测到仅存在一个用户时,如图所示,可以将整个屏幕设置为相应用户的用户占用区域。
在此,当设置了用户占用区域A时,对象优化单元720基于从输入接口集成单元520获取的用户A的位置信息来改变用户占用区域A中要操作的对象的方向,以便正好面对用户。图9A示出了在设置用户占用区域A之前将对象#1至#6随机定向的状态。在图中,对象中的附图标记“#1”、“#2”、…的倾斜度表示对象的取向。图9B示出了通过设置用户A的用户占用区域A来将区域中的所有对象#1至#6变成正好面对用户A的状态。
当检测到仅存在用户A时,可以将用户A的用户占用区域A设置成整个屏幕。相反,当检测到存在两个或更多个用户时,优选地,可以设置能够由用户共享的共用区域来进行用户之间的协同动作。
图10示出了当基于接近传感器511或距离传感器507的检测信号而在屏幕的相邻侧边缘处检测到除了用户A以外还存在用户B时,监视器区域划分单元710在屏幕中额外设置共用区域以及用户B的用户占用区域B的状态。基于用户A和用户B的位置信息,用户A的用户占用区域A退缩到用户A所位于的地方,而用户B的用户占用区域B出现在用户B所位于的地方附近。当新检测到存在用户B时,在用户占用区域B中显示波状检测指示符。屏幕中除了用户占用区域A和用户占用区域B以外的区域全部为共用区域。在用户B接近信息处理设备100从而在屏幕中新设置用户占用区域B之后用户占用区域B中的任何对象最初被触摸的时间点处,可以使用户占用区域B成为有效的。尽管在图10中未示出,但在设置用户占用区域B的时间点或用户占用区域B成为有效的点处将新变成用户占用区域B的区域中要操作的对象变成正好面对用户B。
图11示出了当在屏幕的另一侧边缘上检测到除了用户A和用户B以外还存在用户D时,监视器区域划分单元710在屏幕中在用户D所位于的地方附近额外设置用户D的用户占用区域D的状态。通过在用户占用区域D中显示波状检测指示符,能够表达出新检测到存在用户D。图12示出了当在屏幕的另一侧边缘上检测到除了用户A、用户B和用户D以外还存在用户C时,监视器区域划分单元710在屏幕中在用户C所位于的地方附近额外设置用户C的用户占用区域C的状态。通过在用户占用区域C中显示波状检测指示符,能够表达出新检测到存在用户C。
图8至图12中示出的用户占用区域和共用区域的区域划分模式仅是示例。区域划分模式也取决于屏幕的形状、检测到存在的用户的数量以及用户的布置。区域划分模式数据库712存储与屏幕的形状或尺寸以及用户数量对应的区域划分模式有关的信息。装置数据库711存储关于信息处理设备100中所使用的屏幕的形状或尺寸的信息。当从输入接口集成单元520输入检测到的用户的位置信息时,监视器区域划分单元710从装置数据库711读取屏幕的形状或尺寸,并且从区域划分模式数据库712查阅相应的区域划分模式。图13A至图13E示出了取决于屏幕的形状或尺寸以及用户数量将屏幕划分成相应用户的用户占用区域的区域划分模式。
图14是示出了由监视器区域划分单元710执行的监视器区域划分处理的流程的流程图。
首先,监视器区域划分单元710基于来自接近传感器511或距离传感器507的检测信号的信号分析结果,来检查屏幕附近是否存在用户(步骤S1401)。
当检测到存在用户时(步骤S1401中“是”),监视器区域划分单元710获取存在的用户的数量(步骤S1402),并且还另外获取用户的位置(步骤S1403)。基于从输入接口集成单元520接收的用户的位置信息来进行步骤S1401至S1403的处理。
随后,监视器区域划分单元710参考装置数据库711获取与在信息处理设备100中使用的显示单元603的屏幕形状或接近传感器511的布置有关的装置信息,并且使用该信息和用户的位置信息从区域划分模式数据库712查阅相应的区域划分模式(步骤S1404)。
监视器区域划分单元710基于所获取的区域划分模式在屏幕中设置共用区域和用户的用户占用区域(步骤S1405),并且该处理的流程结束。
下面将描述由对象优化单元720执行的对象优化处理的细节。
当从输入接口集成单元520输入与用户在屏幕上对对象进行的操作有关的信息时,对象优化单元720响应于用户的操作来执行显示处理,诸如对屏幕上的对象进行旋转、移动、显示、划分或拷贝等。响应于用户的拖动或抛掷操作而对对象进行旋转、移动、显示、划分或拷贝的处理类似于桌面的屏幕上的GUI操作。
在该实施方式中,在屏幕中设置用户占用区域和共用区域,并且对象优化单元720取决于存在要操作对象的区域来优化显示。优化处理的代表示例是改变每个用户占用区域中的相应对象的方向以便正好面对相应用户的处理。
图15示出了在共用区域中的对象#1被拖动或抛掷到用户A的用户占用区域A,并且对象的一部分或中心坐标进入用户占用区域A的时间点处,对象优化单元720自动旋转对象#1以便正好面对用户A的状态。图15还示出了在用户B的用户占用区域B中的对象#2被拖动或抛掷到用户A的用户占用区域A,并且对象的一部分或中心坐标进入用户占用区域A的时间点处,对象优化单元720自动旋转对象#2以便正好面对用户A的状态。
如图10所示,当用户B接近信息处理设备100时,在屏幕上在用户B附近新设置用户占用区域B。当在用户占用区域B中存在正好面对用户A的对象#3并且用户占用区域B新出现时,如图16B所示,对象优化单元720自动旋转对象#3以便立即正好面对用户B。
可替代地,代替于立即旋转对象,用户占用区域B可以在通过用户B接近信息处理设备100而新设置用户占用区域B之后最初触摸用户占用区域B中的任何对象的时间点处成为有效的。在这种情况下,在用户占用区域B成为有效的时间点处,可以同时旋转用户占用区域B中的所有对象以正好面对用户B。
对象优化单元720可以基于从输入接口集成单元520获取的用户的操作信息以及从监视器区域划分单元710接收的区域信息来执行优化对象的处理。图17是示出了由对象优化单元720执行的对象优化处理的流程的流程图。
当从输入接口集成单元520接收到由用户操作的对象的位置信息并且从监视器区域划分单元710获取了划分的监视器区域信息时,对象优化单元720检查被用户操作的对象所存在的区域(步骤S1701)
在此,当被用户操作的对象存在于用户占用区域中时,对象优化单元720检查对象是否被定向为正好面对用户占用区域中的用户(步骤S1702)。
当对象未被定向为正好面对用户时(步骤S1702中“否”),对象优化单元720旋转对象,以便正好面对相应用户占用区域中的用户(步骤S1703)。
当用户将对象从共用区域或另一用户的用户占用区域拖动或抛掷到他或她的用户占用区域时,可以基于用户触摸对象的位置来控制旋转方向。图18示出了在通过允许用户触摸对象的重心位置的右侧并且拖动或抛掷对象,对象进入用户占用区域的时间点处,围绕重心位置顺时针旋转对象以正好面对用户的状态。图19示出了通过允许用户触摸对象的重心位置的左侧并且拖动或抛掷对象,来围绕重心位置逆时针旋转对象以正好面对用户的状态。
如图18和图19所示,可以通过改变对象围绕重心位置的旋转方向来给用户自然的操作感觉。
随后,下面将描述由装置交互数据发送和接收单元730执行的装置交互数据发送和接收处理。
如图4所示,信息处理设备100可以通过使用通信单元150与另一设备(如用户携带的移动终端)进行通信。例如,在用户触摸屏幕或将他或她携带的终端带到靠近信息处理设备100的动作的背景下,在信息处理设备100与相应的携带终端之间发送和接收诸如运动图像、静止图像、文本内容等的数据,该数据是要操作的对象的实体。
图20示出了在信息处理设备100与用户携带的终端之间给予和获得对象的交互的示例。在图中示出的示例中,当用户A使他或她携带的终端接近分配给用户的用户占用区域A附近时,进行以下UI表达:对象从终端附近出现并且流入用户占用区域A。
信息处理设备100可以基于来自极近距离通信单元513的检测信号的信号分析结果或来自摄像机单元503的捕捉的用户图像的识别结果来检测用户携带的终端接近用户占用区域A附近。装置交互数据发送和接收单元730可以通过使用用户A与信息处理设备100之间的上下文(context)(或用户A与另一用户之间通过信息处理设备100的交换),来指定是否存在要从用户发送至信息处理设备100的数据以及要发送的数据是什么。当存在发送数据时,在用户将他或她携带的终端带到靠近用户占用区域A的动作的背景下,装置交互数据发送和接收单元730在信息处理设备100与相应的携带终端之间发送和接收诸如运动图像、静止图像、文本内容的数据,该数据是要操作的对象的实体。
在该背景下,当向用户携带的终端发送数据和从用户携带的终端接收数据时,通过使用对象优化单元720中的对象优化处理,装置交互数据发送和接收单元730进行以下UI表达:要操作的对象从用户携带的终端出现在显示单元603的屏幕上。图20示出了要操作的对象从用户A携带的终端流入用户占用区域A的UI表达的示例。
图21是示出了由装置交互数据发送和接收单元730执行的装置交互数据发送和接收处理的流程的流程图。当基于来自极近距离通信单元513的检测信号的信号分析结果,某个用户携带的终端接近他或她的用户占用区域附近时,启动装置交互数据发送和接收单元730的处理。
装置交互数据发送和接收单元730基于来自极近距离通信单元513的检测信号的信号分析结果,来检查是否存在通信中的用户携带的终端(步骤S2101)。
当存在通信中的用户携带的终端时(步骤S2101中“是”),装置交互数据发送和接收单元730基于来自极近距离通信单元513的检测信号的信号分析结果来获取终端的位置(步骤S2102)。
装置交互数据发送和接收单元730检查是否存在要发送至用户携带的终端的数据以及要从用户携带的终端接收的数据(步骤S2103)。
当存在要发送至用户携带的终端的数据以及要从用户携带的终端接收的数据时(步骤S2103中“是”),装置交互数据发送和接收单元730根据发送和接收算法731取决于终端的位置来进行要操作的对象的UI显示(参见图20)。装置交互数据发送和接收单元730在UI显示的背景下向终端发送数据以及从终端接收数据,该数据是对象的实体(步骤S2104)。
如图20和图21所示,由信息处理设备100从用户携带的终端获取的对象被布置在相应用户的用户占用区域中。当在用户之间给予和获得数据时,仅必须要执行在用户占用区域之间移动对象的操作。图22示出了由用户A将用户B保持在用户占用区域B中的对象拷贝到用户占用区域A的状态。可替代地,可以划分对象而不是拷贝对象。
当拷贝在屏幕上的对象是诸如运动图像或静止图像的内容时,简单地准备独立数据。当拷贝的对象是应用的窗口时,准备应用的另一窗口,该另一窗口可以被最初保持对象的用户和拷贝目的地的用户协同操作。
C.取决于用户位置的输入单元和显示GUI的最佳选择
信息处理设备100包括距离传感器507和接近传感器511,并且在例如图1和图3中示出的墙面形式下可以检测信息处理设备100的主体(即屏幕)到用户的距离。
信息处理设备100包括触摸传感器509、接近传感器511、摄像机单元503和遥控器接收单元501,并且可以向用户提供多个输入单元,诸如触摸屏幕、接近、使用手的手势、遥控器以及取决于用户状态的间接操作。相应的输入单元取决于从信息处理设备100的主体(即屏幕)到用户的距离适当地操作。例如,位于距信息处理设备100的主体50cm内的用户可以通过直接触摸屏幕来稳妥地操作要操作的对象。由于位于距信息处理设备100的主体2m内的用户太远而不能直接触摸屏幕,但可以通过识别由摄像机单元503捕捉的图像来精确地捕捉面部或手的动作,所以用户可以输入手势。位于距信息处理设备100的主体超过2m的用户可以操作遥控器,因为图像识别的精确度低,但是可以稳妥地输入遥控器信号。取决于到用户的距离来改变具有要显示在屏幕上的对象的构架或信息密度的最佳GUI显示。
在该实施方式中,由于信息处理设备100取决于用户位置或到用户的距离而自动选择多个输入单元中的输入单元,并且取决于用户位置自动选择或调整GUI显示,所以提高了用户的便利性。
图23示出了取决于到用户的距离执行优化处理的操作单元120的内配配置。操作单元120包括显示GUI优化单元2310、输入单元优化单元2320和距离检测模式切换单元2330。
显示GUI优化单元2310取决于用户位置和用户状态来优化具有要显示在显示单元603的屏幕上的对象的构架或信息密度的最佳GUI显示。
在此,通过由距离检测模式切换单元2330切换的距离检测模式来获取用户位置。当用户位置变得靠近时,通过使用根据摄像机单元503所捕捉图像的面部识别或与用户携带的终端的接近通信,个人认证(personal authentication)是可以的。基于根据摄像机单元503所捕捉图像的图像识别或距离传感器507中的信号分析来指定用户状态。用户状态广义地被分类成“存在用户(存在)”和“不存在用户(不存在)”两种状态。状态“存在用户”被分类成“用户正在看电视(显示单元603的屏幕)(观看中)”和“用户没在看电视(非观看中)”两种状态。状态“用户正在看电视”被分类成“用户正在操作电视(操作中)”和“用户没在操作电视(非操作中)”两种状态。
显示GUI优化单元2310在确定用户状态时参考存储单元140中的装置输入单元数据库。在取决于所确定的用户位置和用户状态而优化显示GUI时,参考存储单元140中的GUI显示(构架和密度)数据库和内容数据库。
图24A示出了以下表格,在该表格中布置了由显示GUI优化单元2310执行的、与用户位置和用户状态对应的显示GUI优化处理的。图24B至图24E示出了信息处理设备100的屏幕取决于用户位置和用户状态的变化。
在“不存在用户”的状态下,显示GUI优化单元2310停止显示单元603的屏幕显示,并且等待直到检测到存在用户为止(参见图24B)。
在“存在用户”的“用户没在看电视”的状态下,显示GUI优化单元2310选择“自动变换(automatic zapping)”作为最佳显示GUI(参见图24C)。自动变换是随机显示要操作的各种对象并且吸引用户的注意力来看电视。用于变换的对象包括由显示GUI优化单元2310基于内容数据库所选择的多个对象,诸如除了通过使用电视调谐器单元170所接收的电视广播的节目内容以外,通过因特网从通信单元150获取的网络内容以及来自另一用户的电子邮件或消息。
图25A示出了用于自动变换的显示GUI的示例。显示GUI优化单元2310可以如图25B所示时刻改变显示在屏幕上的位置或尺寸(也就是说,暴露程度),以作用于用户的潜意识。当用户的位置变得靠近并且个人认证变得可能时,显示GUI优化单元2310可以使用所识别的用户信息选择要自动变换的对象。
在“用户正在看电视”的“用户没在操作电视”的状态下,显示GUI优化单元2310选择“自动变换”作为最佳显示GUI(参见图24D)。在此,与上述不同,可以通过如图26所示将屏幕划分成展示区(stage)等等来规则地布置基于内容数据库所选择的多个对象,以便于对单独对象的显示细节的理解。当用户的位置变得靠近并且个人认证是可能的时,显示GUI优化单元2310可以使用所识别的用户的信号选择要自动变换的对象。显示GUI优化单元2310可以取决于用户位置来控制显示GUI的信息密度,使得当用户远离时GUI的信息密度降低,而当用户靠近时GUI的信息密度提高。
另一方面,在“用户正在看电视”的“用户正在操作电视”的状态下,用户使用由输入单元优化单元2320优化的输入单元来操作信息处理设备100(参见图24E)。在该状态下,最佳输入单元的示例包括对遥控器接收单元501的遥控器信号的输入、对摄像机单元503的手势输入、由触摸传感器509检测的触摸输入、对麦克风505的语音输入以及对接近传感器511的接近输入。显示GUI优化单元2310可以取决于用户的输入操作来显示所划分的展示区中的对象作为最佳显示GUI,并且可以响应于用户的操作来滚动或选择性地操作对象。如图27A所示,在通过使用输入单元所指示的屏幕上的位置处显示光标。由于上面没有放置光标的对象不是用户感兴趣的,所以可以降低亮度等级以表达与图中的阴影线所表示的感兴趣对象的对比(其中光标放置在图中使用用户的指尖触摸的对象#3上)。如图27B所示,当用户选择上面放置光标的对象时,所选择的对象可以显示在整个屏幕中(可替代地,可以被放大并且尽可能大地显示)(其中所选择的对象#3在图中被放大)。
输入单元优化单元2320取决于用户位置和用户状态来优化用户使用其操作信息处理设备100的输入单元。
如上所述,在由距离检测模式切换单元2330切换的距离检测模式下获取用户的位置。当用户的位置变得靠近时,通过根据摄像机单元503所捕捉图像的面部识别或与用户携带的终端的接近通信,个人认证是可能的。通过根据摄像机单元503所捕捉图像的图像识别或距离传感器507的信号分析来指定用户状态。
输入单元优化单元2320在确定用户状态时参考存储单元140中的装置输入单元数据库。
图28示出了以下表格:在该表格中布置了由输入单元优化单元2320执行的、与用户位置和用户状态对应的输入单元优化处理。
在“不存在用户”的状态、“存在用户”的“用户没在看电视”的状态、以及“用户正在看电视”的“用户没在操作电视”的状态下,输入单元优化单元2320等待,直到用户的操作开始为止。
在“用户正在看电视”的“用户正在操作电视”的状态下,输入单元优化单元2320主要取决于用户位置来优化相应的输入单元。输入单元的示例包括对遥控器接收单元501的遥控器信号的输入、对摄像机单元503的手势输入、由触摸传感器509检测的触摸输入、对麦克风505的语音输入以及对接近传感器511的接近输入。
遥控器接收单元501对于用户的所有位置都启动(也就是说,一般说来几乎都启动),并且等待,直到接收到遥控器信号为止。
当用户变得较远时,根据捕捉图像的摄像机单元503的识别精确度降低。当用户变得太靠近时,用户的体形容易偏离摄像机单元503的视野。因此,输入单元优化单元2320接收在几十厘米至几米的用户位置的范围内对摄像机单元503的手势输入。
对叠加在显示单元603的屏幕上的触摸板的触摸不限于用户的手触及到的范围。因此,输入单元优化单元2320接收直到几十厘米的用户位置的范围内对触摸传感器509的触摸输入。甚至在未被触摸的情况下,接近传感器511可以检测在几十厘米内的用户。因此,输入单元优化单元2320接收接近输入直到触摸输入是不可能的用户位置。
当用户变得较远时,对麦克风单元505的语音输入的识别精确度降低。因此,输入单元优化单元2320接收在几米的用户位置的范围内对摄像机单元503的手势输入。
距离检测模式切换单元2330执行以下处理:对信息处理设备100取决于用户位置来检测到用户的距离或用户的位置的模式进行切换。
在确定用户状态时,距离检测模式切换单元2330参考存储单元140中的用于每个检测模式的区域覆盖数据库。
图29示出了以下表格:在该表格中布置了由距离检测模式切换单元2330执行的、与用户位置对应的距离检测模式切换处理。
距离传感器507由具有较低功耗的传感器装置简单构成,诸如PSD传感器或热电传感器或简单摄像机。一般地,为了监视在距信息处理设备1005至10米的半径内是否存在用户,距离检测模式切换单元2330一般开启距离传感器507。
当摄像机单元503采用单目式时,图像识别单元504基于背景差异来执行用户的运动识别、面部识别和躯干识别。距离检测模式切换单元2330开启在70厘米至6米的用户位置的范围内的图像识别单元504的识别(距离检测)功能,在该范围内获得根据所捕捉图像的满意的识别精确度。
当摄像机单元503采用双目式或主动式时,图像识别单元504可以在稍微较近的60厘米至5米的范围内实现足够的识别精确度,并且距离检测模式切换单元2330开启在该用户位置的范围内的图像识别单元504的识别(距离检测)功能。
当用户变得太靠近时,用户的体形容易偏离摄像机单元503的视野。因此,当用户变得太靠近时,距离检测模式切换单元2330可以关闭摄像机单元503和图像识别单元504。
对叠加在显示单元603的屏幕上的触摸板的触摸不限于用户的手触及到的范围。因此,距离检测模式切换单元2330开启在几十厘米的用户位置的范围内的触摸传感器509的距离检测功能。甚至在未被触摸的情况下,接近传感器511可以检测在几十厘米内的用户。因此,距离检测模式切换单元2330开启接近传感器511的距离检测功能直到触摸输入是不可能的用户位置。
作为具有多个距离检测模式的信息处理设备100的设计方法,由于用于检测比几米或10米更远的远程位置的距离检测模式被设计成检查用户的存在,并且因此应当一般被开启,所以优选地使用具有低功耗的装置。相反,由于用于检测比1米更近的位置的距离检测模式通过获取具有高密度的信息可以具有识别功能(诸如面部识别功能和躯干识别功能),但在识别处理中消耗大功率,所以在不能实现满意的识别精确度的距离上关闭其功能。
D.取决于监视器性能的对象的实际尺寸显示
在根据相关技术的对象显示系统中,在屏幕上显示实际存在的对象的图像而不考虑其实际尺寸信息。因此,要显示的对象的尺寸取决于屏幕的尺寸或分辨率(dpi)而改变。例如,具有a厘米的横向宽度的包被显示在32英寸监视器上时的横向宽度a’与该包被显示在50英寸监视器上时的横向宽度a”不同(a!=a’!=a”)(参见图30)。
当在同一监视器屏幕上同时显示多个对象的图像时,在不考虑对象的实际尺寸信息的情况下,没有正确地显示对象的相互尺寸关系。例如,当在同一监视器屏幕上同时显示具有a厘米的横向宽度的包和具有b厘米的横向宽度的袋时,以a’厘米显示包而以b’厘米显示袋,也就是说,没有正确地显示其相互尺寸关系(a:b!=a’:b’)(参见图31)。
例如,在网购产品中,当样品图像不能再现实际尺寸时,用户不能准确地将产品与他或她自己的体形搭配,从而可能购买不正确的产品。当意图通过网购同时购买多个产品并且在屏幕上同时显示产品的样品图像,但没有正确地显示样品图像的相互尺寸关系时,用户不能准确地以组合来搭配产品,从而可能以不适当的组合购买产品。
相反,根据本实施方式的信息处理设备100管理要显示的对象的实际尺寸信息,以及与显示单元603的屏幕的尺寸和分辨率(像素间距)有关的信息,并且即使在对象或屏幕的尺寸改变时一般也在屏幕上以实际的尺寸显示对象的图像。
图32示出了取决于监视器性能执行对象实际尺寸显示处理的操作单元120的内部配置。操作单元120包括实际尺寸显示单元3210、实际尺寸估计单元3220和实际尺寸扩展单元3230。假定实际尺寸显示单元3210、实际尺寸估计单元3220和实际尺寸扩展单元3230中的至少一个功能块被实施在通过通信单元150连接的云服务器上。
当在同一监视器屏幕上同时显示多个对象的图像时,实际尺寸显示单元3210通过考虑对象的实际尺寸信息,取决于显示单元603的屏幕的尺寸和分辨率(像素间距),一般以实际尺寸显示对象的图像。当在显示单元603的屏幕上同时显示多个对象的图像时,实际尺寸显示单元3210正确地显示对象的相互尺寸关系。
实际尺寸显示单元3210从存储单元140读取监视器规格,诸如显示单元603的屏幕的尺寸和分辨率(像素间距)。实际尺寸显示单元3210从旋转和附接机制单元180获取监视器状态,诸如显示单元603的屏幕的方向和倾斜度。
实际尺寸显示单元3210从存储单元140中的对象图像数据库读取要显示的对象的图像,并且从对象实际尺寸数据库读取对象的实际尺寸信息。在此,假定对象图像数据库或对象实际尺寸数据库被布置在通过通信单元150连接的数据库服务器上。
实际尺寸显示单元3210基于监视器性能和监视器状态来转换对象的图像,使得要显示的对象被以实际尺寸显示在显示单元603的屏幕上(可替代地,使得对象的相互尺寸关系是正确的)。也就是说,即使当同一对象的图像被显示在具有不同监视器规格的屏幕上时,a=a’=a”也成立,如图33所示。
如图34所示,当在同一屏幕上显示具有不同的实际尺寸的两个对象的图像时,实际尺寸显示单元3210显示a:b=a’:b’的关系,也就是说,正确的相互尺寸关系。
例如,当用户通过使用样品图像的显示来网购时,信息处理设备100可以实现对象的实际尺寸显示或可以如上所述以正确的尺寸关系显示对象的多个样品图像。因此,用户可以准确地搭配产品,从而能够减少产品的错误选择。
另外将描述将实际尺寸显示单元3210中的对象图像的实际尺寸显示应用于网购应用的示例。响应于用户对目录的显示屏上的期望产品图像的触摸,将该产品的图像切换成实际尺寸显示(参见图35)。以实际尺寸显示的图像响应于用户的触摸能够在姿态方面被旋转或改变,从而能够以改变后的实际尺寸对象的方向来显示(参见图36)。
实际尺寸估计单元3220执行估计以下对象的实际尺寸的处理:该对象的实际尺寸信息是尽管参考对象实际尺寸数据库也不能获得的,诸如由摄像机单元503成像的人。例如,当实际尺寸被估计的对象是用户的面部时,基于用户面部数据,诸如通过使用图像识别单元504识别由摄像机单元503捕捉的图像而获得的用户的面部尺寸、年龄和方向,以及在由距离检测模式切换单元2330切换的距离检测模式下所获得的用户的位置,来估计用户的实际尺寸。
所估计的用户的实际尺寸信息被反馈至实际尺寸显示单元3210,并且被存储在例如对象图像数据库中。根据用户面部数据而估计的实际尺寸信息被用于实际尺寸显示单元3210中的取决于监视器性能的后续的实际尺寸显示。
例如,如图37A所示,当显示包括主题(婴儿)的捕捉图像的对象时,实际尺寸估计单元3220基于其面部数据估计实际尺寸。之后,即使当用户通过触摸操作来放大和显示对象时,如图37B所示,对象不被放大超过主题的实际尺寸。也就是说,没有不自然地放大婴儿的图像,从而保持了图像的真实性。
当网络内容和由摄像机单元503成像的内容以并列或重叠方式显示在显示单元603的屏幕上时,可以通过基于所估计的实际尺寸对内容的图像进行归一化(normalize),来实现协调的并列或重叠显示。
实际尺寸扩展单元3230将通过实际尺寸显示单元3210实现在显示单元603的屏幕上的对象的实际尺寸显示以3D来实现,也就是说,包括深度方向。当通过仅在水平方向上的双目式或视差射线重构类型(parallaxrays reconstruction type)以3D来显示对象时,仅在生成3D图像时所假定的观看位置处实现期望的效果。可以通过在所有方向上的视差射线重构类型从任何位置以实际尺寸来显示对象。
实际尺寸扩展单元3230检测用户的视点位置,并且也在仅在水平方向上的双目式或视差射线重构类型中关于所检测的位置来校正3D图像,由此,可以从任何位置实现相同的实际尺寸显示。
例如,可以参考共同拥有的JP-A-2002-300602、JP-A-2005-149127和JP-A-2005-142957。
E.图像组的同时显示
在显示系统中,可以以并列或重叠方式在同一屏幕上同时显示多个源的图像内容。其示例包括(1)多个用户相互视频聊天的情况、(2)从记录介质(诸如DVD)再现的(或者通过网络以流方式再现的)指导者的图像或者由摄像机单元503捕捉的用户他自己或她自己的图像在瑜伽课等时间被同时显示的情况、以及(3)网购中的产品的样品图像以及由摄像机单元503捕捉的用户他自己或她自己的图像以重叠方式显示以用于搭配的情况。
在(1)至(3)中的任何情况下,当没有正确显示同时显示的图像的尺寸关系时,用户不能适当地使用所显示的图像。例如,当相互视频聊天的用户的面部的尺寸或位置全部不同时(图38A),与聊天对方的面对面接触特性被破坏,从而不促进谈话。当用户的体形与指导者的体形的尺寸或位置不相互匹配时(图39A),用户难以检查他或她的动作与指导者的动作之间的差异,不能看到要改正和改进的任何点,从而不能实现课程的满意结果。当产品的样品图像没有与用户(该用户在他或她的手里拿着产品做出姿势)的图像在适当的位置以正确的尺寸关系重叠时,用户难以确定产品是否与用户相配,从而不能实现准确的搭配(图40A)。
相反,当以并列或重叠方式显示多个源的图像内容时,根据本实施方式的信息处理设备100将图像进行归一化,并且基于诸如图像的比例(scale)或相应区域的信息,以并列或重叠方式显示经归一化的图像。当执行归一化时,信息处理设备对数字图像数据(诸如静止图像和运动图像)执行数字缩放图像处理等。当并列图像或重叠图像中之一是使用摄像机单元503捕捉的图像时,对实际的摄像机执行光学控制,诸如平移、倾斜和缩放。
可以使用诸如通过面部识别获得的面部尺寸、年龄和方向的信息或诸如通过个人识别获得的躯干形状或尺寸的信息来简单地实施图像归一化处理。当以并列或重叠方式显示多个图像时,对一个图像自动执行镜像或旋转处理,以容易地匹配其他图像。
图38B示出了通过对多个图像的归一化处理而使相互视频聊天的用户的面部尺寸或位置相互匹配的状态。图39B示出了通过对多个图像的归一化处理而使并列显示在屏幕上的用户的体形与指导者的体形的尺寸或位置相互匹配的状态。图40B示出了通过对多个图像的归一化处理而使产品的样品图像被显示成在适当的位置处以正确的尺寸关系与用户(该用户在他或她的手里拿着产品做出姿势)的图像重叠的状态。在图39B或图40B中,除了尺寸归一化处理之外,还进行镜像处理,以便用户容易地根据由摄像机单元503捕捉的图像来校正用户的姿势。如果需要,也可以进行旋转处理。当用户的体形与指导者的体形可以被归一化时,可以如图39C所示以重叠方式显示其图像,而不是如图39B所示并列显示其图像,由此,用户可以容易地识别用户的姿势与指导者的姿势之间的差异。
图41示出了进行图像归一化处理的操作单元120的内部配置。操作单元120包括图像间归一化单元4110、面部归一化单元4120和实际尺寸扩展单元4130。在此,图像间归一化单元4110、面部归一化单元4120和实际尺寸扩展单元4130中的至少一个功能块被假定成实施在通过通信单元150连接的云服务器上。
图像间归一化单元4110进行归一化处理,使得在多个图像之间正确地显示用户的面部图像与另一对象之间的尺寸关系。
图像间归一化单元4110通过输入接口集成单元520接收使用摄像机单元503捕捉的用户的图像。此时,也获取在对用户进行成像时的摄像机信息,诸如摄像机单元503的平移、倾斜和缩放。图像间归一化单元4110从图像数据库中获取要与用户的图像并列或重叠显示的另一对象的图像,并且获取用户的图像与另一对象的图像以并列或重叠方式显示的模式。图像数据库可以布置在存储单元140中,或可以布置在通过通信单元150来访问的数据库服务器上。
图像间归一化单元4110对用户的图像执行图像处理,诸如放大、旋转和镜像,使得根据归一化算法来校正关于另一对象的尺寸关系或姿势,并且生成用于控制摄像机单元503的平移、倾斜、缩放等的摄像机控制信息,以便适当地捕捉用户的图像。例如,如图40B所示,通过图像间归一化单元4110的处理以与另一对象的图像的正确尺寸关系来显示用户的图像。
面部归一化单元4120进行归一化处理,使得使用摄像机单元503捕捉的用户的面部图像以与另一对象的面部图像(例如,从记录介质再现的图像中的指导者的面部或与用户视频聊天的对方用户的面部)的正确尺寸关系来显示。
面部归一化单元4120通过输入接口集成单元520接收使用摄像机单元503捕捉的用户的图像。此时,也获取在对用户进行成像时的摄像机信息,诸如摄像机单元503的平移、倾斜和缩放。面部归一化单元4120通过存储单元140或通信单元150获取要与用户的捕捉图像并列或重叠显示的另一对象的面部图像。
面部归一化单元4120对用户的图像进行图像处理,诸如放大、旋转和镜像,使得面部图像的尺寸关系是正确的,并且生成用于控制摄像机单元503的平移、倾斜、缩放等的摄像机控制信息,以便适当地捕捉用户的图像。例如,如图38B、图39B和图39C所示,通过面部归一化单元4120的处理以与另一面部图像的图像的正确尺寸关系来显示用户的图像。
实际尺寸扩展单元4130将通过图像间归一化单元4110实现在显示单元603的屏幕上的对象的并列或重叠显示以3D来实现,即包括深度方向。当通过仅在水平方向上的双目式或视差射线重构类型以3D来显示对象时,仅在生成3D图像时所假定的观看位置处实现期望的效果。可以通过在所有方向上的视差射线重构类型从任何位置以实际尺寸来显示对象。
实际尺寸扩展单元4130检测用户的视点位置,并且也在仅在水平方向上的双目式或视差射线重构类型中关于所检测的位置来校正3D图像,由此,可以从任何位置实现相同的实际尺寸显示。
例如,可以参考共同拥有的JP-A-2002-300602、JP-A-2005-149127和JP-A-2005-142957。
F.在旋转屏幕上的视频内容的显示方法
如上所示,根据本实施方式的信息处理设备100的主体通过使用旋转和附接机制单元180而旋转且可拆卸地附接至例如墙。当旋转地操作主体,同时信息处理设备100的电源接通时,也就是说,当要操作的对象显示在显示单元603上时,相应地旋转对象,使得用户可以以正确的姿势观看对象。
下面将描述在信息处理设备100的主体的任何旋转角度或者在其转变过程中最佳地调整图像内容的显示形式的方法。
在屏幕的任何旋转角度或者在其转变过程中的图像内容的显示形式的示例包括如下三种方法:(1)在任何旋转角度完全不覆盖图像内容的显示形式、(2)图像内容中的感兴趣内容在任何旋转角度被最大化的显示形式、以及(3)旋转图像内容以便不产生无效区域的显示形式。
图42示出了显示图像内容的整个区域,以便当逆时针旋转信息处理设备100(屏幕)90度时不在任何旋转角度覆盖图像内容的显示形式。如图所示,当在水平放置的屏幕上显示水平方向上长的图像内容,并且将屏幕逆时针旋转90度成竖直放置时,图像内容在尺寸上减小,并且在屏幕中出现由黑色表示的无效区域。在将屏幕从水平放置状态改变成竖直放置状态的过程中,图像内容具有最小尺寸。
当图像内容的至少一部分被覆盖时,存在如下问题:作为版权作品的图像内容失去了同一性(identity)。在图42所示的显示形式中,在任何旋转角度或者在其转变过程中保证了作为版权作品的同一性。也就是说,这种显示形式适合于所保护的内容。
图43示出了在将信息处理设备100(屏幕)逆时针旋转90度的过程中在任何旋转角度将图像内容中的感兴趣区域最大化的显示形式。在图中,图像内容中的包括使用虚线所围绕的主题的区域被设置为感兴趣区域,并且在任何旋转角度将该感兴趣区域最大化。由于感兴趣区域是竖直方向上长的,所以通过将屏幕从水平放置状态改变成竖直放置状态,图像内容被放大。在从水平放置状态向竖直放置状态转变的过程中,在屏幕的对角线方向上将感兴趣区域最大化地放大。在从水平放置状态向竖直放置状态转变的过程中,在屏幕中出现由黑色表达的无效区域。
作为图像内容中的感兴趣区域吸引注意力的显示形式,可以考虑旋转图像内容同时保持感兴趣区域的尺寸恒定的修改示例。随着屏幕的旋转,感兴趣区域看起来平滑地旋转,但是放大了无效区域。
图44示出了当将信息处理设备100(屏幕)逆时针旋转90度时旋转图像内容以便不产生无效区域的显示形式。
图45示出了在图42至图44中示出的显示形式下图像内容的旋转位置与缩放比率之间的关系。在图42中示出的在任何旋转角度完全不覆盖图像内容的显示形式中,可以保护内容,但在转变过程中产生了大的无效区域。由于在转变过程中图像被缩小,所以可能给用户不舒适的感觉。在图43中示出的在任何旋转角度将图像内容中的感兴趣区域最大化的显示形式中,可以在改变屏幕的过程中平滑地显示感兴趣区域,但在转变过程中产生了无效区域。在图44中示出的显示形式中,在转变过程中不产生无效区域,在转变过程中放大了图像内容,从而可能给观看图像内容的用户不自然的印象。
图46是示出了当旋转信息处理设备100(显示单元603的屏幕)时在操作单元120中控制图像内容的显示形式的处理的流程的流程图。例如,当旋转和附接机制单元180检测到信息处理设备100的主体被旋转,或当三轴传感器515检测到信息处理设备100的主体在旋转位置方面变化时,开始该处理的流程。
当旋转信息处理设备100(显示单元603的屏幕)时,操作单元120获取显示在屏幕上的图像内容的属性信息(步骤S4601)。然后,检查屏幕上显示的图像内容是否是被版权等保护的内容(步骤S4602)。
在此,当显示在屏幕上的图像内容是被版权等保护的内容时(步骤S4602中“是”),操作单元120选择如图42所示的显示图像内容的整个区域以便不在任何旋转角度覆盖图像内容的显示形式(步骤S4603)。
当显示在屏幕上的图像内容不是被版权等保护的内容时(步骤S4602中“否”),检查是否存在由用户指定的显示形式(步骤S4604)。
当用户选择显示图像内容的整个区域的显示形式时,处理的流程进行至步骤S4603。当用户选择最大化地显示感兴趣区域的显示形式时,处理的流程进行至步骤S4605。当用户选择不显示无效区域的显示形式时,处理的流程进行至步骤S4606。当用户不选择任何显示形式时,选择三种显示形式之中被设置为默认的显示形式。
图47示出了执行在信息处理设备100的主体的任何旋转角度或者在其转变过程中调整图像内容的显示形式的处理的操作单元120的内部配置。操作单元120包括显示形式确定单元4710、旋转位置输入单元4720和图像处理单元4730,并且对从所接收的电视广播或记录介质再现的图像内容的显示形式进行调整。
显示形式确定单元4710根据图46中示出的处理的流程来确定当在信息处理设备100的主体的任何旋转角度或者在其转变的过程中旋转图像内容时的显示形式。
旋转位置输入单元4720通过输入接口集成单元520接收由旋转和附接机制单元180或三轴传感器515获得的信息处理设备100的主体(或显示单元603的屏幕)的旋转位置。
图像处理单元4730基于由显示形式确定单元4710确定的显示形式对从所接收的电视广播或记录介质再现的图像内容进行处理,以便适合于倾斜一旋转角度的显示单元603的屏幕,该旋转角度被输入至旋转位置输入单元4720。
G.本公开的技术
本说明书中所公开的技术可以具有下面的配置。
(1)一种信息处理设备,包括:
控制单元,通过检测从所述设备的外部输入至所述设备的至少一个信息信号,基于对于(i)用户的位置变化以及(ii)用户的状态的确定来控制用户接口。
(2)根据(1)所述的设备,其中,所述用户接口包括要显示在显示单元上的图形用户接口。
(3)根据(2)所述的设备,其中,所述设备包括所述显示单元。
(4)根据(1)所述的设备,其中,所述控制单元基于所述用户的位置变化和所述用户的状态,来控制要显示在显示单元的显示屏上并且由用户操作的一个或更多个对象的构架或信息密度中的至少一个.
(5)根据(1)所述的设备,其中,所述控制单元基于所述用户的位置变化和所述用户的状态,来控制由用户操作的一个或更多个对象的构架或信息密度中的至少一个。
(6)根据(1)所述的设备,其中,所述控制单元根据用户是否正在观看显示单元的显示屏来控制所述用户接口。
(7)根据(6)所述的设备,其中,当用户正在观看所述显示屏时,所述控制单元选择自动变换处理来在所述显示屏上显示至少一个对象。
(8)根据(1)所述的设备,其中,所述控制单元基于所述用户的位置变化来控制要显示在显示单元的显示屏上的对象的信息密度。
(9)根据(1)所述的设备,其中,所述控制单元基于所述用户的位置是否是所述用户能够被个人认证的位置来控制对要显示在显示单元的显示屏上的对象的选择。
(10)根据(9)所述的设备,其中,当所述用户的位置是所述用户能够被个人认证的位置时,所述控制单元使用所识别的所述用户的信息来控制对要显示在所述显示屏上的对象的选择。
(11)根据(1)所述的设备,其中,所述控制单元基于所述用户的位置变化和所述用户的状态来优化所述用户接口的输入单元。
(12)根据(11)所述的设备,其中,所述输入单元包括接近传感器、麦克风、触摸传感器、摄像机单元或遥控器中的至少一个。
(13)根据(1)所述的设备,其中,所述控制单元根据所述用户是否正在观看显示单元的显示屏来优化所述用户接口的输入单元。
(14)根据(1)所述的设备,其中,所述控制单元基于所述用户的位置变化来优化所述用户接口的输入单元。
(15)根据(1)所述的设备,其中,所述控制单元基于所述用户的位置是否是用户能够被个人认证的位置来优化所述用户接口的输入单元。
(16)根据(1)所述的设备,其中,所述控制单元基于检测到的距离来控制在模式之间进行切换的处理,以所述模式来检测从显示单元的显示屏到所述用户的距离。
(17)根据(1)所述的设备,其中,所述控制单元确定相对于显示单元的所述用户的位置变化。
(18)根据(1)所述的设备,其中,所述用户的状态基于所述用户的位置变化来确定。
(19)一种信息处理方法,包括:
由处理器通过检测从信息处理设备的外部输入至所述信息处理设备的至少一个信息信号,基于对于(i)用户的位置变化以及(ii)用户的状态的确定来控制用户接口。
(20)一种记录有能够由计算机执行的程序的非暂态记录介质,所述程序包括:
通过检测从信息处理设备的外部输入至所述信息处理设备的至少一个信息信号,基于对于(i)用户的位置变化以及(ii)用户的状态的确定来控制用户接口。
(101)一种信息处理设备,包括:
显示单元;
用户检测单元,检测存在于所述显示单元周围的用户;以及
操作单元,当所述用户检测单元检测到用户时,对要显示在所述显示单元上的对象进行处理。
(102)根据(101)所述的信息处理设备,其中,所述用户检测单元包括接近传感器,所述接近传感器布置在所述显示单元的屏幕的四个侧面边缘的每一个中,并且检测出现在相应侧面边缘附近中的用户。
(103)根据(101)所述的信息处理设备,其中,所述操作单元取决于由所述用户检测单元检测的用户的布置来在所述显示单元的屏幕上设置每个所检测到的用户的用户占用区域和由用户共享的共用区域。
(104)根据(103)所述的信息处理设备,其中,所述操作单元在所述显示单元的屏幕上显示要由用户操作的一个或更多个对象。
(105)根据(104)所述的信息处理设备,其中,所述操作单元对要在所述用户占用区域中操作的对象进行优化。
(106)根据(104)所述的信息处理设备,其中,所述操作单元对要在所述用户占用区域中操作的对象进行旋转,以便正好面对相应用户。
(107)根据(104)所述的信息处理设备,其中,所述操作单元对从所述共用区域或另外的用户占用区域移动到相应用户占用区域的对象进行旋转,以便正好面对相应用户。
(108)根据(107)所述的信息处理设备,其中,当用户在区域之间拖动和移动对象时,所述操作单元控制要操作的对象基于用户相对于对象的重心位置的操作位置被旋转的旋转方向。
(109)根据(103)所述的信息处理设备,其中,当在所述显示单元的屏幕中设置由所述用户检测单元新检测到的用户的用户占用区域时,所述操作单元显示表示新检测到用户的检测指示符。
(110)根据(104)所述的信息处理设备,还包括:
数据发送和接收单元,向由用户携带的终端发送数据以及从用户携带的终端接收数据。
(111)根据(110)所述的信息处理设备,其中,所述数据发送和接收单元执行与由通过所述用户检测单元检测到的用户携带的终端的数据发送和接收处理,并且所述操作单元使与从由用户携带的终端接收的数据对应的对象出现在相应用户占用区域中。
(112)根据(104)所述的信息处理设备,其中,当在用户的用户占用区域之间移动对象时,所述操作单元将对象拷贝或划分到作为目的地的用户占用区域。
(113)根据(112)所述的信息处理设备,其中,所述操作单元在作为目的地的用户占用区域中显示准备为独立数据的对象的拷贝。
(114)根据(112)所述的信息处理设备,其中,所述操作单元在作为目的地的用户占用区域中显示对象的拷贝,所述对象是能够由用户协同操作的应用程序的另外的窗口。
(115)一种信息处理方法,包括:
检测周围存在的用户;以及
当在检测用户中检测到用户时对要显示的对象进行处理。
(116)一种计算机可读计算机程序,所述计算机程序使计算机用作:
显示单元;
用户检测单元,检测所述显示单元周围存在的用户;以及
操作单元,当所述用户检测单元检测到用户时对要显示在所述显示单元上的对象进行处理。
(201)一种信息处理设备,包括:
显示单元;
用户位置检测单元,其检测相对于所述显示单元的用户的位置;
用户状态检测单元,其检测相对于所述显示单元的显示屏的用户状态;以及
操作单元,其基于由所述用户位置检测单元检测的用户位置以及由所述用户状态检测单元检测的用户状态,来控制要显示在所述显示单元上的GUI。
(202)根据(201)所述的信息处理设备,其中,所述操作单元基于所述用户位置和所述用户状态,来控制要显示在所述显示单元的显示屏上并且被用户操作的一个或更多个对象的构架或信息密度。
(203)根据(201)所述的信息处理设备,其中,所述操作单元取决于所述用户是否正在观看所述显示单元的显示屏来控制要显示在所述显示屏上的对象的构架。
(204)根据(201)所述的信息处理设备,其中,所述操作单元基于所述用户的位置来控制要显示在所述显示单元的显示屏上的信息密度。
(205)根据(201)所述的信息处理设备,其中,所述操作单元取决于所述用户是否位于所述用户能够被个人认证的位置,来控制对要显示在所述显示单元的显示屏上的对象的选择。
(206)根据(201)所述的信息处理设备,还包括允许用户操作要显示在所述显示单元的显示屏上的对象的一个或更多个输入单元,其中,所述操作单元取决于所述用户是否正在通过使用所述输入单元操作对象,来控制要显示在所述显示屏上的对象的构架。
(207)一种信息处理设备,包括:
显示单元;
一个或更多个输入单元,其允许用户操作要显示在所述显示单元的显示屏上的对象;
用户位置检测单元,其检测关于所述显示单元的用户位置;
用户状态检测单元,其检测关于所述显示单元的显示屏的用户状态;以及
操作单元,其基于由所述用户位置检测单元检测的用户位置以及由所述用户状态检测单元检测的用户状态来优化所述输入单元。
(208)根据(207)所述的信息处理设备,其中,所述操作单元取决于所述用户是否正在观看所述显示单元的显示屏来控制所述输入单元的优化。
(209)根据(207)所述的信息处理设备,其中,所述操作单元在所述用户正在观看所述显示单元的显示屏的状态下,基于由所述用户位置检测单元检测的用户位置来优化所述输入单元。
(210)一种信息处理设备,包括:
显示单元;
用户位置检测单元,其检测关于所述显示单元的用户位置;
检测从所述显示单元的显示屏到用户的距离的多个距离检测模式;以及
操作单元,其基于由所述用户位置检测单元检测的用户位置来控制在所述距离检测模式之间的切换。
(211)根据(210)所述的信息处理设备,其中,所述操作单元一般开启检测距位于很远的用户的距离的距离检测模式。
(212)根据(210)所述的信息处理设备,其中,所述操作单元开启以下距离检测模式:检测距位于附近的用户的距离,并且仅在获得足够的识别精确度的距离范围内执行识别处理。
(213)一种信息处理方法,包括:
检测关于显示屏的用户位置;
检测关于所述显示屏的用户状态;以及
基于在检测用户位置中所检测的用户位置以及在检测用户状态中所检测的用户状态,来控制要显示在所述显示屏上的GUI。
(214)一种信息处理方法,包括:
检测关于显示屏的用户位置;
检测关于所述显示屏的用户状态;以及
基于在检测用户位置中所检测的用户位置以及在检测用户状态中所检测的用户状态,来优化允许用户操作显示在所述显示屏上的对象的一个或更多个输入单元。
(215)一种信息处理方法,包括:
检测关于显示屏的用户位置;以及
基于在检测用户位置中所检测的用户位置,来控制对从所述显示单元的显示屏到用户的距离进行检测的多个距离检测模式之间的切换。
(216)一种计算机可读计算机程序,所述计算机程序使计算机用作为:
显示单元;
用户位置检测单元,其检测关于所述显示单元的用户位置;
用户状态检测单元,其检测关于所述显示单元的显示屏的用户状态;以及
操作单元,其基于由所述用户位置检测单元检测的用户位置以及由所述用户状态检测单元检测的用户状态,来控制要显示在所述显示单元上的GUI。
(217)一种计算机可读计算机程序,所述计算机程序使计算机用作为:
显示单元;
一个或更多个输入单元,其允许用户操作要显示在所述显示单元的显示屏上的对象;
用户位置检测单元,其检测关于所述显示单元的用户位置;
用户状态检测单元,其检测关于所述显示单元的显示屏的用户状态;以及
操作单元,其基于由所述用户位置检测单元检测的用户位置以及由所述用户状态检测单元检测的用户状态来优化所述输入单元。
(218)一种计算机可读计算机程序,所述计算机程序使计算机用作为:
显示单元;
用户位置检测单元,其检测关于所述显示单元的用户位置;
检测从所述显示单元的显示屏到用户的距离的多个距离检测模式;以及
操作单元,其基于由所述用户位置检测单元检测的用户位置来控制在所述距离检测模式之间的切换。
(301)一种信息处理设备,包括:
显示单元;
对象图像获取单元,其获取要显示在所述显示单元的屏幕上的对象的图像;
实际尺寸获取单元,其获取与要显示在所述显示单元的屏幕上的对象的实际尺寸有关的信息;以及
操作单元,其基于由所述实际尺寸获取单元获取的对象的实际尺寸来处理对象的图像。
(302)根据(301)所述的信息处理设备,还包括显示性能获取单元,所述显示性能获取单元获取与包括所述显示单元的屏幕的尺寸和分辨率的显示性能有关的信息,其中,所述操作单元基于由所述实际尺寸获取单元获取的对象的实际尺寸以及由所述显示性能获取单元获取的显示性能,来处理要以实际尺寸显示在所述显示单元的屏幕上的对象的图像。
(303)根据(301)所述的信息处理设备,其中,当在所述显示单元的屏幕上同时显示由所述对象图像获取单元获取的多个对象的图像时,所述操作单元对所述多个对象的图像进行处理,以便正确地显示所述多个对象的图像的相互尺寸关系。
(304)根据(301)所述的信息处理设备,还包括:
摄像机单元;以及
实际尺寸估计单元,其对所述摄像机单元捕捉的图像中所包括的对象的实际尺寸进行估计。
(305)根据(301)所述的信息处理设备,还包括:
摄像机单元;
图像识别单元,其对所述摄像机单元捕捉的图像中所包括的用户的面部进行识别,并且获取面部数据;
距离检测单元,其检测到用户的距离;以及
实际尺寸估计单元,其基于用户的面部数据以及到用户的距离来估计用户的面部的实际尺寸。
(306)一种信息处理方法,包括:
获取要显示在屏幕上的对象的图像;
获取与要显示在所述屏幕上的对象的实际尺寸有关的信息;以及
基于在获取与对象的实际尺寸有关的信息中所获取的对象的实际尺寸来处理对象的图像。
(307)一种计算机可读计算机程序,所述计算机程序使计算机用作为:
显示单元;
对象图像获取单元,其获取要显示在所述显示单元的屏幕上的对象的图像;
实际尺寸获取单元,其获取与要显示在所述显示单元的屏幕上的对象的实际尺寸有关的信息;以及
操作单元,其基于由所述实际尺寸获取单元获取的对象的实际尺寸来处理对象的图像。
(401)一种信息处理设备,包括:
摄像机单元;
显示单元;以及
操作单元,当在所述显示单元的屏幕上显示用户的图像时,其对由所述摄像机单元捕捉的用户的图像进行归一化。
(402)根据(401)所述的信息处理设备,还包括:
对象图像获取单元,其获取要显示在所述显示单元的屏幕上的对象的图像;以及
并列或重叠模式获取单元,其获取在所述显示单元的屏幕上以并列或重叠方式显示用户的图像和对象的图像的并列或重叠模式,其中,所述操作单元对用户的图像和对象进行归一化,以便对用户的图像与对象的尺寸关系和位置进行校正,并且基于所获取的并列或重叠模式以并列或重叠方式来显示经归一化的用户的图像以及经归一化的对象。
(403)根据(402)所述的信息处理设备,其中,所述操作单元控制所述摄像机单元来对由所述摄像机单元捕捉的用户的图像进行归一化。
(404)根据(401)所述的信息处理设备,还包括:
用户面部数据获取单元,其获取由所述摄像机单元成像的用户的面部数据;以及
对象内面部数据获取单元,其获取要显示在所述显示单元的屏幕上的对象中的面部数据,
其中,所述操作单元执行归一化处理,以便对用户的面部数据和对象内面部数据的尺寸关系和位置进行校正。
(405)根据(404)所述的信息处理设备,其中,所述操作单元控制所述摄像机单元来对由所述摄像机单元捕捉的用户的图像进行归一化。
(406)一种信息处理方法,包括:
获取要显示在屏幕上的对象的图像;
获取在所述显示单元的屏幕上以并列或重叠方式显示由所述摄像机单元捕捉的用户的图像和对象的图像的并列或重叠模式,对用户的图像和对象进行归一化,以便对用户的图像和对象的尺寸关系和位置进行校正;以及
基于所获取的并列或重叠模式以并列或重叠方式对经归一化的用户的图像以及经归一化的对象进行处理。
(407)一种信息处理方法,包括:
获取由摄像机单元成像的用户的面部数据;
获取要显示在屏幕上的对象中的面部数据;
执行归一化处理,以便对用户的面部数据和对象内面部数据的尺寸关系和位置进行校正。
(408)一种计算机可读计算机程序,所述计算机程序使计算机用作为:
摄像机单元;
显示单元;以及
操作单元,当在所述显示单元的屏幕上显示用户的图像时,其对由所述摄像机单元捕捉的用户的图像进行归一化。
(501)一种信息处理设备,包括:
显示单元,其在屏幕上显示图像内容;
旋转角度检测单元,其检测所述屏幕的旋转角度;
显示形式确定单元,其确定在所述屏幕的任何旋转角度或在其转变过程中的图像内容的显示形式;以及
图像处理单元,其基于由所述显示形式确定单元确定的显示形式对图像内容进行处理,以便适合于以所述旋转角度检测单元所检测的旋转角度倾斜的屏幕。
(502)根据(501)所述的信息处理设备,其中,所述显示形式确定单元从包括以下三个显示形式的多个显示形式中确定显示形式:在任何旋转角度都不覆盖图像内容的显示形式、在任何旋转角度将图像内容中的感兴趣内容最大化的显示形式、以及旋转图像内容以便不产生无效区域的显示形式。
(503)根据(501)所述的信息处理设备,其中,所述显示形式确定单元基于图像内容的属性信息来确定在所述屏幕的任何旋转角度或在其转变过程中的显示形式。
(504)根据(501)所述的信息处理设备,其中,所述显示形式确定单元对于受保护图像内容确定在任何旋转角度都不覆盖图像内容的显示形式。
(505)一种信息处理方法,包括:
检测显示图像内容的屏幕的旋转角度;
确定在所述屏幕的任何旋转角度或在其转变过程中的图像内容的显示形式;以及
基于在确定显示形式中所确定的显示形式来处理图像内容,以便适合于以在检测旋转角度中所检测的旋转角度倾斜的屏幕。
(506)一种计算机可读计算机程序,所述计算机程序使计算机用作为:
显示单元,其在屏幕上显示图像内容;
旋转角度检测单元,其检测屏幕的旋转角度;
显示形式确定单元,其确定在所述屏幕的任何旋转角度或在其转变过程中的图像内容的显示形式;以及
图像处理单元,其基于由所述显示形式确定单元确定的显示形式来处理图像内容,以便适合于以所述旋转角度检测单元所检测的旋转角度倾斜的屏幕。
工业实用性
已经参照具体实施方式描述了本公开内容。然而,对本技术领域普通技术人员来说明显的是,在不偏离本公开内容的概念的情况下,可以修改或替换实施方式。
在该说明书中,将具有大屏幕的电视接收机举例为本公开内容所应用于的信息处理设备100,但本公开内容的概念不限于该示例。本公开内容可以类似地应用于除了电视接收机之外的诸如个人计算机或平板终端的信息处理设备,或具有小屏幕尺寸的信息处理设备。
尽管已经参照上面提到的示例描述了本公开内容,但是不应当以限制性方式分析本公开内容的描述。应当参照所附权利要求来确定本公开内容的概念。
本领域的技术人员应该理解,取决于设计要求和其他因素,可以出现各种修改、组合、子组合及替换,只要它们在所附权利要求或者权利要求的等同方案的范围内。
附图标记列表
100:信息处理设备
110:输入接口单元
120:操作单元
130:输出接口单元
140:存储单元
150:通信单元
160:电源单元
170:电视调谐器单元
180:旋转和附接机制单元
501:遥控器接收单元
502:信号分析单元
503:摄像机单元
504:图像识别单元
505:麦克风单元
506:语音识别单元
507:距离传感器
508:信号分析单元
509:触摸传感器
510:信号分析单元
511:接近传感器
512:信号分析单元
513:极近距离通信单元
514:信号分析单元
515:三轴传感器单元
516:GPS接收单元
517:信号分析单元
520:输入接口集成单元
601:内容显示单元
602:GUI显示单元
603:显示单元
604:扬声器单元
605:照明显示单元
606:照明单元
710:监视器区域划分单元
711:装置数据库
712:区域划分模式数据库
720:对象优化单元
721:优化算法
730:装置交互数据发送和接收单元
731:发送和接收算法
2310:显示GUI优化单元
2320:输入单元优化单元
2330:距离检测模式切换单元
3210:实际尺寸显示单元
3220:实际尺寸估计单元
3230:实际尺寸扩展单元
4110:图像间归一化单元
4120:面部归一化单元
4130:实际尺寸扩展单元
4710:显示形式确定单元
4720:旋转位置输入单元
4730:图像处理单元
Claims (10)
1.一种信息处理设备,包括:
显示单元(603),用于显示用户接口,所述用户接口包括图形用户接口;
一个或更多个输入单元,使得用户能够操作显示在所述显示单元(603)的显示屏上的对象;
用户位置检测单元,被配置成检测相对于所述显示单元(603)的所述用户的位置;
用户状态检测单元,其检测相对于所述显示单元(603)的显示屏的用户状态;和
控制单元,被配置成基于对于(i)通过所述用户位置检测单元确定的用户的位置变化以及(ii)通过所述用户状态检测单元确定的所述用户的状态的确定来控制所述用户接口,
其中,所述控制单元被配置成根据所述用户是否正在观看所述显示单元(603)的显示屏来控制所述图形用户接口,
特征在于:
所述控制单元被配置成当所述用户存在但没有正在观看所述显示屏时,随机显示各种对象,所述各种对象包括经由因特网、电子邮件、消息所获取的网络内容或以重叠方式在所述图形用户接口上的电视广播的节目内容,所述控制单元还被配置成当所述用户正在观看所述显示屏但没有正在操作所述信息处理设备(100)时,通过将所述屏划分成区域以规则布置、非重叠的方式显示各种对象,所述控制单元还被配置成当所述用户不存在时,停止所述显示单元(603)的显示屏上的显示,所述控制单元还被配置成当所述用户正在操作所述信息处理设备(100)时,基于所述用户经由所述一个或多个输入单元提供的输入来操作显示在所述显示单元(603)的显示屏上的所述各种对象。
2.根据权利要求1所述的设备,其中,所述控制单元被配置成基于所述用户的位置变化和所述用户的状态,来控制要显示在显示单元(603)的显示屏上并且由用户操作的一个或更多个对象的构架或信息密度中的至少一个。
3.根据权利要求1所述的设备,其中,所述控制单元被配置成基于所述用户的位置变化来控制要显示在所述显示单元(603)的显示屏上的对象的信息密度。
4.根据权利要求1所述的设备,其中,所述控制单元被配置成基于所述用户的位置是否是所述用户能够被个人认证的位置来控制对要显示在所述显示单元的显示屏上的对象的选择。
5.根据权利要求4所述的设备,所述控制单元被配置成当所述用户的位置是所述用户能够被个人认证的位置时,使用所识别的所述用户的信息来控制对要显示在所述显示屏上的所述对象的选择。
6.根据权利要求1所述的设备,其中,所述一个或更多个输入单元包括接近传感器(511)、麦克风(505)、触摸传感器(509)、摄像机单元(503)或遥控器(501)中的至少一个。
7.根据权利要求1所述的设备,其中,所述控制单元被配置成确定相对于所述显示单元(603)的所述用户的位置变化。
8.根据权利要求1所述的设备,其中,所述控制单元被配置成基于所述用户的位置变化来确定所述用户的状态。
9.一种信息处理方法,包括:
显示用户接口,所述用户接口包括显示单元(603)上的图形用户接口;
使得用户能够操作显示在所述显示单元(603)的显示屏上的对象;
检测相对于所述显示单元(603)的所述用户的位置;
检测相对于所述显示单元(603)的显示屏的用户状态;
由处理器基于对于(i)用户的位置变化以及(ii)用户的状态的确定来控制所述用户接口,
通过所述处理器根据所述用户是否正在观看所述显示单元(603)的显示屏来控制所述图形用户接口,
特征在于:
当所述用户存在但没有正在观看所述显示屏时,控制所述图形用户接口随机显示各种对象,所述各种对象包括经由因特网、电子邮件、消息所获取的网络内容或以重叠方式在所述图形用户接口上的电视广播的节目内容,并且当所述用户正在观看所述显示屏但没有正在操作所述信息处理设备时,通过将所述屏划分成区域以规则布置、非重叠的方式控制所述图形用户接口来显示各种对象,并且当所述用户不存在时,停止所述显示单元(603)的显示屏上的显示,并且当所述用户正在操作所述信息处理设备(100)时,基于所述用户提供的输入来操作显示在所述显示单元(603)的显示屏上的所述各种对象。
10.一种记录有程序的非暂态记录介质,所述程序可被计算机执行以执行权利要求9所述的方法的步骤。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012005551A JP5957893B2 (ja) | 2012-01-13 | 2012-01-13 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
JP2012-005551 | 2012-01-13 | ||
PCT/JP2013/000034 WO2013105493A1 (en) | 2012-01-13 | 2013-01-09 | Information processing apparatus, information processing method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104040474A CN104040474A (zh) | 2014-09-10 |
CN104040474B true CN104040474B (zh) | 2018-05-08 |
Family
ID=47603965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380004826.9A Active CN104040474B (zh) | 2012-01-13 | 2013-01-09 | 信息处理设备、信息处理方法以及记录介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10261589B2 (zh) |
EP (1) | EP2802978B1 (zh) |
JP (1) | JP5957893B2 (zh) |
CN (1) | CN104040474B (zh) |
WO (1) | WO2013105493A1 (zh) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5413250B2 (ja) * | 2010-03-05 | 2014-02-12 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP5598232B2 (ja) * | 2010-10-04 | 2014-10-01 | ソニー株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
US20150304593A1 (en) * | 2012-11-27 | 2015-10-22 | Sony Corporation | Display apparatus, display method, and computer program |
JP2014127879A (ja) * | 2012-12-26 | 2014-07-07 | Panasonic Corp | 放送画像出力装置、放送画像出力方法、およびテレビ |
JP6437226B2 (ja) * | 2013-07-22 | 2018-12-12 | 株式会社東芝 | 情報処理システム、プログラム情報生成方法、プログラム情報生成プログラム、および、プログラム情報表示システム |
JP2015043123A (ja) * | 2013-08-26 | 2015-03-05 | シャープ株式会社 | 画像表示装置、データ転送方法、及びプログラム |
US20150070263A1 (en) * | 2013-09-09 | 2015-03-12 | Microsoft Corporation | Dynamic Displays Based On User Interaction States |
JP2015090547A (ja) * | 2013-11-05 | 2015-05-11 | ソニー株式会社 | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
JP2015127897A (ja) * | 2013-12-27 | 2015-07-09 | ソニー株式会社 | 表示制御装置、表示制御システム、表示制御方法、およびプログラム |
US20170039030A1 (en) * | 2013-12-27 | 2017-02-09 | Sony Corporation | Display control device, display control method, and program |
JP2016051214A (ja) * | 2014-08-28 | 2016-04-11 | 株式会社リコー | 情報処理装置、情報処理方法、および情報処理システム |
KR20160028272A (ko) * | 2014-09-03 | 2016-03-11 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US20160373376A1 (en) * | 2015-04-01 | 2016-12-22 | Samsung Electronics Co., Ltd. | Method and apparatus of playing contents seamlessly |
CN106155293B (zh) * | 2015-04-16 | 2019-09-10 | 北京智谷睿拓技术服务有限公司 | 交互方法、交互装置及用户设备 |
US9990078B2 (en) * | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
JP6841232B2 (ja) * | 2015-12-18 | 2021-03-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN105739878B (zh) * | 2016-01-25 | 2019-12-17 | 广州视睿电子科技有限公司 | 控制按钮显示方法和系统 |
JP6733393B2 (ja) * | 2016-07-25 | 2020-07-29 | 株式会社リコー | 共有端末、通信システム、画像送信方法、及びプログラム |
US10168767B2 (en) * | 2016-09-30 | 2019-01-01 | Intel Corporation | Interaction mode selection based on detected distance between user and machine interface |
CN107493495B (zh) * | 2017-08-14 | 2019-12-13 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、系统、存储介质和智能终端 |
CN107656789A (zh) * | 2017-09-27 | 2018-02-02 | 惠州Tcl移动通信有限公司 | 一种多角度界面显示的方法、存储介质及智能终端 |
CN109698853A (zh) * | 2017-10-20 | 2019-04-30 | 北京仁光科技有限公司 | 远程控制方法、装置、设备、系统及计算机可读存储介质 |
KR20190054397A (ko) * | 2017-11-13 | 2019-05-22 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US20210019911A1 (en) * | 2017-12-04 | 2021-01-21 | Sony Corporation | Information processing device, information processing method, and recording medium |
US20190279256A1 (en) * | 2018-03-09 | 2019-09-12 | Avaya Inc. | System and method for making real-time decisions for routing communications and information in a contact center |
CN109753146B (zh) * | 2018-05-11 | 2020-07-03 | 北京字节跳动网络技术有限公司 | 一种移动终端启动应用的方法及移动终端 |
US11557215B2 (en) * | 2018-08-07 | 2023-01-17 | Physera, Inc. | Classification of musculoskeletal form using machine learning model |
KR102582863B1 (ko) * | 2018-09-07 | 2023-09-27 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
KR102627014B1 (ko) * | 2018-10-02 | 2024-01-19 | 삼성전자 주식회사 | 전자 장치 및 제스처 인식 방법 |
US10984601B2 (en) | 2018-10-21 | 2021-04-20 | Oracle International Corporation | Data visualization objects in a virtual environment |
CN109933298B (zh) * | 2018-11-08 | 2022-04-22 | 闽江学院 | 一种根据用户位置进行显示的方法及装置 |
CN109684013A (zh) * | 2018-12-24 | 2019-04-26 | 杭州达现科技有限公司 | 一种基于多用户显示界面的显示方法和装置 |
CN109683744B (zh) * | 2018-12-24 | 2022-05-13 | 杭州达现科技有限公司 | 一种基于显示界面的目录整合方法和装置 |
CN109669655A (zh) * | 2018-12-25 | 2019-04-23 | 杭州达现科技有限公司 | 一种基于多用户的目录交换方法和装置 |
CN109656456B (zh) * | 2018-12-25 | 2020-10-20 | 杭州达现科技有限公司 | 一种显示界面的目录共享方法及装置 |
CN109683772A (zh) * | 2018-12-25 | 2019-04-26 | 杭州达现科技有限公司 | 一种基于显示界面的目录组合方法及装置 |
CN109582431A (zh) * | 2018-12-25 | 2019-04-05 | 杭州达现科技有限公司 | 一种显示界面的目录更新方法及装置 |
CN109684014A (zh) * | 2018-12-25 | 2019-04-26 | 杭州达现科技有限公司 | 一种显示界面的数据交互方法和装置 |
CN109614067A (zh) * | 2018-12-25 | 2019-04-12 | 杭州达现科技有限公司 | 一种基于多用户的目录交换方法和装置 |
CN109660667A (zh) * | 2018-12-25 | 2019-04-19 | 杭州达现科技有限公司 | 一种基于相同显示界面的资源共享方法和装置 |
EP3923149A4 (en) * | 2019-02-04 | 2022-04-06 | Sony Group Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD |
KR20200117766A (ko) * | 2019-04-05 | 2020-10-14 | 삼성전자주식회사 | 디스플레이 아래에 배치된 센서의 성능을 보완하는 방법 및 이를 수행하는 전자 장치 |
JP7168768B2 (ja) * | 2019-04-08 | 2022-11-09 | 株式会社ワコム | デジタルインクを管理するホームuiシステム |
US11175809B2 (en) * | 2019-08-19 | 2021-11-16 | Capital One Services, Llc | Detecting accessibility patterns to modify the user interface of an application |
US12118050B2 (en) * | 2019-10-31 | 2024-10-15 | Microstrategy Incorporated | Systems and methods for analytics presentation on large displays |
TWI800732B (zh) * | 2020-04-08 | 2023-05-01 | 開曼群島商粉迷科技股份有限公司 | 適地性個人化內容提供方法與系統 |
WO2022054283A1 (ja) * | 2020-09-14 | 2022-03-17 | 日本電信電話株式会社 | 情報処理システム、情報処理方法およびプログラム |
US11678006B2 (en) * | 2021-06-17 | 2023-06-13 | Microsoft Technology Licensing, Llc | Multiple device content management |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4576740B2 (ja) | 2001-04-02 | 2010-11-10 | ソニー株式会社 | 窓状撮像表示装置及びそれを使う双方向通信方法 |
JP2004185139A (ja) * | 2002-11-29 | 2004-07-02 | Fuji Photo Film Co Ltd | 表示システム及び表示装置の制御方法 |
JP4432462B2 (ja) | 2003-11-07 | 2010-03-17 | ソニー株式会社 | 撮像装置及び方法、撮像システム |
JP4595313B2 (ja) | 2003-11-14 | 2010-12-08 | ソニー株式会社 | 撮像表示装置及び方法、画像送受信システム |
KR101270847B1 (ko) | 2004-07-30 | 2013-06-05 | 애플 인크. | 터치 감지 입력 장치용 제스처 |
JP4644870B2 (ja) * | 2006-03-30 | 2011-03-09 | 株式会社国際電気通信基礎技術研究所 | コンテンツ提示装置 |
KR100764698B1 (ko) * | 2006-08-07 | 2007-10-08 | 삼성전자주식회사 | 카메라 영상의 패턴인식과 해석에 의한 휴대 단말기의사용자 인터페이스 제어 방법 및 그 단말기 |
US20080172627A1 (en) * | 2006-12-28 | 2008-07-17 | Sharp Kabushiki Kaisha | Information display apparatus, information providing server, information display system, method for controlling information display apparatus, method for controlling information providing server, control program and recording medium |
JP5093884B2 (ja) * | 2007-04-17 | 2012-12-12 | シャープ株式会社 | 表示制御装置及び表示制御プログラム |
JP4958286B2 (ja) * | 2007-05-28 | 2012-06-20 | シャープ株式会社 | 情報表示装置及び情報表示方法 |
US8203577B2 (en) | 2007-09-25 | 2012-06-19 | Microsoft Corporation | Proximity based computer display |
EP2065795A1 (en) * | 2007-11-30 | 2009-06-03 | Koninklijke KPN N.V. | Auto zoom display system and method |
JP2010016432A (ja) * | 2008-07-01 | 2010-01-21 | Olympus Corp | デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体 |
JP2010035477A (ja) | 2008-08-05 | 2010-02-18 | Kayoko Isayama | 生蛸入りパック |
US9104408B2 (en) | 2008-08-22 | 2015-08-11 | Sony Corporation | Image display device, control method and computer program |
US8464160B2 (en) * | 2008-09-29 | 2013-06-11 | Panasonic Corporation | User interface device, user interface method, and recording medium |
JP4821859B2 (ja) * | 2009-01-29 | 2011-11-24 | ソニー株式会社 | 表示装置、表示方法およびプログラム |
US20100251171A1 (en) * | 2009-03-31 | 2010-09-30 | Parulski Kenneth A | Graphical user interface which adapts to viewing distance |
US20120019447A1 (en) * | 2009-10-02 | 2012-01-26 | Hanes David H | Digital display device |
JP5556296B2 (ja) * | 2010-03-25 | 2014-07-23 | 富士通株式会社 | 表示装置、表示方法及びプログラム |
JP2012003690A (ja) * | 2010-06-21 | 2012-01-05 | Toyota Infotechnology Center Co Ltd | ユーザインタフェース装置 |
US8957847B1 (en) * | 2010-12-28 | 2015-02-17 | Amazon Technologies, Inc. | Low distraction interfaces |
US9041734B2 (en) * | 2011-07-12 | 2015-05-26 | Amazon Technologies, Inc. | Simulating three-dimensional features |
-
2012
- 2012-01-13 JP JP2012005551A patent/JP5957893B2/ja active Active
-
2013
- 2013-01-09 WO PCT/JP2013/000034 patent/WO2013105493A1/en active Application Filing
- 2013-01-09 US US14/368,950 patent/US10261589B2/en active Active
- 2013-01-09 CN CN201380004826.9A patent/CN104040474B/zh active Active
- 2013-01-09 EP EP13701300.9A patent/EP2802978B1/en not_active Not-in-force
Also Published As
Publication number | Publication date |
---|---|
CN104040474A (zh) | 2014-09-10 |
US10261589B2 (en) | 2019-04-16 |
US20140365927A1 (en) | 2014-12-11 |
JP5957893B2 (ja) | 2016-07-27 |
EP2802978A1 (en) | 2014-11-19 |
WO2013105493A1 (en) | 2013-07-18 |
JP2013145468A (ja) | 2013-07-25 |
EP2802978B1 (en) | 2017-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104040474B (zh) | 信息处理设备、信息处理方法以及记录介质 | |
CN104025004B (zh) | 信息处理设备、信息处理方法和计算机程序 | |
CN103207668B (zh) | 信息处理装置、信息处理方法以及非暂态记录介质 | |
CN104040463B (zh) | 信息处理设备和信息处理方法、以及计算机程序 | |
CN103309556B (zh) | 信息处理设备、信息处理方法及计算机可读介质 | |
JP6200270B2 (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
CN103631768B (zh) | 协作数据编辑和处理系统 | |
US20170201711A1 (en) | Display apparatus, display method, and computer program | |
CN103826057A (zh) | 图像处理设备、图像处理方法和图像拍摄设备 | |
CN109479115A (zh) | 信息处理装置、信息处理方法和程序 | |
JP2015225400A (ja) | 通信システム、転送制御装置、通信方法およびプログラム | |
JP2019057849A (ja) | プログラム、情報処理装置、画像処理システム | |
JP2022013427A (ja) | 情報処理装置、画像生成方法、プログラム | |
JP6093074B2 (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
JP2021125145A (ja) | 情報処理装置、画像処理システム、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |