CN103313080A - 控制设备、电子装置、控制方法和程序 - Google Patents

控制设备、电子装置、控制方法和程序 Download PDF

Info

Publication number
CN103313080A
CN103313080A CN2013100748889A CN201310074888A CN103313080A CN 103313080 A CN103313080 A CN 103313080A CN 2013100748889 A CN2013100748889 A CN 2013100748889A CN 201310074888 A CN201310074888 A CN 201310074888A CN 103313080 A CN103313080 A CN 103313080A
Authority
CN
China
Prior art keywords
information
display screen
presented
described display
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013100748889A
Other languages
English (en)
Inventor
小波宗一
大场统
川名阳方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN103313080A publication Critical patent/CN103313080A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

提供了一种控制设备、电子装置、控制方法和程序。该控制设备包括:控制单元,被配置成按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息。在所述控制单元的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。

Description

控制设备、电子装置、控制方法和程序
技术领域
本技术涉及一种控制设备、电子装置、控制方法和程序。
背景技术
近来,如下立体视图显示技术已经受到关注:该技术用于通过显示考虑视差的视频而允许观看者识别出视频的立体感。立体视图显示技术是下述技术:该技术用于通过在考虑视差的情况下准备左眼视频和右眼视频、将左眼视频投影到观看者的左眼并将右眼视频投影到观看者的右眼,来允许观看者识别出视频的立体感。在该技术中,存在使用专用眼镜将不同视频投影到左眼和右眼的方案(使用偏振等的方案)、以及使用双凸透镜、视差栅栏等将进入左眼和右眼的光分离的方案(所谓的裸眼三维(3D)方案)(参见JP 2006-235116A)。
这些技术被广泛称作立体视图显示技术,但是用于使用双凸透镜、视差栅栏等在不同视点显示不同视频或图像的技术可能会是更普遍的。例如,如果使用双凸透镜、视差栅栏等,则可以关于三个或更多个视点而不限于两个视点(也就是,左眼和右眼)显示不同视频。此外,如果不考虑立体视图显示,则也可以将完全分离的图像投影到三个或更多个不同的视点。上述技术被称作多视差显示技术。
发明内容
发明人已经研究了将上述多视差显示技术和等同技术应用于用户接口(UI)的方法。在该过程中,发明人开始对当前激增的许多电子装置所采用的UI配置提出各种疑问。尽管存在包括触摸面板的各种输入装置并且用户通常使用输入装置舒适地执行操作,但是一个问题是在特定操作类型下不与操作装置接触是否可获得更高的操作性。此外,如果实现了可以不接触操作装置而执行操作的UI,则似乎有可能实现目前未设想的新服务。
希望提供一种能够实现更舒适的操作性的、新颖的且改进的控制设备、电子装置、控制方法和程序。
根据本公开的实施例,提供了一种控制设备,该控制设备包括:控制单元,被配置成按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息。在所述控制单元的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
根据本公开的实施例,提供了一种电子装置,该电子装置包括:显示单元,被配置成显示信息;以及控制单元,被配置成按照根据所述显示单元的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息。在所述控制单元的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
根据本公开的实施例,提供了一种控制方法,该控制方法包括:按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息。在控制步骤的控制下要显示在显示屏幕上的信息是下述信息:所述信息从能够显示在显示屏幕上的信息中提取,作为具有满足针对每个位置关系设置的预定条件的属性的信息。
根据本公开的实施例,提供了一种控制方法,该控制方法包括:通过具有用于显示信息的显示单元的电子装置,按照根据所述显示单元的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息。在控制步骤中的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
根据本公开的实施例,提供了一种程序,所述程序用于使得计算机实现下述控制功能:按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息。在所述控制功能的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
根据本公开的实施例,提供了用于使得计算机实现下述功能的程序:显示功能,用于显示信息;以及控制功能,用于按照根据在其上显示信息的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息。在所述控制功能的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
此外,根据本技术的另一实施例,提供了一种记录上述程序的计算机可读记录介质。
根据如上所述的本技术,可以实现更舒适的操作性。
附图说明
图1是示出了多视差显示的说明图;
图2是示出了多视差显示的说明图;
图3是示出了多视差显示的说明图;
图4是示出了对象显示方法的说明图;
图5是示出了对象显示方法的说明图;
图6是示出了对象显示方法的说明图;
图7是示出了第一示例的概述的说明图;
图8是示出了第一示例的概述的说明图;
图9是示出了第二示例的概述的说明图;
图10是示出了环境振动检测和对策的考虑的说明图;
图11是示出了可应用根据本示例的技术的系统配置的示例的说明图;
图12是示出了可应用根据本示例的技术的系统配置的示例的说明图;
图13是示出了根据第一示例的电子装置的功能配置的说明图;
图14是示出了根据第一示例的电子装置的功能配置的说明图;
图15是示出了根据第一示例的服务器的功能配置的说明图;
图16是示出了根据第一示例的系统的操作的说明图;
图17是示出了根据第一示例的电子装置的功能配置的说明图;
图18是示出了根据第一示例的电子装置的功能配置的说明图;
图19是示出了根据第一示例的系统的操作的说明图;
图20是示出了对应于视线方向的应用切换操作的说明图;
图21是示出了对应于视线方向的工具切换操作的说明图;
图22是示出了对应于视线方向的回放速度切换操作的说明图;
图23是示出了叠加信息的筛选的说明图;
图24是示出了操作对象的筛选的说明图;
图25是示出了内容的筛选的说明图;
图26是示出了内容的筛选的说明图;
图27是示出了关于注视点来显示信息的方法的说明图;
图28是示出了根据注视角度进行筛选的说明图;
图29是示出了通过窥视进行放大/缩小操作的说明图;
图30是示出了通过窥视进行放大/缩小操作的说明图;
图31是示出了通过姿势来固定显示内容的操作的说明图;
图32是示出了通过视线移动到预定区域来固定显示内容的操作的说明图;
图33是示出了基于静止时间或眨眼来固定显示内容的操作的说明图;
图34是示出了根据第二示例的电子装置的功能配置的说明图;
图35是示出了根据第二示例的服务器的功能配置的说明图;
图36是示出了根据第二示例的系统的操作的说明图;
图37是示出了根据第二示例的系统的操作的说明图;
图38是示出了根据第二示例的电子装置的功能配置的说明图;
图39是示出了根据第二示例的系统的操作的说明图;
图40是示出了3D显示的说明图;
图41是示出了二维(2D)显示中的深度信息的说明图;
图42是示出了基于视线交叉点数目来选择对象的方法的说明图;
图43是示出了基于视线交叉点数目来选择对象的方法的说明图;
图44是示出了基于视线交叉点数目来选择对象的方法的说明图;
图45是示出了应用对象区域划分的、基于视线交叉点数目来选择对象的方法的说明图;
图46是示出了应用对象区域划分的、基于视线交叉点数目来选择对象的方法的说明图;
图47是示出了基于注视时间来确定对象选择的方法的说明图;
图48是示出了基于视线移动速度来确定对象选择的方法的说明图;
图49是示出了通过姿势或眨眼来进行决定操作的说明图;
图50是示出了通过对象的移动来辅助缩减操作的说明图;
图51是示出了通过对象的移动来辅助缩减操作的说明图;
图52是示出了改变选择对象的方法的说明图;
图53是示出了基于视线交叉点数目来选择对象的方法的说明图;
图54是示出了基于物理对象识别结果应用而个人化的、基于视线交叉点数目来选择对象的方法的说明图;
图55是示出了选择结果的排序显示的说明图;
图56是示出了突出对应于视线交叉点数目的对象的方法的说明图;
图57是示出了热图显示的说明图;
图58是示出了通过数值或字符来显示视线交叉点数目的说明图;
图59是示出了通过指示器来显示视线交叉点数目的说明图;
图60是示出了对明显部分的视线交叉点数目进行加权的方法的说明图;以及
图61是示出了能够实现根据本实施例的电子装置和服务器的功能的硬件配置的说明图。
具体实施方式
下文中,将参照附图详细描述本公开的优选实施例。注意,在本说明书和附图中,用相同的附图标记表示具有基本相同的功能和结构的结构元件,并省略这些结构元件的重复说明。
[描述的流程]
这里,将简要描述以下描述的流程。
首先,将参照图1至图12描述根据本实施例的技术概况。然后,将参照图13至图33描述本实施例的第一示例。然后,将参照图34至图59描述本实施例的第二示例。然后,将参照图60描述对象选择方法,其中识别出对象中的对用户明显的部分。然后,将介绍将本实施例的第一示例和第二示例组合的方法的示例。然后,将参照图61描述实现根据本实施例的技术的硬件配置的示例。最后,将概述同一实施例的技术构思,并且将简要描述根据这些技术构思获得的操作效果。
(描述项目)
1:引言
1-1:基础技术的介绍
1-1-1:多视差显示
1-1-2:头部跟踪
1-2:普通UI的示例和改进构思的考虑
1-2-1:对象显示方法
1-2-2:对象操作方法
1-3:第一示例的概述(信息的筛选等)
1-4:第二示例的概述(信息的选择等)
1-5:环境振动的检测和对策的考虑
1-6:系统配置示例
1-6-1:配置示例#1(使用云环境的配置)
1-6-2:配置示例#2(使用装置功能的配置)
2:第一示例的细节(信息的筛选等)
2-1:配置示例#1的情况
2-1-1:电子装置的功能配置
2-1-2:服务器的功能配置
2-1-3:系统的基本操作
2-2:配置示例#2的情况
2-2-1:电子装置的功能配置
2-2-2:系统的基本操作
2-3:(应用示例)应用的控制
2-3-1:对应于视线方向的应用切换操作
2-3-2:对应于视线方向的工具切换操作
2-3-3:对应于视线方向的回放速度切换操作
2-4:(应用示例)筛选器的配置
2-4-1:叠加信息的筛选
2-4-2:操作对象的筛选
2-4-3:内容的筛选
2-5:(应用示例)窥视操作
2-5-1:关于注视点的信息的显示
2-5-2:根据注视角度的筛选
2-5-3:通过窥视放大/缩小
2-6:(应用示例)显示内容的固定
2-6-1:通过姿势来固定显示内容
2-6-2:通过视线移动到预定区域来固定显示内容
2-6-3:基于静止时间来固定显示内容
2-6-4:通过眨眼(面部表情改变)来固定显示内容
2-7:应用示例
2-8:效果
3:第二示例的细节(信息的选择等)
3-1:配置示例#1的情况
3-1-1:电子装置的功能配置
3-1-2:服务器的功能配置
3-1-3:系统的基本操作
3-2:配置示例#2的情况
3-2-1:电子装置的功能配置
3-2-2:系统的基本操作
3-3:(补充)深度表示
3-3-1:3D显示
3-3-2:2D显示+深度信息
3-4:对象选择方法#1(单个用户)
3-4-1:基于视线交叉点数目的选择方法
3-4-2:对象的区域划分
3-4-3:基于注视时间的选择确定
3-4-4:基于视线移动速度的选择确定
3-4-5:通过姿势进行决定操作
3-4-6:通过眨眼(面部表情改变)进行决定操作
3-4-7:通过对象的移动来辅助缩减操作
3-4-8:选择对象的改变
3-5:对象选择方法#2(多个用户)
3-5-1:基于视线交叉点数目的选择方法
3-5-2:基于物理对象识别结果(年龄/性别/登记人等)的个人化
3-5-3:选择结果的排序显示
3-6:注视情形的显示
3-6-1:对应于视线交叉点数目的突出(颜色/运动/透明等)
3-6-2:热图显示
3-6-3:通过数值或字符来显示视线交叉点数目
3-6-4:通过指示器来显示视线交叉点数目
3-7:取消方法
3-8:考虑明显区域的方法
3-9:应用示例
3-10:效果
4:应用示例(组合)
4-1:对应于视线方向的对象的显示+通过视线进行选择
4-1-1:对象显示的固定+通过视线移动进行选择
4-1-2:通过上/下移动进行显示控制+通过左/右移动进行选择操作
4-2:多个装置的组合
4-2-1:便携式装置(筛选器)+电视接收机(视线操作)
4-2-2:便携式装置(筛选器)+数字标志终端(视线操作)
5:硬件配置示例
6:综述
<1:引言>
在详细描述根据本实施例的技术之前,首先将描述与该技术有关的基础技术。然后,稍后将详细描述示例的概况。
[1-1:基础技术的介绍]
首先,将介绍多视差显示技术和头部跟踪技术。
[1-1-1:多视差显示(图1至图3)]
如上所述,多视差显示技术被广泛用作3D显示的基础技术。如图1中所示,通过使用视场限制装置限制视场并使得根据视点位置观看不同显示区域,来实现多视差显示。作为视场限制装置,例如,存在视差透镜、双凸透镜等。当然,双凸透镜不通过遮光来限制视场,但是双凸透镜可以实现等同于视差透镜的功能,即通过控制光导来限制要观看的区域。
在图1的示例中,从视点E1观看不到显示区域R1、R2、R3和R4。类似地,从视点E2观看不到显示区域L1、L2、L3和L4。在说明书中,观看位置(例如,眼睛的位置)被称作“视点”。在图1的示例中,如果右眼图像被显示在显示区域R1、R2、R3和R4上并且左眼图像被显示在显示区域L1、L2、L3和L4上,则在视点E1是用户的左眼且视点E2是用户的右眼时,用户立体地识别出图像。
在3D显示的情况下,尽管仅必需关于两个视点观看不同的图像,但是在基本相同的方法中可以使得关于三个或更多个视点观看不同的图像。具体地,如图2中所示,可以通过控制视场限制装置并调节视场限制范围来将从三个或更多个视点观看的每个范围限制于预定显示区域。在图2的示例中,从视点E1观看的范围被限制于显示区域#1,从视点E2观看的范围被限制于显示区域#2,并且从视点E3观看的范围被限制于显示区域#3。
在3D显示的情况下,通过在意识到左眼和右眼的情况下考虑对应于两个视点的两种类型的显示区域中的视差,来显示两种类型的图像。然而,如果显示相同的图像,则执行2D显示。因此,多视差显示可应用于2D显示以及3D显示。因此,在以下描述中,为了便于说明,将描述3D或2D显示的示例。然而,应注意,稍后要描述的技术可应用于任何显示方案。此外,如图3所示,仅显示屏幕的一部分可以进行多视差显示。
上面已经简要描述了多视差显示。
[1-1-2:头部跟踪]
如上所述,多视差显示是下述机制:该机制通过使用视场限制装置限制视场,来使得从每个视点位置观看到不同的信息。除了该机制之外,作为用于使得从每个视点位置观看到不同信息的机制,例如,采用使用头部跟踪技术的机制。因此,将简要介绍头部跟踪技术。
头部跟踪技术是用于跟踪预定部位(例如,头部)的运动的技术。例如,已知下述技术:该技术用于在连续捕获多个图像时,例如当在与成像设备有关的快门操作之前捕获要呈现给用户的预览图像时,从连续捕获的图像中跟踪被摄对象。具体地,已知用于使用硅视网膜跟踪被摄对象的技术(例如,参见JP 2004-240591A)和用于使用深度感测成像技术跟踪被摄对象的技术(例如,参见JP2007-514211T)。
此外,在Jean-Yves Bouguet发表于“Intel CorporationMicroprocessor Research Labs(2000)OpenCV Documents”的“PyramidalImplementation of the Lucas Kanade Feature Tracker Description of thealgorithm”中,提出了一种用于使用Lucas-Kanade算法跟踪被摄对象的机制。
此外,在使用硅视网膜或深度感测成像技术的技术的情况下,必需具有硅视网膜的专用设备或深度摄像机。此外,在使用Lucas-Kanade算法的机制的情况下,检测特征点或跟踪被摄对象所必需的处理负荷是高的,并且处理是耗时的。此外,作为Lucas-Kanade算法的缺点,指出了当形状改变大时等无法稳定地跟踪被摄对象。基于这一点,近来,已经开发了改进的跟踪技术(例如,参见JP 2011-150594A)。当应用该技术时,未配备有专用设备的成像设备可以稳定地跟踪被摄对象(例如,头部等)。
当使用上述跟踪技术时,可以检测面部的方向、眼睛的位置、视线方向等。因此,如同在通过根据视点位置的检测结果切换显示内容的多视差显示的情况中那样,可以实现用于使得从每个视点位置观看到不同信息的机制。
上面已经简要描述了头部跟踪。
[1-2:普通UI的示例和改进构思的考虑]
接着,示出了普通UI的示例,并且考虑了要改进的要点。
(1-2-1:对象显示方法(图4和图5))
如图4中所示,在当前激增的电子装置当中,一些电子装置中加载了显示立体对象的功能。如上所述,可以执行显示,以使得通过限制要由左眼和右眼观看的区域并在考虑视差的情况下显示对象的图像,而立体地观看到对象。在此情况下,实际上,对象被观看成从显示屏幕伸出。该显示方法可广泛应用于电子装置,例如像便携式终端、便携式游戏机、便携式电话、电视接收机、数字标志终端、以及其它显示设备。
此外,如图5中所示,已知下述技术:该技术用于显示使用电子装置的成像功能实时成像的被摄对象。此外,一些电子装置中加载了在显示的被摄对象上叠加并显示信息(下文中为叠加信息)的功能。作为叠加信息,存在关于被摄对象的各种信息,例如像建筑物名称、商店名称、处理产品、类型和流行度。此外,用于清楚指定上述相关信息的存在的对象可以作为叠加信息而被显示。此外,还存在下述应用:通过该应用,当对象与操作体接触时,获得详细的叠加信息。
(1-2-2:对象操作方法(图6))
此外,在配备有叠加信息的显示功能的许多电子装置中,如图6中所示,使用了利用按钮操作来切换叠加信息的类型或量的操作系统。在图6所示的电子装置的情况下,当按钮A已经被按压时,显示叠加信息A1和A2,并且当按钮B已经被按压时,显示叠加信息B1和B2。
在上述操作系统中,许多用户经历极端的不便利的机会当然较少。然而,带有大行李箱等的操作电子装置的用户的手可能会是满的。因为必需用至少一只手持握电子装置,所以在另一手是满的时,用户用持握电子装置的手来执行按钮操作。尽管在图6的示例中为了简化示出了操作两个大按钮的情形,但是实际上可能布置大量的小按钮。此外,如果按钮的尺寸大,则信息显示区域被窄化,并且如果按钮数目进一步减少,则更难以切换或缩减信息。
尽管已经描述了按钮操作的示例,但是甚至在如图5所示的示例中那样触摸屏幕内的预定区域的操作中,同样也是如此。此外,如在图4所示的示例中那样,当应用立体视图显示时,最初必需一定技巧以利用操作体来操作对象。鉴于这种情形,使操作性退化的要素可能包括在UI自身中,其中UI是用于操作体与电子装置的显示屏幕物理接触或用于操作体与立体视图对象虚拟接触所必需的。当然,因为还预期对必需与操作体接触的操作系统的完全排除是使操作性退化的因素,因此在必要的情况下,应将好的构思与新操作技术结合。
接下来,将讨论被认为是新操作技术的机制。此外,还将讨论新操作技术有效地起作用的情形。发明人通过用上述构思进行敏锐研究而设计了使用用户的操作(诸如“观看”)的机制。下文中,将介绍具体示例。
[1-3:第一示例的概述(信息的筛选等)(图7和图8)]
首先,将描述第一示例的概述。第一示例涉及切换视点移动的显示信息的操作技术。该操作技术基于使用上述多视差显示、头部跟踪等的视点检测技术。
例如,电子装置10具有如下功能:根据用户观看显示屏幕的角度θ切换(筛选)要观看的信息的类型。因此,如图7中所示,当例如从右侧朝向显示屏幕观看电子装置10时(即,当电子装置10具有向左倾斜时),将叠加信息A1和A2设置为被观看。类似地,当例如从左侧朝向显示屏幕观看电子装置10时(即,当电子装置10具有向右倾斜时),将叠加信息B1和B2设置为被观看。提供了上述功能,由此用户可以仅通过在电子装置10被持握的状态下向左/右倾斜电子装置10的方向来切换显示信息。尽管图7中示出了电子装置10具有向左/右的倾斜的示例,但是甚至在诸如上或下的另外的方向上,也可以提供相似功能。
此外,尽管图7的示例中已经示出了切换叠加信息的技术,但是也可以做出改变,以使得如图8所示那样来切换操作对象OBJ1和OBJ2。此外,角度θ的区域可以被分成多个范围,并且显示内容可以被配置成针对每个范围改变。例如,正面可以被设置为0度,从-15度到15度的范围可以被设置为第一范围,从16度到30度的范围可以被设置为第二范围,31度或更大度数的范围可以被设置为第三范围,从-16度到-30度的范围可以被设置为第四范围,并且-31度或更小度数的范围被设置为第五范围。当角度θ的绝对值更大时,信息量或内容细节可以被设置为更大(或更小)。
当将上述信息的逐步显示设置为由诸如按钮的对象实现时,必需大量的按钮,或者必需诸如转盘或操作栏的专用UI。此外,为了操作这种操作对象,必需与持握该装置的手相反的手,或操作处理的数量将会增加。然而,当应用如图7和图8中所示的新操作技术时,可以在操作处理的数量小的直观操作中实现信息的逐步显示。
此外,当使用多视差显示时,通过针对每个角域对于用户要观看的图像组来预先显示要显示的信息,快速实现了显示信息的切换,而不会因图像的切换导致任何延迟。在这种情况下,应注意,电子装置10不是仅通过切换用户要观看的信息来切换图像。另一方面,当使用头部跟踪时,电子装置10必需针对每个角域切换图像。在这种情况下,电子装置10可以被设置成预先获取对应于正面的附近(0度角的附近)的图像,并从对应于角度小的角域的图像开始来依次获取图像。
通常,这是因为用户在从正面观看电子装置10的情况下校验显示内容,然后改变角度。如上所述,通过假定用户的操作并调节图像被获取的定时,图像获取所必需的流量减小,并且减小的流量有助于吞吐量的提高。此外,因为从对应于正面的附近的图像开始依次获取图像,所以在等待图像获取的时候不可能导致显示延迟。因此,可以向用户提供流畅操作感。尽管可以预期该配置在从经由网络连接的服务器(包括云系统等)获取图像时具有高效果,然而甚至当从装置内的存储装置获取图像时也获得该效果。
上面已经描述了第一示例的概述。
[1-4:第二示例的概述(信息的选择等)(图9)]
接着,将描述第二示例的概述。第二示例涉及使用视线方向选择对象的操作技术。该操作技术基于使用上述多视差显示或头部跟踪等的视线检测技术。尽管这里将描述3D显示的示例,但是该示例的相同技术类似地也可应用于针对具有深度信息的对象的2D显示。
如图9中所示,电子装置20具有立体地显示对象的功能。此外,电子装置20检测用户的视线。电子装置20确定视线与对象之间的交叉点。此外,电子装置20对针对每个对象的交叉点数目进行计数。例如,当已经检测到视线Q1时,电子装置20检测到视线Q1与对象OBJ1之间的交叉点,并将针对对象OBJ1的交叉点数目设置为1。为了简化,假定视线Q1和Q2不与对象OBJ2至OBJ4相交。于是,当已经检测到视线Q2时,电子装置20检测到视线Q2与对象OBJ1之间的交叉点,并将针对对象OBJ1的交叉点数目更新为2。
类似地,当已经检测到视线Q3时,电子装置20检测到视线Q3与对象OBJ1之间的交叉点,并将针对对象OBJ1的交叉点数目更新为3。此外,在图9的示例中,因为视线Q3与对象OBJ2相交,所以电子装置20检测到视线Q3与对象OBJ2之间的交叉点,并将针对对象OBJ2的交叉点数目设置为1。这里,因为针对对象OBJ1的交叉点数目为3、针对对象OBJ2的交叉点数目为1、并且针对对象OBJ3和OBJ4的交叉点数目为0,所以电子装置20选择具有最大交叉点数目的对象OBJ1。
视线Q1至Q3可以是单个用户的视线或可以是多个用户的视线。例如,电子装置20可以被设置为在预定周期内检测视线,并且对象的选择可以被设置为基于每个预定时段中检测到的针对每个对象的交叉点数目来进行(一个或更多个用户的情况)。此外,电子装置20可以被设置为在特定的定时处检测视线,并且对象的选择可以被设置为基于在该时刻检测到的针对每个对象的交叉点数目来进行(多个用户的情况)。此外,可以进行配置,以使得具有预定的交叉点数目或更多数目的对象以及具有最大交叉点数目的对象被选择。
因为当应用上述第二示例的操作技术时可以仅通过进行关注来选择对象,所以可以容易地选择具有立体感的对象。具体地,作为对不可获得触摸感的可视对象进行操作的技术,本技术是优选的。此外,因为可以检测到多个用户同时关注的对象,所以存在将本技术应用于各种服务(诸如为进行营销而使用统计数据和用于有效的广告显示的使用)的多种可能性。
上面已经描述了第二示例的概述。
[1-5:环境振动的检测和对策的考虑(图10)]
顺便提及,在对观看方向或视线指向的方向上的显示进行切换的UI的情况下,显示有可能被切换并且可视性有可能通过用户无意的振动而退化。例如,当显示通过火车或公共汽车的振动(下文中为环境振动)而频繁切换时,担心频繁切换导致物理条件恶化以及可视性退化。
因此,如图10中所示,在倾斜角超过预定阈值之前固定显示,使得在由于环境振动所产生的倾斜度下显示不会被切换。此外,还考虑了配备有模式切换功能的机制,该模式切换功能准备车辆模式等、在车辆模式下增加阈值、并且在其他情况下降低阈值。此外,还考虑了下述机制:该机制用于在大的环境振动瞬间发生时,通过与陀螺仪传感器、加速度传感器等协作而固定显示内容。通过提供上述机制,甚至当应用根据第一示例和第二示例的操作技术时,也可以避免环境振动对用户的负面影响。
[1-6:系统配置示例]
这里,将描述可应用第一示例和第二示例的技术的系统配置的示例。作为可应用根据第一示例和第二示例的技术的系统配置,例如,考虑了主要使用云环境的配置(配置示例#1)和主要使用装置功能的配置(配置示例#2)。因此,将介绍每个系统配置示例。
(1-6-1:配置示例#1(使用云环境的配置)(图11))
首先,将描述配置示例#1。如图11中所示,根据配置示例#1的系统包括经由网络相互连接的电子装置(电子装置10和20)和服务器(服务器30)。此外,作为电子装置10和20,例如,考虑了显示设备、信息处理设备、终端设备等。作为服务器30,考虑了独立服务器设备、包括多个服务器设备的服务器群等。此外,作为服务器群的形式,考虑了安装在数据中心等中的分布式并行算术系统、所谓的云系统等。然而,当应用第一示例和第二示例的技术时,上述形式之间的差别并不重要,并且这些技术可应用于任意形式。
(1-6-2:配置示例#2(使用装置功能的配置)(图12))
接着,将描述配置示例#2。如图12中所示,根据配置示例#2的系统包括独立的电子装置(电子装置10和20)。然而,电子装置10和20不是完全独立于网络。这里,期望如下配置:其中,在应用第一示例和第二示例的技术之时,装置本身执行主要处理。作为电子装置10和20,例如,考虑了显示设备、信息处理设备、终端设备等。
上面已经描述了系统配置示例。下文中,描述将会考虑到两类系统配置示例而进行。当然,鉴于当前和未来的技术趋势,系统配置可以被适当修改。当然,可以将根据第一示例和第二示例的技术应用于进行过改变的系统。
<2:第一示例的细节(信息的筛选等)>
下文中,将详细描述第一示例。
[2-1:配置示例#1的情况]
在配置示例#1的情况下,如下描写了例如根据第一示例的电子装置10的功能配置和服务器30的功能配置。
(2-1-1:电子装置的功能配置(图13和图14))
首先,参照图13和图14,将描述电子装置10的功能配置。图13是示出了能够实现使用多视差显示的操作技术的电子装置10的功能配置的说明图。图14是示出了能够实现使用头部跟踪的操作技术的电子装置10的功能配置的说明图。尽管这里为了易于描述而将描述基于根据第一示例的操作技术来切换叠加信息的配置(见图7),但是例如切换对象等的配置(见图8)也是类似的。
(当使用多视差显示装置时(图13))
如图13中所示,电子装置10主要包括多视差显示单元101、显示控制单元102和叠加信息获取单元103。多视差显示单元101是能够实现如图1或图2中那样的多视差显示的多视差显示装置。显示控制单元102具有使得多视差显示单元101显示信息的功能。叠加信息获取单元103具有经由网络从服务器30获取叠加信息的功能。电子装置10可以包括用于使被摄对象成像的成像单元(未示出)、用于存储信息的存储单元(未示出)、全球定位系统(GPS)、陀螺仪传感器、加速度传感器等。
例如,将考虑图7中所示的情况。在这种情况下,首先,显示控制单元102使得多视差显示单元101实时地显示通过使被摄对象成像而获得的捕获图像。然后,叠加信息获取单元103将可用于指定被摄对象中包括的对象的信息发送到服务器30,并获取关于该对象的相关信息。获取相关信息的叠加信息获取单元103将从服务器30获取的相关信息输入到显示控制单元102,以作为要叠加并显示在捕获图像上的叠加信息。获取叠加信息的显示控制单元102在如下显示区域中显示该叠加信息:在该显示区域中,应显示对应于捕获图像的对象的位置或相关信息。
此时,显示控制单元102考虑到要观看的像素组根据用户观看的方向而不同这一事实,并显示根据对应于每个方向的像素组而不同的叠加信息。例如,显示控制单元102使用针对每个属性对叠加信息进行分类的筛选器,使用与每个方向预先相关联的筛选器来对叠加信息进行分类,并使得分类后的叠加信息显示在对应的像素组上。在这种情况下,用户根据观看方向而观看到具有不同属性的叠加信息。此外,当叠加信息的条数与每个方向相关联时,显示控制单元102使得关于对应于每个方向的像素组来显示其条数被随机地或通过预定规则缩减的叠加信息。在这种情况下,用户观看到其条数根据观看方向而不同的叠加信息。
显示控制单元102的显示方法不限于上述示例,并且各种变型都是可以的。尽管在上述示例中实现了通过方向来控制属性以及通过方向来控制数目,但是例如可以类似地实现对包括对象的显示区域或叠加信息的详细程度的控制。为了标识属性,例如,可以使用代表对象特性的参数,诸如“食物”、“午饭”、“货物”、“银行”、“银行ATM”、“银行出纳机”、“邮局”、“车站”和“公共汽车站”。可以从服务器30获取这些参数,并且可以在存储单元中准备和保存这些参数。
当使用多视差显示时,显示控制单元102使得在已经准备好叠加信息的步骤中显示对应于所有像素组的叠加信息。如上所述,通过与用户观看的角度是否已经改变无关地预先显示叠加信息,不会发生切换叠加信息所必需的待机时间。结果,可以高速切换显示内容。此外,当没有预先显示叠加信息时,叠加信息获取单元103预先从服务器30获取用于正面的叠加信息,并且然后从用于正面附近的方向的叠加信息开始依次获取叠加信息。根据上述配置,可以减少叠加信息的获取延迟(latency)。
上面已经描述了能够实现使用多视差显示的操作技术的电子装置10的功能配置。接着,将描述能够实现使用头部跟踪的操作技术的电子装置10的功能配置。
(当使用头部跟踪时(图14))
如图14中所示,电子装置10主要包括显示单元111、显示控制单元112、叠加信息获取单元113、成像单元114和头部跟踪单元115。电子装置10可以包括用于使被摄对象成像的成像单元(未示出)、用于存储信息的存储单元(未示出)、GPS、陀螺仪传感器、加速度传感器等。
这里,还将考虑图7中所示的情况。在这种情况下,首先,显示控制单元112使得显示单元111实时地显示通过使被摄对象成像而获得的捕获图像。然后,叠加信息获取单元113将可用于指定被摄对象中包括的对象的信息(诸如关于当前位置或成像方向的信息)发送到服务器30,并获取关于该对象的相关信息。获取相关信息的叠加信息获取单元113将从服务器30获取的相关信息输入到显示控制单元112,以作为要叠加并显示在捕获图像上的叠加信息。获取叠加信息的显示控制单元112在如下显示区域中显示该叠加信息:在该显示区域中,应显示对应于捕获图像的对象的位置或相关信息。
此时,成像单元114使用户成像。通过使用户成像而获得的捕获图像顺序地从成像单元114输入到头部跟踪单元115。头部跟踪单元115使用头部跟踪技术从捕获图像中跟踪用户的预定部位,并根据跟踪结果来检测视点的位置。头部跟踪单元115的检测结果被输入到筛选器选择单元116。当检测结果被输入时,筛选器选择单元116基于由输入的检测结果表示的方向来选择与方向相对应的筛选器。该筛选器例如可以用于根据属性将叠加信息分类,并且可以用于限制叠加信息的条数。关于由筛选器选择单元116选择的筛选器的信息被输入到显示控制单元112。
已经向其输入筛选器的显示控制单元112使用输入的筛选器将叠加信息分类,并使得显示单元111向用户显示分类的叠加信息。在这种情况下,用户观看分类的叠加信息。此外,当用户观看的方向改变时,由筛选器选择单元116改变筛选器,并且显示控制单元112使得显示单元111显示由改变后的筛选器分类的叠加信息。因此,如当已使用多视差显示时,用户可以通过仅改变观看方向来观看不同的叠加信息。
显示控制单元112的显示方法不限于上述示例,并且各种变型都是可以的。尽管在上述示例中实现了通过方向来控制属性以及通过方向来控制数目,但是例如可以类似地实现对包括对象的显示区域或叠加信息的详细程度的控制。为了标识属性,例如,可以使用代表对象特性的参数,诸如“食物”、“午饭”、“货物”、“银行”、“银行ATM”、“银行出纳机”、“邮局”、“车站”和“公共汽车站”。可以从服务器30获取这些参数,并且可以在存储单元中准备和保存这些参数。
此外,叠加信息获取单元113可以被配置成预先从服务器30获取用于正面的叠加信息并且然后从用于正面附近的方向的叠加信息开始依次获取叠加信息。根据上述配置,可以减少叠加信息的获取延迟。
上面已经描述了能够实现使用头部跟踪的操作技术的电子装置10的功能配置。接着,将描述服务器30的功能配置。
(2-1-2:服务器的功能配置(图15))
如图15中所示,服务器30包括叠加信息提供单元301、叠加信息选择单元302和被摄对象信息获取单元303。首先,被摄对象信息获取单元303从电子装置10获取用于指定被摄对象中包括的对象的信息(下文中为被摄对象信息)。作为被摄对象信息,例如,存在由GPS等检测到的位置信息以及由各个传感器等检测到的关于成像方向的信息。由被摄对象信息获取单元303获取的被摄对象信息被输入到叠加信息选择单元302。
当被摄对象信息被输入时,叠加信息选择单元302基于输入的被摄对象信息来选择关于对象的叠加信息。此时,叠加信息选择单元302可以在必要时从外部系统获取叠加信息。由叠加信息选择单元302选择的叠加信息被输入到叠加信息提供单元301。已经向其输入叠加信息的叠加信息提供单元301将输入的叠加信息提供给发送被摄对象信息的电子装置10。服务器30可以被配置成提供关于为电子装置10准备的筛选器的信息。
上面已经描述了服务器30的功能配置。
(2-1-3:系统的基本操作(图16))
接着,将参照图16描述根据第一示例的系统的基本操作。图16是示出了根据第一示例的系统的基本操作的说明图。
如图16中所示,首先,电子装置10检测用户观看的方向(视线方向)(S101)。然而,当使用多视差显示时,不必需检测视线方向。然后,电子装置10根据视线方向的检测结果来选择筛选器(S102)。然而,当使用多视差显示时,电子装置10在该步骤中准备对应于每个视线方向的筛选器。然后,电子装置10从服务器30获取叠加信息(S103)。然后,电子装置10基于在步骤S102中选择的筛选器来对从服务器30获取的叠加信息进行筛选(S104)。然后,电子装置10显示筛选后的叠加信息(S105)。
上面已经描述了根据第一示例的系统的基本操作。
如上所述,在配置示例#1的情况下,发生电子装置10与服务器30之间的叠加信息的交换。接着,将描述配置示例#2的情况。
[2-2:配置示例#2的情况]
在配置示例#2的情况下,如下描写了例如根据第一示例的电子装置10的功能配置。
(2-2-1:电子装置的功能配置(图17和图18))
首先,将参照图17和图18描述电子装置10的功能配置。图17是示出了能够实现使用多视差显示的操作技术的电子装置10的功能配置的说明图。图18是示出了能够实现使用头部跟踪的操作技术的电子装置10的功能配置的说明图。尽管这里为了易于描述而将描述根据第一示例的通过操作技术来切换叠加信息的配置(见图7),但是例如切换对象的配置(见图8)也是类似的。
(当使用多视差显示装置时(图17))
如图17中所示,电子装置10主要包括多视差显示单元121、显示控制单元122和叠加信息保存单元123。多视差显示单元121是能够实现如图1或图2中那样的多视差显示的多视差显示装置。显示控制单元122具有使得多视差显示单元121显示信息的功能。叠加信息保存单元123具有存储信息的功能。电子装置10可以包括用于使被摄对象成像的成像单元(未示出)、用于存储除了叠加信息以外的信息的存储单元(未示出)、GPS、陀螺仪传感器、加速度传感器等。
例如,将考虑图7中所示的情况。在这种情况下,首先,显示控制单元122使得多视差显示单元121实时地显示通过使被摄对象成像而获得的捕获图像。然后,叠加信息保存单元123基于可用于指定被摄对象中包括的对象的信息(诸如关于当前位置或成像方向的信息)来选择关于对象的相关信息。选择相关信息的叠加信息保存单元123将相关信息输入到显示控制单元122,以作为要叠加并显示在捕获图像上的叠加信息。获取叠加信息的显示控制单元122在如下显示区域中显示该叠加信息:在该显示区域中,应显示对应于捕获图像的对象的位置或相关信息。
此时,显示控制单元122考虑到要观看的像素组根据用户观看的方向而不同这一事实,并显示根据对应于每个方向的像素组而不同的叠加信息。例如,显示控制单元122使用针对每个属性对叠加信息进行分类的筛选器,使用与每个方向预先相关联的筛选器来对叠加信息进行分类,并使得分类后的叠加信息显示在对应的像素组上。在这种情况下,用户观看到根据观看方向而具有不同属性的叠加信息。此外,当叠加信息的条数与每个方向相关联时,显示控制单元122使得关于对应于每个方向的像素组来显示其条数被随机地或通过预定规则缩减的叠加信息被。在这种情况下,用户观看到其条数根据观看方向而不同的叠加信息。
显示控制单元122的显示方法不限于上述示例,并且各种变型都是可以的。尽管例如在上述示例中实现了通过方向控制属性以及通过方向控制数目,但是例如可以类似地实现对包括对象的显示区域或叠加信息的详细程度的控制。为了标识属性,例如,可以使用代表对象特性的参数,诸如“食物”、“午饭”、“货物”、“银行”、“银行ATM”、“银行出纳机”、“邮局”、“车站”和“公共汽车站”。可以从外部系统获取这些参数,并且可以在存储单元中准备和保存这些参数。
当使用多视差显示时,显示控制单元122使得在已经准备好叠加信息的步骤中显示对应于所有像素组的叠加信息。如上所述,通过与用户观看的角度是否已经改变无关地来预先显示叠加信息,不会发生切换叠加信息所必需的待机时间。结果,可以高速切换显示内容。
上面已经描述了能够实现使用多视差显示的操作技术的电子装置10的功能配置。接着,将描述能够实现使用头部跟踪的操作技术的电子装置10的功能配置。
(当使用头部跟踪时(图18))
如图18中所示,电子装置10主要包括显示单元131、显示控制单元132、叠加信息保存单元133、成像单元134和头部跟踪单元135。电子装置10可以包括用于使被摄对象成像的成像单元(未示出)、用于存储除了叠加信息以外的信息的存储单元(未示出)、GPS、陀螺仪传感器、加速度传感器等。
这里,还将考虑图7中所示的情况。在这种情况下,首先,显示控制单元132使得显示单元131实时地显示通过使被摄对象成像而获得的捕获图像。然后,叠加信息保存单元133基于可用于指定被摄对象中包括的对象的信息(诸如关于当前位置或成像方向的信息)来选择关于对象的相关信息。选择相关信息的叠加信息保存单元133将相关信息输入到显示控制单元132,以作为要叠加并显示在捕获图像上的叠加信息。获取叠加信息的显示控制单元132在如下显示区域中显示该叠加信息:在该显示区域中,应显示对应于捕获图像的对象的位置或相关信息。
此时,成像单元134使用户成像。通过使用户成像而获得的捕获图像顺序地从成像单元134输入到头部跟踪单元135。头部跟踪单元135使用头部跟踪技术从捕获图像中跟踪用户的预定部位,并根据跟踪结果来检测视点的位置。头部跟踪单元135的检测结果被输入到筛选器选择单元136。当检测结果被输入时,筛选器选择单元136基于由输入的检测结果表示的方向来选择与方向相对应的筛选器。该筛选器例如可以用于根据属性来将叠加信息分类,并且可以用于限制叠加信息的条数。关于由筛选器选择单元136选择的筛选器的信息被输入到显示控制单元132。
已经向其输入筛选器的显示控制单元132使用输入的筛选器将叠加信息分类,并使得显示单元131向用户显示分类的叠加信息。在这种情况下,用户观看分类的叠加信息。此外,当用户观看的方向改变时,通过筛选器选择单元136改变筛选器,并且显示控制单元132使得显示单元131显示由改变后的筛选器分类的叠加信息。因此,如当已使用多视差显示时,用户可以通过仅改变观看方向来观看不同的叠加信息。
显示控制单元132的显示方法不限于上述示例,并且各种变型都是可以的。尽管在上述示例中实现了通过方向控制属性以及通过方向控制数目,但是例如可以类似地实现对包括对象的显示区域或叠加信息的详细程度的控制。为了标识属性,例如,可以使用代表对象特性的参数,诸如“食物”、“午饭”、“货物”、“银行”、“银行ATM”、“银行出纳机”、“邮局”、“车站”和“公共汽车站”。可以从外部系统获取这些参数,并且可以在存储单元中准备和保存这些参数。
上面已经描述了能够实现使用头部跟踪的操作技术的电子装置10的功能配置。
(2-2-2:系统的基本操作(图19))
接着,将参照图19描述根据第一示例的系统的基本操作。图19是示出了根据第一示例的系统的基本操作的说明图。
如图19中所示,首先,电子装置10检测用户观看的方向(视线方向)(S111)。然而,当使用多视差显示时,不必需检测视线方向。然后,电子装置10根据视线方向的检测结果来选择筛选器(S112)。然而,当使用多视差显示时,电子装置10在该步骤中准备对应于每个视线方向的筛选器。然后,电子装置10基于在步骤S112中选择的筛选器来对叠加信息进行筛选(S113)。然后,电子装置10显示筛选后的叠加信息(S114)。
上面已经描述了根据第一示例的系统的基本操作。
[2-3:(应用示例)应用的控制]
上面已经描述了一种机制,该机制用于针对每个视线方向来改变并显示筛选器,以使得根据视线方向而切换叠加信息。这里,将介绍一种通过应用该机制来实现各种显示控制的方法。
(2-3-1:对应于视线方向的应用切换操作(图20))
首先,作为一个应用示例,考虑如图20中所示的通过视线移动来切换应用的操作。在图20的示例中,当电子装置10具有向左倾斜时(当从右侧观看时),显示音乐播放器应用的屏幕,而当电子装置10具有向右倾斜时(当从左侧观看时),显示摄像机应用的屏幕。如上所述,当应用第一示例的技术时,实现了一种根据观看方向来切换不同类型的应用的UI。因为当使用多视差显示时不切换显示内容,所以希望设计一种布置,以使得诸如操作按钮的对象在多个激活的应用中不处于相同或接近的位置处。(2-3-2:对应于视线方向的工具切换操作(图21))
此外,作为另一应用示例,考虑如图21中所示的通过视线移动来切换工具的操作。在图21的示例中,当电子装置10具有向左倾斜时(当从右侧观看时),在屏幕上显示第一工具列表#1,而当电子装置10具有向右倾斜时(当从左侧观看时),在屏幕上显示第二工具列表#2。如上所述,当应用第一示例的技术时,实现了一种在相同类型的应用当中根据观看方向来切换工具组的UI。因为当使用多视差显示时不切换显示内容,所以希望设计一种布置,以使得工具的图标等在多个工具中不处于相同或接近的位置处。
(2-3-3:对应于视线方向的回放速度切换操作(图22))
此外,作为另一应用示例,考虑如图22中所示的通过视线移动来切换回放速度的操作。在图22的示例中,当电子装置10具有向左倾斜时(当从右侧观看时),减小回放速度,而当电子装置10具有向右倾斜时(当从左侧观看时),增加回放速度。速度的增加/减小可以根据倾斜量来改变、以预定量改变、或根据倾斜时间来改变。如上所述,当应用第一示例的技术时,实现了一种根据观看方向来切换回放速度的UI。当使用独立的多视差显示时不使用该操作,并且该操作不应与诸如头部跟踪的技术组合。
上面已经介绍了与应用的控制有关的应用示例。
[2-4:(应用示例)筛选器的配置]
接着,将介绍与筛选器的配置有关的应用示例。
(2-4-1:叠加信息的筛选(图23:具体示例))
作为筛选叠加信息的筛选器,例如,如图23中所示,存在ATM筛选器、餐食筛选器、运输设施筛选器等。当应用ATM筛选器时,例如,关于“银行”和“邮局”的叠加信息通过,而“牛肉烧烤餐馆”、“车站”和“公共汽车站”被排除。类似地,当应用餐食筛选器时,例如关于“牛肉烧烤餐馆”的叠加信息通过,而“银行”、“车站”和“邮局”被排除。此外,当应用运输设施筛选器时,例如关于“车站”和“公共汽车站”的叠加信息通过,而“银行”、“牛肉烧烤餐馆”和“邮局”被排除。如上所述,可以对叠加信息进行筛选。
(2-4-2:操作对象的筛选(图24))
除了叠加信息之外,例如,还考虑了对操作对象进行筛选的配置。作为对操作对象进行筛选的筛选器,例如,如图24中所示,存在照片筛选器、音乐筛选器、电影筛选器等。当应用照片筛选器时,例如,对象“快门”和“缩放”通过,而对象“回放”、“停止”和“播送”被排除。类似地,当应用音乐筛选器或电影筛选器时,例如,对象“回放”和“停止”通过,而对象“快门”、“缩放”和“播送”被排除。如上所述,可以对操作对象进行筛选。
(2-4-3:内容的筛选(图25和图26))
除了叠加信息和操作对象之外,例如,还考虑了对内容进行筛选的配置。作为对音乐内容进行筛选的筛选器,例如,如图25中所示,存在通过音乐特性分类的筛选器,诸如叙事曲筛选器、华尔兹筛选器、练习曲筛选器等。此外,作为对视频内容进行筛选的筛选器,如图26中所示,存在通过视频特性分类的筛选器,诸如恐怖片筛选器、动作片筛选器、爱情故事片筛选器等。此外,还考虑了通过艺术家或属类来缩减内容的筛选器。当使用上述筛选器时,可以对内容进行筛选。
上面已经介绍了与筛选器的配置有关的应用示例。
[2-5:(应用示例)窥视操作]
接着,将介绍与窥视操作有关的应用示例。这里提到的窥视是如下操作:在该操作中,观看屏幕上显示的对象的用户以更深的角度来观看该对象。此时,可以考虑用户的头部与显示屏幕之间的距离等。
(2-5-1:关于注视点的信息的显示(图27))
例如,如图27中所示,在用户注视的点(下文中为注视点)处显示相关信息的场景下,考虑了以下应用示例等:其中,在基本上从正面观看的情况(视点E2)下显示概述,并且在窥视的情况(视点E1)下显示细节。当对注视点处的对象有很深兴趣或靠近观看该对象时,许多用户执行窥视对象的操作或趋于移动脸部靠近该对象。因此,通过与上述操作协作地改变信息的详细程度来实现更直观的UI。因为当使用头部跟踪时也可以估计用户的头部与显示屏幕之间的距离,所以详细程度可以被配置成根据估计结果而逐渐增加。
(2-5-2:根据注视角度的筛选(图28))
此外,当将窥视操作视为UI时,希望用户还考虑窥视角(下文中为注视角度)。例如,如图28中所示,可以进行配置以便根据注视角度切换筛选器的类型。在图28的示例中,当注视角度为0度至10度时,应用商店名称筛选器,当注视角度为11度至20度时,应用事务筛选器,当注视角度为21度至30度时,应用价格范围筛选器。此外,当注视角度为31度或更大时,应用所有筛选器。如果应用目标的筛选器数目被设置为随着注视角度增加而增加,则缩减程度根据注视角度而增大。另一方面,如果应用目标的筛选器数目被设置为随着注视角度增加而减小,则缩减程度根据注视角度而减小。此外,也可以通过设计要应用的筛选器的组合来根据注视角度执行逐渐地适于用户的偏好的缩减。
(2-5-3:通过窥视来放大/缩小(图29和图30))
此外,还考虑了一种能够根据窥视操作来控制显示的放大/缩小的机制。例如,如图29中所示,显示放大率可以被配置为随着注视角度增加而增加。此外,如图30中所示,显示放大率可以被配置为根据显示屏幕与用户的头部之间的距离而改变。此外,对这些进行组合,并且显示放大率可以被配置为根据头部的2D或3D操作而自由改变。在这种情况下,只需基于图29中所示的显示放大率和图30中所示的显示放大率的乘积等来确定最终显示放大率。
上面已经介绍了与窥视操作有关的应用示例。
[2-6:(应用示例)显示内容的固定]
接着,将介绍固定显示内容的操作的示例。尽管根据观看方向来切换显示内容的机制是有用的,但是对应于特定方向的显示内容可以被固定,并且可能会希望从正面观看显示内容。将介绍用于应对上述情况的机制。(2-6-1:通过姿势来固定显示内容(图31))
例如,如图31中所示,考虑了一种根据姿势来固定显示内容的方法。作为姿势,例如,考虑了一种向左/右等摇动电子装置10的方法。此外,还考虑了一种根据大幅摇动或快速摇动来固定显示内容的方法。可以使用设置在电子装置10中的加速度传感器、陀螺仪传感器等来检测上述姿势。此外,还考虑了一种根据捕获图像的改变来检测姿势的方法。当使用该方法时,容易地执行固定操作,而无需改变观看方向。
(2-6-2:通过视线移动到预定区域来固定显示内容(图32))
此外,如图32中所示,考虑了下述方法:当视线方向已经移动到预定区域时(视线方向Q2),或当视线方向已经快速移出屏幕时,固定显示内容。在这种情况下,因为显示内容有可能根据视线方向的改变而被切换,所以优选提供一种机制,该机制用于根据视线方向的改变时间或改变量来确定固定显示内容的操作或切换显示内容的操作。此外,例如,通过在视线方向已经移动到预定区域时添加返回到视线方向移动之前显示的显示内容的功能等,预期用户毫无顾虑地执行固定显示内容的操作。优选在必要时进一步执行上述添加。
(2-6-3:基于静止时间来固定显示内容(图33))
此外,如图33中所示,还考虑了一种基于视线已经静止的时间来固定显示内容的方法。在许多情况下,视线难以在长时间内指向同一注视点。因此,只要用户不是有意执行上述操作,则视线静止的状态基本上不会保持很长时间。为了确定用户的意图,使用视线的静止时间的方法是有效的。如图33中所示,仅需提供一种机制,该机制用于在视线在短时间内停止时确定不固定显示内容,并且在视线在长时间内停止时确定固定显示内容。因为视点的长时间静止操作与人注视的操作相连,所以根据上述机制实现了一种更直观的UI。
(2-6-4:通过眨眼(面部表情改变)来固定显示内容(图33))
此外,如图33中所示,还希望提供一种用于解除显示内容的固定的机制。作为其方法,如图33中所示,考虑了视线的小运动、眨眼等。此外,优选根据眨眼的预定次数、眨眼模式等来解除固定,以使得不通过意外眨眼而解除固定。
上面已经介绍了固定显示内容的操作。
[2-7:应用示例]
根据上述第一示例的技术可应用于各种装置。例如,本技术可应用于便携式装置,诸如便携式电话、便携式信息终端、便携式游戏机、便携式音乐播放器、以及便携式视频播放器。此外,本技术也可应用于安装在街角处的大尺寸显示设备,诸如数字标志终端。此外,本技术可应用于诸如电视接收机的视频装置或成像设备。此外,本技术可应用于与电视接收机组合的机顶盒、记录/回放设备、游戏机等。此外,例如,本技术还可应用于汽车导航系统或诸如ATM、自动售票机或售货机的设备。然而,必需的是如下设备:该设备至少具有显示功能或者被连接到配备有显示功能的装置。
[2-8:效果]
当应用第一示例的配置时,用户可以通过仅移动预定部位或倾斜装置来切换显示信息,或使用不与物理接口装置接触的方法来舒适地执行操作。例如,可以通过仅用一只手持握具有显示屏幕的装置并且倾斜该装置或倾斜用户的预定部位来切换显示信息。结果,甚至在两只手无法自由使用的场景下,诸如当一只手正持握行李箱时,也可以舒适地执行操作。此外,在使用双手操作的装置(诸如便携式游戏机)中,可以执行与使用双手的操作不同的附加操作。
上面已经描述了第一示例。
<3:第二示例的细节(信息的选择等)>
接着,将详细描述第二示例。
[3-1:配置示例#1的情况]
在配置示例#1的情况下,如下描写了例如根据第二示例的电子装置20的功能配置和服务器30的功能配置。
(3-1-1:电子装置的功能配置(图34))
首先,将参照图34描述电子装置20的功能配置。图34是示出了能够实现使用视线方向来选择对象的操作技术的电子装置20的功能配置的说明图。尽管这里为了易于描述而将描述通过根据第二示例的操作技术来选择3D显示对象的配置(见图9),但是例如甚至对于选择具有深度信息的2D显示对象的配置,也同样成立。
如图34中所示,电子装置20主要包括显示单元201、显示控制单元202、通信单元203、成像单元204和视线方向检测单元205。电子装置20可以包括用于使被摄对象成像的成像单元(未示出)、用于存储信息的存储单元(未示出)、GPS、陀螺仪传感器、加速度传感器等。
显示单元201具有以3D或2D显示方案显示对象的功能。显示控制单元202使得显示单元201显示对象。此外,显示控制单元202将对象突出,显示附加信息,或移动对象的显示位置。通信单元203与服务器30通信。此外,成像单元204使用户成像。
由成像单元204捕获的捕获图像被输入到视线方向检测单元205。当捕获图像被输入时,视线方向检测单元205从捕获图像中检测用户的视线。例如,使用上述头部跟踪技术或其它图像分析技术,视线方向检测单元205检测头部方向、眼睛位置等,并检测用户的视线方向。关于由视线方向检测单元205检测到的视线方向的信息(下文中为视线信息)经由通信单元203被发送到服务器30。此时,通信单元203将指示对象的显示位置的信息(下文中为显示信息)连同视线信息发送到服务器30。
此外,如稍后将描述的,服务器30基于显示信息和视线信息来选择对象,并将选择结果发送到电子装置20。选择结果被通信单元30所接收,并被输入到显示控制单元202。当选择结果被输入时,显示控制单元202基于输入的选择结果来改变对象的显示,或执行对应于所选择的对象的处理。
上面已经描述了电子装置20的功能配置。
(3-1-2:服务器的功能配置(图35))
接着,将参照图35描述服务器30的功能配置。如图35中所示,服务器30主要包括通信单元311和视线分析单元312。通信单元311是用于与电子装置20通信的通信装置。视线分析单元312具有基于经由通信单元311从电子装置20获取的视线信息和显示信息来选择对象的功能。例如,视线分析单元312确定由视线信息指定的视线是否与由显示信息指定的每个对象的显示范围相交。此外,视线分析单元312确定针对每个对象的视线交叉点数目是否已经超过预定数目。视线分析单元312选择其交叉点数目已经超过预定数目的对象,并经由通信单元311将选择结果发送到电子装置20。
上面已经描述了服务器30的功能配置。稍后将利用具体示例详细描述一种选择对象的方法。
(3-1-3:系统的基本操作(图36和图37))
这里,将参照图36和图37描述根据第二示例的系统的基本操作。图36和图37是示出了根据第二示例的系统的基本操作的说明图。
如图36中所示,首先,电子装置20检测用户的视线方向(S201),并将视线信息和显示信息发送给服务器30。然后,服务器30基于视线信息和显示信息来执行分析处理(S202)。计算出与对象相交的视线的数目(下文中为视线交叉点数目)。在图37的示例中,视线Q1至Q3与对象OBJ1相交,并且视线Q3与对象OBJ2相交。因此,服务器30把对象OBJ1的视线交叉点数目w1计算为w1=3,并把对象OBJ2的视线交叉点数目w2计算为w2=1。
然后,服务器30选择具有大的视线交叉点数目的对象(S203),并将选择结果发送给电子装置20。此时,服务器30选择具有最大视线交叉点数目的对象或其视线交叉点数目超过了预定阈值Wth的对象。在图37的示例中,例如,选择具有最大视线交叉点数目的对象OBJ1。然后,电子装置20突出由服务器30选择的对象(S204)。
例如,如图37中所示,电子装置20使得选择的对象的颜色改变。每当视线交叉点数目被更新,对象的颜色可以被配置成发生改变。此外,将选择结果发送到电子装置20的服务器30对在分析处理的过程中获得的结果历史(例如,关于选择的对象、视点交叉数目分布等的信息)进行更新(S206)。此外,尽管这里没有描述选择对象的定时,但是可以在预定定时处执行选择处理,并且可以在针对对象的视线交叉点数目已超过阈值Wth的定时处执行选择处理。
上面已经描述了根据第二示例的系统的基本操作。
[3-2:配置示例#2的情况]
在配置示例#2的情况下,如下描写了例如根据第二示例的电子装置20的功能配置。
(3-2-1:电子装置的功能配置(图38))
首先,将参照图38描述电子装置20的功能配置。图38是示出了能够实现使用视线方向来选择对象的操作技术的电子装置20的功能配置的说明图。尽管这里为了易于描述而将描述通过根据第二示例的操作技术来选择3D显示对象的配置(见图9),但是例如甚至在选择具有深度信息的2D显示对象的配置中,也同样成立。
如图38中所示,电子装置20主要包括显示单元211、显示控制单元212、视线分析单元213、成像单元214和视线方向检测单元215。电子装置20可以包括用于使被摄对象成像的成像单元(未示出)、用于存储信息的存储单元(未示出)、GPS、陀螺仪传感器、加速度传感器等。
显示单元211具有以3D或2D显示方案显示对象的功能。显示控制单元212使得显示单元211显示对象。此外,显示控制单元212将对象突出,显示附加信息,或移动对象的显示位置。视线分析单元213基于视线方向的检测结果来计算每个对象的视线交叉点数目,并基于计算结果来选择对象。此外,成像单元214使用户成像。
由成像单元214捕获的捕获图像被输入到视线方向检测单元215。当捕获图像被输入时,视线方向检测单元215从捕获图像中检测用户的视线方向。例如,使用上述头部跟踪技术或其它图像分析技术,视线方向检测单元215检测头部方向、眼睛位置等,并检测用户的视线方向。关于由视线方向检测单元215检测到的视线方向的信息(视线信息)被输入到视线分析单元213。此外,来自显示控制单元212的指示每个对象的显示位置的显示信息被输入到视线分析单元213。
当视线信息和显示信息被输入时,视线分析单元213基于输入的显示信息和视线信息来选择对象,并将选择结果输入到显示控制单元212。例如,视线分析单元213确定由视线信息指定的视线是否与由显示信息指定的每个对象的显示范围相交。此外,视线分析单元213确定针对每个对象的视线交叉点数目是否已经超过预定数目。视线分析单元213选择其交叉点数目已经超过预定数目的对象。当选择结果被输入时,显示控制单元212使得对象的显示基于输入的选择结果而改变,或执行对应于选择的对象的处理。
上面已经描述了电子装置20的功能配置。
(3-2-2:系统的基本操作(图39))
这里,将参照图39描述根据第二示例的系统的基本操作。图39是示出了根据第二示例的系统的基本操作的说明图。
如图39中所示,首先,电子装置20检测用户的视线方向(S211)。然后,电子装置20基于视线信息和显示信息来执行分析处理(S212),并计算与对象相交的视线的数目(视线交叉点数目)。在图37的上述示例中,视线Q1至Q3与对象OBJ1相交,并且视线Q3与对象OBJ2相交。因此,电子装置20把对象OBJ1的视线交叉点数目w1计算为w1=3,并把对象OBJ2的视线交叉点数目w2计算为w2=1。
然后,电子装置20选择具有大的视线交叉点数目的对象(S213)。此时,电子装置20选择具有最大视线交叉点数目的对象或其视线交叉点数目超过了预定阈值Wth的对象。在图37的上述示例中,例如,选择具有最大视线交叉点数目的对象OBJ1。然后,电子装置20突出所选择的对象(S214)。
例如,如上面描述的图37中所示,电子装置20使得选择的对象的颜色改变。每当视线交叉点数目被更新,对象的颜色可以被配置成发生改变。此外,电子装置20对在分析处理的过程中获得的结果历史(例如,关于选择的对象、视点交叉数目分布等的信息)进行更新(S215)。此外,尽管这里没有描述选择对象的定时,但是可以在预定定时处执行选择处理,并且可以在针对对象的视线交叉点数目已超过阈值Wth的定时处执行选择处理。
上面已经描述了根据第二示例的系统的基本操作。
[3-3:(补充)深度表示]
这里,将补充对处理深度表示的方法的描述。
(3-3-1:3D显示(图40))
已经描述了通过以下方式来实现3D显示的处理:使得由左眼和右眼观看的像素组是不同的,并使得考虑到视差的两类图像显示在这些像素组中。在3D显示的情况下,可以通过调节这两类图像以使得视差改变而控制如图40中所示的对象在深度方向上的显示位置。尽管实际上这两类图像被显示在显示屏幕上,但是用户所观看到的对象伸出了在视差中近似地定义的深度。可以根据诸如视差的参数来容易地计算突出量。因此,电子装置20可以识别出要被用户识别的、对象在3D空间内的位置。
视线跟随3D显示对象的用户将具有在3D空间内伸展的视线。然而,如上所述在显示屏幕上显示图像。在3D显示的情况下,电子装置20识别出要被用户识别的、对象在3D空间内的位置,并确定用户的视线是否实际与该位置相交。电子装置20基于确定结果来选择对象。如上所述,在3D显示的情况下,必需通过考虑对象的虚拟突出量来确定视线交叉点。(3-3-2:2D显示+深度信息(图41))
另一方面,在2D显示的情况下,用户直接识别出显示在显示屏幕上的图像。因此,对象不会从显示屏幕伸出。然而,甚至在2D显示中,如图41所示,也存在具有深度感的图像。例如,甚至对于具有相同高度的人,在近侧成像的人也会变大而在远侧成像的人变小。因此,甚至在2D显示中,也可以从图像中检测深度。
此外,在运动图像等的情况下,当观看在以给定速度移动期间捕获的视频时,在近侧的物理对象以接近移动速度的速度向后退,但是直到远处的山或云从视角消失为止的时间非常长。可以根据上述原理检测视频内的深度。此外,用户类似地具有上述深度感。因此,甚至对于具有深度感的2D显示图像或视频,用户也可以通过识别出深度而转动视线。因此,甚至对于2D显示,也可以使用类似于3D显示的情况的算法来应用根据第二示例的选择对象的技术。
上面已经描述了处理深度表示的方法。
[3-4:对象选择方法#1(单个用户)]
下文中,稍后将更加详细地描述对象选择方法。此外,将利用具体示例介绍其应用示例。这里,将描述一个用户在移动视线的情况下选择对象的操作技术。
(3-4-1:基于视线交叉点数目的选择方法(图42至图44))
首先,稍后将更加详细地描述上述基于视线交叉点数目的选择方法。如图42中所示,当检测到视线时,检测到与视线相交的对象(下文中为交叉点对象)。在图42的示例中,对象OBJ1至OBJ3被选择为针对视线Q1的交叉点对象。这些交叉点对象被选择为最终选择对象(下文中为注视对象)的候选。可以通过如图42中所示的预定表示方法(例如,颜色、亮度、眨眼、透明/半透明、模糊等)来突出注视对象的候选。
接着,如图43中所示,当视点移动并检测到新的视线Q2时,关于视线Q2检测到交叉点对象。在图43的示例中,对象OBJ1和OBJ2被检测为交叉点对象。此时,电子装置20将对象OBJ1和OBJ2的视线交叉点数目更新为2。此外,可以将对象OBJ1和OBJ2进一步突出。例如,考虑到下述配置:其中,改变表示,以使得在缩减进程等时突出程度变强(例如,颜色更深等)。
接着,如图44中所示,当视点移动并检测到新的视线Q3时,针对视线Q3检测到交叉点对象。在图44的示例中,对象OBJ2被检测为交叉点对象。此时,因为交叉点对象的数目被缩减至1,所以电子装置20选择对象OBJ2作为注视对象。尽管这里已经介绍了重复视线的检测和交叉点对象的选择直到数目被缩减至1为止的方法作为示例,但是也考虑了选择在特定定时处具有最大的视线交叉点数目的对象的方法。
此外,也考虑了选择具有预定的视线交叉点数目或更少数目的对象作为注视对象的方法。可以在预定时间间隔处周期性地检测视线,并可以通过预定模式检测视线。此外,选择注视对象的处理可以是由用户手动开始和结束的操作,并且可以是使用定时器、程序等自动开始和结束的操作。当使用用于基于上述视线交叉点来选择对象的机制时,用户可以通过仅移动视线来选择期望的对象。例如,可以操作在远程显示器等上成像的对象。
尽管已经描述了对象选择操作,然而,如果在已选择了注视对象的定时处执行预定处理,则还可以仅通过视线对电子装置20进行复杂控制。在这种情况下,希望设计用于显示对应于每个处理等的操作对象的操作。例如,考虑了下述配置等:其中,显示操作对象等以切换回放按钮、停止按钮和音乐播放器的内容,并且执行对应于每个对象的处理。此外,还考虑了下述配置:其中,显示快进按钮,并且回放速度根据针对该按钮的视线交叉点数目而逐步增加。当然,上述修改属于第二示例的技术范围。
(当注视对象明显时的选择处理)
尽管已经描述了从多个对象之中选择注视对象的方法,但是还考虑了下述机制:该机制用于当用作目标的对象的数目为1时或者当在已经检测到其视线交叉点的对象周围不存在其它对象时,立即选择已经检测到其视线交叉点的对象。例如,因为甚至当视线交叉点数目没有超过预定阈值时也立即选择对象,所以可以显著减少由于选择延迟而强加给用户的压力。
(3-4-2:对象的区域划分(图45和图46))
上面已经描述了从具有基本相同尺寸的对象之中选择一个对象作为注视对象的方法。然而,各对象通常具有如图45中所示的各种尺寸。因此,当存在大的对象时,视线集中在该对象上,并且难以选择在大对象后方的对象或选择小对象。在图45的示例中,难以选择在对象OBJ1的阴影中的对象OBJ2。
因此,如图46中所示,提出了一种将每个对象划分成预定尺寸的块并对每个块的视线交叉点数目进行计数的方法。在该方法中,在每个块的视线交叉点数目已经被计数之后,计算针对包含块的每个对象的每块平均视线交叉点数目,并且基于平均的视线交叉点数目来选择对象。在比预定尺寸小的对象的情况下,只需针对尺寸比率来对视线交叉点数目进行加权。根据上述配置,可以改进难以选择小对象的情形。
尽管已经介绍了平均的视线交叉点数目被直接用于选择对象的配置,但是还考虑了下述配置:其中,基于平均的视线交叉点数目而使用加权值来对实际的视线交叉点数目进行加权,并且基于加权后的视线交叉点数目来选择对象。根据使用上述加权值的调节,能够以很好的均衡来调节小对象可能被选择的程度以及大对象可能被选择的程度。
当如上所述使用将大对象划分成多个块并通过对应于尺寸的加权来调节选择的容易度的方法时,小对象被立即选择,但是可能会发生不容易选择大对象的情形。然而,上述情形非常类似于以下形式:其中在小的物理对象中快速传递热,而不容易在整个大的物理对象中传递热。因此,用户可以直观地认识到必需对大尺寸对象给予仔细瞥看,并且可以根据直觉执行操作而不会感到不适。
当如上所述应用区域划分配置时,这也会有助于直观UI的实现。
(3-4-3:基于注视时间的选择确定(图47))
使得视线准确地连续指向小区域是比较难的。然而,考虑了反过来使用上述特性来增加选择精确度的方法。例如,如图47中所示,在视点已经静止了预定时间以上的状态下,对象被选择,但是考虑了将大的加权分配给视线交叉点数目等的方法。当视线在该视线已与特定对象交叉的状态下长时间静止时,认为用户已经以强烈意愿选择了该对象。因此,当视线不动持续了预定时间或更长时间时,在对象被选择时获得了反映用户的强烈意愿的选择效果。
此外,当与多个叠加并显示的对象交叉的视线已经静止时,位于后侧的对象可以被配置成被选择。当用户查看内部物理对象或观看仅部分已经伸出的物理对象时,用户凝视该物理对象。也就是,用户非常专注地使得视线以特定程度处于静止。换言之,上述配置实现了上述自然操作,以作为UI。因此,用户可以通过上述配置执行更直观的操作。
(3-4-4:基于视线移动速度的选择确定(图48))
此外,可以通过考虑除了静止的视线之外的视线移动速度来进一步增加对象选择的精确度并提高操作性。如上所述,难以选择处于比大对象更深的小对象。另一方面,尽管对象区域划分方法与如上所述的方法相同,但是通过考虑如图48中所示的视线移动速度,甚至当选择对象时也可以预期相同的效果。
当如图48中所示那样,视线在该视线指向后侧的对象的状态下缓慢移动时,针对对象OBJ2的视线交叉点数目极大地增加。因此,对象OBJ2可能被选择。然而,当对象很大部分隐藏在后侧时,甚至当视线缓慢移动时也不可能充分地选择该对象。因此,考虑了根据视线移动速度对视线交叉点数目加权的配置。例如,考虑了下述机制:该机制用于在以视线移动速度已经减半等时的速度进行移动期间,将增加1.5倍的视线交叉点数目分配给与视线交叉的对象。
此外,还考虑了下述机制:该机制用于根据视线移动速度来改变在检测视线交叉点时的分辨率。这里提到的分辨率例如由(分辨率)=(参考速度V0)/(实际速度V)定义。通过以乘上了分辨率的频率来检测视线交叉点数目,在实际速度V低时以高频率来检测视线交叉点数目。结果,当用户缓慢移动视线时,针对已与视线交叉的对象的视线交叉点数目进一步增加,并且将准确地反映出用户的意图的对象设置为被选择。当使用上述机制时,容易地选择小对象或后侧的对象。
(3-4-5:通过姿势进行决定操作(图49))
尽管如上所述在特定定时处已经自动决定了对象选择状态,但是用户可能希望通过他或她的意愿任意地决定选择状态。例如,这对应于下述情况:其中,尽管交叉点对象的数目被缩减至1,但是希望多个当前选择的交叉点对象被立即选择为注视对象等。
因此,将参照图49介绍用于使用姿势来决定选择状态的机制。作为姿势,例如,考虑了一点点地移动视线方向、以预定模式改变视线方向、或以预定模式改变视线移动速度等的方法。此外,还考虑了下述方法:该方法利用面部表情识别技术,并在用户的面部表情已变为预定的面部表情(例如,微笑、眉头紧锁的脸部等)时决定选择状态。根据该方法,可以通过绝对包括视线移动的头部运动来实现操作技术范围内的决定操作。
当然,还考虑了与指向装置相结合或与移动除了头部以外的部位(例如,手等)的姿势相结合的方法。在该方法的情况下,尽管移动除了头部以外的部位的操作是必要的,但是在必需仔细操作或更准确的操作的情形下,与通过头部的运动进行的操作相比,该操作更精确且更容易。因此,希望根据使用形式、对象类型等来使用上述机制的组合。
(3-4-6:通过眨眼(面部表情改变)进行决定操作(图49))
此外,考虑了使得视线消失来替代移动视线的方法。也就是,通过检测用户的眨眼,根据眨眼来决定对象的选择状态。此外,在相似的构思中,还考虑了用于根据面部表情改变来决定对象的选择状态的UI。可以根据实时捕获的面部图像的特征量的改变来检测面部表情改变。此外,可以进行配置以在特定面部表情已经改变时决定对象的选择状态。在任何方法中,可以基于视线移动来实现操作技术范围内的决定操作。
(3-4-7:通过对象的移动来辅助缩减操作(图50和图51))
通过应用上面介绍的方法,可以预期用户能够在许多情况下舒适地执行对象选择操作。然而,最终必需实现能够由不具备技巧的任何用户使用的UI。因此,提出了下述配置:其中,如图50所示那样移动除了候选以外的对象,使得注视对象的候选被容易地识别并容易地执行接下来的缩减操作。
此外,还考虑了暂时或永久抑制除了候选以外的对象的显示来替代移动除了该候选以外的对象的方法。作为抑制显示的方法,例如,考虑了消除显示或执行半透明显示等的方法。当应用上述配置时,可以显著地有助于接下来的缩减操作,这是因为瞥一眼就可以识别出缩减处理。
此外,作为通过视线进行对对象的缩减操作是困难的情形,考虑了多个对象位于附近的情形。在上述情形中,针对所述多个对象保持基本相同的视线交叉点数目,并且缩减操作可能不确定进行。因此,如图51中所示,提出了下述机制:在不同方向上移动作为注视对象的候选而选择的对象,并选择通过在移动期间跟随视线而检测到的对象作为注视对象。
具体地,考虑了下述机制:该机制用于当在移动期间针对对象的视线交叉点数目已增加时确定视线跟随该对象,并选择该对象作为注视对象等。通过提供上述机制,可以预期选择确定的精确度提高和操作性的改进。
(3-4-8:选择对象的改变(图52))
上面已经描述了直到决定对象的选择为止的操作技术。然而,可能希望改变注视对象。因此,提出了下述机制:其中,针对每个对象的视线交叉点数目随着时间的经过而逐渐减小。此外,利用这种机制,提出了用于提供视线交叉点数目的最大数目的机制。例如,在注视对象OBJ1期间,针对对象OBJ1的视线交叉点数目增加,如图52的部分1所示。然而,当视线交叉点数目达到最大数目时,甚至当视线被指向时,视线交叉点数目被固定为最大数目(参见部分2)。此外,当从对象OBJ1转开视线时,视线交叉点数目随着时间的经过而减小(参见部分3至5)。
此外,当从对象OBJ1转开视线并且视线指向对象OBJ2时,针对对象OBJ2的视线交叉点数目增加(部分2至5)。因此,在部分4中对象OBJ2的视线交叉点数目超过对象OBJ1的视线交叉点数目,并且对象OBJ2的视线交叉点数目在部分5开始时超过的预定阈值(选择决定阈值)。在此时间点,对象OBJ2被选择为注视对象。另一方面,对象OBJ1在部分3的结束点处小于预定阈值,并且注视对象的选择状态被解除。如上所述,当应用上述机制时,可以仅通过视线移动来切换注视对象的选择状态。
上面已经描述了对象选择技术等。
[3-5:对象选择方法#2(多个用户)]
接着,将描述基于多个用户的视线来选择对象的方法。上述对象选择方法#1也可以直接应用于多个用户的情况。因此,这里将介绍应用于多个用户的情况的具体方案。
(3-5-1:基于视线交叉点数目的选择方法(图53))
在上述对象选择方法#1的情况下,基于在特定时段中检测到的视线与对象之间的交叉点数目来选择对象。然而,当多个用户引导视线的方向时,可以如图53中所示在特定时刻对视线交叉点数目进行计数。此外,还考虑了下述方法:检测视线交叉点数目的分布被临时改变的形式或以统计方式处理检测结果以使用处理后的检测结果用于营销等。在这种情况下,针对在特定定时处检测到的多个视线中的每个视线来确定与每个对象的交叉点,并且关于各对象而言具有大的视线交叉点数目的一个对象或预定数目的对象被选择为观察对象。
(3-5-2:基于物理对象识别结果(年龄/性别/登记人等)的个人化(图54))
此外,由于可以结合面部识别技术等来识别每个用户,所以每个用户可以选择注视对象,如图54中所示。在这种情况下,希望将用户可以被识别的任何显示分配给被选择为注视对象的对象或其候选(例如,分配给用户的颜色、用户名、ID、面部照片、头像等),使得可以确定哪个用户选择了哪个对象。此外,对象可以被设置为以组为单位而不是以用户为单位来选择。在这种情况下,仅需准备与组和用户相关联的组信息,使得可以使用面部识别结果和组信息来识别每个视线与组之间的对应关系。
(3-5-3:选择结果的排序显示(图55))
当应用根据第二示例的技术时,获得多个用户对每个对象的注视情形,作为视线交叉点数目。因此,可以基于视线交叉点数目对对象进行排序。此外,因为当使用面部识别技术等时可以区分开每个用户的年龄或性别,所以可以针对每个年龄组或性别而生成对象的注视度排序,如图55所示。关于上述注视度排序的信息可以被实时地显示在显示屏幕上,并且信息可以以统计方式被处理并用于营销等。
例如,当已经由数字标志终端执行根据第二示例的技术时,可以简单地在街角执行对新产品的流行度投票。此外,如果根据第二示例的技术应用于每个家庭的电视接收机,则还可以针对每个性别或年龄组提取流行节目艺人,针对每个家庭配置检测流行商业广告(CM)中的产品等。如上所述,根据第二示例的技术不仅可以用于实现具有高操作性的良好的UI,而且可以用于收集各种统计数据。
上面已经描述了对象选择技术等。
[3-6:注视情形的显示]
接着,将描述显示注视情形的方法。
(3-6-1:对应于视线交叉点数目的突出(颜色/运动/透明等)(图56))
在上面简要介绍的对象选择处理中,通知用户选择情形是有意义的。例如,如图56所示,考虑了根据视线交叉点数目等改变每个对象的颜色、移动每个对象或改变每个对象的透明度的方法。还考虑了模糊表示、闪动表示等。此外,可以进行下述配置:其中,当配备有立体声功能的音频输出装置被连接时,输出对应于视线交叉点数目的预定音频。
(3-6-2:热图显示(图57))
此外,尽管上面已经描述了用于改变每个对象的表示的配置,但是还考虑了如图57所示基于视线交叉点数目来在热图中显示整个空间的方法等。这里提到的热图例如是下述表示方法:其中,具有大的视线交叉点数目的部分被显示为深色,而具有小的视线交叉点数目的部分被显示为浅色。除了等级改变之外,可应用的表示方法包括改变红色或蓝色等的方法。此外,还考虑了在热图中显示每个对象的内部来替代在热图中显示整个空间的方法。具体地,当使用上面描述的区域划分的对象选择方法被应用时,每个对象的热图显示是有效的。
(3-6-3:通过数值或字符来显示视线交叉点数目(图58))
此外,如图58所示,考虑了在屏幕上直接显示视线交叉点数目的方法。在图58的示例中,以数值的方式显示视线交叉点数目,或以文本来显示基于视线交叉点数目的排序。此外,尽管考虑了使用文本或数字的各种表示方法,但是如图58中那样,可应用使用任意表示方法来显示关于视线交叉点数目的信息的方法。
(3-6-4:通过指示器来显示视线交叉点数目(图59))
此外,如图59所示,还考虑了使用指示器来显示视线交叉点数目的方法。当使用指示器显示时,瞥一眼就可以识别出视线交叉点数目的量。当设置有用于对象选择确定的阈值时,通过在指示器上显示阈值的标度,用户可以根据给出了多少次视线来容易地识别是否要选择对象。
[3-7:取消方法]
这里,将简要描述取消注视对象的方法。尽管已经提出了,但是例如考虑眨眼、视线移动到边缘、面部表情改变、视线做出的姿势等作为注视对象取消方法。此外,还考虑了应用物理操作的取消方法,诸如摇动电子装置20本身等。
[3-8:考虑明显区域的方法]
顺便提及,在一个对象中存在对用户明显的部分和对用户不明显的部分。例如,如图60所示的瓶子标签等是对用户明显的部分的代表性示例。当被特定对象所吸引时,用户被允许获得关于该对象的详细信息。在图60所示的瓶子的示例中,希望观察瓶子的用户将会观察瓶子的标签以获知关于瓶子的来源或内容等的信息。如果该瓶子已经被布置在商店中,则价签等可以是要与标签一起被观察的部分。
因此,提出了下述机制:其中,考虑到用户的心理或行为方式等,可以以高精确度选择注视对象。例如,考虑了下述方法:当用户的视线已经与对象的具有高观察度的部分交叉时,对针对该对象的视线交叉点数目进行加权。具体地,可以实现下述方法等:当图60所示的针对对象OBJ的视线交叉点数目是Wa时,使用通过使对应于与标签相交的视线数目的加权值ω(ω>1)乘以Wa而获得的值Wb=Wa×ω来作为针对对象OBJ的视线交叉点数目。
如果在采用用于选择超过阈值Wth的对象作为观察对象的机制时应用上述方法,则用户可以通过将视线指向诸如标签的观察部分来快速地选择观察对象。此外,当采用用于选择在特定定时处具有大的视线交叉点数目的对象作为观察对象的机制时,具有视线所指向的观察部分的对象被容易地选择,并且实现了更精确地反映出用户的意图的观察对象的选择。如上所述,通过考虑到对用户明显的区域而选择对象,可以提高选择的精确度或操作的流畅性并显著提高操作性。
[3-9:应用示例]
上面描述的根据第二示例的技术被应用于各种装置。例如,本技术可应用于便携式装置,诸如移动电话、便携式信息终端、便携式游戏机、便携式音乐播放器、以及便携式视频播放器。此外,本技术还可以应用于安装在街角的大型显示设备,诸如数字标志终端。此外,本技术可应用于诸如电视接收机的视频装置或成像设备。此外,本技术可应用于与电视接收机相结合的机顶盒、记录/回放设备、游戏机等。此外,例如,本技术还可应用于汽车导航系统或诸如ATM、自动售票机或售卖机的设备。然而,必需的是至少具有显示功能或连接至配备有显示功能的装置的设备。
[3-10:效果]
当应用第二示例的配置时,用户可以通过仅移动视线或倾斜装置来执行操作,或使用不与物理接口装置接触的方法来舒适地执行操作。例如,可以仅通过用一只手持握具有显示屏幕的装置并倾斜该装置或倾斜用户的预定部位来选择对象。结果,可以舒适地执行操作,甚至在两只手无法自由使用的情况下(诸如当一只手正在持握行李箱时)也是如此。此外,在用双手操作的装置(诸如便携式游戏机)中可以执行不同于使用双手的操作的附加操作。此外,可以操作远离用户的远程装置(诸如数字标志终端)。
<4:应用示例(组合)>
这里,将介绍第一示例和第二示例被组合为应用示例的配置。
[4-1:对应于视线方向的对象的显示+通过视线进行选择]
将描述根据第一示例的对象的显示与根据第二示例的对象的选择被组合的UI。
(4-1-1:显示对象的固定+通过视线移动进行选择)
首先,基于根据第一示例的操作技术来切换对象的显示。然后,通过根据第一示例的操作技术来固定显示内容。然后,通过根据第二示例的操作技术来选择显示对象。通过执行上述操作处理,可以组合第一示例和第二示例。
(4-1-2:通过上/下移动进行显示控制+通过左/右移动进行选择操作)
此外,当根据第一示例的操作技术限于上/下移动并且根据第二示例的操作技术限于左/右移动,并且通过上/下/左/右视点移动来切换对象显示时,可以将对象选择操作组合。
[4-2:多个装置的组合]
接着,将介绍将多个装置被组合的配置。
(4-2-1:便携式装置(筛选器)+电视接收机(视线操作))
例如,将介绍下述配置:其中,第一示例的操作技术应用于便携式装置,而第二示例的操作技术应用于电视接收机。在便携式装置中,电视接收机的操作应用和记录/回放设备的操作应用通过第一示例的操作技术被切换,并且切换结果被发送给电视接收机,使得根据切换结果来显示对应于每个装置的频道切换接口。因此,考虑了下述配置:其中,当显示该接口并可以使用操作技术等选择频道时,第二示例的操作技术是有效的。
(4-2-2:便携式装置(筛选器)+数字标志终端(视线操作))
此外,还考虑了下述配置:第一示例的操作技术应用于便携式装置并且第二示例的操作技术应用于数字标志终端。例如,便携式装置的成像单元使数字标志终端的显示内容成像,并且要叠加在捕获图像上的叠加信息被设置为通过第一示例的操作技术而被切换。切换结果反映在数字标志终端的显示器中,并且将根据第二示例的检测视线交叉点数目的处理设置为针对包括在该反映之后的显示内容中的对象而被执行。根据上述配置,获得如下信息的统计数据,来替代简单地显示在数字标志终端上的一般信息的统计数据:该信息考虑了用户对信息的选择。
上面已经描述了第二示例。
<5.硬件配置示例(图61)>
可以通过使用例如图61所示的信息处理设备的硬件配置来实现上面描述的电子装置10或20和服务器30中所包括的每个构件的功能。也就是,可以通过使用计算机程序控制图61所示的硬件来实现每个构件的功能。另外,该硬件的模式是任意的,并且可以是个人计算机(PC)、移动信息终端(诸如移动电话、PHS或PDA)、游戏机、或各种类型的信息设备。此外,PHS是个人手持电话系统的缩写。此外,PDA是个人数字助理的缩写。
如图61所示,该硬件主要包括CPU 902、ROM 904、RAM 906、主机总线908和桥910。此外,该硬件包括外部总线912、接口914、输入单元916、输出单元918、存储单元920、驱动器922、连接端口924、以及通信单元926。此外,CPU是中央处理单元的缩写。此外,ROM是只读存储器的缩写。此外,RAM是随机存取存储器的缩写。
CPU 902例如用作算术处理单元或控制单元,并基于记录在ROM904、RAM 906、存储单元920或可拆卸记录介质928上的各种程序来控制每个结构元件的整体操作或部分操作。ROM 904是用于存储例如要加载到CPU 902上的程序或在算术操作中使用的数据等的介质。RAM 906暂时或永久存储例如要加载到CPU 902上的程序或在程序执行时任意改变的各种参数等。
这些结构元件通过例如能够执行高速数据传输的主机总线908而相互连接。就其本身而言,例如主机总线908通过桥910连接到数据传输速度相对低的外部总线912。此外,输入单元916是例如鼠标、键盘、触摸面板、按钮、开关或操纵杆。此外,输入单元916可以是能够通过使用红外线或其它无线电波传输控制信号的遥控器。
输出单元918例如是能够视觉上或听觉上通知用户所获取的信息的显示装置(诸如CRT、LCD、PDP或ELD)、音频输出装置(诸如扬声器或耳机)、打印机、移动电话、或传真机。此外,CRT是阴极射线管的缩写。LCD是液晶显示器的缩写。PDP是等离子体显示面板的缩写。此外,ELD是电致发光显示器的缩写。
存储单元920是用于存储各种数据的装置。存储单元920是例如磁存储装置(诸如硬盘驱动器(HDD))、半导体存储装置、光学存储装置、或磁光存储装置。HDD是硬盘驱动器的缩写。
驱动器922是读取记录在可拆卸记录介质928上的信息或将信息写入可拆卸记录介质928的装置,可拆卸记录介质928为诸如磁盘、光盘、磁光盘、或半导体存储器。可拆卸记录介质928是例如DVD介质、蓝光介质、HD-DVD介质、各种类型的半导体存储介质等。当然,可拆卸记录介质928可以是例如电子装置或其上安装有非接触式IC芯片的IC卡。IC是集成电路的缩写。
连接端口924是这样的端口,诸如USB端口、IEEE1394端口、SCSI、RS-232C端口、或用于连接诸如光学音频终端的外连装置930的端口。外连装置930是例如打印机、移动音乐播放器、数码相机、数字视频摄像机、或IC记录器。此外,USB是通用串行总线的缩写。此外,SCSI是小型计算机系统接口的缩写。
通信单元926是要连接到网络932的通信装置,并且例如是:用于有线或无线LAN、蓝牙(注册商标)或WUSB的通信卡;光学通信路由器;ADSL路由器;或用于各种通信的调制解调器。连接到通信单元926的网络932是由有线连接或无线连接网络配置成的,并且例如是因特网、家用LAN、红外通信、可见光通信、广播或卫星通信。此外,LAN是局域网的缩写。此外,WUSB是无线USB的缩写。此外,ADSL是非对称数字用户线路的缩写。
<6:综述>
最后,将简要综述本实施例的技术构思。下文中描述的技术构思例如可应用于各种信息处理设备,诸如PC、便携式电话、便携式游戏机、便携式信息终端、信息设备、以及汽车导航系统。这些信息处理设备用作如稍后将描述的控制设备或电子装置。此外,信息处理设备可以实现如稍后将描述的控制方法。此外,还可以根据如稍后将描述的程序来操作信息处理设备。
(1)一种控制设备,包括:
控制单元,被配置成按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制单元的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
当应用上述配置(1)时,用户可以移动预定部位或通过仅倾斜装置来切换显示信息,或使用不与物理接口装置接触的方法来舒适地执行操作。例如,可以通过仅用一只手持握具有显示屏幕的装置并且倾斜该装置或倾斜用户的预定部位来切换显示信息。结果,甚至在两只手无法自由使用的情况下(例如当一只手正持握行李箱时),也可以舒适地执行操作。此外,在以双手操作的装置(诸如便携式游戏机)中可以执行与使用双手进行的操作不同的附加操作。
(2)根据(1)所述的控制设备,其中,当所述显示屏幕上设置有使得所述用户能够在视觉上识别出的所述显示屏幕的像素组根据所述用户观看所述显示屏幕的角度而不同的视觉识别限制单元时,所述控制单元控制针对对应于观看角度的每个像素组来显示所提取的信息。
(3)根据(1)所述的控制设备,还包括:
检测结果获取单元,被配置成获取所述位置关系的检测结果,
其中,所述控制单元基于所述位置关系的检测结果,来控制对应于所述位置关系的所提取的信息被显示在所述显示屏幕上。
(4)根据(1)至(3)中任一项所述的控制设备,其中,当正被捕获的捕获图像实时地显示在所述显示屏幕上时,在所述控制单元的控制下要显示在所述显示屏幕上的信息是要叠加并显示在所述捕获图像上的叠加信息。
(5)根据(1)至(4)中任一项所述的控制设备,还包括:
信息获取单元,被配置成获取在所述控制单元的控制下要显示在所述显示屏幕上的信息,
其中,在所述位置关系是所述用户的预定部位基本面向所述显示屏幕的情况下,所述信息获取单元初始地获取要显示在对应的所述显示屏幕上的信息。
(6)根据(5)所述的控制设备,其中,当在位置关系不同于所述用户的预定部位基本面向所述显示屏幕的位置关系的情况下获取要显示在对应的所述显示屏幕上的多条信息时,所述信息获取单元按照位置关系接近基本面对的次序来获取要显示在所述显示屏幕上的信息。
(7)根据(1)至(6)中任一项所述的控制设备,其中,所述控制单元根据所述位置关系来控制要显示在所述显示屏幕上的信息量。
(8)根据(7)所述的控制设备,其中,所述控制单元控制要显示在所述显示屏幕上的信息量随着距所述用户的预定部位基本面向所述显示屏幕的位置关系的距离的增加而增加。
(9)根据(7)或(8)所述的控制设备,其中,所述信息量是要显示在所述显示屏幕上的信息显示对象的数目。
(10)根据(7)或(8)所述的控制设备,其中,所述信息量是要显示在所述显示屏幕上的信息的详细程度。
(11)根据(1)至(10)中任一项所述的控制设备,其中,所述控制单元包括向电子装置提供要显示在所述显示屏幕上的信息的功能,所述电子装置具有用于显示信息的显示单元以及用于使得信息被显示在所述显示单元上的显示控制单元,并且所述控制单元控制所述电子装置将所提供的信息显示在所述显示屏幕上。
(12)一种电子装置,包括:
显示单元,被配置成显示信息;以及
控制单元,被配置成按照根据所述显示单元的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制单元的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
(13)一种控制方法,包括:
按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在控制步骤中的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
(14)一种控制方法,包括:
通过具有用于显示信息的显示单元的电子装置,按照根据所述显示单元的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在控制步骤中的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
(15)一种程序,所述程序用于使得计算机实现下述控制功能:按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制功能的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
(16)一种用于使得计算机实现下述功能的程序:
显示功能,用于显示信息;以及
控制功能,用于按照根据在其上显示信息的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制功能的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
(17)一种记录有程序的记录介质,所述程序被配置为使得计算机实现下述控制功能:按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制功能的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
(18)一种记录有程序的记录介质,所述程序被配置为使得计算机实现下述功能:
显示功能,用于显示信息;以及
控制功能,用于按照根据在其上显示信息的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制功能的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
(备注)
上面描述的电子装置10和20和服务器30是控制设备的示例。上面描述的显示控制单元102、112、122、132、202和212、叠加信息选择单元302和视线分析单元312是控制单元的示例。上面描述的多视差显示单元101和121是设置有视觉控制单元的显示屏幕的示例。成像单元114、134、204和214、头部跟踪单元115和135、被摄对象信息获取单元303和视线分析单元312是检测结果获取单元的示例。叠加信息获取单元103和113和通信单元203和311是信息获取单元的示例。
本领域技术人员应理解,可以取决于设计要求和其它因素而进行各种修改、组合、子组合和变型,只要这些各种修改、组合、子组合和变型在所附权利要求或其等同的范围内即可。
本公开包含与在2012年3月16日向日本专利局提交的日本优先权专利申请JP2012-060671中公开的主题相关的主题,其全部内容通过引用并入本申请。

Claims (16)

1.一种控制设备,包括:
控制单元,被配置成按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制单元的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
2.根据权利要求1所述的控制设备,其中,当所述显示屏幕上设置有使得所述用户能够在视觉上识别出的所述显示屏幕的像素组根据所述用户观看所述显示屏幕的角度而不同的视觉识别限制单元时,所述控制单元控制针对对应于观看角度的每个像素组来显示所提取的信息。
3.根据权利要求1所述的控制设备,还包括:
检测结果获取单元,被配置成获取所述位置关系的检测结果,
其中,所述控制单元基于所述位置关系的检测结果,来控制对应于所述位置关系的所提取的信息被显示在所述显示屏幕上。
4.根据权利要求1所述的控制设备,其中,当正被捕获的捕获图像实时地显示在所述显示屏幕上时,在所述控制单元的控制下要显示在所述显示屏幕上的信息是要叠加并显示在所述捕获图像上的叠加信息。
5.根据权利要求1所述的控制设备,还包括:
信息获取单元,被配置成获取在所述控制单元的控制下要显示在所述显示屏幕上的信息,
其中,在所述位置关系是所述用户的预定部位基本面向所述显示屏幕的情况下,所述信息获取单元初始地获取要显示在对应的所述显示屏幕上的信息。
6.根据权利要求5所述的控制设备,其中,当在位置关系不同于所述用户的预定部位基本面向所述显示屏幕的位置关系的情况下获取要显示在对应的所述显示屏幕上的多条信息时,所述信息获取单元按照位置关系接近基本面对的次序来获取要显示在所述显示屏幕上的信息。
7.根据权利要求1所述的控制设备,其中,所述控制单元根据所述位置关系来控制要显示在所述显示屏幕上的信息量。
8.根据权利要求7所述的控制设备,其中,所述控制单元控制要显示在所述显示屏幕上的信息量随着距所述用户的预定部位基本面向所述显示屏幕的位置关系的距离的增加而增加。
9.根据权利要求7所述的控制设备,其中,所述信息量是要显示在所述显示屏幕上的信息显示对象的数目。
10.根据权利要求7所述的控制设备,其中,所述信息量是要显示在所述显示屏幕上的信息的详细程度。
11.根据权利要求1所述的控制设备,其中,所述控制单元包括向电子装置提供要显示在所述显示屏幕上的信息的功能,所述电子装置具有用于显示信息的显示单元以及用于使得信息被显示在所述显示单元上的显示控制单元,并且所述控制单元控制所述电子装置将所提供的信息显示在所述显示屏幕上。
12.一种电子装置,包括:
显示单元,被配置成显示信息;以及
控制单元,被配置成按照根据所述显示单元的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制单元的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
13.一种控制方法,包括:
按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在控制步骤中的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
14.一种控制方法,包括:
通过具有用于显示信息的显示单元的电子装置,按照根据所述显示单元的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在控制步骤中的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
15.一种程序,所述程序用于使得计算机实现下述控制功能:按照根据显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制功能的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
16.一种用于使得计算机实现下述功能的程序:
显示功能,用于显示信息;以及
控制功能,用于按照根据在其上显示信息的显示屏幕与观看所述显示屏幕的用户的预定部位之间的位置关系而使得在视觉上识别出不同类型的信息的方式,来控制要显示在所述显示屏幕上的信息,
其中,在所述控制功能的控制下要显示在所述显示屏幕上的信息是下述信息:所述信息是作为具有满足针对每个位置关系设置的预定条件的属性的信息,而从能够显示在所述显示屏幕上的信息中提取的。
CN2013100748889A 2012-03-16 2013-03-08 控制设备、电子装置、控制方法和程序 Pending CN103313080A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012060671A JP6028351B2 (ja) 2012-03-16 2012-03-16 制御装置、電子機器、制御方法、及びプログラム
JP2012-060671 2012-03-16

Publications (1)

Publication Number Publication Date
CN103313080A true CN103313080A (zh) 2013-09-18

Family

ID=49137792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013100748889A Pending CN103313080A (zh) 2012-03-16 2013-03-08 控制设备、电子装置、控制方法和程序

Country Status (3)

Country Link
US (1) US9342921B2 (zh)
JP (1) JP6028351B2 (zh)
CN (1) CN103313080A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104822005A (zh) * 2014-01-30 2015-08-05 京瓷办公信息系统株式会社 电子设备以及操作画面显示方法
CN106134190A (zh) * 2013-12-27 2016-11-16 索尼公司 显示控制装置、显示控制方法和程序
CN106295273A (zh) * 2016-07-27 2017-01-04 广东欧珀移动通信有限公司 控制方法及控制装置
CN104822005B (zh) * 2014-01-30 2018-02-09 京瓷办公信息系统株式会社 电子设备以及操作画面显示方法
CN108073594A (zh) * 2016-11-10 2018-05-25 北京国双科技有限公司 一种生成热力图的方法及装置
CN108885499A (zh) * 2016-02-26 2018-11-23 可口可乐公司 非触摸式控制图形用户界面
CN109034097A (zh) * 2018-08-10 2018-12-18 国网上海市电力公司 一种基于图像的开关设备巡检定位方法
CN109672798A (zh) * 2017-10-16 2019-04-23 富士施乐株式会社 信息处理装置以及存储媒体
CN109845277A (zh) * 2016-10-26 2019-06-04 索尼公司 信息处理装置、信息处理系统、信息处理方法和程序
CN110161721A (zh) * 2019-04-24 2019-08-23 苏州佳世达光电有限公司 镜片焦距调整方法及液态变焦眼镜设备
CN111033606A (zh) * 2017-08-31 2020-04-17 索尼公司 信息处理装置、信息处理方法和程序
CN111183408A (zh) * 2017-10-10 2020-05-19 雷蛇(亚太)私人有限公司 用于分析鼠标滑动性能的方法及设备

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9778829B2 (en) * 2012-02-17 2017-10-03 Lenovo (Singapore) Pte. Ltd. Magnification based on eye input
EP2685329B1 (en) * 2012-07-11 2015-09-23 ABB Research Ltd. Presenting process data of a process control object on a mobile terminal
WO2015001547A1 (en) * 2013-07-01 2015-01-08 Inuitive Ltd. Aligning gaze and pointing directions
KR101503159B1 (ko) * 2013-10-15 2015-03-16 (주)이스트소프트 시선의 위치를 감지하여 터치스크린을 제어하는 방법
USD742896S1 (en) * 2013-10-25 2015-11-10 Microsoft Corporation Display screen with graphical user interface
US9865033B1 (en) 2014-01-17 2018-01-09 Amazon Technologies, Inc. Motion-based image views
US9294670B2 (en) * 2014-01-24 2016-03-22 Amazon Technologies, Inc. Lenticular image capture
KR20150101915A (ko) * 2014-02-27 2015-09-04 삼성전자주식회사 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스
JPWO2015145544A1 (ja) * 2014-03-24 2017-04-13 パイオニア株式会社 表示制御装置、制御方法、プログラム及び記憶媒体
CN103956128A (zh) * 2014-05-09 2014-07-30 东华大学 基于体感技术的智能主动广告平台
US9846522B2 (en) * 2014-07-23 2017-12-19 Microsoft Technology Licensing, Llc Alignable user interface
JP6241505B2 (ja) * 2015-06-30 2017-12-06 キヤノンマーケティングジャパン株式会社 管理サーバ、情報処理端末、制御方法、及びプログラム
EP3156879A1 (en) * 2015-10-14 2017-04-19 Ecole Nationale de l'Aviation Civile Historical representation in gaze tracking interface
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6729054B2 (ja) * 2016-06-23 2020-07-22 富士ゼロックス株式会社 情報処理装置、情報処理システムおよび画像形成装置
US10976828B2 (en) * 2016-07-05 2021-04-13 Sony Corporation Information processing apparatus and information processing method to reduce user burden
CN106228060A (zh) * 2016-07-27 2016-12-14 广东欧珀移动通信有限公司 控制方法及控制装置
CN106228061A (zh) * 2016-07-27 2016-12-14 广东欧珀移动通信有限公司 控制方法及移动终端
US20180310066A1 (en) * 2016-08-09 2018-10-25 Paronym Inc. Moving image reproduction device, moving image reproduction method, moving image distribution system, storage medium with moving image reproduction program stored therein
EP3501014A1 (en) * 2016-08-17 2019-06-26 VID SCALE, Inc. Secondary content insertion in 360-degree video
JP6694637B2 (ja) * 2016-08-30 2020-05-20 株式会社アルファコード 注目対象物に関する情報提供システムおよび情報提供方法
CN108124167A (zh) * 2016-11-30 2018-06-05 阿里巴巴集团控股有限公司 一种播放处理方法、装置和设备
EP3621299A4 (en) * 2017-05-01 2020-04-01 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast
CN108737872A (zh) * 2018-06-08 2018-11-02 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
JP2020005038A (ja) * 2018-06-25 2020-01-09 キヤノン株式会社 送信装置、送信方法、受信装置、受信方法、及び、プログラム
JP2020009306A (ja) * 2018-07-11 2020-01-16 東芝プラントシステム株式会社 設備作業支援装置
US20200288204A1 (en) * 2019-03-05 2020-09-10 Adobe Inc. Generating and providing personalized digital content in real time based on live user context
JP7491300B2 (ja) * 2019-03-15 2024-05-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体
CN110913250A (zh) * 2019-12-13 2020-03-24 上海邸客网络科技有限公司 目的地体验社区架构方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040130637A1 (en) * 2002-10-25 2004-07-08 Sony Computer Entertainment Inc. Method and apparatus for generating new images by using image data that vary along time axis
CN101101379A (zh) * 2006-07-05 2008-01-09 株式会社Ntt都科摩 图像提示装置及图像提示方法
CN101189643A (zh) * 2005-04-25 2008-05-28 株式会社亚派 3d图像生成和显示系统
US20110159929A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display
WO2011149558A2 (en) * 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1107637A1 (en) 1999-12-07 2001-06-13 Motorola Semiconducteurs S.A. Cellular radio communications system with frequency hopping on the control channel
JP2002183150A (ja) * 2000-12-13 2002-06-28 Nec Corp 位置関連情報提示システム及び位置関連情報提示方法並びにその制御プログラムを記録した記録媒体
JP4671591B2 (ja) * 2003-09-12 2011-04-20 シャープ株式会社 情報処理装置
JP2006235116A (ja) 2005-02-23 2006-09-07 Sony Corp 立体表示装置
JP2006343419A (ja) * 2005-06-07 2006-12-21 Sharp Corp 表示装置、プログラムおよび記録媒体
JP5158902B2 (ja) * 2006-09-14 2013-03-06 シャープ株式会社 電子機器、有効な機能の選択方法およびプログラム
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
JP2008256904A (ja) * 2007-04-04 2008-10-23 Sharp Corp 視野角切り替え装置連動の広画面表示装置
KR101602363B1 (ko) * 2008-09-11 2016-03-10 엘지전자 주식회사 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기
US9204050B2 (en) * 2008-12-25 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
JP2011197537A (ja) * 2010-03-23 2011-10-06 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
US20110310227A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Mobile device based content mapping for augmented reality environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040130637A1 (en) * 2002-10-25 2004-07-08 Sony Computer Entertainment Inc. Method and apparatus for generating new images by using image data that vary along time axis
CN101189643A (zh) * 2005-04-25 2008-05-28 株式会社亚派 3d图像生成和显示系统
CN101101379A (zh) * 2006-07-05 2008-01-09 株式会社Ntt都科摩 图像提示装置及图像提示方法
US20110159929A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display
WO2011149558A2 (en) * 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106134190A (zh) * 2013-12-27 2016-11-16 索尼公司 显示控制装置、显示控制方法和程序
CN104822005B (zh) * 2014-01-30 2018-02-09 京瓷办公信息系统株式会社 电子设备以及操作画面显示方法
CN104822005A (zh) * 2014-01-30 2015-08-05 京瓷办公信息系统株式会社 电子设备以及操作画面显示方法
CN108885499A (zh) * 2016-02-26 2018-11-23 可口可乐公司 非触摸式控制图形用户界面
CN106295273A (zh) * 2016-07-27 2017-01-04 广东欧珀移动通信有限公司 控制方法及控制装置
CN109845277A (zh) * 2016-10-26 2019-06-04 索尼公司 信息处理装置、信息处理系统、信息处理方法和程序
CN108073594A (zh) * 2016-11-10 2018-05-25 北京国双科技有限公司 一种生成热力图的方法及装置
US11460994B2 (en) 2017-08-31 2022-10-04 Sony Corporation Information processing apparatus and information processing method
CN111033606A (zh) * 2017-08-31 2020-04-17 索尼公司 信息处理装置、信息处理方法和程序
CN111183408A (zh) * 2017-10-10 2020-05-19 雷蛇(亚太)私人有限公司 用于分析鼠标滑动性能的方法及设备
CN109672798A (zh) * 2017-10-16 2019-04-23 富士施乐株式会社 信息处理装置以及存储媒体
CN109034097A (zh) * 2018-08-10 2018-12-18 国网上海市电力公司 一种基于图像的开关设备巡检定位方法
CN109034097B (zh) * 2018-08-10 2021-09-21 国网上海市电力公司 一种基于图像的开关设备巡检定位方法
CN110161721A (zh) * 2019-04-24 2019-08-23 苏州佳世达光电有限公司 镜片焦距调整方法及液态变焦眼镜设备

Also Published As

Publication number Publication date
JP6028351B2 (ja) 2016-11-16
US20130241925A1 (en) 2013-09-19
JP2013196157A (ja) 2013-09-30
US9342921B2 (en) 2016-05-17

Similar Documents

Publication Publication Date Title
CN103313080A (zh) 控制设备、电子装置、控制方法和程序
US11287956B2 (en) Systems and methods for representing data, media, and time using spatial levels of detail in 2D and 3D digital applications
US11017603B2 (en) Method and system for user interaction
US20220382379A1 (en) Touch Free User Interface
JP2013196158A (ja) 制御装置、電子機器、制御方法、及びプログラム
CN102695032B (zh) 信息处理装置、信息共享方法以及终端设备
US20190236259A1 (en) Method for 3d graphical authentication on electronic devices
CN104321730B (zh) 3d图形用户接口
CN111541907B (zh) 物品显示方法、装置、设备及存储介质
US20130135295A1 (en) Method and system for a augmented reality
CN104603719A (zh) 扩增实境表面显示
CN104423806B (zh) 信息处理装置,信息处理方法和程序
KR20120127655A (ko) 직관적 컴퓨팅 방법들 및 시스템들
CN104427282B (zh) 信息处理装置,信息处理方法和程序
JP2013080326A (ja) 画像処理装置、画像処理方法及びプログラム
CN104081307A (zh) 图像处理装置、图像处理方法和程序
CN103201710A (zh) 图像处理系统、图像处理方法以及存储图像处理程序的存储介质
WO2011160114A1 (en) Augmented reality
CN112578971B (zh) 页面内容展示方法、装置、计算机设备及存储介质
US20130229342A1 (en) Information providing system, information providing method, information processing apparatus, method of controlling the same, and control program
KR20230042277A (ko) 확장 현실을 위한 난독화된 제어 인터페이스들
US9965697B2 (en) Head pose determination using a camera and a distance determination
CN111918114A (zh) 图像显示方法、装置、显示设备及计算机可读存储介质
EP3088991B1 (en) Wearable device and method for enabling user interaction
CN114296627B (zh) 内容显示方法、装置、设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20130918