CN104145234A - 信息处理装置、信息处理方法以及程序 - Google Patents

信息处理装置、信息处理方法以及程序 Download PDF

Info

Publication number
CN104145234A
CN104145234A CN201380011844.XA CN201380011844A CN104145234A CN 104145234 A CN104145234 A CN 104145234A CN 201380011844 A CN201380011844 A CN 201380011844A CN 104145234 A CN104145234 A CN 104145234A
Authority
CN
China
Prior art keywords
viewpoint position
viewpoint
user
content
signal conditioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380011844.XA
Other languages
English (en)
Inventor
成田智也
川名阳方
高冈绫
广大辅
矢野茜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104145234A publication Critical patent/CN104145234A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

[问题]为了提出在减轻用户的操作负担的同时利用其可以将用户的视点引导至期望范围的信息处理装置、信息处理方法以及程序。[解决方案]根据本公开内容的信息处理装置包括:视点位置确定单元,该视点位置确定单元基于所获取的有关用户的视点信息的视点位置信息来确定用户的视点位置是否被包括在适合于内容的视点位置范围中;以及对象显示控制单元,当用户的视点位置未被包括在适合于内容的视点位置范围中时,该对象显示控制单元执行显示视点引导对象的显示控制,该视点引导对象将用户的视点引导至适合于内容的视点位置范围。

Description

信息处理装置、信息处理方法以及程序
技术领域
本公开内容涉及信息处理装置、信息处理方法以及程序。
背景技术
近年来,开发了使用户可以通过利用人类双眼视差立体地感受对象的显示器。在这些立体显示器中,存在着许多当注视显示器时的视点位置受限制的立体显示器(例如,参照下列专利文献1)。
特别地,在类似所谓的phantogram的浏览方法中,并不是从屏幕的前面进行立体3D显示,而是通过偏移视点位置来进行浏览,因为仅在从某一特定的位置注视内容时才会增强立体感,所以用户的视点位置成为重要因素。
引用列表
专利文献
专利文献1:JP 2012-10086A
发明内容
技术问题
在如上文提及的立体内容中,当不是在特定的视点位置进行内容的浏览时,会出现各种浏览负担,如发生串扰(crosstalk)、对象表现出失真、以及不能形成显示对象的图像。
对此,还存在着限制立体观看、停止立体观看或者校正内容的技术,使得当不是在特定的视点位置进行内容的浏览时可以进行立体观看。然而,用户的操作负担增加,并且还有必要进行设计以使内容本身适应于这样的浏览格式,因而内容创建者的负担也增加。
而且,在通过计算机图形技术等生成的内容中,通过诸如桌面虚拟现实(Desktop VR)或鱼缸虚拟现实(Fishtank VR)的表示,可以在任意视点位置处生成显示视场。然而,难以将这样的技术应用到采集的视频图像或者应用到仅从特定视点具有意义的特殊内容。
因而,考虑到上文提及的情形,本发明提出了可以在减低用户的操作负担的同时将用户的视点引导至优选视点范围的一种信息处理装置、一种信息处理方法以及一种程序。
问题的解决方案
根据本公开内容,提供了一种信息处理装置,包括:视点位置确定单元,该视点位置确定单元基于所获取的有关用户的视点位置的视点位置信息来确定用户的视点位置是否被包括在适合于内容的视点位置范围中;以及对象显示控制单元,如果用户的视点位置未被包括在适合于内容的视点位置范围中,则该对象显示控制单元进行显示控制,所述显示控制用于显示视点引导对象,所述视点引导对象将用户的视点引导至适合于内容的视点位置范围。
根据本公开内容,提供了一种信息处理方法,包括:基于所获取的有关用户的视点位置的视点位置信息来确定用户的视点位置是否被包括在适合于内容的视点位置范围中;以及如果用户的视点位置未被包括在适合于内容的视点位置范围中,则进行显示控制,所述显示控制用于显示视点位置引导对象,所述视点位置引导对象将用户的视点引导至适合于内容的视点位置范围。
根据本公开内容,提供了一种程序,该程序用于使计算机实现:视点位置确定功能,该视点位置确定功能基于所获取的有关用户的视点位置的视点位置信息来确定用户的视点位置是否被包括在适合于内容的视点位置范围中;以及对象显示控制功能,如果用户的视点位置未被包括在适合于内容的视点位置范围中,则该对象显示控制功能进行显示控制,所述显示控制用于显示视点位置引导对象,所述视点位置引导对象将用户的视点引导至适合于内容的视点位置范围。
根据本公开内容,基于与用户的视点位置相关的视点位置信息,确定用户的视点位置是否被包括在适合于内容的视点位置范围中,并且,如果用户的视点位置未被包括在适合于内容的视点位置范围中,则执行显示控制,该显示控制用于显示将用户的视点引导至适合于内容的视点位置范围的视点位置引导对象。
发明的有益效果
根据上文说明的本公开内容,可以在减低用户的操作负担的同时将用户的视点引导至优选范围。
附图说明
[图1A]图1A是示出了立体内容的一个示例的说明图。
[图1B]图1B是示出了立体内容的一个示例的说明图。
[图1C]图1C是示出了立体内容的一个示例的说明图。
[图2]图2是示出了根据本公开内容的实施方式的信息处理装置的配置的框图。
[图3]图3是示出了根据本公开内容的实施方式的包括在信息处理装置中的控制单元的配置的框图。
[图4]图4是示出了信息处理装置的持握状态与视点位置之间的关系的一个示例的说明图。
[图5]图5是示出了在本公开内容中所使用的坐标系统的一个示例的说明图。
[图6]图6是示出了根据本公开内容的第一实施方式的包括在控制单元中的用户视点位置指定单元的配置的框图。
[图7A]图7A是示出了表示信息处理装置的持握状态的角度的说明图。
[图7B]图7B是示出了表示信息处理装置的持握状态的角度的说明图。
[图8]图8是示出了根据同一实施方式的简档(profile)的一个示例的说明图。
[图9]图9是用于对用户的视点位置进行说明的说明图。
[图10A]图10A是用于说明根据同一实施方式的简档的说明图。
[图10B]图10B是用于说明根据同一实施方式的简档的说明图。
[图10C]图10C是用于说明根据同一实施方式的简档的说明图。
[图11A]图11A是用于说明根据同一实施方式的简档的说明图。
[图11B]图11B是用于说明根据同一实施方式的简档的说明图。
[图11C]图11C是用于说明根据同一实施方式的简档的说明图。
[图12A]图12A是用于说明根据同一实施方式的简档的说明图。
[图12B]图12B是用于说明根据同一实施方式的简档的说明图。
[图12C]图12C是用于说明根据同一实施方式的简档的说明图。
[图13]图13是用于说明当与采集的图像一起被使用时视点位置的估计过程的说明图。
[图14]图14是示出了根据同一实施方式的信息处理方法的流程的一个示例的流程图。
[图15]图15是示出了根据本公开内容的第二实施方式的包括在信息处理装置中的显示控制单元的配置的框图。
[图16]图16是示出了根据同一实施方式的信息处理装置中的显示控制的说明图。
[图17A]图17A是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图17B]图17B是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图18A]图18A是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图18B]图18B是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图19A]图19A是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图19B]图19B是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图20A]图20A是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图20B]图20B是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图21A]图21A是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图21B]图21B是示出了根据同一实施方式的视点引导对象的一个示例的说明图。
[图22]图22是示出了根据同一实施方式的信息处理方法的流程的一个示例的流程图。
[图23]图23是示出了根据本公开内容的实施方式的信息处理装置的硬件配置的一个示例的框图。
具体实施方式
在下文中,将参照附图详细地描述本公开内容的优选实施方式。注意,在本说明书和附图中,将以相同的附图标记来表示具有基本相同的功能和结构的元件,并且省略了重复的说明。
按以下顺序进行说明:
(1)关于立体内容的一个示例
(2)第一实施方式
(2-1)关于信息处理装置的配置
(2-2)关于用户视点位置指定单元的配置
(2-3)关于信息处理方法(用户的视点位置的估计方法)
(3)第二实施方式
(3-1)关于显示控制单元的配置
(3-2)关于信息处理方法(显示控制方法)
(4)关于根据本公开内容的每个实施方式的信息处理装置的硬件配置。
(关于立体内容的一个示例)
在对根据本公开内容的实施方式的信息处理装置进行说明前,参照图1A至图1C简单地说明通过根据本公开内容的实施方式的信息处理装置执行的立体内容的一个示例。图1A至图1C是示出了立体内容的一个示例的说明图。
在根据本公开内容的实施方式的信息处理装置10中,例如,执行利用下述显示方法的内容(立体内容):在该显示方法中,不是从屏幕的前面进行立体3D显示,而是通过偏移视点位置来进行浏览。可以提到上文提及的phantogram、桌面虚拟显示、鱼缸虚拟显示等,作为这样的显示方法的示例。
在图1A至图1C中,示意性地示出了在某个信息处理装置中设置的显示屏D上显示的内容的内容。假定在图1A至图1C中所示的内容中显示三棱柱对象OBJ1、女性人物OBJ2以及男性人物OBJ3。在图1A至图1C中,还用箭头对象L简便地示出了用户观看显示屏D的视点方向。
假定在显示屏D上使用固定坐标系将上文提及的显示对象OBJ1、OBJ2以及OBJ3的互相的相对位置关系进行彼此关联。在这种情况下,如果如图1A所示从显示屏D的前面来观看内容,则三棱柱对象OBJ1被显示为三角形形状,而人形人物OBJ2、OBJ3被显示为人物的头部部分。
而且,如图1B所示,如果用户从显示屏的正面向前方向(在图1B中由对象L所示的方向)观看显示屏D,则三棱柱对象OBJ1被显示为三棱柱的侧表面,而人形人物OBJ2、OBJ3被显示为人物的整个身体。
此外,如图1C所示,如果用户从显示屏的正面斜方向(在图1C中由对象L所示的方向)观看显示屏D,则每个对象OBJ1、OBJ2以及OBJ3被显示为与图1B不同的外形。
因而,通过立体显示方法,诸如phantogram、桌面虚拟现实以及鱼缸虚拟现实,根据用户观看显示屏D的视点位置,在显示屏上呈现出通过这样的斜视点校正屏幕上的失真的效果。出于该原因,因为仅在从某一特定位置(例如正面向前30°位置等)注视内容时通过这些显示方法才增强立体感,所以用户的视点位置在哪里成为重要要素。
因而,在根据下文说明的本公开内容的第一实施方式的信息处理装置中,在减低处理负担并减低用户的操作感恶化的同时指定用户的视点位置。
而且,在根据下文说明的本公开内容的第二实施方式的信息处理装置中,使得用户可以更容易地浏览如上文提及的立体内容,用户的视点被引导以使得用户的视点被包括在适合于内容的范围中。
(第一实施方式)
在下文中,参照图2至图14对根据本公开内容的第一实施方式的信息处理装置和信息处理方法详细地进行了说明。根据本实施方式的信息处理装置10是可以在减低处理附加并减低用户的操作感恶化的同时指定用户的视点位置的装置。
<关于信息处理装置的配置>
首先,参照图2对关于根据本实施方式的信息处理装置10的整个配置进行了说明。图2是示出了根据本实施方式的信息处理装置10的配置的框图。
可以提到例如便携式装置(诸如数码相机、智能电话、平板电脑)、可以立体成像的装备等,作为根据本实施方式的信息处理装置10。在下文中,给出了当根据本实施方式的信息处理装置10是智能电话或平板电脑时的示例来进行说明。
如图2所示,根据本实施方式的信息处理装置10主要包括控制单元101、传感器103以及存储单元105。而且,根据本实施方式的信息处理装置10还可以包括成像单元107。
通过例如中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)等来实现控制单元101。控制单元101是对可由根据本实施方式的信息处理装置10执行的各种处理进行执行控制的处理单元。在下文进一步详细地说明该控制单元101的配置。
传感器103测量在根据本实施方式的信息处理装置10上作用的加速度。例如,可以提及包括了加速度传感器和重力检测传感器的三轴加速度传感器,作为这样的传感器的一个示例。传感器103在控制单元101的控制下,以给定速率测量加速度,并且将示出测量结果的数据(在下文中也称为传感器信息)输入至控制单元101。而且,传感器103可以将所获得的传感器信息存储在下文提及的存储单元105等中。
通过包括在根据本实施方式的信息处理装置10中的RAM、存储装置等来实现存储单元105。由控制单元101执行的各种处理中所使用的各种数据、各种数据库、查阅表等被存储在存储单元105中。而且,由根据本实施方式的传感器103所测量的测量数据、由下文提及的成像单元107所成像的采集图像的实体数据、各种程序、参数、由本实施方式的控制单元101执行的处理中所使用的数据等可以被记录在存储单元105中。而且,除这些数据以外,还可以在存储单元105中任意地存储可由根据本实施方式的信息处理装置10执行的各种内容,以及当信息处理装置10进行一些处理时有必要存储的处理的各种参数和中间进展等。该存储单元105可以由每个处理单元,诸如控制单元101、传感器103以及成像单元107自由地访问,并且可以自由地写入和读出数据。
通过外部地连接至信息处理装置10的摄像机、嵌入在信息处理装置10中的摄像机等来实现成像单元107。成像单元107在控制单元101的控制下,以给定的帧速率对包括了信息处理装置10的用户的脸部的采集图像进行成像,并且将所获得的采集图像的数据输出至控制单元101。而且,成像单元107可以将所获得的采集图像的数据存储在存储单元105等中。
而且,根据本实施方式的信息处理装置10除了具有图2所示的处理单元以外,还可以根据信息处理装置10提供给用户的各种功能而具有用于执行这些功能的各种已知的处理单元。
以上参照图2对关于根据本实施方式的信息处理装置10的整个配置进行了说明。
[关于控制单元101的配置]
接下来,参照图3对关于根据本实施方式的包括在信息处理装置10中的控制单元101的配置进行说明。图3是示出了根据本实施方式的包括在信息处理装置10中的控制单元101的配置的框图。
如图3所示,根据本实施方式的控制单元101主要包括集成控制单元111、用户视点位置指定单元113以及显示控制单元115。
通过例如CPU、ROM、RAM等来实现集成控制单元111。集成控制单元111是通过将根据本实施方式的信息处理装置10执行的各种处理进行集成来控制的处理单元。在集成控制单元111的控制下,根据本实施方式的信息处理装置10具有的每个处理单元可以实现各种处理,同时根据必要性而彼此协作。
通过例如CPU、ROM、RAM等来实现用户视点位置指定单元113。根据本实施方式的用户视点位置指定单元113使用由包括在信息处理装置10中的传感器103生成的传感器信息,以便基于信息处理装置10的姿态(通过被用户拿着而实现的姿态)来指定用户的视点位置。用户视点位置指定单元113可以在每次从传感器103输出传感器信息时估计用户的视点位置,或者可以以与传感器信息的输出速率不同的给定周期来估计用户的视点位置。
表示由用户视点位置指定单元113指定的用户的视点位置的信息(在下文中,也称为视点位置信息)被输出至集成控制单元111以及下文提及的显示控制单元113,并且被使用在通过这些处理单元执行的各种处理中。
以下对关于根据本实施方式的用户视点位置指定单元113的特定配置详细地进行说明。
通过CPU、ROM、RAM、输出装置等来实现显示控制单元115。显示控制单元115进行下述显示装置中的显示屏的显示控制:该显示装置诸如包括在信息处理装置10中的显示器、设置在信息处理装置10外部的并且可以与信息处理装置10进行通信的显示装置等。具体地,根据本实施方式的显示控制单元115执行存储在存储单元105等中的内容,以便将该内容的内容显示在显示屏上。而且,当显示控制单元115执行如图1A至图1C中所示的立体内容时,例如,可以应用用于实现与摄像机镜头的移轴成像(tilt-shift imaging)类似的效果的已知的图像透视变换技术。
通过对显示屏进行控制的显示控制单元115,使得将用户可浏览的各种信息例如显示在信息处理装置10的显示屏上。
<关于用户视点位置指定单元的配置>
接下来,参照图4至图13对关于根据本实施方式的用户视点位置指定单元113的配置进行说明。
图4是示出了信息处理装置的持握状态与视点位置之间的关系的一个示例的说明图。如图4(a)至图4(c)所示,通过用户用他的/她的手H持握信息处理装置10,使得视点E与显示屏D之间的相对位置关系以及视点E与显示屏D之间的距离L改变。
在根据本实施方式的用户视点位置指定单元113中,对在信息处理装置10的壳体的正常持握状态中信息处理装置10所变成的姿态进行预先采样,然后将这些姿态的集合用作为参考姿态信息。在该参考姿态信息中,视点E与显示屏D之间的正常相对位置关系以及视点E和显示屏D之间的距离L的参考值被关联作为参考信息。用户视点位置指定单元113基于传感器信息来指定信息处理装置10的姿态,在所指定的姿态附近提取一个或多个参考姿态状态,并且基于所提取的参考姿态状态来指定用户的视点位置。
图5是示出了在本实施方式的说明中所使用的坐标系的一个示例的说明图。如图5所示,在以下说明中,简便地使用了显示屏D是xy平面而显示屏D的法向是z轴正方向的坐标系。在根据本实施方式的信息处理装置10中,基于例如如图5所示的装置所固有的坐标系来显示包括在内容中的对象(如图1A至图1C所示的对象)。
图6是示出了根据本实施方式的用户视点位置指定单元113的配置的框图。如图6所示例的,根据本实施方式的用户视点位置指定单元113主要包括传感器信息获取单元151、采集图像获取单元15、传感器信息分析单元155以及视点位置估计单元157。
通过例如CPU、ROM、RAM、通信装置等来实现传感器信息获取单元151。传感器信息获取单元151例如获取由包括在信息处理装置10中的传感器103生成的传感器信息,并将该传感器信息传送至下文提及的传感器信息分析单元155。而且,传感器信息获取单元151可以将表示传感器信息被获取时的日期和时间等的时间信息与所获取的传感器信息相关联,并且将其在存储单元105中存储为历史信息。
通过例如CPU、ROM、RAM、通信装置等来实现采集图像获取单元153。例如,如果存在采集图像,该采集图像包括由包括在信息处理装置10中的成像单元107生成的用户脸部的附近部分,则采集图像获取单元153获取该采集图像,并且将其传送至下文提及的视点位置估计单元157。而且,采集图像获取单元153可以将表示这些数据被获取时的日期和时间等的时间信息与所获取的采集图像的数据相关联,并将其在存储单元105等中存储为历史信息。
通过例如CPU、ROM、RAM等来实现传感器信息分析单元155。传感器信息分析单元155基于从传感器信息获取单元151传送的传感器信息,分析在信息处理装置10上作用的重力的方向(重力方向),并且指定信息处理装置10的姿态(信息处理装置10的壳体的姿态)。
本文中,传感器信息分析单元155在分析重力方向时着重于如图7A和图7B所示的两类角度。图7A和图7B是示出了表示信息处理装置10的持握状态的角度的说明图。如图7A所示,在本实施方式中,将水平方向PL用作为参考,用倾斜角θ表示当信息处理装置10绕图5中所示的y轴旋转地移动时信息处理装置10的旋转量。而且,如图7B所示,在本实施方式中,用偏航角(yaw angle)表示当信息处理装置10绕图5中所示的z轴旋转地移动时信息处理装置10的旋转量。换句话说,倾斜角θ表示当信息处理装置10在上下方向旋转时的旋转角,而偏航角表示当信息处理装置10在左右方向旋转时的旋转角。
传感器信息分析单元155着重于所获取的传感器信息中的在y轴方向上的重力分量和在z轴方向上的重力分量,来计算根据该y轴方向分量和该z轴方向分量定义的yz平面中的矢量(换句话说,重力方向)的角度θ。该角度θ与图7A所示的倾斜角θ对应。类似地,传感器信息分析单元155着重于所获取的传感器信息中的在x轴方向上的重力分量和在z轴方向上的重力分量,来计算根据该x轴方向分量和该z轴方向分量定义的xz平面中的矢量(换句话说,重力分量)的角度。该角度与图7B所示的偏航角对应。
当传感器信息分析单元155进行重力方向的分析并计算上文提及的角度θ和角度时,关于这些计算的角度的信息(在下文中,也称为角度信息)被输入至下文提及的视点位置估计单元157。
此外,传感器信息分析单元155可以将表示所述角度信息被获取时的日期和时间等的时间信息与所计算的角度信息相关联,并将其在存储单元105等中存储为历史信息。
通过例如CPU、ROM、RAM等来实现视点位置估计单元157。视点位置估计单元157基于简档(profile)来估计用户的视点位置,该简档与预先设定的用户的视点位置和由传感器信息分析单元155分析的壳体的姿态有关。
在根据本实施方式的信息处理装置10中,如上文所提及的,信息处理装置10的正常持握状态被预先分类成若干类型,并且,在这些持握状态中的每一个持握状态中,当信息处理装置10的壳体被以各种角度(倾斜角)移动时壳体的姿态与在这些时候相对于壳体的用户视点位置被彼此相关联。将这样的在先信息(prior information)预先存储在存储单元105等中,并且在视点位置估计单元157中将其用作为参考姿态信息,即简档。
图8是用于对用户的视点位置进行说明的说明图,而图9是示出了根据本实施方式的在视点位置估计单元157中所使用的简档的一个示例的说明图。如图9所示,在根据本实施方式的信息处理装置10中,由用户将信息处理装置10的持握状态分类成多种状态,诸如保持直立状态、从上方瞥视状态、平躺状态等。图9所示的持握状态仅是一个示例,并不限于图9所示的持握状态。此外,可以设定可以考虑到的各种状态,诸如侧躺状态等。
而且,如图9所示,在每个持握状态的简档中,用户的视点方向(图8中的角度ξ:单位:度)以及视点与显示屏之间的间隔距离d(单位:mm)根据壳体的姿态(换句话说,所计算的倾斜角θ)而彼此相关联。关于每个持握状态,以0°至180°范围内的给定角度间隔(在图9中,30°的角度间隔)多个地设定壳体的姿态。角度间隔并不限于图8所示的示例,并且根据所要求的估计精度、装置中可用的资源等,可以以例如10°的增量来设定,或者以更精细的角度来设定。
图10A至图10C示出了在保持直立状态(换句话说,用户以直立的状态持握信息处理装置10的状态)中的简档的一个示例。在这些简档中,角度ξ被定义为在视点方向与z轴之间形成的角度。如图10A和图10B所示,如果壳体的姿态θ相对于水平方向PL倾斜(θ=θA1,θA2的情况),则可以设定视点方向L和视点位置E。然而,如图10C所示,在保持直立状态中,如果信息处理装置10被水平放置(θA3=0°的情况),则不能确定视点方向L和视点位置E。
图11A至图11C示出了与用户从上方瞥视信息处理装置10的情况对应的简档的一个示例。而且,图12A至图12C示出了与用户在仰面平躺的状态下持握信息处理装置的情况对应的简档的一个示例。在这些简档中,也将角度ξ定义为视点方向与z轴之间形成的角度。
从图9至图12C可以清楚地看出,可以理解的是,对于这些持握状态中的每个持握状态,存在着不能基于壳体的姿态角度θ来指定用户的视点方向L和视点位置E的范围。通过根据本实施方式的视点位置估计单元157,可以基于由这些在先采样处理而得到的知识(简档),仅使用来自加速度传感器的输出来估计用户的视点位置。
在下文中,参照图8和图9对由视点位置估计单元157执行的视点位置的估计处理进行具体地说明。
视点位置估计单元157首先通过参照从传感器信息分析单元155输出的角度信息来指定如图8所示的表示壳体姿态的角度θ。接下来,视点位置估计单元157通过参照图9所示的简档来获取最接近所获得的角度θ的简档,或者获取角度θ附近的一个或多个值,并且指定对应的视点方向和距离。而且,在获取附近的值时,可以进行使用多个接近数据的补充处理,以补充所获得的视点方向和距离。通过这样的处理,视点位置估计单元157可以例如指定图8中所示的用户的视线方向ξ。
接下来,视点位置估计单元157通过参照从传感器信息分析单元155输出的角度信息来指定偏航角的大小。此后,视点位置估计单元157通过使用所获得的角度将所指定的用户的视线方向ξ仅旋转。因此,视点位置估计单元157可以估计最终的用户的视线方向和视点位置。
此外,如果所获得的角度θ处于简档中的不适当范围中,视点位置估计单元157可以阻止继续处理。因此,使得可以防止错误反应和错误操作。此外,如果阻止了继续处理,信息处理装置10可以进行诸如停止对所显示的视点位置的更新、返回至正面附近视点等的处理。
视点位置估计单元157将这样获得的与用户的视点位置相关的信息(视点位置信息)输出至例如显示控制单元115。显示控制单元115可以例如通过参照所传送的视点位置信息来进行立体内容的显示控制。
在上文提及的说明中,关于视点位置估计单元157通过仅参照传感器信息来估计用户的视点位置的情况进行了说明。在本文中,如果视点位置估计单元157可以使用由成像单元107成像的采集图像,则可以通过使用如下文说明的方法来更精确地估计用户的视点位置。
在下文中,参照图8、图9以及图13详细说明使用传感器信息和采集图像二者对用户的视点位置的估计方法。图13是用于说明当与采集图像一起使用时的视点位置的估计过程的说明图。
预计的是,用户对信息处理装置10的持握姿态可以显著地不断改变,尤其是在信息处理装置10实现为移动终端的情况中。针对这一点,通过单个持握状态简档,在根据用户姿态的改变进行显示方面存在着不适感。
为了克服这样的持握姿态改变所伴有的不适,可以考虑通过连接至信息处理装置或嵌入在信息处理装置中的摄像机来检测用户眼睛的位置,并且基于眼睛的位置以及双眼之间的距离来粗略地计算显示屏与用户之间的绝对位置关系。然而,如上文提及的,摄像机的视角通常小于视点的瞥视角度,距离等的计算过程复杂,并且与加速度传感器的感测速率相比,摄像机帧速率较差。
因此,通过根据本实施方式的视点位置估计单元157,除了加速度传感器进行的高速率(例如,60 Hz或更高)的姿态改变检测以外,还可以进行使用摄像机以常规低速率(例如,几Hz或更低)采集的图像的视点位置的校正处理。
当这样做时,如果摄像机的低帧速率被直接地应用至用户操作,则考虑到会发生因更新速率低导致的各种不适,诸如延迟、咯咯作响(rattling)等。因而,如图13所示,根据本实施方式的视点位置估计单元157首先通过使用了由摄像机(S1)成像的采集图像的已知方法来计算用户的视点位置。此后,视点位置估计单元157将处理中基于成像图像而计算的绝对视点位置不是用作为用户的视点位置,而是用于选择如上文提及的简档(S2)。视点位置估计单元157基于加速度传感器的传感器信息来检测壳体的姿态(S3),并且使用采集图像基于所选择的简档来估计用户的视点位置(S4)。
因此,对用户的操作(例如,壳体的持握姿态的改变)的反馈变成基于由加速度传感器所估计的值,并且不被可检测到的角度范围和帧速率的下降所影响。因此,可以实现以高帧速率对用户的反馈。
在下文中,参照图8和图9具体说明关于使用传感器信息和采集图像的用户视点位置的估计方法。
现在,如图8所示,通过视点位置估计单元157,基于传感器信息获得壳体的姿态θ,而且,也通过基于采集图像的已知方法计算了用户的视点方向ξ和距视点的距离d。在此情况下,简档所具有的壳体姿态被写为θp,简档所具有的视点方向被写为ξp,以及简档所具有的视点距离被写为dp。针对对于每个简档|θ-θp|变为最小的θp,视点位置估计单元157通过例如下文提及的公式101来计算差Dθ。在下文提及的公式101中,k为某一常量。
[等式1]
D &theta; = k &CenterDot; ( d - d p ) 2 + ( &xi; - &xi; p ) 2       ……(公式101)
本文中,具有针对每个简档确定的Dθ的最小值的简档成为应该被选择的简档的候选。当该候选连续地某一恒定次数或更多次数成为同一简档时,视点位置估计单元157选择这样的简档作为处于被关注状态的可适用简档。
例如,假定在如图9所示的简档被预先设定的情况下壳体的姿态被检测为60°。在当基于采集图像计算时的视点方向是20°且视点距离是400mm的情况下,视点位置估计单元157核对上述公式101,并且将D60变成最小的直立持握状态选择为应该使用的简档。
如上文提及的,如果基于采集图像辅助地使用用户的视点位置,视点位置估计单元157可以在更新如图9所示的简档时使用基于采集图像而计算的与用户的视点位置相关的信息。例如,存在着视点距离d根据用户的身体特征等变成对用户固化的值的许多情况。出于该原因,在视点位置被摄像机稳定地检测到并且简档被稳定地选择的情况中,可以根据需要通过摄像机获得的视点距离来更新简档具有的视点距离d。因此,可以生成适合于个体用户的简档,并且可以通过使用专用于每个用户的简档来进行具有更高精度的视点位置的估计。此外,当基于采集图像的视点方向不可检测时,优选的是不进行简档更新。
因而,通过辅助地使用除了从传感器以外还从采集图像获得的知识,即使在通过超出给定范围的壳体旋转量和所计算的超出给定阈值的视点位置来预测壳体姿态的大改变的情况中,也可以通过使用由摄像机获得的采集图像计算用户的绝对视点位置并且结合信息处理装置的当前姿态状态来选择最接近的简档。
上文中,示出了根据本实施方式的信息处理装置10的功能的一个示例。上文描述的结构元件中的每个结构元件都可以使用通用材料或电路来配置,或者可以由专用于每个结构元件的功能的硬件来配置。而且,每个结构元件的功能可以全部通过CPU等来执行。因此,可以根据实施本实施方式时的技术水平酌情改变要使用的硬件配置。
此外,可以创建用于实现如上文提及的根据本实施方式的信息处理装置的每个功能的计算机程序,并且可以在个人计算机等上实现该计算机程序。而且,还可以提供存储这样的计算机程序的计算机可读存储介质。存储介质是例如磁盘、光盘、磁光盘、闪存等。而且,可以例如在不使用存储介质的情况下经由网络来分布上文提及的计算机程序。
<关于信息处理方法的流程>
接下来,参照图14对关于根据本实施方式的信息处理方法(换言之,用户的视点位置的估计方法)的流程的一个示例简单地进行说明。图14是示出了根据本实施方式的信息处理方法的一个示例的流程图。
在根据本实施方式的信息处理方法中,首先,用户视点位置指定单元113的传感器信息获取单元151获取从传感器103输出的传感器信息(步骤S101),并且将该传感器信息传送至传感器信息分析单元155。
此后,传感器信息分析单元155分析所获取的传感器信息(步骤S103),指定壳体的姿态,并且将所获得的结果作为角度信息输出至视点位置估计单元157。
视点位置估计单元157通过使用从传感器信息分析单元157输出的角度信息,来从预先设定的多个简档中选择用于估计用户的视点位置的简档(步骤S105)。此后,视点位置估计单元157使用所选择的简档和从传感器信息分析单元157输出的角度信息来估计用户的视点位置(步骤S107)。在估计用户的视点位置时视点位置估计单元157将所获得的估计结果输出至显示控制单元115。
显示控制单元115基于与从视点位置估计单元157输出的用户的视点位置有关的视点位置信息,来控制显示在显示屏上的显示内容(步骤S109)。从而,实现了根据用户的视点位置的显示控制。
此后,显示控制单元115确定是否执行了结束对内容的显示等的操作(步骤S111)。如果用户还没有执行用于结束处理的操作,则用户视点位置指定单元113返回至步骤S101并且继续处理。此外,如果用户执行了用于结束处理的操作,则用户视点位置指定单元113结束对用户的视点位置的估计处理。
上文中,参照图14对根据本实施方式的信息处理方法的流程的一个示例简单地进行了说明。
如上文所说明的,在根据本公开内容的第一实施方式的信息处理装置10中,在估计用户的视点位置时仅使用了信息处理装置的姿态信息。出于该原因,尽管在仅用户的头部移动时能够进行处理的精确视点位置是不可能的,但是可以用比进行精确视点位置检测更少的处理来提供快速反馈。因此存在着下述特征:对于用户来说,操作信息处理装置10的感觉良好,并且在不进行精确视点位置检测时不会感受到不适。而且,因为传感器的可移动范围非常广,所以信息处理装置10在自由范围内的操作成为可能。
(第二实施方式)
如上文提及的,尽管在立体内容中存在着当从某一特定位置浏览时立体感被增强的内容,但是当从不同于特定视点位置的位置进行浏览时,对用户会出现各种浏览负担,诸如发生串扰、对象表现出失真、以及不能形成显示对象的图像。因而,在下文中说明的根据本公开内容的第二实施方式的信息处理装置中,用户可以更容易地浏览上文提及的立体内容,用户的视点被引导以使得被包括以下范围中:在该范围中用户的视点适合于内容。
根据本实施方式的信息处理装置10的整个配置与图2所示的根据第一实施方式的信息处理装置10相同,并且设置在本实施方式的信息处理装置10中的控制单元101的配置也与图3所示的根据第一实施方式的信息处理装置10相同。因此,下文省略了详细说明。
此外,根据本实施方式的设置在信息处理装置10中的用户视点位置指定单元113可以使用如第一实施方式中说明的传感器信息对用户的视点位置执行特定处理,或者可以进行使用采集图像根据双眼的间距、大小等计算用户的视点位置的已知处理,在该采集图像中,包括用户脸部的一部分被成像。
<关于显示控制单元的配置>
在下文中,对关于根据本实施方式的设置在信息处理装置10中的显示控制单元115的配置详细地进行了说明。
图15是示出了根据本实施方式的包括在信息处理装置10中的显示控制单元115的配置的框图。
如图15所示,根据本实施方式的显示控制单元115主要包括视点位置确定单元201、对象显示控制单元203以及内容显示控制单元205。
通过例如CPU、ROM、RAM等来实现视点位置确定单元201。视点位置确定单元201基于从用户视点位置指定单元113输出的表示用户的视点位置的视点位置信息,来确定用户的视点位置是否包括在适合于内容的视点位置范围中。
本文中,在根据本实施方式的信息处理装置10执行的内容(例如,立体内容)中,与用于观看这些内容的优选视点位置范围相关的信息被关联为元数据。尽管对如何指定优选视点位置范围没有特定的限制,但是例如,可以由参照显示屏定义的极坐标显示来指定视点位置范围。尽管对关于使用极坐标显示的视点位置范围的指定方法也没有特定的限制,但是例如,可以使用如图7A和图7B所示的倾斜角θ和偏航角以及如图8中所示的距视点的距离d等来指定优选视点位置范围。
视点位置确定单元201执行集成控制单元111具有的内容,并且如果集成控制单元111请求对该内容的显示控制,则通过参照与内容相关联的元数据来获取与内容的优选视点位置范围有关的信息。此后,视点位置确定单元201通过参照下述参数来确定与视点位置信息对应的视点位置是否被包括在优选视点位置范围中:该参数表示包括在从用户视点位置指定单元113输出的视点位置信息中的视点位置。
如果与视点位置信息对应的视点位置没有被包括在优选视点位置范围中,则视点位置确定单元201向下文提及的对象显示控制单元203请求对视点引导对象的显示控制。此外,视点位置确定单元201优选地将从用户视点位置指定单元113输出的视点位置信息或者与用户的视点位置与优选视点位置范围的偏差量(偏差量包括偏差的大小和偏差的方向)相关的信息中的至少一个传送至对象显示控制单元203。
另一方面,如果与视点位置信息对应的视点位置被包括在优选视点位置范围中,则视点位置确定单元201向下文提及的内容显示控制单元205请求对于内容的显示控制。
此外,视点位置确定单元201基于传送至视点位置确定单元201的视点位置信息来执行上文提及的确定处理。出于该原因,如果未包括在优选视点位置范围中的用户的视点位置随着时间上的迁移而变成被包括在优选视点位置范围中,则显示在显示屏上的内容被从视点引导对象切换至内容。
通过例如CPU、ROM、RAM等来实现对象显示控制单元203。如果用户的视点位置未被包括在适合于内容的视点位置范围(优选视点位置范围)中,则对象显示控制单元203进行用于显示视点引导对象的显示控制,该视点引导对象将用户的视点引导至优选视点位置范围。
关于由对象显示控制单元203显示在显示屏上的视点引导对象的形状没有特定的限制,并且可以使用任何形状,只要其不向用户强加负担并且促进用户的视点移动即可。这样的视点引导对象例如可以是提示视点的正确方向的箭头对象,当变成正确的视点位置时被首先正确地显示的任何对象等。
而且,对象显示控制单元203通过参照从视点位置确定单元201传送的视点位置信息或者与用户的视点位置和优选视点位置范围的偏差量相关的信息中的至少一个,来控制视点引导对象的显示格式。
此外,对象显示控制单元203优选地根据与视点位置信息对应的用户视点位置随时间的迁移,来改变视点引导对象的显示。此外,对象显示控制单元203可以将用于引导用户的文本与视点引导对象一起显示。
通过例如CPU、ROM、RAM等来实现内容显示控制单元205。当在显示屏上显示与集成处理单元111执行的内容对应的内容时,内容显示控制单元205进行显示控制。通过内容显示控制单元205进行内容的显示控制,用户可以浏览各种内容,诸如立体内容。
上文中,示出了根据本实施方式的信息处理装置10的功能的一个示例。上文描述的每一个结构元件可以使用通用材料或电路来配置,或者可以由专用于每个结构元件的功能的硬件来配置。而且,每个结构元件的功能可以全部通过CPU等来执行。因此,可以根据实施本实施方式时的技术水平酌情改变要使用的硬件配置。
此外,可以创建用于实现如上文提及的根据本实施方式的信息处理装置的每个功能的计算机程序,并且可以在个人计算机等上实现该计算机程序。而且,还可以提供存储这样的计算机程序的计算机可读存储介质。存储介质是例如磁盘、光盘、磁光盘、闪存等。而且,可以例如在不使用存储介质的情况下经由网络来分布上文提及的计算机程序。
在下文中,参照图16至图21B对根据本实施方式的显示控制单元115的显示控制处理具体地进行了说明。图16是示出了根据本实施方式的信息处理装置中的显示控制的说明图,图17A至图21B是示出了根据本实施方式的视点引导对象的一个示例的说明图。
现在,如图16所示,由壁W1、W2以及W3划分的空间B被显示在显示屏D上,并且考虑了在该空间B中如由三棱柱对象OBJ1显示的phantogram的内容。
如果在视点位置信息中公开的用户的视点位置被包括在如图16所示的内容的优选视点位置范围中,则视点位置确定单元201的确定结果被输出至内容显示控制单元205。因此,在内容显示控制单元205的显示控制下,如图16所示的内容被显示在显示屏D上。
另一方面,如果在视点位置信息中公开的用户的视点位置未被包括在优选视点位置范围中,则视点位置确定单元201的确定结果被输出至对象显示控制单元203。因此,如图16所示的三棱柱对象OBJ1不被显示在显示屏D上,并且在对象显示控制单元203的控制下,显示了如图17A至图21B所示的视点引导对象。
图17A和图17B示出了在想把用户的视点位置引导至比它当前所在更左侧时所显示的视点引导对象的示例。图17A中,将示出了视点方向的箭头对象A显示为视点引导对象。而且,在图17B中,将矩形对象G1至G3显示为视点引导对象。矩形对象G1至G3是以下对象:该对象被显示以使得随着用户的视点位置接近优选范围,可以看到多个矩形合并到一起。
类似地,图18A和图18B示出了在想把视点位置引导至比它当前所在更右侧时所显示的视点引导对象的示例,图19A和图19B示出了在想把视点位置引导至比它当前所在更下侧时所显示的视点引导对象的示例。此外,图20A和图20B示出了在想把视点位置引导至比它当前所在更上侧时所显示的视点引导对象的示例。
从图17A至图20B可以清楚地看出,通过将这样的视点引导对象显示在显示屏上,用户可以容易地理解当前视点位置未被包含在与内容对应的优选视点位置范围中。而且,用户可以通过参照这样的视点引导对象来容易地理解应该在哪个方向上移动视点。而且,在如图17A的箭头对象被显示为视点引导对象的情况中,通过使箭头的长度与偏差量的大小对应,可以将视点的移动量示出给用户,并且因而可以进一步提高用户便利性。
而且,除视点引导对象之外,对象显示控制单元203还可以一起显示如图21A和图21B所示的用于引导用户的文本。
如果用户的视点位置已经进入视点位置范围,则这些视点引导对象从显示屏消失,并且变成显示该内容的内容。对视点引导对象和文本的消失方法并没有特定的限制,并且视点引导对象可以根据内容的渐入而渐隐,或者可以即刻从显示屏消失。
而且,如果用户的视点再一次偏离优选视点位置范围,则可以显示视点引导对象来替代内容。
上文中,参照图16至图21B对根据本实施方式的显示控制单元115的显示控制处理具体地进行了说明。
<关于信息处理方法的流程>
接下来,参照图22对关于本实施方式的信息处理方法(即,显示控制方法)的流程的一个示例简单地进行说明。图22是示出了根据本实施方式的信息处理方法的流程的一个示例的流程图。
通过根据本实施方式的显示控制单元115,首先,视点位置确定单元201获取从用户视点位置指定单元113输出的视点位置信息(步骤S201),并且基于所获取的视点位置信息来确定视点位置是否被包括在优选视点位置范围中(步骤S203)。
也就是说,如果与视点位置信息对应的视点被包括在优选视点位置范围中,则将该事实传送至内容显示控制单元205,并且,在内容显示控制单元205的控制下,将内容显示在显示屏上(步骤S205)。
另一方面,如果与视点位置信息对应的视点未被包括在优选视点位置范围中,则将该事实传送至对象显示控制单元203,并且,在对象显示控制单元203的控制下,将视点引导对象显示在显示屏上(步骤S207)。此后,显示控制单元115返回至步骤S201并继续处理。
上文中,参照图22对关于根据本实施方式的信息处理方法的流程的一个示例简单地进行了说明。
如上文所说明的,在根据本实施方式的显示控制处理中,通过将优选观看范围与内容的实体数据相关联作为针对每个内容的元数据,可以在并不借助于内容分类的情况下将用户的视点引导至优选观看范围。
而且,通过根据本实施方式的显示控制处理,由用户他自己/她自己进行的视点位置调整变得更容易,并且用户的负担也很小。因此,用户可以更容易地浏览立体内容,还可以处理以下立体内容:该立体内容的浏览方法是类似于phantogram等稍微高级的。因此,更易于给用户提供具有更佳立体效果的增强的内容,并且还可以减低用户在浏览时的负担。
(关于硬件配置)
接下来,将参照图23对根据本公开内容的实施方式的信息处理装置10的硬件配置详细地进行描述。图23是用于示出根据本公开内容的实施方式的信息处理装置10的硬件配置的框图。
信息处理装置10主要包括CPU 901、ROM 903以及RAM 905。此外,信息处理装置10还包括主机总线907、桥909、外部总线911、接口913、传感器914、输入装置915、输出装置917、存储装置919、驱动921、连接端口923以及通信装置925。
CPU 901用作为算术处理装置和控制装置,并且根据记录在ROM903、RAM 905、存储装置919或可移除记录介质927中的各种程序来控制信息处理装置10的整体操作或一部分操作。ROM 903存储CPU 901所使用的程序和操作参数等。RAM 905主要存储CPU 901所使用的程序以及在程序的执行期间酌情变化的参数等。这些装置通过由内部总线(如CPU总线等)配置的主机总线907而彼此连接。
主机总线907经由桥909连接至外部总线911,诸如PCI(外设部件互联/接口)总线。
传感器914是检测装置,诸如感测用户的运动的传感器,以及获取表示当前位置的信息的传感器。作为这样的传感器的一个示例,可以列出以下传感器:包括有加速度传感器、重力检测传感器、下落检测传感器等的三轴加速度传感器,包括有角速度传感器、手部抖动补偿传感器、地磁传感器等的三轴陀螺仪传感器,或GPS传感器等。而且,传感器914可以装配有除了上文描述的以外的各种测量装置,诸如温度计、照度计、湿度计等。
输入装置915是由用户操作的操作装置,诸如鼠标、键盘、触摸板、按钮、开关以及控制杆。输入装置915还可以是使用例如红外光或其他无线电波的远程控制装置(所谓的远程控制),或者可以是外部连接设备929,诸如符合信息处理装置10的操作的移动电话或PDA。此外,输入装置915基于例如由用户用上述操作装置输入的信息来生成输入信号,并且其是根据用于将输入信号输出至CPU 901的输入控制电路来配置。信息处理装置10的用户可以将各种数据输入至信息处理装置10,并且可以通过操作该输入装置915来指导信息处理装置10进行处理。
根据能够将所获取的信息视觉地或听觉地通知给用户的装置来配置输出装置917。这样的装置的示例包括:显示装置,例如CRT显示装置、液晶显示装置、等离子体显示装置、EL显示装置和灯;音频输出装置,例如扬声器和耳机;打印机;移动电话;传真机等。例如,输出装置917将通过信息处理装置10进行的各种处理所获得的结果进行输出。更具体地,显示装置以文本或图像的形式将通过信息处理装置10进行的各种处理所获得的结果进行显示。另一方面,音频输出装置将音频信号(例如再现的音频数据和声音数据)转换成模拟信号,并将该模拟信号输出。
存储装置919是被配置为信息处理装置10的存储单元的示例的、用于存储数据的装置,并且被用于存储数据。存储装置919由例如磁存储装置(诸如HDD(硬盘驱动))、半导体存储装置、光存储装置或磁光存储装置来配置。该存储装置919存储要由CPU 901执行的程序、各种数据以及从外部获得的各种数据。
驱动921是记录介质的读/写器,并且被嵌入在信息处理装置10中或外部地附接至信息处理装置10。驱动921读取在附接的可移除记录介质927(如磁盘、光盘、磁光盘或半导体存储器)中记录的信息,并将所读出的信息输出至RAM 905。此外,驱动921可以在附接的可移除记录介质927(如磁盘、光盘、磁光盘或半导体存储器)中写入。可移除记录介质927是例如DVD介质、HD-DVD介质或蓝光介质。可移除记录介质927可以是CompactFlash(CF;注册商标)、闪存、SD存储卡(安全数字存储卡)等。可替代地,可移除记录介质927可以是例如配备有非接触IC芯片的IC卡(集成电路卡)或电子器械。
连接端口923是用于使得装置能够直接地连接至信息处理装置10的端口。连接端口923的示例包括USB(通用串行总线)端口、IEEE1394端口、SCSI(小型计算机系统接口)端口等。连接端口923的其他示例包括RS-232C端口、光音频终端、HDMI(高清多媒体接口)端口等。通过外部连接设备929连接至该连接端口923,信息处理装置10直接地从外部连接设备929获得各种数据,并且将各种数据提供至外部连接设备929。
通信装置925是由例如用于连接至通信网络931的通信装置来配置的通信接口。通信装置925是例如有线LAN(局域网)或无线LAN、蓝牙(注册商标)、用于WUSB(无线USB)的通信卡等。可替代地,通信装置925可以是用于光通信的路由器、用于ADSL(非对称用户数字线)的路由器、用于各种通信的调制解调器等。例如,该通信装置925可以根据预先确定的协议(诸如因特网的TCP/IP)与其他通信装置来传送和接收信号等。连接至通信装置925的通信网络931由经由有线或无线连接的网络等来配置,并且可以是例如因特网、家庭LAN、红外通信、无线电波通信、卫星通信等。
至此,示出了能够实现根据本公开内容的实施方式的信息处理装置10的功能的硬件配置的示例。上文描述的每一个结构元件可以使用通用材料来配置,或者可以由专用于每个结构元件的功能的硬件来配置。因此,可以根据实施本实施方式时的技术水平酌情改变要使用的硬件配置。
尽管上文参照附图对本发明的优选实施方式详细地进行了说明,但本公开内容的技术范围并不限于这些示例。清楚的是,在本公开内容的技术领域中具有普通知识的技术人员可以在权利要求中所描述的技术理念的范围内想出各种变化的示例或修改的示例,而且应理解的是,这些变化的示例或修改的示例也将自然地归入本公开内容的技术范围。
此外,以下的配置归入本公开内容的技术范围。
(1)一种信息处理装置,包括:
视点位置确定单元,所述视点位置确定单元基于所获取的有关用户的视点位置的视点位置信息来确定所述用户的所述视点位置是否被包括在适合于内容的视点位置范围中;以及
对象显示控制单元,如果所述用户的所述视点位置未被包括在适合于所述内容的所述视点位置范围中,则所述对象显示控制单元进行显示控制,所述显示控制用于显示视点引导对象,所述视点引导对象将所述用户的视点引导至适合于所述内容的所述视点位置范围。
(2)根据(1)所述的信息处理装置,其中,所述对象显示控制单元根据与所述视点位置信息对应的所述用户的所述视点位置的随时间的迁移,来改变所述视点引导对象的显示。
(3)根据(2)所述的信息处理装置,还包括:
内容显示控制单元,所述内容显示控制单元被配置成控制所述内容的显示,
其中,所述内容显示控制单元在所述视点引导对象的显示期间不执行所述内容的显示控制,以及
其中,如果所述用户的所述视点位置变成被包括在适合于所述内容的所述视点位置范围中,则所述对象显示控制单元不显示所述视点引导对象,并且所述内容显示控制单元开始控制所述内容的显示。
(4)根据(3)所述的信息处理装置,其中,所述对象显示控制单元将用于引导所述用户的文本与所述视点引导对象一起显示。
(5)根据(1)至(4)中任一项所述的信息处理装置,其中,所述内容是立体内容,对于所述立体内容,当所述用户从给定的视点位置范围观看时,立体感增强。
(6)一种信息处理方法,包括:
基于所获取的有关用户的视点位置的视点位置信息来确定所述用户的所述视点位置是否被包括在适合于内容的视点位置范围中;以及
如果所述用户的所述视点位置未被包括在适合于所述内容的所述视点位置范围中,则进行显示控制,所述显示控制用于显示视点位置引导对象,所述视点位置引导对象将所述用户的视点引导至适合于所述内容的所述视点位置范围。
(7)一种程序,用于使计算机实现下述功能:
视点位置确定功能,所述视点位置确定功能基于所获取的有关用户的视点位置的视点位置信息来确定所述用户的所述视点位置是否被包括在适合于内容的视点位置范围中;以及
对象显示控制功能,如果所述用户的所述视点位置未被包括在适合于所述内容的所述视点位置范围中,则所述对象显示控制功能进行显示控制,所述显示控制用于显示视点位置引导对象,所述视点位置引导对象将所述用户的视点引导至适合于所述内容的所述视点位置范围。
附图标记列表
10  信息处理装置
101 控制单元
103 传感器
105 存储单元
107 成像单元
111 集成控制单元
113 用户视点位置指定单元
115 显示控制单元
151 传感器信息获取单元
153 采集图像获取单元
155 传感器信息分析单元
157 视点位置估计单元
201 视点位置检测单元
203 对象显示控制单元
205 内容显示控制单元

Claims (7)

1.一种信息处理装置,包括:
视点位置确定单元,所述视点位置确定单元基于所获取的有关用户的视点位置的视点位置信息来确定所述用户的所述视点位置是否被包括在适合于内容的视点位置范围中;以及
对象显示控制单元,如果所述用户的所述视点位置未被包括在适合于所述内容的所述视点位置范围中,则所述对象显示控制单元进行显示控制,所述显示控制用于显示视点引导对象,所述视点引导对象将所述用户的视点引导至适合于所述内容的所述视点位置范围。
2.根据权利要求1所述的信息处理装置,其中,所述对象显示控制单元根据与所述视点位置信息对应的所述用户的所述视点位置的随时间的迁移,来改变所述视点引导对象的显示。
3.根据权利要求2所述的信息处理装置,还包括:
内容显示控制单元,所述内容显示控制单元被配置成控制所述内容的显示,
其中,所述内容显示控制单元在所述视点引导对象的显示期间不执行所述内容的显示控制,以及
其中,如果所述用户的所述视点位置变成被包括在适合于所述内容的所述视点位置范围中,则所述对象显示控制单元不显示所述视点引导对象,并且所述内容显示控制单元开始控制所述内容的显示。
4.根据权利要求3所述的信息处理装置,其中,所述对象显示控制单元将用于引导所述用户的文本与所述视点引导对象一起显示。
5.根据权利要求1所述的信息处理装置,其中,所述内容是立体内容,对于所述立体内容,当所述用户从给定的视点位置范围观看时,立体感增强。
6.一种信息处理方法,包括:
基于所获取的有关用户的视点位置的视点位置信息来确定所述用户的所述视点位置是否被包括在适合于内容的视点位置范围中;以及
如果所述用户的所述视点位置未被包括在适合于所述内容的所述视点位置范围中,则进行显示控制,所述显示控制用于显示视点位置引导对象,所述视点位置引导对象将所述用户的视点引导至适合于所述内容的所述视点位置范围。
7.一种程序,用于使计算机实现:
视点位置确定功能,所述视点位置确定功能基于所获取的有关用户的视点位置的视点位置信息来确定所述用户的所述视点位置是否被包括在适合于内容的视点位置范围中;以及
对象显示控制功能,如果所述用户的所述视点位置未被包括在适合于所述内容的所述视点位置范围中,则所述对象显示控制功能进行显示控制,所述显示控制用于显示视点位置引导对象,所述视点位置引导对象将所述用户的视点引导至适合于所述内容的所述视点位置范围。
CN201380011844.XA 2012-03-07 2013-01-15 信息处理装置、信息处理方法以及程序 Pending CN104145234A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012050270 2012-03-07
JP2012-050270 2012-03-07
PCT/JP2013/050556 WO2013132886A1 (ja) 2012-03-07 2013-01-15 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
CN104145234A true CN104145234A (zh) 2014-11-12

Family

ID=49116373

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380011844.XA Pending CN104145234A (zh) 2012-03-07 2013-01-15 信息处理装置、信息处理方法以及程序

Country Status (4)

Country Link
US (1) US20150042557A1 (zh)
JP (1) JP6015743B2 (zh)
CN (1) CN104145234A (zh)
WO (1) WO2013132886A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109845277A (zh) * 2016-10-26 2019-06-04 索尼公司 信息处理装置、信息处理系统、信息处理方法和程序
CN110383214A (zh) * 2017-03-09 2019-10-25 索尼公司 信息处理装置、信息处理方法和记录介质
CN110870304A (zh) * 2017-06-12 2020-03-06 交互数字Ce专利控股公司 向用户提供信息以观察多视图内容的方法和装置
CN111527466A (zh) * 2018-01-04 2020-08-11 索尼公司 信息处理装置、信息处理方法和程序

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715113B2 (en) 2014-03-18 2017-07-25 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP6451222B2 (ja) * 2014-11-04 2019-01-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US10424103B2 (en) 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
CN106200931A (zh) * 2016-06-30 2016-12-07 乐视控股(北京)有限公司 一种控制观影距离的方法和装置
JP6878177B2 (ja) * 2017-07-04 2021-05-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2022091589A1 (ja) * 2020-10-29 2022-05-05 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056878A (ja) * 1998-08-14 2000-02-25 Tookado:Kk 画像表示処理装置
JP2002132385A (ja) * 2000-10-26 2002-05-10 Nec Corp 携帯型パーソナルコンピュータ
US7184025B2 (en) * 2002-05-31 2007-02-27 Microsoft Corporation Altering a display on a viewing device based upon a user controlled orientation of the viewing device
JP3704708B2 (ja) * 2002-07-03 2005-10-12 マツダ株式会社 経路誘導装置、経路誘導方法及び経路誘導用プログラム
JP2005092702A (ja) * 2003-09-19 2005-04-07 Toshiba Corp 情報処理装置
US8890802B2 (en) * 2008-06-10 2014-11-18 Intel Corporation Device with display position input
JP5404246B2 (ja) * 2009-08-25 2014-01-29 キヤノン株式会社 3次元映像処理装置及びその制御方法
JP4802276B2 (ja) * 2009-12-25 2011-10-26 株式会社東芝 映像表示装置、方法、及び位置判定装置
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
JP5494284B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109845277A (zh) * 2016-10-26 2019-06-04 索尼公司 信息处理装置、信息处理系统、信息处理方法和程序
CN110383214A (zh) * 2017-03-09 2019-10-25 索尼公司 信息处理装置、信息处理方法和记录介质
CN110383214B (zh) * 2017-03-09 2022-05-10 索尼公司 信息处理装置、信息处理方法和记录介质
CN110870304A (zh) * 2017-06-12 2020-03-06 交互数字Ce专利控股公司 向用户提供信息以观察多视图内容的方法和装置
CN110870304B (zh) * 2017-06-12 2022-08-02 交互数字麦迪逊专利控股公司 向用户提供信息以观察多视图内容的方法和装置
US11589034B2 (en) 2017-06-12 2023-02-21 Interdigital Madison Patent Holdings, Sas Method and apparatus for providing information to a user observing a multi view content
CN111527466A (zh) * 2018-01-04 2020-08-11 索尼公司 信息处理装置、信息处理方法和程序

Also Published As

Publication number Publication date
WO2013132886A1 (ja) 2013-09-12
JP6015743B2 (ja) 2016-10-26
US20150042557A1 (en) 2015-02-12
JPWO2013132886A1 (ja) 2015-07-30

Similar Documents

Publication Publication Date Title
CN104145234A (zh) 信息处理装置、信息处理方法以及程序
US10732707B2 (en) Perception based predictive tracking for head mounted displays
EP3089154B1 (en) Image processing device and image display system for pose prediction-based display
CN106233188B (zh) 头戴式显示器及其控制方法
EP3511803A1 (en) Method and apparatus to determine trigger intent of user
US11662589B2 (en) Geometry modeling of eyewear devices with flexible frames
CN103150009A (zh) 信息处理装置、信息处理方法和程序
US20240031678A1 (en) Pose tracking for rolling shutter camera
CN115342806A (zh) 头戴显示设备的定位方法、装置、头戴显示设备及介质
US11366318B2 (en) Electronic device and control method thereof
US20180260042A1 (en) Inside-Out 6DoF Systems, Methods And Apparatus
CN111344776B (zh) 信息处理装置、信息处理方法和程序
WO2016185634A1 (ja) 情報処理装置
JP7027753B2 (ja) 情報処理装置及びプログラム
US11282228B2 (en) Information processing device, information processing method, and program
WO2019015261A1 (en) DEVICES AND METHODS FOR SCENE DETERMINATION
US12032168B2 (en) Geometry modeling of eyewear devices with flexible frames
EP2821896B1 (en) Method and Apparatus for Motion sensing of a handheld Device relative to a Stylus
EP4027869A1 (en) System and method for augmented reality visualization of benign paroxysmal position vertigo (bppv) disorder
CN114637561A (zh) 显示管理方法及计算机程序产品、信息介质和显示系统
CN115825481A (zh) 智能眼镜的标定参数校验方法、装置、计算机设备和介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20141112