CN113557717A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN113557717A
CN113557717A CN202080020358.4A CN202080020358A CN113557717A CN 113557717 A CN113557717 A CN 113557717A CN 202080020358 A CN202080020358 A CN 202080020358A CN 113557717 A CN113557717 A CN 113557717A
Authority
CN
China
Prior art keywords
information processing
processing apparatus
display device
viewpoint position
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080020358.4A
Other languages
English (en)
Inventor
小林优斗
高桥纪晃
铃木孝明
三森晴香
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN113557717A publication Critical patent/CN113557717A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

信息处理装置(30)设置有:指定单元(331),其指定显示设备(10)的观看者的视点位置,该显示设备(10)再现从三维物体发出的光线;设置单元(332),其使用由指定单元(331)指定的视点位置作为参考来设置使得观看者能够立体地观看三维物体的区域;以及显示控制单元(333),其执行控制,以使显示设备(10)发射使得能够从由设置单元(332)设置的区域内立体地观看三维物体、并且使得不能从该区域的外部立体地观看三维物体的光线组。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开涉及信息处理装置、信息处理方法和程序。
背景技术
一些传统的显示设备实现立体图像显示。专利文献1公开了图像显示系统,其包括通过使用光线再生方法来显示立体图像的图像显示设备。
引文列表
专利文献
专利文献1:日本专利申请公开第2008-146221号
发明内容
本发明要解决的问题
在上述传统技术中,通过使用光线再生方法在所有三维方向上实现运动视差,并且因此难以简化在所有三维方向上再生光线的设备的配置。此外,再生光线的设备再生所有三维方向上的光线,并且因此根据设备的处理性能而可能使不自然的图像被视觉识别。
因此,本公开提出了下述信息处理装置、信息处理方法和程序:即使与光线的发射有关的处理负荷被减小,该信息处理装置、信息处理方法和程序也能够通过使用光线而使立体图像被视觉识别。
问题的解决方案
为了解决上述问题,根据本公开的实施例的信息处理装置包括:指定单元,其指定显示设备的观察者的视点位置,该显示设备再现已由三维物体发出的光线;设置单元,其通过使用已由指定单元指定的视点位置作为参考来设置使得观察者能够立体地观看三维物体的区域;以及显示控制单元,其执行控制以使该显示设备发射使得能够从已由设置单元设置的区域的内部立体地观看三维物体、并且使得不能从该区域的外部立体地观看该三维物体的光线组。
此外,根据本公开的实施例的信息处理方法是由信息处理装置执行的信息处理方法,该信息处理装置对再现已由三维物体发出的光线的显示设备进行控制。该信息处理方法包括:指定显示设备的观察者的视点位置的步骤;通过使用已指定的视点位置作为参考来设置区域的步骤,该区域使得观察者能够立体地观看三维物体;以及执行控制以使显示设备发射光线组的步骤,该光线组使得能够从已设置的区域的内部立体地观看三维物体、并且使得不能从该区域的外部立体地观看该三维物体。
此外,根据本公开的实施例的程序使对再现已由三维物体发出的光线的显示设备进行控制的信息处理装置执行以下步骤:指定显示设备的观察者的视点位置的步骤;通过使用已指定的视点位置作为参考来设置区域的步骤,该区域使得观察者能够立体地观看三维物体;以及执行控制以使该显示设备发射光线组的步骤,该光线组使得能够从已设置的区域的内部立体地观看三维物体、并且使得不能从该区域的外部立体地观看该三维物体。
附图说明
图1是示出包括根据实施例的信息处理装置的显示系统的示意性配置的图。
图2是示出根据实施例的信息处理装置的配置的示例的图。
图3是用于说明根据实施例的信息处理装置中的视点位置的图。
图4是示出根据实施例的信息处理装置已通过使用视点位置作为参考而设置的区域与光线之间的关系的图。
图5是用于说明根据实施例的信息处理装置使得再现的光线组的图。
图6是用于说明在根据实施例的信息处理装置中光线、图像和视点位置之间的关系的示例的图。
图7是示出由根据实施例的信息处理装置执行的处理过程的示例的流程图。
图8是用于说明根据实施例的信息处理装置中的光线、图像和视点位置之间的关系的图。
图9是用于说明实施例的变型(1)中的信息处理装置中的光线、区域和视点位置之间的关系的图。
图10是用于说明实施例的变型(2)中的信息处理装置中的光线、区域和视点位置之间的关系的图。
图11是用于说明实施例的变型(3)中的信息处理装置中的光线、区域和视点位置之间的关系的图。
图12是用于说明实施例的变型(4)中的信息处理装置中的光线、图像和视点位置之间的关系的图。
图13是示出实现信息处理装置的功能的计算机的示例的硬件配置图。
具体实施方式
下面参照附图详细描述本公开的实施例。注意,在以下描述的每个实施例中,相同的部分由相同的附图标记表示,并且因此省略重复的描述。
(实施例)
[根据实施例的显示系统的概要]
图1是示出包括根据实施例的信息处理装置的显示系统的示意性配置的图。图1所示的显示系统100通过使用从显示设备10发射出的光线组,使观察者200以立体方式视觉识别三维物体。显示系统100包括显示设备10、测量设备20以及信息处理装置30。信息处理装置30能够执行与显示设备10和测量设备20的通信。
显示设备10是再现已由三维物体发出的光线的光场显示器。光场方案的显示设备10是使观察者200在不使用专用眼镜的情况下用肉眼视觉识别立体视频等的设备。例如,要被视觉识别的三维物体在各个方向上发出光线。光线是指通过反射阳光、照明等获得的光。人等通过掌握已经由三维物体发出的光线来立体地识别该物体。显示设备10通过以模拟方式再现已由三维物体发出的光线,使得能够立体地观看三维物体。显示设备10在信息处理装置30的控制下,根据再现已由三维物体发出的光线的方案来再现已由三维物体发出的光线。作为显示设备10,例如,可以使用根据面板层叠方案、投影仪阵列方案、视差屏障/透镜阵列方案等来再生光线的公知设备。
例如,显示设备10可以使用下述光线再生方案,该方案能够通过执行信号处理而改变光线将被再现的区域。在本实施例中,描述了使用面板层叠方案的显示器作为例如显示设备10的情况。显示设备10可以例如通过改变液晶面板11的多个像素值来改变从像素发射的光线。
测量设备20以能够测量观察显示设备10的观察者200的眼睛201的位置等的方式设置在显示设备10的上部。作为测量设备20,例如,可以使用RGB摄像装置、IR摄像装置、深度摄像装置、超声波传感器等的单个设备或其组合。测量设备20可以一直执行测量,或者可以周期地执行测量。测量设备20以无线通信或有线通信的方式将指示测量结果的测量信息发送到信息处理装置30。测量结果包括例如下述信息,该信息可以辨识在液晶面板11可以被视觉识别的空间中的观察者200的头部、左眼或右眼201等的位置、距离等。测量结果包括例如观察者200的左眼或右眼201等的图像。
[根据实施例的信息处理装置的配置]
图2是示出根据实施例的信息处理装置30的配置的示例的图。图2中所示的信息处理装置30例如是专用或通用计算机。信息处理装置30包括通信单元31、存储装置32和控制单元33。信息处理装置30例如被设置在显示设备10的外部,但是这不是限制性的。例如,信息处理装置30可以被并入显示设备10中。信息处理装置30的控制单元33电连接至通信单元31和存储装置32。
通信单元31具有直接或经由网络与显示设备10和测量设备20执行通信的功能。通信单元31是例如可以执行有线通信或无线通信的通信设备。通信单元31将已经从显示设备10和测量设备20接收到的信息输出到控制单元33。通信单元31将从控制单元33输入的信息、信号等发送到显示设备10、测量设备20等。注意,通信单元31可以包括例如连接至电缆等的连接器。
存储装置32存储每种类型的数据和程序。存储装置32例如由诸如RAM或闪存的半导体存储器元件或者诸如硬盘或光盘的存储设备来实现。存储装置32以时间序列方式存储测量设备20的测量结果。存储装置32存储要由显示设备10再生的图像数据32A、设置数据32B等。图像数据32A包括例如指示观察者从所有角度观察三维物体时的图像组的信息。设置数据32B例如包括与已经针对观察者200的眼睛201设置的区域、坐标等有关的信息。设置数据32B包括例如用于通过使用视点位置作为参考来设置区域的信息。
控制单元33控制信息处理装置30。控制单元33包括各个处理单元,指定单元331、设置单元332、显示控制单元333和检测单元334。在本实施例中,控制单元33的各个处理单元(包括指定单元331、设置单元332、显示控制单元333和检测单元334)例如通过中央处理单元(CPU)、微控制单元(MCU)等实现,所述中央处理单元(CPU)、微控制单元(MCU)等通过使用随机存取存储器(RAM)等作为工作区域来执行存储在信息处理装置30中的程序。此外,例如,可以通过诸如专用集成电路(ASIC)或现场可编程门阵列(FPGA)的集成电路来实现各个处理单元。
指定单元331指定显示三维物体的显示设备10的观察者200的视点位置。指定单元331例如基于已经经由通信单元31获取的测量设备20的测量结果来指定视点位置。指定单元331可以通过使用各种已知的技术来指定视点位置。例如,指定单元331根据测量设备20的测量结果指定与观察者200的眼睛201的位置、距测量设备20的距离等有关的信息,并且基于所指定的信息指定观察者200的左眼和右眼的视点位置。视点位置指示已经针对观察者200设置的视点坐标系中的位置。此外,指定单元331可以例如基于观察者200的右眼的眼球的捕获图像和与右眼的位置关系来指定右眼的视线面对的方向。类似地,指定单元331可以基于用户的左眼的眼球的捕获图像和与左眼的位置关系来指定左眼的视线面对的方向。
指定单元331可以基于观察者200的眼睛201的位置,指定液晶面板11的哪个位置被视觉识别。指定单元331可以使指定结果包括观察者200的视点位置的指定精度。例如,在未能基于图像等掌握观察者200的眼睛201的位置并且已经基于观察者200的头部的位置、形状等估计了视点位置的情况下,指定单元331可以使指定结果包括指示低指定精度的信息。例如,在测量设备20的精度包括不确定性并且具有一定概率分布的情况下,指定单元331可以通过使用概率作为权重来指定视点可能位于的位置、范围等。然后,指定单元331将观察者200的指定的视点位置存储在存储装置32中,并且还将视点位置输出到设置单元332。
设置单元332通过使用由指定单元331指定的视点位置作为参考来设置使得观察者200能够立体地观看三维物体的区域。设置单元332设置视点位置周围的区域,该区域使得即使观察者200的视点位置稍微偏离也能够立体地观看三维物体。例如,设置单元332可以通过使用观察者200的视点位置作为参考来设置具有已经预先设置的大小的区域。例如,设置单元332可以通过使用观察者200的视点位置作为参考来设置根据观察者200而改变的区域。例如,设置单元332可以设置具有以视点位置为中心围绕观察者200的眼睛201的范围的区域。该区域包括例如平面、立体空间等。例如,设置单元332可以设置具有根据显示设备10的表现能力、信息处理装置30的规格等而改变的大小的区域。例如,设置单元332可以在具有使视点更频繁地移动的趋势的观察者200的情况下设置具有更宽范围的第一区域,并且可以在具有使视点较不频繁地移动的趋势的观察者200的情况下设置具有比第一区域的大小小的大小的第二区域。然后,设置单元332将指示所设置的区域信息存储在存储装置32中,并且还将该区域信息输出到显示控制单元333。
在本实施例中,描述了设置单元332设置与观察者200的左眼和右眼对应的两个区域的情况,但是这不是限制性的。例如,设置单元332可以设置包括观察者200的左眼和右眼两者的单个区域。例如,在如果再现观察者200的左眼或右眼的光线就足够的情况下,设置单元332可以设置使用一只眼睛201的视点位置作为参考的区域。此外,设置单元332可以通过对每个区域的尺寸、大小等施加限制来减少要再现的光线的数目。
显示控制单元333执行控制以使显示设备10发射下述光线组,该光线组使得能够从已由设置单元332设置的区域的内部立体地观看三维物体、并且使得不能从该区域的外部立体地观看三维物体。换句话说,显示控制单元333通过使用从显示设备10发射的光线组之中穿过区域内部的光线,使观察者200视觉识别三维物体。例如,显示控制单元333可以控制显示设备10以向区域的内部连续地发射不同的光线。显示控制单元333可以采用通过执行信号处理来改变将光线将被再现的区域的方案。例如,显示控制单元333计算显示设备10的每个像素要输出什么值,并且根据计算结果控制显示设备10。结果,显示设备10从显示控制单元333重新生成像素值以发射与该像素值对应的光线。注意,稍后将描述计算像素值的示例。
此外,显示控制单元333将从显示设备10穿过该区域的光线组与期望再现三维物体的虚拟光线组进行比较,并且将比较结果反映在要由显示设备发射的光线组中。显示控制单元333从由显示设备10发射的光线组之中模拟穿过该区域的光线,将已经模拟的、穿过该区域的光线与虚拟光线组进行比较,并且使显示设备10发射基于使误差减小的像素值的光线组。例如,显示控制单元333执行模拟以获得穿过当前状态的区域的光线组和要再现的虚拟光线组,并对它们进行对比。在作为对比结果存在差异的情况下,显示控制单元333确定使该差异消除的像素值。
检测单元334检测观察者200的视点的移动。例如,检测单元334将由指定单元331指定的视点位置与先前的视点位置进行比较。在这些视点位置彼此不同或者视点的移动量大于或等于阈值的情况下,检测单元334检测到视点已经移动。例如,检测单元334将由指定单元331指定的视点位置与由设置单元332设置的区域进行比较。在视点位置位于区域的外部或位于接近区域的外部的情况下,检测单元334检测到视点已经移动。
以上已经描述了根据该实施例的信息处理装置30的配置示例。注意,以上参照图2描述的配置仅仅是示例,并且根据本实施例的信息处理装置30的配置不限于该示例。根据本实施例的信息处理装置30的功能配置可以根据规格或操作而灵活地改变。
[根据实施例的通过执行信号处理来再现光线的方法]
图3是用于说明根据实施例的信息处理装置30中的视点位置的图。图3所示的xy坐标系定义了显示设备10的液晶面板11的表面上的平面坐标。xy坐标系是显示坐标系的示例。xy坐标系具有沿显示设备10的液晶面板11的长边的水平方向上的x轴以及沿液晶面板11的短边的垂直方向上的y轴。st坐标系是穿过与显示设备10分开距离d的观察者200的左眼和右眼201的坐标系,并且与xy坐标系平行。st坐标系是视点坐标系的示例。st坐标系是在与显示设备10分开距离d的观察者200的视点的深度中定义的平面坐标。st坐标系具有沿水平方向的s轴和沿垂直方向的t轴。
在三维空间中,已经定义了两个平面坐标(xy坐标系和st坐标系),并且因此,可以表现在空间中周围传输的所有光线。例如,将穿过xy坐标系中的点(x',y')和st坐标系中的点(s,t)的光线表示为R(x',y',s,t)。在以下描述中,在将左眼和右眼201的坐标位置彼此区分开的描述中,使用点(sl,tl)和点(sr,tr)。
接下来,定义在空间中周围传输的光线与显示设备10的像素之间的对应关系。显示设备10可以采用例如面板层叠方案、投影仪阵列方案、视差屏障/透镜阵列方案等。光线与显示设备10的像素之间的对应关系根据方案而改变,并且因此在本实施例中,为了通用性而不描述对应关系的细节。然后,假设显示设备10的像素集合是P,将从上述P到光线的变换函数定义为f(P),并且假设每条光线与显示设备10的像素之间的对应关系表示为公式(1)。公式(1)指示如果获得R(x',y',s,t)则获得f(P),并且如果获得f(P)则获得R(x',y',s,t)。
R(x,y,s,t)<=>f(P) 公式(1)
接下来,将仅对指定光线的忠实再现以公式化的方式表示为优化问题。假设在由测量设备20测量的视点位置中,左眼的位置坐标是点(sl,tl),并且右眼的位置坐标是点(sr,tr)。如果假设贡献将被再现的范围是从左眼和右眼201中的每一个的位置起±r的范围,则优化问题被表示为公式(2)。
[公式1]
Figure BDA0003256504130000081
在公式(2)中,R(x,y,s,t)是作为输入给出的要再现的光线的亮度值。X和Y分别对应于xy坐标系中的液晶面板11的水平宽度和垂直宽度。换句话说,公式(2)是一个优化问题,其使得在空间中周围传输的所有光线之中,穿过液晶面板11上的(x:[0,X],y:[0,Y])并穿过左眼的周边区域(s:[sl-r,sl+r],t:[tl-r,tl+r])或右眼的周边区域(s:[sr-r,sr+r],t:[tr-r,tr+r])的光线组中由显示设备10再现的光线与要再生的光线之间的误差最小化。
根据基于梯度效应的技术获得优化问题的解。具体地,信息处理装置30模拟将在当前状态下再现的光线(步骤S1)。然后,信息处理装置30利用将作为输入给出的、要再现的光线组进行比较,并计算误差(步骤S2)。然后,如果误差小于或等于特定值,则信息处理装置30终止计算。如果误差超过特定值,则信息处理装置30以误差变得更小的方式更新像素值,并且处理返回到步骤S1。然后,信息处理装置30通过在显示设备10中反映显示设备10的最终获得的像素值P',可以仅在作为观察者200的视点的周边区域的区域El和Er中如实地再现光线。换句话说,通过使用观察者200的视点位置作为参考,区域El和Er用作使得观察者200能够立体地观看三维物体的区域。
图4是示出根据实施例的信息处理装置30已通过使用视点位置作为参考而设置的区域与光线之间的关系的图。在图4中,stu坐标系具有指示水平方向的s轴、指示垂直方向的t轴和指示深度的u轴。深度是指朝向显示设备10的方向。
在图4所示的示例中,信息处理装置30已经通过使用观察者200的左眼的视点位置EPl作为参考来设置区域El。在这种情况下,信息处理装置30使光线组L从液晶面板11的xy坐标系中的点(x',y')朝向区域El发射。光线组L是使得能够从区域El的内部立体地观看三维物体的光线组。光线组L包括穿过区域El的内部的光线。
此外,信息处理装置30可以使或者可以不使光线从液晶面板11的点(x',y')朝向区域El的外部发射。例如,信息处理装置30可以使下述光线组发射,该光线组使得不能立体地观看三维物体并且指示相同的图像。注意,在图4所示的示例中,为了简化描述,省略了与观察者200的右眼对应的光线和区域Er。然而,类似于左眼,信息处理装置30使显示设备10向区域Er发射光线组。
在图4所示的示例中,已经描述了信息处理装置30将立方空间设置为区域El的情况,但是这不是限制性的。例如,信息处理装置30可以将大致球形的空间或平面设置为区域。
图5是用于说明根据实施例的信息处理装置30使得再现的光线组的图。例如,与用于使物体被视觉识别为好像物体被弹出或位于背面的视差方案相比,光场方案的显示设备10使物体被视觉识别为好像物体存在于显示设备10内部。在图5的参考示例Ex中,光场再生设备300发射已由指示苹果的三维图像发出的多条光线。为了扩大立体视觉的水平方向上的视角,要求光场再生设备300使要再现的多条光线向宽范围发射。例如,为了发射100条光线,要求显示设备10同时显示100个图像。因此,为了在所有三维方向上再生光线,光场再生设备300需要能够同时显示数百至数千个视点的视频的高分辨率,或者成为大规模设备。
根据实施例的信息处理装置30将要由显示设备10再现的光线组L限制到观察者200的视点位置EP的外围区域,如图5的模式M1所示。通过这样做,信息处理装置30可以防止由于观察者200的移动而导致的可视性降低,并且还可以减少要再现的光线组L的光线的数目。然后,如图5的模式M2所示,可以使显示设备10仅向观察者200的视点位置EP的周边区域发射用于立体视觉的光线组L,并且向与周边区域不同的区域发射使得不能执行立体视觉的光线。
[根据实施例的显示设备中光线与观察者之间的关系]
图6是用于说明根据实施例的信息处理装置30中的光线、图像和视点位置之间的关系的示例的图。在图6所示的示例中,显示设备10显示图像G。图像G包括例如运动图像、静止图像等。图像G是包括位于后方的车辆和位于车辆前方的人的图像。图像G是用于再现已由车辆和人发出的光线的图像。然后,在观察显示设备10的观察者200中,左眼的视点位置EPl位于st坐标系的s轴上的点(2,t)处,并且右眼的视点位置EPr位于st坐标系的s轴上的点(6,t)处。注意,在图6所示的示例中,为了简化描述,st坐标系的t轴上的坐标是固定的。
信息处理装置30使指定单元331基于测量设备20的测量信息指定观察者200的视点位置EPl和EPr。信息处理装置30使设置单元332通过使用相应的视点位置EPl和EPr作为参考来设置区域El和Er。具体地,信息处理装置30以左眼的视点位置EPl的点(2,t)作为中心(参考)将从点(1,t)到点(3,t)的范围设置为区域El。然后,信息处理装置30以右眼的视点位置EPr的点(6,t)作为中心将从点(5,t)到点(7,t)的范围设置为区域Er。在这种情况下,信息处理装置30执行控制,以使显示设备10发射使得能够从区域El和Er的内部立体地观看图像G、并且使得不能从区域El和Er的外部立体地观看图像G的光线组L。
例如,显示设备10使得发射包括光线L1、L2和L3的光线组L以及包括光线L5、L6和L7的光线组L。光线L1是指示观察者200从点(1,t)执行视觉识别的情况下的图像G1的光线。光线L2是指示观察者200从点(2,t)执行视觉识别的情况下的图像G2的光线。光线L3是指示观察者200从点(3,t)执行视觉识别的情况下的图像G3的光线。光线L5是指示观察者200从点(5,t)执行视觉识别的情况下的图像G5的光线。光线L6是指示观察者200从点(6,t)执行视觉识别的情况下的图像G6的光线。光线L7是指示观察者200从点(7,t)执行视觉识别的情况下的图像G7的光线。注意,图像G1、G2、G3、G5、G6和G7分别是在从彼此不同视点观察的情况下的彼此不同的图像,并且分别是由已由车辆和人发出的不同光线所指示的图像。
在图6所示的示例中,观察者200可以通过使用左眼视觉识别图像G2并且使用右眼视觉识别图像G6来立体地观看车辆和人。然后,在观察者200中,例如,假设左眼的视点位置EPl已经移动到点(1,t),并且右眼的视点位置EPr已经移动到st坐标系的s轴上的点(5,t)。在这种情况下,观察者200可以通过使用左眼视觉识别图像G1并且使用右眼视觉识别图像G5来立体地观看车辆和人。然后,在观察者200中,例如,假设左眼的视点位置EPl已经移动到点(0,t),并且右眼的视点位置EPr已经移动到st坐标系的s轴上的点(4,t)。在这种情况下,左眼的视点位置EPl已经移动到区域El的外部,并且因此观察者200不能视觉识别其中已经再现了指示图像G的光线的光线组。此外,右眼的视点位置EPr已经移动到区域Er的外部,并且因此观察者200不能视觉识别其中已经再现了指示图像G的光线的光线组。结果,观察者200变得难以立体地观看显示设备10的图像G。
接下来,参照图7描述根据实施例的信息处理装置30的处理过程的示例。图7是示出由根据实施例的信息处理装置30执行的处理过程的示例的流程图。图7中所示的处理过程由执行程序的信息处理装置30的控制单元33实现。
如图7所示,信息处理装置30的控制单元33基于测量设备20的测量信息指定观察者200的视点位置EPl和EPr(步骤S101)。例如,控制单元33经由通信单元31从测量设备20获取测量信息,并且根据该测量信息指定观察者200的视点位置EPl和EPr。控制单元33通过执行步骤S101的处理而用作指定单元331。当步骤S101的处理已经终止时,控制单元33的处理进行到步骤S102。
控制单元33通过使用视点位置EPl和EPr作为参考,设置与观察者200的左眼和右眼201对应的区域El和Er(步骤S102)。例如,控制单元33通过使用各种已知的技术,指定与左眼和右眼201对应的区域El和Er,并且将指示区域El和Er的区域信息存储在存储装置32中。通过执行步骤S102的处理,控制单元33用作设置单元332。当步骤S102的处理已经终止时,控制单元33的处理进行到步骤S103。
控制单元33执行控制以使显示设备10发射穿过所设置的区域的光线组(步骤S103)。例如,控制单元33基于存储装置32的图像数据32A确定用于使要再现的光线组被发射的显示设备10的像素值,并且向显示设备10发出基于该像素值进行显示的指令。结果,显示设备10基于由指令指示的像素值使光线组被发射。当步骤S103的处理已经终止时,控制单元33的处理进行到步骤S104。
控制单元33基于测量设备20的测量信息,指定观察者200的视点位置EPl和EPr(步骤S104)。然后,控制单元33基于指定的视点位置EPl和EPr以及先前视点位置EPl和EPr检测视点位置的移动(步骤S105)。例如,在已经检测到指定的视点位置EPl和EPr与先前视点位置EPl和EPr之间的差是大于或等于阈值的视点移动量的情况下,控制单元33检测视点位置EPl和EPr的移动。例如,在指定的视点位置EPl和EPr与先前视点位置EPl和EPr不同,并且指定的视点位置EPl和EPr位于靠近区域El和Er的外部的情况下,控制单元33检测视点位置EPl和EPr的移动。控制单元33通过执行步骤S105的处理而用作检测单元334。控制单元33在存储装置32中存储检测结果,该检测结果包括是否已经检测到视点位置的移动、已经检测到移动的视点位置EPl和EPr等,并且处理进行到步骤S106。
控制单元33基于步骤S105的检测结果确定是否已经检测到视点位置EPl和EPr的移动(步骤S106)。在控制单元33已经确定还没有检测到视点位置EPl和EPr的移动的情况下(步骤S106中的否),观察者200的视点没有移动,并且因此处理进行到稍后描述的步骤S113。此外,在控制单元33确定已经检测到视点位置EPl和EPr的移动的情况下(步骤S106中的是),处理进行到步骤S107。
控制单元33通过使用移动后的视点位置EPl和EPr作为参考,设置与观察者200的左眼和右眼201对应的区域El和Er(步骤S107)。控制单元33通过执行步骤S107的处理而用作设置单元332。当步骤S107的处理已经终止时,控制单元33的处理进行到步骤S108。
控制单元33模拟穿过设置区域的当前光线组(步骤S108)。例如,控制单元33执行模拟,在该模拟中,执行从已经使显示设备10进行显示的像素值或更新的像素值的集合P到光线组的变换,并且计算每条光线与显示设备10的像素之间的对应关系。在模拟中,例如根据上述用于再现光线的方法,计算每条光线与显示设备10的像素之间的对应关系。当控制单元33已经在存储装置32中存储了模拟结果时,处理进行到步骤S109。
控制单元33将当前光线组与要再现的虚拟光线组进行比较,并且计算误差(步骤S109)。例如,控制单元33基于存储装置32的图像数据32A计算穿过区域El和Er的、要再现的虚拟光线组。然后,控制单元33将已在步骤S108中计算的当前光线组与虚拟光线组进行比较,并且计算误差。例如,随着当前光线组与虚拟光线组之间的匹配度增加,控制单元33计算较小的误差,并且随着一个纬度减小,控制单元33计算较大的误差。当步骤S109的处理终止时,控制单元33的处理进行到步骤S110。
控制单元33确定误差是否满足改变条件(步骤S110)。改变条件包括例如用于确定光线组的改变的、诸如阈值或范围的条件。在控制单元33已经确定误差满足改变条件的情况下(步骤S110中的是),处理进行到步骤S111。控制单元33以误差变得更小的方式更新显示设备10的像素值(步骤S111)。例如,控制单元33基于存储装置32的图像数据32A确定用于使要再现的光线组被发射的显示设备10的像素值,并且执行更新。当步骤S111的处理已经终止时,控制单元33的处理返回到已经描述的步骤S108,并且继续步骤S108和随后的处理的处理过程。
此外,在控制单元33确定误差不满足改变条件的情况下(步骤S110中的否),处理进行到步骤S112。控制单元33在显示设备10中反映对应于区域El和Er的像素值(步骤S112)。例如,控制单元33向显示设备10发出用于基于在步骤S111中更新的像素值进行显示的指令。结果,显示设备10使基于由指令指示的像素值的光线组朝向移动后的区域El和Er发射。然后,当步骤S112的处理已经终止时,控制单元33的处理进行到步骤S113。
控制单元33确定是否将终止处理(步骤S113)。例如,在已经从观察者200等接收到终止请求的显示设备10的电源已经关闭的情况下,控制单元33确定处理将终止。在控制单元33已经确定处理将不被终止的情况下(步骤S113中的否),处理返回到已经描述的步骤S104,并且继续步骤S104和随后的处理的处理过程。此外,在控制单元33已经确定处理将被终止的情况下(步骤S113中的是),图7中所示的处理过程被终止。
在图7所示的处理过程中,控制单元33通过执行步骤S103和步骤S108至步骤S112的处理而用作显示控制单元333。
[根据实施例的显示系统的操作]
接下来,参照图8描述根据实施例的显示系统100的操作的示例。图8是用于说明根据实施例的信息处理装置30中的光线、图像和视点位置之间的关系的图。在图8所示的示例中,显示设备10显示图6所示的图像G,在图8所示的场景SN1下,在观察显示设备10的观察者200中,左眼的视点位置EPl位于st坐标系的s轴上的点(2,t),并且右眼的视点位置EPr位于st坐标系的s轴上的点(6,t)。注意,在图8所示的示例中,为了简化描述,st坐标系的t轴上的坐标是固定的。
在场景SN1下,信息处理装置30使指定单元331基于测量设备20的测量信息指定观察者200的视点位置EPl和EPr。信息处理装置30使设置单元332通过使用相应的视点位置EPl和Epr作为参考来设置区域El和Er。具体地,信息处理装置30以左眼的视点位置EPl的点(2,t)作为中心(参考)将从点(1,t)到点(3,t)的范围设置为区域El。然后,信息处理装置30以右眼的视点位置EPr的点(6,t)作为中心将从点(5,t)到点(7,t)的范围设置为区域Er。在这种情况下,信息处理装置30执行控制,以使显示设备10发射使得能够从区域El和Er的内部立体地观看图像G、并且使得不能从区域El和Er的外部立体地观看图像G的光线组L。
在场景SN1下,观察者200通过使用左眼视觉识别图像G2并且使用右眼视觉识别图像G6,立体地观看车辆和人。在该状态下,观察者200将左眼的视点位置EPl从点(2,t)移动到点(3,t),并且将右眼的视点位置EPr从点(6,t)移动到点(7,t)。
在场景SN2下,观察者200已经将左眼的视点位置EPl和右眼的视点位置EPr分别移动到区域El内的点(3,t)和区域Er内的点(7,t)。在这种情况下,观察者200通过使用左眼视觉识别偏离点(2,t)的图像G3并且使用右眼视觉识别偏离点(6,t)的图像G7来立体地观看车辆和人。
在场景SN2下,信息处理装置30使指定单元331基于测量设备20的测量信息指定观察者200的视点位置EPl是点(3,t),并且视点位置EPr是点(7,t)。信息处理装置30使检测单元334检测左眼的视点位置EPl已经从点(2,t)移动到点(3,t),并且右眼的视点位置EPr已经从点(6,t)移动到点(7,t)。信息处理装置30使设置单元332通过使用相应的视点位置EPl和EPr作为参考设置区域El'和Er'。具体地,信息处理装置30以左眼的视点位置EPl的点(3,t)作为中心(参考)将从点(2,t)到点(4,t)的范围设置为区域El'。然后,信息处理装置30以右眼的视点位置EPr的点(7,t)作为中心将从点(6,t)到点(8,t)的范围设置为区域Er'。信息处理装置30将当前光线组L与要再现的虚拟光线组进行比较,并计算误差。信息处理装置30以误差变得更小的方式更新显示设备10的像素值。
在场景SN3下,信息处理装置30将更新后的像素值反映在显示设备10中。换句话说,信息处理装置30执行控制,以使显示设备10发射使得能够从区域El'和Er'的内部立体地观看图像G、并且使得不能从区域El'和Er'的外部立体地观看图像G的光线组L'。结果,显示设备10朝向偏离区域El和Er的区域El'和Er'发射包括图像G2、G3和G4的光线L2、L3和L4的光线组L'以及包括图像G6、G7和G8的光线L6、L7和L8的光线组L'。
在场景SN3下,观察者200通过使用左眼视觉识别图像G3和使用右眼视觉识别图像G7来立体地观看车辆和人。结果,即使视点位置EPl和EPr已经移动,观察者200也可以通过使用显示设备10的光线组L和L'来立体地观看图像G。
如上所述,根据实施例的信息处理装置30使指定单元331指定观察者200的视点位置EP,并且然后使设置单元332通过使用视点位置EP作为参考来设置使得观察者200能够立体地观看三维物体的区域E。信息处理装置30使显示控制单元333执行控制,以使显示设备发射使得能够从由设置单元332设置的区域E的内部立体地观看三维物体并且使得不能从区域E的外部立体地观看三维物体的光线组。通过这样做,如果信息处理装置30使显示设备10向已被设置成与观察者200的视点位置EP对应的区域E的内部发射使得能够立体地观看三维物体的光线组,就足够了。结果,可以限制三维物体的光线将被再现的范围。因此,即使与光线的发射有关的处理负荷被减小,信息处理装置30也可以通过使用已由显示设备10发射的光线来使观察者200视觉识别立体图像。此外,可以设置使用观察者200的视点位置作为参考的区域E。即使视点位置稍微偏离,信息处理装置30也可以通过根据观察者200的头部的移动设置区域E来使观察者200视觉识别立体图像。换句话说,信息处理装置30可以通过使用显示设备10已经向受到限制的区域E发射的光线组,为观察者200提供与在全向地发射光线的情况下的深度感类似的深度感。此外,即使不使用可以全向地发射光线的显示设备,信息处理装置30也可以实现具有宽的视域和宽的深度的再现范围。
此外,信息处理装置30计算显示设备10用于朝向观察者200发射穿过区域E内部的光线组L的像素值,并且使显示控制单元333基于该像素值控制显示设备10。通过这样做,计算仅用于区域E的显示设备10的像素值,并且因此,信息处理装置30可以基于该像素值控制显示设备10。结果,在信息处理装置30中,控制显示设备10的处理负荷被减小,并且这使得能够减小显示系统的成本。
此外,当检测单元334已经检测到观察者200的视点位置EP的移动时,信息处理装置30使设置单元332设置使用移动后的视点位置EP作为参考的区域E。当设置单元332已经根据视点的移动设置了区域E时,信息处理装置30使显示控制单元333执行控制,以使显示设备发射使得能够从区域E的内部立体地观看三维物体的光线组L。通过这样做,信息处理装置30根据观察者200的视点位置EP的移动的检测来重置区域E,并且可以使显示设备10向移动后的区域E发射光线组L。结果,信息处理装置30可以根据观察者200的视点位置EP的移动来调整区域E,以调整观察者200的焦点,并且可以维持立体视觉。因此,可以防止可视性的降低。
此外,当检测单元334已经检测到视点位置EP从区域E的内部向外部的移动时,信息处理装置30使设置单元332通过使用移动后的视点位置EP作为参考来设置区域E。通过这样做,当位于区域E内部的观察者200的视点位置EP已经朝区域E的外部移动时,信息处理装置30可以通过使用移动后的视点位置EP作为参考来重置区域E。结果,即使视点位置EP已经移动到区域E的外部,信息处理装置30也可以重置区域E,并且可以维持观察者200执行的立体视觉。因此,可以防止可视性的降低。
此外,当设置单元332已经根据视点位置EP的移动设置了区域E时,信息处理装置30将穿过区域E的当前光线组L与期望再现三维物体的虚拟光线组进行比较,并且将比较结果反映在要从显示设备10发射的光线组L中。通过这样做,当区域E已经被重置时,信息处理装置30可以将对当前光线组L与虚拟光线组进行比较的结果反映在要从显示设备10发射的光线组L中。结果,如果信息处理装置30基于对当前光线组L与虚拟光线组进行比较的结果来控制显示设备10,就足够了。这使得能够减少与对要从显示设备10发射的光线组L的控制有关的处理负荷。
此外,信息处理装置30计算从显示设备10穿过区域E的当前光线组L。在所计算的当前光线组L与虚拟光线组之间的误差满足改变条件的情况下,以误差变得更小的方式改变要从显示设备10发射的光线组L。通过这样做,信息处理装置30可以根据当前光线组L与虚拟光线组之间的误差来改变要从显示设备10发射的光线组L。结果,如果信息处理装置30根据当前光线组L与虚拟光线组之间的误差来控制显示设备10,就足够了。这使得能够减少与对要从显示设备10发射的光线组L的控制有关的处理负荷。
上述实施例已经描述了示例,并且可以进行各种改变和应用。例如,根据实施例的信息处理装置30可以基于观察者200的视点位置EPl和EPr的移动状态、观察者200的数目等来设置各种区域。
[实施例的变型(1)]
图9是用于说明实施例的变型(1)中的信息处理装置30中的光线、区域和视点位置之间的关系的图。在图9所示的示例中,显示设备10显示图6所示的图像G,在图9所示的示例中,在观察显示设备10的观察者200中,左眼的视点位置EPl位于st坐标系的s轴上的点(2,t),并且右眼的视点位置EPr位于st坐标系的s轴上的点(6,t)。注意,在图9所示的示例中,为了简化描述,st坐标系的t轴上的坐标是固定的。
信息处理装置30使指定单元331基于测量设备20的测量信息指定观察者200的视点位置EPl和EPr。信息处理装置30使设置单元332通过使用s轴上的视点位置EPl和EPr的中心作为参考来设置从点(1,t)到点(7,t)的范围作为区域E。然后,信息处理装置30使显示控制单元333执行控制,以使显示设备10发射使得使得能够从区域E的内部立体地观看图像G、并且使得不能从区域E的外部立体地观看图像G的光线组L。通过这样做,显示设备10使包括光线L1、L2、L3、L4、L5、L6和L7的光线组L朝向区域E发射。
在图9所示的示例中,观察者200可以通过使用左眼视觉识别图像G2并且使用右眼视觉识别图像G6来立体地观看车辆和人。然后,在观察者200中,例如,假设左眼的视点位置EPl已经移动到点(1,t),并且右眼的视点位置EPr已经移动到st坐标系的s轴上的点(5,t)。在这种情况下,观察者200可以通过使用左眼视觉识别图像G1并且使用右眼视觉识别图像G5来立体地观看车辆和人。然后,在观察者200中,例如,假设左眼的视点位置EPl已经移动到点(0,t),并且右眼的视点位置EPr已经移动到st坐标系的s轴上的点(4,t)。在这种情况下,左眼的视点位置EPl已经移动到区域El的外部,并且因此观察者200不能视觉识别其中指示图像G的光线已经被再现的光线组。此外,右眼的视点位置EPr已经移动到区域Er的外部,并且因此观察者200不能视觉识别其中指示图像G的光线已经被再现的光线组。结果,观察者200变得难以立体地观看显示设备10的图像G。
如上所述,根据实施例的信息处理装置30使设置单元332设置包括已由指定单元331指定的、观察者200的双眼的视点位置EPl和EPr的单个区域E。通过这样做,信息处理装置30可以通过使用视点位置EPl和EPr作为参考来设置单个区域E。结果,在单个区域中再现光线组L,并且因此信息处理装置30可以进一步减少处理负荷。
[实施例的变型(2)]
图10是用于说明实施例的变型(2)中的信息处理装置30中的光线、区域和视点位置之间的关系的图。在图10所示的示例中,显示设备10显示图6所示的图像G,在图10所示的示例中,在观察显示设备10的观察者200中,左眼的视点位置EPl位于st坐标系的s轴上的点(2,t),并且右眼的视点位置EPr位于st坐标系的s轴上的点(6,t)。注意,在图10所示的示例中,为了简化描述,st坐标系的t轴上的坐标是固定的。
在图10所示的示例中,观察者200将头部指向显示设备10前方的右手侧。在这种情况下,测量设备20向信息处理装置30输出了指示可以测量观察者200的左眼但不能测量右眼的测量信息。
信息处理装置30的指定单元331指定观察者200的左眼的视点位置EPl为点(2,t),并且基于点(2,t)估计右眼的视点位置EPr,并且因此指定单元331指定视点位置EPr为点(6,t)。在这种情况下,指定单元331将右眼的指定的低精度与视点位置EPr相关联,并且将观察者200的视点位置EPl和EPr输出到设置单元332。
信息处理装置30的设置单元332基于已由指定单元331指定的视点位置EPl和EPr的精度来设置具有彼此不同的大小的区域El和Er。例如,设置单元332以左眼的视点位置EPl的点(2,t)作为中心(参考)将从点(1,t)到点(3,t)的范围设置为区域El。然后,右眼的视点位置EPr的指定精度低,并且因此设置单元332将右眼的区域Er设置得比左眼的区域El宽。具体地,设置单元332以右眼的视点位置EPr的点(6,t)作为中心将从点(4,t)到点(8,t)的范围设置为区域Er
显示控制单元333执行控制,以使显示设备10发射使得能够从区域El和Er的内部立体地观看图像G、并且使得不能从区域El和Er的外部立体地观看图像G的光线组L。具体地,显示控制单元333使显示设备10向区域El发射包括光线L1、L2和L3的光线组L,并且向区域El和Er发射包括光线L4、L5、L6、L7和L8的光线组L'。结果,观察者200可以通过使用左眼视觉识别图像G0至图像G3中的任一个并且使用右眼视觉识别图像G4至图像G8中的任一个而立体地观看车辆和人。
如上所述,根据实施例的信息处理装置30基于已由指定单元331指定的视点位置EPl和EPr的精度来设置具有彼此不同的大小的区域El和Er。通过这样做,设置了具有彼此不同的大小的区域El和Er,并且因此信息处理装置30可以使显示设备10发射适合于区域El和Er的光线组L和L'。结果,即使观察者200的头部的取向改变或移动,信息处理装置30也可以调整观察者200的焦点,并且可以维持立体视觉。因此,可以防止可视性的降低。
注意,在观察者200的双眼的视点位置EPl和EPr两者的指定精度低的情况下,实施例的变型(2)中的信息处理装置30可以将区域El和Er两者设置为宽于在指定机构高的情况下的区域El和Er。替选地,信息处理装置30可以设置包括视点位置EPl和EPr两者的单个区域。
[实施例的变型(3)]
图11是用于说明实施例的变型(3)中的信息处理装置30中的光线、区域和视点位置之间的关系的图。在图11所示的示例中,显示设备10显示图6所示的图像G,在图11所示的场景SN11下,观察者200正在静止状态下观察显示设备10。换句话说,观察者200的视点位置EPl和EPr处于移动范围小的静止状态。在观察者200中,左眼的视点位置EPl位于st坐标系的s轴上的点(2,t)处,并且右眼的视点位置EPr位于st坐标系的s轴上的点(6,t)处。注意,在图11所示的示例中,为了简化描述,st坐标系的t轴上的坐标是固定的。
在场景SN11下,信息处理装置30使指定单元331基于测量设备20的测量信息指定观察者200的视点位置EPl和EPr。信息处理装置30使设置单元332通过使用相应的视点位置EPl和EPr作为参考,设置观察者200处于静止状态的状态下的区域El和Er。具体地,信息处理装置30以左眼的视点位置EPl的点(2,t)作为中心(参考)将从点(1,t)到点(3,t)的范围设置为区域El。然后,信息处理装置30以右眼的视点位置EPr的点(6,t)作为中心将从点(5,t)到点(7,t)的范围设置为区域Er。在这种情况下,信息处理装置30执行控制,以使显示设备10发射使得能够从区域El和Er的内部立体地观看图像G、并且使得不能从区域El和Er的外部立体地观看图像G的光线组L。
在场景SN12下,观察者200正在移动状态下观察显示设备10。换句话说,观察者200的视点位置EPl和EPr处于移动范围大的移动状态。在观察者200中,左眼的视点位置EPl从st坐标系的s轴上的点(2,t)在向右方向上移动,并且右眼的视点位置EPr从st坐标系的s轴上的点(6,t)在向右方向上移动。
在场景SN12下,信息处理装置30使指定单元331基于测量设备20的测定信息指定观察者200的移动状态下的视点位置EPl和EPr。信息处理装置30使设置单元332通过使用指定的时间点处相应的视点位置EPl和EPr为参考,设置在向右方向上延伸的区域El'和Er'。具体地,视点位置EPl和EPr的移动方向是向右的方向,并且因此信息处理装置30通过使用左眼的视点位置EPl的点(2,t)作为参考,将从点(1,t)到点(4,t)的范围设置为区域El'。然后,信息处理装置30通过使用右眼的视点位置EPr的点(6,t)作为参考,将从点(5,t)到点(8,t)的范围设置为区域Er'。换句话说,信息处理装置30设置下述区域El'和Er',其具有比静止状态下的区域El和Er更宽的范围,并且具有与移动方向对应的形状。在视点位置EPl和EPr正在移动的情况下,信息处理装置30设置在移动方向上宽而在与移动方向相反的方向上窄的区域El'和Er'。在这种情况下,信息处理装置30执行控制,以使显示设备10发射使得能够从区域El'和Er'的内部立体地观看图像G、并且使得不能从区域El'和Er'的外部立体地观看图像G的光线组L'。
此后,当观察者200的视点位置EPl和EPr已经变为静止时,类似于场景SN11,信息处理装置30使设置单元332通过使用静止状态下的相应的视点位置EPl和EPr作为参考,设置观察者200处于静止状态的状态下的区域El和Er
如上所述,在检测单元334检测到视点位置EPl和EPr的移动的情况下,根据实施例的信息处理装置30使设置单元332设置比在视点位置EPl和EPr静止的情况下的区域El'和Er'大的区域El'和Er'。通过这样做,信息处理装置30设置与视点位置EPl和EPr的移动状态对应的区域El'和Er',并且可以使显示设备10发射适合于区域El'和Er'的光线组L'。结果,信息处理装置30可以避免由于在移动期间视点位置EPl和EPr偏离区域El'和Er'而导致无法执行立体视觉的情况。因此,可以防止可视性的降低。
实施例的变型(3)中的信息处理装置30可以根据视点位置EPl和EPr的移动速度来改变要设置的区域El和Er的大小、形状等。此外,信息处理装置30可以估计视点位置EPl和EPr的移动速度。在移动速度高的情况下,信息处理装置30可以通过对宽范围轻微加权来优化区域E,并且可以设置区域E。在视点位置EPl和EPr的移动速度低的情况下,信息处理装置30可以通过对比在移动速度高的情况下的范围窄的范围以中等水平加权来优化区域E。在视点位置EPl和EPr静止的情况下,信息处理装置30可以通过对更窄的范围进行重度加权来优化区域E。
[实施例的变型(4)]
描述下述情况:实施例的变型(4)中的信息处理装置30为多个观察者200再现光线组。
图12是用于说明实施例的变型(4)中的信息处理装置30中的光线、图像和视点位置之间的关系的图。在图12所示的示例中,显示设备10显示图6所示的图像G,在图12所示的示例中,在st坐标系的s轴方向上并排的两个观察者200正在观察显示设备10。
信息处理装置30的检测单元334基于测量设备20的测量信息,检测两个观察者200A、200B各自的视点位置EPl和EPr。信息处理装置30的设置单元332设置分别与多个观察者200对应的四个区域ES1、ES2、ET1、ET2。区域ES1和ES2分别对应于观察者200A的视点位置EPl和EPr。区域ET1和ET2分别对应于观察者200A的视点位置EPl和EPr。信息处理装置30的显示控制单元333执行控制以使显示设备10发射光线组LS1、LS2、LT1和LT2,这些光线组LS1、LS2、LT1和LT2使得能够从设置单元332设置的四个区域ES1、ES2、ET1和ET2的内部立体地观看三维物体,并且使得不能从四个区域ES1、ES2、ET1和ET2的外部立体地观看三维物体。因此,观察者200A可以通过视觉识别光线组LS1和LS2来立体地观看车辆和人。观察者200B可以通过视觉识别光线组LT1和LT2来立体地观看车辆和人。
如上所述,当检测单元334已经检测到多个观察者200A和200B的视点位置EPl和EPr时,实施例的变型(4)中的信息处理装置30使设置单元332设置分别与多个观察者200对应的四个区域ES1、ES2、ET1和ET2。信息处理装置30执行控制,以使显示设备10发射与四个区域ES1、ES2、ET1和ET2对应的光线组LS1、LS2、LT1和LT2。通过这样做,当多个观察者200A和200B观察显示设备10时,信息处理装置30可以使得发射适合于观察者200A和200B的四个区域ES1、ES2、ET1和ET2的光线组LS1、LS2、LT1和LT2。结果,信息处理装置30可以限制三维物体的光线将被再现的范围。这使得与全向地发射光线的情况相比,能够减少与光线的发射有关的处理负荷。此外,信息处理装置30可以为多个观察者200A和200B提供与全向地发射光线的情况下的深度感类似的深度感。
注意,已经描述了实施例的变型(4)中的信息处理装置30为多个观察者200A和200B设置四个区域ES1、ES2、ET1和ET2的情况,但是这不是限制性的。例如,信息处理装置30可以为多个观察者200A和200B中的每一个设置单个区域,或者可以设置与多个观察者200A和200B两者对应的单个区域。
注意,实施例的变型(1)至变型(4)可以应用于另一变型中的信息处理装置30,或者可以被组合。
[硬件配置]
可以例如通过具有图13所示的配置的计算机1000来实现根据上述第一至第四实施例的信息处理装置30。下面通过使用根据实施例的信息处理装置30作为示例来提供描述。图13是示出实现信息处理装置30的功能的计算机1000的示例的硬件配置图。计算机1000包括CPU 1100、RAM 1200、只读存储器(ROM)1300、硬盘驱动器(HDD)1400、通信接口1500和输入/输出接口1600。计算机1000的各个单元通过总线1050连接。
CPU 1100基于存储在ROM 1300或HDD 1400中的程序进行操作,并控制各个单元。例如,CPU 1100将存储在ROM 1300或HDD 1400中的程序扩展在RAM 1200中,并且执行对应于每种类型的程序的处理。
ROM 1300存储在激活计算机1000时由CPU 1100执行的引导程序,(例如,基本输入输出系统(BIOS))、依赖于计算机1000的硬件的程序等。
HDD 1400是计算机可读记录介质,其非临时地记录由CPU 1100执行的程序、由该程序使用的数据等。具体地,HDD 1400是记录根据本公开的信息处理程序的记录介质,该信息处理程序用作程序数据1450的示例。
通信接口1500是计算机1000用于连接至外部网络1550(例如,因特网)的接口。例如,CPU 1100经由通信接口1500从另一设备接收数据或者将由CPU 1100生成的数据发送到另一设备。
输入/输出接口1600是用于连接输入/输出设备1650和计算机1000的接口。例如,CPU 1100经由输入/输出接口1600从诸如键盘或鼠标的输入设备接收数据。此外,CPU 1100经由输入/输出接口1600将数据发送到诸如显示器、扬声器或打印机的输出设备。此外,输入/输出接口1600可以用作读取已记录在预定记录介质(介质)中的程序等的介质接口。该介质例如是诸如数字通用盘(DVD)的光记录介质、诸如磁光盘(MO)的磁光记录介质、磁带介质、磁记录介质、半导体存储器等。
例如,在计算机1000用作根据实施例的信息处理装置30的情况下,计算机1000的CPU 1100通过执行加载到RAM 1200中的程序来实现指定单元331、设置单元332、显示控制单元333、检测单元334等的功能。此外,根据本公开的程序或存储装置32中的数据被存储在HDD 1400中。注意,CPU 1100从HDD 1400读取程序数据1450,并执行程序数据1450。然而,在另一示例中,这些程序可以经由外部网络1550从另一设备获取。
以上,已经参照附图详细地描述了本公开的优选实施例,但本公开的技术范围并不限定于上述示例。明显的是,本公开所属领域的普通技术人员可以在不脱离权利要求中描述的技术思想的情况下构思各种变型或修改,并且应当理解,这些变型或修改落入本公开的技术范围内。
此外,这里描述的效果仅是示例性或说明性的,而不是限制性的。换句话说,除了上述效果之外或者代替上述效果,根据本公开的技术可以表现出根据本文提供的描述对本领域技术人员明显的其他效果。
此外,还可以生成用于使得并入到计算机中的诸如CPU、ROM或RAM的硬件实现与信息处理装置30具有的配置类似的功能的程序,并且还可以提供记录该程序的计算机可读记录介质。
此外,由本文中的信息处理装置30所执行的处理中的各个步骤并不总是要求按照流程图中所描述的顺序以时间序列来执行。例如,由信息处理装置30执行的处理中的各个步骤可以以与流程图中描述的顺序不同的顺序执行,或者可以并行执行。
此外,本实施例的信息处理装置30可以使观察者200感知到显示设备10的深度感,但是这不是限制性的。例如,信息处理装置30可以再现观察者200的视点周围的光场,并且因此信息处理装置30也可以用于校正观察者200的视力。在这种情况下,信息处理装置30将与观察者200的视力有关的视力信息存储在存储装置32等中,并且显示控制单元333控制显示设备10以向上述区域发射基于视力信息校正的光线组。视力矫正的目标包括例如近视、远视、散光等。
此外,在本实施例中,已经描述了信息处理装置30被设置在显示设备10外部的情况,但是这不是限制性的。例如,信息处理装置30可以被并入显示设备10或测量设备20中。例如,信息处理装置30可以由可与显示设备10通信的信息处理服务器等来实现。
此外,根据本实施例的信息处理装置30可以例如用在头戴式显示器(HMD)中。例如,信息处理装置30可以通过在HMD的显示面板中使用显示设备10并且与视线跟踪(眼睛跟踪)相结合来实现可以调整焦点的HMD。
(效果)
信息处理装置30包括:指定单元331,其指定显示设备的观察者的视点位置,该显示设备再现已由三维物体发出的光线;设置单元332,其通过使用已由指定单元331指定的视点位置作为参考来设置使得观察者200能够立体地观看三维物体的区域E;以及显示控制单元333,其执行控制,以使显示设备10发射使得能够从已由设置单元332设置的区域E的内部立体地观看三维物体、并且使得不能从该区域的外部立体地观看三维物体的光线组L。
通过这样做,如果信息处理装置30使显示设备10向已被设置成与观察者200的视点位置EP对应的区域E的内部发射使得能够立体地观看三维物体的光线组,就足够了。结果,可以限制三维物体的光线将被再现的范围。因此,即使与光线的发射有关的处理负荷被减小,信息处理装置30也可以通过使用已由显示设备10发射的光线使观察者200视觉识别立体图像。此外,可以设置使用观察者200的视点位置作为参考的区域E。即使视点位置稍微偏离,信息处理装置30也可以通过根据观察者200的头部的移动设置区域E来使观察者200视觉识别立体图像。换句话说,信息处理装置30可以通过使用显示设备10已经向受到限制的区域E发射的光线组,为观察者200提供与在全向地发射光线的情况下的深度感类似的深度感。此外,即使不使用可以全向地发射光线的显示设备,信息处理装置30也可以实现具有宽的视域和宽的深度的再现范围。
在信息处理装置30中,显示控制单元333计算显示设备10用于朝观察者200发射穿过区域E的内部的光线组L的像素值,并且基于该像素值控制显示设备10。
通过这样做,计算仅用于区域E的显示设备10的像素值,并且因此,信息处理装置30可以基于该像素值控制显示设备10。结果,在信息处理装置30中,控制显示设备10的处理负荷被减小,并且这使得能够减小显示系统100的成本。
信息处理装置30还包括检测观察者200的视点位置的移动的检测单元334。当检测单元334已经检测到视点位置的移动时,设置单元332通过使用移动后的视点位置作为参考来设置区域E。当已由设置单元332设置了根据视点的移动的区域E时,显示控制单元333执行控制,以使显示设备10发射使得能够从区域E的内部立体地观看三维物体的光线组L。
通过这样做,信息处理装置30根据观察者200的视点位置的移动的检测来重置区域E,并且可以使显示设备10向移动后的区域E发射光线组L。结果,信息处理装置30可以根据观察者200的视点位置的移动来调整区域E,以调整观察者200的焦点,并且可以维持立体视觉。因此,可以防止可视性的降低。
在信息处理装置30中,当检测单元334已经检测到视点位置从区域E的内部向外部的移动时,设置单元332通过使用移动后的视点位置作为参考来设置区域E。
通过这样做,当位于区域E内部的观察者200的视点位置已经朝向区域E的外部移动时,信息处理装置30可以通过使用移动后的视点位置EP作为参考来重置区域E。结果,即使视点位置已经移动到区域E的外部,信息处理装置30也可以重置区域E,并且可以维持由观察者200执行的立体视觉。因此,可以防止可视性的降低。
在信息处理装置30中,当已由设置单元332设置了根据视点位置的移动的区域E时,显示控制单元333将穿过区域E的当前光线组L与期望再现三维物体的虚拟光线组进行比较,并且将比较结果反映在要从显示设备10发射的光线组L中。
通过这样做,当区域E已经被重置时,信息处理装置30可以将对当前光线组L与虚拟光线组进行比较的结果反映在要从显示设备10发射的光线组L中。结果,如果信息处理装置30基于将当前光线组L与虚拟光线组进行比较的结果来控制显示设备10,就足够了。这使得能够减少与对要从显示设备10发射的光线组L的控制有关的处理负荷。
在信息处理装置30中,显示控制单元333计算从显示设备10穿过区域E的当前光线组L。在计算的当前光线组L与虚拟光线组之间的误差满足改变条件的情况下,以误差变得更小的方式改变要从显示设备10发射的光线组L。
通过这样做,信息处理装置30可以根据当前光线组L与虚拟光线组之间的误差来改变要从显示设备10发射的光线组L。结果,如果信息处理装置30根据当前光线组L与虚拟光线组之间的误差来控制显示设备10,就足够了。这使得能够减少与对要从显示设备10发射的光线组L的控制有关的处理负荷。
在信息处理装置30中,设置单元332设置包括已由指定单元331指定的观察者200的双眼的视点位置的单个区域E。
通过这样做,信息处理装置30可以通过使用两个观察者200的视点位置作为参考来设置单个区域E。结果,在单个区域中再现光线组L,并且因此信息处理装置30可以进一步减少处理负荷。
在信息处理装置30中,设置单元332基于已由指定单元331指定的视点位置的精度来设置具有彼此不同的大小的区域E。
通过这样做,信息处理装置30通过设置具有彼此不同的大小的区域E,使得显示设备10能够发射适合于区域E的光线组L。结果,即使观察者200的头部的朝向改变或移动,信息处理装置30也可以调整观察者200的焦点,并且可以维持立体视觉。因此,可以防止可视性的降低。
在信息处理装置30中,在已由检测单元334检测到视点位置的移动的情况下,设置单元332设置比在视点位置静止的情况下的区域E大的区域E。
通过这样做,信息处理装置30根据观察者200的视点位置的移动状态来设置区域E,并且可以使显示设备10发射适合于区域E的光线组L。结果,信息处理装置30可以避免由于在移动期间视点位置偏离区域E而导致无法执行立体视觉的情况,并且可以防止可视性的降低。
在信息处理装置30中,检测单元334检测多个观察者200的视点位置,设置单元332设置分别与多个观察者200对应的多个区域E,并且显示控制单元333执行控制,以使显示设备发射使得能够从已由设置单元332设置的多个区域E的内部立体地观看三维物体、并且使得不能从多个区域E的外部立体地观看三维物体的光线组L。
通过这样做,当多个观察者200正在观察显示设备10时,信息处理装置30可以使得发射适合于多个观察者200的多个区域E的光线组L。结果,信息处理装置30可以限制三维物体的光线将被再现的范围。这使得与全向地发射光线的情况相比,能够减少与光线的发射有关的处理负荷。此外,信息处理装置30可以为多个观察者200提供与全向地发射光线的情况下的深度感类似的深度感。
信息处理装置30的信息处理方法是由对再现已由三维物体发出的光线的显示设备10进行控制的信息处理装置30执行的信息处理方法,并且该信息处理方法包括:指定显示设备10的观察者200的视点位置的步骤;通过使用已经指定的视点位置作为参考来设置区域E的步骤,该区域E使得观察者200能够立体地观看三维物体;以及执行控制以使显示设备10发射光线组L的步骤,该光线组L使得能够从已经设置的区域E的内部立体地观看三维物体、并且使得不能从区域E的外部立体地观看三维物体。
通过这样做,在信息处理方法中,如果信息处理装置30使显示设备10向已经被设置成对应于观察者200的视点位置EP的区域E的内部发射使得能够立体地观看三维物体的交叉线组,就足够了。结果,在该信息处理方法中,可以限制三维物体的光线将被再现的范围。因此,即使与光线的发射有关的处理负荷被减小,也通过使用已由显示设备10发射的光线使得观察者200能够视觉识别立体图像。此外,在该信息处理方法中,可以设置使用观察者200的视点位置作为参考的区域E。即使视点位置稍微偏离,也通过根据观察者200的头部的移动设置区域E来使得观察者200能够视觉识别立体图像。换句话说,在该信息处理方法中,通过使用显示设备10已经向受到限制的区域E发射的光线组,可以向观察者200提供与全向地发射光线的情况下的深度感类似的深度感。此外,在该信息处理方法中,即使不使用可以全向地发射光线的显示设备,也可以实现具有宽的视域和宽的深度的再现范围。
一种程序使对再现已由三维物体发出的光线的显示设备10进行控制的信息处理装置30执行以下步骤:指定显示设备10的观察者200的视点位置的步骤;通过使用已经指定的视点位置作为参考来设置区域E的步骤,该区域E使得观察者200能够立体地观看三维物体;以及执行控制以使显示设备10发出光线组L的步骤,该光线组L使得能够从已经设置的区域E的内部立体地观看三维物体、并且使得不能从区域E的外部立体地观看三维物体。
通过这样做,该程序使得信息处理装置30能够限制三维物体的光线将被再现的范围。因此,即使与信息处理装置30的光线的发射有关的处理负荷被减小,也通过使用已由显示设备10发射的光线来使得观察者200能够视觉识别立体图像。此外,该程序使得信息处理装置30能够设置使用观察者200的视点位置作为参考的区域E。即使视点位置稍微偏离,也通过根据观察者200的头部的移动设置区域E使得观察者200能够视觉识别立体图像。换句话说,通过使用显示设备10已经向受到限制的区域E发射的光线组,该程序可以为观察者200提供与在全向地发射光线的情况下的深度感类似的深度感。此外,即使不使用可以全向地发射光线的显示设备,该程序也能够实现具有宽的视域和宽的深度的再现范围。
注意,以下描述的配置也落入本公开的技术范围内。
(1)
一种信息处理装置,包括:
指定单元,其指定显示设备的观察者的视点位置,所述显示设备再现已由三维物体发出的光线;
设置单元,其通过使用已由所述指定单元指定的视点位置作为参考来设置使得所述观察者能够立体地观看三维物体的区域;以及
显示控制单元,其执行控制,以使所述显示设备发射使得能够从已由所述设置单元设置的所述区域的内部立体地观看所述三维物体、并且使得不能从所述区域的外部立体地观看所述三维物体的光线组。
(2)
根据上述(1)所述的信息处理装置,
其中,所述显示控制单元计算所述显示设备用于朝所述观察者发射穿过所述区域的内部的光线组的像素值,并且基于所述像素值控制所述显示设备。
(3)
根据上述(1)或(2)所述的信息处理装置,还包括:
检测单元,其检测所述观察者的视点位置的移动,
其中,当所述检测单元已检测到所述视点位置的移动时,所述设置单元通过使用所述移动后的视点位置作为参考来设置所述区域,以及
当已由所述设置单元设置了根据所述移动后的视点位置的区域时,所述显示控制单元执行控制以使所述显示设备发射使得能够从该区域的内部立体地观看所述三维物体的光线组。
(4)
根据上述(3)所述的信息处理装置,
其中,当所述检测单元已检测到所述视点位置从所述区域的内部向所述区域的外部的移动时,所述设置单元通过使用所述移动后的视点位置作为参考来设置所述区域。
(5)
根据上述(3)或(4)所述的信息处理装置,
其中,当已由所述设置单元设置了根据所述视点位置的移动的区域时,所述显示控制单元将穿过该区域的当前光线组与期望再现所述三维物体的虚拟光线组进行比较,并且将比较结果反映在要从所述显示设备发射的光线组中。
(6)
根据上述(5)所述的信息处理装置,
其中,所述显示控制单元计算从所述显示设备穿过该区域的当前光线组,并且在已计算出的当前光线组与所述虚拟光线组之间的误差满足改变条件的情况下,以使得所述误差变得更小的方式改变要从所述显示设备发射的光线组。
(7)
根据上述(1)至(6)中任一项所述的信息处理装置,
其中,所述设置单元设置包括已由所述指定单元指定的所述观察者的双眼的多个视点位置的单个区域。
(8)
根据上述(1)至(7)中任一项所述的信息处理装置,
其中,所述设置单元基于已由所述指定单元指定的视点位置的精度来设置具有彼此不同的大小的多个所述区域。
(9)
根据上述(3)所述的信息处理装置,
其中,在已由所述检测单元检测到所述视点位置的移动的情况下,所述设置单元设置比在所述视点位置静止的情况下的所述区域更大的区域。
(10)
根据上述(3)所述的信息处理装置,
其中,所述检测单元检测多个所述观察者的多个视点位置,
所述设置单元设置多个所述区域,其中每个区域对应于多个所述观察者中的每个观察者,以及
所述显示控制单元执行控制,以使所述显示设备发射使得能够从已由所述设置单元设置的多个所述区域的内部立体地观看所述三维物体、并且使得不能从多个所述区域的外部立体地观看所述三维物体的光线组。
(11)
一种信息处理方法,所述信息处理方法由对再现已由三维物体发出的光线的显示设备进行控制的信息处理装置执行,所述信息处理方法包括:
指定所述显示设备的观察者的视点位置的步骤;
通过使用已指定的视点位置作为参考来设置区域的步骤,所述区域使得所述观察者能够立体地观看所述三维物体;以及
执行控制以使所述显示设备发射光线组的步骤,所述光线组使得能够从已设置的所述区域的内部立体地观看所述三维物体、并且使得不能从所述区域的外部立体地观看所述三维物体。
(12)
一种程序,所述程序使对再现已由三维物体发出的光线的显示设备进行控制的信息处理装置执行以下步骤:
指定所述显示设备的观察者的视点位置的步骤;
通过使用已指定的视点位置作为参考来设置区域的步骤,所述区域使得所述观察者能够立体地观看所述三维物体;以及
执行控制以使所述显示设备发射光线组的步骤,所述光线组使得能够从已设置的所述区域的内部立体地观看所述三维物体、并且使得不能从所述区域的外部立体地观看所述三维物体。
(13)
一种显示系统,包括:
显示设备,其再现已由三维物体发出的光线;以及
信息处理装置,其控制所述显示设备,
其中,所述信息处理装置包括:
指定单元,其指定所述显示设备的观察者的视点位置;
设置单元,其通过使用已由所述指定单元指定的视点位置作为参考来设置使得所述观察者能够立体地观看三维物体的区域;以及
显示控制单元,其执行控制,以使所述显示设备发射使得能够从已由所述设置单元设置的区域的内部立体地观看所述三维物体、并且使得不能从所述区域的外部立体地观看所述三维物体的光线组。
附图标记列表
10显示设备
11液晶面板
20测量设备
30信息处理装置
31通信单元
32存储装置
33控制单元
200观察者
331指定单元
332设置单元
333显示控制单元
334检测单元
E区域
EP视点位置
L光线组

Claims (12)

1.一种信息处理装置,包括:
指定单元,其指定显示设备的观察者的视点位置,所述显示设备再现已由三维物体发出的光线;
设置单元,其通过使用已由所述指定单元指定的视点位置作为参考来设置使得所述观察者能够立体地观看三维物体的区域;以及
显示控制单元,其执行控制,以使所述显示设备发射使得能够从已由所述设置单元设置的所述区域的内部立体地观看所述三维物体、并且使得不能从所述区域的外部立体地观看所述三维物体的光线组。
2.根据权利要求1所述的信息处理装置,
其中,所述显示控制单元计算所述显示设备用于朝所述观察者发射穿过所述区域的内部的光线组的像素值,并且基于所述像素值控制所述显示设备。
3.根据权利要求2所述的信息处理装置,还包括:
检测单元,其检测所述观察者的视点位置的移动,
其中,当所述检测单元已检测到所述视点位置的移动时,所述设置单元通过使用所述移动后的视点位置作为参考来设置所述区域,以及
当已由所述设置单元设置了根据所述移动后的视点位置的区域时,所述显示控制单元执行控制以使所述显示设备发射使得能够从该区域的内部立体地观看所述三维物体的光线组。
4.根据权利要求3所述的信息处理装置,
其中,当所述检测单元已检测到所述视点位置从所述区域的内部向所述区域的外部的移动时,所述设置单元通过使用所述移动后的视点位置作为参考来设置所述区域。
5.根据权利要求3所述的信息处理装置,
其中,当已由所述设置单元设置了根据所述视点位置的移动的区域时,所述显示控制单元将穿过该区域的当前光线组与期望再现所述三维物体的虚拟光线组进行比较,并且将比较结果反映在要从所述显示设备发射的光线组中。
6.根据权利要求5所述的信息处理装置,
其中,所述显示控制单元计算从所述显示设备穿过该区域的当前光线组,并且在已计算出的当前光线组与所述虚拟光线组之间的误差满足改变条件的情况下,以使得所述误差变得更小的方式改变要从所述显示设备发射的光线组。
7.根据权利要求1所述的信息处理装置,
其中,所述设置单元设置包括已由所述指定单元指定的所述观察者的双眼的多个视点位置的单个区域。
8.根据权利要求1所述的信息处理装置,
其中,所述设置单元基于已由所述指定单元指定的视点位置的精度来设置具有彼此不同的大小的多个所述区域。
9.根据权利要求3所述的信息处理装置,
其中,在已由所述检测单元检测到所述视点位置的移动的情况下,所述设置单元设置比在所述视点位置静止的情况下的所述区域更大的区域。
10.根据权利要求3所述的信息处理装置,
其中,所述检测单元检测多个所述观察者的多个视点位置,
所述设置单元设置多个所述区域,其中每个区域对应于多个所述观察者中的每个观察者,以及
所述显示控制单元执行控制,以使所述显示设备发射使得能够从已由所述设置单元设置的多个所述区域的内部立体地观看所述三维物体、并且使得不能从多个所述区域的外部立体地观看所述三维物体的光线组。
11.一种信息处理方法,所述信息处理方法由对再现已由三维物体发出的光线的显示设备进行控制的信息处理装置执行,所述信息处理方法包括:
指定所述显示设备的观察者的视点位置的步骤;
通过使用已指定的视点位置作为参考来设置区域的步骤,所述区域使得所述观察者能够立体地观看所述三维物体;以及
执行控制以使所述显示设备发射光线组的步骤,所述光线组使得能够从已设置的所述区域的内部立体地观看所述三维物体、并且使得不能从所述区域的外部立体地观看所述三维物体。
12.一种程序,所述程序使对再现已由三维物体发出的光线的显示设备进行控制的信息处理装置执行以下步骤:
指定所述显示设备的观察者的视点位置的步骤;
通过使用已指定的视点位置作为参考来设置区域的步骤,所述区域使得所述观察者能够立体地观看所述三维物体;以及
执行控制以使所述显示设备发射光线组的步骤,所述光线组使得能够从已设置的所述区域的内部立体地观看所述三维物体、并且使得不能从所述区域的外部立体地观看所述三维物体。
CN202080020358.4A 2019-03-19 2020-03-05 信息处理装置、信息处理方法和程序 Pending CN113557717A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-050622 2019-03-19
JP2019050622 2019-03-19
PCT/JP2020/009537 WO2020189319A1 (ja) 2019-03-19 2020-03-05 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
CN113557717A true CN113557717A (zh) 2021-10-26

Family

ID=72520894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080020358.4A Pending CN113557717A (zh) 2019-03-19 2020-03-05 信息处理装置、信息处理方法和程序

Country Status (4)

Country Link
US (1) US11785203B2 (zh)
JP (1) JP7472899B2 (zh)
CN (1) CN113557717A (zh)
WO (1) WO2020189319A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023007233A (ja) * 2021-07-01 2023-01-18 塁 佐藤 画像表示システム及び画像表示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104519334A (zh) * 2013-09-26 2015-04-15 Nlt科技股份有限公司 立体图像显示装置、终端装置、立体图像显示方法及其程序
US20170289530A1 (en) * 2015-06-03 2017-10-05 Disney Enterprises, Inc. Tracked automultiscopic 3d tabletop display

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06148763A (ja) * 1992-11-12 1994-05-27 Hitachi Ltd 多人数観測用レンチキュラ立体表示方式
JPH07287761A (ja) * 1994-04-19 1995-10-31 Canon Inc 画像処理装置及び画像処理方法
JP3141737B2 (ja) * 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
JPH10334275A (ja) * 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP2003107392A (ja) 2001-09-28 2003-04-09 Sanyo Electric Co Ltd 頭部位置追従型立体映像表示装置
JP2006126542A (ja) * 2004-10-29 2006-05-18 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP2008146221A (ja) 2006-12-07 2008-06-26 Sony Corp 画像表示システム
JP2010113160A (ja) * 2008-11-06 2010-05-20 Sharp Corp 映像表示装置
KR101953686B1 (ko) * 2011-11-30 2019-05-23 삼성전자주식회사 부화소를 렌더링하는 영상 처리 장치 및 방법
JP5242762B2 (ja) * 2011-11-30 2013-07-24 株式会社東芝 画像再生装置、画像再生方法及びデータ構造
JP5649558B2 (ja) * 2011-12-13 2015-01-07 株式会社ジャパンディスプレイ 液晶表示装置およびその駆動方法、並びに電子機器
WO2013160803A1 (en) 2012-04-24 2013-10-31 Koninklijke Philips N.V. Auto-stereoscopic display device and drive method
KR102564478B1 (ko) * 2016-11-22 2023-08-07 삼성전자주식회사 3d 영상 렌더링 방법 및 장치
JP6862210B2 (ja) 2017-02-16 2021-04-21 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104519334A (zh) * 2013-09-26 2015-04-15 Nlt科技股份有限公司 立体图像显示装置、终端装置、立体图像显示方法及其程序
US20170289530A1 (en) * 2015-06-03 2017-10-05 Disney Enterprises, Inc. Tracked automultiscopic 3d tabletop display

Also Published As

Publication number Publication date
US20220217324A1 (en) 2022-07-07
WO2020189319A1 (ja) 2020-09-24
JP7472899B2 (ja) 2024-04-23
US11785203B2 (en) 2023-10-10
JPWO2020189319A1 (zh) 2020-09-24

Similar Documents

Publication Publication Date Title
US10955665B2 (en) Concurrent optimal viewing of virtual objects
US8675048B2 (en) Image processing apparatus, image processing method, recording method, and recording medium
JP5704893B2 (ja) アクティブサブピクセルレンダリング方式に基づく高密度多視点映像表示システムおよび方法
CN107105213B (zh) 立体图像显示装置
WO2018019282A1 (zh) 双目全景图像获取方法,装置及存储介质
IL274976B1 (en) Improved positioning for a display device
US20140176591A1 (en) Low-latency fusing of color image data
EA032105B1 (ru) Способ и система для отображения трехмерных объектов
JP2024037990A (ja) 頭部搭載型ディスプレイシステムにおける変形に関する補償
JP2015142383A (ja) 両眼光学拡張現実システムの範囲較正
JP2005295004A (ja) 立体画像処理方法および立体画像処理装置
CN105432078A (zh) 双目注视成像方法和设备
US11754975B2 (en) System and method for holographic image display
WO2022267573A1 (zh) 裸眼3d显示模式的切换控制方法、介质和系统
KR20200056721A (ko) 증강현실 기기의 광학 특성 측정 방법 및 장치
US20140071237A1 (en) Image processing device and method thereof, and program
US11287881B2 (en) Presenting images on a display device
CN113557717A (zh) 信息处理装置、信息处理方法和程序
WO2013186960A1 (ja) 画像データ処理装置及び画像データ処理方法
JP2006123102A (ja) 眼球制御装置、眼球制御方法および眼球制御プログラム
EP4318379A1 (en) Sparse color reconstruction using deep neural networks
US20240223780A1 (en) Generating tile-based region of interest representation of video frames for video encoding
US20230419595A1 (en) Methods and devices for video rendering for video see-through (vst) augmented reality (ar)
CN117203668A (zh) 2d数字图像捕获系统、帧速度和模拟3d数字图像序列
WO2023102500A1 (en) Methods for controlling performance of extended reality display systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination