CN107643603B - 立体显示装置及控制方法 - Google Patents

立体显示装置及控制方法 Download PDF

Info

Publication number
CN107643603B
CN107643603B CN201710592482.8A CN201710592482A CN107643603B CN 107643603 B CN107643603 B CN 107643603B CN 201710592482 A CN201710592482 A CN 201710592482A CN 107643603 B CN107643603 B CN 107643603B
Authority
CN
China
Prior art keywords
image
eye
observer
virtual line
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710592482.8A
Other languages
English (en)
Other versions
CN107643603A (zh
Inventor
益村和敬
佐藤哲史
重村幸治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianma Microelectronics Co Ltd
Original Assignee
Tianma Microelectronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017090593A external-priority patent/JP7038981B2/ja
Application filed by Tianma Microelectronics Co Ltd filed Critical Tianma Microelectronics Co Ltd
Priority to CN202110302467.1A priority Critical patent/CN113050293B/zh
Publication of CN107643603A publication Critical patent/CN107643603A/zh
Application granted granted Critical
Publication of CN107643603B publication Critical patent/CN107643603B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/31Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

本发明涉及立体显示装置及控制方法。该立体显示装置包括:平面状的投影仪,其通过使用将光线分割得到的光来投影图像;平面状的光学装置,其从第二面射出从第一面入射的入射光;以及支承单元,其将投影仪和光学装置中的至少一者支承于第一状态或第二状态。光学装置将从投影仪的投影面上的第一点入射的入射光射出到相对于光学装置的平面而面对称的第二点。第一状态是这样的状态:在将相互正交的第一和第二虚拟线以及相互正交的第三和第四虚拟线假定为投影在第一平面上的情况下,第一和第三虚拟线相互重叠,第二和第四虚拟线相互重叠,第二状态是这样的状态:在三维坐标系中第一和第三虚拟线相互不平行并且第二和第四虚拟线相互不平行。

Description

立体显示装置及控制方法
技术领域
本发明涉及通过组合裸眼立体显示器和空间成像装置得到的立体显示装置的结构及控制该立体显示装置的方法。
背景技术
作为使观察者识别立体图像的方法,通常,使用基于利用左眼和右眼的位置差的双眼视差的立体图像显示方法。该方法是基于通过使左眼和右眼视觉识别相互不同的二维图像在脑中的观察方法的差异来识别三维立体图像的立体原理的应用。作为显示立体图像的方法,具有使用眼镜的方式和不使用眼镜的裸眼方式。作为裸眼方式,根据观察者的视点数,具有双眼式和多眼式等。
为了使用通常的平板显示器等二维显示器基于裸眼方式表现立体图像,在二维显示器中设置显示左眼图像及右眼图像的像素。在二维显示器和观察者之间,配置光学单元,该光学单元例如为其内设置有柱面透镜的柱状透镜或其内设置有狭缝状遮光图案的视差屏障。并且,使用屏幕上的左眼图像和右眼图像在空间上分离使得分别被左眼和右眼视觉识别的方法。
在上述技术中,在二维显示器的屏幕上立体显示图像,但是以使物体如同漂浮在空中那样表现物体的图像的技术也已被开发。例如,按照体积扫描法显示三维图像的立体显示的方法被提出,在该方法中,利用凸透镜或凹面镜等成像光学系统将二维显示器设置为相对于成像光学系统的光轴倾斜,通过镜像扫描使相对于光轴倾斜的二维图像移动,并通过与移动的二维图像同步地在二维显示器上显示显示物体的剖面像来形成三维图像。
在日本专利申请特开No.2013-080227中,公开了一种体积扫描型三维空中图像显示装置,其包括:能够相对于作为对称面的一个几何平面在面对称位置上形成投影物的实像作为镜像的实镜图像成像光学系统;以及设置在所述对称面的下面侧并包括显示图像的显示面作为所述投影物的显示器;以及使所述显示器相对于显示面进行包含垂直方向的分量的运动而操作的驱动单元,通过与所述驱动单元执行的所述显示器的操作同步地改变所述显示面上显示的图像,将该图像在所述对称面的上面侧的空间中形成为立体图像。
发明内容
然而,根据以使物体如同漂浮在空中那样显示图像的相关技术,显示装置的尺寸非常大。例如,在日本专利申请特开No.2013-080227公开的结构中,需要使二维显示器移动的驱动单元,因此具有装置大型化的问题。对于该问题,可考虑如下的显示方法,通过将上述的实镜图像成像光学系统那样的空间成像装置与在二维显示器中配置了例如柱状透镜的光学单元的显示器(所谓的裸眼型立体显示器)组合,使观察者将空中漂浮图像识别为立体图像。
然而,在这种结构的情况下,本发明的发明人等发现以下的新问题:在漂浮在空中的图像中,正确显示3D物体的深度的区域(正视区域)和3D物体的深度颠倒的区域(逆视区域)交替出现,并且正视区域和逆视区域出现的位置根据观察者的位置而变化。在包含逆视区域的3D物体的观察中,观察者感知深度视差和跃出视差颠倒的部分,因此使观察者具有不适感和不悦感。因此,包含逆视区域的3D物体的显示使观察者具有很大的负担。
本发明是鉴于这种情况而做出的,本发明的目的是提供在将进行使用双眼视差的立体图像显示的裸眼立体显示器和空间成像装置组合的结构中抑制逆视区域的出现的立体显示装置及控制立体显示装置的方法。
根据本发明的一个方面的立体显示装置包括:平面状的投影仪,其将光线分割到两个或更多个方向并通过使用分割的光来投影两个或更多个图像;平面状的光学装置,其将从第一面入射的入射光从第二面射出;以及支承单元,其在包含相互正交的第一坐标轴至第三坐标轴的三维坐标系中将所述投影仪和所述光学装置中的至少一者支承于第一状态或第二状态,其中,所述光学装置将从所述投影仪的投影面上的第一点入射的入射光射出到相对于作为基准的所述光学装置的平面而面对称的第二点,所述第一状态是这样的状态:在将所述光学装置的所述平面上相互正交的第一虚拟线和第二虚拟线以及在所述投影仪的投影面上相互正交的第三虚拟线和第四虚拟线设为投影在包括所述第一坐标轴和第二坐标轴的第一平面上的情况下,所述第一虚拟线和第三虚拟线相互重叠并且所述第二虚拟线和第四虚拟线相互重叠,所述第二状态是这样的状态:在所述三维坐标系中所述第一虚拟线和所述第三虚拟线相互不平行并且所述第二虚拟线和所述第四虚拟线相互不平行。
根据本发明的一个方面的立体显示装置,抑制逆视区域的出现。
附图说明
通过下面参照附图的详细说明,本发明的上述的和其它的目的和特征将变得更明显。
可理解的是,前面的概述和下面的详述都是示例性和说明性的,而不旨在限制本发明。
图1是表示立体显示装置的结构的说明图;
图2A和图2B是表示裸眼立体显示器及显示面板的结构的说明图;
图3A和图3B是示意性表示空间成像装置的结构的图;
图4A和图4B是表示另一空间成像装置的不同结构的说明图;
图5A和图5B是表示空间成像装置的操作原理的说明图;
图6是表示通过使用二维显示的显示器来显示空中漂浮图像的显示装置的结构和操作的图;
图7是表示裸眼立体显示器的配置的说明图;
图8是表示虚拟摄像机的配置的示例的说明图;
图9是表示在裸眼立体显示器中使用柱状透镜时形成立体可视区域的光路的图;
图10是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图11A至图11E是表示由虚拟摄像机拍摄的图像的说明图;
图12是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图13A至图13E是表示由虚拟摄像机拍摄的图像的说明图;
图14是表示图13A至图13E中所示的拍摄图像的构成的图;
图15是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图16A至图16E是表示由虚拟摄像机拍摄的图像的说明图;
图17是表示图16A至图16E所示的拍摄图像的构成的图;
图18A至图18C是表示由观察者识别的立体图像和输入图像之间的关系的示意图;
图19是表示图7中所示的裸眼立体显示器和空间成像装置的组合中的逆视的图;
图20是表示图7所示的裸眼立体显示器和空间成像装置的组合中的逆视的图;
图21A和图21B是表示用于立体显示装置的裸眼立体显示器的立体可视区域的光路的图;
图22是表示立体显示装置中形成的立体可视区域的光路的图;
图23是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图24A至图24E是表示由虚拟摄像机拍摄的图像的说明图;
图25是表示图24A至图24E所示的拍摄图像的构成的图;
图26是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图27A至图27E是表示由虚拟摄像机拍摄的图像的说明图;
图28是表示图27A至图27E所示的拍摄图像的构成的图;
图29是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图30是说明观察者识别的立体图像和输入图像之间的关系的示意图;
图31是表示裸眼立体显示器的倾斜配置的说明图;
图32是表示倾斜支承单元的示例的立体图;
图33是表示倾斜支承单元的另一示例的立体图;
图34是表示裸眼立体显示器的亮度曲线的示例的曲线图;
图35A至图35C是表示旋转轴线的设定例的说明图;
图36是表示控制单元的操作的流程图;
图37是表示立体显示装置的结构的说明图;
图38是表示空间成像装置的倾斜配置的说明图;
图39是表示图37所示的立体显示装置中使用的裸眼立体显示器的立体可视区域的光路的图;
图40是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图41A至图41E是表示由虚拟摄像机拍摄的图像的说明图;
图42是表示图41A至图41E所示的拍摄图像的构成的图;
图43是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图44A至图44E是表示由虚拟摄像机拍摄的图像的说明图;
图45是表示图44A至图44E所示的拍摄图像的构成的图;
图46是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图;
图47是表示观察者识别的立体图像和输入图像之间的关系的示意图;
图48A至图48C是表示旋转轴线的设定例的说明图;
图49是表示立体显示装置的结构的说明图;
图50是表示控制装置的硬件构成的框图;
图51A和图51B是说明倾斜角度θs的计算方法的说明图;
图52是表示立体显示装置和观察者的位置之间的关系的说明图;
图53A和图53B是表示观察者的位置和观察者视觉识别的图像之间的关系的说明图;
图54是表示立体显示装置的结构的说明图;
图55A和图55B是表示裸眼立体显示器单体的视觉外观(visual appearance)的变化的说明图;
图56是表示立体显示装置和观察者的位置之间的关系的说明图;
图57A和图57B是表示观察者的位置和观察者视觉识别的图像之间的关系的说明图;
图58是表示观察者视觉识别的图像和投影区域之间的关系的说明图;
图59是表示立体显示装置中包括的图像交换单元的构成的框图;
图60是表示图像交换单元进行的图像交换处理的顺序的流程图;
图61A和图61B是表示倾斜角度θs的计算方法的图;
图62是表示立体显示装置的结构的说明图;
图63是表示立体显示装置和观察者的位置之间的关系的说明图;
图64是表示观察者的位置和观察者视觉识别的图像之间的关系的说明图;
图65是表示立体显示装置的结构的说明图;
图66A至图66C是表示逆视的区域的示例的示意图;
图67A和图67B是表示将要相互交换的区域的计算方法的说明图;
图68是表示观察者在其中移动了的将要相互交换的区域的示例的示意图;
图69是表示立体显示装置的结构的说明图;
图70是表示输入图像交换单元的构成的示例的框图;
图71是表示输入图像交换单元进行的图像交换处理的顺序的流程图;
图72是表示输入图像交换单元进行的图像生成的示例的示意图;
图73是表示输入图像交换单元进行的图像生成的示例的示意图;
图74A至图74C是表示观察者观察的图像的示例的说明图;
图75是表示立体显示装置的结构的说明图;
图76是表示输入图像交换单元的构成的示例的框图;
图77是表示输入图像交换单元进行的图像交换处理的顺序的流程图;
图78是表示输入图像交换单元进行的图像生成的示例的示意图;
图79是表示观察者的位置和观察者视觉识别的图像之间的关系的说明图;以及
图80是表示观察者的位置和观察者视觉识别的图像之间的关系的说明图。
具体实施方式
以下,将参照附图对实施方式进行详细说明。
在以下的说明中,设定三种坐标系。第一坐标系是与安装有立体显示装置的空间相关联的三维正交坐标系。在该三维正交坐标系中,将水平面的预定方向设定为x轴方向,将水平面上的与x轴方向正交的方向设定为z轴方向。另外,将与x轴方向和z轴方向均正交的竖直方向称作y轴方向。在此,x轴方向是第一坐标轴的方向。另外,x轴方向是观察者的左眼和右眼排列的方向(第一方向)。
第二坐标系是与立体显示装置中包括的裸眼立体显示器相关联的三维正交坐标系。在该三维正交坐标系中,x11轴方向和z11轴方向沿包含裸眼立体显示器的显示面的平面相互正交,将裸眼立体显示器的厚度方向设定为y11轴方向。
第三坐标系是与立体显示装置中包括的空间成像装置相关联的三维正交坐标系。在该三维正交坐标系中,x12轴方向和z12轴方向沿包含空间成像装置的一侧面或另一侧面的平面相互正交,并将空间成像装置的厚度方向设定为y12轴方向。在所有的坐标系以平面或剖面描述的情况下,涂黑的圆表示从纸面的前面朝向纸面的背面的方向,中心涂黑的圆表示从纸面的背面朝向纸面的前面的方向。
在此,对用于说明裸眼立体显示器和空间成像装置的配置的第一虚拟线至第四虚拟线进行定义。第一虚拟线和第二虚拟线是在空间成像装置的一个面或另一个面的面内相互正交的两条虚拟线。第一虚拟线沿z12轴方向延伸,第二虚拟线沿x12轴方向延伸。第三虚拟线和第四虚拟线是在裸眼立体显示器的显示面的面内相互正交的两条虚拟线。第三虚拟线沿z11轴方向延伸,第四虚拟线沿x11轴方向延伸。
实施方式1
图1是表示立体显示装置1的结构的说明图。在图1中,作为左眼位置EL和右眼位置ER,示出了观察者的两眼位置的示例。立体显示装置1包括裸眼立体显示器(投影仪)11、空间成像装置(光学装置)12以及倾斜支承单元(支承单元)13。裸眼立体显示器11被倾斜支承单元13支承为相对于xz平面Pxz在x轴方向上倾斜角度θ。空间成像装置12在y轴方向上设置在裸眼立体显示器11的上方。空间成像装置12设置为相对于xz平面Pxz沿z轴方向倾斜角度α,使得当对xz平面进行投影时,第一虚拟线和第三虚拟线相互重叠,第二虚拟线和第四虚拟线相互重叠。在空间成像装置12的一个面12Pa侧设置裸眼立体显示器11,观察者位于空间成像装置12的另一面12Pb侧。
裸眼立体显示器11包括液晶显示装置等显示面板11a和附接于显示面板的柱状透镜或视差屏障等光学单元(光学部件)。在本实施方式中,采用柱状透镜11b作为光学单元。
图2A和图2B是表示裸眼立体显示器和显示面板的结构的说明图。图2A是裸眼立体显示器11的立体图。如图2A所示,裸眼立体显示器11中使用的显示面板11a包括左眼像素11L和右眼像素11R。左眼像素11L显示左眼图像。右眼像素11R显示右眼图像。左眼像素11L和右眼像素11R在x11轴方向上交替设置。柱状透镜11b是板状部件。柱状透镜11b的一面是平面。在柱状透镜11b的另一面,沿长边方向设置有多个沿短边方向延伸的半圆柱状的柱面透镜。柱状透镜11b如图2A所示配置。换言之,柱状透镜11b的一面面向显示面板11a。柱状透镜11b的各柱面透镜沿z11轴方向延伸。另外,该多个柱面透镜沿x11轴方向设置。
图2B是构成裸眼立体显示器11的显示面板11a的x11-z11俯视图。如图2B所示,在用于裸眼立体显示器11的显示面板11a中,单位像素11P沿x11轴方向和z11轴方向以矩阵图案配置。各单位像素11P由左眼像素11L和右眼像素11R构成。柱状透镜11b可具有在与显示面板11a面对的面上设置透镜面的结构。光学单元不限于柱状透镜11b,而可使用复眼透镜、视差屏障以及棱镜片等能够分离光的各种光学装置。另外,作为光学单元,例如,可使用利用液晶的梯度折射率(GRIN)透镜、将具有透镜效果的凹凸基板和液晶分子组合的液晶透镜、使用液晶的切换视差屏障(switching parallax barrier)等。
空间成像装置12是在空间中形成显示在裸眼立体显示器11上的图像从而形成空中漂浮图像的形成平板状的光学部件。作为该空间成像装置12,例如,可采用日本专利申请特开No.2013-080227中公开的实镜图像成像光学系统。
图3A和图3B是示意性表示空间成像装置91的结构的图。图3A是空间成像装置91的x12-z12俯视图,图3B是空间成像装置91的B部的局部放大立体图。图3A所示的空间成像装置91在x12轴方向和z12轴方向具有平面扩展部。在该平面中,设置有从一个面向另一个面(或从另一个面向一个面)使光透过的分别呈菱形的多个单位光学装置91a。单位光学装置91a配置在x12轴方向和z12轴方向上。在此,为了说明图3B所示的B部的局部放大立体图,设定三维正交坐标系uvw。在三维正交坐标系uvw中,v轴和y12轴相同,uw平面是与x12-z12平行的平面。u轴和w轴以y12轴用作旋转轴线旋转45度。如图3B所示,空间成像装置91在v轴方向上具有厚度。在各单位光学装置91a中,相互正交的内壁面形成于v轴方向。对各内壁面进行镜面处理。
作为空间成像装置,也可使用具有其它结构的装置。图4A和图4B是表示另一空间成像装置92的不同的结构的说明图。图4A是空间成像装置92的x12-z12俯视图,图4B是局部放大立体图。如图4A所示,与图3A和图3B所示的空间成像装置91同样地,空间成像装置92在x12轴方向和z12轴方向上具有平面扩展部。在此,为了说明图4B所示的B部的放大立体图,与图3B所示的情况同样地,设定三维正交坐标系uvw。如图4B所示,在空间成像装置92中,通过在u轴方向上等间隔地设置多个形成为与包含v轴和w轴的平面平行的、作为镜反射面95的透明的玻璃(或者丙烯酸树脂),形成第一装置93。另外,在空间成像装置92中,通过在w轴方向上等间隔地设置多个形成为与包含u轴和v轴的平面平行的、作为镜反射面96的透明的玻璃(或者丙烯酸树脂),形成第二装置94。在uw平面中,第一装置93的面和第二装置94的面设置为在v轴方向上相互接近,使得设置有镜反射面95的方向和设置有镜反射面96的方向以90度彼此相交。如上所述,形成所述多个从空间成像装置92的一个面向另一个面(或者从另一个面向一个面)使光透过的菱形的单位光学装置。
图5A和图5B是表示空间成像装置12的操作原理的说明图。图5A表示在y12轴方向上观察空间成像装置12的情况下入射到空间成像装置12并射出的光的光路。图5B表示在x12轴方向上观察空间成像装置12的情况下的光路。如图5A所示,从某一光源O随机发出的光沿实线所示的箭头的方向行进,并入射到空间成像装置12。入射到空间成像装置12的光被空间成像装置12中形成的一个镜面反射。反射的光进一步被与前述一个镜面相邻并正交的另一个镜面反射,从而成为沿虚线所示的箭头的方向行进的光。在图5A中,为了简化说明,空间成像装置12表示为示意的形状。但是,由于实际的镜面非常精细,入射光和出射光大体相互重叠。由于该原因,如图5B所示,在光源O设置在空间成像装置12的一个面12Pa侧的情况下,入射到空间成像装置12的该一个面12Pa的光的一部分被空间成像装置12的内部的镜面反射两次。从光源发出的被反射两次的光是通过相对于空间成像装置12与光源O面对称的位置P的光。因此,显示在显示面板11a上的图像在相对于空间成像装置12面对称的位置上形成为实像。由此,该实像可被观察为空中漂浮图像。
另外,在使用参照图3A和图3B或图4A和图4B说明的空间成像装置的情况下,显示面板11a的显示面和空间成像装置12的一面以相互面对的方式平行设置。该情况下,从显示面板11a发出的光线即使从空间成像装置12的该一个面12Pa入射,也不被相对于空间成像装置12的面垂直形成的镜面反射,而从另一面12Pb射出。由于该原因,显示在显示面板11a上的图像在相对于空间成像装置12面对称的位置上不形成为实像。因此,需要使空间成像装置12的一个面相对于显示面板11a的显示面倾斜。
首先,对通过使用一般的显示器(2D显示)和空间成像装置的组合来显示空中漂浮图像的显示装置进行说明。图6是说明通过使用2D显示的显示器来显示空中漂浮图像的显示装置的结构和操作的图。图6表示显示器和空间成像装置之间的配置关系、以及观察者的位置和观察者视觉识别的空中漂浮图像的图像。
显示器111的显示面与xz平面平行。在对显示器111在xz平面上进行投影的情况下,空间成像装置12在y轴方向上位于显示器111的上方,使得第一虚拟线和第三虚拟线相互重叠,第二虚拟线和第四虚拟线相互重叠。另外,第二虚拟线、第三虚拟线以及第四虚拟线与xz平面平行。第一虚拟线与xz平面相交,其角度为α。换言之,空间成像装置12的一个面12Pa和另一个面12Pb相对于显示器111的显示面以角度α倾斜。因此,从显示器111的显示面发出的光入射到空间成像装置12的面12Pa,并从面12Pb射出。因此,显示在显示器111上的图像ImO基于参照图2A和图2B说明的原理,在面12Pb侧的空间中形成为实像Im。观察者可将在使连接左眼位置和右眼位置的方向与x轴方向平行的预定位置上形成的实像Im视觉识别为空中漂浮图像。
接下来,参照图7说明按照图6所示的配置取代2D显示的显示器而设置裸眼立体显示器的情况。在此,为了便于说明,图7中未示出空中漂浮图像的图像。显示面板11a包括左眼像素11L和右眼像素11R。左眼像素11L显示左眼图像L。右眼像素11R显示右眼图像R。多个左眼像素11L和多个右眼像素11R分别在x轴方向上反复地排列。在柱状透镜11b中,多个柱面透镜S以预定间隔排列在x轴方向上。柱面透镜S仅对x轴方向具有透镜效果。具有透镜效果的方向与左眼像素11L和右眼像素11R反复地排列的方向一致。因此,柱面透镜S用作可将从左眼像素11L射出的光和从右眼像素11R射出的光沿相互不同的方向分离的光学单元。以这种方式,可将左眼像素11L显示的图像和右眼像素11R显示的图像沿相互不同的方向分离。优选地,该柱面透镜S的焦点距离设定为柱面透镜S和像素之间的距离。在此,焦点距离设定为柱面透镜S的主点(即透镜的顶点)与像素面(即配置有左眼像素11L或右眼像素11R的面)之间的距离。
使用利用虚拟摄像机拍摄的拍摄图像说明从具有上述结构的裸眼立体显示器11射出并入射到观察者眼睛中的光的外观。图8是表示虚拟摄像机的配置示例的说明图。图8是表示拍摄从图2A所示的裸眼立体显示器11输出的光的虚拟摄像机80的配置的示例的立体图。
如图8所示,虚拟摄像机80设置在拍摄裸眼立体显示器11的显示面的位置。例如,虚拟摄像机80假定为一般的摄像机。虚拟摄像机80在y11轴方向上相对于裸眼立体显示器11位于上方,并在显示面板11a的显示面附近聚焦。
图9是说明当使用柱状透镜11b作为裸眼立体显示器11的光学单元时形成的立体可视区域的光路的图。
在显示面板11a中,在x11轴方向上依次配置有左眼像素11L(L1)至11L(L3)、11L(C1)至11L(C3)以及11L(R1)至11L(R3)和右眼像素11R(L1)至11R(L3)、11R(C1)至11R(C2)以及11R(R1)至11R(R3)。
图9所示的光路1L1、2L1及3L1表示从左眼像素11L(L1)至11L(L3)射出并被柱面透镜SL折射的光的光路。光路1L2、2L2及3L2表示从右眼像素11R(L1)至11R(L3)射出并被柱面透镜SL折射的光的光路。另外,光路1C1、2C1及3C1表示从左眼像素11L(C1)至11L(C3)射出并被柱面透镜SC折射的光的光路。光路1C2和2C2表示从右眼像素11R(C1)至11R(C2)射出并被柱面透镜SC折射的光的光路。同样地,光路1R1、2R1及3R1表示从左眼像素11L(R1)至11L(R3)射出并被柱面透镜SR折射的光的光路。光路1R2、2R2及3R2表示从右眼像素11R(R1)至11R(R3)射出并被柱面透镜SR折射的光的光路。
在此,经由光路行进的实际的光在相对于这些光路的顺时针方向或逆时针方向具有预定角度的宽度。在包括光路1L1、1C1及1R1彼此相交的点的区域中,形成有左眼图像区域AL。在包括光路1L2、1C2及1R2彼此相交的点的区域中,形成有右眼图像区域AR。左眼图像区域AL及右眼图像区域AR形成可立体观察的立体视觉识别范围。当左眼的位置EL在左眼图像区域AL并且右眼的位置ER在右眼图像区域AR时,观察者可正确地视觉识别立体图像。
将立体视觉识别范围最大(换言之,左眼图像区域AL和右眼图像区域AR在x11轴方向上的距离最大)的位置和柱状透镜11b的位置之间的距离设定为最佳立体视觉识别距离(Dop)。左眼的位置EL及右眼的位置ER从最佳立体视觉识别距离(Dop)在y11轴方向上移动并位于与左眼图像区域AL和右眼图像区域AR相交的位置,并且其与柱状透镜11b的位置的距离设定为最大立体视觉识别距离(Dmax)及最小立体视觉识别距离(Dmin)。
在此,当聚焦于柱面透镜SL时,有助于左眼图像区域AL和右眼图像区域AR的形成的光仅是从左眼像素11L(L1)和右眼像素11R(L1)射出的光(1L1和1L2)。将这些光定义为一次光。另外,将从左眼像素11L(L1)或右眼像素11R(L1)的相邻像素即左眼像素11L(L2)或右眼像素11R(L2)射出并被柱面透镜SL折射的光(2L1和2L2)定义为二次光。同样地,将从与左眼像素11L(L1)隔着左眼像素11L(L2)相邻的左眼像素11L(L3)或者与右眼像素11R(L1)隔着右眼像素11R(L2)相邻的右眼像素11R(L3)射出并被柱面透镜SL折射的光(3L1、3L2)定义为三次光。对于与柱面透镜SC或SR相关的光,同样地,一次光有助于左眼图像区域AL及右眼图像区域AR的形成。
从图9所示的光路图可知,当观察者和柱状透镜11b之间的间隔比最小立体视觉识别距离Dmin短时,实现从显示面板11a的左侧或右侧射出的二次光或三次光等高次光的影响。
接下来,对改变虚拟摄像机80和柱状透镜11b之间的间隔D时得到的拍摄图像进行说明。在下述的图10、图12及图15中,为了容易理解光路,仅示出了一次光的光路。
图10是表示虚拟摄像机80和裸眼立体显示器11之间的位置关系的说明图。图11A至图11E是表示虚拟摄像机80拍摄的图像的说明图。图10表示虚拟摄像机80设置在裸眼立体显示器11的中心线上并且改变了虚拟摄像机80和柱状透镜11b之间的间隔D的情况。图11A至图11E表示图10所示的结构中柱状透镜11b和虚拟摄像机80之间的间隔与拍摄图像之间的对应关系。在改变了虚拟摄像机80和柱状透镜11b之间的间隔D的情况下,当间隔D接近于最佳立体视觉识别距离Dop时,如图11A和图11B所示,在虚拟摄像机80拍摄的各图像中,左侧是左眼像素11L的输入图像,右侧是右眼像素11R的输入图像。相对于此,当间隔D逐渐减小时(例如,为最佳立体视觉识别距离Dop的约1/3),如图11C所示,根据二次光的影响,在拍摄图像的左侧出现右眼像素11R的输入图像,在右侧出现左眼像素11L的输入图像。另外,当间隔D进一步减小时(例如,为最佳立体视觉识别距离Dop的约1/4),如图11D和图11E所示,根据三次光的影响,在拍摄图像的左侧出现左眼像素11L的输入图像,在右侧出现右眼像素11R的输入图像。换言之,随着虚拟摄像机80和柱状透镜11b之间的间隔D相比于最佳立体视觉识别距离Dop减小,根据二次光或三次光等高次光的影响,在拍摄图像中,左眼像素11L的输入图像和右眼像素11R的输入图像重复。
图12是表示虚拟摄像机80和裸眼立体显示器11之间的位置关系的说明图。图13A至图13E是表示虚拟摄像机80拍摄的图像的说明图。图12是虚拟摄像机80设置为相对于裸眼立体显示器11的中心线偏移到右侧(右眼侧)并且改变了虚拟摄像机80和柱状透镜11b之间的间隔D的情况的例子。换言之,虚拟摄像机80设置为虚拟摄像机80的中心线与设置在显示面板11a的中央的左眼像素11L的右侧上设置的右眼像素11R重叠。图13A至图13E是表示图12所示的结构中柱状透镜11b和虚拟摄像机80之间的间隔与拍摄图像之间的对应关系的图。该情况下,当间隔D接近于最佳立体视觉识别距离Dop时,如图13A所示,由虚拟摄像机80拍摄的图像仅是右眼像素11R的输入图像。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/2时,如图13B所示,在拍摄图像的两侧出现左眼像素11L的输入图像。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/3到1/4时,如图13C和图13D所示,根据二次光的影响,在拍摄图像的两侧出现右眼像素11R的输入图像。另外,当间隔D进一步减小并且小于或等于最佳立体视觉识别距离Dop的1/4时,如图13E所示,根据三次光的影响,在拍摄图像的左侧出现左眼像素11L的输入图像。
如图11A至图13E所示的拍摄图像的形成的原因是,将一次光和高次光混合,形成拍摄图像,一次光构成包含通过裸眼立体显示器11的显示面的中心的法线的正面的立体可视区域即主瓣,高次光构成相对于主瓣的x11轴方向的外侧的立体可视区域即另一瓣(旁瓣)。图14是说明图13A至图13E所示的拍摄图像的构成的图。例如,如图14所示,无论虚拟摄像机80和柱状透镜11b之间的间隔D如何,根据构成主瓣的一次光,拍摄右眼像素11R的输入图像。随着间隔D减小,根据构成另一瓣的高次光的影响,左眼像素11L的输入图像被更多地拍摄。因此,在间隔D为最佳立体视觉识别距离Dop(例如,600mm)的情况下,拍摄图像仅是基于构成主瓣的一次光的右眼像素11R的输入图像。另外,在间隔D为0.5×Dop(例如,300mm)的情况下,拍摄图像是通过合成基于构成主瓣的一次光的右眼像素11R的输入图像和基于构成另一瓣的高次光的两侧的左眼像素11L的输入图像获得的图像。拍摄图像具有中央设置有右眼像素11R的输入图像并且其两侧设置有左眼像素11L的输入图像的结构。另外,在间隔D为0.33×Dop(例如,200mm)或0.28×Dop(例如,170mm)的情况下,基于构成另一瓣的高次光的左眼像素11L的输入图像靠近中央。因此,在拍摄图像中,在中央设置有右眼像素11R的输入图像,在其两外侧设置有左眼像素11L的输入图像。进一步,拍摄图像具有在两外侧设置有右眼像素11R的输入图像的构成。另外,在间隔D为0.23×Dop(例如,140mm)的情况下,基于构成其他瓣的高次光的左眼像素11L的输入图像更接近中央,并且在更外侧出现左眼像素11L的输入图像。因此,拍摄图像具有左眼像素11L的输入图像和右眼像素11R的输入图像反复设置三次的构成。
图15是表示虚拟摄像机80和裸眼立体显示器11之间的位置关系的说明图。图16A至图16E是表示虚拟摄像机80拍摄的图像的说明图。图15是将虚拟摄像机80设置为相对于裸眼立体显示器11的中心线偏移到左侧(左眼侧)并且改变了虚拟摄像机80和柱状透镜11b之间的间隔D的情况的例子。换言之,虚拟摄像机80设置为虚拟摄像机80的中心线与设置在显示面板11a的中央的右眼像素11R的左侧上设置的左眼像素11L重叠。图16A至图16E是表示图15所示的结构中柱状透镜11b和虚拟摄像机80之间的间隔与拍摄图像之间的对应关系的图。该情况下,当间隔D接近于最佳立体视觉识别距离Dop时,如图16A所示,虚拟摄像机80拍摄的图像仅是左眼像素11L的输入图像。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/2时,如图16B所示,在拍摄图像的两侧出现右眼像素11R的输入图像。进一步,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/3至1/4时,如图16C和图16D所示,根据二次光的影响,在拍摄图像的两侧出现左眼像素11L的输入图像。另外,当间隔D进一步减小并且小于或等于最佳立体视觉识别距离Dop的1/4时,如图16E所示,根据三次光的影响,在拍摄图像的左侧出现右眼像素11R的输入图像。
图17是表示图16A至图16E所示的拍摄图像的构成的图。如图17所示,无论虚拟摄像机80和柱状透镜11b之间的间隔D如何,根据构成主瓣的一次光,左眼像素11L的输入图像由虚拟摄像机80拍摄。随着间隔D减小,根据构成另一瓣的高次光的影响,右眼像素11R的输入图像被更多地拍摄。因此,拍摄图像具有图14所示的左眼像素11L的输入图像和右眼像素11R的输入图像交换的结构。
换言之,当虚拟摄像机80和柱状透镜11b之间的间隔D减小时,根据高次光的影响,拍摄图像具有左眼像素11L的输入图像和右眼像素11R的输入图像重复布置的结构。由此,当虚拟摄像机80的位置从裸眼立体显示器11的中心线偏移时,根据该偏移,基于构成主瓣的一次光的图像和基于构成另一瓣的高次光的图像变化。
接下来,如图7所示,对空间成像装置12设置为与裸眼立体显示器11组合的情况下观察者看到的空中漂浮图像进行说明。图18A至图18C是说明观察者识别的立体图像与输入图像之间的关系的示意图。图18C示出了以使观察者识别为所显示的物体跃出而给出跃出视差的输入图像的一个示例。如图18C所示,在跃出视差的输入图像中,圆形的物体71设置于显示面板11a的左眼像素11L的中央的略右侧,圆形的物体71设置于在右眼像素11R的中央的略左侧。图18C所示的输入图像显示在裸眼立体显示器中。在观察者的左眼EL和右眼ER在裸眼立体显示器11的立体视觉识别范围(未图示)的情况下,如图18A所示,观察者识别如同从裸眼立体显示器11的屏幕面中圆形的物体71跃出到空中的立体图像。然而,在图7所示的裸眼立体显示器11和空间成像装置12的组合中,如图18B所示,观察者识别的立体图像被视觉识别为好像圆形的物体相对于空间成像的裸眼立体显示器11的屏幕面位于内侧位置。发生所谓的逆视。
图19和图20是说明图7所示的裸眼立体显示器11和空间成像装置12的组合中的逆视的图。如图19所示,在空间成像装置12设置在D=0.5×Dop的位置上的情况下,被虚拟地设置在空间成像装置12的位置上的虚拟摄像机拍摄的图像根据图14和图17所示的结果,是图20中的A所示的图像。在此,空间成像装置12是反射光学系统,从空间成像装置12射出的光线在与入射方向相同的方向。因此,观察者看到的图像的左侧和右侧被交换。因此,观察者看到的图像如图20中的B所示。由此,在左眼视觉识别的图像的中央部设置有右眼像素11R的输入图像,在右眼视觉识别的图像的中央部设置有左眼像素11L的输入图像。换言之,跃出视差成为深度视差。
如上所述,根据本申请的发明人的考察,在图7所示的裸眼立体显示器11和空间成像装置12的组合中,已确定,在观察者看到的图像的中央部发生逆视。
接下来,对根据本实施方式的立体显示装置1的情况下观察者看到的空中漂浮图像进行说明。图21A和图21B是说明用于立体显示装置1的裸眼立体显示器11的立体可视区域的光路的图。图21A和图21B是与图9相似的图。在图21A和图21B中,为了图的简化,未示出柱状透镜、左眼像素、右眼像素等。取而代之,在图21A和图21B中,示出了虚拟线VL、一次光占优势的第一区域A1(左眼图像区域AL)和第二区域A2(右眼图像区域AR)、以及二次光占优势的第三区域A3和第四区域A4。虚拟线VL是连接裸眼立体显示器11和空间成像装置12的虚拟线。图21A和图21B所示的虚拟线VL设定为与y轴平行。
在此,参照图22对图21A和图21B所示的第三区域A3及第四区域A4进行说明。图22是说明立体显示装置1中形成的立体可视区域的光路的图。图22是与图9相似的图。第一区域A1形成在包含从左眼像素11L射出的一次光(1L1、1C1、1R1)彼此相交的点的区域中,并且与图9所示的左眼图像区域AL相同。第二区域A2形成在包含从右眼像素11R射出的一次光(1L2,1C2,1R2)彼此相交的点的区域中,并且与图9所示的右眼图像区域AR相同。第三区域A3形成在包含从左眼像素11L射出的二次光(2L1、2C1、2R1)彼此相交的点的区域中,并且是左眼像素11L的输入图像被投影到的区域。第四区域A4形成在包含从右眼像素11R射出的二次光(2L2,2C2,2R2)彼此相交的点的区域中,并且是右眼像素11R的输入图像被投影到的区域。如图22所示,在一次光占优势的第一区域A1和第二区域A2的外侧,作为左眼像素11L的输入图像和右眼像素11R的输入图像被投影到的区域,存在有二次光占优势的第三区域A3和第四区域A4。为了图的简化,未图示,但是在第三区域A3和第四区域A4的外侧,存在有三次光和更高次光占优势的左眼像素11L的输入图像及右眼像素11R的输入图像被投影到的区域。
图21A是说明如图7所示裸眼立体显示器11水平地安装于xz平面时形成的立体可视区域的光路的图。该情况下,第一区域A1(左眼像素11L投影的图像)位于虚拟线VL的左侧,第二区域A2(右眼像素11R投影的图像)位于虚拟线VL的右侧。图21B是说明当如图1所示将裸眼立体显示器11安装为相对于xz平面Pxz在x轴方向上倾斜角度θ时形成的立体可视区域的光路的图。如图21B所示,在裸眼立体显示器11在x轴方向上倾斜角度θ的情况下,第四区域A4(右眼像素11R投影的图像)位于虚拟线VL的左侧,第一区域A1(左眼像素11L投影的图像)位于虚拟线VL的右侧。将图21A和图21B相互比较,左眼像素11L投影的图像和右眼像素11R投影的图像在它们之间夹着虚拟线VL的状态下的关系水平地交换。
接下来,为了说明观察者视觉识别的图像,在说明书中将使用虚拟摄像机。图23是说明虚拟摄像机80和裸眼立体显示器11之间的位置关系的说明图。图23是虚拟摄像机80设置为相对于图21B所示的裸眼立体显示器11的虚拟线VL偏移到左侧(左眼侧)并且改变了虚拟摄像机80和柱状透镜11b之间的间隔D的情况的例子。为了简化说明,图中所示的裸眼立体显示器11不倾斜,图23所示的x11轴相对于图21B所示的x轴顺时针倾斜角度θ。因此,图23所示的虚拟线VL与图21B所示的虚拟线VL相同。图24A至图24E是表示虚拟摄像机拍摄的图像的说明图。图24A至图24E是表示图23所示的结构中柱状透镜11b和虚拟摄像机80之间的间隔与拍摄图像之间的对应关系的图。如图24A所示,当间隔D接近于最佳立体视觉识别距离Dop时,虚拟摄像机80拍摄的图像仅是右眼像素11R的输入图像。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/2时,如图24B所示,左眼像素11L的输入图像出现在拍摄图像的两侧。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/3到1/4时,如图24C和图24D所示,根据高次光的影响,在拍摄图像的两侧出现右眼像素11R的输入图像。另外,当间隔D进一步减小并且小于或等于最佳立体视觉识别距离Dop的1/4时,如图24E所示,根据高次光的影响,在拍摄图像的左侧出现左眼像素11L的输入图像。
图25是图24A至图24E所示的拍摄图像的构成的图。如图25所示,无论虚拟摄像机80和柱状透镜11b之间的间隔D如何,根据构成第四区域A4的二次光,拍摄右眼像素11R的输入图像。但是,随着间隔D减小,根据构成另一瓣的高次光的影响,更多地拍摄左眼像素11L的输入图像。
图26是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图。图26是将虚拟摄像机80设置为相对于图21B所示的裸眼立体显示器11的方向VL偏移到右侧(右眼侧)并且改变了虚拟摄像机80和柱状透镜11b之间的间隔D的情况的例子。与图23相似,x11轴相对于图21B所示的x轴顺时针方向倾斜角度θ。因此,图26所示的虚拟线VL与图21B所示的虚拟线VL相同。图27A至图27E是表示虚拟摄像机拍摄的图像的说明图。图27A至图27E表示图26所示的结构中柱状透镜11b和虚拟摄像机80之间的间隔与拍摄图像之间的对应关系。如图27A所示,当间隔D接近于最佳立体视觉识别距离Dop时,虚拟摄像机80拍摄的图像仅是左眼像素11L的输入图像。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/2时,如图27B所示,右眼像素11R的输入图像出现在拍摄图像的两侧。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/3到1/4时,如图27C和图27D所示,根据二次光的影响,左眼像素11L的输入图像出现在拍摄图像的两侧。另外,当间隔D进一步减小并且小于或等于最佳立体视觉识别距离Dop的1/4时,如图27E所示,根据高次光的影响,右眼像素11R的输入图像出现在拍摄图像的左侧。
图28是说明图27A至图27E示出的拍摄图像的构成的图。该情况下,如图28所示,无论虚拟摄像机80和柱状透镜11b之间的间隔D如何,根据构成第一区域A1的一次光,由虚拟摄像机80拍摄左眼像素11L的输入图像。然而,随着间隔D减小,根据构成另一瓣的高次光的影响,更多地拍摄右眼像素11R的输入图像。因此,图28所示的拍摄图像具有左眼像素11L的输入图像和右眼像素11R的输入图像相对于图25所示的拍摄图像交换的结构。
图29是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图。图30是表示观察者识别的立体图像与输入图像之间的关系的示意图。图29和图30是表示将空间成像装置12与图1所示的根据本实施方式的裸眼立体显示器11组合的情况下观察者识别的立体图像的图。图29所示的左侧设置的虚拟摄像机和右侧设置的虚拟摄像机如图19所示,假定空间成像装置的位置。因此,当图18A至图18C所示的输入图像显示在裸眼立体显示器11上时,在D=0.5×Dop的位置处虚拟设置的虚拟摄像机(图29)拍摄的图像是如图30中的A所示的图像,其中,基于图25和图28所示的结果,图20中的A所示的图像的左侧和右侧之间的关系交换。当图30中的A所示的图像进入空间成像装置12时,如参照图20中的A和B所述,从空间成像装置12射出的光线在与入射方向相同的方向,因此,观察者看到的图像的左侧和右侧交换,并成为图30中的B所示的图像。因此,在观察者识别的立体图像中,如图30中的C所示,圆形的物体71从空间成像的裸眼立体显示器11的屏幕面跃出。换言之,观察者能够在不对裸眼立体显示器11进行输入图像的特别的图像处理的情况下将所显示的空中漂浮图像识别为跃出。
在图1所示的根据本实施方式的立体显示装置1中,通过将裸眼立体显示器11设置为在x轴方向上倾斜角度θ,入射到空间成像装置12的图像的左侧和右侧交换,可抑制在观察者看到的图像的中央部出现逆视。为此,可使观察者在预定位置处将空中漂浮图像识别为与输入图像的跃出视差或深度视差相对应的立体图像。另外,根据本实施方式的立体显示装置1不需要用于抑制逆视的输入图像的图像处理。因此,能够以简单的方式配置立体显示装置1。另外,根据裸眼立体显示器11和空间成像装置12之间的距离,虽然对于观察者看到的图像的端部获得逆视,但是至少在中央部实现正视(跃出/深度被正确地视觉识别)。该情况下,形成有逆视的端部可被处理成背景。例如,在显示黑色的情况下,不妨碍观察者识别立体图像。
在上述的说明中,在将裸眼立体显示器11设置为在x轴方向上倾斜角度θ时,使用与z轴平行的轴作为旋转轴线,由此从观察者观察沿顺时针方向进行的倾斜,但倾斜不限于此。因此,倾斜可沿逆时针方向进行。图31是表示裸眼立体显示器的倾斜配置的说明图。在图31所示的情况中,从观察者观察,裸眼立体显示器11沿逆时针方向倾斜角度θ。在图31所示的情况中,第二区域A2(右眼图像R)位于虚拟线VL的左侧,第三区域A3(左眼图像L)位于虚拟线VL的右侧。因此,根据与图29所示的情况相似的概念,相对于图31所示的虚拟线VL设置在左侧和右侧的虚拟摄像机拍摄的图像是图30中的A所示的图像。因此,观察者观察的图像是图30中的B所示的图像。换言之,还是在裸眼立体显示器11沿逆时针方向倾斜角度θ的情况下,与如图1所示裸眼立体显示器11沿顺时针方向倾斜的情况相似,如图30中的C所示,识别到圆形的物体71跃出的立体图像。
如参照图21A、图21B、图31所述,为了使裸眼立体显示器11具有相对于x轴方向倾斜预定角度的姿态,使用倾斜支承单元13。图32是表示倾斜支承单元13的示例的立体图。倾斜支承单元13包括基部131、第一支柱132以及第二支柱133。基部131安装于xz平面。第一支柱132和第二支柱133具有棒状或连接多个棒状的形状,该第一支柱的和该第二支柱的一端连接到基部131。裸眼立体显示器11固定到第一支柱132的和第二支柱133的另一端。为了第一支柱132以及第二支柱133与裸眼立体显示器11的固定,例如,使用设置在第一支柱132的和第二支柱133的另一端的螺钉、以及设置在裸眼立体显示器11的四个角的螺纹孔。第一支柱132和第二支柱133具有在y轴方向上相互不同的尺寸,因此能够将裸眼立体显示器11保持在沿x轴方向倾斜的状态。为了改变裸眼立体显示器11的倾斜角度,第一支柱132和第二支柱133可以用在y轴方向上具有相互不同的尺寸的支柱替换。
另外,倾斜支承单元13可采用任何其他的结构。图33是表示倾斜支承单元13的另一示例的立体图。倾斜支承单元13包括基部131、臂部134以及安装架135。基部131安装于xz平面。臂部134具有棒状或连接多个棒状的形状。臂部134的一端连接于基部131。臂部134的另一端具有平行于z轴的旋转轴。安装架135连接于该旋转轴。裸眼立体显示器11固定于安装架135。通过使旋转轴旋转,倾斜支承单元13可将裸眼立体显示器11保持于相对于x轴方向倾斜的状态。另外,可构成为,使基部131中包括平行于z轴的旋转轴,臂部134的一端连接于旋转轴,安装架135连接于臂部134的另一端。该情况下,类似地,倾斜支承单元13可将裸眼立体显示器11保持于倾斜的姿态。
接下来,下面对裸眼立体显示器11的倾斜角度θ的求解方法的示例进行说明。如图21A和21B所示,第一区域A1至第二区域A2的角度范围为θ。为了求解第一区域A1至第二区域A2的角度范围,可获取裸眼立体显示器11的显示中心的亮度曲线。在此,亮度曲线表示基于观察角度的亮度值之差。位于裸眼立体显示器11的显示面的法线方向并且前侧面对显示中心的位置设定为观察角度0度的基准位置。当将连接显示中心和基准位置的线段用作半径绘制以显示中心为其中心的圆弧时,该圆弧上的点设定为另一观察位置。观察位置上的半径与基准位置上的半径之间形成的角度为观察角度。从基准位置沿逆时针方向移动的位置的观察角度设为正值,从基准位置沿顺时针方向移动的位置的观察角度设为负值。各观察位置上的亮度分布为亮度曲线。为了求解第一区域A1至第二区域A2的角度范围,例如,可通过使裸眼立体显示器11进行在第一区域A1形成白图像并在第二区域A2形成黑图像的显示,来获取亮度曲线。
如上所述的亮度曲线可通过视角特性测量装置来获取。作为视角特性测量装置的例子,已知包括锥光偏振仪(由Autronic Melchers GmbH制造)、VCM aster-3D(由ELDIM制造)等。
图34是表示裸眼立体显示器11的亮度曲线的示例的图。在图34所示的图中,横轴以度为单位表示观察角度,纵轴以cd/m2为单位是亮度。在图34所示的例子中,存在包括图形81和图形82的两个图形。图形81是通过在射出有助于第一区域A1的形成的光的左眼像素11L中显示黑色并在射出有助于第二区域A2的形成的光的右眼像素11R中显示白色所获取的图形。图形82是通过在左眼像素11L中显示白色并在右眼像素11R中显示黑色所获取的图形。
基于图形81,可核实的是,在0度的观察角度附近有助于第一区域A1的形成的光的范围在-12度到0度的范围内。基于图形82可知,在0度的观察角度附近有助于第二区域A2的形成的光的范围在0度至+12度的范围内。因此,该裸眼立体显示器11可设置为沿顺时针方向或逆时针方向倾斜,并将相对于x轴方向(第一方向)的倾斜角度θ设为12度。
如上所述,对从图34的图形81-82所示的亮度曲线求出第一区域A1至第二区域A2的角度范围来确定倾斜角θ的方法进行说明。然而,如果实际使用的空间成像装置12的特性不理想,则从空间成像装置12射出的光线可能与理想情况略有偏差。为了校正由于该空间成像装置12的特性引起的偏差,还可以在确定倾斜角θ时对由亮度曲线计算出的角度追加校正角(例如,约0.1至1.5°)。例如,为了校正空间成像装置12的特性,可基于由图34求出的12度,将倾斜角θ设定为12.9度。
如上所述,通过输入将光线分割成两部分或更多部分所得到的一个光线和另一光线之间的亮度差对于裸眼立体显示器11来说最大化的图案,并获取被分割的一个光线至另一个光线在第一方向上的亮度的角度分布,来基于所获取的角度分布获得倾斜角度θ。
在本实施方式中,在将裸眼立体显示器11在x轴方向上倾斜角度θ设置时,尽管裸眼立体显示器11设置为用平行于z轴的轴作为旋转轴线以倾斜角度θ倾斜,但该轴的位置可以各种方式设定。图35A至图35C是表示旋转轴线的设定例的说明图。图35A表示θ为0度的使用相关技术的立体显示装置的情况。图35B表示沿顺时针方向倾斜的情况,图35C表示沿逆时针方向倾斜的情况。旋转轴线S可以在裸眼立体显示器11在x轴方向上的中心附近或其端部附近。
根据本实施方式的立体显示装置1将光线分割到两个或更多个方向,并包括根据分割的光来投影两个或更多个图像的投影仪。投影仪例如是裸眼立体显示器11。立体显示装置1包括将从第一面入射的入射光射出到第二面的平面形状的光学装置。光学装置例如是空间成像装置12。立体显示装置1在包括相互正交的第一至第三坐标轴的三维坐标系中包括将所述投影仪和所述光学装置的至少一者支承于第一状态或第二状态的支承单元。支承单元例如是倾斜支承单元13。光学装置将从投影仪的投影面上的第一点的入射光射出到相对于用作基准的光学装置的平面为面对称的第二点。第一状态是这样的状态:在将在光学装置的平面上相互正交的第一虚拟线和第二虚拟线、以及在所述投影仪的投影面上相互正交的第三虚拟线和第四虚拟线假定为投影在包括第一坐标轴和第二坐标轴的第一平面上的情况下,第一虚拟线和第三虚拟线相互重叠并且第二虚拟线和第四虚拟线相互重叠(参照图7)。第二状态是这样的状态:在三维坐标系中第一虚拟线和第三虚拟线相互不平行并且第二虚拟线和第四虚拟线相互不平行(参照图1)。
变型例1
倾斜支承单元13可设置为包括马达等的致动器。在倾斜支承单元13以这种方式设置的情况下,立体显示装置1包括将控制信号输出到致动器的控制单元。控制单元可由例如包括中央处理单元(CPU)、只读存储器(ROM)或随机存取存储器(RAM)等存储器的计算机构成。倾斜支承单元13通过使用来自控制单元的控制信号使致动器操作。因此,倾斜支承单元13能够将裸眼立体显示器11支承于从第一方向以倾斜角度θ倾斜的姿态。
图36是表示控制单元的操作的流程图。控制单元接收开始指示(步骤S1)。开始指示例如通过观察者操作开关来进行。另外,可以通过在启动立体显示装置1时的初始化程序来输入开始指示信号。控制单元获取倾斜角度θ(步骤S2)。控制单元将控制信号输出到倾斜支承单元13(步骤S3)。因此,倾斜支承单元13将裸眼立体显示器11支承于从第一方向以倾斜角度θ倾斜的姿态。倾斜角度θ可由观察者赋予控制单元。另外,可设置为,裸眼立体显示器11的类型和倾斜角度θ相互关联地存储于ROM中,观察者将裸眼立体显示器11的类型提供给控制单元,控制单元基于所提供的类型,从ROM中读出倾斜角度θ。
在本变型例中,由于通过倾斜支承单元13进行倾斜角度的调整,因此观察者不需要检查倾斜角度是否具有适当的值。另外,在多个裸眼立体显示器11的类型和相应的倾斜角度θ被存储的情况下,可利用多个裸眼立体显示器11。另外,观察者可以不进行倾斜角度的调整,因此,当不使用立体显示装置1时裸眼立体显示器11可设定于非倾斜的状态。因此,能够节省立体显示装置1的收纳空间。
实施方式2
与根据相关技术的配置相比,本实施方式涉及在立体显示装置1中要倾斜的对象不是裸眼立体显示器11而是空间成像装置12的方式。图37是表示立体显示装置1的结构的说明图。立体显示装置1包括裸眼立体显示器11和空间成像装置12。裸眼立体显示器11和空间成像装置12的每一者的结构与实施方式1的结构相似,因此不再进行说明。在以下的说明中,主要对与实施方式1不同之处进行说明。
在本实施方式中,裸眼立体显示器11设置为使显示面与xz平面Pxz平行。同时,空间成像装置12以相对于x12-z12平面Px12z12在x12方向上倾斜角度θ的方式,被未图示的倾斜支承单元保持。空间成像装置12设置为,以对xz平面进行投影时第一虚拟线和第三虚拟线相互重叠并且第二虚拟线和第四虚拟线相互重叠的方式,相对于xz平面Pxz在z轴方向上倾斜角度α。
图38是表示空间成像装置12的倾斜配置的说明图。图38是从x2轴方向观察空间成像装置12的情况的俯视图。图37和图38所示的x12轴与x轴平行。换言之,x12轴与第一方向平行。因此,在图38中,第一方向是纸面的水平方向。如图38所示,空间成像装置12设置为用x12轴(换言之与z12轴平行的轴)作为旋转轴线,相对于第一方向倾斜角度θ。
图39是表示图37所示的立体显示装置1中使用的裸眼立体显示器11的立体可视区域的光路的图。图39是与图21B相似的图。在图39中,为了图的简化,未示出柱状透镜、左眼像素、右眼像素等。与图21B所示的情况相似,在图39中,示出了虚拟线VL、一次光占优势的第一区域A1(左眼图像区域AL)、第二区域A2(右眼图像区域AR)、以及二次光占优势的第三区域A3和第四区域A4。
如图39所示,以使第四区域A4(右眼像素11R投影的图像)位于虚拟线VL的左侧并且第一区域A1(左眼像素11L投影的图像)位于虚拟线VL的右侧的方式,使空间成像装置12处于用与z2轴平行的轴作为旋转轴线沿顺时针方向倾斜角度θ的状态。将图21A和图39相互比较,左眼像素11L投影的图像与右眼像素11R投影的图像在它们之间夹着虚拟线VL的状态下的关系水平交换。
图40是表示虚拟摄像机80和裸眼立体显示器11之间的位置关系的说明图。在本实施方式中,使图40中未示出的空间成像装置12倾斜。裸眼立体显示器11不倾斜。换言之,如图40所示,裸眼立体显示器11的显示面与平面Pxz平行。图40是虚拟摄像机80设置为相对于图39所示的裸眼立体显示器11的虚拟线VL偏移到左侧(左眼侧)并且改变了虚拟摄像机80和柱状透镜11b之间的间隔D的情况的例子。图40所示的虚拟线VL与图39所示的虚拟线VL相同。图41A至图41E是示出虚拟摄像机80拍摄的图像的说明图。图41A至图41E是表示图40所示的结构中柱状透镜11b和虚拟摄像机80之间的间隔与拍摄图像之间的对应关系的图。如图41A所示,当间隔D接近于最佳立体视觉识别距离Dop时,虚拟摄像机80拍摄的图像仅是右眼像素11R的输入图像。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/2时,如图41B所示,在拍摄图像的两侧出现左眼像素11L的输入图像。进一步,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/3到1/4时,如图41C和图41D所示,根据高次光的影响,在拍摄图像的两侧出现右眼像素11R的输入图像。另外,当间隔D进一步减小并且小于或等于最佳立体视觉识别距离Dop的1/4时,如图41E所示,根据更高次光的影响,在拍摄图像的左侧出现左眼像素11L的输入图像。
图42是说明图41A至图41E所示的拍摄图像的构成的图。如图42所示,无论虚拟摄像机80和柱状透镜11b之间的间隔D如何,根据构成第四区域A4的二次光,拍摄右眼像素11R的输入图像。但是,随着间隔D减小,根据构成另一瓣的高次光的影响,更多地拍摄左眼像素11L的输入图像。
图43是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图。图43是虚拟摄像机80设置为相对于图39所示的裸眼立体显示器11的方向VL偏移到右侧(右眼侧)并且改变了虚拟摄像机80和柱状透镜11b之间的间隔D的情况的例子。图43所示的虚拟线VL与图39所示的虚拟线VL相同。图44A至图44E是表示虚拟摄像机80拍摄的图像的说明图。图44A至图44E表示图43所示的结构中柱状透镜11b和虚拟摄像机80之间的间隔与拍摄图像之间的对应关系。如图44A所示,当间隔D接近于最佳立体视觉识别距离Dop时,虚拟摄像机80拍摄的图像仅是左眼像素11L的输入图像。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/2时,如图44B所示,在拍摄图像的两侧出现右眼像素11R的输入图像。另外,当间隔D减小并且为最佳立体视觉识别距离Dop的约1/3到1/4时,如图44C和图44D所示,根据二次光的影响,在拍摄图像的两侧出现左眼像素11L的输入图像。另外,当间隔D进一步减小并且小于或等于最佳立体视觉识别距离Dop的1/4时,如图44E所示,根据三次光的影响,在拍摄图像的左侧出现右眼像素11R的输入图像。
图45是表示图44A至图44E所示的拍摄图像的构成的图。该情况下,如图45所示,无论虚拟摄像机80和柱状透镜11b之间的间隔D如何,根据构成第一区域A1的一次光,虚拟摄像机80拍摄左眼像素11L的输入图像。但是,随着间隔D减小,根据构成另一瓣的高次光的影响,更多地拍摄右眼像素11R的输入图像。因此,图45所示的拍摄图像具有左眼像素11L的输入图像和右眼像素11R的输入图像相对于图42所示的拍摄图像交换的结构。
图46是表示虚拟摄像机和裸眼立体显示器之间的位置关系的说明图。图47是表示观察者识别的立体图像与输入图像之间的关系的示意图。图46和图47是表示根据图37所示的该实施方式空间成像装置12与裸眼立体显示器11组合的情况下由观察者识别的立体图像的图。图46所示的设置在左侧的虚拟摄像机及设置在右侧的虚拟摄像机与图19同样地,假定空间成像装置的位置。如图46所示,假想配置在D=0.5×Dop的位置上的虚拟摄像机拍摄的图像是图47中的A所示的图像,其中,基于图42和图45所示的结果,图20中的A所示的图像的左侧和右侧之间的关系交换。当图47中的A所示的图像进入空间成像装置12时,如参照图20中的A和B所述,从空间成像装置12射出的光线在与入射方向相同的方向,因此观察者看到的图像的左侧和右侧交换,并成为图47中的B所示的图像。因此,在观察者识别的立体图像中,如图47中的C所示,圆形物体71从空间成像的裸眼立体显示器11的屏幕面跃出。换言之,观察者可将对于具有跃出视差的输入图像未进行图像处理的情况下显示的空中漂浮图像识别为跃出。
如上所述,在根据图37所示的本实施方式的立体显示装置1中,通过将空间成像装置12设置为用平行于z2轴的轴线作为旋转轴线沿顺时针方向倾斜角度θ,能够抑制入射到空间成像装置12的图像的左侧和右侧交换的逆视的出现。因此,可使观察者在预定位置处将空中漂浮图像识别为与输入图像的跃出视差或深度视差相对应的立体图像。另外,根据本实施方式的立体显示装置1不需要用于抑制逆视的输入图像的图像处理。因此,能够以简单的方式构成立体显示装置1。另外,根据裸眼立体显示器11和空间成像装置12之间的距离,虽然对于观察者看到的图像的端部获得逆视,但是还存在至少在中央部实现正视(跃出/深度被正确地视觉识别)的情况。该情况下,形成有逆视的端部可用作背景。例如,在显示黑色的情况下,不妨碍观察者识别立体图像。
在上述的说明中,尽管用与z2轴平行的轴线作为旋转轴线从观察者观察空间成像装置12沿顺时针方向倾斜,但倾斜不限于此。因此,空间成像装置12可沿逆时针方向倾斜。
另外,在本实施方式中,尽管空间成像装置12设置为用平行于z2轴的轴线作为旋转轴线以倾斜角度θ倾斜,但该轴线的位置可以各种方式设定。图48A至图48C是表示旋转轴线的设定例的说明图。图48A表示θ为0度的使用相关技术的立体显示装置的情况。图48B表示沿顺时针方向倾斜的情况,图48C表示沿逆时针方向倾斜的情况。旋转轴线S可以在空间成像装置12在x2轴方向的中心附近或其端部附近。
如上所述,与实施方式1相同,根据本实施方式的立体显示装置1可抑制在观察者看到的图像的中央部上的逆视的出现。因此,可使观察者在预定的位置处将空中漂浮图像识别为与输入图像的跃出视差或深度视差相对应的立体图像。
实施方式3
本实施方式涉及根据观察者的位置变化动态地改变裸眼立体显示器11的倾斜角度θ的方式。图49是表示立体显示装置100的结构的说明图。根据本实施方式的立体显示装置100包括裸眼立体显示器11、空间成像装置12、控制单元14、成像单元15以及致动器16。裸眼立体显示器11和空间成像装置12的结构与根据实施方式1的结构相同,因此不再进行说明。
成像单元15是摄像机、红外线传感器、激光测距仪等。成像单元15观察观察者Vi的头部。成像单元15将观察数据输出到控制单元14。致动器16是马达或螺线管等可电力控制的致动器。致动器16将裸眼立体显示器11设置为用平行于z轴的轴线作为旋转轴线沿逆时针方向倾斜角度θ。由于角度θ与在实施方式1中说明的为了抑制在预定位置处观察者看到的图像的中央部出现逆视而设置的倾斜角度θ相同,因此不再进行详细说明。
控制单元14包括视点检测单元141、角度计算单元(倾斜角度计算单元)142以及信号输出单元143作为功能单元。视点检测单元141检测观察者Vi的双眼的位置(两个视点位置)。视点检测单元141基于从成像单元15输入的观察数据,求出观察者Vi的双眼的位置。角度计算单元142计算与由视点检测单元141获得的观察者Vi的左眼EL的位置及右眼ER的位置相对应的倾斜角度θs。信号输出单元143在从角度计算单元142接收到倾斜角度θs的值的输入的情况下,以使裸眼立体显示器11相对于第一方向的倾斜角度从θ变化到θs的方式,使致动器16操作。当裸眼立体显示器11相对于第一方向的倾斜角度为θs时,信号输出单元143使致动器16的操作停止。根据本实施方式的致动器16设置为通过使操作停止来保持该角度。因此,裸眼立体显示器11被支承于倾斜角度θs而不移动。
图50是表示控制单元14的硬件构成的框图。控制单元14包括CPU 14a、ROM 14b、RAM 14c、输入单元14d以及输出单元14e。CPU 14a将存储于ROM 14b中的控制程序扩展到RAM 14c中并执行控制程序,由此使控制单元14作为视点检测单元141、角度计算单元142及信号输出单元143发挥功能。ROM 14b例如是非易失性半导体存储器或不同于半导体存储器的只读存储介质。RAM 14c例如是静态RAM(SRAM)、动态RAM(DRAM)或闪存。RAM 14c临时存储在使用CPU 14a执行程序时产生的数据。成像单元15拍摄的图像输入到输入单元14d。输出单元14e将控制信号输出到致动器16。
接下来,对倾斜角度θs的计算方法进行说明。图51A和图51B是说明倾斜角度θs的计算方法的说明图。图51A是从上面看到的观察者的左眼EL和右眼ER以及立体显示装置100的俯视图。图51B是从x轴方向看到的观察者的左眼EL和右眼ER以及立体显示装置100的侧视图。作为用于求出倾斜角θs的基准,设定基准点P。基准点P是空中漂浮图像中包含的点。基准点P是相对于空间成像装置12与裸眼立体显示器11的显示区域的中心点面对称的点。当空间成像装置12和裸眼立体显示器11之间的距离为WD时,空间成像装置12和基准点P之间的距离也为WD。其原因是,空间成像装置12在面对称的位置上形成裸眼立体显示器11的图像。在此,连接观察者的左眼EL和右眼ER的直线与x轴平行。裸眼立体显示器11的显示区域的中心点也称作第一点。另外,基准点P也称作第二点。
下面的两条直线所形成的角是θp。这两条直线通过将基准点P、观察者的左眼EL、右眼ER投影在xz平面而获得。一条直线是平行于z轴的直线V1。另一条直线是与连接基准点P与左眼EL和右眼ER的中间点的线段平行的直线V2
从基准点P至观察者Vi的双眼EL和ER的在z轴方向上的距离由ΔZ表示。另外,基准点P与左眼EL和右眼ER的中间点之间在x轴方向上的距离由ΔX表示。因此,使用下式(1)求出θp。另外,使用式(2)求出倾斜角度θs。
θp=tan-1(ΔX/ΔZ) 式(1)
θs=θ+θp 式(2)
关于θp的符号,其在观察者沿着+x方向移动时为正值,在观察者沿着-x方向移动时为负值。
接下来,对动态地改变裸眼立体显示器11的倾斜角度的意义进行说明。图52是表示立体显示装置1与观察者的位置之间的关系的说明图。被图52所示的三角形包围的白色字符a、b、c、d、e表示观察者的位置。各位置表示观察者的左眼EL和右眼ER的中间位置。
图53A和图53B是表示观察者的位置与观察者视觉识别的图像之间的关系的说明图。图53A表示在未检测观察者的位置而倾斜角度为恒定角度θ的情况下观察者视觉识别的图像。图53B表示在检测观察者的位置并且相应于此改变了倾斜角度θs的情况下观察者视觉识别的图像。如图53A所示,在观察者的位置位于位置c的情况下,在左眼看到的图像的中央部设置有左眼图像,在右眼看到的图像的中央部设置有右眼图像,因此防止中央部的逆视。但是,当观察者的位置位于位置b或d时,在左眼视觉识别的图像中右眼像素的输入图像(右输入图像)的区域增加。在右眼视觉识别的图像中左眼像素的输入图像(左输入图像)的区域增加。另外,当观察者的位置位于位置a或e时,左眼和右眼视觉识别的图像中,左输入图像的区域和右输入图像的区域各占一半。观察者视觉识别的图像的半个区域成为逆视区域。
另一方面,如图53B所示,在根据观察者的位置改变倾斜角度θs的情况下,能够抑制逆视区域的出现。
如上所述,根据本实施方式,通过根据观察者的位置变化动态地改变裸眼立体显示器11的倾斜角度,在观察者不位于预定的位置的情况下,也能够抑制逆视区域的出现。
实施方式4
本实施方式涉及通过图像处理抑制逆视区域的出现并根据观察者的位置使裸眼立体显示器11倾斜的方式。图54是表示立体显示装置101的结构的说明图。立体显示装置101的结构除图像交换单元17以外与根据实施方式3的结构相似。图像交换单元17接收将要显示在裸眼立体显示器11上的左眼图像和右眼图像作为输入。图像交换单元17进行图像交换处理,并将处理后的图像输出到裸眼立体显示器11。下面对图像交换处理进行说明。
在说明图像交换处理之前,对根据观察者的移动的图像的视觉外观(visualappearance)的变化进行说明。图55A和图55B是表示裸眼立体显示器11的单体的视觉外观的变化的说明图。图55A是观察者Vi位于裸眼立体显示器11的正面的情况的说明图。图55B是观察者Vi从裸眼立体显示器11的正面沿+x方向移动的情况下的说明图。
如图55A和图55B所示,观察者Vi和裸眼立体显示器11之间的距离位于最佳视觉识别距离(Dop)×0.5的位置,并且小于最小立体视觉识别距离Dmin。因此,在观察者Vi的左眼和右眼看到的图像中,根据二次光或三次光的高次光的影响,左眼像素11L的输入图像和右眼像素11R的输入图像重复。
为此,在观察者Vi位于裸眼立体显示器11的正面的情况下,观察者Vi的右眼看到的图像和左眼看到的图像示于图55A的下段。换言之,右眼看到的图像的中央部分是第二区域A2的图像。但是,在右眼看到的图像的左右两端部中,第二区域A2的图像以外的图像根据高次光的影响而混入。左眼看到的图像的中央部分是第一区域A1的图像。但是,在左眼看到的图像的左右两端部中,第一区域A1的图像以外的图像根据高次光的影响而混入。
接下来,对立体显示装置101的图像的视觉外观进行说明。图56是表示立体显示装置1和观察者的位置之间的关系的说明图。由于图56所示的立体显示装置101设定为θ=0,因此裸眼立体显示器11不倾斜。分别被图56所示的三角形包围的白色字符a、b、c、d、e表示观察者的位置。各位置表示左眼EL和右眼ER的中间位置。
图57A和图57B是表示观察者的位置与观察者视觉识别的图像之间的关系的说明图。图57A表示不具有图像交换单元17的情况下的图像。图57B表示具有图像交换单元17的情况下的图像。图像交换单元17交换显示在裸眼立体显示器11上的左眼图像和右眼图像。因此,在与空间成像装置12组合的立体显示装置101中,图像中央部分的逆视转换为正视。然而,当观察者Vi移动到位置c以外(例如,位置a、b、d、e)的任一位置时,逆视的区域增大。
因此,根据观察者Vi的位置,使裸眼立体显示器11倾斜。图58是表示观察者Vi的位置和观察者Vi视觉识别的图像之间的关系的说明图。如图58所示,根据观察者Vi的位置,使裸眼立体显示器11从初始状态倾斜θs。因此,在观察者Vi从立体显示装置1的位置c移动的情况下,也能够抑制逆视区域的增大。
图59是立体显示装置101中包括的图像交换单元17的构成的框图。图像交换单元17包括CPU 17a、ROM 17b、RAM 17c、图像输入单元17d以及图像输出单元17e。CPU 17a将存储于ROM 17b中的控制程序扩展到RAM 17c中并执行该控制程序,由此控制各单元。RAM 17c例如是SRAM、DRAM或闪存。RAM 17c临时存储在CPU 17a执行程序时产生的数据。将要显示在裸眼立体显示器11上的图像输入到图像输入单元17d。图像输出单元17e输出输入图像的转换处理后的转换图像。
图60是表示图像交换单元17进行的图像交换处理的顺序的流程图。CPU 17a通过图像输入单元17d获得输入图像(步骤S11)。接下来,CPU 17a交换逆视区域的左眼图像和右眼图像(步骤S12)。然后,CPU 17a将进行了图像交换的图像经由图像输出单元17e输出到裸眼立体显示器11(步骤S13)。
接下来,对倾斜角度θs的计算方法进行说明。图61A和图61B是说明倾斜角度θs的计算方法的说明图。图61A是从上方观察观察者Vi和立体显示装置101的俯视图。图61B是从x轴方向观察观察者Vi和立体显示装置101的侧视图。作为用于求出θs的基准,设定基准点P。基准点P是空中漂浮图像中包含的点。基准点P是相对于空间成像装置12与裸眼立体显示器11的显示区域的中心点面对称的点。当空间成像装置12和裸眼立体显示器11之间的距离为WD时,空间成像装置12和基准点P之间的距离也为WD。其原因是空间成像装置12在面对称的位置上形成裸眼立体显示器11的图像。此外,连接观察者Vi的左眼EL和右眼ER的直线设定为与x轴平行。
下面的两条直线形成的角是倾斜角度θs。这两条直线通过将基准点P、观察者Vi的左眼EL和右眼ER投影在xz平面上来获得。一条直线是平行于z轴的直线V1。另一条直线是平行于连接基准点P与左眼EL和右眼ER的中间点的线段的直线V2
从基准点P至观察者Vi的双眼EL和ER的位置的在z轴方向上的距离为ΔZ。基准点P与左眼EL和右眼ER的中间点在x轴方向上的距离为ΔX。如此,使用下式(3)求出倾斜角度θs。
θs=tan-1(ΔX/ΔZ) 式(3)
关于θs的符号,其在观察者沿+x方向移动时为正值,观察者沿-x方向移动时为负值。
如上所述,在本实施方式中,在观察者位于立体显示装置101的正面的情况下,通过进行图像处理,能够抑制逆视区域的出现。另外,由于根据观察者的位置动态倾斜地设置裸眼立体显示器11,因此,在观察者不位于立体显示装置101的正面的情况下,也与观察者位于立体显示装置101的正面的情况同样地,能够抑制逆视区域的出现。
在本实施方式中,在观察者位于正面时,设定θ=0,但是当实际使用的空间成像装置12的特性不理想时,也可能有在正面从左眼和右眼看到的正视区域中发生偏移的情况。还能够校正该偏移,并且为了将从左眼和右眼正视看到的区域最大化能够对θ添加校正角。例如,为了校正空间成像装置12的特性,可设定为θ=0.9。
实施方式5
本实施方式涉及根据观察者的位置变化使空间成像装置12倾斜的结构。在本实施方式中,通过使空间成像装置12倾斜而不使裸眼立体显示器11倾斜,在观察者的位置变化的情况下,也能够抑制在观察者视觉识别的图像中逆视区域的出现。
图62是表示立体显示装置102的结构的说明图。根据本实施方式的立体显示装置102包括裸眼立体显示器11、空间成像装置12、控制单元14、成像单元15以及致动器16。致动器16将空间成像装置12设置为用平行于z2轴的轴线作为旋转轴线沿逆时针方向倾斜角度θ。裸眼立体显示器11和空间成像装置12的结构与根据实施方式1的结构相同,因此不再对其进行说明。另外,由于成像单元15的结构与根据实施方式3的结构相同,因此不再对其进行说明。
控制单元14包括视点检测单元141、角度计算单元142、信号输出单元143作为功能单元。视点检测单元141和角度计算单元142与根据实施方式3的各单元相同。信号输出单元143在从角度计算单元142接收到倾斜角度θs的控制信号的情况下,以使空间成像装置12相对于第一方向的倾斜角度从θ变为θs的方式,使致动器16操作。当空间成像装置12相对于第一方向的倾斜角度为θs时,信号输出单元143使致动器16的操作停止。与实施方式3相似,根据本实施方式的致动器16设置为通过使操作停止而保持该角度,因此空间成像装置12被支承于倾斜角度θs而不移动。
接下来,对动态地改变空间成像装置12的倾斜角度的意义进行说明。图63是表示立体显示装置102和观察者的位置之间的关系的说明图。图63所示的三角形包围的白色字符a、b、c、d、e表示观察者的位置。各位置表示观察者的左眼EL和右眼ER的中间位置。
图64是表示观察者的位置与观察者视觉识别的图像之间的关系的说明图。图64表示在检测观察者的位置并且相应于此改变了倾斜角度θs的情况下观察者视觉识别的图像。如图64所示,与实施方式3相同,通过根据观察者的位置改变倾斜角度θs,入射到空间成像装置12的图像的左侧和右侧交换,并且能够抑制逆视区域的出现。
如上所述,根据本实施方式,通过根据观察者的位置变化动态地改变空间成像装置12的倾斜角度,在观察者不位于立体显示装置1的正面的情况下,也能够抑制逆视区域的出现。
实施方式6
本实施方式与对实施方式3添加图像交换处理所得到的实施方式4的方式相似,具有对实施方式5添加图像交换处理的方式。本实施方式涉及如下方式:通过图像交换处理抑制逆视区域的出现,根据观察者的位置使空间成像装置12倾斜。图65是表示立体显示装置103的结构的说明图。立体显示装置103的结构除图像交换单元17以外与根据实施方式5的结构相似。图像交换单元17接收将要显示在裸眼立体显示器11上的左眼图像和右眼图像作为输入。图像交换单元17进行图像交换处理,并将处理后的图像输出到裸眼立体显示器11。图像交换处理与根据实施方式4的图像交换处理相同,因此不再对其进行说明。
基于观察者Vi的移动引起的图像的视觉外观的变化、立体显示装置103的图像的视觉外观、以及由图像交换单元17进行的图像处理与根据实施方式4的情况相同,因此不再对其进行说明。
实施方式7
该实施方式具有对实施方式1添加图像处理的方式。如上所述,根据实施方式1,具有在观察者看到的图像中正视的区域和逆视的区域在第一方向(观察者的左眼和右眼排列的方向)上交替混合的情况。图66A至图66C是表示逆视的区域的示例的示意图。图66A所示的左眼图像及右眼图像输入到实施方式1中记载的立体显示装置1(参照图1),并且裸眼立体显示器11和空间成像装置12之间的距离例如为裸眼立体显示器11的最佳视觉识别距离Dop×0.5的情况下,在位于预定位置的观察者的左眼和右眼中,如图66B所示,存在左眼图像和右眼图像交换的区域,并且逆视被视觉识别。此时,在左眼图像和右眼图像中,逆视被视觉识别的区域如图66C所示,是区域LA、LB、RA和RB。
因此,在本实施方式中,通过预先确定左眼图像和右眼图像被交换的区域并交换与预先确定的区域相对应的部分的图像,可进一步抑制逆视区域的出现。
可基于裸眼立体显示器11的显示屏幕尺寸和立体可视区域、裸眼立体显示器11和空间成像装置12之间的距离及配置关系、以及观察者的位置,确定将要交换的区域。因此,在确定包含裸眼立体显示器11和空间成像装置12之间的距离的配置关系的情况下,可基于从裸眼立体显示器的亮度曲线获得的、有助于一次光占优势的区域的形成的光线角度、形成于空间内的裸眼立体显示器11的显示屏幕的宽度、以及空间内形成的图像与观察者之间的距离,求出要交换的区域。
图67A和图67B是表示计算要相互交换的区域的方法的说明图。图68是表示观察者在其中发生了移动的相互交换的区域的示例的示意图。在图67A中,示出了观察者Vi的双眼EL和ER以及由空间成像装置12在空间中形成的裸眼立体显示器的显示。在图67B中,示出了图像位于观察者的左眼和右眼看到的空间成像的中间的区域LA和LB以及区域RA和RB。
由于空间成像装置12将位于一面侧的实体在另一面侧形成为实像,因此空间成像的宽度WS与裸眼立体显示器(未图示)的显示面的宽度相等。另外,空间形成的图像中包含的基准点P位于在z轴方向上距空间成像装置距离WD的位置。距离WD如实施方式3中所述,与空间成像装置12和裸眼立体显示器之间的距离WD相等(参照图51A和图51B)。
当从基准点P到观察者的左眼EL和右眼ER的中间点在z轴方向上的距离为ΔZ并且从裸眼立体显示器的亮度曲线(参照图34)获得的、有助于一次光占优势的区域的形成的光线角度为θL时,位于空间成像的宽度WS的中央的区域的比例EA使用下式(4)求出。另外,所求出的区域的比例EA及包括将要相互交换的区域的区域数Ln使用式(5)求出。另外,将要相互交换的区域数Lm使用式(6)求出。另外,各区域LA和区域LB(或区域RA和RB)在空间形成的图像中所占的比例Wx使用式(7)求出。
Figure BDA0001355079170000371
Figure BDA0001355079170000372
Figure BDA0001355079170000373
在EA≧0.33的条件下的Wx:
Figure BDA0001355079170000374
在EA<0.33的条件下的Wx:
Figure BDA0001355079170000381
例如,在空间成像装置和裸眼立体显示器11之间的距离为Dop×0.5、裸眼立体显示器11的显示宽度为150mm并且光线角度θL为12°的情况下,当观察者位于ΔZ=400mm的位置时,空间成像中的中央区域所占的比例EA为(tan(12°)×400)/150=56.7%。
另外,在空间成像中产生的区域数Ln为INT((1-0.567)/(1/2×0.567))×2+3=3,将要相互交换的区域数Lm为INT(3/3)×2=2,各区域LA和RA在空间形成的图像中所占的比例Wx是(1-0.567)/2=21.65%。由于正视和逆视的区域在第一方向(观察者的左眼和右眼排列的方向)上交替地混合,如图67B所示,在观察者的左眼看到的空间形成的图像中,区域LA、中央区域(正视)以及区域LB排列在第一方向上,在观察者的右眼看到的空间形成的图像中,区域RA、中央区域(正视)以及区域RB排列在第一方向上。
另外,例如,当空间成像装置12和裸眼立体显示器11之间的距离为Dop×0.5并且观察者从ΔZ=400mm的位置移动到ΔZ=150mm的位置时,观察者看到如图68中的A所示的空间成像。该情况下,中央区域所占的比例EA为(tan(12°)×150)/150=21.3%,在空间成像中产生的区域数Ln为INT((1-0.213)/(1/2×0.213))×2+3=5,将要相互交换的区域数Lm为INT(3/5)×2=2,各区域LA和RA在空间形成的图像中所占的比例Wx为(1-0.213)/2-((1-0.213)/2-0.213)=21.3%,并且,如图68中的B所示,将要相互交换的区域LA和LB以及区域RA和RB位于与中央区域相邻的位置。
通过求出将要相互交换的区域在空间形成的图像中所占的比例,可获得在左眼图像和右眼图像之间相互交换的图像的大小。例如,在左眼图像和右眼图像分别是在水平方向上由1920个像素构成的图像的情况下,在ΔZ=400mm时,将以从图像的中心朝向图像端部在水平方向上远离544个像素(=1920×0.567/2)的位置为起点至进一步朝向图像端部在水平方向上远离416个像素(=1920×0.2165)的位置的范围的图像在左眼图像和右眼图像中相互交换。类似地,在ΔZ=150mm时,将从图像的中心朝向图像端部在水平方向上远离204个像素(=1920×0.213/2)的位置为起点至进一步朝向图像端部在水平方向上远离409个像素(=1920×0.213)的位置的范围的图像在左眼图像和右眼图像中相互交换。
如上所述,在可根据观察者的位置求出位于中央的区域的比例EA的情况下,可求出将要相互交换的区域在空间形成的图像中所占的比例,并且可求出将左眼图像和右眼图像相互交换的图像的大小。此外,为了求出位于中央的区域的比例EA,尽管利用从裸眼立体显示器11的亮度曲线获得的光线角度θL,但可利用构成裸眼立体显示器11的显示面板的像素间距、柱状透镜的透镜间距以及像素和透镜之间的距离等其他的条件,并且通过使用拍摄裸眼立体显示器11的显示面的摄像机从预定的位置拍摄从裸眼立体显示器11射出的光的外观,可根据所拍摄的图像求出比例(参照图8)。
图69是表示根据本实施方式的立体显示装置104的结构的说明图。立体显示装置104的结构除输入图像交换单元170以外与根据实施方式1的结构相同。输入图像交换单元170接收左眼图像和右眼图像作为输入,进行图像交换处理,并将处理后的图像输出到裸眼立体显示器11。
图70是表示输入图像交换单元170的构成的示例的框图。如图70所示,输入图像交换单元170包括区域参数存储单元170a和图像交换单元170b。
区域参数存储单元170a是例如存储器的存储单元,并存储图像交换单元170b将要参照的多个区域参数。例如,在左眼图像和右眼图像内,将要相互交换的图像的数量和图像的大小使用上述的计算方法对各ΔZ进行计算,作为区域参数存储有多个图像的数量和图像的大小。ΔZ的值可将预先从预定位置进行观察为前提,设定为常数,或者可构成为由观察者根据预定位置从外部输入。
图像交换单元170b可以构成为通过组合逻辑电路和例如存储器的存储单元得到的硬件。可替换地,图像交换单元170b可构成为,图像交换单元170b由包括中央处理单元(CPU)、例如只读存储器(ROM)和随机存取存储器(RAM)的存储器的计算机构成,CPU将存储于ROM中的控制程序扩展到RAM中并执行控制程序,由此控制程序作为图像交换单元170b发挥功能。
图71是表示由输入图像交换单元170进行的图像交换处理的顺序的流程图。图72是表示由输入图像交换单元170进行的图像生成的示例的示意图。根据本实施方式的使用输入图像交换单元170的图像交换处理将参照图71所示的流程图和图72所示的概念图进行说明。
首先,图像交换单元170b从区域参数存储单元170a获得区域参数(步骤S21)。例如,如图72中的A所示,获得可用于指定区域LA和LB以及RA和RB的值(与各区域相对应的图像的位置和大小)。接下来,图像交换单元170b获得输入图像(步骤S22)。例如,获得如图72中的B所示的左眼图像和右眼图像。
接下来,图像交换单元170b从输入图像中提取由区域参数指定的图像(步骤S23)。接下来,图像交换单元170b将所提取的图像相互交换(步骤S24)。例如,如图72中的B和C所示,将与区域LA相对应的左眼图像的图像和与区域RA相对应的右眼图像的图像相互交换。另外,通过将与区域LB相对应的左眼图像的图像和与区域RB相对应的右眼图像的图像相互交换,产生如图72中的C所示的左眼像素的输入图像和右眼像素的输入图像。接下来,图像交换单元170b将产生的图像输出到裸眼立体显示器11(步骤S25)。
如上所述,输入图像交换单元170(图像处理单元)在裸眼立体显示器11(投影仪)投影的两个或更多个图像中,将逆视区域(从在第一方向上排列的区域中选择任意的区域)中的左眼图像(一个图像)和右眼图像(另一个图像)相互交换,并将得到的图像输入到裸眼立体显示器11。
在本实施方式中,基于有助于裸眼立体显示器11的立体可视区域的形成的一次光的光线角度和观察者所位于的预定的位置,确定逆视的区域,将与所确定的区域相对应的左眼图像和右眼图像的图像相互交换,并显示裸眼立体显示器11的左眼像素和右眼像素。
另外,与实施方式1相同,通过将裸眼立体显示器11设置为沿X轴方向倾斜角度θ,将入射到空间成像装置12的图像的左侧和右侧相互交换,并且可抑制在预定位置上观察者看到的图像的所有面中的逆视。
在此,使用区域LA和LB以及RA和RB对图像交换单元170b进行的图像交换处理进行了说明,但是图像交换处理还可同样地应用于逆视区域的数量增加的情况。图73是表示输入图像交换单元进行的图像生成的示例的示意图。例如,在ΔZ=110mm的情况下,如图73中的A所示,在将可用于指定区域LA、LB、LC、LD以及区域RA、RB、RC、RD的图像的大小和位置作为值存储在区域参数存储单元170a中的情况下,如图73中的B所示,通过在输入的左眼图像和右眼图像中将图像相互交换,可产生如图73中的C所示的左眼像素的输入图像和右眼像素的输入图像。
由于将要相互交换的区域的大小针对各ΔZ被保存作为参数,因此,观察者例如通过改变设定,能够从任意的观察位置看到在所有的面中抑制逆视的空间形成的图像。
另外,虽然本实施方式与实施方式1类似地具有使裸眼立体显示器11倾斜的结构,但也可以与实施方式2类似地采用使空间成像装置12倾斜的结构。而且在使空间成像装置12倾斜的状态下,如本实施方式所述,通过基于裸眼立体显示器11和空间成像装置12之间的距离使用输入图像交换单元170进行处理,在预定位置上观察者看到的图像的所有的面中抑制逆视。
另外,与实施方式6相同,通过取消裸眼立体显示器中设置沿x轴方向的倾斜,将左右图像交换。该情况下,观察者的左右双眼看到的空间形成的图像与图67B所示的图像相同。换言之,该情况下,如本实施方式中所述,通过使用式(4)至式(7),可计算将要相互交换的区域。根据计算的结果,如本实施方式中所述,可将将要相互交换的区域的左右图像交换。
如上所述,在取消裸眼立体显示器11中设置的在x轴方向的倾斜的情况下,与实施方式6相同,通过预先交换左右图像并将要交换的区域的图像相互交换,能够在所有的面中抑制逆视。
另外,类似于实施方式6相对于实施方式4的关系,在取消空间成像装置中设置的在x轴方向的倾斜的情况下,通过预先将左右图像交换,如本实施方式中所述,通过将将要相互交换的区域的图像交换,能够在所有的面中抑制逆视。
实施方式8
在实施方式7中,通过基于预定的观察位置求出将要相互交换的区域,交换图像,但动态地获得观察者的位置。在本实施方式中,动态地获得观察者的位置,基于所获得的位置求出逆视的区域,并将与区域相对应的左眼图像和右眼图像的图像相互交换。
图74A至图74C是表示观察者看到的图像的示例的说明图。图74A所示的左眼图像和右眼图像输入到实施方式5中所述的立体显示装置102(参照图62)。
例如,空间形成的图像和观察者Vi之间的距离ΔZ为350mm的情况下,在观察者的左眼和右眼看到的图像中,如图74B所示,存在左眼图像和右眼图像被交换的区域。交换后的区域成为逆视。在此,在观察者Vi移动并且空间成像装置12和观察者Vi之间的距离变化到250mm的情况下,在观察者的左眼和右眼看到的图像中,如图74C所示,与图74B所示的情况相比,左眼图像和右眼图像交换的区域扩大。换言之,逆视的区域扩大。
因此,在本实施方式中,基于空间成像装置12和观察者之间的距离,动态地指定左眼图像和右眼图像相互交换的区域,并交换与动态指定的区域相对应的部分的图像,由此进一步抑制逆视区域的出现。将要相互交换的区域如实施方式7所述,基于有助于裸眼立体显示器11的立体可视区域的形成的一次光的光线角度和观察者的位置来确定。
图75是表示根据本实施方式的立体显示装置105的结构的说明图。立体显示装置105的结构除输入图像交换单元171以外与根据实施方式5的结构相同。输入图像交换单元171接收左眼图像和右眼图像作为输入,基于从视点检测单元141获得的观察者Vi的双眼位置进行图像交换处理,并将处理后的图像输出到裸眼立体显示器11。
图76是表示输入图像交换单元171的构成的示例的框图。如图76所示,输入图像交换单元171由区域参数存储单元171a、图像交换单元171b、距离计算单元171c以及区域计算单元171d构成。
区域参数存储单元171a是例如存储器的存储单元,并存储区域计算单元171d将要参照的多个区域参数。例如,将从裸眼立体显示器的亮度曲线(参照图34)获得的有助于一次光占优势的区域的形成的光线角度θL和空间成像宽度WS存储作为区域参数。
图像交换单元171b、距离计算单元171c以及区域计算单元171d可以构成为通过组合逻辑电路和例如存储器的存储单元得到的硬件。可替选地,图像交换单元170b可构成为,图像交换单元170b由包括中央处理单元(CPU)、例如只读存储器(ROM)和随机存取存储器(RAM)的存储器的计算机构成,CPU将存储于ROM中的控制程序扩展到RAM中并执行控制程序,由此控制程序作为图像交换单元170b发挥功能。
图77是表示输入图像交换单元171进行的图像交换处理的顺序的流程图。图78是表示输入图像交换单元171进行的图像生成的示例的示意图。根据本实施方式的使用输入图像交换单元171的图像交换处理将参照图77所示的流程图及图78所示的概念图进行说明。首先,距离计算单元171c从控制单元14的视点检测单元141获得观察者Vi的双眼的位置(步骤S31)。接下来,距离计算单元171c根据所获得的观察者Vi的双眼的位置求出基准点P和观察者Vi之间的距离ΔZ(步骤S32)。区域计算单元171d求出区域参数存储单元171a中存储的区域参数(步骤S33)。
接下来,区域计算单元171d基于所获得的区域参数,使用距离计算单元171c所求出的距离ΔZ,求出相互交换的区域(步骤S34)。使用距离ΔZ求出将要相互交换的区域的方法如实施方式7所述。例如,在ΔZ为400mm的情况下,求出如图78中的A所示的区域LA和LB以及区域RA和RB。
图像交换单元171b获得输入图像(左眼图像和右眼图像)(步骤S35)。例如,获得如图78中的B所示的左眼图像和右眼图像。接下来,图像交换单元171b从输入图像中提取与区域计算单元171d求出的区域相对应的图像(步骤S36)。接下来,图像交换单元171b将所提取的图像相互交换(步骤S37)。例如,将图78中的B和C所示的与区域LA相对应的左眼图像的图像、以及与区域RA相对应的右眼图像的图像相互交换,并且将与区域LB相对应的左眼图像的图像和与区域RB相对应的右眼图像的图像相互交换,由此产生如图78中的C所示的左眼像素的输入图像和右眼像素的输入图像。接下来,图像交换单元171b将产生的图像输出到裸眼立体显示器11(步骤S38)。
如上所述,输入图像交换单元171(图像处理单元)在裸眼立体显示器11(投影仪)投影的两个或更多个图像中,将逆视区域(从在第一方向上排列的区域中选择任意的区域)中的左眼图像(一个图像)和右眼图像(另一个图像)根据观察者Vi的位置动态地相互交换,并将得到的图像输入到裸眼立体显示器11。
图79至图80是表示观察者的位置和观察者视觉识别的图像之间的关系的说明图。在本实施方式中,根据有助于裸眼立体显示器11的立体可视区域的形成的一次光的光线角度和动态获得的观察者的位置,确定逆视的区域,并将与所确定的区域相对应的左眼图像和右眼图像的图像相互交换,并显示裸眼立体显示器11的左眼像素和右眼像素。该情况下,如图79所示,当基于距离ΔZ进行图像处理时,在ΔX=0的情况下,能够在观察者看到的图像的所有的面中抑制逆视,在观察者从ΔX=0移动的情况下,出现逆视区域。因此,与实施方式5类似地,通过由观察者Vi的位置求出ΔX并根据ΔX改变空间成像装置12的倾斜角度θs,如图80所示,在观察者不在ΔX=0的情况下,也能够在观察者Vi看到的图像的所有的面中抑制逆视。
另外,虽然与实施方式5相同,尽管本实施方式具有根据观察者的位置动态地倾斜空间成像装置12的结构,但是也可采用与根据实施方式3的结构类似的结构。在根据观察者Vi的位置动态地倾斜裸眼立体显示器11的情况下,如本实施方式中所述,通过使用输入图像交换单元进行处理,也能够在观察者Vi看到的图像的所有的面中抑制逆视。
另外,与实施方式6类似,通过取消空间成像装置12中设置的在x轴方向的倾斜,交换左右图像。该情况下,观察者的左右双眼看到的空间形成的图像如图74B所示。因此,在取消空间成像装置中设置的在x轴方向的倾斜的情况下,与实施方式6类似地,通过预先交换左右图像,如本实施方式中所述,通过交换将要相互交换的区域的图像,能够在所有的面中抑制逆视。
另外,类似于实施方式4相对于实施方式6的关系,在取消裸眼立体显示器中设置的在x轴方向的倾斜的情况下,通过预先交换左右图像,如本实施方式中所述,通过交换将要相互交换的区域的图像,能够在所有的面中抑制逆视。
各实施方式中记载的技术方面(构成要素)可组合,通过将这些技术方面组合,能够形成新的技术特征。
在此记载的实施方式是所有方面的示例,不应该认为用于限制的目的。本发明的范围不是上述的含义,而旨在包括权利要求书中公开的并与权利要求书均等的范围和该范围内的所有的变更。

Claims (8)

1.一种立体显示装置,包括:
平面状的投影仪,所述投影仪将光线分割到两个或更多个方向,并通过使用分割的光来投影两个或更多个图像;
平面状的光学装置,所述光学装置将从第一面入射的入射光从第二面射出;以及
支承单元,所述支承单元在包含相互正交的第一坐标轴、第二坐标轴和第三坐标轴的三维坐标系中将所述投影仪和所述光学装置中的至少一者支承于第一状态或第二状态,
其中,所述光学装置将从所述投影仪的投影面上的第一点入射的入射光射出到相对于用作基准的所述光学装置的平面为面对称的第二点,
其中,所述第一状态是这样的状态:在将所述光学装置的所述平面上相互正交的第一虚拟线和第二虚拟线以及在所述投影仪的所述投影面上相互正交的第三虚拟线和第四虚拟线设为投影在包含所述第一坐标轴和所述第二坐标轴的第一平面上的情况下,所述第一虚拟线和所述第三虚拟线相互重叠,并且所述第二虚拟线和所述第四虚拟线相互重叠,并且,
其中,所述第二状态是这样的状态:在所述三维坐标系中,所述第一虚拟线和所述第三虚拟线相互不平行,并且所述第二虚拟线和所述第四虚拟线相互不平行。
2.根据权利要求1所述的立体显示装置,其中,
所述光线被所述投影仪分割的第一方向是在所述三维坐标系中所述第一坐标轴的方向并且是观察者的左眼和右眼排列的方向,并且,
所述支承单元将所述投影仪或所述光学装置相对于所述第一方向支承于恒定的倾斜角度。
3.根据权利要求2所述的立体显示装置,其中,
通过将分割为两个或更多个部分的一个光线和另一个光线之间的亮度差被最大化的图案输入到所述投影仪,并获得被分割的所述一个光线和/或所述另一个光线的对于所述第一方向的亮度的角度分布,基于所获得的角度分布,计算所述支承单元的倾斜角度。
4.根据权利要求2所述的立体显示装置,还包括:
位置检测单元,所述位置检测单元检测所述观察者的两个视点位置;以及
倾斜角度计算单元,所述倾斜角度计算单元基于所获得的所述观察者的两个视点位置,计算倾斜角度,
其中,所述支承单元支承所述投影仪或所述光学装置,以使所述投影仪或所述光学装置相对于所述第一方向倾斜由所述倾斜角度计算单元计算出的倾斜角度。
5.根据权利要求4所述的立体显示装置,其中,
在所述投影仪的所述投影面上相互正交的所述第三虚拟线和所述第四虚拟线设置为平行于包含所述第一坐标轴和所述第二坐标轴的第一平面的状态下,将相对于以所述投影仪的所述投影面的投影中心作为第一点的所述光学装置的所述平面而面对称的第二点设定为基准点并将所述观察者和所述基准点假定为投影在所述第一平面上的情况下,计算连接所述基准点和所述观察者的两个视点位置的直线与面向所述基准点和所述观察者并与所述第一方向正交的直线所形成的角度。
6.根据权利要求5所述的立体显示装置,还包括:
图像处理单元,所述图像处理单元将所述投影仪投影的两个或更多个图像相互交换并将得到的图像输入到所述投影仪,
其中,所述投影仪或所述光学装置相对于作为基准的包含所述第一坐标轴和所述第二坐标轴的所述第一平面而倾斜。
7.根据权利要求3或4所述的立体显示装置,还包括:
图像处理单元,所述图像处理单元从在所述第一方向上设置有由所述投影仪投影的所述两个或更多个图像的区域中选择任意的区域,将所选择的区域的一个图像和另一个图像相互交换,并将得到的图像输入到所述投影仪。
8.一种立体显示装置的控制方法,所述立体显示装置包括:
平面状的投影仪,所述投影仪将光线分割到两个或更多个方向,并通过使用分割的光来投影两个或更多个图像;
平面状的光学装置,所述光学装置将从第一面入射的入射光从第二面射出;以及
支承单元,所述支承单元支承所述投影仪和所述光学装置的至少一者,
所述光学装置将从所述投影仪的投影面上的第一点入射的入射光射出到相对于用作基准的所述光学装置的平面而面对称的第二点,
其中,在包含相互正交的第一坐标轴、第二坐标轴和第三坐标轴的三维坐标系中,在将在所述光学装置的所述平面上相互正交的第一虚拟线和第二虚拟线以及在所述投影仪的所述投影面上相互正交的第三虚拟线和第四虚拟线假定为投影在包含所述第一坐标轴和所述第二坐标轴的第一平面上,将所述第一虚拟线和所述第三虚拟线相互重叠并且所述第二虚拟线和所述第四虚拟线相互重叠的状态设定为第一状态,并且在将在所述三维坐标系中所述第一虚拟线和所述第三虚拟线相互不平行并且所述第二虚拟线和所述第四虚拟线相互不平行的状态设定为第二状态的情况下,以使所述投影仪和所述光学装置从所述第一状态变到所述第二状态的方式控制所述支承单元。
CN201710592482.8A 2016-07-21 2017-07-19 立体显示装置及控制方法 Active CN107643603B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110302467.1A CN113050293B (zh) 2016-07-21 2017-07-19 立体显示装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016143729 2016-07-21
JP2016-143729 2016-07-21
JP2017090593A JP7038981B2 (ja) 2016-07-21 2017-04-28 立体表示装置及び制御方法
JP2017-090593 2017-04-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202110302467.1A Division CN113050293B (zh) 2016-07-21 2017-07-19 立体显示装置

Publications (2)

Publication Number Publication Date
CN107643603A CN107643603A (zh) 2018-01-30
CN107643603B true CN107643603B (zh) 2021-04-09

Family

ID=60989674

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201710592482.8A Active CN107643603B (zh) 2016-07-21 2017-07-19 立体显示装置及控制方法
CN202110302467.1A Active CN113050293B (zh) 2016-07-21 2017-07-19 立体显示装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202110302467.1A Active CN113050293B (zh) 2016-07-21 2017-07-19 立体显示装置

Country Status (2)

Country Link
US (2) US10225541B2 (zh)
CN (2) CN107643603B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017203721A1 (de) * 2017-03-07 2018-09-13 Bitmanagement Software GmbH Vorrichtung und Verfahren zur Darstellung eines Raumbilds von einem Objekt in einer virtuellen Umgebung
CN109581729A (zh) * 2019-01-03 2019-04-05 京东方科技集团股份有限公司 一种显示面板及显示装置
FR3091931B1 (fr) * 2019-01-18 2021-05-28 Psa Automobiles Sa Dispositif d’affichage pour véhicule automobile
CN109634431B (zh) * 2019-01-22 2024-04-26 像航(上海)科技有限公司 无介质浮空投影视觉追踪互动系统
US11243410B2 (en) * 2019-04-26 2022-02-08 Wuhan Tianma Micro-Electronics Co., Ltd. Display device
CN110908135A (zh) * 2019-11-26 2020-03-24 深圳奥比中光科技有限公司 一种三维图像悬浮显示装置及方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3743423B2 (ja) * 2002-12-11 2006-02-08 セイコーエプソン株式会社 ソリッド型ロッドインテグレータの保持機構
JP2006003717A (ja) * 2004-06-18 2006-01-05 Seiko Epson Corp 投写型表示装置
KR101018523B1 (ko) * 2006-03-23 2011-03-03 도쿠리츠 교세이 호진 죠호 츠신 켄큐 키코 결상 소자, 디스플레이 장치
JP6308513B2 (ja) * 2012-07-31 2018-04-11 Tianma Japan株式会社 立体画像表示装置、画像処理装置及び立体画像処理方法
JP5565845B2 (ja) 2012-10-22 2014-08-06 独立行政法人情報通信研究機構 体積走査型3次元空中映像ディスプレイ
DK2920511T3 (da) * 2012-11-14 2020-07-27 Coelux Srl Kunstig belysningsindretning til at generere naturligt lys
KR20140115854A (ko) * 2013-03-22 2014-10-01 삼성디스플레이 주식회사 입체 영상 표시 장치 및 입체 영상 표시 방법
CN103645560B (zh) * 2013-12-06 2015-09-09 吉林大学 一种高速光扫描显示装置

Also Published As

Publication number Publication date
US20190149800A1 (en) 2019-05-16
US10225541B2 (en) 2019-03-05
US20180027225A1 (en) 2018-01-25
US10506212B2 (en) 2019-12-10
CN107643603A (zh) 2018-01-30
CN113050293B (zh) 2023-02-17
CN113050293A (zh) 2021-06-29

Similar Documents

Publication Publication Date Title
CN107643603B (zh) 立体显示装置及控制方法
JP6677385B2 (ja) 立体表示装置及び視差画像補正方法
JP5170254B2 (ja) 表示装置、端末装置および表示方法
JP4274154B2 (ja) 立体表示装置
JP3387624B2 (ja) 立体ディスプレイ装置
EP0637815A2 (en) Image processing method and image processing apparatus
JP4268399B2 (ja) 画像表示装置
US6788274B2 (en) Apparatus and method for displaying stereoscopic images
CN111856775A (zh) 显示设备
KR20100002094A (ko) 영상 입체적 인식장치
JP2024045434A (ja) 表示装置
JP2006525534A (ja) 立体視ディスプレー
JP4819114B2 (ja) 立体画像表示装置
JP2006030507A (ja) 三次元空間画像表示装置及び三次元空間画像表示方法
JP7038981B2 (ja) 立体表示装置及び制御方法
US20190273915A1 (en) Linearly actuated display
JP2008541165A (ja) フラットパネルディスプレイを利用した3次元映像表示装置
JP2017187707A (ja) 3次元像表示装置及び3次元像表示方法
JP2003107601A (ja) 立体画像撮影装置および立体画像撮影方法
US20180192030A1 (en) 4-D Video Of An Object Using A Microscope
KR20050076946A (ko) 입체영상 표시장치 및 방법
JPH08314034A (ja) 立体画像表示方法及び装置
JP2001320736A (ja) 全周立体カメラ
JP2010164857A (ja) 立体画像撮影装置
JP6107009B2 (ja) スクリーン及び画像表示システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20191120

Address after: 1918 Tianma Building, Liuxian Avenue, Beizhan community, Minzhi street, Longhua District, Shenzhen City, Guangdong Province

Applicant after: Tianma Microelectronics Co., Ltd.

Address before: Kanagawa Prefecture, Japan

Applicant before: Tianma Japan Corporation

GR01 Patent grant
GR01 Patent grant