CN115462067A - 眼间距离测量方法以及校正方法 - Google Patents

眼间距离测量方法以及校正方法 Download PDF

Info

Publication number
CN115462067A
CN115462067A CN202180031463.2A CN202180031463A CN115462067A CN 115462067 A CN115462067 A CN 115462067A CN 202180031463 A CN202180031463 A CN 202180031463A CN 115462067 A CN115462067 A CN 115462067A
Authority
CN
China
Prior art keywords
eye
image
user
sub
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180031463.2A
Other languages
English (en)
Inventor
草深薰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020079551A external-priority patent/JP7475191B2/ja
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of CN115462067A publication Critical patent/CN115462067A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/32Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers characterised by the geometry of the parallax barriers, e.g. staggered barriers, slanted parallax arrays or parallax arrays of varying shape or size
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

眼间距离测量方法由三维显示装置执行。三维显示装置具备显示部、屏障部、检测部和控制部。显示部构成为显示视差图像。屏障部构成为给利用者的眼睛带来视差。检测部构成为检测利用者的脸的位置。眼间距离测量方法包含显示步骤、第1检测步骤、第2检测步骤和算出步骤。显示步骤构成为在显示部显示眼间距离测量用的图像。第1检测步骤构成为根据利用者做出的指示来检测利用者的脸的第1位置。第2检测步骤构成为根据利用者做出的指示来检测利用者的脸的第2位置。算出步骤构成为基于第1位置和所述第2位置来算出利用者的眼间距离。

Description

眼间距离测量方法以及校正方法
技术领域
本公开涉及眼间距离测量方法,特别涉及三维显示装置所执行的眼间距离测量方法以及三维显示装置的校正方法。
背景技术
现有技术的一例记载于专利文献1。
在先技术文献
专利文献
专利文献1:JP特开2001-166259号公报
发明内容
本公开的眼间距离测量方法是三维显示装置所执行的眼间距离测量方法,包含显示步骤、第1检测步骤、第2检测步骤和算出步骤。所述三维显示装置具备显示部、屏障部、检测部和控制部。所述显示部构成为显示经由光学系统而对利用者的第1眼以及第2眼投影的视差图像。所述屏障部构成为通过规定所述视差图像的图像光的行进方向,来给所述第1眼以及所述第2眼带来视差。所述检测部构成为检测所述利用者的脸的位置。所述显示步骤在所述显示部的基于眼间距离的标准值而决定的可视区域显示眼间距离测量用的图像。所述第1检测步骤根据所述利用者做出的基于所述第1眼所视觉辨认的图像的指示,检测所述利用者的脸的第1位置。所述第2检测步骤根据所述利用者做出的基于所述第2眼所视觉辨认的图像的指示,检测所述利用者的脸的第2位置。所述算出步骤基于所述第1位置和所述第2位置,修正所述标准值,算出所述利用者的眼间距离。
本公开的校正方法是三维显示装置所执行的校正方法,包含显示步骤、第1检测步骤、第2检测步骤、算出步骤和校正步骤。所述三维显示装置具备显示部、屏障部、检测部和控制部。所述显示部构成为显示经由光学系统而对利用者的第1眼以及第2眼投影的视差图像。所述屏障部构成为通过规定所述视差图像的图像光的行进方向,来给所述第1眼以及所述第2眼带来视差。所述检测部构成为检测所述利用者的脸的位置。所述显示步骤在所述显示部的基于眼间距离的标准值而决定的可视区域显示眼间距离测量用的图像。所述第1检测步骤根据所述利用者做出的基于所述第1眼所视觉辨认的图像的指示,检测所述利用者的脸的第1位置。所述第2检测步骤根据所述利用者做出的基于所述第2眼所视觉辨认的图像的指示,检测所述利用者的脸的第2位置。所述算出步骤基于所述第1位置和所述第2位置,修正所述标准值,算出所述利用者的眼间距离。所述校正步骤基于所述利用者的眼间距离来校正所述显示部。
附图说明
本公开的目的、特色以及优点根据下述的详细说明和附图而变得更加明确。
图1是表示搭载了包含三维显示装置的平视显示器的移动体的示例的图。
图2是表示从铅垂方向来看三维显示装置的示例的图。
图3是表示从纵深方向来看图1所示的显示部的示例的图。
图4是表示从纵深方向来看图1所示的屏障部的示例的图。
图5是用于说明图1所示的显示部中的左可视区域的图。
图6是用于说明图1所示的显示部中的右可视区域的图。
图7是用于说明图1所示的三维显示装置中的双眼可视区域的图。
图8是说明本实施方式的眼间距离测量方法的流程图。
图9是用于说明本实施方式的眼间距离测量方法的图。
图10是说明本实施方式的校正方法的流程图。
图11是用于详细说明与右眼的位置相应的显示部上的右可视区域的图。
图12是用于说明用于识别左眼的位置以及右眼的位置的信息的图。
图13是示出眼间距离为标准值的情况下的表示左眼以及右眼的位置与使各子像素显示的图像的对应的图像表格的示例的图。
图14是示出表示左眼的位置以及右眼的位置与双眼可视区域的对应的重叠表格的示例的图。
图15是说明本实施方式的校正方法中的校正步骤的流程图。
具体实施方式
作为成为本公开的三维显示装置的基础的三维显示装置,已知如下的三维显示装置:为了不使用眼镜地进行三维显示,具备光学元件,其使从显示面板射出的光的一部分到达利用者的右眼,使从显示面板射出的光的另一部分到达利用者的左眼。
以下参考附图来详细说明本公开的实施方式。另外,以下的说明中所用的附图是示意性的。图面上的尺寸比率等与现实不一定一致。
本公开的一实施方式所涉及的眼间距离测量方法能通过三维显示装置1来执行。三维显示装置1可以如图1所示那样搭载于移动体10。
本公开中的“移动体”包含车辆、船舶以及航空器。本公开中的“车辆”包含汽车以及产业车辆,但并不限于此,可以包含铁道车辆、生活车辆以及在跑道行驶的固定翼机。汽车可以包含乘用车、卡车、巴士、二轮车以及无轨电车等。汽车可以包含在道路上行驶的其他车辆。产业车辆可以包含面向农业的产业车辆以及面向建设的产业车辆。产业车辆可以包含叉车以及高尔夫车。面向农业的产业车辆可以包含拖拉机、耕耘机、移栽机、捆扎机、联合收割机以及芝割草机。面向建设的产业车辆可以包含推土机、铲土机、铲车、起重车、翻斗车以及压路机。车辆可以包含凭借人力行驶的车辆。车辆的分类并不限于上述。例如,汽车可以包含能在道路上行驶的产业车辆。可以在多个量类中包含相同车辆。本公开中的“船舶”可以包含海上喷射器、小船以及油轮。本公开中的“航空器”可以包含固定翼机以及旋翼机。
在本说明书中,以移动体10是车辆、特别是乘用车的情况为例来进行说明。移动体10并不限于乘用车,可以是以上列举的车辆、船舶以及航空器的任一者。
三维显示装置1如图1所示那样,能搭载于平视显示器(HUD:Head Up Display)100。HUD100具备三维显示装置1、光学系统110和被投影构件120。HUD100构成为使用光学系统110使从三维显示装置1射出的图像光到达被投影构件120。被投影构件120可以是移动体10的挡风玻璃。HUD100构成为使在被投影构件120反射的图像光到达利用者的眼睛11。HUD100构成为沿着以虚线示出的光路130使图像光从三维显示装置1行进至利用者的眼睛11。利用者能将沿着光路130到达的图像光视觉辨认为虚像140。
三维显示装置1如图2所示那样,包含显示部2、屏障部3、检测部4和控制部5而构成。显示部2可以称作显示面板。屏障部3可以称作视差屏障。三维显示装置1可以包含取得部6、照射器7和存储器8而构成。
三维显示装置1可以包含接受利用者的操作的输入部而构成。利用者的操作可以包含利用者对三维显示装置1进行的各种指示。利用者能通过操作输入部进行对三维显示装置1的指示。输入部例如可以由操作按钮、触控面板等构成。输入部例如包含麦克风以及扬声器等声音输入输出接口,构成为接受基于声音的指示。
检测部4能检测利用者的脸的位置。检测部4能将检测到的脸的位置发送到控制部5。检测部4的位置在移动体10的内部以及外部是任意的。检测部4能位于移动体10的仪表板内。检测部4例如可以经由有线、无线以及CAN(Controller Area Network,控制器区域网络)等将表示检测到的脸的位置的信息向控制部5输出。
检测部4可以具备摄像机。摄像机例如可以包含CCD(Charge Coupled Device,电荷耦合器件)摄像元件或CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)摄像元件。检测部4可以是单眼摄像机或立体摄像机。检测部4可以用摄像机拍摄利用者的脸。检测部4可以不拍摄利用者的脸整体。检测部4可以拍摄能确定利用者的头部的位置的、利用者的脸中所含的特征点。特征点可以包含利用者的眉毛、眼睛、鼻子、嘴唇等。
检测部4可以不具备摄像机,而是与装置外的摄像机连接。检测部4可以具备输入来自装置外的摄像机的信号的输入端子。装置外的摄像机可以与输入端子直接连接。装置外的摄像机可以经由共享的网络而与输入端子间接地连接。不具备摄像机的检测部4可以具备摄像机输入影像信号的输入端子。不具备摄像机的检测部4可以基于输入到输入端子的影像信号来检测利用者的脸的位置。
检测部4例如可以具备传感器。传感器可以是超声波传感器或光传感器等。检测部4可以通过传感器来检测利用者的脸的位置。
三维显示装置1可以不具备检测部4。在该情况下,三维显示装置1可以具备输入来自装置外的检测装置的信号的输入端子。装置外的检测装置可以与输入端子连接。装置外的检测装置可以使用电信号以及光信号作为对输入端子的传输送号。装置外的检测装置可以经由共享的网络而与输入端子间接地连接。可以对三维显示装置1输入从装置外的检测装置取得的表示利用者的脸的位置的位置坐标。
取得部6构成为取得由检测部4检测到的利用者的脸的位置。
照射器7能面照射显示面板2。照射器7可以包含光源、导光板、扩散板、扩散片等来构成。照射器7构成为通过光源射出照射光,通过导光板、扩散板、扩散片等将照射光在显示面板2的面方向上均匀化。照射器7能将均匀化的光向显示面板2出射。
显示面板2构成为对利用者的右眼以及左眼显示经由光学系统110投影的视差图像。显示面板2例如能采用透射型的液晶显示面板等显示面板。光学系统110构成为使从显示面板2射出的图像光到达利用者的眼睛。三维显示装置1可以包含光学系统110而构成。光学系统110可以包含1个或多个反射镜而构成。光学系统110可以包含移动体10的挡风玻璃而构成。光学系统的位置在移动体10的内部以及外部是任意的。如图2所示那样,显示面板2在面状地形成的有源区域21上具有多个划分区域。有源区域21构成为显示混合图像。混合图像包含后述的左眼图像和相对于左眼图像有视差的右眼图像。混合图像包含后述的第3图像。划分区域是通过格子状的黑矩阵22在第1方向以及与第1方向正交的第2方向上划分出的区域。与第1方向以及第2方向正交的方向称作第3方向。第1方向可以称作水平方向。第2方向可以称作铅垂方向。第3方向可以称作纵深方向。但第1方向、第2方向以及第3方向分别并不限于此。在附图中,第1方向表征为x轴方向,第2方向表征为y轴方向,第3方向表征为z轴方向。
1个子像素与各个划分区域对应。因此,有源区域21具备沿着水平方向以及铅垂方向格子状地排列的多个子像素。
各子像素与R(Red,红)、G(Green,绿)、B(Blue,蓝)的任一颜色对应,能以R、G、B的3个子像素为一组来构成1像素。1像素能称作1像素点。水平方向例如是构成1像素的多个子像素所并排的方向。铅垂方向例如是相同颜色的子像素所并排的方向。作为显示面板2,并不限于透射型的液晶面板,能使用有机EL等其他显示面板。在作为显示面板2而使用自发光型的显示面板的情况下,三维显示装置1可以不具备照射器7。
如上述那样,在有源区域21排列的多个子像素构成子像素组Pg。子像素组Pg在水平方向上重复并排。在铅垂方向上,子像素组Pg在水平方向上错开1子像素的量的位置相邻重复并排。子像素组Pg包含给定的行以及列的子像素。具体地,子像素组Pg包含在铅垂方向连续排列b个(b行)、在水平方向上连续排列2×n个(n列)的(2×n×b)个子像素P1~P(2×n×b)。在图3所示的示例中是n=6、b==1。在有源区域21并排多个子像素组Pg。子像素组Pg包含在铅垂方向上并排1个、在水平方向上连续并排12个的12个子像素P1~P12。在图3所示的示例中,对一部分子像素组Pg标注符号。
子像素组Pg能设为后述的控制部5进行用于显示图像的控制的最小单位。全部子像素组Pg的具有相同识别信息的子像素P1~P(2×n×b)被控制部5同时或同时期地依次控制。例如,控制部5构成为在将使子像素P1显示的图像从左眼图像切换成右眼图像的情况下,将使全部子像素组Pg中的子像素P1显示的图像从左眼图像同时切换成右眼图像。例如,控制部5构成为在将使子像素P1显示的图像从左眼图像切换成右眼图像的情况下,在对使子像素组Pg中的子像素P1显示的图像进行处理时,在这以后的切换中,依次从左眼图像切换成右眼图像。
视差屏障3如图2所示那样,是沿着有源区域21的平面,从有源区域21离开给定距离(间隙)g。视差屏障3可以相对于显示面板2位于照射器7的相反侧。视差屏障3可以位于显示面板2的照射器7侧。
视差屏障3如图4所示那样,按每个在面内的给定方向上伸长的多个带状区域的透光区域32规定从子像素射出的图像光的传播方向即光线方向。给定方向是与铅垂方向成不是0度的给定角度的方向。如图2所示那样,通过视差屏障3规定从在有源区域21中排列的子像素射出的图像光,来确定利用者的眼睛能视觉辨认的有源区域21上的区域。以后,将射出传播到利用者的眼睛的位置的图像光的有源区域21内的区域称作可视区域21a。射出传播到利用者的左眼的位置的图像光的有源区域21内的区域称作左可视区域21aL(第1可视区域)。射出传播到利用者的右眼的位置的图像光的有源区域21内的区域称作右可视区域21aR(第2可视区域)。
具体地,如图4所示那样,视差屏障3构成为具有将图像光遮光的多个遮光面31。多个遮光面31构成为划定相互相邻的该遮光面31之间的透光区域32。透光区域32与遮光面31相比光透射率更高。遮光面31与透光区域32相比光透射率更低。
透光区域32是使入射到视差屏障3的光透射的部分。透光区域32可以以第1给定值以上的透射率使光透射。第1给定值例如可以是大致100%,可以是小于100%的值。只要是能良好地视觉辨认从有源区域21射出的图像光的范围,第1给定值就能设为100%以下的值、例如80%或50%等。遮光面31是遮挡入射到视差屏障3的光并几乎不使其透射的部分。换言之,遮光面31遮挡显示于显示面板2的有源区域21的图像到达利用者的眼睛11。遮光面31可以以第2给定值以下的透射率遮挡光。第2给定值可以是大致0%,可以比0%大,例如0.5%、1%或3%等接近于0%的值。第1给定值能设为比第2给定值大数倍以上、例如大10倍以上的值。
透光区域32和遮光面31在沿着有源区域21的给定方向上延伸,在与给定方向正交的方向上重复交替排列。透光区域32构成为规定从子像素射出的图像光的光线方向。
如图2所示那样,规定透光区域32的水平方向上的配置间隔即屏障间距Bp、有源区域21与视差屏障3之间的间隙g,以使得利用了适视距离d以及眼间距离E的标准值(标准距离)E0的如下的式(1)以及式(2)成立。
E0:d=(n×Hp):g 式(1)
d:Bp=(d+g):(2×n×Hp) 式(2)
适视距离d是可视区域21a的水平方向的长度成为子像素n个量那样的利用者的右眼11R以及左眼11L各自与视差屏障3之间的距离。穿过右眼11R和左眼11L的直线的方向(眼间方向)是水平方向。眼间距离E的标准值E0是利用者的眼间距离E的标准。标准值E0例如可以是通过产业技术综合研究所的研究算出的值即61.1mm~64.4mm。Hp是图3所示那样的子像素的水平方向的长度。
视差屏障3可以由具有小于第2给定值的透射率的膜或板状构件构成。在该情况下,遮光面31由该膜或板状构件构成。透光区域32由设于膜或板状构件的开口构成。膜可以由树脂构成,可以由其他材料构成。板状构件可以由树脂或金属等构成,也可以由其他材料构成。视差屏障3并不限于膜或板状构件,可以由其他种类的构件构成。视差屏障3的基材可以具有遮光性,也可以在基材中含有具有遮光性的添加物。
视差屏障3可以由液晶快门构成。液晶快门能根据所施加的电压来控制光的透射率。液晶快门可以由多个像素点构成,控制各像素点中的光的透射率。液晶快门能将光的透射率高的区域或光的透射率低的区域形成为任意的形状。在视差屏障3由液晶快门构成的情况下,透光区域32可以设为具有第1给定值以上的透射率的区域。在视差屏障3由液晶快门构成的情况下,遮光面31可以设为具有第2给定值以下的透射率的区域。
通过如此来构成,视差屏障3构成为使从有源区域21的一部分子像素出射的图像光通过透光区域32并传播到利用者的右眼11R。视差屏障3构成为使从另一部分子像素出射的图像光通过透光区域32并传播到利用者的左眼11L。参考图5以及图6来详细说明通过图像光分别传播到利用者的右眼11R以及左眼11L来被利用者的眼睛11视觉辨认的图像。
图5所示的左可视区域21aL如上述那样,是通过透射视差屏障3的透光区域32的图像光到达利用者的左眼11L从而利用者的左眼11L视觉辨认的有源区域21上的区域。左不可视区域21bL是通过被视差屏障3的遮光面31遮挡图像光从而利用者的左眼11L不能视觉辨认的区域。在左可视区域21aL中包含子像素P1的一半、子像素P2~P6的整体和子像素P7的一半。
图6所示的右可视区域21aR是通过透射视差屏障3的透光区域32的来自另一部分子像素的图像光到达利用者的右眼11R从而利用者的右眼11R视觉辨认的有源区域21上的区域。右不可视区域21bR是通过用视差屏障3的遮光面31遮挡图像光从而利用者的右眼11R不能视觉辨认的区域。在右可视区域21aR中包含子像素P7的一半、子像素P8~P12的整体和子像素P1的一半。
若在子像素P1~P6显示左眼图像,在子像素P7~P12显示右眼图像,则左眼11L以及右眼11R分别视觉辨认图像。右眼图像以及左眼图像是相互具有视差的视差图像。具体地,左眼11L视觉辨认显示于子像素P1的左眼图像的一半、显示于子像素P2~P6的左眼图像的整体和显示于子像素P7的右眼图像的一半。右眼11R视觉辨认显示于子像素P7的右眼图像的一半、显示于子像素P8~P12的右眼图像的整体和显示于子像素P1的左眼图像的一半。在图5以及图6中,对显示左眼图像的子像素标注符号“L”,对显示右眼图像的子像素标注符号“R”。
在该状态下,利用者的左眼11L所视觉辨认的左眼图像的区域成为最大,右眼图像的面积成为最小。利用者的右眼11R所视觉辨认的右眼图像的区域成为最大,左眼图像的面积成为最小。因此,利用者在串扰最减少的状态下视觉辨认三维图像。
在上述那样构成的三维显示装置1中,若相互具有视差的左眼图像和右眼图像显示于左可视区域21aL以及右可视区域21aR中分别所含的子像素,则眼间距离E为标准值E0的利用者就能合适地视觉辨认三维图像。在上述的结构中,在由左眼11L视觉辨认一半以上的子像素显示左眼图像,在由右眼11R视觉辨认一半以上的子像素显示右眼图像。并不限于此,使左眼图像以及右眼图像显示的子像素可以根据有源区域21、视差屏障3等的设计,基于左可视区域21aL以及右可视区域21aR来适宜判定,以使得串扰成为最小。例如,可以根据视差屏障3的开口率等,使由左眼11L视觉辨认给定比例以上的子像素显示左眼图像,使由右眼11R视觉辨认给定比例以上的子像素显示右眼图像。
控制部5能与三维显示装置1的各结构要素连接,控制各结构要素。由控制部5控制的结构要素包含检测部4以及显示面板2。控制部5例如构成为处理器。控制部5可以包含1个以上的处理器。处理器可以包含读入特定的程序来执行特定的功能的通用的处理器、以及对特定的处理特别强化的专用的处理器。专用的处理器可以包含面向特定用途IC(ASIC:Application Specific Integrated Circuit,特定用途集成电路)。处理器可以包含可编程逻辑器件(PLD:Programmable Logic Device)。PLD可以包含FPGA(Field-ProgrammableGate Array,现场可编程门阵列)。控制部5可以是1个处理器或多个处理器共同工作的SoC(System-on-a-Chip,片上系统)以及SiP(System In a Package,系统级封装)的任一者。控制部5可以具备存储部,在存储部中存放各种信息、或用于使三维显示装置1的各结构要素动作的程序等。存储部例如可以由半导体存储器等构成。存储部可以作为控制部5的工作存储器发挥功能。
存储器8例如由RAM(Random Access Memory,随机存取存储器)以及ROM(ReadOnly Memory,只读存储器)等任意的存储器件构成。存储器8存储随后详细说明的第1表格、第2表格以及第3表格的1者以上。存储器8存储随后详细说明的第4表格、第5表格以及第6表格的1者以上。
接下来,说明三维显示装置1所执行的眼间距离测量方法。
在利用者的眼间距离E是与标准值E0不同的眼间距离E1的情况下,如图7所示那样,存在左可视区域21aL的一部分和右可视区域21aR的一部分重叠的双眼可视区域21aLR。因此,存在如下那样的子像素:既是基于左可视区域21aL判定为应显示左眼图像的左子像素(第1子像素),又是基于右可视区域21aR判定为应显示右眼图像的右子像素(第2子像素)。左子像素例如是左可视区域21aL中包含给定比例(例如一半)以上的子像素。右子像素例如是右可视区域21aR中包含给定比例以上的子像素。
在这样的结构中,若在既是左子像素又是右像素的子像素显示右眼图像,则左眼11L所视觉辨认的右眼图像增加。若在既是左子像素又是右像素的子像素显示左眼图像,则右眼11R所视觉辨认的左眼图像增加。因此,有时不管在重叠的子像素显示左眼图像以及右眼图像的哪一者,串扰都会增加。因此,控制部5进行为了减少具有眼间距离E1的利用者视觉辨认基于标准值E0而构成的三维显示装置1时产生的串扰的控制。为了进行这样的控制,需要测量利用者的眼间距离E1。
《眼间距离E1的测量》
三维显示装置1所执行的眼间距离测量方法如图8所示那样,包含显示步骤、第1检测步骤、第2检测步骤和算出步骤。三维显示装置1例如可以在利用者使用输入部进行了用于开始眼间距离的测量的操作的情况下,开始眼间距离的测量。
<显示步骤>
控制部5首先决定第3方向上的追踪范围Δz。追踪范围例如可以是推定为利用者的右眼11R以及左眼11L所位于的沿着第3方向的范围。追踪范围Δz可以基于对移动体10设定的视野范围(eyellipse)来决定。右眼11R可以称作第1眼11R。左眼11L可以称作第2眼11L。
如图9所示那样,配合适视距离d以及眼间距离E的标准值E0,在显示面虚拟地设置与第1子像素对应的左点(dot)区域12L以及与第2子像素对应的右点区域12R。右点区域12R以及左点区域12L可以称作眼间距离E为标准值E0的利用者的第1眼11R以及第2眼11L处于适视距离d的情况下的、第1眼11R以及第2眼11L各自的位置。控制部5求取将眼间距离E维持在标准值E0不变地使第1眼11R以及第2眼11L与视差屏障3之间的距离在追踪范围Δz内变化时的、图像光能入射到第1眼11R以及第2眼11L的显示面板2上的最小范围(可视区域)21aRmin、21aLmin。控制部5在与求得的最小范围对应的第1子像素以及第2子像素显示眼间距离测量用的图像。眼间距离测量用的图像例如可以由第1图像和第2图像构成。控制部5可以交替切换显示第1图像以及第2图像。第1图像以及第2图像例如可以是时间上连续的2个图像。第1图像以及第2图像可以相互具有差分。第1图像与第2图像的差分可以是利用者能视觉辨认的程度的差分。控制部5可以控制成每隔0.1秒~0.5秒切换第1图像和第2图像。
<第1检测步骤>
在第1检测步骤,三维显示装置1根据利用者做出的基于第1眼11R所视觉辨认的图像的指示,来检测利用者的脸的第1位置x1。利用者能使用三维显示装置1所具备的输入部来进行针对三维显示装置1的指示。第1位置x1能由检测部4检测。利用者做出的基于第1眼11R所视觉辨认的图像的指示可以是在第1图像与第2图像的差分成为最小时进行的指示。由此,能确定第1眼11R和右点区域12R在光线方向上重叠时的、第1方向(x轴方向)上的利用者的头部的位置。
在第1检测步骤,三维显示装置1可以对利用者提示促使仅使用第1眼11R来视觉辨认图像的指导。三维显示装置1可以对利用者提示促使在第1眼11R所视觉辨认的第1图像与第2图像的差分成为最小时操作输入部的指导。对利用者的指导可以是基于声音的指导,可以是基于图像的指导。
<第2检测步骤>
三维显示装置1在执行第1检测步骤后执行第2检测步骤。在第2检测步骤,三维显示装置1根据利用者做出的基于第2眼11L所视觉辨认的图像的指示,来检测利用者的脸的第2位置x2。利用者能使用三维显示装置1所具备的输入部来进行对三维显示装置1的指示。第2位置x2能由检测部4检测。利用者做出的基于第2眼11L所视觉辨认的图像的指示可以是第1图像与第2图像的差分成为最小时进行的指示。由此,能确定第2眼11L和左点区域12L在光线方向上重叠时的、第1方向(x轴方向)上的利用者的头部的位置。
在利用者的眼间距离E1与标准值E0不同的情况下,利用者为了使第2眼11L所视觉辨认的第1图像与第2图像的差分最小,需要使头部在第1方向上移动。因此,第2位置x2可以与第1位置x1不同。
三维显示装置1可以对利用者提示促使仅使用第2眼11L来视觉辨认图像的指导。三维显示装置1可以对利用者提示促使头部在第1方向上移动的同时视觉辨认图像的指导。三维显示装置1可以对利用者提示促使在第2眼11L所视觉辨认的第1图像与第2图像的差分成为最小时操作输入部的指导。对利用者的指导可以是基于声音的指导,可以是基于图像的指导。
<算出步骤>
在算出步骤,三维显示装置1基于第1位置x1和第2位置x2,来算出利用者的眼间距离E1。为此,首先,基于第1位置x1和第2位置x2,来算出第1方向上的利用者的头部的移动距离Δx。移动距离Δx可以是从第2位置x2的x坐标减去第1位置x1的x坐标的值。利用者的眼间距离E1能如图9所示那样,通过从标准距离E0减去移动距离Δx来得到。在算出移动距离Δx时,可以适宜设定利用者的头部与显示面板2的距离。
如此地,能测量利用者的眼间距离E1。能基于测量的眼间距离E1使利用者合适地视觉辨认三维图像。根据本实施方式的眼间距离测量方法,检测部4所具备的摄像机可以不是立体摄像机,而是单眼摄像机。由此,能使用简易的结构的检测部4来测量利用者的眼间距离E1。
接下来,说明三维显示装置1所执行的校正方法。
《显示面板的校正》
三维显示装置1所执行的校正方法如图10所示那样,包含显示步骤、第1检测步骤、第2检测步骤、算出步骤和校正步骤。校正步骤是基于利用者的眼间距离E1来校正显示面板2的步骤。三维显示装置1例如可以在利用者使用输入部进行了用于开始眼间距离的测量的操作的情况下,开始校正。
三维显示装置1所执行的校正方法中的显示步骤、第1检测步骤、第2检测步骤以及算出步骤可以与上述的显示步骤、第1检测步骤、第2检测步骤以及算出步骤分别同样。
<第3子像素的判定>
控制部5构成为基于利用者的眼睛的水平方向的位置来判定第3子像素。第3子像素既是左可视区域21aL中包含给定比例以上的左子像素,又是右可视区域21aR中包含给定比例以上的右子像素。以下说明第3子像素的判定方法的示例。
(第1例)
可以若检测部4检测到左眼(右眼)的位置,则控制部5基于左眼(右眼)的位置、间隙g、适视距离d以及透光区域32的位置进行运算,由此判定右可视区域21aR。
例如,如图11所示那样,在右眼位于以“10”示出的位置的情况下,控制部5构成为基于间隙g、适视距离d以及透光区域32的位置进行运算,由此判定为右可视区域21aR是右可视区域21aR10。控制部5构成为判定右可视区域21aR10中包含给定比例以上的右子像素。在图11所示的示例中,控制部5可以将子像素P1~P6判定为右子像素。控制部5可以基于右可视区域21aR,用右眼所视觉辨认的右眼图像成为最大这样的任意的方法,来判定右子像素。
在右眼位于以“9”示出的位置的情况下,控制部5构成为基于间隙g、适视距离d以及透光区域32的位置进行运算,由此判定为右可视区域21aR是右可视区域21aR9。控制部5构成为判定右可视区域21aR9中包含给定比例以上的右子像素。在图11所示的示例中,控制部5将子像素P12以及P1~P5判定为右子像素。
如上述那样,屏障间距Bp、间隙g以及适视距离d预先构成为在眼间距离E为标准值E0的情况下左可视区域21aL和右可视区域21aR不重叠。因此,在成为本公开的基础的结构中,控制部5例如仅取得右眼的位置,基于左眼的位置来判定右可视区域21aR,将不是右可视区域21aR的区域判定为左可视区域21aL。在本实施方式中,控制部5构成为基于由检测部4检测到的利用者的左眼的位置、和屏障开口区域的位置、间隙g以及适视距离d进行运算,由此判定左可视区域21aL。控制部5可以基于左可视区域21aL来判定应使右眼图像显示的右子像素。控制部5基于左可视区域21aL判定左子像素的方法与基于右可视区域21aR判定右子像素的方法相同。
控制部5构成为若判定左子像素以及右子像素,则判定既是左子像素又是右子像素的第3子像素。
(第2例)
控制部5可以使用预先存储于存储器8的第1表格来判定第3子像素。在本例的说明中,如图12所示那样,右眼以及左眼的水平方向上的位置分别以信息0~11识别。眼间距离为标准值的情况下的识别右眼的位置的信息和识别左眼的位置的信息被相同地标注。
如图13所示那样,在第1表格中,将眼间距离E为标准值E0的情况下的左眼以及右眼的位置、和分别在左可视区域21aL以及右可视区域21aR中包含给定比例以上的左子像素以及右子像素对应地进行存储。在图13所示的示例中,在列方向上示出识别眼睛的位置的信息0~11,在行方向上示出识别子像素的信息P1~P12。在第1表格中,示出在眼睛位于各位置时,各子像素是左子像素还是右子像素。在图13中,在左子像素示出“左”,在右子像素示出“右”。如参考图12说明的那样,在眼间距离为标准值时,在左眼位于以“0”示出的位置的情况下,右眼位于以“0”示出的位置。在该情况下,在图13所示的示例中,示出子像素P1~P6是左子像素,子像素P7~P12是右子像素。在左眼位于以“1”示出的位置的情况下,右眼位于以“1”示出的位置。在该情况下,示出子像素P2~P7是左子像素,P1、以及P8~P12是右子像素。
在眼间距离E不是标准值E0的情况下,若基于右眼的位置并按照图13的第1表格来使图像显示,在应对左眼显示左眼图像的子像素显示右图像。具体地,在左眼位于以“11”示出的位置且右眼位于以“0”示出的位置的情况下,控制部5构成为基于右眼的位置“0”来使子像素P1~P6显示左眼图像,使子像素P7~P12显示右眼图像。在该情况下,如第1表格所示那样,基于左眼的位置“11”,应在子像素P1~P5以及P12显示左眼图像。因此,若基于右眼的位置在各子像素显示图像,则利用者视觉辨认显示于子像素P12的右眼图像。因此,由于左眼所视觉辨认的右眼图像的增加而串扰增加。
因此,控制部5构成为将既是基于右眼的位置的右可视区域21aR中包含给定比例以上的右子像素、又是基于左眼的位置的左可视区域21aL中包含给定比例以上的左子像素的子像素判定为第3子像素。
例如,在由检测部4检测为右眼位于以“0”示出的位置的情况下,控制部5构成为使用第1表格,基于右眼的位置“0”,将子像素P7~P12判定为右子像素。这时,在检测到左眼位于以“11”示出的位置的情况下,控制部5构成为使用第1表格,基于左眼的位置,将子像素P1~P5以及P12判定为左子像素。因此,控制部5判定为第3子像素是子像素P12。
(第3例)
控制部5可以使用预先存储于存储器8的表示右眼的位置以及左眼的位置与第3子像素的对应的第2表格,来判定第3子像素。
如上述那样,能基于左眼的位置以及右眼的位置来判定左可视区域21aL以及右可视区域21aR。并且,能基于左可视区域21aL以及右可视区域21aR来分别判定左子像素以及右子像素。进而,能基于左子像素以及右子像素来判定第3子像素。因此,能如图14所示那样,在第2表格中,与左眼的位置以及右眼的位置对应地存储第3子像素。
控制部5构成为将与左眼的位置以及右眼的位置对应地存储于第2表格的子像素判定为第3子像素。在图14所示的示例中,在行方向上示出作为识别左眼的位置的信息的0~11,在列方向上示出作为识别右眼的位置的信息的0~11。并且,与识别左眼的位置的信息以及识别右眼的位置的信息对应地存储表示成为第3子像素的子像素的信息。
控制部5例如构成为由检测部4检测为左眼位于以“11”示出的位置且右眼位于以“0”示出的位置。在该情况下,控制部5构成为将第2表格中与左眼的位置“11”以及右眼的位置“0”对应的子像素P6判定为是第3子像素。
<第4子像素的判定>
控制部5构成为基于利用者的眼睛的位置来判定第4子像素。第4子像素是并非左子像素且并非右子像素的子像素。例如,控制部5可以如上述的第1例或第2例那样分别判定左子像素以及右子像素。控制部5可以将既非左子像素也非右子像素的子像素判定为第4子像素。
如上述那样,能基于左眼的位置以及右眼的位置来判定左可视区域21aL以及右可视区域21aR。能基于左可视区域21aL以及右可视区域21aR来分别判定左子像素以及右子像素。能基于左子像素以及右子像素来判定第4子像素。因此,在存储器8中与右眼的位置以及左眼的位置对应地存储表示第4子像素的第3表格。如此地,在存储器8中存储有第3表格的结构中,控制部5可以将与左眼的位置以及右眼的位置对应地存储于第3表格的子像素判定为第4子像素。
<图像的显示>
接着,控制部5构成为在是左子像素且不是右子像素的子像素显示左眼图像。控制部5构成为在是右子像素且不是左子像素的子像素显示右眼图像。控制部5构成为在第3子像素显示第3图像。
控制部5可以在第3子像素例如显示黑图像,作为第3图像。黑图像例如是黑色那样的具有给定亮度的图像。给定亮度能设为子像素能显示的灰度等级当中最低的灰度的亮度、或与遵循其的灰度的亮度对应的值。控制部5可以在第3子像素显示黑图像。
控制部5可以在第3子像素例如基于利用者的特性显示左眼图像以及右眼图像的任一者的图像,作为第3图像。利用者的特性例如是与利用者的惯用眼相关的特性。具体地,控制部5可以基于预先设定或从外部输入的表示利用者的惯用眼的信息,来显示与惯用眼对应的左眼图像以及右眼图像的任一者的图像。控制部5可以在利用者的惯用眼是左眼的情况下,显示左眼图像作为作为第3图像,在利用者的惯用眼是右眼的情况下,显示右眼图像作为第3图像。
控制部5可以在第3子像素显示具有成为左眼图像以及右眼图像的亮度值的平均值的亮度值的平均图像,作为第3图像。
接下来,参考图15来说明在眼间距离E不是标准值E0的情况下由三维显示装置1进行的处理的一例。
控制部5从检测部4取得表示利用者的左眼以及右眼的位置的信息(步骤S1)。
若步骤S1中取得表示左眼的位置的信息,控制部5就基于左眼的位置来判定左可视区域21aL,基于左可视区域21aL来判定左子像素(步骤S2)。
若步骤S2中判定了左可视区域21aL,控制部5就基于步骤S1中取得的信息所表示的右眼的位置来判定右可视区域21aR,基于右可视区域21aR来判定右子像素(步骤S3)。
若步骤S2以及步骤S3中分别判定了左子像素以及右子像素,控制部5就基于左子像素以及右子像素来判定第3子像素(步骤S4)。控制部5也可以基于表示步骤S1中取得的右眼以及左眼的位置的信息来判定第3子像素。
若步骤S4中判定了第3子像素,控制部5就基于左子像素以及右子像素来判定第4子像素(步骤S5)。控制部5也可以基于表示步骤S1中取得的右眼以及左眼的位置的信息来判定第4子像素。
若步骤S5中判定了第4子像素,控制部5就在是左子像素且不是右子像素的子像素显示左眼图像(步骤S6)。
若步骤S6中判定了左眼图像,控制部5就在是右子像素且不是左子像素的子像素显示右眼图像(步骤S7)。
若步骤S7中显示了右眼图像,控制部5就在第3子像素显示第3图像(步骤S8)。
若步骤S8中在第3子像素显示了第3图像,控制部5就在第4子像素显示黑图像(步骤S9)。
如以上说明的那样,在本实施方式中,控制部5构成为基于利用者的眼间距离E1(即利用者的右眼11R的位置以及左眼11L的位置)来判定左可视区域21aL以及右可视区域21aR。因此,即使是眼间距离E并非标准距离E0的情况,也能正确地判定右眼11R以及左眼11L分别所视觉辨认的区域。
在本实施方式中,控制部5构成为基于左可视区域21aL以及右可视区域21aR来分别判定左子像素以及右子像素。控制部5构成为在是左子像素且不是右子像素的子像素显示左眼图像,在是右子像素且不是左子像素的子像素显示右眼图像。控制部5构成为在第3子像素显示第3图像。因此,在眼间距离E并非标准距离E0的情况下,能控制利用者的眼睛11所视觉辨认的图像,以使得串扰减少,利用者能合适地视觉辨认三维图像。
在本实施方式中,控制部5能使用示出右眼11R的位置以及距右眼11R位于标准距离E0的情况的左眼11L的位置、与应使子像素显示的图像的对应的第1表格,来基于右眼的位置判定右子像素。控制部5能使用第1表格,来基于左眼的位置判定左子像素。因此,控制部5可以不是每当取得表示各眼的位置的信息,就进行基于各眼的位置、和视差屏障3以及显示面板2的结构来运算左可视区域21aL以及右可视区域21aR的处理。因此,能减轻控制部5的处理负荷。
在本实施方式中,控制部5能基于利用者的特性,将左眼图像或右眼图像作为第3图像显示在双眼可视区域21aLR。因此,例如,通过惯用眼仅视觉辨认与惯用眼对应的图像,能减少利用者的违和感。
在本实施方式中,控制部5能显示具有成为左眼图像以及右眼图像的亮度值的平均值的亮度值的图像,作为第3图像。因此,利用者的左眼视觉辨认具有与右眼图像相比更接近于左眼图像的亮度的亮度的图像。利用者的右眼视觉辨认具有与左眼图像相比更接近于右眼图像的亮度的亮度的图像。因此,与左眼视觉辨认右眼图像的情况、或右眼视觉辨认左眼图像的情况相比,能视觉辨认违和感少的图像。
在本实施方式中,控制部5能显示亮度值给定值以下的黑图像,作为第3图像。因此,不管利用者的左眼以及右眼的哪个眼睛,都能避免视觉辨认与不同的眼睛对应的图像。因此,能减少串扰。
在本实施方式中,三维显示装置1能具备存储示出左眼的位置以及右眼的位置与第3子像素的对应的第2表格的存储器8。控制部5能基于左眼的位置以及右眼的位置,来使用第2表格判定第3子像素。因此,控制部5也可以不是每当取得表示各眼的位置的信息,就基于各眼的位置和视差屏障3以及显示面板2的结构,来运算左可视区域21aL以及右可视区域21aR。控制部5也可以不进行基于左可视区域21aL以及右可视区域21aR分别判定左子像素以及右子像素的处理。因此,能减轻控制部5的处理负荷。
在本实施方式中,控制部5构成为在第4子像素显示黑图像。因此,不从第4子像素射出图像光。因此,能防止由于从第4子像素射出的图像光在构成视差屏障3的构件等二次反射而产生的杂散光到达利用者的眼睛。因此,利用者的左眼以及右眼不会由于杂散光而被干涉,能分别明确地视觉辨认左眼图像以及右眼图像。
本公开所涉及的结构并不仅限定于以上说明的实施方式,能进行许多变形或变更。例如,各结构部等中所含的功能等能再配置成逻辑上没有矛盾,能将多个结构部等组合成一个,或进行分割。
说明本公开所涉及的结构的图是示意性的。附图上的尺寸比率等不一定与现实一致。
本公开中“第1”以及“第2”等记载是用于区别该结构的识别符。本公开中的以“第1”以及“第2”等记载区别的结构能交换该结构中的编号。例如,第1眼能与第2眼交换作为识别符的“第1”和“第2”。识别符的交换同时进行。识别符的交换后也区别该结构。识别符可以删除。删除了识别符的结构不以符号区别。不得仅基于本公开中的“第1”以及“第2”等别符的记载来进行该结构的顺序的解释、利用在存在小的编号的识别符的根据中。
在本公开中,x轴、y轴以及z轴为了说明的方便而设,可以相互替换。本公开所涉及的结构使用由x轴、y轴以及z轴构成的正交坐标系进行了说明。本公开所涉及的各结构的位置关系并不限定于位于正交关系。
本公开能设为如下的实施方式。
本公开的眼间距离测量方法是三维显示装置所执行的眼间距离测量方法,包含显示步骤、第1检测步骤、第2检测步骤和算出步骤。所述三维显示装置具备显示部、屏障部、检测部和控制部。所述显示部构成为显示对利用者的第1眼以及第2眼经由光学系统投影的视差图像。所述屏障部构成为通过规定所述视差图像的图像光的行进方向,来给所述第1眼以及所述第2眼带来视差。所述检测部构成为检测所述利用者的脸的位置。所述显示步骤在所述显示部的基于眼间距离的标准值决定的可视区域显示眼间距离测量用的图像。所述第1检测步骤根据所述利用者做出的基于所述第1眼所视觉辨认的图像的指示,来检测所述利用者的脸的第1位置。所述第2检测步骤根据所述利用者做出的基于所述第2眼所视觉辨认的图像的指示,来检测所述利用者的脸的第2位置。所述算出步骤根据所述第1位置和所述第2位置来修正所述标准值,算出所述利用者的眼间距离。
本公开的校正方法是三维显示装置所执行的校正方法,包含显示步骤、第1检测步骤、第2检测步骤、算出步骤和校正步骤。所述三维显示装置具备显示部、屏障部、检测部和控制部。所述显示部构成为显示对利用者的第1眼以及第2眼经由光学系统投影的视差图像。所述屏障部构成为通过规定所述视差图像的图像光的行进方向,来给所述第1眼以及所述第2眼带来视差。所述检测部构成为检测所述利用者的脸的位置。所述显示步骤在所述显示部的基于眼间距离的标准值决定的可视区域显示眼间距离测量用的图像。所述第1检测步骤根据所述利用者做出的基于所述第1眼所视觉辨认的图像的指示,来检测所述利用者的脸的第1位置。所述第2检测步骤根据所述利用者做出的基于所述第2眼所视觉辨认的图像的指示,来检测所述利用者的脸的第2位置。所述算出步骤基于所述第1位置和所述第2位置来修正所述标准值,算出所述利用者的眼间距离。所述校正步骤基于所述利用者的眼间距离来校正所述显示部。
根据本公开的一实施方式,能使利用者合适地视觉辨认三维图像。
以上详细说明了本公开的实施方式,此外,本公开并不限定于上述的实施方式,能在不脱离本公开的要旨的范围内进行种种变更、改良等。能将分别构成上述各实施方式的全部或一部分适宜在不矛盾的范围组合,这点不言自明。
符号说明
1 三维显示装置
2 显示部(显示面板)
21 有源区域
21a 可视区域
21aL 左可视区域
21bL 左不可视区域
21aL9 右可视区域
21aLR 双眼可视区域
21aR 右可视区域
21aR10 右可视区域
22 黑矩阵
3 屏障部(视差屏障)
31 遮光面
32 透光区域
4 检测部
5 控制部
6 取得部
7 照射器
8 存储器
10 移动体
11 眼睛
11R 右眼(第1眼)
11L 左眼(第2眼)
12L 左点区域
12R 右点区域
100 平视显示器
110 光学系统
120 被投影构件
130 光路
140 虚像。

Claims (8)

1.一种眼间距离测量方法,由三维显示装置执行,所述三维显示装置具备:
显示部,构成为显示经由光学系统而对利用者的第1眼以及第2眼投影的视差图像;
屏障部,构成为通过规定所述视差图像的图像光的行进方向,来给所述第1眼以及所述第2眼带来视差;
检测部,构成为检测所述利用者的脸的位置;和
控制部,
所述眼间距离测量方法包含:
显示步骤,在所述显示部的基于眼间距离的标准值而决定的可视区域,显示眼间距离测量用的图像;
第1检测步骤,根据所述利用者做出的基于所述第1眼所视觉辨认的图像的指示,检测所述利用者的脸的第1位置;
第2检测步骤,根据所述利用者做出的基于所述第2眼所视觉辨认的图像的指示,检测所述利用者的脸的第2位置;和
算出步骤,基于所述第1位置和所述第2位置,修正所述标准值,算出所述利用者的眼间距离。
2.根据权利要求1所述的眼间距离测量方法,其中,
所述显示步骤中,在所述可视区域,交替切换显示相互具有差分的第1图像和第2图像。
3.根据权利要求2所述的眼间距离测量方法,其中,
基于所述第1眼所视觉辨认的图像的所述指示是在所述第1眼所视觉辨认的所述差分为最小时进行的指示。
4.根据权利要求2或3所述的眼间距离测量方法,其中,
基于所述第2眼所视觉辨认的图像的所述指示是在所述第2眼所视觉辨认的所述差分为最小时进行的指示。
5.一种校正方法,由三维显示装置执行,所述三维显示装置具备:
显示部,构成为显示经由光学系统而对利用者的第1眼以及第2眼投影的视差图像;
屏障部,构成为通过规定所述视差图像的图像光的行进方向,来给所述第1眼以及所述第2眼带来视差;
检测部,构成为检测所述利用者的脸的位置;和
控制部,
所述校正方法包含:
显示步骤,在所述显示部的基于眼间距离的标准值而决定的可视区域,显示眼间距离测量用的图像;
第1检测步骤,根据所述利用者做出的基于所述第1眼所视觉辨认的图像的指示,检测所述利用者的脸的第1位置;
第2检测步骤,根据所述利用者做出的基于所述第2眼所视觉辨认的图像的指示,检测所述利用者的脸的第2位置;
算出步骤,基于所述第1位置和所述第2位置,修正所述标准值,算出所述利用者的眼间距离;和
校正步骤,基于所述利用者的眼间距离来校正所述显示部。
6.根据权利要求5所述的校正方法,其中,
所述显示步骤中,在所述可视区域,交替切换显示相互具有差分的第1图像和第2图像。
7.根据权利要求6所述的校正方法,其中,
基于所述第1眼所视觉辨认的图像的所述指示是在所述第1眼所视觉辨认的所述差分为最小时进行的指示。
8.根据权利要求6或7所述的校正方法,其中,
基于所述第2眼所视觉辨认的图像的所述指示是在所述第2眼所视觉辨认的所述差分为最小时进行的指示。
CN202180031463.2A 2020-04-28 2021-04-15 眼间距离测量方法以及校正方法 Pending CN115462067A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020079551A JP7475191B2 (ja) 2020-04-28 眼間距離測定方法および較正方法
JP2020-079551 2020-04-28
PCT/JP2021/015623 WO2021220832A1 (ja) 2020-04-28 2021-04-15 眼間距離測定方法および較正方法

Publications (1)

Publication Number Publication Date
CN115462067A true CN115462067A (zh) 2022-12-09

Family

ID=78281716

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180031463.2A Pending CN115462067A (zh) 2020-04-28 2021-04-15 眼间距离测量方法以及校正方法

Country Status (4)

Country Link
US (1) US20230171394A1 (zh)
EP (1) EP4145824A1 (zh)
CN (1) CN115462067A (zh)
WO (1) WO2021220832A1 (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102006491A (zh) * 2009-08-31 2011-04-06 卡西欧计算机株式会社 三维显示设备以及控制视差屏障的方法
CN102449534A (zh) * 2010-04-21 2012-05-09 松下电器产业株式会社 立体影像显示装置、立体影像显示方法
JP2012244466A (ja) * 2011-05-20 2012-12-10 Mitsubishi Electric Corp 立体画像処理装置
JP2013192060A (ja) * 2012-03-14 2013-09-26 Sony Corp 表示装置および情報処理方法、並びにプログラム
CN105230013A (zh) * 2013-06-28 2016-01-06 汤姆逊许可公司 具有位置感测和适配数量的视图的多视图三维显示系统和方法
JP2018120189A (ja) * 2017-01-27 2018-08-02 公立大学法人大阪市立大学 3次元表示装置、3次元表示システム、ヘッドアップディスプレイシステム、及び移動体
JP2018120190A (ja) * 2017-01-27 2018-08-02 公立大学法人大阪市立大学 3次元表示システム、ヘッドアップディスプレイシステム、及び移動体
CN109495734A (zh) * 2017-09-12 2019-03-19 三星电子株式会社 用于自动立体三维显示器的图像处理方法和设备
JP2019082671A (ja) * 2017-10-31 2019-05-30 公立大学法人大阪市立大学 3次元表示装置、3次元表示システム、ヘッドアップディスプレイおよび3次元表示装置設計方法
WO2019225400A1 (ja) * 2018-05-23 2019-11-28 京セラ株式会社 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3668116B2 (ja) 1999-09-24 2005-07-06 三洋電機株式会社 眼鏡無し立体映像表示装置
KR102329814B1 (ko) * 2014-12-01 2021-11-22 삼성전자주식회사 3d 디스플레이를 위한 양안 거리 인식 장치

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102006491A (zh) * 2009-08-31 2011-04-06 卡西欧计算机株式会社 三维显示设备以及控制视差屏障的方法
CN102449534A (zh) * 2010-04-21 2012-05-09 松下电器产业株式会社 立体影像显示装置、立体影像显示方法
JP2012244466A (ja) * 2011-05-20 2012-12-10 Mitsubishi Electric Corp 立体画像処理装置
JP2013192060A (ja) * 2012-03-14 2013-09-26 Sony Corp 表示装置および情報処理方法、並びにプログラム
CN105230013A (zh) * 2013-06-28 2016-01-06 汤姆逊许可公司 具有位置感测和适配数量的视图的多视图三维显示系统和方法
JP2018120189A (ja) * 2017-01-27 2018-08-02 公立大学法人大阪市立大学 3次元表示装置、3次元表示システム、ヘッドアップディスプレイシステム、及び移動体
JP2018120190A (ja) * 2017-01-27 2018-08-02 公立大学法人大阪市立大学 3次元表示システム、ヘッドアップディスプレイシステム、及び移動体
CN109495734A (zh) * 2017-09-12 2019-03-19 三星电子株式会社 用于自动立体三维显示器的图像处理方法和设备
JP2019082671A (ja) * 2017-10-31 2019-05-30 公立大学法人大阪市立大学 3次元表示装置、3次元表示システム、ヘッドアップディスプレイおよび3次元表示装置設計方法
WO2019225400A1 (ja) * 2018-05-23 2019-11-28 京セラ株式会社 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梁发云;邓善熙;杨永跃;: "裸眼立体显示器效果评定方法研究", 中国图象图形学报, no. 08 *

Also Published As

Publication number Publication date
US20230171394A1 (en) 2023-06-01
EP4145824A1 (en) 2023-03-08
WO2021220832A1 (ja) 2021-11-04
JP2021173933A (ja) 2021-11-01

Similar Documents

Publication Publication Date Title
CN110073659B (zh) 图像投影装置
JP6924637B2 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
JP7129789B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
CN112313949B (zh) 三维显示系统、光学元件、设置方法、控制方法以及移动体
WO2020095801A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム
US20230004002A1 (en) Head-up display, head-up display system, and movable body
CN112352422B (zh) 三维显示装置、控制器、三维显示方法、三维显示系统以及移动体
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
US11874464B2 (en) Head-up display, head-up display system, moving object, and method of designing head-up display
CN115462067A (zh) 眼间距离测量方法以及校正方法
CN113614619B (zh) 图像显示模块、图像显示系统、移动体、图像显示方法以及图像显示程序
JP6668564B1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
WO2020130048A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
JP7475191B2 (ja) 眼間距離測定方法および較正方法
CN114730096A (zh) 平视显示器系统以及移动体
WO2020022288A1 (ja) 表示装置および移動体
WO2022019215A1 (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体
WO2022019154A1 (ja) 3次元表示装置
JP2022022078A (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体
JP7475231B2 (ja) 3次元表示装置
US20230004003A1 (en) Head-up display system and movable body
JP2022055171A (ja) 3次元表示装置、3次元表示方法、3次元表示システム、および移動体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination