CN106489171A - 立体图像显示器 - Google Patents

立体图像显示器 Download PDF

Info

Publication number
CN106489171A
CN106489171A CN201580034966.XA CN201580034966A CN106489171A CN 106489171 A CN106489171 A CN 106489171A CN 201580034966 A CN201580034966 A CN 201580034966A CN 106489171 A CN106489171 A CN 106489171A
Authority
CN
China
Prior art keywords
image
distance
beholder
eyes
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580034966.XA
Other languages
English (en)
Other versions
CN106489171B (zh
Inventor
C·L·霍夫曼
R·C·勒斯勒
T·W·斯特纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN106489171A publication Critical patent/CN106489171A/zh
Application granted granted Critical
Publication of CN106489171B publication Critical patent/CN106489171B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了涉及将计算机生成的图像通过立体显示系统显示给观看者的各个实施例。一种公开的实施例包括建立从观看者的眼睛到计算机生成的图像的阈值显示位置的预定阈值距离。所述方法包括确定从观看者的眼睛到所述图像的当前显示位置的视线聚合距离是处于或低于所述预定阈值距离。基于视线聚合距离是处于或低于所述预定阈值距离,当观看者的眼睛朝着所述图像移动时计算机生成的图像的大小被增加同时将视线聚合距离维持在预定阈值距离处。

Description

立体图像显示器
背景
各种显示技术可以显示计算机生成的图像(例如三维全息图或二维图像)以创建沉浸式虚拟现实或增强现实观看体验。例如,诸如头戴式显示(HMD)设备之类的一些立体显示设备可包括透视显示器,该透视显示器允许将图像叠加在真实世界环境上。当通过HMD设备的透视显示器观看时,图像可看上去与真实世界环境结合。虚拟图像与真实世界环境之间的这种关系可被称为增强现实。
当图像由立体显示器生成时,包括图像的光在显示屏或其它表面处开始并跨越实际观看距离行进至观看者的眼睛。在一些示例中,控制所述光以在离观看者的一距离处创建图像的观看者感知的位置,所述距离不同于显示屏或表面的实际观看距离。例如,HMD设备显示图像,所述图像在离观看者的眼睛的一距离处被观看者感知,所述距离大于眼睛和HMD屏幕或镜片之间的良视距距离。
在一些示例中,观看者可以靠近计算机生成的图像以欣赏图像细节或以其它方式与图像交互。在其它示例中,一个图像可以被显示为朝观看者移动得更近。然而,已经发现随着观看者和图像的感知位置之间的距离减少,在某些距离处,一些观看者可能体验到不适,例如头昏眼花、头痛、重影和/或其它问题。由于这些观看者的舒适问题,一些显示设备可以强制最小观看距离,该距离限制了所显示图像的所感知的邻近度。不幸的是,这种最小观看距离可能阻止观看者更加靠近图像,并且可能由此限制了增强或虚拟现实应用的交互体验以及相关特征。另外,这种最小观看距离对没有受到舒适问题影响的观看者的观看体验有负面的影响。
概述
此处公开了涉及将计算机生成的图像通过立体显示系统显示给观看者的各个实施例。例如,一种公开的实施例提供了一种方法,包括建立从观看者的眼睛到计算机生成的图像的阈值显示位置的预定阈值距离。所述方法包括确定从观看者的眼睛到计算机生成的图像的当前显示位置的视线聚合距离是处于或低于所述预定阈值距离。基于视线聚合距离是处于或低于所述预定阈值距离,当观看者的眼睛朝着计算机生成的图像移动时计算机生成的图像的大小被增加同时将视线聚合距离维持在预定阈值距离处。
提供本发明内容以便以简化的形式介绍以下在具体实施方式中进一步描述的一些概念。本概述并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中所提及的任何或所有缺点的实现。
附图简述
图1是根据本公开的各示例可以通过立体显示系统显示计算机生成的图像的示例显示设备的示意图。
图2是在房间中的观看者与根据本公开的各示例可以通过立体显示系统显示计算机生成的图像的显示设备进行交互的示意图。
图3示意性地示出在离观看者的眼睛的两个观看者感知的距离处的计算机生成的图像。
图4示意性地示出当观看者的眼睛朝着图3的计算机生成的图像移动时,在大小方面增加的该图像。
图5示意性地示出当感知的观看距离在预定的边界距离处时以最大大小显示的图4的计算机生成的图像。
图6和7示意性地示出当观看者的眼睛朝着图5的计算机生成的图像移动时,相对于固定的现实世界对象平移的该图像。
图8示出根据本公开的一实施例的示例头戴式显示设备。
图9A和9B示出根据本公开的一实施例的用于通过立体显示系统向观看者显示计算机生成的图像的方法的流程图。
图10是计算设备的一实施例的简化示意解说。
详细描述
图1示出计算设备和可用于将计算机生成的图像显示给观看者的相关联的立体显示设备的示例实现的示意图。如下详细描述地,在一个示例中,由计算设备的处理器执行的显示增强程序可以建立从观看者的眼睛到计算机生成的图像的阈值显示位置的预定阈值距离。所述程序可以确定从观看者的眼睛到计算机生成的图像的当前显示位置的视线聚合距离是处于或低于所述预定阈值距离。基于视线聚合距离是处于或低于所述预定阈值距离,并且当观看者的眼睛朝着计算机生成的图像移动时,计算机生成的图像的大小可以被增加同时将视线聚合距离维持在预定阈值距离处。
在各个示例中,计算设备可以要么是物理分开的形式要么被集成到观看者可以与之交互的显示设备中。图1示意性地示出了与立体显示设备14物理分开的计算设备10的示例。显示设备14可以包括用于向第一观看者20呈现一个或多个计算机生成的图像18的立体显示系统16。在该示例中,计算设备10可以包括单独设备(例如机顶盒、游戏控制台、web相机、头戴式计算设备或其它可穿戴计算设备、键盘、专用外设或其它类似的不包括集成显示器的设备)或被集成到该单独设备。
计算设备10可使用有线连接,或可采用经由WiFi、蓝牙或任何其他合适的无线通信协议的无线连接来与显示设备14在操作上连接。例如,计算设备10可通信地耦合到网络22。网络22可采取局域网(LAN)、广域网(WAN)、有线网络、无线网络、个域网、或其组合的形式,并且可包括因特网。关于计算设备10的组件和计算方面的附加细节在下文中参考图10更详细地描述。
图1还示出了被集成到头戴式显示(HMD)设备24中的计算设备12的示例。HMD设备24可包括被支撑在观看者的一只或两只眼睛前方的透明、半透明或不透明显示器。在一些示例中,HMD设备24可以创建增强现实环境28并将其显示给第二观看者26,所述增强现实环境包括被显示在通过该设备观看的物理环境中的一个或多个现实世界对象32间的一个或多个计算机生成的图像18。计算机生成的图像18可以包括三维(3D)全息图像、二维(2D)图像或通过HMD设备24生成并显示的其它形式的虚拟图像。HMD设备24可由此允许第二观看者26观看在围绕该观看者的物理环境内的这样的计算机生成的图像18。
如下详细描述地,HMD设备24可包括从物理环境接收物理环境数据的各种传感器和相关的系统。例如,HMD设备24可以包括深度传感器系统36,该深度传感器系统包括从在周围的物理环境中的现实世界对象32生成深度图像数据的一个或多个深度相机。在一些示例中,HMD设备24可包括利用至少一个面向外的传感器(如RGB相机或其它光学传感器)的光学传感器系统38。所述面向外的传感器可从物理环境中的现实世界对象32捕获二维图像信息。HMD设备24还可包括位置传感器系统40,该位置传感器系统包括一个或多个加速度计、陀螺仪、头部跟踪系统和/或用于确定用户的位置或朝向的其它传感器。
在一些示例中,HMD设备24可包括换能器系统42,换能器系统包括将电信号转换成另一形式能量的一个或多个致动器。所述换能器系统42可以包括用于向观看者提供音频反馈的一个或多个扬声器。在其它示例中,换能器系统42可包括一个或多个触觉换能器,所述触觉换能器用于生成触觉反馈并将其提供给观看者,诸如振动。HMD设备24还可包括话筒系统44和用于接收来自物理环境的音频输入的一个或多个话筒。
图1中说明的示例HMD设备24示出了集成到HMD设备中的计算设备12。将理解,在其他示例中,计算设备12可以是与HMD设备24分开的单独组件。具有各种形状因子的许多类型和配置的HMD设备24也可被使用并且在本公开的范围内。以下参考图8提供了示例HMD设备的更详细的描述。
还将理解,计算设备12可以包括任何其它合适类型或形式的显示设备或其它计算设备(例如平板、笔记本、智能电话或其它移动计算设备、桌面计算设备、独立监视器、壁挂式显示器、交互式白板或其它类似的具有集成的立体显示器的设备),或可以被集成到所述任何其它合适类型或形式的显示设备或其它计算设备中。
计算设备10和计算设备12还可以从注视跟踪系统48接收注视跟踪数据。在各种示例中,注视跟踪系统48可以位于显示设备14、HMD设备24中或在具有任何其它合适类型或形式的显示设备(包括但不限于上述具有集成的显示器的那些示例设备)的公共外壳中。在其它示例中,注视跟踪系统48、深度传感器系统36以及计算设备可以被集成到不包括集成显示器的公共外壳中,例如头戴式或其它可穿戴设备或在不包括集成显示器的任何其它合适的类型或形式的计算设备(包括但不限于上述不具有集成的显示器的那些示例设备)中。以下参考图8中说明的示例HMD设备800讨论了示例注视跟踪系统48的更详细的描述。
计算设备10和计算设备12两者都可包括可被存储在大容量存储34中的显示增强程序52。显示增强程序52可被加载到存储器54中并由处理器58执行以执行下文更为详细地描述的方法和过程中的一个或多个。
在一些示例中,显示增强程序52可以利用至少两种不同的显示模式来显示计算机生成的图像18。更具体而言,在世界锁定显示模式中,一个或多个计算机生成的图像18可通过显示设备14或HMD设备24以世界锁定的位置被显示。在世界锁定的位置中,计算机生成的图像18相对于通过显示设备14或HMD设备24可观看的现实世界对象32来说看上去是固定的。因此,在这种模式中,每个计算机生成的图像18的世界锁定的位置相对于HMD24的佩戴者来说看上去是可移动的。
在HMD设备24的一些示例中,世界锁定显示模式可与六个自由度(6DOF)的跟踪系统相关联,所述跟踪系统在六个自由度(例如,x、y、z、俯仰、翻滚、偏航)上估计HMD设备24的位置和方向。例如,在六个自由度中的估计可以使用来自光学传感器系统38、位置传感器系统40和或HMD设备24的其它传感器的传感器数据来确定。
在其它示例中,HMD设备24和/或显示设备14可以以身体锁定显示模式操作,在该模式中一个或多个计算机生成的图像18可以以身体锁定的位置被显示。在身体锁定位置中,计算机生成的图像18相对于观看者来说看上去是固定的,而每个计算机生成的图像的所述身体锁定位置相对于所述现实世界对象32来说看起来是可移动的。
在HMD设备24的一些示例中,身体锁定显示模式可以与和6DOF跟踪系统并行操作的三个自由度(3DOF)的跟踪系统相关联。3DOF跟踪系统在三个自由度(例如,俯仰、翻滚、偏航)上估计HMD设备24的方向。例如,可使用来自位置传感器系统40的数据来确定三个自由度中的估计。
现在参考图2-7,现在将描述显示设备14和HMD设备24的示例使用情况。图2是在房间200中的几个观看者与通过显示增强程序52显示计算机生成的图像的计算设备和相关联的立体显示设备进行交互的示意说明。在一个示例中,观看者Galen 202正佩戴着HMD设备204,该设备生成包括3D全息向导的增强现实电影。在另一个示例中,观看者Kara 208正在玩寻宝游戏,该游戏包括由她的膝上计算机212所显示的3D全息宝箱210。
在另一个示例中,观看者Meb 214正在玩由挂壁式显示器216所显示的3D交互棒球游戏。在一些示例中,观看者Meb 214可以佩戴眼镜,该眼镜通过例如将两幅图像合并为单幅3D图像来帮助创建增强现实体验,该3D图像被Meb感知为在空间中悬浮。
在该示例中,挂壁式显示器216被通信地耦合到机顶盒218,机顶盒包括深度传感器系统36、注视跟踪系统48和包括显示增强程序52的计算设备。使用来自深度传感器系统36的数据,机顶盒218可以监视观看者Meb 214在房间200内的位置。使用来自注视跟踪系统48的注视跟踪数据,机顶盒218还可以监视关于在房间200内的现实世界对象和由棒球游戏生成并通过挂壁式显示器216显示的3D游戏的观看者Meb的注视位置。
在一个示例中,3D球形计算机生成的棒球图像220可以以世界锁定显示模式在观看者Meb 214和击球手、接球手以及本垒板的计算机生成的图像之间的空间中悬浮固定地被显示。以此方式,当观看者Meb 214改变他在房间200中的位置时,Meb感知到棒球图像200相对于房间200中的挂壁式显示器216、衣帽架224、沙发228以及其它真实物体保持固定。
现在参考图3和4,关于房间200中的衣帽架224和沙发228示意性地说明观看者Meb214的眼睛302。如在图3所示并通过初始位置304处的眼睛302,由观看者Meb 214感知到的棒球图像220的第一当前显示的位置306可以在离眼睛302的第一、相对大的视线聚合距离308处跨所述房间。在本示例中,第一视线聚合距离308可以被进一步定义为在眼睛302和点310之间的距离,在该点处眼睛正注视第一当前显示的位置306中的棒球图像220。在其它示例中,视线聚合距离可以被定义为在观看者的眼睛和与所述图像相关联的预定位置之间的距离,所述预定位置例如是最接近所述眼睛的图像的前缘、图像的中心或与图像相关联的任何其它合适的位置。
还是参考图2,棒球图像220可以被显示在如由观看者Meb 214感知到的第二当前显示的位置312处,该位置定位在更靠近他的眼睛302的第二视线聚合距离314处。如上所述且为避免可能的观看者不舒适的问题,显示增强程序52可以建立从观看者Meb的眼睛302到棒球图像220的阈值显示的位置的预定阈值距离318。在本示例中且如图3所示,棒球图像220的第二当前显示的位置312位于离眼睛302预定阈值距离318处。因此,第二当前显示的位置312对应于阈值显示的位置。
当棒球图像220被显示在第二当前显示的位置312处时,显示增强程序52可以确定第二视线聚合距离314在预定阈值距离318处。将理解地,在一些示例中,由于处理限制、数据采样间隔和/或其它约束,显示增强程序52可以确定第二视线聚合距离314低于预定阈值距离318。例如在观看者Meb 214正朝着棒球图像220移动时,显示增强程序52可能直到所述距离稍微低于预定阈值距离318才确定第二视线聚合距离314。在这些示例中,显示增强程序可以随后调整第二视线聚合距离314以匹配预定阈值距离318。
返回到图3的示例且通过在第二当前显示的位置312处的棒球图像220,观看者Meb214可能期望获得图像的更近的视图。因此且现在还参考图4,观看者Meb 214可以朝棒球图像移动平移距离324。因为第二视线聚合距离314是在预定阈值距离318处,并在本发明的的一个可能的优点中,显示增强程序52在观看者Meb 214的眼睛302朝着所显示的图像移动了平移距离时可以维持第二视线聚合距离不变,同时增加所显示的棒球的大小。因此且如下更加详细描述地,显示增强程序52由此允许观看者Meb 214观看经放大的棒球,同时还通过维持第二视线聚合距离不变而避免了可能的观看者不舒适的问题。
更具体地且如图4中示意性地说明,通过在相对于眼睛302的第二显示的位置312处生成所显示的经放大的棒球图像220’,显示增强程序52使得观看者Meb 214感知到所显示的经放大的棒球图像220’正位于小于预定阈值距离318的经减少的感知观看距离400处,伴随由感知到的经放大的棒球图像220”所示的这样的感知。因此,当观看者Meb 214朝着棒球图像移动并且所述图像被渐进放大,他感知到自己正接近正在放大的图像。
另外,由于观看者Meb 214现在可以辨别出在较小棒球图像220中可能是无法辨别的经放大的棒球图像220’的细节,朝正在放大的图像移动得更近的错觉被强化。以此方式,显示增强程序52允许观看者Meb 214体验经放大的棒球图像220’就如同它实际位于经减少的感知观看距离400处那样(如由感知的经放大的棒球图像220”所示),同时通过维持第二视线聚合距离314不变避免了可能的感知舒适问题。
在一些示例中,预定阈值距离318可以在50.0cm和200.0cm之间。在其它示例中,预定阈值距离318可以在75.0cm和175.0cm之间。在其它示例中,预定阈值距离318可以是100cm。将理解,可以基于显示设备类型和所使用的显示技术、被显示的计算机生成的图像的属性、显示增强程序52所接收的观看者偏好以及诸如环境光的环境条件中的一个或多个项来建立所述预定阈值距离。
在一些示例中,并参考图4,显示增强程序52可以确定沿观看者Meb 214的视线408延伸并通过棒球图像220的枢轴点412的轴404。增加棒球图像220的大小可以包括围绕轴404缩放所述图像。在一个示例中且如图4中示意性说明地,棒球图像220的枢轴点412可以位于图像的3D球形的中心处。在该示例中,当观看者Meb 214接近棒球图像220时,通过围绕轴404缩放图像创建了Meb离图像更近的错觉。
在一个示例中且在观看者Meb的眼睛302朝着图3和4中的棒球图像220移动时,显示增强程序52可以均匀地与眼睛朝着该图像的平移距离324成线性比例地缩放该图像。以此方式,显示增强程序52可以在已经达到预定阈值距离318之后棒球图像220开始在大小方面增加时创建平滑的缩放效果。有利地,显示增强程序52可以由此为观看者Meb 214创建移动靠近经放大的棒球图像220’的逼真感知,同时还维持了所显示图像的预定阈值距离318。
例如,在眼睛302朝着棒球图像220移动时,图像的大小可以按与眼睛行进的平移距离324成线性比例的固定百分比被均匀地增加。在一个示例中,图像的大小可以以眼睛302朝着棒球图像220每平移1cm就以5%的比率被均匀地增加。将理解,可使用任意合适的大小增加比率且在本公开的范围内。
在另一个示例中,棒球图像220的大小增加的比率可以直接对应于在预定阈值距离318和在眼睛302和所感知的经放大的棒球图像220”的枢轴点412”之间的距离之间的比率。例如且参考图3,当棒球图像220被显示在第二当前显示的位置312中时,显示增强程序52可以以默认大小显示图像,如图3所示。
现在参考图4,当眼睛302的位置到达第二视线聚合距离314并且眼睛进一步朝着棒球图像220移动时,棒球图像220的默认大小可以按预定阈值距离318和在眼睛302和所感知的经放大的棒球图像220”的枢轴点412”之间的距离之间的比率被增加。将理解,当眼睛302和所感知的经放大的棒球图像220”的枢轴点412”之间的距离减少时,图像的默认大小被线性缩放以创建眼睛移动接近该图像的错觉。
在其它示例中,增加棒球图像220的大小可以包括以一个比率成比例地缩放该图像,该比率不是相对于观看者Meb 214的眼睛302朝着图像平移的1:1。在一个示例中,棒球图像220的大小可以以眼睛302朝着棒球图像220的第一个1cm平移上增加4%比率,在眼睛302的下一个1cm平移上增加6%比率,在眼睛302的下一个1cm平移上增加8%比率,并在剩余的平移距离上增加10%比率。将理解,可使用任意合适的距离间隔以及对应的大小增加百分比且在本公开的范围内。
现在参考图5,在一些示例中,显示增强程序52可以建立对应于眼睛302和所感知的经放大的棒球图像220”之间的最小感知观看距离的预定边界距离500。如在图5中示意性示出的,眼睛332可以朝着经放大的棒球图像220’移动,并且图像的大小可以被增加直到经减少的感知观看距离400达到预定边界距离500。一旦确定经减少的感知观看距离400在预定边界距离500处,显示增强程序52就可以以最大大小显示经放大的棒球图像220”。
还将理解,在一些示例中,由于处理限制、数据采样间隔和/或其它约束,显示增强程序52可以确定经减少的感知观看距离400低于预定边界距离500。在这些示例中,显示增强程序可以随后调整经减少的感知观看距离400以匹配预定边界距离500。
在一些示例中,预定边界距离500可以在0.5cm和4.0cm之间。在其它示例中,预定边界距离500可以在0.75cm和1.25cm之间。在其它示例中,预定边界距离500可以是1.0cm。将理解,基于显示设备类型和所使用的显示技术、被显示的计算机生成的图像的属性、显示增强程序52所接收的观看者偏好以及诸如环境光的环境条件中的一个或多个项来建立所述预定边界距离。
现在参考图6和7,在一些示例中,在经减少的感知观看距离400处于预定边界距离500处之后,观看者Meb 214可以继续朝着经放大的棒球图像220’移动。在一个示例中,基于经减少的感知观看距离400处于或低于预定边界距离500,且当眼睛302从初始位置602朝着经放大的棒球图像220’移动时,显示增强程序52可以相对于固定的现实世界对象(例如衣帽架224和沙发228)平移图像220’,同时将经减少的感知观看距离维持在预定边界距离处并维持最大大小的图像。
在该示例中,显示增强程序52可以将经放大的棒球图像220’的显示模式从世界锁定显示模式改变到身体锁定显示模式。因此且如在图6和7中示意性说明,眼睛302在平移距离606上的移动引起了经放大的棒球图像220’在平移距离606上的对应平移。以此方式,观看者Meb 214感知到所感知的经放大的棒球图像220”处在相对于他的眼睛302和身体的固定位置中,这样朝着图像的移动导致图像相对于衣帽架224和沙发228的对应移动。
在一些情形中,观看者Meb 214可以在离开经放大的棒球图像220’的方向中移动,这样,经减少的感知观看距离400变得大于预定边界距离500。在该示例中,当经减少的感知观看距离400变得大于预定边界距离500时,显示增强程序52可以将经放大的棒球图像220’的显示模式从身体锁定显示模式改变到世界锁定显示模式。
现在参考图8,提供了一副具有透明显示器的可配戴眼镜形式的HMD设备800的一个示例。将理解,在其他示例中,HMD设备800可以采取其他合适的形式,其中透明、半透明和/或不透明显示器被支撑在查看者的一只或两只眼睛前方。还将理解,图1和2中所示的HMD设备可采取HMD设备800的形式(如在下文更详细地描述的)或任何其他合适的HMD设备。
HMD设备800包括显示系统802和使得诸如全息物体之类的图像能被递送到HMD设备的佩戴者的眼睛的透视或透明显示器804。透明显示器804可被配置成向透过该透明显示器查看物理环境的佩戴者在视觉上增强真实世界、物理环境的外观。例如,物理环境的外观可以由经由透明显示器804呈现的图形内容(例如,一个或多个像素,每一像素具有相应色彩和亮度)来增强以创建增强现实环境。
透明显示器804还可被配置成使HMD设备的佩戴者能够透过显示虚拟物体表示的一个或多个部分透明的像素来查看物理环境中的物理、现实世界对象。如图8所示,在一个示例中,透明显示器804可包括位于镜片806内的图像生成元件(诸如例如透视有机发光二极管(OLED)显示器)。作为另一示例,透明显示器804可包括在镜片806边缘上的光调制器。在这一示例中,镜片806可以担当用于将光从光调制器递送到佩戴者的眼睛的光导。这样的光导可使得佩戴者能够感知位于物理环境内的佩戴者正在查看的3D全息图像,同时还允许佩戴者查看物理环境中的物理物体,由此创建增强现实环境。
HMD设备800还可包括各种传感器和相关系统。例如,HMD设备800可包括包含配置成获取来自佩戴者的眼睛的注视跟踪数据形式的图像数据的一个或多个图像传感器的注视跟踪系统808。假定佩戴者已同意获取和使用这一信息,注视跟踪系统808可以使用这一信息来跟踪佩戴者的眼睛的位置和/或运动。
在一个示例中,注视跟踪系统808包括被配置成检测佩戴者的每一个眼睛的注视方向的注视检测子系统。该注视检测子系统可被配置成以任何合适方式确定每一只佩戴者眼睛的注视方向。例如,注视检测子系统可包括诸如红外光源等被配置成使得从佩戴者的每一只眼睛的角膜反射闪光的一个或多个光源。一个或多个图像传感器然后可被配置成捕捉佩戴者的眼睛的图像。
如从收集自图像传感器的图像数据确定的闪烁和瞳孔的图像可用于确定每一眼睛的光轴。使用这一信息,注视跟踪系统808随后可确定佩戴者的注视方向。作为补充或替换,注视跟踪系统808可确定佩戴者注视哪一物理或虚拟物体。此类注视跟踪数据然后可被提供给HMD设备800。
还将理解,注视跟踪系统808可以具有任意适当数量和布置的光源和图像传感器。例如并参考图8,HMD设备800的注视跟踪系统808可以利用至少一个面向内的传感器810。
HMD设备800还可包括从物理环境接收物理环境数据的传感器系统。例如,HMD设备800还可包括利用一个或多个姿势传感器(诸如HMD设备800上的姿势传感器814)来捕捉头部姿势数据并从而允许佩戴者头部的位置跟踪、方向/位置以及方向感测和/或运动检测的头部跟踪系统812。因此,并如上所述,头部跟踪系统812可从姿势传感器814接收传感器数据,该姿势传感器允许在三个自由度上估计HMD设备800的方向或在六个自由度上估计HMD设备的位置和方向。
在一个示例中,头部跟踪系统812可包括配置成三轴或三自由度的位置传感器系统的惯性测量单元(IMU)。这一示例位置传感器系统可以例如包括用于指示或测量HMD设备800在3D空间内绕三个正交轴(例如,x、y和z,或俯仰、翻滚和偏航)的方向中的变化的三个陀螺仪。从IMU的传感器信号导出的方向可被用于经由透明显示器804来显示具有身体锁定位置的一个或多个虚拟物体,其中每个虚拟物体的位置相对于透视显示器的佩戴者是看起来固定的,而每个虚拟物体的位置相对于物理环境中的现实世界对象是看起来可移动的。
在另一示例中,头部跟踪系统812可包括配置成六轴或六自由度的位置传感器系统的IMU。这一示例位置传感器系统可以例如包括用于指示或测量HMD设备800沿三个正交轴的位置变化和绕该三个正交轴的设备方向变化的三个加速度计和三个陀螺仪。
头部跟踪系统812还可以支持其他合适的定位技术,诸如GPS或其他全球导航系统。此外,尽管描述了位置传感器系统的具体示例,但将明白,可以使用任何其他合适的位置传感器系统。例如,头部姿势和/或移动数据可以基于来自戴在佩戴者上和/或佩戴者外部的传感器的任何组合的传感器信息来确定,包括但不限于任何数量的陀螺仪、加速度计、惯性测量单元、GPS设备、气压计、磁力计、相机(例如,可见光相机、红外光相机、飞行时间深度相机、结构化光深度相机等)、通信设备(例如,WIFI天线/接口)等。
在一些实例中,HMD设备800还可包括利用一个或多个面向外的传感器来捕捉图像数据的可任选传感器系统,诸如HMD设备800上的光学传感器816。面向外的传感器可以检测其视野内的移动,如视野内的佩戴者或人或物理物体所执行的基于姿势的输入或其他移动。该面向外的传感器还可从物理环境和该环境内的物理物体捕捉2D图像信息和深度信息。例如,该面向外的传感器可包括深度相机、可见光相机、红外光相机,和/或位置跟踪相机。
光学传感器系统可包括经由一个或多个深度相机来生成深度跟踪数据的深度跟踪系统。在一个示例中,每一个深度相机可包括立体视觉系统的左和右相机。来自这些深度相机中的一个或多个的时间分辨的图像可被彼此配准和/或与来自另一光学传感器(如可见光谱相机)的图像配准,且可被组合以产生深度分辨的视频。
在其他示例中,结构化光深度相机可被配置成投影结构化红外照明并对从照明被投影到其之上的场景中反射的该照明进行成像。可基于所成像的场景的各个区域内邻近特征之间的间隔来构造该场景的深度图。在其他示例中,深度相机可以采取飞行时间深度相机的形式,其被配置成将脉冲的红外照明投影到该场景上以及检测从该场景反射的照明。例如,照明可由红外光源818提供。可以理解,在本公开的范围内可使用任意其他合适的深度相机。
面向外的传感器可捕捉HMD设备的佩戴者位于其中的物理环境的图像。参考HMD设备800,在一个示例中,增强现实显示增强程序可包括使用这样的所捕捉的图像来生成对HMD设备的佩戴者周围的物理环境进行建模的虚拟环境的3D建模系统。在一些实施例中,光学传感器816可与IMU合作以在六个自由度上确定HMD设备800的位置和方向。这样的位置和方向信息可被用于经由透明显示器804来以世界锁定位置显示一个或多个虚拟物体,其中每个虚拟物体的位置相对于通过透明显示器可见的现实世界对象是看起来固定的,而每个虚拟物体的位置相对于透视显示器的佩戴者是看起来可移动的。
HMD设备800还可包括话筒系统,该话筒系统包括捕捉音频数据的一个或多个话筒,诸如话筒820。在其他示例中,音频可经由一个或多个扬声器(诸如HMD设备800上的扬声器822)被呈现给佩戴者。
HMD设备800还可包括控制器,诸如控制器824。该控制器824可包括与HMD设备800的各传感器和系统通信的逻辑子系统和存储子系统,如下文参考图10更详细地讨论的。在一个示例中,存储子系统可包括能由逻辑子系统执行以接收来自传感器的输入、确定HMD设备800的姿态、以及调整通过透明显示器804所显示的内容的显示属性的指令。
图9A和9B示出根据本公开的一实施例的用于通过立体显示系统向观看者显示计算机生成的图像的方法900的流程图。参考以上描述并在图1-8中示出的软件和硬件组件来提供方法900的以下描述。可以理解,方法900还可在使用其他合适的硬件和软件组件的其他上下文中来执行。
参考图9A,在904,方法900可以包括建立从观看者的眼睛到计算机生成的图像的阈值显示位置的预定阈值距离。在908,方法900可以包括确定从观看者的眼睛到计算机生成的图像的当前显示位置的视线聚合距离是处于或低于所述预定阈值距离。在912,方法900可以包括:基于视线聚合距离是处于或低于所述预定阈值距离,当观看者的眼睛朝着计算机生成的图像移动时增加计算机生成的图像的大小同时将视线聚合距离维持在预定阈值距离处。
在916,预定阈值距离可以在50.0cm和200.0cm之间。在920,预定阈值距离可以在75.0cm和175.0cm之间。在924,方法900可以包括在观看者的眼睛朝着计算机生成的图像移动且计算机生成的图像的大小增加时,确定感知观看距离是处于或低于从观看者的眼睛到计算机生成的图像的预定边界距离。在928,方法900可以包括以最大大小显示计算机生成的图像。
参考图9B,在932,方法900可以包括:基于感知观看距离是处于或低于预定边界距离且在观看者的眼睛朝着计算机生成的图像移动时,相对于固定的现实世界对象平移计算机生成的图像,同时将感知观看距离维持在预定边界距离处并维持最大大小的计算机生成的图像。在936,预定边界距离可以在0.5cm和4.0cm之间。在940,预定边界距离可以在0.75cm和1.25cm之间。
在944,方法900可以包括通过围绕沿观看者的视线延伸且通过计算机生成的图像的枢轴点的轴来缩放该计算机生成的图像,来增加该计算机生成的图像的大小。在948,方法900可以包括通过与观看者的眼睛朝着计算机生成的图像的平移成线性比例地均匀缩放该计算机生成的图像来增加该计算机生成的图像的大小。在952,方法900可以包括通过以一个比率成比例地缩放该计算机生成的图像来增加该计算机生成的图像的大小,该比率不是以相对于观看者的眼睛朝着计算机生成的图像的平移的1:1。
将理解,方法900是以举例方式提供的,并且不旨在为限制性的。因此,可以理解,方法900可包括相比于图9A和9B中示出的那些步骤而言附加的和/或替换的步骤。并且,可以理解,方法900可用任何适当的次序执行。而且,可以理解,一个或多个步骤可从方法900中省略,而不背离本发明的范围。
图10示意性示出了可以执行上述方法和过程的一个或多个的计算系统1000的非限制性实施例。计算设备10和计算设备12可采取计算系统1000的形式或包括计算系统900的一个或多个方面。以简化形式示出了计算系统1000。应当理解,可使用基本上任何计算机架构而不背离本公开的范围。在不同的实施例中,计算系统1000可以采取大型计算机、服务器计算机、台式计算机、平板计算机、家庭娱乐计算机、网络计算设备、平板、笔记本、智能电话或其它移动计算设备、移动通信设备、游戏设备等等的形式。
如图10所示,计算系统1000包括逻辑子系统1004和存储子系统1008。计算系统1000可任选地包括传感器子系统1012、显示子系统1016、通信子系统1020、输入子系统1022和/或在图10中未示出的其他子系统和组件。计算系统1000还可包括计算机可读介质,其中该计算机可读介质包括计算机可读存储介质和计算机可读通信介质。计算系统1000还可以任选地包括其他用户输入设备,诸如例如键盘、鼠标、游戏控制器,和/或触摸屏等等。此外,在某些实施例中,此处所述的方法和过程可被实现为计算机应用、计算机服务、计算机API、计算机库,和/或包括一个或多个计算机的计算系统中的其他计算机程序产品。
逻辑子系统1004可包括被配置为执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统1004可被配置为执行一个或多个指令,该一个或多个指令是一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其他逻辑构造的一部分。可实现这样的指令以执行任务、实现数据类型、变换一个或多个设备的状态、或以其他方式得到所希望的结果。
逻辑子系统1004可包括被配置成执行软件指令的一个或多个处理器。附加地或可替代地,逻辑子系统可以包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统的处理器可以是单核或多核,且在其上执行的程序可被配置为并行或分布式处理。逻辑子系统可以任选地包括遍布两个或更多设备分布的独立组件,所述设备可远程放置和/或被配置为进行协同处理。该逻辑子系统的一个或多个方面可被虚拟化并由以云计算配置进行配置的可远程访问的联网计算设备执行。
存储子系统1008可包括被配置为保持可由逻辑子系统1004执行以实现此处所述的方法和过程的数据和/或指令的一个或多个物理持久设备。在实现此类方法和过程时,存储子系统1008的状态可以被变换(例如,以保持不同的数据)。
存储子系统1008可以包括可移动介质和/或内置设备。存储子系统1008可包括光学存储设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)和/或磁性存储设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等等。存储子系统1008可包括具有以下特性中的一个或多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址,以及内容可寻址。
在一些示例中,可以将逻辑子系统1004和存储子系统1008的各方面集成在一个或多个共同设备中,通过该一个或多个共同设备,可以至少部分地实施本文所述的功能。这样的硬件逻辑组件可包括:例如,现场可编程门阵列(FPGA)、程序和应用专用集成电路(PASIC/ASIC)、程序和应用专用标准产品(PSSP/ASSP)、片上系统(SOC)系统以及复杂可编程逻辑设备(CPLD)。
图10还示出以可移动计算机可读存储介质1024形式的存储子系统1008的一方面,该介质可以用于存储可执行以实现此处所述的方法和过程的数据和/或指令。可移动计算机可读存储介质1024尤其是可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM和/或软盘的形式。
将明白,存储子系统1008包括一个或多个物理持久设备。相反,在一些实现中,本文描述的指令的各方面可以按暂态方式通过不由物理设备在至少有限持续时间期间保持的纯信号(例如电磁信号、光信号等)传播。此外,与本公开有关的数据和/或其他形式的信息可以经由计算机可读通信介质通过纯信号来传播。
当被包括时,传感器子系统1012可包括被配置成感测不同的物理现象(例如,可见光、红外光、声音、加速度、取向、位置等)的一个或多个传感器,如上所述。传感器子系统1012例如可以被配置为向逻辑子系统1004提供传感器数据。此类数据可包括注视跟踪信息、图像信息、环境光信息、深度信息、音频信息、位置信息、运动信息,用户位置信息和/或可被用来执行上述方法和过程的任何其他合适的传感器数据。
在被包括时,显示子系统1016可用于呈现由存储子系统1008保存的数据的视觉表示。由于以上所描述的方法和过程改变了由存储子系统1008保持的数据,并由此变换了存储子系统的状态,因此同样可以转变显示子系统1016的状态以在视觉上表示底层数据的改变。显示子系统1016可包括利用几乎任何类型的技术的一个或多个显示设备。可将此类显示设备与逻辑子系统1004和/或存储子系统1008组合在共享封装中,或此类显示设备可以是外围显示设备。
在被包括时,通信子系统1020可以被配置成将计算系统1000与一个或多个网络和/或一个或多个其他计算设备可通信地耦合。通信子系统1020可以包括与一个或多个不同通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统1020可被配置为经由无线电话网、无线局域网、有线局域网、无线广域网、有线广域网等进行通信。在一些实施例中,通信子系统可允许计算系统1000经由诸如因特网之类的网络发送消息至其他设备和/或从其他设备接收消息。
当被包括时,输入子系统1022可包括诸如游戏控制器、姿势输入检测设备、语音识别器、惯性测量单元、键盘、鼠标或触摸屏之类的一个或多个传感器或用户输入设备或者与这些传感器或用户输入设备对接。在一些实施例中,输入子系统1022可以包括所选择的自然用户输入(NUI)部件或与其对接。这样的部件可以是集成式的或者是外设,并且输入动作的转换和/或处理可以在板上或板下处理。示例NUI部件可包括用于话音和/或语音识别的话筒;用于机器视觉和/或姿势识别的红外、色彩、立体和/或深度相机;用于运动检测和/或意图识别的头部跟踪器、眼睛跟踪器、加速计和/或陀螺仪;以及用于评估脑部活动的电场感测部件。
术语“程序”可用于描述被实现来执行一个或多个特定功能的计算设备10和计算设备12的一个方面。在某些情况下,可以经由执行存储子系统1008所保持的指令的逻辑子系统1004来实例化这样的程序。将理解,可以从同一应用、服务、代码块、对象、库、例程、API、函数等实例化不同的程序。类似地,相同的模块可由不同的应用、服务、代码块、对象、例程、API、功能等来实例化。术语“程序”意在涵盖单个或成组的可执行文件、数据文件、库、驱动程序、脚本、数据库记录等。
将会理解,此处描述的配置和/或方法本质是示例性的,这些具体实施例或示例不应被视为限制性的,因为许多变体是可能的。此处描述的具体例程或方法可以表示任何数量的处理策略中的一个或多个。如此,所示和/或所述的各种动作可以以所示和/或所述顺序、以其它顺序、并行地执行,或者被省略。同样,上述过程的次序可以改变。
本公开的主题包括各种过程、系统和配置以及此处公开的其他特征、功能、动作和/或属性、以及它们的任一和全部等价物的所有新颖且非显而易见的组合和子组合。

Claims (10)

1.一种用于将计算机生成的图像通过立体显示系统显示给观看者的方法,所述方法包括:
建立从所述观看者的眼睛到所述计算机生成的图像的阈值显示位置的预定阈值距离;
确定从所述观看者的眼睛到所述计算机生成的图像的当前显示位置的视线聚合距离是处于或低于所述预定阈值距离;以及
基于所述视线聚合距离是处于或低于所述预定阈值距离,当所述观看者的眼睛朝着所述计算机生成的图像移动时增加所述计算机生成的图像的大小同时将所述视线聚合距离维持在所述预定阈值距离处。
2.如权利要求1所述的方法,其特征在于,进一步包括:
在所述观看者的眼睛朝着所述计算机生成的图像移动且所述计算机生成的图像的大小增加时,确定感知观看距离是处于或低于从所述观看者的眼睛到所述计算机生成的图像的预定边界距离;
以最大大小显示所述计算机生成的图像;以及
基于所述感知观看距离是处于或低于所述预定边界距离,且在所述观看者的眼睛朝着所述计算机生成的图像移动时,相对于固定的现实世界对象平移所述计算机生成的图像,同时将所述感知观看距离维持在所述预定边界距离处并维持最大大小的所述计算机生成的图像。
3.如权利要求2所述的方法,其特征在于,其中所述预定边界距离在0.5cm和4.0cm之间。
4.如权利要求2所述的方法,其特征在于,其中所述预定边界距离在0.75cm和1.25cm之间。
5.如权利要求1所述的方法,其特征在于,其中增加所述计算机生成的图像的大小还包括以一个比率成比例缩放所述计算机生成的图像,所述比率不是相对于所述观看者的眼睛朝着所述计算机生成的图像的平移的1:1。
6.一种被配置为将计算机生成的图像通过立体显示系统显示给观看者的头戴式显示设备,所述头戴式显示设备包括:
计算设备;以及
由所述计算设备的处理器执行的显示增强程序,所述显示增强程序被配置成:
建立从所述观看者的眼睛到所述计算机生成的图像的阈值显示位置的预定阈值距离;
确定从所述观看者的眼睛到所述计算机生成的图像的当前显示位置的视线聚合距离是处于或低于所述预定阈值距离;以及
基于所述视线聚合距离是处于或低于所述预定阈值距离,当所述观看者的眼睛朝着所述计算机生成的图像移动时增加所述计算机生成的图像的大小同时将所述当前视线聚合距离维持在所述预定阈值距离处。
7.如权利要求6所述的头戴式显示设备,其特征在于,其中所述预定阈值距离在50.0cm和200.0cm之间。
8.如权利要求6所述的头戴式显示设备,其特征在于,其中所述预定阈值距离在75.0cm和175.0cm之间。
9.如权利要求6所述的头戴式显示设备,其特征在于,其中增加所述计算机生成的图像的大小还包括围绕沿所述观看者的视线延伸且通过所述计算机生成的图像的枢轴点的轴来缩放所述计算机生成的图像。
10.如权利要求6所述的头戴式显示设备,其特征在于,其中增加所述计算机生成的图像的大小还包括以与所述观看者的眼睛朝着所述计算机生成的图像的平移成线性比例地均匀缩放所述计算机生成的图像。
CN201580034966.XA 2014-06-27 2015-06-24 立体图像显示器 Active CN106489171B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/318,451 US9473764B2 (en) 2014-06-27 2014-06-27 Stereoscopic image display
US14/318,451 2014-06-27
PCT/US2015/037306 WO2015200410A1 (en) 2014-06-27 2015-06-24 Stereoscopic image display

Publications (2)

Publication Number Publication Date
CN106489171A true CN106489171A (zh) 2017-03-08
CN106489171B CN106489171B (zh) 2020-03-24

Family

ID=53511013

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580034966.XA Active CN106489171B (zh) 2014-06-27 2015-06-24 立体图像显示器

Country Status (4)

Country Link
US (1) US9473764B2 (zh)
EP (1) EP3161544B1 (zh)
CN (1) CN106489171B (zh)
WO (1) WO2015200410A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247511A (zh) * 2017-05-05 2017-10-13 浙江大学 一种基于虚拟现实中眼动捕捉的跨物体交互方法与装置
CN115327782A (zh) * 2022-10-11 2022-11-11 歌尔股份有限公司 显示控制方法、装置、头戴显示设备以及可读存储介质

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9497501B2 (en) 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US9934614B2 (en) * 2012-05-31 2018-04-03 Microsoft Technology Licensing, Llc Fixed size augmented reality objects
US11266919B2 (en) * 2012-06-29 2022-03-08 Monkeymedia, Inc. Head-mounted display for navigating virtual and augmented reality
US20160085072A1 (en) * 2014-01-24 2016-03-24 Osterhout Group, Inc. See-through computer display systems
US10256859B2 (en) * 2014-10-24 2019-04-09 Usens, Inc. System and method for immersive and interactive multimedia generation
KR101930657B1 (ko) * 2014-10-24 2018-12-18 유센스, 인코퍼레이티드 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
KR102658303B1 (ko) 2016-02-18 2024-04-18 애플 인크. 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
US10176641B2 (en) 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view
US10712899B2 (en) 2017-10-17 2020-07-14 Microsoft Technology Licensing, Llc Human-machine interface tethered to a user position in a three-dimensional VR or AR environment
CN111615835B (zh) 2017-12-18 2021-11-30 杜比国际公司 用于在虚拟现实环境中呈现音频信号的方法和系统
US10853911B2 (en) * 2018-04-17 2020-12-01 Google Llc Dynamic adaptation of images for projection, and/or of projection parameters, based on user(s) in environment
JPWO2019225354A1 (ja) * 2018-05-22 2021-07-26 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102479052A (zh) * 2010-11-26 2012-05-30 Lg电子株式会社 移动终端及其操作控制方法
CN102740095A (zh) * 2011-04-08 2012-10-17 索尼公司 3d视频分析
CN102822621A (zh) * 2010-04-06 2012-12-12 富士胶片株式会社 校准数据选择装置、选择方法、选择程序以及三维位置测量设备
US20130050258A1 (en) * 2011-08-25 2013-02-28 James Chia-Ming Liu Portals: Registered Objects As Virtualized, Personalized Displays
US20130326364A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2293365C2 (ru) 2002-11-13 2007-02-10 Сириал Текнолоджиз Гмбх Устройство для восстановления видеоголограмм
DE102006018689A1 (de) 2006-04-13 2007-10-25 Seereal Technologies S.A. Verfahren zum Rendern und Generieren computergenerierter Videohologramme in Echtzeit
DE102007023738A1 (de) 2007-05-16 2009-01-08 Seereal Technologies S.A. Verfahren und Einrichtung zum Rekonstruieren einer dreidimensionalen Szene in einem holographischen Display
DE102007025069B4 (de) 2007-05-21 2018-05-24 Seereal Technologies S.A. Holographisches Rekonstruktionssystem
KR101682205B1 (ko) 2010-05-03 2016-12-05 삼성전자주식회사 입체영상의 시청피로를 저감하는 장치 및 방법
GB201008338D0 (en) 2010-05-19 2010-07-07 Sec Dep For Innovation Univers Infinity image hologram
CN102959967B (zh) 2010-06-25 2015-07-01 富士胶片株式会社 图像输出装置及方法
US20150070477A1 (en) 2012-03-30 2015-03-12 Sony Corporation Image processing device, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102822621A (zh) * 2010-04-06 2012-12-12 富士胶片株式会社 校准数据选择装置、选择方法、选择程序以及三维位置测量设备
CN102479052A (zh) * 2010-11-26 2012-05-30 Lg电子株式会社 移动终端及其操作控制方法
CN102740095A (zh) * 2011-04-08 2012-10-17 索尼公司 3d视频分析
US20130050258A1 (en) * 2011-08-25 2013-02-28 James Chia-Ming Liu Portals: Registered Objects As Virtualized, Personalized Displays
US20130326364A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247511A (zh) * 2017-05-05 2017-10-13 浙江大学 一种基于虚拟现实中眼动捕捉的跨物体交互方法与装置
CN107247511B (zh) * 2017-05-05 2019-07-16 浙江大学 一种基于虚拟现实中眼动捕捉的跨物体交互方法与装置
CN115327782A (zh) * 2022-10-11 2022-11-11 歌尔股份有限公司 显示控制方法、装置、头戴显示设备以及可读存储介质

Also Published As

Publication number Publication date
EP3161544B1 (en) 2023-10-18
US9473764B2 (en) 2016-10-18
EP3161544A1 (en) 2017-05-03
WO2015200410A1 (en) 2015-12-30
US20150381974A1 (en) 2015-12-31
CN106489171B (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
CN106489171A (zh) 立体图像显示器
CN106462733B (zh) 一种用于视线检测校准的方法和计算设备
CN106462233B (zh) 用于显示设备观看者视线吸引的方法和设备
CN106255943B (zh) 身体锁定增强现实与世界锁定增强现实之间的转换
CN110908503B (zh) 跟踪设备的位置的方法
CN106537261B (zh) 全息键盘显示
CN108369449B (zh) 第三方全息门户
CN106255939B (zh) 世界锁定显示质量反馈
CN107209386B (zh) 增强现实视野对象跟随器
CN105264478B (zh) 全息锚定和动态定位
US10373392B2 (en) Transitioning views of a virtual model
CN103149689B (zh) 扩充的现实虚拟监视器
EP2887322B1 (en) Mixed reality holographic object development
US20160371884A1 (en) Complementary augmented reality
JP6558839B2 (ja) 媒介現実
CN108885803A (zh) 物理环境中的虚拟对象操纵
KR20150110726A (ko) 혼합 현실 경험 공유
CN106575039A (zh) 具有确定用户眼镜特性的眼睛跟踪设备的平视显示器
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
WO2014028650A1 (en) Mixed reality holographic object development
CN107810634A (zh) 用于立体增强现实的显示器
US11783552B2 (en) Identity-based inclusion/exclusion in a computer-generated reality experience
US20220230357A1 (en) Data processing
US20210358173A1 (en) Computationally efficient method for computing a composite representation of a 3d environment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant