CN102681177A - 调整可佩戴观看设备的3d效果 - Google Patents

调整可佩戴观看设备的3d效果 Download PDF

Info

Publication number
CN102681177A
CN102681177A CN2012100462177A CN201210046217A CN102681177A CN 102681177 A CN102681177 A CN 102681177A CN 2012100462177 A CN2012100462177 A CN 2012100462177A CN 201210046217 A CN201210046217 A CN 201210046217A CN 102681177 A CN102681177 A CN 102681177A
Authority
CN
China
Prior art keywords
wearable
evaluation
equipment
evaluation equipment
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012100462177A
Other languages
English (en)
Inventor
J·克莱维恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102681177A publication Critical patent/CN102681177A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/403Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being monoscopic

Abstract

本申请涉及调整可佩戴观看设备的3D效果。公开了涉及为一个或多个可佩戴的3D观看设备显示3D效果的各种实施例。例如,一个公开的实施例提供了一种方法,该方法包括:对于一个或多个可佩戴的3D观看设备中的每个设备,检测该可佩戴的3D观看设备的属性,并且对于要向一个或多个可佩戴的3D观看设备的用户呈现的3D效果,基于所检测到的属性来调整所述3D效果的呈现。

Description

调整可佩戴观看设备的3D效果
技术领域
本申请涉及3D效果的显示,特别是调整可佩戴观看设备的3D效果。
背景技术
诸如图像、电影、视频等内容向观众的三维(3D)呈现可以以各种方式来实现。例如,被配置为向观众显示偏置图像(off-set images)的显示设备的观众可以佩戴诸如(例如具有分开的红色和青色镜片)立体眼镜或偏振眼镜之类的无源可佩戴3D观看设备。作为另一示例,被配置为显示由快门镜片过滤的交替帧序列的显示设备的观众可以佩戴例如具有快门镜片的有源可佩戴3D观看设备。作为另一示例,具有位于每个眼镜前方的分开的显示屏的头戴式显示设备(HMD)可以向佩戴者呈现出3D效果。而且,在一些示例中,HMD可以具有被配置为至少部分模拟有源或无源3D观看设备的能力。作为又一个示例,自动立体视觉可被显示设备用于在不使用特殊头饰或眼镜的情况下向观众显示立体图像。
发明内容
揭示了涉及在3D呈现环境中为一个或多个可佩戴的3D观看设备显示3D效果的各种实施例。基于各种检测到的一个或多个可佩戴的3D观看设备的属性来调整在3D呈现环境中对所述一个或多个可佩戴的3D观看设备的用户的3D效果的呈现。
提供本发明内容以便以简化形式介绍将在以下具体实施例中进一步描述的一些概念。本发明内容并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中所提及的任何或所有缺点的实现。
附图说明
图1示出了包括观众和显示设备的示例3D呈现环境。
图2示出了用于为一个或多个可佩戴的3D观看设备显示3D效果的方法的一个实施例。
图3示出了用于为一个或多个可佩戴的3D观看设备显示3D效果的方法的另一实施例。
图4示出了描述根据本公开的计算设备的实施例的框图。
具体实施方式
图1示出包括观众102、108、114、120和126以及显示设备130的示例3D呈现环境100。
显示设备130可以是被配置为将三维(3D)内容呈现给一个或多个观众的任何合适的显示设备。例如,显示设备130可以是电视机、计算机监视器、移动显示设备、布告板、标语、自动售货机等。
显示设备130可以被配置为以各种方式向观众呈现3D内容。例如,显示设备130可以被配置为向佩戴了诸如(例如具有分开的红色和青色镜片的)立体眼镜或偏振眼镜之类的无源3D观看设备的观众显示偏置图像。作为另一个示例,显示设备130可以被配置为向佩戴了具有快门镜片的有源3D观看设备的观众显示交替帧序列。作为又一个示例,显示设备130可以被配置为向没有佩戴特殊头饰或眼镜的观众直接显示立体图像。
3D呈现环境中的观众,例如图1所示的观众102、108、114、120和126可以佩戴各种不同类型的可佩戴的3D观看设备。例如,观众102是可佩戴的3D观看设备104的用户,观众108是可佩戴的3D观看设备110的用户,观众114是可佩戴的3D观看设备116的用户,而观众120是可佩戴的3D观看设备122的用户。另外,在一些示例中,3D呈现环境中的一个或多个观众可以不佩戴或不使用可佩戴的3D观看设备。例如,图1中示出的观众126不佩戴或不使用可佩戴的3D观看设备。
3D呈现环境中的用户所使用的可佩戴的3D观看设备的示例类型包括,但不限于:无源的可佩戴3D观看设备,例如(如具有分开的红色和青色镜片的)立体眼镜或偏振眼镜;有源的可佩戴的3D观看设备,例如快门镜片;以及具有位于每个眼镜前方的分开的显示屏的头戴式显示设备(HMD)。
在一些示例中,头戴式显示设备(HMD)可以具有被配置为至少部分模拟有源或无源3D观看设备的能力。例如,HMD设备能够在透射模式中工作,在该模式中,HMD的镜片至少部分允许外部光穿过镜片进入用户的眼睛。在模拟无源设备时,HMD中的镜片可以被配置为通过过滤颜色(在模拟立体眼镜的情况下)或通过偏振过滤(在模拟偏振眼镜的情况下)来过滤外部光。在模拟有源设备时,HMD的镜片的透射性可以在开启和关闭之间交替切换以模拟快门镜片。而且,当显示设备使用自动立体视觉时,HMD可以允许所有的外部光都穿过镜片。
而且,存在各类型的可佩戴的3D观看设备的不同的型号或版本,它们具有不同的性能和最佳的工作条件。例如,图1中的两个观众可以佩戴具有不同的性能和最佳工作条件的不同的HMD设备。例如,一些HMD设备能够模拟无源或有源的3D观看设备,但是其他HMD设备可能不具有模拟无源或有源的3D观看设备的能力。而且,不同的HMD设备可以具有不同的分辨率、刷新率、功率设置、操作模式等。
在一些情况中,图1中的两个或更多的观众将佩戴(例如具有快门镜片)的有源观看设备。在这种情况中,设备可以依据它们的性能或最佳工作条件来变化。例如,设备的快门镜片可以被设定为按照不同的频率工作。
当显示设备向呈现环境中具有不同性能的各种不同类型的可佩戴的3D观看设备呈现3D效果时,在一些示例中,并不是所有这样的可佩戴的3D设备都能感知到这种3D效果。例如,由观众114使用的可佩戴的3D观看设备116可以是有源观看设备,而由观众120使用的可佩戴的3D观看设备122可以是无源观看设备。在这个示例中,如果向观众114和观众120仅显示偏置图像,则观众114将不能感知到3D效果。
除了3D呈现环境中的不同观众所使用的可佩戴的3D观看设备的各种类型和性能之外,可佩戴的3D观看设备的各种其他的因素或属性会对所述不同的观众是否感知到3D效果或感知到怎样的3D效果产生影响。
例如,观众在该环境中相对于显示设备的定位可以对佩戴不同的3D观看设备的不同观众是否感知到3D效果或感知到怎样的3D效果产生影响。作为示例情况,如果观众120所使用的可佩戴的3D观看设备122是无源观看设备且观众108所使用的可佩戴的3D观看设备110也是无源观看设备,那么由于观众120比观众108离显示设备130更近,向观众108显示的图像中的偏置的量可能必须比向观众120显示的图像中的偏置的量少,以便为这两个观众都提供最佳的3D效果。或者,向观众呈现的偏置的量可以被平均化以便适应不同的距离。
对不同的观众是否感知到3D效果或感知到怎样的3D效果可能产生影响的可佩戴的3D观看设备的其它示例属性包括:3D观看设备是否由观众佩戴、3D观看设备是否通电、(例如当3D观看设备是有源观看设备时的)3D观看设备的最佳刷新率、偏振3D眼镜的偏振方案、佩戴3D观看设备的观众的朝向等。
为了使得在具有多个观众的3D呈现环境中的3D效果的呈现最佳,所述用户使用具有不同属性的各种不同的可佩戴的3D设备,可以如下所述基于检测到的各种不同的可佩戴的3D设备的属性来调整3D效果。
现在转向图2,示出了用于为一个或多个可佩戴的3D观看设备显示3D效果的方法200的一个实施例。
在202,方法200包括检测一个或多个可佩戴的3D观看设备的属性。即,对于3D呈现环境中的一个或多个可佩戴的3D观看设备的每一个,可检测该可佩戴的3D观看设备的属性。
可佩戴的3D观看设备的属性的一个示例是设备类型。例如,可佩戴的3D观看设备可以是无源的可佩戴的3D观看设备,例如(如具有分开的红色和青色镜片)的立体眼镜或偏振眼镜;例如具有快门镜片的有源的可佩戴的3D观看设备;或具有位于每个眼睛前方的分开的显示屏的头戴式显示设备(HMD)。另外,在一些示例中,3D呈现环境中的观众可能没有佩戴3D观看设备。
这样,在一些示例中,检测可佩戴的3D观看设备的属性可以包括检测可佩戴的3D观看设备的类型,所述类型可以是无源的可佩戴的3D观看设备、有源的可佩戴的3D观看设备以及头戴式显示设备中的一种。
可佩戴的3D观看设备的属性的另一示例是设备性能。例如,各种类型的可佩戴的3D观看设备的不同的型号或版本可以具有不同的性能和最佳的工作条件。例如,不同的有源的3D观看设备可以具有不同的最佳快门频率,不同的无源3D观看设备可以在离开显示设备的不同的距离上最佳地发挥作用,而不同的HMD可以具有不同的模拟性能。例如,一些HMD能够模拟无源和有源的设备,但是其它的则不具有这种性能。这样,在一些示例中,检测可佩戴的3D观看设备的属性可以包括检测可佩戴的3D观看设备的性能。
可佩戴的3D观看设备的属性的又一个示例是可佩戴的3D观看设备在3D呈现环境中的位置。例如,从可佩戴的3D观看设备到显示设备的距离可以对所述3D观看设备的用户是否感知到3D效果或感知到怎样的3D效果产生影响。这样,在一些示例中,检测可佩戴的3D观看设备的属性可以包括检测从可佩戴的3D观看设备到在其上呈现3D效果的显示设备的距离。
对不同的观众是否感知到3D效果或感知到怎样的3D效果可能产生影响的可佩戴的3D观看设备的其它示例属性包括:3D观看设备是否由观众佩戴、3D观看设备是否通电、(例如当3D观看设备是有源观看设备时的)3D观看设备的最佳刷新率、偏振3D眼镜的偏振方案、佩戴3D观看设备的观众的朝向等。
可使用各种方法来检测3D呈现环境中的一个或多个可佩戴的设备的属性。例如,显示设备130可以包括合适的传感器,例如深度相机、IR捕捉设备或被配置为检测环境中的可佩戴的3D设备的属性的任何合适的传感器。在一些示例中,显示设备130可以与诸如机顶盒、控制台之类的传感器设备132相耦合或包括传感器设备132,所述传感器设备被配置为检测环境中的可佩戴的3D观看设备的属性。
可以结合合适的传感器使用各种协议以检测环境中的一个或多个可佩戴的3D观看设备的属性。例如,可以使用面部识别或机器视觉软件来标识可佩戴的3D观看设备的类型或特定用户是否没有佩戴观看设备。作为另一个示例,深度相机可以捕捉环境的深度图并使用骨架追踪来检测环境中观众所使用的可佩戴的3D设备的位置信息、距离和类型。例如,如图1所示,可以检测并使用相对于传感器设备132处的原点134的3D坐标(例如x,y,z坐标)来分别确定离观众102、108、114、120和126的距离106、112、118、124和128。
在一些示例中,环境中的一个或多个可佩戴的3D观看设备可以主动地向显示设备或传感器设备传送指示它们的属性或状态的信号,例如它们是被开启还是关闭、功率等级、它们的性能是什么、最佳刷新率、最佳观看距离等。
在一些示例中,环境中的一个或多个可佩戴的3D观看设备可以被动地向显示设备或传感器设备传送指示它们的属性或状态的信号。例如,环境中的一个或多个可佩戴的3D观看设备可包括反射标签,例如IR标签、Mobi标签之类,它们包括了显示设备或传感器设备可访问的属性信息。
这样,在一些示例中,检测可佩戴的3D观看设备的属性可以包括接收来自可佩戴的3D观看设备的通信,其中,所述通信指示了该可佩戴的3D观看设备的属性。例如,3D观看设备可以主动地或被动地将属性信息发送给显示设备或传感器设备。
在204,方法200包括,对于将向一个或多个可佩戴的3D观看设备的用户呈现的3D效果,基于所检测到的属性来调整所述3D效果的呈现。
许多不同的场景是可能的。例如,如果3D呈现环境中的所有观众正在使用HMD设备,那么,可使3D效果适于在所有HMD设备上与它们各自性能相适应地沉浸式呈现。即,在该示例中,系统可以将3D效果直接呈现给HMD设备中的镜片。可以向每个HMD设备呈现基于该HMD设备的具体性能所调整的3D效果。例如,可以基于HMD设备性能和状态来特别地调整刷新率、分辨率等。
作为另一个示例,如果一个观众使用HMD设备且另一个观众使用无源观看设备,那么,如果有能力的话,HMD设备可以模拟无源观看设备。例如,HMD可以模拟(例如具有分开的红色和青色镜片的)立体眼镜或偏振眼镜,以便在单独的显示设备上向两个观众都呈现3D效果。作为另一个示例,如果一个观众使用HMD设备且另一个观众使用有源观看设备,那么,如果有能力的话,HMD设备可以模拟有源观看设备。或者,HMD可以在沉浸模式中工作,而不是模拟其它设备。
作为又一个示例,如果一个观众没有佩戴3D观看设备且另一观众佩戴了HMD设备,那么,可以向HMD设备提供3D效果的沉浸呈现,而向没有佩戴3D观看设备的观众呈现直接来自显示设备的3D效果。在其它示例中,如果一个观众没有佩戴3D观看设备,那么,可以向该观众提供二维(2D)呈现。
作为又一个示例,如果佩戴无源观看设备的观众在离显示设备的不同距离处,则基于检测到的属性来调整3D效果的呈现可以包括考虑不同的距离来调整图像偏置量。或者,可以将3D效果呈现调整到平均值,例如,平均偏置量,以便将共同的3D效果呈现给观众。通常,当在与观看设备分开的显示屏幕(例如显示设备130)上呈现3D效果时,可以将所述呈现调整为最低的共同属性/能力,以使得所有用户都感知到3D效果。
另外,在一些示例中,3D呈现环境中的观众可以移动位置或改变他们正在使用的观看设备的类型。这样,可以不断地、实时地或周期性地执行对可佩戴的3D观看设备的属性的检测,以便可以基于环境中的可佩戴的3D观看设备的经更新的属性来动态更新向观众所呈现的3D效果。
可以在单个可佩戴设备的情况下使用这些方法,虽然这些方法通常在具有多个设备的设置中使用。图3特别针对多个设备的情况,并且示出了用于为一个或多个可佩戴的3D观看设备显示3D效果的方法300的另一实施例。
在302,方法300包括,对于第一可佩戴的3D观看设备,检测第一可佩戴的3D观看设备的第一属性。在304,方法300包括,对于第二可佩戴的3D观看设备,检测第二可佩戴的3D观看设备的第二属性,其中,所述第二属性与第一属性不同。
例如,第一属性和第二属性中的一个可以是离显示设备的距离,所述显示设备与第一可佩戴的3D观看设备和第二可佩戴的3D观看设备分开。在这种情况下,该距离将对第一和/或第二可佩戴的3D观看设备的用户感知到怎样的3D效果产生影响。
在306,方法300包括,对于要对第一可佩戴的3D观看设备和第二可佩戴的3D观看设备呈现的一个或多个的3D效果,基于所述第一属性和第二属性中的至少一个来调整这样的一个或多个的3D效果的呈现。
在一些示例中,调整一个或多个的3D效果的呈现可以包括向第一可佩戴的3D观看设备的用户呈现第一3D效果,并向第二可佩戴的3D观看设备的用户呈现第二3D效果,第一3D效果不同于第二3D效果。例如,第一可佩戴的3D观看设备可以是头戴式显示器,第一3D效果适于在这样的头戴式显示器上的沉浸式呈现,而第二3D效果可适于在与第一可佩戴的3D观看设备和第二可佩戴的3D观看设备分开的显示设备上的呈现。而且,在一些示例中,基于检测到第一可佩戴的3D观看设备和第二可佩戴的3D观看设备在性能方面的不同,第一3D效果可不同于第二3D效果。另外,在一些示例中,调整这样的一个或多个3D效果的呈现可以包括呈现单个3D效果,该单个3D效果既可使用第一可佩戴的3D观看设备又能使用第二可佩戴的3D观看设备来感知到。
以这种方式,可以基于3D呈现环境中的可佩戴的3D设备的属性来自动调整3D效果和内容的显示。例如,可以基于佩戴或不佩戴3D眼镜,或佩戴一种类型的观看设备对比佩戴另一种的多个观众的优势来调整3D效果的呈现。例如,如果存在多个观看内容的人,系统可以确定佩戴第一种类型的3D观看设备的人数对比佩戴第二种类型的3D观看设备的人数,并据此显示内容。
图4示意性示出了可以执行上述方法和过程之中的一个或更多个的非限制性计算系统400。计算设备400可以表示显示设备130、传感器设备132或可佩戴的3D观看设备104、110、116和122中的任何设备。
以简化形式示出了计算设备400。应当理解,可使用基本上任何计算机架构而不背离本公开的范围。在不同的实施例中,计算设备400可以采取大型计算机、服务器计算机、台式计算机、膝上型计算机、平板计算机、家庭娱乐计算机、网络计算设备、移动计算设备、移动通信设备、游戏设备等等的形式。
计算设备400包括逻辑子系统402和数据保持子系统404。计算设备400可以任选地包括显示子系统406、通信子系统408、属性检测子系统412、呈现子系统414和/或在图4中未示出的其他组件。计算设备400还可以任选地包括诸如下列用户输入设备:例如键盘、鼠标、游戏控制器、相机、话筒和/或触摸屏等等。
逻辑子系统402可包括被配置为执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统402可被配置为执行一个或多个指令,该一个或多个指令是一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其他逻辑构造的一部分。可实现此类指令以执行任务、实现数据类型、变换一个或多个设备的状态、或以其他方式得到所需结果。
逻辑子系统402可以包括被配置为执行软件指令的一个或多个处理器。附加地或可替代地,逻辑子系统402可以包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统402的处理器可以是单核或多核的,且在上面执行的程序可以被配置为供并行或分布式地处理。逻辑子系统可以任选地包括遍布两个或更多设备的独立组件,所述设备可远程放置和/或被配置为进行协同处理。逻辑子系统402的一个或多个方面可被虚拟化并由以云计算配置进行配置的可远程访问的联网计算设备执行。
数据保持子系统404可包括一个或多个物理、非瞬时设备,这些设备被配置成保持数据和/或可由该逻辑子系统402执行的指令,以实现此处描述的方法和过程。在实现这样的方法和过程时,可以变换数据保持子系统404的状态(例如,以保持不同的数据)。
数据保持子系统404可包括可移动介质和/或内置设备。数据保持子系统404尤其可以包括光学存储器设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)和/或磁存储器设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)。数据保持子系统404可包括具有以下特性中的一个或多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址、以及内容可寻址。在某些实施例中,可以将逻辑子系统402和数据保持子系统404集成到一个或更多个常见设备中,如专用集成电路或片上系统。
图4还示出以可移动计算机可读存储介质410形式的数据保持子系统的一方面,可移动计算机可读存储介质可用于存储和/或传输可执行以实现本文描述的方法和过程的数据和/或指令。可移动计算机可读存储介质410尤其是可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM和/或软盘形式。
显示子系统406可用于呈现由数据保持子系统404所保持的数据的可视表示。由于此处所描述的方法和过程改变由数据保持子系统保持的数据,并由此变换数据保持子系统的状态,因此同样可以变换显示子系统406的状态以在视觉上表示底层数据的改变。显示子系统406可以包括使用实际上任何类型的技术的一个或多个显示设备。可将此类显示设备与逻辑子系统402和/或数据保存子系统404一起组合在共享封装中,或此类显示设备可以是外围显示设备。
通信子系统408可以被配置成将计算设备400与一个或多个其他计算设备可通信地耦合。通信子系统408可包括与一个或多个不同的通信协议相兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统可被配置为经由无线电话网、无线局域网、有线局域网、无线广域网、有线广域网等进行通信。在一些实施例中,通信子系统可允许计算设备400经由诸如因特网之类的网络发送消息至其他设备和/或从其他设备接收消息。
属性检测子系统412可以由逻辑子系统可执行的指令来具体化或实例化以如上所述地检测3D呈现环境中的一个或多个可佩戴的3D观看设备的属性。类似地,呈现子系统414可以由逻辑子系统可执行的指令来具体化或实例化以如上所述地基于检测到的属性调整3D效果并将其呈现给3D呈现环境中的可佩戴的3D设备的用户。
应该理解,此处所述的配置和/或方法在本质上是示例性的,并且,由于可能存在多个变体,所以这些特定实施例或示例不具有限制意义。本文中所述的具体例程或方法可表示任意数量的处理策略中的一个或多个。由此,所示的各个动作可按所述的顺序执行、按其他顺序执行、并行地执行、或者在某些情况下被省略。同样,可改变上述过程的次序。
本公开的主题包括各种过程、系统和配置的所有新颖和非显而易见的组合和子组合,和此处所公开的其他特征、功能、动作、和/或特性、以及其任何和全部等效物。

Claims (10)

1.一种用于为一个或多个可佩戴的3D观看设备(104、110、116、122)显示3D效果的方法(200),包括:
对于所述一个或多个可佩戴的3D观看设备(104、110、116、122)中的每一个,检测(202)所述可佩戴的3D观看设备的属性;以及
对于要向一个或多个可佩戴的3D观看设备(104、110、116、122)呈现的3D效果,基于所检测到的属性来调整(204)所述3D效果的呈现。
2.如权利要求1所述的方法,其特征在于,检测所述可佩戴的3D观看设备的属性包括检测从所述可佩戴的3D观看设备到在其上呈现3D效果的显示设备的距离。
3.如权利要求1所述的方法,其特征在于,检测所述可佩戴的3D观看设备的属性包括检测所述可佩戴的3D观看设备的类型。
4.如权利要求3所述的方法,其特征在于,所述类型是无源可佩戴的3D观看设备、有源可佩戴的3D观看设备以及头戴式显示设备中的一个。
5.如权利要求1所述的方法,其特征在于,检测所述可佩戴的3D观看设备的属性包括检测所述可佩戴的3D观看设备的性能。
6.如权利要求1所述的方法,其特征在于,检测所述可佩戴的3D观看设备的属性包括接收来自所述可佩戴的3D观看设备的通信,其中,所述通信指示了所述可佩戴的3D观看设备的属性。
7.如权利要求1所述的方法,其特征在于,调整所述3D效果的呈现包括:在具有多个不同类型的可佩戴的3D观看设备的设置中,呈现所述3D效果以使得其可以被所有这样的3D观看设备感知到。
8.如权利要求1所述的方法,其特征在于,还包括:在具有多个不同类型的可佩戴的3D观看设备的设置中,向一种类型的可佩戴的3D观看设备呈现第一3D效果,而向另一类型的可佩戴的3D观看设备呈现另一个不同的3D效果。
9.如权利要求1所述的方法,其特征在于,所述一个或多个可佩戴的3D观看设备包括第一可佩戴的3D观看设备和第二可佩戴的3D观看设备,并且其中,调整3D效果的呈现包括基于第二可佩戴的3D观看设备的性能调整要向第一可佩戴的3D观看设备呈现的3D效果。
10.一种计算设备(400),包括:
逻辑子系统(402);以及
数据保持子系统(404),包含存储在其上的可由所述逻辑子系统(402)执行的机器可读指令以:
对于一个或多个可佩戴的3D观看设备(104、110、116、122)中的每一个,检测(202)所述可佩戴的3D观看设备的属性;以及
对于要向一个或多个可佩戴的3D观看设备(104、110、116、122)呈现的3D效果,基于所检测到的属性来调整(204)所述3D效果的呈现。
CN2012100462177A 2011-02-28 2012-02-27 调整可佩戴观看设备的3d效果 Pending CN102681177A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/036,498 2011-02-28
US13/036,498 US20120218253A1 (en) 2011-02-28 2011-02-28 Adjusting 3d effects for wearable viewing devices

Publications (1)

Publication Number Publication Date
CN102681177A true CN102681177A (zh) 2012-09-19

Family

ID=46718674

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012100462177A Pending CN102681177A (zh) 2011-02-28 2012-02-27 调整可佩戴观看设备的3d效果

Country Status (5)

Country Link
US (1) US20120218253A1 (zh)
CN (1) CN102681177A (zh)
AR (1) AR085514A1 (zh)
TW (1) TW201239403A (zh)
WO (1) WO2012118601A1 (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120218321A1 (en) * 2009-11-19 2012-08-30 Yasunori Ake Image display system
US9330302B2 (en) 2014-02-26 2016-05-03 Microsoft Technology Licensing, Llc Polarized gaze tracking
US10282696B1 (en) 2014-06-06 2019-05-07 Amazon Technologies, Inc. Augmented reality enhanced interaction system
US10701349B2 (en) 2015-01-20 2020-06-30 Misapplied Sciences, Inc. Method for calibrating a multi-view display
US11099798B2 (en) 2015-01-20 2021-08-24 Misapplied Sciences, Inc. Differentiated content delivery system and method therefor
US10955924B2 (en) 2015-01-29 2021-03-23 Misapplied Sciences, Inc. Individually interactive multi-view display system and methods therefor
US10928914B2 (en) 2015-01-29 2021-02-23 Misapplied Sciences, Inc. Individually interactive multi-view display system for non-stationary viewing locations and methods therefor
US10264247B2 (en) 2015-02-03 2019-04-16 Misapplied Sciences, Inc. Multi-view displays
CA2978717C (en) * 2015-03-03 2023-06-20 Misapplied Sciences, Inc. System and method for displaying location dependent content
US10362301B2 (en) 2015-03-05 2019-07-23 Misapplied Sciences, Inc. Designing content for multi-view display
KR102321364B1 (ko) * 2015-03-05 2021-11-03 삼성전자주식회사 3차원 배경 콘텐트를 합성하는 방법 및 디바이스
US9715827B2 (en) * 2015-04-01 2017-07-25 Misapplied Sciences, Inc. Multi-view traffic signage
US9743500B2 (en) 2015-06-11 2017-08-22 Misapplied Sciences, Inc. Multi-view architectural lighting system
US9792712B2 (en) 2015-06-16 2017-10-17 Misapplied Sciences, Inc. Computational pipeline and architecture for multi-view displays
PT3228237T (pt) 2016-04-08 2020-06-09 Vivior Ag Um dispositivo e método para medir distâncias
US10602131B2 (en) 2016-10-20 2020-03-24 Misapplied Sciences, Inc. System and methods for wayfinding and navigation via multi-view displays, signage, and lights
US10269279B2 (en) 2017-03-24 2019-04-23 Misapplied Sciences, Inc. Display system and method for delivering multi-view content
US20180373293A1 (en) * 2017-06-21 2018-12-27 Newtonoid Technologies, L.L.C. Textile display system and method
US10427045B2 (en) 2017-07-12 2019-10-01 Misapplied Sciences, Inc. Multi-view (MV) display systems and methods for quest experiences, challenges, scavenger hunts, treasure hunts and alternate reality games
US10565616B2 (en) * 2017-07-13 2020-02-18 Misapplied Sciences, Inc. Multi-view advertising system and method
US10404974B2 (en) 2017-07-21 2019-09-03 Misapplied Sciences, Inc. Personalized audio-visual systems
US10778962B2 (en) 2017-11-10 2020-09-15 Misapplied Sciences, Inc. Precision multi-view display
US11014242B2 (en) * 2018-01-26 2021-05-25 Microsoft Technology Licensing, Llc Puppeteering in augmented reality

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5007715A (en) * 1988-03-10 1991-04-16 U.S. Philips Corporation Display and pick-up device for stereoscopic picture display
US5821989A (en) * 1990-06-11 1998-10-13 Vrex, Inc. Stereoscopic 3-D viewing system and glasses having electrooptical shutters controlled by control signals produced using horizontal pulse detection within the vertical synchronization pulse period of computer generated video signals
US20050066165A1 (en) * 2002-12-31 2005-03-24 Vidius Inc. Method and system for protecting confidential information
US6956576B1 (en) * 2000-05-16 2005-10-18 Sun Microsystems, Inc. Graphics system using sample masks for motion blur, depth of field, and transparency
US6985290B2 (en) * 1999-12-08 2006-01-10 Neurok Llc Visualization of three dimensional images and multi aspect imaging
CN101966393A (zh) * 2009-07-16 2011-02-09 索尼计算机娱乐美国有限责任公司 显示器观看系统和基于活动跟踪优化显示器画面的方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7660472B2 (en) * 2004-02-10 2010-02-09 Headplay (Barbados) Inc. System and method for managing stereoscopic viewing
WO2009029657A2 (en) * 2007-08-27 2009-03-05 Quan Xiao Apparatus and method of simulating a somatosensory experience in space
KR20100075068A (ko) * 2008-12-24 2010-07-02 삼성전자주식회사 입체영상 표시장치 및 그 제어방법
KR101296900B1 (ko) * 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
KR101324440B1 (ko) * 2009-02-11 2013-10-31 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
US20110199469A1 (en) * 2010-02-15 2011-08-18 Gallagher Andrew C Detection and display of stereo images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5007715A (en) * 1988-03-10 1991-04-16 U.S. Philips Corporation Display and pick-up device for stereoscopic picture display
US5821989A (en) * 1990-06-11 1998-10-13 Vrex, Inc. Stereoscopic 3-D viewing system and glasses having electrooptical shutters controlled by control signals produced using horizontal pulse detection within the vertical synchronization pulse period of computer generated video signals
US6985290B2 (en) * 1999-12-08 2006-01-10 Neurok Llc Visualization of three dimensional images and multi aspect imaging
US6956576B1 (en) * 2000-05-16 2005-10-18 Sun Microsystems, Inc. Graphics system using sample masks for motion blur, depth of field, and transparency
US20050066165A1 (en) * 2002-12-31 2005-03-24 Vidius Inc. Method and system for protecting confidential information
CN101966393A (zh) * 2009-07-16 2011-02-09 索尼计算机娱乐美国有限责任公司 显示器观看系统和基于活动跟踪优化显示器画面的方法

Also Published As

Publication number Publication date
AR085514A1 (es) 2013-10-09
US20120218253A1 (en) 2012-08-30
TW201239403A (en) 2012-10-01
WO2012118601A1 (en) 2012-09-07

Similar Documents

Publication Publication Date Title
CN102681177A (zh) 调整可佩戴观看设备的3d效果
US10083540B2 (en) Virtual light in augmented reality
EP3137976B1 (en) World-locked display quality feedback
US9934614B2 (en) Fixed size augmented reality objects
CN103149689B (zh) 扩充的现实虚拟监视器
CN106255943B (zh) 身体锁定增强现实与世界锁定增强现实之间的转换
CN106462233B (zh) 用于显示设备观看者视线吸引的方法和设备
CN101966393B (zh) 显示器观看系统和基于活动跟踪优化显示器画面的方法
US20170084084A1 (en) Mapping of user interaction within a virtual reality environment
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
US10546426B2 (en) Real-world portals for virtual reality displays
CN106489171A (zh) 立体图像显示器
EP2887322A1 (en) Mixed reality holographic object development
WO2012118769A2 (en) Immersive display experience
US11854148B2 (en) Virtual content display opportunity in mixed reality
US20190042834A1 (en) Methods and apparatus for real-time interactive anamorphosis projection via face detection and tracking
US11574389B2 (en) Reprojection and wobulation at head-mounted display device
Li et al. Enhancing 3d applications using stereoscopic 3d and motion parallax
CN111670465A (zh) 显示经修改的立体视觉内容
CN102186094B (zh) 一种媒体文件的播放方法及装置
US20210042022A1 (en) Configuring objective-effectuators for synthesized reality settings
Kara et al. Connected without disconnection: overview of light field metaverse applications and their quality of experience
CN105353882B (zh) 一种显示系统控制方法和装置
CN104345885A (zh) 立体跟踪状态指示方法及显示装置
JP6947753B2 (ja) ディスプレイデバイス及び表示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1173782

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150727

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150727

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120919

REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1173782

Country of ref document: HK