CN112770101A - 立体显示系统 - Google Patents
立体显示系统 Download PDFInfo
- Publication number
- CN112770101A CN112770101A CN202011122632.7A CN202011122632A CN112770101A CN 112770101 A CN112770101 A CN 112770101A CN 202011122632 A CN202011122632 A CN 202011122632A CN 112770101 A CN112770101 A CN 112770101A
- Authority
- CN
- China
- Prior art keywords
- observer
- stereoscopic
- detected
- stereoscopic image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 13
- 210000003128 head Anatomy 0.000 description 22
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Abstract
控制系统被配置为获取由成像设备所捕获的图像,并且基于在所获取的图像中的预定跟踪区域中检测到的观察者的位置,在显示装置上显示立体视觉图像。跟踪区域是观察者可跟踪的区域的一部分,并且跟踪区域包括从立体视觉图像能够识别出立体图像的立体观看区域。控制系统还被配置为在检测到的观察者在跟踪区域中变为无法追踪之后,基于最后一次检测到观察者的位置,在预定时间内显示立体视觉图像,以及在跟踪区域中未检测到观察者超过预定时间的情况下,显示对应于立体观看区域中预定位置的立体视觉图像。
Description
技术领域
本公开内容涉及立体显示系统。
背景技术
利用双眼视差的自动立体显示装置是已知的。自动立体显示装置包括显示面板和设置在显示面板前面的光控制元件。利用交替布置的用于右眼的像素和用于左眼的像素,显示面板同时显示用于右眼的图像和用于左眼的图像。光控制元件可以是视差屏障或双凸透镜,以使观察者仅用右眼可看到用于右眼的图像,且仅用左眼可看到用于左眼的图像。结果是,观察者无需使用诸如特殊眼镜的光学元件就可以识别立体视觉图像。
与此同时,已知一种自动立体显示系统,其与用于跟踪观察者的跟踪装置一起工作,以使观察者能够在宽广的空间中识别立体图像。自动立体显示系统基于由跟踪装置所获取的观察者的眼睛的位置和自动立体显示装置的光学特性,实时生成要由自动立体显示装置所显示的图像,以向观察者提供看起来舒适的立体图像。
发明内容
然而,现有的自动立体显示系统有时不会随着观察者的移动而适当地改变图像,或者尽管观察者没有移动,但是仍会改变图像。因此,需要一种将适当的立体视觉图像呈现给特定观察者的技术。
根据本公开内容的一个方面的立体显示系统包括:被配置为显示立体视觉图像的显示装置和控制系统。控制系统被配置为获取由成像装置所捕获的图像,并且基于在所获取的图像中的预定跟踪区域中检测到的观察者的位置,在显示装置上显示立体视觉图像。跟踪区域是可跟踪观察者的区域的一部分,并且跟踪区域包括从立体视觉图像能够识别出立体图像的立体观看区域。控制系统还被配置为所检测到的观察者变为无法追踪之后,基于在跟踪区域中最后一次检测到观察者的位置,在预定时间内显示立体视觉图像,以及在跟踪区域中未检测到观察者超过预定时间的情况下,显示对应于立体观看区域中的预定位置的立体视觉图像。
本公开内容的一个方面为观察者提供适当的立体视觉图像。
应当理解的是,前面的一般描述和下面的详细描述都是示例性和说明性的,并不限制本公开内容。
附图说明
图1示意性地示出了自动立体显示系统的配置实例;
图2示出了图像处理装置的结构实例;
图3是示出显示装置的立体观看区域的平面图;
图4示出了立体观看区域、最佳观看点和跟踪区域之间的关系的实例;
图5是图像处理装置的处理的实例的流程图;
图6示出了检测到的观察者的位置和显示图像的随时间变化的实例;
图7A示出了两个观察者的位置变化与目标位置的关系的实例;
图7B示出了两个观察者的位置变化与目标位置的关系的另一实例;
图8示出了由多个子立体观看区域构成的立体观看区域的实例;
图9示出了观察者的眼睛之间的中心位于子立体观看区域内的实例;
图10示出了观察者的眼睛之间的中心不位于任何子立体观看区域内的实例;以及
图11示出了由多个子立体观看区域组成的立体观看区域与跟踪区域之间的关系的实例。
具体实施方式
在下文中,参考附图来具体地描述实施例。为了对说明书的清楚理解,附图中的元件的尺寸或形状可能被放大。应当注意的是,下面的说明是为了解释本公开的实施例,而不是限制本公开内容的范围。
本文公开的自动立体显示系统包括:用于显示立体视觉图像的显示装置和用于生成要用显示装置进行显示的图像的控制系统。立体视觉图像可以是静止图像或运动图像。控制系统在由成像设备所拍摄的图像中的预定跟踪区域内检测观察者的位置。跟踪区域是控制系统能够在其中检测或跟踪观察者的区域的一部分,并且包括观察者在立体观看区域中能够识别立体图像的立体观看区域。控制系统基于在跟踪区域中检测到的观察者的位置生成立体视觉图像,并将利用显示装置对立体视觉图像进行显示。
这种基于在预定跟踪区域中检测到的观察者的位置来显示立体图像,减少了改变所显示的立体图像以适合与目标观察者不同的人的位置的频率。
当在跟踪区域内所跟踪的观察者丢失时,控制系统基于观察者的最后一次检测到的位置在预定时间内显示立体视觉图像。如果在预定时间内在跟踪区域中未检测到观察者,则控制系统在立体观看区域中的预定位置显示立体视觉图像。
即使当在跟踪区域内暂时丢失观察者时,这种配置通过为观察者保持立体视觉图像来减少立体视觉图像的不期望的改变的频率。此外,这种配置通过在不存在观察者时在立体观看区域中的预定位置显示立体视觉图像来消除体视体图像的不必要的改变。
立体观看区域取决于显示装置的特性。立体观看区域可以由一个连续区域或多个隔离的子区域组成。跟踪区域可以由一个连续区域或多个隔离的子区域组成。跟踪区域的实例包括立体观看区域。跟踪区域可以包括立体观看区域之外的区域。跟踪区域的另一个实例是一个连续区域,并且与一个连续区域的立体观看区域重合。跟踪区域的又一个实例由多个子区域组成,并且每个子区域与立体观看区域的子区域重合。跟踪区域可以与立体观看区域的一部分重合,或者可以包括立体观看区域的一部分和立体观看区域之外的区域。
实施例1
图1示意性地示出了自动立体显示系统的配置实例。自动立体显示系统1包括显示装置10、图像处理装置20和跟踪装置30。显示装置10包括显示设备和光学元件,光学元件被设置在显示设备屏幕的前面(在屏幕和观察者之间)。显示设备可以是液晶显示设备或有机发光二极管(OLED)显示设备。可以使用任何种类的显示设备。例如,显示设备包括:显示面板,其包括以矩阵布置的多个像素、用于驱动显示面板的像素的驱动电路、以及用于驱动电路的控制电路。
利用交替布置的用于右眼的像素和用于左眼的像素,显示设备同时显示用于右眼的图像和用于左眼的图像。光控元件可以是视差屏障或双凸透镜,这使得观察者的右眼只能看到用于右眼的图像,且观察者的左眼只能看到用于左眼的图像。
跟踪设备30跟踪对显示在显示装置10上的图像进行观察的一个或多个观察者。跟踪装置30包括用于拍摄运动图像以检测并跟踪所捕获的图像中可跟踪区域内的观察者的摄像机(成像设备)。可跟踪区域是允许跟踪设备30检测(确定)观察者在所捕获的图像中的位置的区域。在一个实例中,跟踪设备30被固定在显示装置10的顶部;摄像机要拍摄的区域是不变的。
跟踪设备30检测观察者眼睛的位置。在实例中,跟踪设备30还检测除了眼睛之外预定的身体部位的位置。预定的身体部位可以是头部(高于颈部的部位)或肩膀。头部的位置可以是检测到的头部中的预定点的位置,例如检测到的头部的质心。头部是与眼睛具有特定且不变的位置关系的身体部位。
在图1的实例中,跟踪设备30确定在由X轴、Y轴和Z轴限定的空间中观察者的眼睛和头部的位置,并将位置发送到图像处理装置20。X轴和Y轴平行于显示装置10的屏幕105,并且Z轴垂直于屏幕105。X轴平行于屏幕105的水平方向和Y轴平行于屏幕105的垂直方向。
在图1的实例中,跟踪了两个观察者50A和50B。观察者50A的左眼、右眼和头部的位置分别由LA、RA和HA表示。观察者50B的左眼、右眼和头部的位置分别由LB、RB和HB表示。如果无法对左眼、右眼和头部中的任何一个进行定位,则将指示情况的数据(例如,NULL值)进行转发。
图像处理装置20实时获取观察者50A和50B的位置数据。图像处理装置20基于在跟踪区域401中被跟踪(检测)的观察者中的一个的位置来生成立体视觉图像。图像处理装置20基于眼睛之间的中心位置来生成立体视觉图像。
如果不能定位眼睛之间的中心位置,则图像处理装置20基于观察者头部的位置来生成立体视觉图像。然后,即使不能定位眼睛之间的中心位置,也可以显示适合于所选观察者的立体视觉图像。检测观察者头部的位置是可选的。跟踪区域401是跟踪设备30可跟踪的区域的一部分。稍后将描述跟踪区域401的细节。
这个实施例被配置为从跟踪区域401中的观察者中选择观察者50A,并基于观察者50A的位置来生成立体视觉图像。稍后将描述在跟踪区域401中从多个观察者中选择一个观察者的策略。跟踪设备30可以被配置为仅将在预定跟踪区域401中所检测到的观察者的位置数据发送给图像处理装置20。
当被跟踪的观察者在跟踪区域401中丢失时,图像处理装置20基于观察者的最后位置在预定时间段内显示立体视觉图像。当观察者仍在跟踪区域401中但是由于某种原因暂时不能被跟踪(例如,观察者转过脸)时,这种配置减小了不适当地改变立体视觉图像的可能性。
根据显示装置10的特性来确定观察者可以适当地识别立体视觉图像的区域(称为立体观察区域)。显示装置10的特性被设计成具有基于例如63mm的成年人的平均瞳孔距离的立体观看区域。可以在立体观看区域中定义最佳观看点P。稍后将描述立体观看区域和最佳观看点P的细节。在图1的实例中,定义了一个最佳观看点P,并且最佳观看点P位于沿着显示装置10的屏幕的法线(在法线方向上)位于距显示装置10上的显示器101中心一定距离处。
当在预定时间段内在跟踪区域401中未检测到观察者时,图像处理装置20显示预定的立体视觉图像。在实例中,图像处理装置20显示用于最佳观看点的立体视觉图像。结果是,可以消除立体视觉图像的不必要的改变。用于显示立体视觉图像的预定位置(基准位置)可以与最佳观看点不同。
图2示出了图像处理装置20的配置实例。图像处理装置20可以具有通用的计算机配置。图像处理装置20包括处理器201、存储器(主要存储设备)202、辅助存储设备203、输出设备204、输入设备205和通信接口(I/F)207。这些构成元件通过总线互连。存储器202、辅助存储设备203或它们的组合是存储设备。
存储器202可以是半导体存储器,并且主要用于保持正在执行的程序和数据。处理器201根据存储在存储器202中的程序执行各种处理。处理器201根据程序进行操作以实现各种功能单元。辅助存储设备203可以是大容量存储设备,例如硬盘驱动器或固态驱动器;它用于长期保存程序和数据。
处理器201可以是一个或多个处理单元,并且可以包括一个或多个计算单元或多个处理核心。处理器201可以被实现为一个或多个中央处理单元、微处理器、微型计算机、微控制器、数字信号处理器、状态机、逻辑电路、图形处理单元、芯片上系统和/或根据控制指令操作信号的任何设备。
在启动时或需要时,将存储在辅助存储设备203中的程序和数据加载到存储器202,并且由处理器201执行程序以执行图像处理装置20的各种处理。因此,图像处理装置20所执行的处理是处理器201或程序所执行的处理。
输入设备205是用于用户向图像处理装置20输入指令和信息的硬件设备。输出设备204是用于呈现用于输入和输出的图像的硬件设备,例如,显示设备或打印设备。通信I/F207是用于连接到网络的接口。在这个实例中,图像处理装置20通过通信I/F 207与跟踪设备30进行通信。输入设备205和输出设备204是可选的,并且可以经由网络从终端访问图像处理设备20。
图像处理装置20的功能可以在计算机系统中实现,计算机系统包括:配备有一个或多个处理器和包括非暂时性存储介质的一个或多个存储设备的一个或多个计算机。计算机通过网络彼此通信。例如,图像处理装置20的功能的一部分可以在一个计算机中实现,且另一部分可以在另一个计算机中实现。
图像处理装置20的存储器202存储跟踪点获取模块221、位置确定模块222、流逝时间确定模块223和立体视觉图像生成模块224。这些是包括将由处理器201执行的命令代码的程序。存储器202还存储未示出的操作系统和必要的临时表。稍后将描述每个程序的处理细节。
辅助存储设备203存储区域定义信息231和图像数据库232。区域定义信息231包括关于跟踪区域和最佳观看点的信息。图像数据库232存储用于生成要由显示装置10显示的立体视觉图像的图像数据。
在图2中,为了便于说明,在辅助存储设备203或存储器202中示出了软件元件;但是,这些元件可以存储在存储设备的任何区域中。如上所述,处理器201根据特定程序进行操作以用作特定功能单元。例如,处理器根据上述程序用作跟踪点获取单元、位置确定单元、流逝时间确定单元和立体视觉图像生成单元。
图3是示出显示装置10的立体观看区域的XZ平面图。如上所述,为显示装置10定义了观看者可以识别立体图像的立体观看区域。图3示出了由一个连续区域组成的立体观看区域403的实例。如果观察者50的眼睛503之间的中心位于立体观看区域403中,则观察者50可以适当地识别立体图像。在定义立体观看区域403时,将特定值(例如,成年人的平均瞳孔距离63mm)用作观察者50的眼睛之间的距离。
图4示出了立体观看区域、最佳观看点和跟踪区域之间的关系的实例。在图4的实例中,跟踪区域401是一个连续区域,并且包括立体观看区域403的一部分和立体观看区域403之外的区域。图像处理装置20显示适合于跟踪区域401内观察者的眼睛之间的中心的位置的立体视觉图像。当观察者的眼睛之间的中心位于立体观看区域403之外时,图像处理装置20可以显示适合于最靠近立体观看区域403中的眼睛之间的中心的位置的立体视觉图像。如上所述,跟踪区域401可以与立体观看区域403的一部分或全部重合,或者可以包括整个立体观看区域403和立体观看区域403之外的区域。
最佳观看点P是在Z轴方向上连接立体观看区域403的最大点Pmax和最小点Pmin的线与在X轴方向上连接立体观看区域403的最大点Pr和最小点Pl的线的交点。在Z轴方向上的最大点Pmax和最小点Pmin是距屏幕105最大和最小距离的点。在X轴方向上的最大点Pr和最小点Pl相对于屏幕105位于最右端和最左端的点。最佳观看点P是在立体观看区域403中可移动范围最宽的点。
图5是图像处理装置20的处理的实例的流程图。图5是在跟踪区域401中仅检测到一个观察者或从多个观察者中选择一个观察者的情况下的处理的实例。首先,例如,图像处理装置20在启动时进行初始设置(S101)。
具体地,位置确定模块222首先从区域定义信息231获取关于跟踪区域和最佳观看点的信息。所获取的信息被存储到存储器202。此外,流逝时间确定模块223清除用于计时的计数器。
接下来,追踪点获取模块221从追踪装置30获取关于观察者的眼睛和头部的位置的数据(S102)。位置确定模块222根据所获取的眼睛位置来确定眼睛之间的中心是否位于跟踪区域内(S103)。如果眼睛之间的中心位于跟踪区域内(S103:是),则位置确定模块222将其位置作为目标点存储到存储器202(S104)。
如果眼睛之间的中心位于跟踪区域之外(S103:否和S105:否),则位置确定模块222返回到步骤S102。如果眼睛之间的中心无法定位(S105:是),则位置确定模块222确定所获取的头部的位置是否在跟踪区域内(S106)。如果头部的位置在跟踪区域内(S106:是),则位置确定模块222将该位置作为目标点存储到存储器202(S107)。
如果头部的位置在跟踪区域之外或未定位(S106:否),则流逝时间确定模块223使计数器增加(S108)。流逝时间确定模块223确定计数器的值是否高于预定值(S109)。如果计数器值高于预定值(S109:是),则流逝时间确定模块223将最佳观看点作为目标点存储到存储器202,并清除计数器(S110)。
立体视觉图像生成模块224生成适合于被保持为目标点的位置的立体视觉图像(S111)。立体视觉图像生成模块224从图像数据库232获取图像数据,并基于目标点处理所获取的图像数据以生成适合于目标点的立体视觉图像。立体视觉图像生成模块224将所生成的立体视觉图像输出到显示装置10以显示立体视觉图像(S112)。如果没有被保持为目标点(例如,在启动之后)的位置,则立体视觉图像生成模块224不生成立体视觉图像。
图6示出了所检测到的观察者的位置和所显示的图像随时间变化的实例。在时间T1,自动立体显示系统1启动。确定在跟踪区域401中没有观察者。由于自启动以来未流逝预定时间,所以显示装置10不显示任何图像。在从时间T1开始流逝预定时间之后的时间T2,未检测到观察者。自动立体显示系统1显示适合于最佳观看点P的立体视觉图像。
在时间T3,在跟踪区域401中检测到观察者50。自动立体显示系统1基于观察者50的位置生成并显示立体视觉图像。在时间T4,正在跟踪观察者50。自动立体显示系统1基于观察者50的位置生成并显示立体视觉图像。
在时间T5,在跟踪区域401中没有检测到观察者。由于观察者50在跟踪区域401中丢失而没有流逝预定时间,并且因此,自动立体显示系统1基于观察者50的最后位置生成并显示立体图像。
在时间T6,从观察者50在跟踪区域401中丢失开始,已经流逝了比预定时间更长的时间。自动立体显示系统1显示适合于最佳观看点P的立体视觉图像。在时间T7,在跟踪区域401中检测到另一观察者50。自动立体显示系统1基于观察者50的位置来生成并显示立体视觉图像。
如上所述,自动立体显示系统在跟踪区域中跟踪观察者,但是不跟踪跟踪区域外的观察者,以基于跟踪区域中观察者的位置来生成和显示立体视觉图像。由于预先确定了跟踪区域并且未跟踪在跟踪区域之外的观察者,因此防止了显示的闪烁,这是由跟踪区域中的观察者后面的路人或在显示装置前方交叉的人所引起的。跟踪位于跟踪区域中的观察者的这种配置使得能够显示适合于观察者的图像。
当在跟踪区域内丢失观察者时,自动立体显示系统保持最后获取的观察者的位置,以基于该位置生成并显示立体视觉图像。这种配置防止在跟踪设备由于某种原因暂时无法在跟踪区域中跟踪观察者的情况下显示闪烁。
当在预定区域中没有观察者时,自动立体显示系统将显示保持预定时间,并且然后,基于预定位置(最佳观看点)显示图像。当没有观察者时,确定最佳观看点就可以显示固定图像。
自动立体显示系统检测观察者的眼睛和头部(身体),并在无法检测到眼睛时,基于头部(身体)来显示立体视觉图像。当自动立体显示系统暂时无法检测到眼睛时,检测观察者的眼睛和头部可以防止显示的突然变化。
取决于操作环境,可以将最佳观看点P确定为任意点。例如,在为车辆中的驾驶员显示立体图像的情况下,可以将最佳观看点P确定为驾驶员座椅的头枕的前方,在头枕的前方可以对驾驶员的头部的上部进行定位。车辆中的驾驶员将注视侧视镜或后视镜以检查安全性。当在安全检查期间无法检测驾驶员的眼睛时,则显示将会突然变化。显示的突然变化可能会引起驾驶员的注意。如果将基准位置确定为驾驶员头部的上部,则可以防止驾驶时显示的突然变化。
自动立体显示系统可以配置为获取观察者眼睛之间的距离,并根据所获取的眼睛之间的距离控制光控元件,以定义适合观察者的立体观看区域。如上所述,可以将最佳观看点P确定为在立体观看区域中可移动范围最宽的点。
对于光控元件,可以采用其光学特性是电可控的光控元件,例如狭缝的位置或宽度可变的视差屏障或曲率可变的液晶透镜。然后,可以定义对于观察者眼睛之间的获取距离而言最佳的立体观看区域。限定适合于观察者的立体观看区域能够为观察者显示适当的立体图像,观察者的眼睛之间的距离不同于成年人类的单人平均距离,例如具有小头骨的幼儿。
实施例2
在下文中,描述在跟踪区域中检测到多个观察者的情况下的处理。当从跟踪区域获取多个观察者的位置时,图像处理装置20的位置确定模块222基于最接近预定位置(第二基准位置)的观察者的位置来生成立体视觉图像。第二基准位置可以与上述用于显示立体视觉图像的基准位置相同或不同。在实例中,位置确定模块222选择最接近最佳观看点的观察者。从多个人中选择最接近适当位置(最佳观看点)的一个人(观察者)可以防止显示闪烁。
如果存在最接近最佳观看点的多个观察者,则位置确定模块222保持已经被保持为目标点的观察者的位置。保持最后选择的观察者的位置作为目标点并显示最新的立体视觉图像,防止在多个观察者与最佳观看点距离相等的情况下显示的突然变化。
图7A示出了两个观察者的位置改变的实例。在图7A的实例中,在从时间T1到时间T2的时间段内,观察者50A静止不动并且观察者50B接近最佳观看点P。结果是,观察者50B与最佳观看点P之间的距离变得等于观察者50A与最佳观看点P之间的距离。在这种情况下,观察者50A的位置被保持在存储器202中以作为目标点。
图7B示出了两个观察者的位置改变的另一实例。在图7B的实例中,在从时间T1到时间T2的时间段内,观察者50A接近最佳观看点P,并且观察者50B远离最佳观看点P移动。结果是,观察者50A与最佳观看点P之间的距离变得等于观察者50B与最佳观看点P之间的距离。在这种情况下,观察者50B的位置被保持在存储器202中以作为目标点。
如在实施例1中,如果不能定位观察者的眼睛,则位置确定模块222将观察者的头部(身体)的位置确定为目标点。例如,当观察者A的视线暂时离开屏幕105时,将观察者A的头部的位置作为目标点存储到存储器202。即使观察者移开视线,保持观察者头部的位置也不会跟踪观察者的视线,从而可以防止显示的突然变化。
实施例3
在下文中,描述了在立体观看区域由多个子区域组成的情况下的处理。图8示出了立体观看区域的另一实例。参照图3和图4描述的立体观看区域403的实例是由一个连续区域组成的。图8中的立体观看区域的实例是由多个隔离的子区域组成。具体地,立体观看区域由子立体观看区域403A至403E组成。在每个子立体观看区域403A至403E中,定义了最佳观看点。参考图4的描述,定义子立体观察区域403A至403E中最佳观看点PA至PE中的每一个。
如果观察者50的眼睛503之间的中心位于子立体观看区域403A至403E的任何一个中,即,如图9中所示位于立体观看区域内,则观察者50可以适当地识别立体图像。然而,如果观察者50的眼睛503之间的中心不位于子立体观看区域403A至403E的任何一个中,即,如图10中所示的位于立体观看区域的外部,则观察者50不能适当地识别立体图像。
图11示出了由子立体观看区域403A至403E组成的立体观看区域和跟踪区域之间的关系的实例。图11中的跟踪区域由与子立体观看区域403A至403E重合的多个子区域(子跟踪区域)410A至410E构成。每个子跟踪区域可以包括立体观看区域之外的区域,或者仅包括相应的子立体观看区域的一部分。
子跟踪区域410A至410E可以是通过划分一个连续区域而获得的区域。换句话说,子跟踪区域410A至410E可以继续。例如,子跟踪区域410A至410E中的每个包括相应的子立体观看区域和位于子立体观看区域之间的立体观看区域之外的区域。
子跟踪区域410A至410E中的每个包括相应的子立体观看区域的最佳观看点。在实例中,子跟踪区域410A至410E被预先分配了不同的优先级。关于子跟踪区域及为其分配的优先级的信息被存储在区域定义信息231中。
位置确定模块222以优先级降序顺序逐一选择子跟踪区域410A至410E。如果在所选择的子跟踪区域中检测到观察者,则位置确定模块222如实施例1和实施例2中所述的,将目标点存储到存储器202中。选择子跟踪区域之后的处理与实施例1和实施例2中的处理相同。如果在任何子跟踪区域中没有检测到观察者,则显示适合于预定的最佳观看点的立体视觉图像,该预定的最佳观看点可以是被分配了最高优先级的子跟踪区域的最佳观看点。
当用于所选择的子跟踪区域的立体视觉图像在显示器上时,如果在其中检测到观察者,则可以将显示器改变为具有更高优先级的用于子跟踪区域的立体视觉图像。位置确定模块222可以被配置为:当在所选择的子跟踪区域中满足显示用于最佳观看点的立体视觉图像的条件时,按照优先级的顺序开始搜索包括观察者的另一个子跟踪区域。
位置确定模块222可以被配置为基于每个子跟踪区域中的最佳观看点与最接近子跟踪区域的观察者之间的距离,从多个子跟踪区域中选择一个子跟踪区域。例如,在部分或全部子跟踪区域被分配了相同的优先级并且在被分配了相同优先级的子跟踪区域中检测到观察者的情况下,位置确定模块222可以选择其中最佳观看点和最接近最佳观看点的观察者之间的距离最短的子跟踪区域。为所有子跟踪区域分配相同的优先级意味着没有定义优先级。
如上所述,已经描述了本公开内容的实施例。然而,本公开内容不限于前述实施例。在本公开内容的范围内,本领域技术人员可以容易地修改、添加或转换前述实施例中的每个元件。一个实施例的配置的一部分可以被另一实施例的配置代替,或者一个实施例的配置可以被并入另一实施例的配置中。
Claims (12)
1.一种立体显示系统,包括:
显示装置,被配置为显示立体视觉图像;以及
控制系统,
其中,控制系统被配置为:
获取由成像设备所捕获的图像;以及
基于在所获取的图像中的预定跟踪区域中检测到的观察者的位置,在显示装置上显示立体视觉图像;
其中,跟踪区域是可跟踪观察者的区域的一部分,并且跟踪区域包括从立体视觉图像能够识别出立体图像的立体观看区域;以及
其中,控制系统还被配置为:
所检测到的观察者在跟踪区域中变为不可追踪之后,基于最后一次检测到观察者的位置,在预定时间内显示立体视觉图像;以及
在跟踪区域中未检测到观察者超过预定时间的情况下,显示对应于立体观看区域中预定位置的立体视觉图像。
2.根据权利要求1所述的立体显示系统,其中,控制系统被配置为:
在检测到观察者的眼睛的情况下,基于观察者的眼睛的位置来确定观察者的位置;以及
在未检测到观察者的眼睛的情况下,基于与眼睛不同的预定身体部位的位置来确定观察者的位置。
3.根据权利要求1所述的立体显示系统,其中,所述预定位置是在显示装置的屏幕的平行方向上和显示装置的屏幕的法线方向上位于距立体观看区域的端部距离最远的位置。
4.根据权利要求1所述的立体显示系统,其中,控制系统被配置为基于在跟踪区域中检测到的多个观察者中最靠近预定基准位置的观察者的位置,在显示装置上显示立体视觉图像。
5.根据权利要求4所述的立体显示系统,其中,控制系统被配置为在检测到最靠近基准位置的多个观察者的情况下,保持最新的立体视觉图像。
6.根据权利要求1所述的立体显示系统,
其中,跟踪区域包括多个子跟踪区域,
其中,多个子跟踪区域中的每一个包括从在显示装置上显示的立体视觉图像中能够识别出立体图像的立体观看区域,以及
其中,控制系统被配置为:
按照预先分配的优先级降序顺序逐个选择多个子跟踪区域,直到检测到观察者为止;以及
基于检测到的观察者的位置显示立体视觉图像。
7.一种在显示装置上显示立体图像的方法,包括:
获取由成像设备所捕获的图像;
基于在所获取的图像中的预定跟踪区域中检测到的观察者的位置,在显示装置上显示立体视觉图像,跟踪区域是可跟踪观察者的区域的一部分,并且包括从立体视觉图像能够识别出立体图像的立体观看区域,
所检测到的观察者在跟踪区域中变为不可追踪之后,基于最后一次检测到观察者的位置,在预定时间内显示立体视觉图像;以及
在跟踪区域中未检测到观察者超过预定时间的情况下,显示对应于立体观看区域中的预定位置的立体视觉图像。
8.根据权利要求7所述的方法,还包括:
在检测到观察者区域的眼睛的情况下,基于观察者的眼睛的位置来确定观察者的位置;以及
在未检测到观察者的眼睛的情况下,基于与眼睛不同的预定身体部位的位置来确定观察者的位置。
9.根据权利要求7所述的方法,其中,所述预定位置是在显示装置的屏幕的平行方向上和显示装置的屏幕的法线方向上位于距立体观看区域的端部距离最远的位置。
10.根据权利要求7所述的方法,还包括:
基于在跟踪区域中检测到的多个观察者中最靠近预定基准位置的观察者的位置,在显示装置上显示立体视觉图像。
11.根据权利要求10所述的方法,还包括:
在检测到最靠近基准位置的多个观察者的情况下,保持最新的立体视觉图像。
12.根据权利要求7所述的方法,
其中,跟踪区域包括多个子跟踪区域,
其中,多个子跟踪区域中的每一个包括从在显示装置上显示的立体视觉图像中能够识别出立体图像的立体观看区域,以及
其中,所述方法还包括:
按照预先分配的优先级降序顺序逐个选择多个子跟踪区域,直到检测到观察者为止;以及
基于检测到的观察者的位置显示立体视觉图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019192074A JP7427413B2 (ja) | 2019-10-21 | 2019-10-21 | 立体視表示システム |
JP2019-192074 | 2019-10-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112770101A true CN112770101A (zh) | 2021-05-07 |
Family
ID=75491750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011122632.7A Pending CN112770101A (zh) | 2019-10-21 | 2020-10-20 | 立体显示系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11758118B2 (zh) |
JP (1) | JP7427413B2 (zh) |
CN (1) | CN112770101A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5777720A (en) * | 1995-10-18 | 1998-07-07 | Sharp Kabushiki Kaisha | Method of calibrating an observer tracking display and observer tracking display |
JP2001524764A (ja) * | 1997-11-21 | 2001-12-04 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | アイ・トラッキング装置 |
US20100079449A1 (en) * | 2008-09-30 | 2010-04-01 | Apple Inc. | System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface |
JP5095851B1 (ja) * | 2011-08-31 | 2012-12-12 | 株式会社東芝 | 映像処理装置および映像処理方法 |
JP2013055664A (ja) * | 2012-09-13 | 2013-03-21 | Toshiba Corp | 映像処理装置および映像処理方法 |
CN103139592A (zh) * | 2011-11-23 | 2013-06-05 | 韩国科学技术研究院 | 3d显示系统 |
JP2013143749A (ja) * | 2012-01-12 | 2013-07-22 | Toshiba Corp | 電子機器および電子機器の制御方法 |
US20140002620A1 (en) * | 2011-03-11 | 2014-01-02 | Omron Corporation | Video display device |
US20140327613A1 (en) * | 2011-12-14 | 2014-11-06 | Universita' Degli Studidi Genova | Improved three-dimensional stereoscopic rendering of virtual objects for a moving observer |
US20160353086A1 (en) * | 2014-05-29 | 2016-12-01 | Boe Technology Group Co., Ltd. | Display control method, device and system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7391888B2 (en) | 2003-05-30 | 2008-06-24 | Microsoft Corporation | Head pose assessment methods and systems |
DE102005012348B3 (de) * | 2005-03-09 | 2006-07-27 | Seereal Technologies Gmbh | Sweet-Spot-Einheit für ein Multi-User-Display mit erweitertem Betrachterbereich |
JP5100875B1 (ja) | 2011-08-31 | 2012-12-19 | 株式会社東芝 | 視域調整装置、映像処理装置および視域調整方法 |
JP5134714B1 (ja) | 2011-08-31 | 2013-01-30 | 株式会社東芝 | 映像処理装置 |
-
2019
- 2019-10-21 JP JP2019192074A patent/JP7427413B2/ja active Active
-
2020
- 2020-10-20 US US17/075,027 patent/US11758118B2/en active Active
- 2020-10-20 CN CN202011122632.7A patent/CN112770101A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5777720A (en) * | 1995-10-18 | 1998-07-07 | Sharp Kabushiki Kaisha | Method of calibrating an observer tracking display and observer tracking display |
JP2001524764A (ja) * | 1997-11-21 | 2001-12-04 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | アイ・トラッキング装置 |
US20100079449A1 (en) * | 2008-09-30 | 2010-04-01 | Apple Inc. | System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface |
US20140002620A1 (en) * | 2011-03-11 | 2014-01-02 | Omron Corporation | Video display device |
JP5095851B1 (ja) * | 2011-08-31 | 2012-12-12 | 株式会社東芝 | 映像処理装置および映像処理方法 |
CN103139592A (zh) * | 2011-11-23 | 2013-06-05 | 韩国科学技术研究院 | 3d显示系统 |
US20140327613A1 (en) * | 2011-12-14 | 2014-11-06 | Universita' Degli Studidi Genova | Improved three-dimensional stereoscopic rendering of virtual objects for a moving observer |
JP2013143749A (ja) * | 2012-01-12 | 2013-07-22 | Toshiba Corp | 電子機器および電子機器の制御方法 |
JP2013055664A (ja) * | 2012-09-13 | 2013-03-21 | Toshiba Corp | 映像処理装置および映像処理方法 |
US20160353086A1 (en) * | 2014-05-29 | 2016-12-01 | Boe Technology Group Co., Ltd. | Display control method, device and system |
Also Published As
Publication number | Publication date |
---|---|
JP2021068977A (ja) | 2021-04-30 |
US20210120227A1 (en) | 2021-04-22 |
JP7427413B2 (ja) | 2024-02-05 |
US11758118B2 (en) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10288882B2 (en) | Head mounted display device | |
US7719621B2 (en) | Image display device and method having image control unit preventing light source unit from outputting an image when observer is outside of predefined normal viewing area | |
US9756319B2 (en) | Virtual see-through instrument cluster with live video | |
CN109070804A (zh) | 视觉校正车辆显示器 | |
US20210197669A1 (en) | Three-dimensional augmented reality head-up display for implementing augmented reality in driver's point of view by placing image on ground | |
US20130093752A1 (en) | Viewer reactive auto stereoscopic display | |
US10672269B2 (en) | Display control assembly and control method therefor, head-up display system, and vehicle | |
US8692870B2 (en) | Adaptive adjustment of depth cues in a stereo telepresence system | |
CN105474633A (zh) | 控制定向背光的光源 | |
US20120075167A1 (en) | Head-mounted display with wireless controller | |
US20190310705A1 (en) | Image processing method, head mount display, and readable storage medium | |
KR20120091585A (ko) | 디스플레이 장치 및 삼차원 영상 제공방법 | |
CN103595988A (zh) | 立体图像显示装置、图像处理装置及图像处理方法 | |
CN103595987A (zh) | 立体图像显示装置、图像处理装置及图像处理方法 | |
JP2018039394A (ja) | 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム | |
CN112312117B (zh) | 头戴式装置及其驱动方法 | |
JP2006084964A (ja) | 立体画像表示装置 | |
US20210300183A1 (en) | In-vehicle display apparatus, method for controlling in-vehicle display apparatus, and computer program | |
US11758118B2 (en) | Stereoscopic display system | |
WO2023048213A1 (ja) | 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法 | |
WO2020199070A1 (zh) | 显示装置及其显示方法、显示系统 | |
US10659755B2 (en) | Information processing device, information processing method, and program | |
CN117242513A (zh) | 显示控制装置、平视显示装置及显示控制方法 | |
US20180227563A1 (en) | Methods and devices for determining visual fatigue of three-dimensional image or video and computer readable storage medium | |
EP3273687B1 (en) | Image processing system and method, method for determining location, and display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |