CN116685905A - 多视点视频的显示方法、装置、显示设备、介质及程序 - Google Patents
多视点视频的显示方法、装置、显示设备、介质及程序 Download PDFInfo
- Publication number
- CN116685905A CN116685905A CN202180004371.5A CN202180004371A CN116685905A CN 116685905 A CN116685905 A CN 116685905A CN 202180004371 A CN202180004371 A CN 202180004371A CN 116685905 A CN116685905 A CN 116685905A
- Authority
- CN
- China
- Prior art keywords
- viewpoint
- image
- view
- video
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000000007 visual effect Effects 0.000 claims abstract description 17
- 238000012216 screening Methods 0.000 claims abstract description 4
- 210000001508 eye Anatomy 0.000 claims description 88
- 238000012545 processing Methods 0.000 claims description 29
- 239000000463 material Substances 0.000 claims description 25
- 210000005252 bulbus oculi Anatomy 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/18—Stereoscopic photography by simultaneous viewing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/351—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/354—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying sequentially
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
本公开提供的多视点视频的显示方法、装置、显示设备、介质及程序,属于显示技术领域。所述方法包括:获取位于屏幕可视范围内的至少两个用户的不同视点位置组合;从预设多视点图像集合中筛选出每个所述视点位置组合相对应的多视点图像;将所述多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像;将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频;通过所述屏幕显示所述多视点视频。
Description
本公开属于显示技术领域,特别涉及一种多视点视频的显示方法、装置、显示设备、介质及程序。
目前市面上存在的裸眼3D立体显示器,其基本结构都是在传统的显示器前面贴一层柱棱镜膜,通过改变子像素所发光的传播方向来实现在特定位置时可以看到3D显示效果。为了增加观看者的使用体验以及真实感,有的立体显示设备会增加眼球追踪模块。
概述
本公开提供的一种多视点视频的显示方法、装置、显示设备、介质及程序。
本公开一些实施例提供一种多视点视频的显示方法,所述方法包括:
获取位于屏幕可视范围内的至少两个用户的不同视点位置组合;
从预设多视点图像集合中筛选出每个所述视点位置组合相对应的多视点图像;
将所述多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像;
将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频;
通过所述屏幕显示所述多视点视频。
可选地,所述视点位置组合包括:左眼视点位置和右眼视点位置;所述将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频,包括:
确定所述多视点图像中所述左眼视点位置相对应的左眼视点图像,以及所述右眼视点位置相对应的右眼视点图像;
将所述多视点图像中,位于所述左眼视点位置左侧的视点位置的视点图像替换为所述左眼视点图像,位于所述右眼视点位置右侧的视 点位置的视点图像替换为所述右眼视点图像,得到素材多视点图像;
将所述素材多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像。
可选地,在所述得到素材多视点图像之后,所述方法还包括:
将所述素材多视点图像中位于所述左眼视点位置和所述右眼视点位置之间的视点图像替换为所述右眼视点图像或所述左眼视点图像。
可选地,所述将所述素材多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像,包括:
将所述素材多视点图像中所对应视点位置组合以外的视点位置组合的可见视点图像替换为预设隐藏图像,得到目标视点图像。
可选地,所述将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频,包括:
将至少两个所述视点位置组合的目标视点图像作为依次交替作为视频帧进行组合,得到多视点视频帧。
可选地,所述将至少两个所述视点位置组合的目标视点图像作为依次交替作为视频帧进行组合,得到多视点视频帧,包括:
将第n个视点位置组合的目标视点图像作为第N+(n-1)个视频帧,其中,N为小于M的正整数,n为小于m的正整数,M为所述屏幕的刷新率,m为所述视点位置组合的个数。
可选地,在所述获取位于屏幕可视范围内的至少两个用户的不同视点位置组合之后,所述方法还包括:
根据所述视点组合位置的个数n调整所述屏幕的刷新率。
可选地,所述获取位于屏幕可视范围内的至少两个用户的不同视点位置组合,包括:
通过图像采集设备获取所述屏幕可视范围内的第一用户图像;
对所述第一用户图像中人脸进行识别,得到至少两个用户的眼球相对应的视点位置组合。
可选地,在所述得到至少两个用户的眼球相对应的视点位置组合之后,所述方法还包括:
重新通过图像采集设备获取第二用户图像;
在所述第二用户图像和所述第一用户图像之间的相似度大于相似度阈值时,对所述第二用户图像进行人脸识别,以更新所述视点位置 组合。
本公开一些实施例提供一种多视点视频的显示装置,所述装置包括:
采集模块,被配置为获取位于屏幕可视范围内的至少两个用户的不同视点位置组合;
处理模块,被配置为从预设多视点图像集合中筛选出每个所述视点位置组合相对应的多视点图像;
将所述多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像;
将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频;
显示模块,被配置为通过所述屏幕显示所述多视点视频。
可选地,所述视点位置组合包括:左眼视点位置和右眼视点位置;所述处理模块,还被配置为:
确定所述多视点图像中所述左眼视点位置相对应的左眼视点图像,以及所述右眼视点位置相对应的右眼视点图像;
将所述多视点图像中,位于所述左眼视点位置左侧的视点位置的视点图像替换为所述左眼视点图像,位于所述右眼视点位置右侧的视点位置的视点图像替换为所述右眼视点图像,得到素材多视点图像;
将所述素材多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像。
可选地,所述处理模块,还被配置为:
将所述素材多视点图像中位于所述左眼视点位置和所述右眼视点位置之间的视点图像替换为所述右眼视点图像或所述左眼视点图像。
可选地,所述处理模块,还被配置为:
将所述素材多视点图像中所对应视点位置组合以外的视点位置组合的可见视点图像替换为预设隐藏图像,得到目标视点图像。
可选地,所述处理模块,还被配置为:
将至少两个所述视点位置组合的目标视点图像作为依次交替作为视频帧进行组合,得到多视点视频帧。
可选地,所述处理模块,还被配置为:
将第n个视点位置组合的目标视点图像作为第N+(n-1)个视频帧, 其中,N为小于M的正整数,n为小于m的正整数,M为所述屏幕的刷新率,m为所述视点位置组合的个数。
可选地,所述处理模块,还被配置为:
根据所述视点组合位置的个数n调整所述屏幕的刷新率。
可选地,所述采集模块,还被配置为:
通过图像采集设备获取所述屏幕可视范围内的第一用户图像;
对所述第一用户图像中人脸进行识别,得到至少两个用户的眼球相对应的视点位置组合。
可选地,所述采集模块,还被配置为:
重新通过图像采集设备获取第二用户图像;
在所述第二用户图像和所述第一用户图像之间的相似度大于相似度阈值时,对所述第二用户图像进行人脸识别,以更新所述视点位置组合。
本公开一些实施例提供一种计算处理设备,包括:
一种显示设备,包括:柱透镜屏幕、设置在所述柱透镜屏幕上的摄像机、处理器;
所述摄像头被配置为对所述柱透镜屏幕的可视范围内进行拍摄,并将所拍摄到的用户图像发送给所述处理器;
所述处理器被配置为基于所述用户图像执行上述的多视点视频的显示方法的步骤,得到多视点视频;
所述柱透镜屏幕被配置为显示所述多视点视频。
本公开一些实施例提供一种计算机程序,包括计算机可读代码,当所述计算机可读代码在计算处理设备上运行时,导致所述计算处理设备执行如上述的多视点视频的显示方法。
本公开一些实施例提供一种非瞬态计算机可读介质,其中存储了如上述的多视点视频的显示方法。
上述说明仅是本公开技术方案的概述,为了能够更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为了让本公开的上述和其它目的、特征和优点能够更明显易懂,以下特举本公开的具体实施方式。
附图简述
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性地示出了本公开一些实施例提供的立体显示设备的原理示意图;
图2示意性地示出了本公开一些实施例提供的一种多视点视频的显示方法的流程示意图;
图3示意性地示出了本公开一些实施例提供的一种多视点视频的显示方法的原理示意图之一;
图4示意性地示出了本公开一些实施例提供的一种多视点视频的显示方法的原理示意图之二;
图5示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的流程示意图之一;
图6示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的原理示意图之一;
图7示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的原理示意图之二;
图8示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的原理示意图之三;
图9示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的流程示意图之二;
图10示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的流程示意图之四;
图11示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的流程示意图之五;
图12示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的流程示意图之六;
图13示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的流程示意图之七;
图14示意性地示出了本公开一些实施例提供的另一种多视点视频的显示方法的流程示意图之八;
图15示意性地示出了本公开一些实施例提供的一种多视点视频的显示装置的结构示意图;
图16示意性地示出了本公开一些实施例提供的一种显示设备的结构示意图;
图17示意性地示出了用于执行根据本公开一些实施例的方法的计算处理设备的框图;
图18示意性地示出了用于保持或者携带实现根据本公开一些实施例的方法的程序代码的存储单元。
详细描述
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
相关技术中裸眼3D立体显示设备的结构如图1所示,其包括背光、显示器、柱透镜膜等。每张柱棱镜膜由连成一排的柱棱镜组成,每个柱棱镜下面有n个子像素构成了像素岛,其所发的光穿过柱棱镜沿着一定方向传播,每个柱棱镜像素岛下面的对应编号的子像素透过柱棱镜的光会指向同一个地方,根据柱棱镜的pitch(表面曲率)和拱高等参数可以计算出来。其指向的位置就是view(视点)所在的范围,根据每个像素岛的像素数可以得到view的数量,当人的一只眼睛处在view所在的位置时,可以看到对应视点的画面。当人的两只眼睛处在不同的view所在的位置时,看到了有视差的画面,经过大脑处理产生立体效果。立体显示的清晰度受视点数量以及画面的分辨率所影响,为了得到更好的显示效果,立体显示引入了眼球追踪模块,设备根据眼球追踪模块得到的人眼坐标进行画面的渲染。随意引入眼球追踪模块解决了一定的问题,但是这样只能单人观看,无法多人同时观看。
图2示意性地示出了本公开提供的一种多视点视频的显示方法的流程示意图,所述方法包括:
步骤101,获取位于屏幕可视范围内的至少两个用户的不同视点位置组合。
需要说明的是,屏幕的可视范围是指可以接收到屏幕所射出画面 光线的空间位置,通常位于屏幕的出光侧一定范围内。视点位置组合是指某用户的左眼和右眼所在的视点位置的组合,视点位置则是指用户眼睛观看屏幕的位置。如图3所示,像素岛2的像素穿过柱棱镜2所形成的区域叫做主瓣区,而周围的像素岛穿过柱棱镜2所形成的区域称为旁瓣区,主瓣区的显示效果会比旁瓣区好很多,所以本公开主要考虑主瓣区内的多人眼球追踪的实现。
在本公开的执行主体可以是包含有的屏幕的立体显示设备,该立体显示设备还包括有用户执行本公开所提供视点视频的显示方法的步骤的处理器,并且该立体显示设备还可以外接或者内部有摄像机,该摄像机可对屏幕的可视范围所在空间位置进行拍摄。
在本公开实施例中,立体显示设备在需要播放多视点视频时,可以从摄像机获取屏幕可视范围内的用户图像,从而对用户图像中用户的左右眼所在位置进行图像分析,以确定用户的视点位置组合。当然该视点位置组合还可以是系统默认设置的,或者是用户在观看多视点视频时自行输入的,具体可以根据实际需求设置,此处不做限定。
值得说明的是,本公开一些实施例的方式关注的是存在至少两个用户的情况,若是仅存在一个用户的情况,可参照相关技术中基于单个用户进行眼球追踪以播放多视点视频的技术,这部分内容并不是本公开关注的重点,此处不再赘述。
步骤102,从预设多视点图像集合中筛选出每个所述视点位置组合相对应的多视点图像。
需要说明的是,预设多视点图像集合是指有同一画面内容在不同视点的视点图像组成的集合,参照图4,该预设多视点图像集合可以是对同一对象在多个不同视点进行拍摄得到,也可以是通过对画面内容进行后期处理得到,具体可以根据实际需求进行设置,此处不做限定。
在本公开实施例,相较于相关技术中仅基于眼球准确所确定的单个用户的视点位置组合来从预设多视点图像集合中提取多视点图像后直接进行播放的方式不同的是,本公开实施例是从预设多视点图像集合中提取所确定到至少两个中每个用户的视点位置组合对应的多视点图像以供后续合成可供多个用户同时观看的多视点视频。
步骤103,将所述多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像。
在本公开实施例中,可见视点图像是的当用户的双眼处于视点位置组合包含的视点位置时,用户从屏幕所显示多视点图像中可观看到的视点图像。例如某多视点图像包含有视点位置1-16的视点图像,而某用户的双眼所在的视点位置组合是视点位置11和视点位置14,则屏幕在显示该多视点图像时,用户可观看到的可见视点图像为视点位置11-14的视点图像。
进一步的,在选取后续合成多视点视频的目标视点图像时,至少需要将每个用户可观看到的可见视点图像作为目标视点图像才能保证所显示的多视点视频可以使得用户观看到,而对于所有或者部分用户观看不同的视点图像同样可以作为目标视点图像,区别在于所选取的视点图像越少后续进行多视点视频合成的过程中所需投入的图像处理资源越少,因此目标视点图像的选取具体可以根据实际需求进行灵活设置,此处不做限定。
步骤104,将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频。
在本公开实施例中,目标视点图像可以是图片形式,也可以是按照时间戳进行排序的视频形式。对于图片形式的目标视点图像,可以将至少两个视点位置组合的目标视点图像作为视频帧进行随机组合或者是按照逐个进行排列组合或者是按照其他特征组合规律进行组合,只要所合成的多视点视频中包含有至少两个视点位置组合的目标视点图像即可使得多视点视频通过屏幕显示时,至少两个用户可以观看到多视点视频。而对于视频形式的目标视点图像,由于屏幕可在例如1s等单位时间点内可显示多帧视频帧,因此可将不同视点位置组合的在相同时间点中目标视点图像作为视频帧进行组合得到不同时间点对应的多视点视频,从而得到时间点连续的多视点视频。
例如某屏幕的刷新率为60Hz,则该屏幕的1s可显示60帧画面,在存在2个用户时,可将其中一个用户的视点位置组合对应的目标视点图像作为奇数视频帧,将其中另一个用户的视点位置组合对应的目标视点图像作为偶数视频帧,即可使得两个用户均可观看多视点视频。当然若存在3个用户,可以将屏幕的刷新率调整为180Hz,用同样的方式将第3个用户的视点位置组合对应的目标视点图像作为60个视频帧合成到多视点视频中,或者是在屏幕分辨率不可调节时,在多视点视 频中为3个用户中的每人分配20视频帧均可使得每个用户观看到多视点视频。当然此处仅是示例性说明,只要多合成的多视点视频中包含有不同用户的视点位置组合对应的多视点图像即可保证不同用户同时通过同一屏幕观看到多视点视频,具体的不同视点位置的多视点图像在视频帧中的组合方式可以根据实际需求设置,此处不做限定。
步骤105,通过所述屏幕显示所述多视点视频。
在本公开实施例中,立体显示设备的处理器在合成多视点视频后,即可通过屏幕对视点视频进行显示。由于多视点视频中包含有不同视点位置组合的多视点图像,因此视点位置组合所对应的用户均可通过屏幕观看多视点视频,感受到3D特效。当然若检测到的视点位置组合发生变化,依据变化后的视点位置组合重新合成多视点视频,以对所播放的多视点视频进行动态调整。
本公开实施例通过依据所获取到至少两个用户的视点位置组合,来从预设多视点图像集合中筛选用户所在视点位置可见的目标视点图像,以通过不同用户可见的目标视点图像作为视频帧进行组合得到多视点视频进行显示,使得处于不同视点位置的多个用户可以同时通过同一屏幕观看具有3D效果的多视点视频,用户无需在单独通过屏幕观看多视点视频,提高了多视点视频的使用效率。
可选地,所述视点位置组合包括:左眼视点位置和右眼视点位置。参照图5,所述步骤104,可以包括:
步骤1041,确定所述多视点图像中所述左眼视点位置相对应的左眼视点图像,以及所述右眼视点位置相对应的右眼视点图像。
需要说明的是,基于柱透镜的屏幕为了减小摩尔纹的影响,会采用柱透镜斜排的方式,其斜率约为7°左右,例如一个66视点的每个柱透镜下子像素的排布如下图6所示,每个柱透镜覆盖有3行22列子像素,其像素顺序为从右下角到左上角顺序排布,经过柱透镜后的1-66视点在水平方向均匀排布。每个柱透镜下对应位置的像素的光线经过柱透镜后会向同一方向汇聚,以至于当人处在每个视点对应位置就会看到那个视点下的一张图像。若用固定视点拍图的话,理想情况下在每个视点的位置只可以看到对应视点位置的图像。但是因为设计或者工艺等因素,屏幕相邻视点所对应的柱透镜所发出的光线之间存在串扰现象,在n视点可能看到n-1和n+1视点的一些图像,也即周围像素 的光线也进入到人眼,没有一个理想的界限。虽然串扰的存在可以增加图像的亮度,但同时也造成列成像的模糊。
在本公开实施例中,考虑到上述困扰现象造成屏幕在显示多视点视频存在的串扰现象,本公开把周围像素也就是n-1和n+1都用n像素代替,那么在不损失多视点视频立体感的同时也可以增加视点的亮度。
具体的,由于用户可观看到的是双眼所在视点位置组合之间的视点图像,因此立体显示设备的处理器在获取到不同视点位置组合对应的多视点图像后,分别从每个视点位置组合对应的多视点图像中提取出左眼所在视点位置对应的左眼视点图像和右眼所在视点位置对应的右眼视点图像。
步骤1042,将所述多视点图像中,位于所述左眼视点位置左侧的视点位置的视点图像替换为所述左眼视点图像,位于所述右眼视点位置右侧的视点位置的视点图像替换为所述右眼视点图像,得到素材多视点图像。
在本公开实施例中,假设多视点图像存在N个视点位置的视点图像,左眼视点位置为Nl,右眼视点位置为Nr,则可将视点位置1-Nl的视点图像全部替换为视点位置N1对应的视点图像,将视点位置Nr-N的视点图像全部替换为视点位置Nr对应的视点图像,从而使得屏幕在显示调整后的视点图像时,用户由于串扰现象导致左眼视点位置Nl观看到的相邻视点位置的视点图像仍是Nl视点位置对应的视点图像,Nr也是同理,从而可以尽可能减轻由了于串扰现象导致用户通过立体显示设备所观看到多视点图像的模糊程度,提高了多视点视频的显示清晰度。
步骤1043,将所述素材多视点图像中位于所述左眼视点位置和所述右眼视点位置之间的视点图像替换为所述右眼视点图像或所述左眼视点图像。
在本公开实施例中,视点位置Nl-Nr之间的视点图像可以保留原本的视点图像,也可以使用视点位置Nl或Nr的视点图像进行填充,从而进一步减轻了由于串扰现象导致用户通过立体显示设备所观看到多视点图像的模糊程度,提高了多视点视频的显示清晰度。
步骤1044,将所述素材多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像。
在本公开实施例中,通过利用左右视点位置图像填充左右视点位置两侧和之间的视点图像的素材多视点图像中的可见视点图像作为后续合成多视点视频的目标视点图像,可以有效减轻了由于串扰现象导致用户通过立体显示设备所观看到多视点图像的模糊程度,提高了多视点视频的显示清晰度。
可选地,所述步骤1044,可以包括:将所述素材多视点图像中所对应视点位置组合以外的视点位置组合的可见视点图像替换为预设隐藏图像,得到目标视点图像。
在本公开实施例中,考虑由于用户A观看时,其观看到多视点视频有一部分是用户B在其视点位置范围内所能看到的,所以可以将投射到用户B眼中的视点位置对应的视点图像替换例如黑画面、暗色画面等预设隐藏图像;同理,当显示的是用户B所能看到的多视点视频时,将投射到用户A眼中的视点位置所对应的视点图像设置成预设隐藏画面,这样交替成像可以保证每个人看到的多视点视频的画面的流畅性保持一致,也避免了用户看到的多视点视频中画面的视点来回变换的情况出现。
可选地,所述步骤104,可以包括:将至少两个所述视点位置组合的目标视点图像作为依次交替作为视频帧进行组合,得到多视点视频帧。
在本公开的一些实施例中,依次交替是指将不同视点位置组合的目标视点图像作为视频帧按照固定顺序依次交替进行组合,例如存在2个视点位置组合对应的目标视点图像a和b,则可按照abab...ab或者baba...ba的顺序进行组合来得到多视点视频,存在3个视点位置组合对应的目标视点图像a、b、c时,则可按照abcabc...abc或者cbacba...cba或者bacbac...bac的顺序进行组合来得到多视点视频,其他个数的视点位置组合的多视点视频的视频帧组合方式可以依次类推,具体可以根据实际需求进行设置,此处不做限定。这种依次交替的组合方式可以保障多视点视频中不同视点位置组合对应的视频帧可以均匀分布,从而使得多视点视频中不同视点位置组合的多视点图像的流畅性尽量保持一致。
示例性的,参照图7,若当前立体显示设备有两个人A和B同时观看,会分别检测他们的左右眼的视点位置,A的左视点位置为NLa, 右边视点位置为NRa,用户B的左视点位置为NLb,右边视点位置为NRb。同时,将屏幕的刷新率设置为120Hz。
对于A和B看到的图像进行交替渲染刷新,第N帧画面显示用户A所看到的多视点视频,则第N+1帧显示用户B所看到的多视点视频。由于用户A观看时,其多视点图像也有一部分视点图像会被用户B所看到,所以将投射到用户B眼中的视点位置对应的视点图像设置为黑画面;同理,当显示的是B所看到的多视点图像时,将投射到A眼中的视点位置所对应的视点图像设置成黑画面,这样交替成像可以保证每个人看到的画面都是60Hz。
即当此时显示用户A的画面,那么第N帧视频帧中视点位置1-NLa都用NLa的画面代替,NRa-NMax这一段中除了NLb-NRb设置成黑色外,其他的都用6的画面像素来代替。同理当此时显示用户B的画面时,那么视点1-NLb这一段除了NLa-NRa设置成黑色外,其余都用NLb代替,NRb-NMax像素都用NLb代替,NLa-NLb之间的像素内容可以维持原来的不变,也可以用Nlb或者NRb代替。其中,NLa为3,NRa为6,NLb为18,NRb为21,NMax为120。
示例性的,参照图8,若当前立体显示设备有三个人A、B、C同时观看,当检测到有三名用户时,会分别检测他们的视点位置组合,A、B、C三位用户的左右眼视点位置分别是:NLa和NRa,NLb和NRb,NLc和NRc。同时将屏幕的刷新率设置为180Hz。其中,
对于A、B、C看到的图像进行交替刷新,第N帧多视点视频显示用户A看到的多视点视频,第N+1帧显示用户B看到帧多视点视频,第N+2帧显示用户C看到的多视点视频。由于用户A观看时,其多视点视频的部分视点图像也会被另外两个用户所看到,所以将投射到其他用户眼中的多视点视频设置为黑色图像;同理当有人再看时,将其他人所在视点所对应的像素设置成黑色。这样交替成像可以保证每个人看到的多视点视频时60Hz保证多视点视频的流畅性。
即此时显示多视点视频为用户A所看到的,那么视点1-NLa都用NLa的多视点视频代替,NRa-NMax之间的像素,除了NLb-NRb和NLc和NRc设置成黑色外,其他都用NRa的像素代替;同理当此时显示用户B所看到的多视点视频时,1-NLb之间的像素除了NLa-NRa外,其他都用NLb代替,NRb-NMax之间的像素除了NLc-NRc设置成黑色 外,其他都用NRc代替;当此时显示的是用户C所看到的多视点视频时,视点1-NLc之间除了NLa-NRa以及NLb-NRb被设置成黑色外,其他的都用NLc代替,NRc-NMax之间的像素用NRc代替。这样交替成像可以保证每个人看到的多视点视频都是60Hz,保证多视点视频的连续性。其中NLa为3,NRa为6,NLb为9,NRb为12,NLc为18,NRc为21,NMax为180。
可选地,所述步骤104,可以包括:将第n个视点位置组合的目标视点图像作为第N+(n-1)个视频帧,其中,N为小于M的正整数,n为小于m的正整数,M为所述屏幕的刷新率,m为所述视点位置组合的个数。
在本公开实施例中,仅需保证屏幕的刷新率,也就是屏幕每秒可显示的视频帧的整数可以被用户个数整除即可通过将第n个视点位置组合的目标视点图像作为第N个视频帧(N为n的倍数且非1至M中除n外的其他正整数的倍数,N为小于M的正整数,n为小于m的正整数,M为所述屏幕的刷新率,m为所述视点位置组合的个数)的方式对不同视点位置组合对应的目标视点图像进行组合来得到多视点视频。
可选地,在所述步骤101之后,所述方法还包括:根据所述视点组合位置的个数n调整所述屏幕的刷新率。
在本公开实施例中,为保证每个用户所观看到的多视点视频中其所能看到多视点视频的帧率保持一致,可以依据用户个数,也就是视点位置组合的个数n来调整屏幕刷新率,例如对于需要保证每个用户所观看到多视点视频的刷新率为60Hz,当检测到2个用户时,将屏幕刷新率调整为120Hz;当检测到2个用户时,将屏幕刷新率调节为180Hz;当检测到4个用户时,将刷新率调节为240Hz。目前显示器的刷新率最高为240Hz,当然不同屏幕所能支持的刷新率不同且有限,因此屏幕在保证用户所观看到多视点视频的刷新率维持在一定标准的前提下,所支持的多人观看的人数也是有限的,当然还可以减少每个用户所观看到多视点视频的刷新率来提高可同时观看的用户人数,具体可以根据实际需求设置,此处不做限定。
可选地,参照图9,所述步骤101,可以包括:
步骤1011,通过图像采集设备获取所述屏幕可视范围内的第一用 户图像。
在本公开实施例中,图像采集设备可以是分辨率为1920*1080,帧率为60Hz的红外摄像机,从而可以保证其拍摄和识别的人眼距离达到至少3m,当然还可以通过提高分辨率和帧率来提高可拍摄和识别的距离,具体可以根据实际需求设置,此处不做限定。
具体的,首先采集一帧用户图像,假设分辨率为1920*1080,则将图片缩小为800*600,设置一个初始滑动框,如图10左上角的黑框,该滑动框沿着向右和向下的方向进行移动,进行人脸特征点检测,如果检测到人脸,就标记人脸位置和大小(pos,size),直到滑动框滑动到检测完成位置,所有检测到的人脸都会保存到一个列表中。
步骤1012,对所述第一用户图像中人脸进行识别,得到至少两个用户的眼球相对应的视点位置组合。
在本公开实施例中,为了确定视点位置组合在屏幕坐标系中的位置,需要进行角谱分析。如图11和图12所示,通过角谱测量仪可以得到不同角度下的亮度分布曲线,对该曲线进行分析,可以得到视点的空间位置分布图,并将该数据保存下来,供后续计算人眼对应的视点位置时使用。
进一步的,如图13所示为摄像机坐标系、屏幕坐标系和人脸坐标系的对应关系示意图。其中屏幕坐标系原点位于屏幕的正中心,摄像机坐标系的原点位于摄像机的中心,摄像机安装在屏幕的上边沿,其对应的坐标系转化关系为:Ow=T*Oc,T为转移矩阵,将摄像机安装完成之后进行标定可以得到该矩阵,那么在摄像机坐标系下检测到的人脸坐标转化到屏幕坐标系下后为Pw=T*Pc。
如图10所示,当检测到人脸时,将人脸区域运用landmark特征进行眼睛的识别,并标记出左右眼,计算出左右眼在人脸坐标系中的位置。再通过之前的转换公式,计算出人眼相对于屏幕坐标系的坐标。如图14所示,根据人眼在屏幕坐标系中的位置,以及视点在屏幕坐标系中的空间范围,可以得到每只眼睛所对应的视点标号,以及两眼中心所对应的视点标号,依据视点标记找到所对应的视点位置组合。
步骤1013,重新通过图像采集设备获取第二用户图像。
步骤1014,在所述第二用户图像和所述第一用户图像之间的相似度大于相似度阈值时,对所述第二用户图像进行人脸识别,以更新所 述视点位置组合。
在本公开实施例中,将当前检测到的第二用户图像同上一帧检测到的第一用户图像的人脸位置进行比较。首先比较人脸的数量,如果数量一致,则再比较对应位置人脸的初始坐标以及人脸所占区域内像素的均方误差,如果该误差在一个合理的阈值之内,则说明该人脸与上一帧人脸数据相同,则人脸数据采用上一帧第一用户图像的数据,否则说明人脸数据需要更新。这样做既能减小数据计算量,也能减小因为采集的误差导致所显示多视点视频的抖动。
图15示意性地示出了本公开提供的一种多视点视频的显示装置20的结构示意图,所述装置包括:
采集模块201,被配置为获取位于屏幕可视范围内的至少两个用户的不同视点位置组合;
处理模块202,被配置为从预设多视点图像集合中筛选出每个所述视点位置组合相对应的多视点图像;
将所述多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像;
将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频;
显示模块203,被配置为通过所述屏幕显示所述多视点视频。
可选地,所述视点位置组合包括:左眼视点位置和右眼视点位置;所述处理模块202,还被配置为:
确定所述多视点图像中所述左眼视点位置相对应的左眼视点图像,以及所述右眼视点位置相对应的右眼视点图像;
将所述多视点图像中,位于所述左眼视点位置左侧的视点位置的视点图像替换为所述左眼视点图像,位于所述右眼视点位置右侧的视点位置的视点图像替换为所述右眼视点图像,得到素材多视点图像;
将所述素材多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像。
可选地,所述处理模块202,还被配置为:
将所述素材多视点图像中位于所述左眼视点位置和所述右眼视点位置之间的视点图像替换为所述右眼视点图像或所述左眼视点图像。
可选地,所述处理模块202,还被配置为:
将所述素材多视点图像中所对应视点位置组合以外的视点位置组合的可见视点图像替换为预设隐藏图像,得到目标视点图像。
可选地,所述处理模块202,还被配置为:
将至少两个所述视点位置组合的目标视点图像作为依次交替作为视频帧进行组合,得到多视点视频帧。
可选地,所述处理模块202,还被配置为:
将第n个视点位置组合的目标视点图像作为第N+(n-1)个视频帧,其中,N为小于M的正整数,n为小于m的正整数,M为所述屏幕的刷新率,m为所述视点位置组合的个数。
可选地,所述处理模块202,还被配置为:
根据所述视点组合位置的个数n调整所述屏幕的刷新率。
可选地,所述采集模块201,还被配置为:
通过图像采集设备获取所述屏幕可视范围内的第一用户图像;
对所述第一用户图像中人脸进行识别,得到至少两个用户的眼球相对应的视点位置组合。
可选地,所述采集模块201,还被配置为:
重新通过图像采集设备获取第二用户图像;
在所述第二用户图像和所述第一用户图像之间的相似度大于相似度阈值时,对所述第二用户图像进行人脸识别,以更新所述视点位置组合。
本公开实施例通过依据所获取到至少两个用户的视点位置组合,来从预设多视点图像集合中筛选用户所在视点位置可见的目标视点图像,以通过不同用户可见的目标视点图像作为视频帧进行组合得到多视点视频进行显示,使得处于不同视点位置的多个用户可以同时通过同一屏幕观看具有3D效果的多视点视频,用户无需在单独通过屏幕观看多视点视频,提高了多视点视频的使用效率。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以 理解并实施。
图16示出本公开一些实施例体用的一种显示设备的结构示意图,包括:柱透镜屏幕301、设置在所述柱透镜屏幕上的摄像机302、处理器303;
所述摄像头302被配置为对所述柱透镜屏幕的可视范围内进行拍摄,并将所拍摄到的用户图像发送给所述处理器;
所述处理器303被配置为基于所述用户图像执行上述多视点视频的显示方法的步骤,得到多视点视频;
所述柱透镜屏幕301被配置为显示所述多视点视频。
本公开实施例通过依据所获取到至少两个用户的视点位置组合,来从预设多视点图像集合中筛选用户所在视点位置可见的目标视点图像,以通过不同用户可见的目标视点图像作为视频帧进行组合得到多视点视频进行显示,使得处于不同视点位置的多个用户可以同时通过同一屏幕观看具有3D效果的多视点视频,用户无需在单独通过屏幕观看多视点视频,提高了多视点视频的使用效率。
本公开的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本公开实施例的计算处理设备中的一些或者全部部件的一些或者全部功能。本公开还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本公开的程序可以存储在非瞬态计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
例如,图17示出了可以实现根据本公开的方法的计算处理设备。该计算处理设备传统上包括处理器410和以存储器420形式的计算机程序产品或者非瞬态计算机可读介质。存储器420可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器420具有用于执行上述方法中的任何方法步骤的程序代码431的存储空间430。例如,用于程序代码的存储空间430可以包括分别用于实现上面的方法中的各种步骤的各个程序代码431。这些程序代码可以从一个或者多个计 算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为如参考图18所述的便携式或者固定存储单元。该存储单元可以具有与图17的计算处理设备中的存储器420类似布置的存储段、存储空间等。程序代码可以例如以适当形式进行压缩。通常,存储单元包括计算机可读代码431’,即可以由例如诸如410之类的处理器读取的代码,这些代码当由计算处理设备运行时,导致该计算处理设备执行上面所描述的方法中的各个步骤。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本文中所称的“一个实施例”、“实施例”或者“一个或者多个实施例”意味着,结合实施例描述的特定特征、结构或者特性包括在本公开的至少一个实施例中。此外,请注意,这里“在一个实施例中”的词语例子不一定全指同一个实施例。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本公开的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本公开可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
最后应说明的是:以上实施例仅用以说明本公开的技术方案,而非对其 限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围。
Claims (13)
- 一种多视点视频的显示方法,其特征在于,所述方法包括:获取位于屏幕可视范围内的至少两个用户的不同视点位置组合;从预设多视点图像集合中筛选出每个所述视点位置组合相对应的多视点图像;将所述多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像;将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频;通过所述屏幕显示所述多视点视频。
- 根据权利要求1所述的方法,其特征在于,所述视点位置组合包括:左眼视点位置和右眼视点位置;所述将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频,包括:确定所述多视点图像中所述左眼视点位置相对应的左眼视点图像,以及所述右眼视点位置相对应的右眼视点图像;将所述多视点图像中,位于所述左眼视点位置左侧的视点位置的视点图像替换为所述左眼视点图像,位于所述右眼视点位置右侧的视点位置的视点图像替换为所述右眼视点图像,得到素材多视点图像;将所述素材多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像。
- 根据权利要求2所述的方法,其特征在于,在所述得到素材多视点图像之后,所述方法还包括:将所述素材多视点图像中位于所述左眼视点位置和所述右眼视点位置之间的视点图像替换为所述右眼视点图像或所述左眼视点图像。
- 根据权利要求2所述的方法,其特征在于,所述将所述素材多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像,包括:将所述素材多视点图像中所对应视点位置组合以外的视点位置组合的可见视点图像替换为预设隐藏图像,得到目标视点图像。
- 根据权利要求1所述的方法,其特征在于,所述将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频,包括:将至少两个所述视点位置组合的目标视点图像作为依次交替作为视频帧进行组合,得到多视点视频帧。
- 根据权利要求5所述的方法,其特征在于,所述将至少两个所述视点位置组合的目标视点图像作为依次交替作为视频帧进行组合,得到多视点视频帧,包括:将第n个视点位置组合的目标视点图像作为第N+(n-1)个视频帧,其中,N为小于M的正整数,n为小于m的正整数,M为所述屏幕的刷新率,m为所述视点位置组合的个数。
- 根据权利要求6所述的方法,其特征在于,在所述获取位于屏幕可视范围内的至少两个用户的不同视点位置组合之后,所述方法还包括:根据所述视点组合位置的个数n调整所述屏幕的刷新率。
- 根据权利要求1所述的方法,其特征在于,所述获取位于屏幕可视范围内的至少两个用户的不同视点位置组合,包括:通过图像采集设备获取所述屏幕可视范围内的第一用户图像;对所述第一用户图像中人脸进行识别,得到至少两个用户的眼球相对应的视点位置组合。
- 根据权利要求8所述的方法,其特征在于,在所述得到至少两个用户的眼球相对应的视点位置组合之后,所述方法还包括:重新通过图像采集设备获取第二用户图像;在所述第二用户图像和所述第一用户图像之间的相似度大于相似度阈值时,对所述第二用户图像进行人脸识别,以更新所述视点位置组合。
- 一种多视点视频的显示装置,其特征在于,所述装置包括:采集模块,被配置为获取位于屏幕可视范围内的至少两个用户的不同视点位置组合;处理模块,被配置为从预设多视点图像集合中筛选出每个所述视点位置组合相对应的多视点图像;将所述多视点图像中至少所对应视点位置组合的可见视点图像作为目标视点图像;将至少两个所述视点位置组合的目标视点图像作为视频帧进行组合,得到多视点视频;显示模块,被配置为通过所述屏幕显示所述多视点视频。
- 一种显示设备,其特征在于,包括:柱透镜屏幕、设置在所述柱透镜屏幕上的摄像机、处理器;所述摄像头被配置为对所述柱透镜屏幕的可视范围内进行拍摄,并将所拍摄到的用户图像发送给所述处理器;所述处理器被配置为基于所述用户图像执行所述权利要求1-9中任一所述的多视点视频的显示方法的步骤,得到多视点视频;所述柱透镜屏幕被配置为显示所述多视点视频。
- 一种计算机程序,其特征在于,包括计算机可读代码,当所述计算机可读代码在计算处理设备上运行时,导致所述计算处理设备执行如权利要求1-9中任一项所述的多视点视频的显示方法。
- 一种非瞬态计算机可读介质,其特征在于,其中存储了如权利要求1-9中任一项所述的多视点视频的显示方法的计算机程序。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2021/142664 WO2023123114A1 (zh) | 2021-12-29 | 2021-12-29 | 多视点视频的显示方法、装置、显示设备、介质及程序 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116685905A true CN116685905A (zh) | 2023-09-01 |
Family
ID=86996929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180004371.5A Pending CN116685905A (zh) | 2021-12-29 | 2021-12-29 | 多视点视频的显示方法、装置、显示设备、介质及程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240236291A1 (zh) |
CN (1) | CN116685905A (zh) |
WO (1) | WO2023123114A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0901084D0 (en) * | 2009-01-22 | 2009-03-11 | Trayner David J | Autostereoscopic display |
KR101856568B1 (ko) * | 2013-09-16 | 2018-06-19 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 제어 방법 |
CN104618706A (zh) * | 2015-01-12 | 2015-05-13 | 深圳市亿思达科技集团有限公司 | 一种分时实现多人多角度全息立体显示的移动终端及方法 |
CN104536578B (zh) * | 2015-01-13 | 2018-02-16 | 京东方科技集团股份有限公司 | 裸眼3d显示装置的控制方法及装置、裸眼3d显示装置 |
JP7165513B2 (ja) * | 2018-06-07 | 2022-11-04 | 日本放送協会 | Ip立体映像表示装置及びそのプログラム |
-
2021
- 2021-12-29 WO PCT/CN2021/142664 patent/WO2023123114A1/zh active Application Filing
- 2021-12-29 US US17/926,845 patent/US20240236291A1/en active Pending
- 2021-12-29 CN CN202180004371.5A patent/CN116685905A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240236291A1 (en) | 2024-07-11 |
WO2023123114A1 (zh) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10375372B2 (en) | 3D system including a marker mode | |
US10560687B2 (en) | LED-based integral imaging display system as well as its control method and device | |
US9924153B2 (en) | Parallel scaling engine for multi-view 3DTV display and method thereof | |
CN108292489A (zh) | 信息处理装置和图像生成方法 | |
EP3295372A1 (en) | Facial signature methods, systems and software | |
US11006090B2 (en) | Virtual window | |
Kara et al. | On the edge of the seat: Reduced angular resolution of a light field cinema with fixed observer positions | |
CN113238472A (zh) | 基于频域位移的高分辨率光场显示方法及装置 | |
US10939092B2 (en) | Multiview image display apparatus and multiview image display method thereof | |
US10122987B2 (en) | 3D system including additional 2D to 3D conversion | |
CN111079673A (zh) | 一种基于裸眼三维的近红外人脸识别方法 | |
US11652973B2 (en) | 3D system | |
CN102457756A (zh) | 一种可裸眼观看视频的3d视频监控系统的结构和方法 | |
US20190281280A1 (en) | Parallax Display using Head-Tracking and Light-Field Display | |
GB2550134A (en) | Method and apparatus for eye-tracking light field display | |
CN202565397U (zh) | 一种可裸眼观看视频的3d视频监控系统 | |
CN114879377B (zh) | 水平视差三维光场显示系统的参数确定方法、装置及设备 | |
CN116685905A (zh) | 多视点视频的显示方法、装置、显示设备、介质及程序 | |
US10121280B2 (en) | 3D system including rendering with three dimensional transformation | |
CN114339191A (zh) | 一种基于多视点重建的裸眼三维显示方法 | |
US12126784B2 (en) | 3D system | |
CN113821107B (zh) | 一种实时、自由视点的室内外裸眼3d系统 | |
US10284837B2 (en) | 3D system including lens modeling | |
RU91442U1 (ru) | Система получения и восстановления объемного изображения | |
WO2016040582A1 (en) | Real-time object capturing and 3d display systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |