CN112153362B - 一种测量裸眼3d显示系统立体深度的方法与系统 - Google Patents
一种测量裸眼3d显示系统立体深度的方法与系统 Download PDFInfo
- Publication number
- CN112153362B CN112153362B CN202010967189.7A CN202010967189A CN112153362B CN 112153362 B CN112153362 B CN 112153362B CN 202010967189 A CN202010967189 A CN 202010967189A CN 112153362 B CN112153362 B CN 112153362B
- Authority
- CN
- China
- Prior art keywords
- depth
- naked eye
- measuring
- stereoscopic depth
- monocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000005259 measurement Methods 0.000 claims abstract description 49
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000011514 reflex Effects 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 101000812677 Homo sapiens Nucleotide pyrophosphatase Proteins 0.000 description 1
- 102100039306 Nucleotide pyrophosphatase Human genes 0.000 description 1
- 208000025174 PANDAS Diseases 0.000 description 1
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
一种测量裸眼3D显示系统立体深度的方法与系统,该方法包括:S1、获取人眼目测裸眼3D显示屏幕显示内容的主观立体深度数值;S2、获取相机拍摄裸眼3D显示屏幕显示内容的左、右单目图像,处理得到双目图像,分别从所述单目图像和所述双目图像中提取单目和双目立体深度特征值,并将得到的单目和双目立体深度特征值级联起来;S3、使用主观立体深度数值和特征值数据进行立体深度测量模型训练,直到测量误差缩小至预定值时完成训练,从而建立起以相机拍摄图像得到的测量特征值为基础对主观立体深度进行预测的立体深度测量模型。通过建立主观立体深度与屏幕所显示图像对应关系的立体深度测量模型,可实现对裸眼3D屏的立体深度的高精度检测。
Description
技术领域
本发明涉及一种测量裸眼3D显示系统立体深度的方法与系统。
背景技术
近年来,携带有深度信息的三维显示技术得到广泛关注。人们希望能在显示屏幕上将真实的三维世界完整的还原出来,在获取所需基本信息的同时,能够最大程度的获得生动形象的观感。虚拟现实技术(Virtua1Reality,VR)被寄予很大的期望,可用于游戏、体育、在线教育、医疗、餐饮和网上购物等领域。但现阶段三维显示技术还不成熟。裸眼3D显示作为近些年来发展迅速的技术,已经开始应用于户外广告屏、产品展览等领域。裸眼3D显示可分为光栅式、透镜式和指向式裸眼3D显示。主要是通过光栅或者透镜将显示器显示的图像进行分光,从而使人眼接收到不同的图像,在大脑中融合形成3D感。光栅式显示系统会带来亮度的损失,指向式裸眼3D显示技术还不成熟,目前研究最多的是透镜式裸眼3D显示系统。但由于透镜的分光效果不理想等原因,透镜式裸眼3D显示屏的立体深度远远未达到理想要求。为了给观众带来更舒适和更震撼的裸眼3D体验,如何提高显示器的立体深度成为重中之重。目前对立体深度的探究主要是通过主观评价,缺乏直接测量的有效方法。
以上背景技术内容的公开仅用于辅助理解本发明的发明构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明的主要目的在于克服现有技术的上述缺陷,提供一种测量裸眼3D显示系统立体深度的方法和系统。
为实现上述目的,本发明采用以下技术方案:
一种测量裸眼3D显示系统立体深度的方法,包括建立裸眼3D显示系统立体深度测量模型的过程,其包括如下步骤:
S1、获取人眼目测裸眼3D显示屏幕显示内容的主观立体深度数值;
S2、获取相机拍摄裸眼3D显示屏幕显示内容的左、右单目图像,处理所述左、右单目图像得到双目图像,分别从所述单目图像和所述双目图像中提取单目和双目立体深度特征值,并将得到的单目立体深度特征值和双目立体深度特征值级联起来;
S3、使用步骤S1得到的主观立体深度数值和步骤S2得到的级联后的特征值数据进行立体深度测量模型训练,直到测量误差缩小至预定值时完成训练,从而建立起以相机拍摄图像得到的测量特征值为基础对主观立体深度进行预测的立体深度测量模型。
进一步地:
还包括如下步骤:
利用所述立体深度测量模型,实现对裸眼3D显示屏幕的立体深度测量。
步骤S3中,训练过程中,使用支持向量回归SVR算法来评估主观立体深度和测量特征值之间的偏差。
步骤S3中,使用SVR算法,通过深度学习的方法来获得所述立体深度测量模型的立体深度测量值,其中,以训练集和测试集各自的均方误差mse作为衡量立体深度测量值结果的指标,优选地,SVR算法中采用寻优参数方法SVMcgForRegress来获取最佳结果。
步骤S3中,将测量特征值作为训练集的内容,主观立体深度数值作为训练集的标签,通过调整抽样比例、回归参数以及循环次数中的一种或多种参数,来使得均方误差mse缩小。
步骤S2中,将单目立体深度特征值和双目立体深度特征值级联包括将左、右单目深度特征值与双目深度特征值合并为一个矩阵。
步骤S1中,获取主观立体深度数值的过程包含以下步骤:
以指示牌作为对比参照;
移动指示牌直到和观察者感知的裸眼3D显示屏幕显示的对象重合;
测量指示牌到裸眼3D显示屏幕的距离;
优选地,根据多个观察者各自观看裸眼3D显示屏幕的显示内容的测量结果来获取主观立体深度数值;优选地,根据每个观察者分别在不同距离上观看裸眼3D显示屏幕的显示内容的测量结果来获取主观立体深度数值;优选地,对多次测量结果取平均值来获取主观立体深度数值。
步骤S2中,以相机拍摄显示在裸眼3D显示屏幕上的多张图片为基础,图像获取和提取特征值包含以下步骤:
拍摄左、右单目图像;
对获取的图像,去除屏幕的背景和边缘;
进行降噪滤波和灰度处理;
将所述单目图像处理为双目图像;
分别从单目图像和双目图像中提取各自的特征值。
步骤S2中,相机基于人眼视觉特征搭建,其中,确定有效采集距离和镜头视角,并根据设定的人眼间距与人的身高设置相机间距和高度;以及进行相机标定和畸变校正。
步骤S3中,从步骤S1-S2得到的数据里按比例抽取一部分作为训练集来建立模型,剩下一部分作为测试集,其中,调整抽样比例、回归参数、以及循环次数等参数,来使得mse尽可能足够小。
一种测量裸眼3D显示系统立体深度的系统,包括计算机可读存储介质和处理器,所述计算机可读存储介质存储有可执行程序,所述可执行程序由所述处理器执行时,实现所述的测量裸眼3D显示系统立体深度的方法。
本发明具有如下有益效果:
本发明提供一种测量裸眼3D显示系统立体深度的方法和系统,建立主观的立体深度与屏幕所显示图像的对应关系的模型,通过此模型可实现对裸眼3D屏的立体深度的直接测量。本发明通过建立裸眼3D显示系统立体深度测量模型,可定量测量特定位置处裸眼3D显示的立体深度,对NBU和LIVE图像库立体深度的测量准确率分别达88%和80%。同时利用深度学习优化立体深度模型,实现立体深度高精度检测。
通过建立基于双目模型的立体深度模型,分析系统参数对立体深度的影响,并且可通过测量立体深度评价裸眼3D显示。
附图说明
图1是本发明实施例的立体深度测量系统整体方案的流程图。
图2是本发明实施例的参数设置。
图3是本发明实施例的图片预处理的过程示意图。
图4是本发明实施例的立体深度测量算法流程图。
图5是本发明实施例测量裸眼3D显示系统立体深度的方法流程图。
具体实施方式
以下对本发明的实施方式做详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。
参阅图1至图5,本发明实施例提供一种测量裸眼3D显示系统立体深度的方法,包括建立裸眼3D显示系统立体深度测量模型的过程,其包括如下步骤:
S1、获取人眼目测裸眼3D显示屏幕显示内容的主观立体深度数值;
S2、获取相机拍摄裸眼3D显示屏幕显示内容的左、右单目图像,处理所述左、右单目图像得到双目图像,分别从所述单目图像和所述双目图像中提取单目和双目立体深度特征值,并将得到的单目立体深度特征值和双目立体深度特征值级联起来;
S3、使用步骤S1得到的主观立体深度数值和步骤S2得到的级联后的特征值数据进行立体深度测量模型训练,直到测量误差缩小至预定值时完成训练,从而建立起以相机拍摄图像得到的测量特征值为基础对主观立体深度进行预测的立体深度测量模型。
所述相机可以是单反相机或者双目CCD。当使用单反相机时,可根据人眼视觉特征在两个拍摄位置分别拍摄左、右单目图像。
在优选的实施例中,所述方法还包括如下步骤:
利用所述立体深度测量模型,实现对裸眼3D显示屏幕的立体深度测量。
一种测量裸眼3D显示系统立体深度的系统,包括计算机可读存储介质和处理器,所述计算机可读存储介质存储有可执行程序,其特征在于,所述可执行程序由所述处理器执行时,实现所述的测量裸眼3D显示系统立体深度的方法。
以下结合附图进一步描述本发明具体实施例。
一种建立裸眼3D显示系统立体深度模型的方法,包括以下步骤:
1、结合人眼视觉特性和潘弄融合理论,获取主观目测的立体深度测量数值;
2、根据几何光学和衍射光学理论,建立双目立体深度模型,通过一系列图像获取,来提取单目和双目的立体深度特征值;
3、将得到的立体深度特征值与主观立体深度进行比对,分析影响主观立体深度和特征值之间偏差的因素。
优选地,步骤1中,寻找16位观察者依次单独观看,并且使同一位观察者观看的时间间隔为10min。获取主观立体深度的过程包含以下步骤:
以手型指示牌作为对比参照;
移动指示牌直到和观察者感知的物体重合;
测量指示牌到屏幕的距离。
其中,物体指的是裸眼3D显示屏幕上显示的示例图片里面的物体,例如图片里的自行车。指示牌所起的作用是辅助估计物体的立体深度。
例如,需要测量裸眼3D显示屏幕上显示的自行车把手的立体深度,使用指示牌移动到显示屏幕上自行车把手的位置处,然后将指示牌慢慢地移动离开屏幕,期间保持和屏幕的平行关系,通过让观察者感知到指示牌和具有3D效果的自行车把手位置齐平的时候(也就是所谓的重合),记录下这个时候指示牌到屏幕的距离。
优选地,以来自NBU的312张图片和LIVE图片库的364张图片为基础,使用一台单反相机来获取立体图像对。用这些图片库的图片在裸眼3D显示屏幕上进行显示,然后再对它们进行拍摄。图像获取和提取特征值包含以下5个步骤:
拍摄图像(要求同一张图片尽可能同时获取左右眼两张照片);
整理并提取获取的图像,去除背景和边缘;
将提取之后的图像作为单目图像,进行降噪(高斯滤波)和灰度处理;
将单目图像经过MATLAB程序处理为双目图像;
分别从单目图像和双目图像中提取各自的特征值。
以图片库NBU为例,自身包含312张图片,则在拍摄过程中需要获取左右眼各312张,也就是一共624张图片。首先将这624张图片通过预处理(去除背景、降噪等),提取出各自的单目特征值(也就是左眼和右眼各一组特征值);然后再将这624张图片合成为312张用于提取双目特征值的新的图片,并且从中提取双目特征值。
优选实施例中,首先把得到的单目特征和双目特征级联起来,然后与对应的主观立体深度一起作为输入数据。使用SVR(支持向量回归)来评估主观立体深度和特征值之间的偏差。以图片库NBU为例,通过从这批312个样本中抽取一部分进行训练(特征值为训练集的内容,主观深度为训练集的标签),得到以测量特征值为基础的对主观立体深度的预测。标签是主观深度,数据集是单目和双目特征。训练过程是从之前获取到的实验数据里面,按比例抽取一部分作为训练集来建立模型,剩下一部分作为测试集。通过调整相关参数(例如抽样比例、回归参数等),来使得mse(均方误差)尽可能地缩小。当mse足够小的时候,就可以认为该立体深度测量模型已经可以足够接近主观的立体深度的测量。
因此,总体上可分为如下步骤:
1.级联单目特征和双目特征;
2.输入级联之后的数据到程序中,其中主观深度为标签,级联后的特征值为数据集;
3.按比例抽取一部分样本进行训练;
4.调整抽样比例、回归参数、以及循环次数等参数,来使得mse尽可能足够小,以达到设定的要求。
本发明具体实施例中,依据潘弄融合原理,模拟人眼感受立体深度过程,通过提取左右观看图片特征,定量测量立体深度。如图1所示,具体的测量方案步骤如下:
步骤一、图片获取
基于人眼视觉特征搭建图像获取装置。首先确定有效采集距离为5m,镜头视角为60°。其次根据人眼间距与一般人的身高设置双目CCD(或者两次单反相机拍摄位置间距)以及相机的高度,如图2所示。
由于在拍摄过程中,相机和屏幕不一定能够完全对正,所以需要进行双目CCD标定和畸变校正。在实际操作中,可直接加载棋盘图,利用MATLAB的Stereo Calibration工具箱校正。
步骤二、图片预处理
在实施算法方案之前,为了尽可能减少背景边缘和底噪的干扰,需要对获取的图片进行批量的预处理。图片预处理的过程如图3所示:
第一步,去除拍照的图片的背景,这里使用的是extract_3D.m这个程序。其原理是用拍照所得的图片减去一张屏幕为黑屏的背景图,从而尽可能地减小环境光对所获取的图片的影响。
第二步,裁减掉图片的黑边,这里使用的是第三方软件IrfanView的批处理功能,在裁剪的时候注意无论是左眼还是右眼,裁剪出来的图片需要在尺寸上保持一致。
第三步,给图片去噪和滤波,这里使用的程序是NoiseReduce.m。
第四步,将单目图组合成双目图,使用的是CI1.m。另外该程序额外需要函数GaborEnergy.m。
具体地,以图片库NBU为例,自身包含312张图片,则在拍摄过程中需要获取左右眼各312张,也就是一共624张图片。首先将这624张图片通过预处理(去除背景、降噪等),准备用来提取单目特征;然后再将这624张图片合成为312张用于提取双目特征值的图片。这样就完成了预处理的过程。
步骤三、立体深度测量
在运行算法程序之前,需要对经过预处理的图片进行单双目特征值的提取和级联。立体深度测量的流程如图4所示。
第一步,分别就预处理之后的左图像和右图像提取单目特征,使用的是exam.m(额外需要NSS1.m,Gabor.m与conByfft.m这三个函数)。以NBU图片库为例,左图像和右图像的单目特征都是312*2的矩阵。
第二步,从双目图里提取特征值,使用的是PCA1.m(额外需要函数HoG.m)。以NBU图片库为例,生成的结果是312*8100的矩阵。
第三步,将单目特征和双目特征级联,也就是将左眼特征值、右眼特征值(分别取矩阵的第一列)与双目特征值合并为一个312*8102的矩阵,并保存为Excel文档。
第四步,输入级联后的特征值数据和主观立体深度数据,运行SVR算法(以NBU图片库为例,对应的程序是SVRnbu.m),利用深度学习的方法来获取立体深度测量值。
具体地,在反复运行算法的过程中,衡量立体深度测量值结果好坏的主要指标是训练集和测试集各自的mse(均方误差)。为了获取尽可能小的mse值,本SVR算法采用了寻优参数方法SVMcgForRegress来获取最佳的结果。
应用例一
将本发明应用于立体深度的较高准确率的定量测量。如表1所示,测量系统对NBU图像库和LIVE图像库立体深度的测量准确率分别为88%和80%,具有较高的准确率。
表1
本发明的背景部分可以包含关于本发明的问题或环境的背景信息,而不一定是描述现有技术。因此,在背景技术部分中包含的内容并不是申请人对现有技术的承认。
以上内容是结合具体/优选的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,其还可以对这些已描述的实施方式做出若干替代或变型,而这些替代或变型方式都应当视为属于本发明的保护范围。在本说明书的描述中,参考术语“一种实施例”、“一些实施例”、“优选实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。尽管已经详细描述了本发明的实施例及其优点,但应当理解,在不脱离专利申请的保护范围的情况下,可以在本文中进行各种改变、替换和变更。
Claims (11)
1.一种测量裸眼3D显示系统立体深度的方法,其特征在于,包括建立裸眼3D显示系统立体深度测量模型的过程,其包括如下步骤:
S1、获取人眼目测裸眼3D显示屏幕显示内容的主观立体深度数值;
S2、获取相机拍摄裸眼3D显示屏幕显示内容的左、右单目图像,处理所述左、右单目图像得到双目图像,分别从所述单目图像和所述双目图像中提取单目和双目立体深度特征值,并将得到的单目立体深度特征值和双目立体深度特征值级联起来;
S3、使用步骤S1得到的主观立体深度数值和步骤S2得到的级联后的特征值数据进行立体深度测量模型训练,直到测量误差缩小至预定值时完成训练,从而建立起以相机拍摄图像得到的测量特征值为基础对主观立体深度进行预测的立体深度测量模型。
2.如权利要求1所述的测量裸眼3D显示系统立体深度的方法,其特征在于,步骤S3中,训练过程中,使用支持向量回归SVR算法来评估主观立体深度和测量特征值之间的偏差。
3.如权利要求2所述的测量裸眼3D显示系统立体深度的方法,其特征在于,步骤S3中,使用SVR算法,通过深度学习的方法来获得所述立体深度测量模型的立体深度测量值,其中,以训练集和测试集各自的均方误差mse作为衡量立体深度测量值结果的指标。
4.如权利要求3所述的测量裸眼3D显示系统立体深度的方法,其特征在于,SVR算法中采用寻优参数方法SVMcgForRegress来获取最佳结果。
5.如权利要求3所述的测量裸眼3D显示系统立体深度的方法,其特征在于,步骤S3中,将测量特征值作为训练集的内容,主观立体深度数值作为训练集的标签,通过调整抽样比例、回归参数以及循环次数中的一种或多种参数,来使得均方误差mse缩小。
6.如权利要求1所述的测量裸眼3D显示系统立体深度的方法,其特征在于,步骤S2中,将单目立体深度特征值和双目立体深度特征值级联包括将左、右单目深度特征值与双目深度特征值合并为一个矩阵。
7.如权利要求1所述的测量裸眼3D显示系统立体深度的方法,其特征在于,步骤S1中,获取主观立体深度数值的过程包含以下步骤:
以指示牌作为对比参照;
移动指示牌直到和观察者感知的裸眼3D显示屏幕显示的对象重合;
测量指示牌到裸眼3D显示屏幕的距离;
根据多个观察者各自观看裸眼3D显示屏幕的显示内容的测量结果,对多次测量结果取平均值来获取主观立体深度数值。
8.如权利要求1所述的测量裸眼3D显示系统立体深度的方法,其特征在于,步骤S2中,以相机拍摄显示在裸眼3D显示屏幕上的多张图片为基础,图像获取和提取特征值包含以下步骤:
拍摄左、右单目图像;
对获取的图像,去除屏幕的背景和边缘;
进行降噪滤波和灰度处理;
将所述单目图像处理为双目图像;
分别从单目图像和双目图像中提取各自的特征值。
9.如权利要求1所述的测量裸眼3D显示系统立体深度的方法,其特征在于,步骤S2中,相机基于人眼视觉特征搭建,其中,确定有效采集距离和镜头视角,并根据设定的人眼间距与人的身高设置相机间距和高度;以及进行相机标定和畸变校正。
10.如权利要求1至4、6至8中任一项所述的测量裸眼3D显示系统立体深度的方法,其特征在于,步骤S3中,从步骤S1-S2得到的数据里按比例抽取一部分作为训练集来建立模型,剩下一部分作为测试集,其中,通过调整抽样比例、回归参数以及循环次数中的一种或多种参数,来使得均方误差mse缩小。
11.一种测量裸眼3D显示系统立体深度的系统,其特征在于,包括计算机可读存储介质和处理器,所述计算机可读存储介质存储有可执行程序,其特征在于,所述可执行程序由所述处理器执行时,实现如权利要求1至10任一项所述的测量裸眼3D显示系统立体深度的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010967189.7A CN112153362B (zh) | 2020-09-15 | 2020-09-15 | 一种测量裸眼3d显示系统立体深度的方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010967189.7A CN112153362B (zh) | 2020-09-15 | 2020-09-15 | 一种测量裸眼3d显示系统立体深度的方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112153362A CN112153362A (zh) | 2020-12-29 |
CN112153362B true CN112153362B (zh) | 2022-03-08 |
Family
ID=73893834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010967189.7A Active CN112153362B (zh) | 2020-09-15 | 2020-09-15 | 一种测量裸眼3d显示系统立体深度的方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112153362B (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10500124B2 (en) * | 2015-09-03 | 2019-12-10 | University Of Rochester | Methods, devices and systems for orthoptics |
CN106817578B (zh) * | 2017-01-11 | 2018-05-22 | 清华大学深圳研究生院 | 一种分析裸眼3d显示系统立体深度影响因素的方法 |
CN109029363A (zh) * | 2018-06-04 | 2018-12-18 | 泉州装备制造研究所 | 一种基于深度学习的目标测距方法 |
CN110060291B (zh) * | 2019-04-04 | 2023-01-31 | 长春理工大学 | 一种考虑人因的立体视在距离解算方法 |
-
2020
- 2020-09-15 CN CN202010967189.7A patent/CN112153362B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112153362A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107578403B (zh) | 基于梯度信息指导双目视图融合的立体图像质量评价方法 | |
US6205241B1 (en) | Compression of stereoscopic images | |
CN102750731B (zh) | 基于左右单眼感受野和双目融合的立体视觉显著计算方法 | |
US10235806B2 (en) | Depth and chroma information based coalescence of real world and virtual world images | |
Kellnhofer et al. | Motion parallax in stereo 3D: Model and applications | |
CN103986925B (zh) | 基于亮度补偿的立体视频视觉舒适度评价方法 | |
Domini et al. | Stereo and motion information are not independently processed by the visual system | |
CN104811693B (zh) | 一种立体图像视觉舒适度客观评价方法 | |
CN109598796A (zh) | 将真实场景与虚拟物体进行3d融合显示的方法和装置 | |
Kytö et al. | Stereoscopic depth perception in video see-through augmented reality within action space | |
CN108520510B (zh) | 一种基于整体和局部分析的无参考立体图像质量评价方法 | |
CN108833877B (zh) | 图像处理方法及装置、计算机装置及可读存储介质 | |
KR20130089649A (ko) | 3차원 이미지에서 컨텐츠를 검열하는 방법 및 장치 | |
CN103777757A (zh) | 一种结合显著性检测的在增强现实中放置虚拟对象的系统 | |
CA2994514A1 (en) | 2d-to-3d video frame conversion | |
US9165393B1 (en) | Measuring stereoscopic quality in a three-dimensional computer-generated scene | |
KR20160086802A (ko) | 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법 | |
CN108848365B (zh) | 一种重定位立体图像质量评价方法 | |
JP2002245451A (ja) | 立体画像評価装置 | |
KR20120065915A (ko) | 스테레오스코픽 영상 시스템에서의 시각적 불편감 측정 장치 및 방법, 시각적 불편감 측정 방법을 실행하기 위한 프로그램이 기록된 기록매체 | |
CN112153362B (zh) | 一种测量裸眼3d显示系统立体深度的方法与系统 | |
Park et al. | Stereoscopic 3D visual attention model considering comfortable viewing | |
CN113259650A (zh) | 一种基于人眼追踪立体影像显示方法、装置、介质及系统 | |
CN116708746A (zh) | 一种基于裸眼3d的智能显示处理方法 | |
CN105430370B (zh) | 一种基于排序学习的立体图像视觉舒适度评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |