CN106028025B - 一种针对辐辏与调节一致性的3d视频舒适度评价方法 - Google Patents

一种针对辐辏与调节一致性的3d视频舒适度评价方法 Download PDF

Info

Publication number
CN106028025B
CN106028025B CN201610308446.XA CN201610308446A CN106028025B CN 106028025 B CN106028025 B CN 106028025B CN 201610308446 A CN201610308446 A CN 201610308446A CN 106028025 B CN106028025 B CN 106028025B
Authority
CN
China
Prior art keywords
mrow
msub
parallax
comfort
mtd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610308446.XA
Other languages
English (en)
Other versions
CN106028025A (zh
Inventor
赵岩
阚博超
王世刚
王学军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201610308446.XA priority Critical patent/CN106028025B/zh
Publication of CN106028025A publication Critical patent/CN106028025A/zh
Application granted granted Critical
Publication of CN106028025B publication Critical patent/CN106028025B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种针对辐辏与调节一致性的3D视频舒适度评价方法属立体图像舒适度评价和3D图像处理技术领域,本发明包括下列步骤:1.结合人眼视觉特性和深度感知理论,确定人的双眼舒适视差范围;2.根据3D视频每一帧左右视图视差值和由观看距离确定的双眼舒适视差范围,建立基于像素点的舒适度评价因子,舒适度评价因子分为正视差和负视差两部分;3.根据步骤2所述得到的基于像素点的舒适度评价因子,建立3D视频每一帧的舒适度客观评价模型;本发明能很好地反映水平视差范围和观看距离对3D视频舒适度的影响,为3D视频舒适度的评价提供依据。

Description

一种针对辐辏与调节一致性的3D视频舒适度评价方法
技术领域
本发明属于立体图像舒适度评价和3D图像处理技术领域,具体涉及一种针对辐辏与调节一致性的3D视频舒适度评价方法。
背景技术
随着科学技术的不断进步,视频影像从无声到有声,从黑白到彩色。原始的平面二维影像不再满足人们的需求,数字化3D视频技术逐渐走入人们的生活,应用日趋广泛。3D技术为3D体验者带来了一场观影革命,它带给人们美好的视觉体验的同时,也暴露出许多问题,如头晕、眼睛疲劳和头痛等现象。
相关研究人员从人眼的视觉感知机理出发,研究了观看3D视频产生视觉疲劳的可能原因,结果表明这些原因主要包括辐辏变化和晶状体调节不一致、双目视差、视差变化的不连续性等,其中,辐辏和调节的矛盾是产生3D视频观看产生视觉疲劳的最主要原因。
通过检索文献发现,有关3D视频观视舒适度问题的研究发展较缓慢,国内外相关的研究报导较少。其中一部分研究是视觉疲劳的主观评价方法,对于立体视频的客观评价研究起步较晚,且尚不存在科学体系和行业统一的测定标准。在当前3D技术蓬勃发展的大趋势下,解决3D观看引起的视觉疲劳问题成为了必修课,因此对3D视频观视舒适度做出相应的评价成为目前非常重要的研究课题。
发明内容
本发明的目的在于提供了一种能很好地反映水平视差范围和观看距离对3D视频舒适度的影响,为3D视频舒适度的评价提供依据的针对辐辏与调节一致性的3D视频舒适度客观评价方法。
本发明的针对辐辏与调节一致性的3D视频舒适度评价方法包括下列步骤:
1.1结合人眼视觉特性和深度感知理论,确定人的双眼舒适视差范围,将视差角在-1°~+1°范围定义为双眼舒适视差范围,其中视差角是双眼辐辏角度的差值,视差角与视差范围的计算公式为:
视差角:θ=α-β
其中:
当θ近似于tanθ时,
正视差时,负视差时,
根据视差角θ∈(-1°,+1°),可得到深度的舒适范围为:单位mm;
根据关系式:可推导双眼视差的舒适范围为:单位mm;
其中:α为双眼正常汇聚在显示屏时的辐辏角度;β为双眼汇聚在显示屏外某一对象的辐辏角度;β1为正视差情况下,某一对象在显示屏后面时双眼汇聚的辐辏角度;β2为负视差情况下,某一对象在显示屏前面时双眼汇聚的辐辏角度;s为水平视差;T为立体深度;D为观察距离;e为瞳孔距离;d1为正视差舒适范围边界值;d2为负视差舒适范围边界值;
1.2根据3D视频每一帧左右视图视差值和由观看距离确定的双眼舒适视差范围,建立基于像素点的舒适度评价因子,舒适度评价因子分为正视差和负视差两部分,正视差舒适度评价因子为:
负视差舒适度评价因子为:
其中:d1为正视差舒适范围边界值;d2为负视差舒适范围边界值;d(x,y)为3D视频中左右视图对应像素点的视差值;
1.3根据步骤1.2所述得到的基于像素点的舒适度评价因子,建立3D视频每一帧的舒适度客观评价模型,其数学表达式为:
其中:VC表示针对辐辏与调节一致性的舒适度评价客观评分;N和M分别表示一帧图像的宽和高。
本发明的特点及有益效果在于:
本发明结合人眼视觉特性和深度感知理论,提出了一种针对辐辏与调节一致性的3D视频舒适度客观评价方法,该方法从定量的角度研究了辐辏与调节一致性对3D视频观视舒适度的影响,能够很好地反映水平视差范围和观看距离对3D视频舒适度的影响,从而为3D视频舒适度的评价提供了依据。
附图说明
图1为针对辐辏与调节一致性的3D视频舒适度评价方法的流程图
图2为视差角概念说明示意图
图3为舒适视差范围说明示意图
图4为水平视差示意图
图5为辐辏与调节变化曲线示意图
图6为After effects制作片源图像示意图
图7为AC.bmp左右立体图像示意图
图8为ballet.bmp左右立体图像示意图
图9为以水平视差为变量的AC序列曲线示意图
图10为以水平视差为变量的ballet序列曲线示意图
图11为以观看距离为变量的AC序列曲线示意图
图12为以观看距离为变量的ballet序列曲线示意图
具体实施方式
下面结合附图和实例,对本发明的具体实施方式作进一步详细描述。
为了从定量的角度研究辐辏与调节一致性对3D视频观视舒适度的影响,本发明提出一种针对辐辏与调节一致性的3D视频舒适度客观评价方法。
一、本发明的针对辐辏与调节一致性的3D视频舒适度评价方法包括下列步骤:
1)结合人眼视觉特性和深度感知理论,确定人眼舒适视差范围。将视差角在-1°~+1°范围定义为双眼舒适视差范围,其中视差角是双眼辐辏角度的差值,双眼舒适视差范围会随观测者视觉主观评价观看距离的改变而发生相应变化;当3D视频每一帧左右视图的视差值在舒适视差范围内,观测者会保持较好的观看舒适度;当3D视频每一帧左右视图的视差值超出舒适视差范围,观测者会出现辐辏与调节的矛盾冲突,导致视觉疲劳;下面参见图1和图2介绍,视差角与视差范围的计算公式为:
视差角:θ=α-β
其中:
当θ近似于tanθ时,因此
正视差时,负视差时,
根据视差角θ∈(-1°,+1°),可以得到深度的舒适范围单位mm;
根据关系式:可推导双眼视差的舒适范围单位mm;
上述公式中:α为双眼正常汇聚在显示屏时的辐辏角度;β为双眼汇聚在显示屏外某一对象的辐辏角度;β1为正视差情况下,某一对象在显示屏后面时双眼汇聚的辐辏角度;β2为负视差情况下,某一对象在显示屏前面时双眼汇聚的辐辏角度;s为水平视差;T为立体深度;D为观察距离;e为瞳孔距离;d1为正视差舒适范围边界值;d2为负视差舒适范围边界值;
2)根据3D视频每一帧左右视图视差值和由观看距离确定的双眼舒适视差范围,建立基于像素点的舒适度评价因子,舒适度评价因子分为正视差和负视差两部分:
正视差舒适度评价因子为:
负视差舒适度评价因子为:
其中:d1为正视差舒适范围边界值;d2为负视差舒适范围边界值;d(x,y)为3D视频中左右视图对应像素点的视差值;
3)根据步骤2)所述得到的基于像素点的舒适度评价因子,建立3D视频每一帧的舒适度客观评价模型,其数学表达式为:
其中:VC表示针对辐辏与调节一致性的舒适度评价客观评分;N和M分别表示一帧图像的宽和高。
二、进行主观评价实验,其具体步骤如下:
(1)制作具有不同水平视差大小的3D视频实验片源。在保证辐辏与调节可以协调变化,双眼能够融像的条件下,通过计算机软件调节3D视频每一帧左右视图的水平视差值。实验选用国际视频组织提供的标准视频序列作为制作片源,每段视频序列的播放时间为8s,播放间隔为30s;
(2)实验选取双目视觉生理正常(裸视或佩戴眼镜矫正视力达到1.0,没有对实验数据造成影响的眼部疾病)的被试者共20人:其中年龄为20-35岁;男性10人,女性10人;被试者均为没有观测经验的非专家评定人员,并且被试者在接受测试前接受一系列相关的培训,以保证可以得到较为合理的评判结果;
(3)实验选用屏幕尺寸为21英寸,分辨率为1024×768,宽高比为4:3的显示器,其像素间距为0.282mm,采用Stereoscopic Player立体视频播放器实现3D视频片源播放,观测者佩戴SONY主动快门式眼镜,观看距离为屏幕高度的3倍,约0.9m;
(4)设定3D视频的水平视差值保持不变,改变观测者的观看距离,选取0.6m-1.5m的距离范围;
(5)设定3D视频观视舒适度主观评价的方法:
式中:m表示立体图像舒适度评分等级数,ci表示第i类对应的评分级数,ni表示选择第i类评分级数的人数。
三、下面以具体的测试实例,来验证本发明提出的针对辐辏与调节一致性的3D视频观视舒适度客观评价方法。
本次实验片源采用两段国际组织提供的标准视频序列,分别是AC序列(分辨率320×240)和ballet序列(分辨率1024×768),帧刷新频率均为每秒25帧。用After effectscs4软件分别将这两段片源制作成具有不同水平视差的测试序列,水平视差的调节范围在0-60mm,并计算和统计测试序列的主客观评价得分,其中主观评价打分标准见表1。
表1:主观评价标准
得分 等级 主观评价评分标准
1 很差 不融像、舒适度非常差
0.8 不好 合像困难、不舒适
0.6 一般 立体感较强、较舒适
0.4 良好 立体感不强、很舒适
0.2 优秀 立体感较弱、舒适度高
(1)参见图8、图9,以水平视差为自变量,改变3D视频每一帧左右视图的水平视差,观看距离为屏幕高度的3倍,约0.9m,得到针对辐辏与调节一致性的舒适度评价值VC的主客观变化曲线。
(2)参见图10、图11,以观看距离为自变量,调节范围在0.6-1.5m,保持3D视频每一帧左右视图的水平视差不变,得到针对辐辏与调节一致性的观舒适度评价值VC的主客观变化曲线。
实验结果分析:
(1)在以水平视差为自变量时,由主客观变化曲线可以看出,随着水平视差值的增大,人眼产生的不舒适感呈现总体上升的趋势。3D视频每一帧的左右视图的水平视差经历了由初始的正视差(非交叉视差)逐渐调节变小至视差舒适范围内,再变化为负视差(交叉视差),逐渐增大超出视差舒适范围的过程,因此视觉不舒适感会出现略微下降,再逐渐上升的趋势,符合人眼的视觉感知过程。
(2)在以观看距离为自变量时,由主客观变化曲线可以看出,随着观看距离值的增大,人眼产生的不舒适感呈现总体下降的趋势,考虑舒适度和立体感的总体平衡,最佳的观看位置在0.9m左右较为舒适。

Claims (1)

1.一种针对辐辏与调节一致性的3D视频舒适度评价方法,其特征在于包括下列步骤:
1.1结合人眼视觉特性和深度感知理论,确定人的双眼舒适视差范围,将视差角在-1°~+1°范围定义为双眼舒适视差范围,其中视差角是双眼辐辏角度的差值,视差角与视差范围的计算公式为:
视差角:θ=α-β
其中:
当θ近似于tanθ时,
正视差时,负视差时,
根据视差角θ∈(-1°,+1°),可得到深度的舒适范围为:单位为mm;
根据关系式:可推导双眼视差的舒适范围为:单位为mm;
上述公式中:α为双眼正常汇聚在显示屏时的辐辏角度;β为双眼汇聚在显示屏外某一对象的辐辏角度;β1为正视差情况下,某一对象在显示屏后面时双眼汇聚的辐辏角度;β2为负视差情况下,某一对象在显示屏前面时双眼汇聚的辐辏角度;s为水平视差;T为立体深度;D为观察距离;e为瞳孔距离;d1为正视差舒适范围边界值;d2为负视差舒适范围边界值;
1.2根据3D视频每一帧左右视图视差值和由观看距离确定的双眼舒适视差范围,建立基于像素点的舒适度评价因子,舒适度评价因子分为正视差舒适度评价因子和负视差舒适度评价因子;
正视差舒适度评价因子为:
<mrow> <msub> <mi>w</mi> <mo>+</mo> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mfrac> <mrow> <msub> <mi>d</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>d</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mfrac> </mtd> <mtd> <mrow> <mi>d</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <msub> <mi>d</mi> <mn>1</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <msup> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>d</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> <msub> <mi>d</mi> <mn>1</mn> </msub> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mtd> <mtd> <mrow> <msub> <mi>d</mi> <mn>1</mn> </msub> <mo>&lt;</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
负视差舒适度评价因子为:
<mrow> <msub> <mi>w</mi> <mo>-</mo> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mfrac> <mrow> <mi>d</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>d</mi> <mn>2</mn> </msub> </mrow> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mi>d</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>-</mo> <msub> <mi>d</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mtd> <mtd> <mrow> <mi>d</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <msub> <mi>d</mi> <mn>2</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <msup> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>d</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> <msub> <mi>d</mi> <mn>2</mn> </msub> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mtd> <mtd> <mrow> <mn>0</mn> <mo>&lt;</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <msub> <mi>d</mi> <mn>2</mn> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中:d1为正视差舒适范围边界值;d2为负视差舒适范围边界值;d(x,y)为3D视频中左右视图对应像素点的视差值;
1.3根据步骤1.2所述得到的基于像素点的舒适度评价因子,建立3D视频每一帧的舒适度客观评价模型,其数学表达式为:
<mrow> <mi>V</mi> <mi>C</mi> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>y</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <mfrac> <mrow> <msub> <mi>w</mi> <mo>+</mo> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>w</mi> <mo>-</mo> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>N</mi> <mi>M</mi> </mrow> </mfrac> </mrow> 1
其中:VC表示针对辐辏与调节一致性的舒适度评价客观评分;N和M分别表示一帧图像的宽和高。
CN201610308446.XA 2016-05-11 2016-05-11 一种针对辐辏与调节一致性的3d视频舒适度评价方法 Expired - Fee Related CN106028025B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610308446.XA CN106028025B (zh) 2016-05-11 2016-05-11 一种针对辐辏与调节一致性的3d视频舒适度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610308446.XA CN106028025B (zh) 2016-05-11 2016-05-11 一种针对辐辏与调节一致性的3d视频舒适度评价方法

Publications (2)

Publication Number Publication Date
CN106028025A CN106028025A (zh) 2016-10-12
CN106028025B true CN106028025B (zh) 2017-11-21

Family

ID=57099039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610308446.XA Expired - Fee Related CN106028025B (zh) 2016-05-11 2016-05-11 一种针对辐辏与调节一致性的3d视频舒适度评价方法

Country Status (1)

Country Link
CN (1) CN106028025B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106604012B (zh) * 2016-10-20 2019-01-22 吉林大学 一种针对垂直视差的3d视频舒适度评价方法
CN108877747A (zh) * 2018-05-24 2018-11-23 吴若鹏 一种乐器弹奏按键的引导提示方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096122B (zh) * 2013-01-24 2015-04-22 上海交通大学 基于感兴趣区域内运动特征的立体视觉舒适度评价方法
CN103096125B (zh) * 2013-02-22 2015-03-04 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
CN103595990B (zh) * 2013-10-30 2015-05-20 清华大学 运动感知的双目立体视频舒适度获取方法
CN106973288B (zh) * 2013-12-27 2019-08-13 华为技术有限公司 一种立体视频舒适度评价方法及装置
CN103986925B (zh) * 2014-06-05 2015-09-23 吉林大学 基于亮度补偿的立体视频视觉舒适度评价方法
CN104883577B (zh) * 2015-05-26 2018-04-27 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法

Also Published As

Publication number Publication date
CN106028025A (zh) 2016-10-12

Similar Documents

Publication Publication Date Title
Mauderer et al. Depth perception with gaze-contingent depth of field
US9754379B2 (en) Method and system for determining parameters of an off-axis virtual camera
CN107071382B (zh) 立体图像显示装置
CN101562754B (zh) 一种改善平面图像转3d图像视觉效果的方法
WO2016115849A1 (zh) 图像亮度的调节方法及调节装置、显示装置
Leroy et al. Visual fatigue reduction for immersive stereoscopic displays by disparity, content, and focus-point adapted blur
CN103986925A (zh) 基于亮度补偿的立体视频视觉舒适度评价方法
CN104509087B (zh) 双目视觉体验增强系统
CN104853185A (zh) 结合多视差和运动的立体视频舒适度评价方法
CN104581141B (zh) 一种立体图像视觉舒适度评价方法
CN103329165A (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
WO2018176927A1 (zh) 虚拟主动视差计算补偿的双目渲染方法及系统
CN103260040B (zh) 基于人眼视觉特性的3d显示自适应调节方法
JP2002223458A (ja) 立体映像作成装置
IJsselsteijn et al. Human factors of 3D displays
CN106028025B (zh) 一种针对辐辏与调节一致性的3d视频舒适度评价方法
CN102006493A (zh) 一种3d视频图像的视差调节方法及装置
Moreau Visual immersion issues in Virtual Reality: a survey
Mikšícek Causes of visual fatigue and its improvements in stereoscopy
Brooker et al. Operator performance evaluation of controlled depth of field in a stereographically displayed virtual environment
CN113081719A (zh) 在随机元素分布背景模式下的立体视诱导方法和系统
He et al. Visual discomfort prediction for stereo contents
WO2014001262A1 (en) Method of adapting 3d content to an observer wearing prescription glasses
CN109031667A (zh) 一种虚拟现实眼镜图像显示区域横向边界定位方法
Quan et al. Comfort Improvement of Stereoscopic Video Based on Disparity Adjustment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171121