CN109523590B - 一种基于样例的3d图像深度信息视觉舒适度评估方法 - Google Patents

一种基于样例的3d图像深度信息视觉舒适度评估方法 Download PDF

Info

Publication number
CN109523590B
CN109523590B CN201811227681.XA CN201811227681A CN109523590B CN 109523590 B CN109523590 B CN 109523590B CN 201811227681 A CN201811227681 A CN 201811227681A CN 109523590 B CN109523590 B CN 109523590B
Authority
CN
China
Prior art keywords
image
depth information
visual comfort
sample
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811227681.XA
Other languages
English (en)
Other versions
CN109523590A (zh
Inventor
牛玉贞
陈建儿
郭昆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201811227681.XA priority Critical patent/CN109523590B/zh
Publication of CN109523590A publication Critical patent/CN109523590A/zh
Application granted granted Critical
Publication of CN109523590B publication Critical patent/CN109523590B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于样例的3D图像深度信息视觉舒适度评估方法,包括以下步骤:步骤S1:输入待评估的3D图像,将左视图作为输入图像;步骤S2:利用基于深度学习特征的图像检索技术,在专业3D图像数据库中检索与待评估的3D图像场景相似的n幅高质量的3D图像作为对比样例图像;步骤S3:对输入图像和对比样例图像依次进行3D图像显著性检测和前景对象分割处理,并计算得到每幅图像的前景和背景的深度信息分布直方图;步骤S4:计算输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度;步骤S5:综合得到待评估的3D图像的综合深度信息视觉舒适度。本发明能够考虑到深度信息视觉舒适度,对3D图像深度信息视觉舒适度进行评估。

Description

一种基于样例的3D图像深度信息视觉舒适度评估方法
技术领域
本发明涉及图像和视频处理以及计算机视觉技术领域,具体涉及一种基于样例的3D图像深度信息视觉舒适度评估方法。
背景技术
视觉是人类从外界获取信息的最主要途径之一。由于人的双眼看到的是自然界中真实的三维景象,因此能够在屏幕上再现真实自然的三维景象一直是人类的追求。随着3D显示技术的迅速发展,3D图像技术在人们的生活和工作中有着越来越广泛的应用,例如影视、游戏等产品的开发和制作,人与环境交互的虚拟现实的仿真和摸拟等。质量越好的3D图像越能给人们带来更好的观看体验和真实感。因此,3D图像质量评估方法的研究是图像处理领域中一个重要的研究方向。
3D图像的视觉舒适度是衡量3D图像质量的关键。许多研究人员提出相应的视觉舒适度预测模型从而对3D图像质量进行评估。Lambooij等人提出利用整幅图像的视差幅值均值和视差范围预测3D图像舒适程度。Kim等人指出通过计算水平视差和垂直视差的大小,结合交叉验证方法预测得到舒适度客观评估值,该方法主要针对由于相机错位或不适合的相机参数拍摄得到的3D图像。Sohn等人提出一种利用对象尺寸和视差信息的3D图像舒适度预测模型,作者认为相邻对象间的相对视差和对象的尺寸对舒适度影响较大,首先提取3D图像的相对视差信息和对象大小作为感知特征,然后通过支持向量机回归预测得到舒适度预测值。Jung等人通过大量实验分析得到双目颜色融合的极限值,即当左右图像颜色不一致时导致左右图像无法正常融合的极限值,该方法定量地分析左右视点颜色信息不一致对3D图像视觉舒适度的影响。
发明内容
有鉴于此,本发明的目的在于提供一种基于样例的3D图像深度信息视觉舒适度评估方法,通过样例学习的思路对3D图像深度信息视觉舒适度进行评估,从深度信息视觉舒适角度评估用户观看3D图像的体验。
为实现上述目的,本发明采用如下技术方案:
一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于,包括以下步骤:
步骤S1:输入待评估的3D图像,并将待评估的3D图像的左视图作为该图像的场景,将左视图作为输入图像;
步骤S2:利用基于深度学习特征的图像检索技术,在专业3D图像数据库中检索与待评估的3D图像场景相似的n幅高质量的3D图像作为对比样例图像;
步骤S3:对输入图像和对比样例图像依次进行3D图像显著性检测和前景对象分割处理,并计算得到每幅图像的前景和背景的深度信息分布直方图;
步骤S4:计算输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度;
步骤S5:综合由步骤S4得到的前景和背景的质量评估输入3D图像的深度信息视觉舒适度,得到待评估的3D图像的综合深度信息视觉舒适度。
进一步的,所述步骤S2具体为:
步骤S21:依次取待评估3D图像和专业3D图像数据库中的每幅图像,按如下过程计算所有图像的全局深度特征:
将任意一幅3D图像的左视图作为检索对比样例的图像I,获取图像I的深度卷积特征f,该特征f由图像分类深度卷积神经网络的最后一层卷积层产生,将图像I作为图像分类深度卷积神经网络的输入,输出D1维的N×N的特征,然后对这些深度特征进行加权聚合得到全局特征,公式如下:
Figure BDA0001836385810000031
其中,(x,y)代表相应的空间坐标,权重α(x,y)和空间位置有关,计算公式如下:
Figure BDA0001836385810000032
其中,
Figure BDA0001836385810000033
Figure BDA0001836385810000034
进行L2规范化,公式如下:
Figure BDA0001836385810000035
Figure BDA0001836385810000041
经过PCA降维和PCA白化处理至D2维得到
Figure BDA0001836385810000042
再对
Figure BDA0001836385810000043
进行L2规范化得到
Figure BDA0001836385810000044
就是该3D图像的全局深度特征;
步骤S22:计算输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性,计算公式为:
Figure BDA0001836385810000045
其中,sim(Ii,Ij)表示图像Ii和图像Ij的相似性值,<.>代表点积运算,sim(Ii,Ij)越大,说明两张图像越相似;
步骤S23:将输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性值sim(Ii,Ij)降序排列,得到输入图像Ii的在高质量专业3D图像数据库中的检索结果,取前n幅图像作为输入图像Ii的对比样例图像,组成对比样例图像集合{I'k|k=1,2,…n}。
进一步的,所述步骤S3具体为:
步骤S31:将输入图像和对比样例图像进行等比放缩,使它们放缩后的宽度相同,且等于专业3D图像数据库所有图像宽度的平均值;
步骤S32:分别计算输入图像和对比样例图像的视差图d,3D图像显著性图s,前景图f和背景图b;
步骤S33:对输入图像和对比样例图像依次计算前景图和背景图的深度信息分布直方图。
进一步的,所述步骤S33具体为:
对任意图像I的前景图f的深度信息分布直方图的计算公式如下:
Figure BDA0001836385810000046
其中,
Figure BDA0001836385810000051
表示图像I的第m维的前景直方图特征,m∈[1,256],p表示图像I的像素,f(p)表示像素p的前景值,即当像素p是前景时,f(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度;
对任意图像I的背景图b的深度信息分布直方图的计算公式如下:
Figure BDA0001836385810000052
其中,
Figure BDA0001836385810000053
表示图像I的第m维的背景直方图特征,m∈[1,256],p表示图像I的像素,b(p)表示像素p的后景值,即当像素p是背景时,b(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度。
进一步的,所述步骤S4具体为:
步骤S41:输入图像Ii相比于任意样例图像I'k的前景深度信息视觉舒适度度量计算公式如下:
Figure BDA0001836385810000054
其中,
Figure BDA0001836385810000055
Figure BDA0001836385810000056
分别是图像Ii和I'k第m维的前景直方图特征,hf(Ii,I'k)是图像Ii和I'k间的直方图特征的相似性之和,hf值越大,Ii和I'k前景的深度信息分布越相似,因此输入图像Ii相比样例I'k的前景深度信息视觉舒适度越好;
步骤S42:输入图像Ii相比于任意样例图像I'k的背景深度信息视觉舒适度度量计算公式如下:
Figure BDA0001836385810000061
其中,
Figure BDA0001836385810000062
Figure BDA0001836385810000063
分别是图像Ii和I'k第m维的背景直方图特征,hb(Ii,I'k)是图像Ii和I'k间的直方图特征的相似性之和,hb值越大,Ii和I'k背景的深度信息分布越相似,因此输入图像Ii相比样例I'k的背景深度信息视觉舒适度越好。
进一步的,所述步骤S5具体为;
步骤S51:输入图像Ii相比样例I'k的综合深度信息视觉舒适度为:
h(Ii,I′k)=hf(Ii,I′k)+hb(Ii,I′k),k=1,2,…,n
步骤S52:对于n个样例,计算得到n个综合深度信息视觉舒适度值,输入图像Ii最终的综合深度信息视觉舒适度为:
h(Ii)=max{h(Ii,I′1),h(Ii,I′2),…,h(Ii,I′n)}。
本发明与现有技术相比具有以下有益效果:
本发明考虑到深度信息视觉舒适度对用户观看3D图像的主观体验的直接影响,通过样例学习的思路,学习专业摄像师在对相似场景进行拍摄时所采用的深度信息分布,并与待评估3D图像所采用和深度信息分布进行比较,从而对3D图像深度信息视觉舒适度进行评估。
附图说明
图1是本发明方法的流程框图。
图2是本发明的一实施例的整体方法的实现流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1和图2,本发明提供一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于,包括以下步骤:
步骤S1:输入待评估的3D图像,并将待评估的3D图像的左视图作为该图像的场景,将左视图作为输入图像;
步骤S2:利用基于深度学习特征的图像检索技术,在专业3D图像数据库中检索与待评估的3D图像场景相似的n幅高质量的3D图像作为对比样例图像;
步骤S21:依次取待评估3D图像和专业3D图像数据库中的每幅图像,按如下过程计算所有图像的全局深度特征:
将任意一幅3D图像的左视图作为检索对比样例的图像I,获取图像I的深度卷积特征f,该特征f由图像分类深度卷积神经网络的最后一层卷积层产生,将图像I作为图像分类深度卷积神经网络的输入,输出D1维的N×N的特征,然后对这些深度特征进行加权聚合得到全局特征,公式如下:
Figure BDA0001836385810000071
其中,(x,y)代表相应的空间坐标,权重α(x,y)和空间位置有关,计算公式如下:
Figure BDA0001836385810000081
其中,
Figure BDA0001836385810000082
Figure BDA0001836385810000083
进行L2规范化,公式如下:
Figure BDA0001836385810000084
Figure BDA0001836385810000085
经过PCA降维和PCA白化处理至D2维得到
Figure BDA0001836385810000086
再对
Figure BDA0001836385810000087
进行L2规范化得到
Figure BDA0001836385810000088
就是该3D图像的全局深度特征;
步骤S22:计算输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性,计算公式为:
Figure BDA0001836385810000089
其中,sim(Ii,Ij)表示图像Ii和图像Ij的相似性值,<.>代表点积运算,sim(Ii,Ij)越大,说明两张图像越相似;
步骤S23:将输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性值sim(Ii,Ij)降序排列,得到输入图像Ii的在高质量专业3D图像数据库中的检索结果,取前n幅图像作为输入图像Ii的对比样例图像,组成对比样例图像集合{I'k|k=1,2,…n}。
步骤S3:对输入图像和对比样例图像依次进行3D图像显著性检测和前景对象分割处理,并计算得到每幅图像的前景和背景的深度信息分布直方图;
步骤S31:将输入图像和对比样例图像进行等比放缩,使它们放缩后的宽度相同,且等于专业3D图像数据库所有图像宽度的平均值;
步骤S32:分别计算输入图像和对比样例图像的视差图d,3D图像显著性图s,前景图f和背景图b;
步骤S33:对输入图像和对比样例图像依次计算前景图和背景图的深度信息分布直方图;
对任意图像I的前景图f的深度信息分布直方图的计算公式如下:
Figure BDA0001836385810000091
其中,
Figure BDA0001836385810000092
表示图像I的第m维的前景直方图特征,m∈[1,256],p表示图像I的像素,f(p)表示像素p的前景值,即当像素p是前景时,f(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度;
对任意图像I的背景图b的深度信息分布直方图的计算公式如下:
Figure BDA0001836385810000093
其中,
Figure BDA0001836385810000094
表示图像I的第m维的背景直方图特征,m∈[1,256],p表示图像I的像素,b(p)表示像素p的背景值,即当像素p是背景时,b(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度。
步骤S4:计算输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度;
步骤S41:输入图像Ii相比于任意样例图像I'k的前景深度信息视觉舒适度度量计算公式如下:
Figure BDA0001836385810000101
其中,
Figure BDA0001836385810000102
Figure BDA0001836385810000103
分别是图像Ii和I'k第m维的前景直方图特征,hf(Ii,I'k)是图像Ii和I'k间的直方图特征的相似性之和,hf值越大,Ii和I'k前景的深度信息分布越相似,因此输入图像Ii相比样例I'k的前景深度信息视觉舒适度越好;
步骤S42:输入图像Ii相比于任意样例图像I'k的背景深度信息视觉舒适度度量计算公式如下:
Figure BDA0001836385810000104
其中,
Figure BDA0001836385810000105
Figure BDA0001836385810000106
分别是图像Ii和I'k第m维的背景直方图特征,hb(Ii,I'k)是图像Ii和I'k间的直方图特征的相似性之和,hb值越大,Ii和I'k背景的深度信息分布越相似,因此输入图像Ii相比样例I'k的背景深度信息视觉舒适度越好。
步骤S5:综合由步骤S4得到的前景和背景的质量评估输入3D图像的深度信息视觉舒适度,得到待评估的3D图像的综合深度信息视觉舒适度;
步骤S51:输入图像Ii相比样例I'k的综合深度信息视觉舒适度为:
h(Ii,I′k)=hf(Ii,I′k)+hb(Ii,I′k),k=1,2,…,n
步骤S52:对于n个样例,计算得到n个综合深度信息视觉舒适度值,输入图像Ii最终的综合深度信息视觉舒适度为:
h(Ii)=max{h(Ii,I′1),h(Ii,I′2),…,h(Ii,I′n)}。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (6)

1.一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于,包括以下步骤:
步骤S1:输入待评估的3D图像,并将待评估的3D图像的左视图作为该图像的场景,将左视图作为输入图像;
步骤S2:利用基于深度学习特征的图像检索技术,在专业3D图像数据库中检索与待评估的3D图像场景相似的n幅3D图像作为对比样例图像;
步骤S3:对输入图像和对比样例图像依次进行3D图像显著性检测和前景对象分割处理,并计算得到每幅图像的前景和背景的深度信息分布直方图;
步骤S4:计算输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度;
步骤S5:综合由步骤S4得到输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度,得到待评估的3D图像的综合深度信息视觉舒适度。
2.根据权利要求1所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S2具体为:
步骤S21:依次取待评估3D图像和专业3D图像数据库中的每幅图像,按如下过程计算所有图像的全局深度特征:
将任意一幅3D图像的左视图作为检索对比样例的图像I,获取图像I的深度卷积特征f,该特征f由图像分类深度卷积神经网络的最后一层卷积层产生,将图像I作为图像分类深度卷积神经网络的输入,输出D1维的N×N的特征,然后对这些深度特征进行加权聚合得到全局特征,公式如下:
Figure FDA0003007533220000021
其中,(x,y)代表相应的空间坐标,权重α(x,y)和空间位置有关,计算公式如下:
Figure FDA0003007533220000022
其中,
Figure FDA0003007533220000023
Figure FDA0003007533220000024
进行L2规范化,公式如下:
Figure FDA0003007533220000025
Figure FDA0003007533220000026
经过PCA降维和PCA白化处理至D2维得到
Figure FDA0003007533220000027
再对
Figure FDA0003007533220000028
进行L2规范化得到
Figure FDA0003007533220000029
就是该3D图像的全局深度特征;
步骤S22:计算输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性,计算公式为:
Figure FDA00030075332200000210
其中,sim(Ii,Ij)表示图像Ii和图像Ij的相似性值,<,>代表点积运算,sim(Ii,Ij)越大,说明两张图像越相似;
步骤S23:将输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性值sim(Ii,Ij)降序排列,得到输入图像Ii的在专业3D图像数据库中的检索结果,取前n幅图像作为输入图像Ii的对比样例图像,组成对比样例图像集合{I′k|k=1,2,…n}。
3.根据权利要求1所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S3具体为:
步骤S31:将输入图像和对比样例图像进行等比放缩,使它们放缩后的宽度相同,且等于专业3D图像数据库所有图像宽度的平均值;
步骤S32:分别计算输入图像和对比样例图像的视差图d,3D图像显著性图s,前景图f和背景图b;
步骤S33:对输入图像和对比样例图像依次计算前景图和背景图的深度信息分布直方图。
4.根据权利要求3所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S33具体为:
对任意图像I的前景图f的深度信息分布直方图的计算公式如下:
Figure FDA0003007533220000031
其中,
Figure FDA0003007533220000032
表示图像I的第m维的前景直方图特征,m∈[1,256],p表示图像I的像素,f(p)表示像素p的前景值,即当像素p是前景时,f(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度;
对任意图像I的背景图b的深度信息分布直方图的计算公式如下:
Figure FDA0003007533220000033
其中,
Figure FDA0003007533220000041
表示图像I的第m维的背景直方图特征,m∈[1,256],p表示图像I的像素,b(p)表示像素p的背景值,即当像素p是背景时,b(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度。
5.根据权利要求1所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S4具体为:
步骤S41:输入图像Ii相比于任意样例图像I′k的前景深度信息视觉舒适度度量计算公式如下:
Figure FDA0003007533220000042
其中,
Figure FDA0003007533220000043
Figure FDA0003007533220000044
分别是图像Ii和I′k第m维的前景直方图特征,hf(Ii,I′k)是图像Ii和I′k间的直方图特征的相似性之和,hf值越大,Ii和I′k前景的深度信息分布越相似,因此输入图像Ii相比样例I′k的前景深度信息视觉舒适度越好;
步骤S42:输入图像Ii相比于任意样例图像I′k的背景深度信息视觉舒适度度量计算公式如下:
Figure FDA0003007533220000045
其中,
Figure FDA0003007533220000046
Figure FDA0003007533220000047
分别是图像Ii和I′k第m维的背景直方图特征,hb(Ii,I′k)是图像Ii和I′k间的直方图特征的相似性之和,hb值越大,Ii和I′k背景的深度信息分布越相似,因此输入图像Ii相比样例I′k的背景深度信息视觉舒适度越好。
6.根据权利要求5所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S5具体为;
步骤S51:输入图像Ii相比样例I′k的综合深度信息视觉舒适度为:
h(Ii,I′k)=hf(Ii,I′k)+hb(Ii,I′k),k=1,2,…,n
步骤S52:对于n个样例,计算得到n个综合深度信息视觉舒适度值,输入图像Ii最终的综合深度信息视觉舒适度为:
h(Ii)=max{h(Ii,I′1),h(Ii,I2),…,h(Ii,I′n)}。
CN201811227681.XA 2018-10-22 2018-10-22 一种基于样例的3d图像深度信息视觉舒适度评估方法 Active CN109523590B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811227681.XA CN109523590B (zh) 2018-10-22 2018-10-22 一种基于样例的3d图像深度信息视觉舒适度评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811227681.XA CN109523590B (zh) 2018-10-22 2018-10-22 一种基于样例的3d图像深度信息视觉舒适度评估方法

Publications (2)

Publication Number Publication Date
CN109523590A CN109523590A (zh) 2019-03-26
CN109523590B true CN109523590B (zh) 2021-05-18

Family

ID=65772204

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811227681.XA Active CN109523590B (zh) 2018-10-22 2018-10-22 一种基于样例的3d图像深度信息视觉舒适度评估方法

Country Status (1)

Country Link
CN (1) CN109523590B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871124B (zh) * 2019-01-25 2020-10-27 华南理工大学 基于深度学习的情感虚拟现实场景评估方法
CN111860691B (zh) * 2020-07-31 2022-06-14 福州大学 基于注意力和循环神经网络的立体视频视觉舒适度分类法
CN113515660B (zh) * 2021-07-16 2022-03-18 广西师范大学 基于三维张量对比策略的深度特征对比加权图像检索方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780476A (zh) * 2016-12-29 2017-05-31 杭州电子科技大学 一种基于人眼立体视觉特性的立体图像显著性检测方法
WO2017162594A1 (en) * 2016-03-21 2017-09-28 Thomson Licensing Dibr with depth map preprocessing for reducing visibility of holes by locally blurring hole areas
CN108389192A (zh) * 2018-02-11 2018-08-10 天津大学 基于卷积神经网络的立体图像舒适度评价方法
CN108449596A (zh) * 2018-04-17 2018-08-24 福州大学 一种融合美学和舒适度的3d立体图像质量评估方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017162594A1 (en) * 2016-03-21 2017-09-28 Thomson Licensing Dibr with depth map preprocessing for reducing visibility of holes by locally blurring hole areas
CN106780476A (zh) * 2016-12-29 2017-05-31 杭州电子科技大学 一种基于人眼立体视觉特性的立体图像显著性检测方法
CN108389192A (zh) * 2018-02-11 2018-08-10 天津大学 基于卷积神经网络的立体图像舒适度评价方法
CN108449596A (zh) * 2018-04-17 2018-08-24 福州大学 一种融合美学和舒适度的3d立体图像质量评估方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Learning from multi metrics for stereoscopic 3D image quality assessment;Jiamei Zhan et al.;《2016 International Conference on 3D Imaging (IC3D)》;20161214;第1-8页 *

Also Published As

Publication number Publication date
CN109523590A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
Wang et al. Detecting photoshopped faces by scripting photoshop
JP7200139B2 (ja) 仮想顔化粧の除去、高速顔検出およびランドマーク追跡
CN106096542B (zh) 基于距离预测信息的图像视频场景识别方法
CN109684969B (zh) 凝视位置估计方法、计算机设备及存储介质
CN106462771A (zh) 一种3d图像的显著性检测方法
Ding et al. No-reference stereoscopic image quality assessment using convolutional neural network for adaptive feature extraction
CN104572804A (zh) 一种视频物体检索的方法及其系统
CN109523590B (zh) 一种基于样例的3d图像深度信息视觉舒适度评估方法
CN111241989A (zh) 图像识别方法及装置、电子设备
WO2014187223A1 (en) Method and apparatus for identifying facial features
US20180357819A1 (en) Method for generating a set of annotated images
CN101601287A (zh) 产生照片级真实感图像缩略图的设备和方法
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
CN109429051B (zh) 基于多视图特征学习的无参考立体视频质量客观评价方法
JP2014211719A (ja) 情報処理装置およびその方法
WO2023080921A1 (en) Neural radiance field generative modeling of object classes from single two-dimensional views
Zhang et al. Video salient region detection model based on wavelet transform and feature comparison
CN113112416B (zh) 一种语义引导的人脸图像修复方法
CN111784658A (zh) 一种用于人脸图像的质量分析方法和系统
CN111641822A (zh) 一种重定位立体图像质量评价方法
Zhang Innovation of English teaching model based on machine learning neural network and image super resolution
CN112954313A (zh) 一种对全景图像感知质量的计算方法
CN115953330B (zh) 虚拟场景图像的纹理优化方法、装置、设备和存储介质
Ancona et al. Ball detection in static images with Support Vector Machines for classification
CN116980549A (zh) 视频帧处理方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant