CN109523590B - 一种基于样例的3d图像深度信息视觉舒适度评估方法 - Google Patents
一种基于样例的3d图像深度信息视觉舒适度评估方法 Download PDFInfo
- Publication number
- CN109523590B CN109523590B CN201811227681.XA CN201811227681A CN109523590B CN 109523590 B CN109523590 B CN 109523590B CN 201811227681 A CN201811227681 A CN 201811227681A CN 109523590 B CN109523590 B CN 109523590B
- Authority
- CN
- China
- Prior art keywords
- image
- depth information
- visual comfort
- sample
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 54
- 238000011156 evaluation Methods 0.000 title claims abstract description 6
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000005516 engineering process Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000013135 deep learning Methods 0.000 claims abstract description 4
- 238000001514 detection method Methods 0.000 claims abstract description 4
- 230000011218 segmentation Effects 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 15
- 239000000126 substance Substances 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 6
- 230000000052 comparative effect Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 239000011782 vitamin Substances 0.000 claims description 3
- 230000002087 whitening effect Effects 0.000 claims description 3
- 238000013441 quality evaluation Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 235000019687 Lamb Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于样例的3D图像深度信息视觉舒适度评估方法,包括以下步骤:步骤S1:输入待评估的3D图像,将左视图作为输入图像;步骤S2:利用基于深度学习特征的图像检索技术,在专业3D图像数据库中检索与待评估的3D图像场景相似的n幅高质量的3D图像作为对比样例图像;步骤S3:对输入图像和对比样例图像依次进行3D图像显著性检测和前景对象分割处理,并计算得到每幅图像的前景和背景的深度信息分布直方图;步骤S4:计算输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度;步骤S5:综合得到待评估的3D图像的综合深度信息视觉舒适度。本发明能够考虑到深度信息视觉舒适度,对3D图像深度信息视觉舒适度进行评估。
Description
技术领域
本发明涉及图像和视频处理以及计算机视觉技术领域,具体涉及一种基于样例的3D图像深度信息视觉舒适度评估方法。
背景技术
视觉是人类从外界获取信息的最主要途径之一。由于人的双眼看到的是自然界中真实的三维景象,因此能够在屏幕上再现真实自然的三维景象一直是人类的追求。随着3D显示技术的迅速发展,3D图像技术在人们的生活和工作中有着越来越广泛的应用,例如影视、游戏等产品的开发和制作,人与环境交互的虚拟现实的仿真和摸拟等。质量越好的3D图像越能给人们带来更好的观看体验和真实感。因此,3D图像质量评估方法的研究是图像处理领域中一个重要的研究方向。
3D图像的视觉舒适度是衡量3D图像质量的关键。许多研究人员提出相应的视觉舒适度预测模型从而对3D图像质量进行评估。Lambooij等人提出利用整幅图像的视差幅值均值和视差范围预测3D图像舒适程度。Kim等人指出通过计算水平视差和垂直视差的大小,结合交叉验证方法预测得到舒适度客观评估值,该方法主要针对由于相机错位或不适合的相机参数拍摄得到的3D图像。Sohn等人提出一种利用对象尺寸和视差信息的3D图像舒适度预测模型,作者认为相邻对象间的相对视差和对象的尺寸对舒适度影响较大,首先提取3D图像的相对视差信息和对象大小作为感知特征,然后通过支持向量机回归预测得到舒适度预测值。Jung等人通过大量实验分析得到双目颜色融合的极限值,即当左右图像颜色不一致时导致左右图像无法正常融合的极限值,该方法定量地分析左右视点颜色信息不一致对3D图像视觉舒适度的影响。
发明内容
有鉴于此,本发明的目的在于提供一种基于样例的3D图像深度信息视觉舒适度评估方法,通过样例学习的思路对3D图像深度信息视觉舒适度进行评估,从深度信息视觉舒适角度评估用户观看3D图像的体验。
为实现上述目的,本发明采用如下技术方案:
一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于,包括以下步骤:
步骤S1:输入待评估的3D图像,并将待评估的3D图像的左视图作为该图像的场景,将左视图作为输入图像;
步骤S2:利用基于深度学习特征的图像检索技术,在专业3D图像数据库中检索与待评估的3D图像场景相似的n幅高质量的3D图像作为对比样例图像;
步骤S3:对输入图像和对比样例图像依次进行3D图像显著性检测和前景对象分割处理,并计算得到每幅图像的前景和背景的深度信息分布直方图;
步骤S4:计算输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度;
步骤S5:综合由步骤S4得到的前景和背景的质量评估输入3D图像的深度信息视觉舒适度,得到待评估的3D图像的综合深度信息视觉舒适度。
进一步的,所述步骤S2具体为:
步骤S21:依次取待评估3D图像和专业3D图像数据库中的每幅图像,按如下过程计算所有图像的全局深度特征:
将任意一幅3D图像的左视图作为检索对比样例的图像I,获取图像I的深度卷积特征f,该特征f由图像分类深度卷积神经网络的最后一层卷积层产生,将图像I作为图像分类深度卷积神经网络的输入,输出D1维的N×N的特征,然后对这些深度特征进行加权聚合得到全局特征,公式如下:
其中,(x,y)代表相应的空间坐标,权重α(x,y)和空间位置有关,计算公式如下:
步骤S22:计算输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性,计算公式为:
其中,sim(Ii,Ij)表示图像Ii和图像Ij的相似性值,<.>代表点积运算,sim(Ii,Ij)越大,说明两张图像越相似;
步骤S23:将输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性值sim(Ii,Ij)降序排列,得到输入图像Ii的在高质量专业3D图像数据库中的检索结果,取前n幅图像作为输入图像Ii的对比样例图像,组成对比样例图像集合{I'k|k=1,2,…n}。
进一步的,所述步骤S3具体为:
步骤S31:将输入图像和对比样例图像进行等比放缩,使它们放缩后的宽度相同,且等于专业3D图像数据库所有图像宽度的平均值;
步骤S32:分别计算输入图像和对比样例图像的视差图d,3D图像显著性图s,前景图f和背景图b;
步骤S33:对输入图像和对比样例图像依次计算前景图和背景图的深度信息分布直方图。
进一步的,所述步骤S33具体为:
对任意图像I的前景图f的深度信息分布直方图的计算公式如下:
其中,表示图像I的第m维的前景直方图特征,m∈[1,256],p表示图像I的像素,f(p)表示像素p的前景值,即当像素p是前景时,f(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度;
对任意图像I的背景图b的深度信息分布直方图的计算公式如下:
其中,表示图像I的第m维的背景直方图特征,m∈[1,256],p表示图像I的像素,b(p)表示像素p的后景值,即当像素p是背景时,b(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度。
进一步的,所述步骤S4具体为:
步骤S41:输入图像Ii相比于任意样例图像I'k的前景深度信息视觉舒适度度量计算公式如下:
其中,和分别是图像Ii和I'k第m维的前景直方图特征,hf(Ii,I'k)是图像Ii和I'k间的直方图特征的相似性之和,hf值越大,Ii和I'k前景的深度信息分布越相似,因此输入图像Ii相比样例I'k的前景深度信息视觉舒适度越好;
步骤S42:输入图像Ii相比于任意样例图像I'k的背景深度信息视觉舒适度度量计算公式如下:
其中,和分别是图像Ii和I'k第m维的背景直方图特征,hb(Ii,I'k)是图像Ii和I'k间的直方图特征的相似性之和,hb值越大,Ii和I'k背景的深度信息分布越相似,因此输入图像Ii相比样例I'k的背景深度信息视觉舒适度越好。
进一步的,所述步骤S5具体为;
步骤S51:输入图像Ii相比样例I'k的综合深度信息视觉舒适度为:
h(Ii,I′k)=hf(Ii,I′k)+hb(Ii,I′k),k=1,2,…,n
步骤S52:对于n个样例,计算得到n个综合深度信息视觉舒适度值,输入图像Ii最终的综合深度信息视觉舒适度为:
h(Ii)=max{h(Ii,I′1),h(Ii,I′2),…,h(Ii,I′n)}。
本发明与现有技术相比具有以下有益效果:
本发明考虑到深度信息视觉舒适度对用户观看3D图像的主观体验的直接影响,通过样例学习的思路,学习专业摄像师在对相似场景进行拍摄时所采用的深度信息分布,并与待评估3D图像所采用和深度信息分布进行比较,从而对3D图像深度信息视觉舒适度进行评估。
附图说明
图1是本发明方法的流程框图。
图2是本发明的一实施例的整体方法的实现流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1和图2,本发明提供一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于,包括以下步骤:
步骤S1:输入待评估的3D图像,并将待评估的3D图像的左视图作为该图像的场景,将左视图作为输入图像;
步骤S2:利用基于深度学习特征的图像检索技术,在专业3D图像数据库中检索与待评估的3D图像场景相似的n幅高质量的3D图像作为对比样例图像;
步骤S21:依次取待评估3D图像和专业3D图像数据库中的每幅图像,按如下过程计算所有图像的全局深度特征:
将任意一幅3D图像的左视图作为检索对比样例的图像I,获取图像I的深度卷积特征f,该特征f由图像分类深度卷积神经网络的最后一层卷积层产生,将图像I作为图像分类深度卷积神经网络的输入,输出D1维的N×N的特征,然后对这些深度特征进行加权聚合得到全局特征,公式如下:
其中,(x,y)代表相应的空间坐标,权重α(x,y)和空间位置有关,计算公式如下:
步骤S22:计算输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性,计算公式为:
其中,sim(Ii,Ij)表示图像Ii和图像Ij的相似性值,<.>代表点积运算,sim(Ii,Ij)越大,说明两张图像越相似;
步骤S23:将输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性值sim(Ii,Ij)降序排列,得到输入图像Ii的在高质量专业3D图像数据库中的检索结果,取前n幅图像作为输入图像Ii的对比样例图像,组成对比样例图像集合{I'k|k=1,2,…n}。
步骤S3:对输入图像和对比样例图像依次进行3D图像显著性检测和前景对象分割处理,并计算得到每幅图像的前景和背景的深度信息分布直方图;
步骤S31:将输入图像和对比样例图像进行等比放缩,使它们放缩后的宽度相同,且等于专业3D图像数据库所有图像宽度的平均值;
步骤S32:分别计算输入图像和对比样例图像的视差图d,3D图像显著性图s,前景图f和背景图b;
步骤S33:对输入图像和对比样例图像依次计算前景图和背景图的深度信息分布直方图;
对任意图像I的前景图f的深度信息分布直方图的计算公式如下:
其中,表示图像I的第m维的前景直方图特征,m∈[1,256],p表示图像I的像素,f(p)表示像素p的前景值,即当像素p是前景时,f(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度;
对任意图像I的背景图b的深度信息分布直方图的计算公式如下:
其中,表示图像I的第m维的背景直方图特征,m∈[1,256],p表示图像I的像素,b(p)表示像素p的背景值,即当像素p是背景时,b(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度。
步骤S4:计算输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度;
步骤S41:输入图像Ii相比于任意样例图像I'k的前景深度信息视觉舒适度度量计算公式如下:
其中,和分别是图像Ii和I'k第m维的前景直方图特征,hf(Ii,I'k)是图像Ii和I'k间的直方图特征的相似性之和,hf值越大,Ii和I'k前景的深度信息分布越相似,因此输入图像Ii相比样例I'k的前景深度信息视觉舒适度越好;
步骤S42:输入图像Ii相比于任意样例图像I'k的背景深度信息视觉舒适度度量计算公式如下:
其中,和分别是图像Ii和I'k第m维的背景直方图特征,hb(Ii,I'k)是图像Ii和I'k间的直方图特征的相似性之和,hb值越大,Ii和I'k背景的深度信息分布越相似,因此输入图像Ii相比样例I'k的背景深度信息视觉舒适度越好。
步骤S5:综合由步骤S4得到的前景和背景的质量评估输入3D图像的深度信息视觉舒适度,得到待评估的3D图像的综合深度信息视觉舒适度;
步骤S51:输入图像Ii相比样例I'k的综合深度信息视觉舒适度为:
h(Ii,I′k)=hf(Ii,I′k)+hb(Ii,I′k),k=1,2,…,n
步骤S52:对于n个样例,计算得到n个综合深度信息视觉舒适度值,输入图像Ii最终的综合深度信息视觉舒适度为:
h(Ii)=max{h(Ii,I′1),h(Ii,I′2),…,h(Ii,I′n)}。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (6)
1.一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于,包括以下步骤:
步骤S1:输入待评估的3D图像,并将待评估的3D图像的左视图作为该图像的场景,将左视图作为输入图像;
步骤S2:利用基于深度学习特征的图像检索技术,在专业3D图像数据库中检索与待评估的3D图像场景相似的n幅3D图像作为对比样例图像;
步骤S3:对输入图像和对比样例图像依次进行3D图像显著性检测和前景对象分割处理,并计算得到每幅图像的前景和背景的深度信息分布直方图;
步骤S4:计算输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度;
步骤S5:综合由步骤S4得到输入图像与n个样例图像分别对比的前景和背景的深度信息视觉舒适度,得到待评估的3D图像的综合深度信息视觉舒适度。
2.根据权利要求1所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S2具体为:
步骤S21:依次取待评估3D图像和专业3D图像数据库中的每幅图像,按如下过程计算所有图像的全局深度特征:
将任意一幅3D图像的左视图作为检索对比样例的图像I,获取图像I的深度卷积特征f,该特征f由图像分类深度卷积神经网络的最后一层卷积层产生,将图像I作为图像分类深度卷积神经网络的输入,输出D1维的N×N的特征,然后对这些深度特征进行加权聚合得到全局特征,公式如下:
其中,(x,y)代表相应的空间坐标,权重α(x,y)和空间位置有关,计算公式如下:
步骤S22:计算输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性,计算公式为:
其中,sim(Ii,Ij)表示图像Ii和图像Ij的相似性值,<,>代表点积运算,sim(Ii,Ij)越大,说明两张图像越相似;
步骤S23:将输入图像Ii与专业3D图像数据库中任意图像Ij之间的相似性值sim(Ii,Ij)降序排列,得到输入图像Ii的在专业3D图像数据库中的检索结果,取前n幅图像作为输入图像Ii的对比样例图像,组成对比样例图像集合{I′k|k=1,2,…n}。
3.根据权利要求1所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S3具体为:
步骤S31:将输入图像和对比样例图像进行等比放缩,使它们放缩后的宽度相同,且等于专业3D图像数据库所有图像宽度的平均值;
步骤S32:分别计算输入图像和对比样例图像的视差图d,3D图像显著性图s,前景图f和背景图b;
步骤S33:对输入图像和对比样例图像依次计算前景图和背景图的深度信息分布直方图。
4.根据权利要求3所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S33具体为:
对任意图像I的前景图f的深度信息分布直方图的计算公式如下:
其中,表示图像I的第m维的前景直方图特征,m∈[1,256],p表示图像I的像素,f(p)表示像素p的前景值,即当像素p是前景时,f(p)值为1,否则为0,d(p)表示像素p的视差值,δ{.}表示指示函数,δ{d(p)∈m}表示当像素p的视差值属于第m维时返回1,否则返回0,W和H分别表示输入图像I的宽度和高度;
对任意图像I的背景图b的深度信息分布直方图的计算公式如下:
5.根据权利要求1所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S4具体为:
步骤S41:输入图像Ii相比于任意样例图像I′k的前景深度信息视觉舒适度度量计算公式如下:
其中,和分别是图像Ii和I′k第m维的前景直方图特征,hf(Ii,I′k)是图像Ii和I′k间的直方图特征的相似性之和,hf值越大,Ii和I′k前景的深度信息分布越相似,因此输入图像Ii相比样例I′k的前景深度信息视觉舒适度越好;
步骤S42:输入图像Ii相比于任意样例图像I′k的背景深度信息视觉舒适度度量计算公式如下:
6.根据权利要求5所述的一种基于样例的3D图像深度信息视觉舒适度评估方法,其特征在于:所述步骤S5具体为;
步骤S51:输入图像Ii相比样例I′k的综合深度信息视觉舒适度为:
h(Ii,I′k)=hf(Ii,I′k)+hb(Ii,I′k),k=1,2,…,n
步骤S52:对于n个样例,计算得到n个综合深度信息视觉舒适度值,输入图像Ii最终的综合深度信息视觉舒适度为:
h(Ii)=max{h(Ii,I′1),h(Ii,I2),…,h(Ii,I′n)}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811227681.XA CN109523590B (zh) | 2018-10-22 | 2018-10-22 | 一种基于样例的3d图像深度信息视觉舒适度评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811227681.XA CN109523590B (zh) | 2018-10-22 | 2018-10-22 | 一种基于样例的3d图像深度信息视觉舒适度评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109523590A CN109523590A (zh) | 2019-03-26 |
CN109523590B true CN109523590B (zh) | 2021-05-18 |
Family
ID=65772204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811227681.XA Active CN109523590B (zh) | 2018-10-22 | 2018-10-22 | 一种基于样例的3d图像深度信息视觉舒适度评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109523590B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871124B (zh) * | 2019-01-25 | 2020-10-27 | 华南理工大学 | 基于深度学习的情感虚拟现实场景评估方法 |
CN111860691B (zh) * | 2020-07-31 | 2022-06-14 | 福州大学 | 基于注意力和循环神经网络的立体视频视觉舒适度分类法 |
CN113515660B (zh) * | 2021-07-16 | 2022-03-18 | 广西师范大学 | 基于三维张量对比策略的深度特征对比加权图像检索方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780476A (zh) * | 2016-12-29 | 2017-05-31 | 杭州电子科技大学 | 一种基于人眼立体视觉特性的立体图像显著性检测方法 |
WO2017162594A1 (en) * | 2016-03-21 | 2017-09-28 | Thomson Licensing | Dibr with depth map preprocessing for reducing visibility of holes by locally blurring hole areas |
CN108389192A (zh) * | 2018-02-11 | 2018-08-10 | 天津大学 | 基于卷积神经网络的立体图像舒适度评价方法 |
CN108449596A (zh) * | 2018-04-17 | 2018-08-24 | 福州大学 | 一种融合美学和舒适度的3d立体图像质量评估方法 |
-
2018
- 2018-10-22 CN CN201811227681.XA patent/CN109523590B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017162594A1 (en) * | 2016-03-21 | 2017-09-28 | Thomson Licensing | Dibr with depth map preprocessing for reducing visibility of holes by locally blurring hole areas |
CN106780476A (zh) * | 2016-12-29 | 2017-05-31 | 杭州电子科技大学 | 一种基于人眼立体视觉特性的立体图像显著性检测方法 |
CN108389192A (zh) * | 2018-02-11 | 2018-08-10 | 天津大学 | 基于卷积神经网络的立体图像舒适度评价方法 |
CN108449596A (zh) * | 2018-04-17 | 2018-08-24 | 福州大学 | 一种融合美学和舒适度的3d立体图像质量评估方法 |
Non-Patent Citations (1)
Title |
---|
Learning from multi metrics for stereoscopic 3D image quality assessment;Jiamei Zhan et al.;《2016 International Conference on 3D Imaging (IC3D)》;20161214;第1-8页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109523590A (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Detecting photoshopped faces by scripting photoshop | |
JP7200139B2 (ja) | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 | |
CN106096542B (zh) | 基于距离预测信息的图像视频场景识别方法 | |
CN109684969B (zh) | 凝视位置估计方法、计算机设备及存储介质 | |
CN106462771A (zh) | 一种3d图像的显著性检测方法 | |
Ding et al. | No-reference stereoscopic image quality assessment using convolutional neural network for adaptive feature extraction | |
CN104572804A (zh) | 一种视频物体检索的方法及其系统 | |
CN109523590B (zh) | 一种基于样例的3d图像深度信息视觉舒适度评估方法 | |
CN111241989A (zh) | 图像识别方法及装置、电子设备 | |
WO2014187223A1 (en) | Method and apparatus for identifying facial features | |
US20180357819A1 (en) | Method for generating a set of annotated images | |
CN101601287A (zh) | 产生照片级真实感图像缩略图的设备和方法 | |
CN108470178B (zh) | 一种结合深度可信度评价因子的深度图显著性检测方法 | |
CN109429051B (zh) | 基于多视图特征学习的无参考立体视频质量客观评价方法 | |
JP2014211719A (ja) | 情報処理装置およびその方法 | |
WO2023080921A1 (en) | Neural radiance field generative modeling of object classes from single two-dimensional views | |
Zhang et al. | Video salient region detection model based on wavelet transform and feature comparison | |
CN113112416B (zh) | 一种语义引导的人脸图像修复方法 | |
CN111784658A (zh) | 一种用于人脸图像的质量分析方法和系统 | |
CN111641822A (zh) | 一种重定位立体图像质量评价方法 | |
Zhang | Innovation of English teaching model based on machine learning neural network and image super resolution | |
CN112954313A (zh) | 一种对全景图像感知质量的计算方法 | |
CN115953330B (zh) | 虚拟场景图像的纹理优化方法、装置、设备和存储介质 | |
Ancona et al. | Ball detection in static images with Support Vector Machines for classification | |
CN116980549A (zh) | 视频帧处理方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |