CN109040747A - 基于卷积自编码器的立体图像舒适度质量评价方法及系统 - Google Patents
基于卷积自编码器的立体图像舒适度质量评价方法及系统 Download PDFInfo
- Publication number
- CN109040747A CN109040747A CN201810886611.9A CN201810886611A CN109040747A CN 109040747 A CN109040747 A CN 109040747A CN 201810886611 A CN201810886611 A CN 201810886611A CN 109040747 A CN109040747 A CN 109040747A
- Authority
- CN
- China
- Prior art keywords
- stereo
- picture
- characteristic
- comfort level
- encoding encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Abstract
本发明提供了一种基于卷积自编码器的立体图像舒适度质量评价方法及系统,包括:建立卷积自编码器模型,并进行无监督学习训练;利用训练好的卷积自编码器模型提取左右视点立体图像的基础特征;利用提取出的基础特征,提取左右视点立体图像对应的深度特征;对提取的基础特征和深度特征进行降维,将降维后的基础特征和深度特征拼接并展开为一维向量;对得到的一维向量进行处理,通过学习得到立体图像舒适度模型。本发明引入卷积自编码器进行特征初步提取,有效的去除了图像冗余信息,在特征提取方面十分高效,搭配深度提取算法和SVR回归器,效果提升显著。
Description
技术领域
本发明涉及图像舒适度质量评价领域,具体地,涉及基于卷积自编码器的立体 图像舒适度质量评价方法及系统。
背景技术
近年来,诸如立体电影、立体电视等立体(3D)视频产业迅速发展,3D视频资 源越来越广泛地进入人们的日常生活中。其在提升观影体验的同时也会使观众出现 诸如头晕、恶心、胸闷等不适现象。为了改善观看立体图像的不舒适度,进一步提 升观影体验,大量针对立体图像舒适度质量评价方法的研究应运而生。立体图像舒 适度质量评价方法可分为主观评价和客观评价两种,前者十分的耗费时间和人力, 越来越多的研究集中在客观评价上。
如今的客观评价模型大多都基于视觉质量和导致不舒服的影响因子来提取特 定的特征,进而通过回归模型进行预测。另一方面,主观图像数据库也扮演了重要 的角色,目前比较有名的数据库有LIVE 3D Phase I、LIVE 3D Phase II、IEEE-SA、 EPFL数据库。
到目前为止,研究者基于特定数据库提出了很多立体图像舒适度质量评价模型。LIVE 3D Phase I database和LIVE 3D Phase II database主要包含五种不同的质 量损失因素,分别为JPEG2000压缩、JPEG压缩、白噪声、快速衰退和模糊。不同 的是,Phase I数据库左右图质量损失是对称的,而Phase II数据库左右图质量 损失既有对称的也有非对称的。IEEE-SA数据库和EPFL数据库包含了不同视差范围 的立体图像。
在Phase I数据库上,Mittal等人在2014年“IEEE图像处理中相关主题期刊 (IEEETransactions on Image Processing)”上的“空域中的无监督图像质量 评价(No-reference image quality assessment in the spatial domain)”一 文中,提出了BRISQUE模型。在Phase II数据库上,Zhou等人在2014年“信号 处理相关会议(IEEE SignalProcessing Letters)”上的“PMFS:用于立体图像 质量评估的感知调制特征相似性度量(PMFS:a perceptual modulated feature s imi larity metric for stereoscopicimage quality assessment)”一文中, 提出了基于单目和双目感知的IQA模型。在IEEE-SA数据库和EPFL数据库上,Kim 等人在2011年“IEEE视频技术电路和系统传输相关会议(IEEEtransactions on circuits and systems for video technology)”上的“立体图像的视觉疲劳预 测(Visual fatigue prediction for stereoscopic image)”一文中,基于视差分布和视觉舒适度的关系提出了预测模型。
为了更好的预测立体图像舒适度,构建一整套的客观质量评价模型方法是本领域目前仍需努力的方向。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于卷积自编码器的立体图像舒适度质量评价方法及系统。
根据本发明提供的一种基于卷积自编码器的立体图像舒适度质量评价方法,包括:
模型建立步骤:建立卷积自编码器模型,并进行无监督学习训练;
基础特征提取步骤:利用训练好的卷积自编码器模型提取左右视点立体图像的基础 特征;
深度特征提取步骤:利用提取出的基础特征,提取左右视点立体图像对应的深度特 征;
降维步骤:对提取的基础特征和深度特征进行降维,将降维后的基础特征和深度特 征拼接并展开为一维向量;
舒适度模型建立步骤:对得到的一维向量进行处理,通过学习得到立体图像舒 适度模型。
较佳的,所述卷积自编码器模型包括encoder部分和decoder部分。
较佳的,所述基础特征提取步骤包括:
使用训练好的卷积自编码器模型,抽出所述encoder部分,对左右视点立体图像进行处理,得到左右视点立体图像对应的基础特征。
较佳的,所述深度特征提取步骤包括:
将提取出的左右视点立体图像的基础特征通过深度提取算法,得到左右视点立体图 像对应的深度特征。
较佳的,所述降维步骤包括:
采用最大池化方法对提取出的基础特征和深度特征进行降维,对降维后的基础特征 和深度特征采用按行展开方式展开并拼接为一维向量。
较佳的,所述舒适度模型建立步骤包括:
通过SVR方式学习得到立体图像舒适度模型。
根据本发明提供的一种基于卷积自编码器的立体图像舒适度质量评价系统,包括:
模型建立模块:建立卷积自编码器模型,并进行无监督学习训练;
基础特征提取模块:利用训练好的卷积自编码器模型提取左右视点立体图像的基础 特征;
深度特征提取模块:利用提取出的基础特征,提取左右视点立体图像对应的深度特 征;
降维模块:对提取的基础特征和深度特征进行降维,将降维后的基础特征和深度特 征拼接并展开为一维向量;
舒适度模型建立模块:通过学习得到立体图像舒适度模型。
较佳的,所述卷积自编码器模型包括encoder部分和decoder部分。
较佳的,所述基础特征提取模块包括:
使用训练好的卷积自编码器模型,抽出所述encoder部分,对左右视点立体图像进行处理,得到左右视点立体图像对应的基础特征。
较佳的,所述深度特征提取模块包括:
将提取出的左右视点立体图像的基础特征通过深度提取算法,得到左右视点立体图 像对应的深度特征。
与现有技术相比,本发明具有如下的有益效果:
本发明引入卷积自编码器进行特征初步提取,有效的去除了图像冗余信息,在 特征提取方面十分高效,搭配深度提取算法和SVR回归器,效果提升显著。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明的工作流程图;
图2为本发明的卷积自编码器模型的结构示意图;
图3为本发明的原理图;
图4为本发明在LIVE 3D Phase I和Phase II数据库上测试结果的散点图;
图5为本发明在IEEE-SA数据库上测试结果的散点图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人 员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于 本发明的保护范围。
如图1至3所示,根据本发明提供的一种基于卷积自编码器的立体图像舒适度质量评价方法,包括:
一、模型建立步骤:建立卷积自编码器模型,并进行无监督学习训练。将数据库中的所有图片,使用卷积自编码器进行无监督训练,在训练过程中,编码器会对原始图像 进行压缩编码成三通道的特征图,解码器会尝试把该特征图恢复成原始图像。卷积自编 码器模型的结构如下:
模型建立步骤通过以下方式实现:
1)、定义卷积自编码器的模型结构,编码器和解码器具有对称的结构,zeropadding 方法用于所有的卷积层中,在输出层使用sigmoid激活函数,在卷积层采用relu激活 函数;
2)、在训练模型之前,把所有图像的像素值除以255,使得它们介于0和1之间。 完整的卷积自编码器模型可以被表示为其中h(x)表示编码器运算,g(x) 表示解码器运算。输入的彩色图像尺寸可以被表示为3×Hori×Wori(Wori为图像宽度, Hori为图像高度),模型训练采用随机梯度下降的方式:
其中,N是batch size,xn表示第n张图像,∈表示学习率。
二、基础特征提取步骤:利用训练好的卷积自编码器模型提取左右视点立体图像的 基础特征。
卷积自编码器训练好之后,单独抽出编码器部分,对图像库中所有图像进行处理,得到每张图像的左右图三通道基础特征和k={1,2,3}。
三、深度特征提取步骤:利用提取出的基础特征,提取左右视点立体图像对应的深度特征。
使用现有的深度匹配算法求左右图像的深度特征,这里采用的是Jun Zhou在2015年“IEEE宽带多媒体系统和广播国际会议(IEEE International Symposium on BroadbandMultimedia Systems and Broadcasting)”上的“三目立体视觉的深度图估计方法(Adepth map estimation approach for trinocular stereo)”一文中提出的算法,得到左右图像的深度 特征k={l,r}。
四、降维步骤:对提取的基础特征和深度特征进行降维。
对得到的左右图像基础特征和深度特征使用最大池化算法,进一步去除冗余信息, 并且把处理后的特征图叠加在一起,形成一个8通道的特征图k={1,2,...,8}。随后,我们把该特征图按行展开为一维向量。
五、舒适度模型建立步骤:
对得到的一维向量使用标准化方法进行标准化处理。数据库中所有的立体图像对都 转化为了一维向量,最后我们使用SVR回归方法建立立体图像舒适度质量评价模型。
在本实施例中,利用LIVE 3D Phase I、LIVE 3D Phase II、EPFL与IEEE-SA这四个立体图像库,计算所建立模型的SROCC、LCC、RMSE指标,并与其他在该库上的结 果进行比较,我们同样给出了只使用深度特征、只使用基础特征和同时使用深度特征和 基础特征的结果。具体通过以下方式实现:
1)、在送入SVR进行训练之前,我们首先对一维特征向量进行标准化处理。若向 量V长为M,则Vm表示在位置m处的值,因此在位置m处标准化后的值V′m可以表示如下:
其中
δ是一个很小的值,我们设置为10-8,来避免分母为0;
2)、SVR我们采用的是高斯(RBF)核函数。通过SVR对提取的特征V与主观评价 值进行回归建模,建立立体图像舒适度质量评价模型。
表1所示在LIVE 3D Phase I上的对比结果,我们同样给出了Mittal等人在2014年“IEEE图像处理中相关主题期刊(IEEE Transactions on Image Processing)”上的“空域中 的无监督图像质量评价(No-reference image quality assessment in the spatialdomain)”一 文中,提出的BRISQUE模型;Chen等人在2013年“IEEE图像处理中相关主题期刊(IEEE Transactions on Image Processing)”上的“自然立体图像对的无参考质量评价(No-reference quality assessment of natural stereopairs)”一文中提出的方法;Shao等人 在2015年“IEEE图像处理中相关主题期刊(IEEE Transactions on ImageProcessing)”上的 “通过学习双目感知特性来对立体图像进行全参考质量评估(Full-reference quality assessment of stereoscopic images by learning binocularreceptive field properties)”一文中提 出的方法。
表1
RMSE | PLCC | SROCC | |
BRISQUE | 6.7314 | 0.9119 | 0.9083 |
Chen | 7.2470 | 0.8950 | 0.8910 |
Shao | 5.8155 | 0.9350 | 0.9251 |
基础特征 | 4.9167 | 0.9465 | 0.9391 |
深度特征 | 12.3962 | 0.6796 | 0.6483 |
基础+深度特征 | 6.6074 | 0.9155 | 0.9047 |
表2所示在LIVE 3D Phase II上的对比结果,我们同样给出了Zhou等人在2014年“信号处理相关会议(IEEE Signal Processing Letters)”上的“PMFS:用于立体图像质 量评估的感知调制特征相似性度量(PMFS:a perceptual modulated feature similaritymetric for stereoscopic image quality assessment)”一文中,提出的基于单目和双目感知的 IQA模型;以及表1中提到的Chen和BRISQUE方法在该数据库中的结果。
表2
RMSE | PLCC | SROCC | |
BRISQUE | 7.4496 | 0.7513 | 0.7242 |
Chen | 5.1020 | 0.8950 | 0.8800 |
Zhou | 4.8940 | 0.9020 | 0.8920 |
基础特征 | 3.6010 | 0.9499 | 0.9462 |
深度特征 | 8.7027 | 0.6367 | 0.6326 |
基础+深度特征 | 4.2924 | 0.9142 | 0.9128 |
表3所示在IEEE-SA上的对比结果,我们同样给出了Kim等人在2011年“IEEE 视频技术电路和系统传输相关会议(IEEE transactions on circuits and systems forvideo technology)”上的“立体图像的视觉疲劳预测(Visual fatigue prediction forstereoscopic image)”一文中,基于视差分布和视觉舒适度的关系提出的预测模型;Nojiri在2003年 “国际光学和光子学会相关会议(International Society for Opticsand Photonics)”上的“视 差分布的测量及其在立体高清电视视觉舒适度分析中的应用(Measurement of parallax distribution and its application to the analysis ofvisual comfort for stereoscopic HDTV)”一 文中提出的算法;Wang在2016年“视觉通信和图像处理会议(Visual Communications and Image Processing)”上的“基于深度学习的立体图像质量评价(Stereoscopic images quality assessment based on deeplearning)”一文中提出的深度学习模型;J.Park等人在2015年 “IEEE图像处理中相关主题期刊(IEEE Transactions on Image Processing)”上的“3D视觉 不适预测器:视差分析和神经活动统计(3D visual discomfort predictor:Analysis of disparity and neuralactivity statistics)”一文中,提出的3D-VDP模型在该数据库中得到 的结果。
表3
RMSE | PLCC | SROCC | |
Kim | - | 0.7018 | 0.6151 |
Nojiri | - | 0.6854 | 0.6108 |
Wang | - | 0.8257 | 0.7902 |
3D-VDP | 0.8310 | 0.8248 | 0.7534 |
基础特征 | 0.4825 | 0.8022 | 0.7072 |
深度特征 | 0.4402 | 0.8394 | 0.7606 |
基础+深度特征 | 0.3693 | 0.8893 | 0.8312 |
结合图4和图5所示,经过对比可以看出,本发明在立体图像舒适度预测上相比其他算法效果提升显著,可以更精确的预测立体图像舒适度情况。
在上述一种基于卷积自编码器的立体图像舒适度质量评价方法的基础上,本发明还提供一种基于卷积自编码器的立体图像舒适度质量评价系统,包括:
模型建立模块:建立卷积自编码器模型,并进行无监督学习训练;
基础特征提取模块:利用训练好的卷积自编码器模型提取左右视点立体图像的基础 特征;
深度特征提取模块:利用提取出的基础特征,提取左右视点立体图像对应的深度特 征;
降维模块:对提取的基础特征和深度特征进行降维,将降维后的基础特征和深度特 征拼接并展开为一维向量;
舒适度模型建立模块:通过学习得到立体图像舒适度模型。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统及 其各个装置、模块、单元以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统及其各个装置、模块、单元以逻辑门、开关、专用集成电路、可编程逻辑控制 器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的系统及其各项装 置、模块、单元可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置、 模块、单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置、模块、 单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上 述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改, 这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的 特征可以任意相互组合。
Claims (10)
1.一种基于卷积自编码器的立体图像舒适度质量评价方法,其特征在于,包括:
模型建立步骤:建立卷积自编码器模型,并进行无监督学习训练;
基础特征提取步骤:利用训练好的卷积自编码器模型提取左右视点立体图像的基础特征;
深度特征提取步骤:利用提取出的基础特征,提取左右视点立体图像对应的深度特征;
降维步骤:对提取的基础特征和深度特征进行降维,将降维后的基础特征和深度特征拼接并展开为一维向量;
舒适度模型建立步骤:对得到的一维向量进行处理,通过学习得到立体图像舒适度模型。
2.根据权利要求1所述的基于卷积自编码器的立体图像舒适度质量评价方法,其特征在于,所述卷积自编码器模型包括encoder部分和decoder部分。
3.根据权利要求2所述的基于卷积自编码器的立体图像舒适度质量评价方法,其特征在于,所述基础特征提取步骤包括:
使用训练好的卷积自编码器模型,抽出所述encoder部分,对左右视点立体图像进行处理,得到左右视点立体图像对应的基础特征。
4.根据权利要求1所述的基于卷积自编码器的立体图像舒适度质量评价方法,其特征在于,所述深度特征提取步骤包括:
将提取出的左右视点立体图像的基础特征通过深度提取算法,得到左右视点立体图像对应的深度特征。
5.根据权利要求1所述的基于卷积自编码器的立体图像舒适度质量评价方法,其特征在于,所述降维步骤包括:
采用最大池化方法对提取出的基础特征和深度特征进行降维,对降维后的基础特征和深度特征采用按行展开方式展开并拼接为一维向量。
6.根据权利要求1所述的基于卷积自编码器的立体图像舒适度质量评价方法,其特征在于,所述舒适度模型建立步骤包括:
通过SVR方式学习得到立体图像舒适度模型。
7.一种基于卷积自编码器的立体图像舒适度质量评价系统,其特征在于,包括:
模型建立模块:建立卷积自编码器模型,并进行无监督学习训练;
基础特征提取模块:利用训练好的卷积自编码器模型提取左右视点立体图像的基础特征;
深度特征提取模块:利用提取出的基础特征,提取左右视点立体图像对应的深度特征;
降维模块:对提取的基础特征和深度特征进行降维,将降维后的基础特征和深度特征拼接并展开为一维向量;
舒适度模型建立模块:对得到的一维向量进行处理,通过学习得到立体图像舒适度模型。
8.根据权利要求7所述的基于卷积自编码器的立体图像舒适度质量评价系统,其特征在于,所述卷积自编码器模型包括encoder部分和decoder部分。
9.根据权利要求8所述的基于卷积自编码器的立体图像舒适度质量评价系统,其特征在于,所述基础特征提取模块包括:
使用训练好的卷积自编码器模型,抽出所述encoder部分,对左右视点立体图像进行处理,得到左右视点立体图像对应的基础特征。
10.根据权利要求7所述的基于卷积自编码器的立体图像舒适度质量评价系统,其特征在于,所述深度特征提取模块包括:
将提取出的左右视点立体图像的基础特征通过深度提取算法,得到左右视点立体图像对应的深度特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810886611.9A CN109040747B (zh) | 2018-08-06 | 2018-08-06 | 基于卷积自编码器的立体图像舒适度质量评价方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810886611.9A CN109040747B (zh) | 2018-08-06 | 2018-08-06 | 基于卷积自编码器的立体图像舒适度质量评价方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109040747A true CN109040747A (zh) | 2018-12-18 |
CN109040747B CN109040747B (zh) | 2019-11-19 |
Family
ID=64649816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810886611.9A Active CN109040747B (zh) | 2018-08-06 | 2018-08-06 | 基于卷积自编码器的立体图像舒适度质量评价方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109040747B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163095A (zh) * | 2019-04-16 | 2019-08-23 | 中国科学院深圳先进技术研究院 | 回环检测方法、回环检测装置及终端设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268594A (zh) * | 2014-09-24 | 2015-01-07 | 中安消技术有限公司 | 一种视频异常事件检测方法及装置 |
CN105208374A (zh) * | 2015-08-24 | 2015-12-30 | 宁波大学 | 一种基于深度学习的无参考图像质量客观评价方法 |
CN106683072A (zh) * | 2015-11-09 | 2017-05-17 | 上海交通大学 | 一种基于pup图的3d图像舒适度质量评价方法及系统 |
CN107220971A (zh) * | 2017-06-02 | 2017-09-29 | 太原理工大学 | 一种基于卷积神经网络和主成分分析法的肺结节特征提取方法 |
CN107633513A (zh) * | 2017-09-18 | 2018-01-26 | 天津大学 | 基于深度学习的3d图像质量的度量方法 |
CN107679543A (zh) * | 2017-02-22 | 2018-02-09 | 天津大学 | 稀疏自动编码器与极限学习机立体图像质量评价方法 |
CN107844795A (zh) * | 2017-11-18 | 2018-03-27 | 中国人民解放军陆军工程大学 | 基于主成分分析的卷积神经网络特征提取方法 |
CN108021131A (zh) * | 2017-11-28 | 2018-05-11 | 王智华 | 一种机器人视觉识别方法、装置及计算机可读存储介质 |
-
2018
- 2018-08-06 CN CN201810886611.9A patent/CN109040747B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268594A (zh) * | 2014-09-24 | 2015-01-07 | 中安消技术有限公司 | 一种视频异常事件检测方法及装置 |
CN105208374A (zh) * | 2015-08-24 | 2015-12-30 | 宁波大学 | 一种基于深度学习的无参考图像质量客观评价方法 |
CN106683072A (zh) * | 2015-11-09 | 2017-05-17 | 上海交通大学 | 一种基于pup图的3d图像舒适度质量评价方法及系统 |
CN107679543A (zh) * | 2017-02-22 | 2018-02-09 | 天津大学 | 稀疏自动编码器与极限学习机立体图像质量评价方法 |
CN107220971A (zh) * | 2017-06-02 | 2017-09-29 | 太原理工大学 | 一种基于卷积神经网络和主成分分析法的肺结节特征提取方法 |
CN107633513A (zh) * | 2017-09-18 | 2018-01-26 | 天津大学 | 基于深度学习的3d图像质量的度量方法 |
CN107844795A (zh) * | 2017-11-18 | 2018-03-27 | 中国人民解放军陆军工程大学 | 基于主成分分析的卷积神经网络特征提取方法 |
CN108021131A (zh) * | 2017-11-28 | 2018-05-11 | 王智华 | 一种机器人视觉识别方法、装置及计算机可读存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163095A (zh) * | 2019-04-16 | 2019-08-23 | 中国科学院深圳先进技术研究院 | 回环检测方法、回环检测装置及终端设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109040747B (zh) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105338343B (zh) | 一种基于双目感知的无参考立体图像质量评价方法 | |
Jin et al. | 3D-DCT based perceptual quality assessment of stereo video | |
CN110060236B (zh) | 基于深度卷积神经网络的立体图像质量评价方法 | |
CN110689599B (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
Zhou et al. | Omnidirectional image quality assessment by distortion discrimination assisted multi-stream network | |
Shen et al. | No-reference stereoscopic image quality assessment based on global and local content characteristics | |
CN104243973B (zh) | 基于感兴趣区域的视频感知质量无参考客观评价方法 | |
CN110751649B (zh) | 视频质量评估方法、装置、电子设备及存储介质 | |
CN109360178A (zh) | 基于融合图像的无参考立体图像质量评价方法 | |
CN106447646A (zh) | 一种用于无人机图像的质量盲评价方法 | |
CN108921942B (zh) | 对图像进行2d转制3d的方法及装置 | |
CN109523513A (zh) | 基于稀疏重建彩色融合图像的立体图像质量评价方法 | |
Geng et al. | A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property | |
CN103136748B (zh) | 一种基于特征图的立体图像质量客观评价方法 | |
CN105357519B (zh) | 基于自相似度特征的无参考立体图像质量客观评价方法 | |
CN104240248B (zh) | 一种无参考立体图像质量客观评价方法 | |
Ma et al. | Reduced-reference stereoscopic image quality assessment using natural scene statistics and structural degradation | |
CN105049838A (zh) | 一种用于压缩立体视频质量的客观评价方法 | |
CN109242834A (zh) | 一种基于卷积神经网络的无参考立体图像质量评价方法 | |
CN105376563A (zh) | 基于双目融合特征相似度的无参考立体图像质量评价方法 | |
CN109831664A (zh) | 基于深度学习的快速压缩立体视频质量评价方法 | |
Jeong et al. | Visual comfort assessment of stereoscopic images using deep visual and disparity features based on human attention | |
CN103780895A (zh) | 一种立体视频质量评价方法 | |
CN107454413A (zh) | 一种保留特征的视频编码方法 | |
CN111915589A (zh) | 基于空洞卷积的立体图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |