CN109784358A - 一种融合人工特征和深度特征的无参考图像质量评价方法 - Google Patents

一种融合人工特征和深度特征的无参考图像质量评价方法 Download PDF

Info

Publication number
CN109784358A
CN109784358A CN201811407270.9A CN201811407270A CN109784358A CN 109784358 A CN109784358 A CN 109784358A CN 201811407270 A CN201811407270 A CN 201811407270A CN 109784358 A CN109784358 A CN 109784358A
Authority
CN
China
Prior art keywords
image
manual features
depth characteristic
feature
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811407270.9A
Other languages
English (en)
Other versions
CN109784358B (zh
Inventor
闫钧华
白雪含
张寅�
杜君
许祯瑜
蔡旭阳
侯平
吕向阳
马俊
苏恺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201811407270.9A priority Critical patent/CN109784358B/zh
Publication of CN109784358A publication Critical patent/CN109784358A/zh
Application granted granted Critical
Publication of CN109784358B publication Critical patent/CN109784358B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种融合人工特征和深度特征的无参考图像质量评价方法,所述方法首先根据实际应用需要提取适合的人工特征,之后对图像集图像进行深度特征的提取,最后在全连接层处,进行人工特征和深度特征的融合,将特征向量输入到回归层中,共同作用于损失函数,完成网络的训练。最后输入待测失真图像,即可利用网络进行图像的无参考质量评价。

Description

一种融合人工特征和深度特征的无参考图像质量评价方法
技术领域
本发明属于图像质量评价技术领域,尤其涉及一种融合深度特征和人工特征的无参考图像质量综合评价方法。
背景技术
在复杂战场环境下,对获取的图像进行质量评价,有利于准确、及时的掌握战场态势,为正确决策和占据战场主动提供保障。无参考图像质量评价特征主要包括基于统计建模的人工特征以及基于卷积神经网络深度特征两种。
基于图像自然场景统计模型的无参考质量评价方法,即根据不同的图像特点,提取相应的特征向量,之后利用支撑向量机(Support Vector Machine, SVM)等对相应的人工特征向量进行处理,完成图像质量评分。基于人工特征的图像质量评价方法针对性强,通常对特定失真类型的图像评分效果好,不能很好的适应复杂战场环境下的图像的质量评价要求。2013年Gu K 等人提出了一个五步的无参考多失真指标FISBLIM (Five-Step BLindMetric),首先通过噪声估计来判断图像中噪声大小,然后对图像降噪处理,进一步对降噪后的图像利用模糊估计来估计模糊失真大小或利用块效应估计压缩失真大小。该算法由于降噪处理可能会引入失真,其评价效果一般。2015年Li C 等针对多失真图像的提出来了基于质量感知特征学习的无参考算法LQAF (Learning Quality-Aware Features),提取图像相位一致性特征、梯度幅度特征和对比敏感度特征,利用SVM模型进行评分。由于图像梯度幅度和相位一致性并不能充分反应图像的结构,算法评价效果并不理想。2016年Li Q等提出了无参考多失真图像质量评价方法 GWH-GLBP (Gradient-Weighted Histogram of LBPCalculated On The Gradient Map),利用梯度对图像梯度的局部二元模式 (LocalBinary Pattern, LBP) 直方图加权得到图像自然场景统计 (Natural SceneStatistics, NSS)特征,并利用SVM模型进行评分。对多失真图像具有较好的主客观一致性,但算法针对不同数据库表现不够鲁棒。
随着近年来机器学习火热,卷积神经网络CNN已经成功应用于图像识别和分类等计算机视觉领域,而多个公开的机器学习开源工具Tensorflow、Theano也使得CNN等网络能够便利地应用于图像质量评价领域。2014年,Kang L等人首次将CNN网络用于无参考质量评价领域,直接将原始图像块作为输入,并通过一个卷积层和最大值池化自动地对图像进行特征提取,进一步利用隐藏层和回归层得到图象质量评分;2016年,Fu J在Kang L所提出的网络基础上同时利用最大值池化和平均值池化来提取图像特征,同时将该方法应用于多失真图像质量评价,算法具有较好的主客观一致性。基于卷积神经网络的图像质量评价方法通常具有更好的适应性,可以较好的应对复杂环境下的图像质量评价,但是其训练测试耗时久,实时性较差,不利于及时的对图像进行处理、分析。
发明内容
发明目的:为了解决现有技术存在的问题,实现复杂战场环境下对图像质量 的准确、及时的评价。本发明提供一种融合深度特征和人工特征的无参考图像质量评价方法。
技术方案:一种融合深度特征和人工特征的无参考图像质量评价方法,包括以下步骤:
步骤一:提取图像的人工特征,根据实时战场环境特点,提取相应的人工特征。若观测目标处于快速运动背景下,图像由于快速运动而产生模糊,此时运动模糊对图像质量的影响占主要因素,则选用适用于对模糊图像进行评价的方法。若环境中电磁等干扰较多,图像会由于噪声影响产生较多的噪点,则选用适用于对噪声图像进行评价的图像质量评价方法。
步骤二:将步骤一中提取的人工特征通过卷积神经网络,与深度特征进行融合,联合对待测战场图像进行质量评价。
进一步的,所述步骤二中的人工特征和深度特征融合的具体方法包括:
将待评价图像,输入到卷积神经网络中,其中待评价图像可为单波段图像,或者为不同波段图像组合的图像集。通过卷积层、激活层、池化层等进行图像的特征提取,将各个波段的图像分别经过不同的卷积神经网络进行特征提取后,在全连接层进行连接。
之后根据人工特征维度的不同,将其加入到不同的全连接层中,即:维度越大,加到越靠前的全连接层,维度越小,加到越靠近回归层的全连接层。通过调整人工特征加入到全连接层的位置,可以调节人工特征和深度特征的比例,从而调整网络的收敛速度以及所提取特征的针对性大小(人工特征的比例越大,特征的针对性越强)。
最后,将所有特征共同输入到全连接层或者回归层中,作用于损失函数,进行网络训练。通过反向迭代更新,使得网络提取的深度特征可以更好的与人工特征联合,保持与人工特征的同质性的同时更好提取适应于实际情况的特征。
本发明的有益效果在于:
1.通过在隐藏层加入人工特征,可以有针对性的对不同战场环境下的图像进行特征提取,从而加强网络对图像特性表征的有效性,进而提高网络的精度。
2.通过在隐藏层加入人工特征,有助于构建正确的神经网络初始下降方向,提高网络训练效果,加快网络的收敛速度,从而提高网络特征提取的速度,增强其在实际应用中的实时性。
3.通过对深度特征和人工特征比例的调节,可以相应的对网络的训练效果进行调节,从而使得方法适用于不断变化的战场环境需要。
附图说明
图1为图像集深度特征提取示意图;
图2为深度特征和人工特征融合示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
步骤一:提取图像的人工特征,根据实时战场环境特点,提取相应的人工特征。
人工特征提取的源图像可为可见光图像,或者根据实际战场需要,选用不同波段的图像,如夜晚可见光图像所含的图像信息不如红外图像丰富,在红外图像上提取特征更有利于有效的对特征进行表征,此时则选用红外图像作为人工特征提取的原图像。
另一方面,考虑到实际战场环境中,影响图像质量的主要因素不同,选用针对不同失真的图像质量评价方法。如,若观测目标处于快速运动背景下,图像由于快速运动而产生模糊,此时运动模糊对图像质量的影响占主要因素,则选用适用于对模糊图像进行评价的方法。若环境中电磁等干扰较多,图像会由于噪声影响产生较多的噪点,则选用适用于对噪声图像进行评价的图像质量评价方法。
步骤二:将步骤一中提取的人工特征通过卷积神经网络,与深度特征进行融合,联合对待测战场图像进行质量评价。
进一步的,所属步骤二中的人工特征和深度特征融合的具体方法包括:
将待评价图像,输入到卷积神经网络中。如图1,待评价图像可为单波段图像,或者为不同波段图像组合的图像集,图像类型的选取还需考虑到步骤一中人工特征提取的原图像,如步骤一中的人工特征是在红外图像上进行提取的,则需要保证图像集中包含红外图像,从而增强人工特征和深度特征的同质性,有利于二者的融合。通过卷积层、激活层、池化层等进行图像的特征提取,利用不同的卷积神经网络分别对图像集中的各类图像经过进行特征提取后,生成相应的特征向量,并进行特征的连接。
之后根据人工特征维度的不同,将其加入到不同的全连接层中,即:维度越大,加到越靠前的全连接层,维度越小,加到越靠近回归层的全连接层。通过调整人工特征加入到全连接层的位置,可以调节人工特征和深度特征的比例,从而调整网络的收敛速度以及所提取特征的针对性大小(人工特征的比例越大,特征的针对性越强)。依次适应实时战场需要,如果需要快速图像评价,则增大人工特征的比例,如果需要全面的考量图像的质量,则增大深度特征的比例。
最后,将所有特征共同输入到全连接层或者回归层中,作用于损失函数,进行网络训练。通过反向迭代更新,使得网络提取的深度特征可以更好的与人工特征联合,保持与人工特征的同质性的同时更好提取适应于实际情况的特征。
以输入为可见光和红外光图像,主要失真为模糊失真为例,进行具体说明。
将可见光和红外图像分别输入到CNN1和CNN2中,构建两通道的网络结构,同时考虑到主要失真为模糊失真,采用图像的边缘LBP特征进行模糊失真图像人工特征的提取。
首先,将图像分块,将分块后的图像分别输入到两个网络中,设图像块大小为,CNN1和CNN2中卷积核大小为,结构依次为卷积层、池化层、卷积层、池化层,输 出依次为:;卷积层中卷积核个数均为30。则通过CNN1,和CNN2, 对于可见光和红外图像,分别得到的特征向量。将这两个特征向量进行连接,得到的特征向量。
之后将的特征向量输入到隐藏层1,设置隐藏层1输出为1024,则得到 1024维的特征向量,将特征向量依次输入到隐藏层2、隐藏层3、隐藏层4中,输出依次为512, 256,50,并在隐藏层4中,将网络得到的深度特征与人工得到的深度特征进行融合,人工特 征选取为20维,则融合后得到70维的融合特征向量,将融合特征向量输入到回归层中,得到 网络的输出。
其中,网络损失函数为预测图像质量分数与实际图像质量分数的均方差,网络更新方法为自适应矩估计(ADAM),并使用斯皮尔曼相关系数(SROCC)作为网络是否收敛的判断,当网络输出的SROCC连续十次未达到最佳值时,认为网络收敛,保留此时的网络参数。人工特征为分别在可见光和红外光图像上计算LBP直方图特征所得,每种图像10维,共20维。
将SROCC作为网络性能的评价指标,根据实际情况,改变人工特征和深度特征的比例,选取SROCC值最高时的特征比例。
本发明的思路及方法,具体实现该技术方案的方法和途径很多,以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (6)

1.一种融合人工特征和深度特征的无参考图像质量评价方法,其特征在于,所述方法包括以下步骤:
步骤一:提取图像的人工特征,根据实时战场环境特点,提取相应的人工特征;
步骤二:将步骤一中提取的人工特征通过卷积神经网络,与深度特征进行融合,联合对待测战场图像进行质量评价。
2.根据权利要求1所述的一种融合人工特征和深度特征的无参考图像质量评价方法,其特征在于,所述步骤二具体为:
将待评价图像,输入到卷积神经网络中,通过卷积层、激活层、池化层进行图像的特征提取,将各个波段的图像分别经过不同的卷积神经网络进行特征提取后,在全连接层进行连接;
之后根据人工特征维度的不同,将其加入到不同的全连接层中,通过调整人工特征加入到全连接层的位置,调节人工特征和深度特征的比例,从而调整网络的收敛速度以及所提取特征的针对性大小;
最后,将所有特征共同输入到全连接层或者回归层中,作用于损失函数,进行网络训练;通过反向迭代更新,使得网络提取的深度特征可以更好的与人工特征联合,保持与人工特征的同质性的同时更好提取适应于实际情况的特征。
3.根据权利要求2所述的一种融合人工特征和深度特征的无参考图像质量评价方法,其特征在于,所述图像为单波段图像或者为不同波段的图像组成的集合,分别经过不同的卷积神经网络后,在全连接层处进行特征的连接。
4.根据权利要求2所述的一种融合人工特征和深度特征的无参考图像质量评价方法,其特征在于,根据人工特征维度的不同,将其加入到不同的全连接层中,维度越大,加到越靠前的全连接层,维度越小,加到越靠近回归层的全连接层。
5.根据权利要求2所述的一种融合人工特征和深度特征的无参考图像质量评价方法,其特征在于,所述人工特征和深度特征在全连接层处进行连接,通过调整在全连接层连接的位置,在不改变网络结构的情况下调整两种特征的比例,使其适应于不同环境下的需要,人工特征的比例越大,特征的针对性越强。
6.根据权利要求2至5任一项所述的一种融合人工特征和深度特征的无参考图像质量评价方法,其特征在于,若观测目标处于快速运动背景下,运动模糊对图像质量的影响占主要因素,则选用适用于对模糊图像进行评价的方法;若环境中电磁等干扰较多,图像由于噪声影响产生较多的噪点,则选用适用于对噪声图像进行评价的图像质量评价方法。
CN201811407270.9A 2018-11-23 2018-11-23 一种融合人工特征和深度特征的无参考图像质量评价方法 Active CN109784358B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811407270.9A CN109784358B (zh) 2018-11-23 2018-11-23 一种融合人工特征和深度特征的无参考图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811407270.9A CN109784358B (zh) 2018-11-23 2018-11-23 一种融合人工特征和深度特征的无参考图像质量评价方法

Publications (2)

Publication Number Publication Date
CN109784358A true CN109784358A (zh) 2019-05-21
CN109784358B CN109784358B (zh) 2023-07-11

Family

ID=66496617

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811407270.9A Active CN109784358B (zh) 2018-11-23 2018-11-23 一种融合人工特征和深度特征的无参考图像质量评价方法

Country Status (1)

Country Link
CN (1) CN109784358B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110428412A (zh) * 2019-07-31 2019-11-08 北京奇艺世纪科技有限公司 图像质量的评价及模型生成方法、装置、设备和存储介质
CN110533605A (zh) * 2019-07-26 2019-12-03 遵义师范学院 一种精确噪点标定方法
CN111062479A (zh) * 2019-12-19 2020-04-24 北京迈格威科技有限公司 基于神经网络的模型快速升级方法及装置
CN111696090A (zh) * 2020-06-08 2020-09-22 电子科技大学 一种无约束环境下人脸图像质量评估方法
CN112669320A (zh) * 2021-03-22 2021-04-16 四川大学 一种基于深度神经网络的spect甲状腺显像智能识别方法
CN113256525A (zh) * 2021-05-25 2021-08-13 烟台艾睿光电科技有限公司 红外热成像图像增强方法、装置、设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680077A (zh) * 2017-08-29 2018-02-09 南京航空航天大学 一种基于多阶梯度特征的无参考图像质量评价方法
CN108090902A (zh) * 2017-12-30 2018-05-29 中国传媒大学 一种基于多尺度生成对抗网络的无参考图像质量客观评价方法
CN108391121A (zh) * 2018-04-24 2018-08-10 中国科学技术大学 一种基于深度神经网络的无参考立体图像质量评价方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680077A (zh) * 2017-08-29 2018-02-09 南京航空航天大学 一种基于多阶梯度特征的无参考图像质量评价方法
CN108090902A (zh) * 2017-12-30 2018-05-29 中国传媒大学 一种基于多尺度生成对抗网络的无参考图像质量客观评价方法
CN108391121A (zh) * 2018-04-24 2018-08-10 中国科学技术大学 一种基于深度神经网络的无参考立体图像质量评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田维军等: "基于深度学习的无参考立体图像质量评价", 《计算机辅助设计与图形学学报》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533605A (zh) * 2019-07-26 2019-12-03 遵义师范学院 一种精确噪点标定方法
CN110533605B (zh) * 2019-07-26 2023-06-02 遵义师范学院 一种精确噪点标定方法
CN110428412A (zh) * 2019-07-31 2019-11-08 北京奇艺世纪科技有限公司 图像质量的评价及模型生成方法、装置、设备和存储介质
CN110428412B (zh) * 2019-07-31 2022-06-03 北京奇艺世纪科技有限公司 图像质量的评价及模型生成方法、装置、设备和存储介质
CN111062479A (zh) * 2019-12-19 2020-04-24 北京迈格威科技有限公司 基于神经网络的模型快速升级方法及装置
CN111062479B (zh) * 2019-12-19 2024-01-23 北京迈格威科技有限公司 基于神经网络的模型快速升级方法及装置
CN111696090A (zh) * 2020-06-08 2020-09-22 电子科技大学 一种无约束环境下人脸图像质量评估方法
CN112669320A (zh) * 2021-03-22 2021-04-16 四川大学 一种基于深度神经网络的spect甲状腺显像智能识别方法
CN113256525A (zh) * 2021-05-25 2021-08-13 烟台艾睿光电科技有限公司 红外热成像图像增强方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
CN109784358B (zh) 2023-07-11

Similar Documents

Publication Publication Date Title
CN109784358A (zh) 一种融合人工特征和深度特征的无参考图像质量评价方法
CN111354017A (zh) 一种基于孪生神经网络及平行注意力模块的目标跟踪方法
CN105069472B (zh) 一种基于卷积神经网络自适应的车辆检测方法
CN106683118B (zh) 一种基于分层模型的无人机目标跟踪方法
CN107545302A (zh) 一种人眼左右眼图像联合的视线方向计算方法
CN104966286A (zh) 一种3d视频显著性检测方法
CN113592911B (zh) 表观增强深度目标跟踪方法
CN110473231A (zh) 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法
CN108830170A (zh) 一种基于分层特征表示的端到端目标跟踪方法
CN112613579A (zh) 一种人脸或人头图像质量的模型训练方法、评估方法及高质量图像的选取方法
CN114972312A (zh) 基于YOLOv4-Tiny改进的绝缘子缺陷检测方法
CN111462027A (zh) 基于多尺度梯度和抠图的多聚焦图像融合方法
CN105654518B (zh) 一种跟踪模板自适应方法
CN112819096A (zh) 一种基于复合卷积神经网络的化石图像分类模型的构建方法
CN111260687B (zh) 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN113888501A (zh) 一种基于注意力定位网络的无参考型图像质量评价方法
CN116051957A (zh) 基于注意力机制和多尺度融合的个人防护物品检测网络
CN116343334A (zh) 融合关节捕捉的三流自适应图卷积模型的动作识别方法
CN102074000A (zh) 一种利用方差率最优解自适应调整窗宽的跟踪方法
CN112597979B (zh) 一种实时更新余弦夹角损失函数参数的人脸识别方法
CN114495170A (zh) 一种基于局部抑制自注意力的行人重识别方法及系统
Sun et al. Research on cloud computing modeling based on fusion difference method and self-adaptive threshold segmentation
CN112767440A (zh) 一种基于siam-fc网络的目标跟踪方法
CN113920159B (zh) 一种基于全卷积孪生网络的红外空中小目标跟踪方法
CN104700416B (zh) 基于视觉理解的图像分割阈值确定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant