CN105913413A - 一种基于在线流形学习的彩色图像质量客观评价方法 - Google Patents

一种基于在线流形学习的彩色图像质量客观评价方法 Download PDF

Info

Publication number
CN105913413A
CN105913413A CN201610202181.5A CN201610202181A CN105913413A CN 105913413 A CN105913413 A CN 105913413A CN 201610202181 A CN201610202181 A CN 201610202181A CN 105913413 A CN105913413 A CN 105913413A
Authority
CN
China
Prior art keywords
image block
value
pixel
vector
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610202181.5A
Other languages
English (en)
Other versions
CN105913413B (zh
Inventor
蒋刚毅
何美伶
陈芬
宋洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201610202181.5A priority Critical patent/CN105913413B/zh
Priority to US15/197,604 priority patent/US9846818B2/en
Publication of CN105913413A publication Critical patent/CN105913413A/zh
Application granted granted Critical
Publication of CN105913413B publication Critical patent/CN105913413B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Abstract

本发明公开了一种基于在线流形学习的彩色图像质量客观评价方法,其考虑到显著性与图像质量客观评价的关系,利用视觉显著检测算法,通过求取参考图像与失真图像各自的显著图来获得最大融合显著图,并在最大融合显著图中的图像块的最大显著性的基础上利用绝对差值来衡量参考图像块与对应的失真图像块的显著差异值,由此筛选提取到参考视觉重要图像块与失真视觉重要图像块,再利用参考视觉重要图像块与失真视觉重要图像块的流形特征向量来计算失真图像的客观质量评价值,评价效果明显提高,客观评价结果与主观感知之间的相关性高。

Description

一种基于在线流形学习的彩色图像质量客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于在线流形学习的彩色图像质量客观评价方法。
背景技术
受图像处理系统性能的限制,在图像的获取、传输和编码等过程中,会引入各种类型的失真,失真的引入会降低图像的质量,同时也会阻碍人们从图像中获取信息。图像质量是比较各种图像处理算法性能优劣以及图像处理系统参数的重要指标,因此在图像传输、多媒体网络通信以及视频分析等领域中构建有效的图像质量评价方法具有重要价值。一般地,图像质量评价方法分为主观评价和客观评价两大类,由于图像的最终信宿是人类,因此主观评价方法是最可靠的评价方法,但其费时费力,且不易嵌入图像处理系统,所以在实际应用中受到了限制。相比之下,客观评价方法具有操作简单、便于实用等优点,是目前学术界乃至工业界的研究重点。
目前,最简单和使用最广泛的客观评价方法是峰值信噪比(peak signal tonoise ratio,PSNR)和均方误差(mean square error,MSE),该类方法计算简单、物理意义明确,但由于未考虑人眼的视觉特性,因此其评价结果往往会出现与人眼主观感受不吻合的情况。事实上,人眼对图像信号的处理并不是逐点进行的,鉴于此,研究人员通过引入人眼视觉特征,使得客观评价结果与人眼视觉感知吻合度更高。例如,基于结构相似度(Structural Similarity,SSIM)从图像的亮度、对比度和结构三个方面来表征图像的结构信息,进而评价图像质量。在其后续工作中,又基于SSIM提出了多尺度的SSIM评价方法、复小波SSIM评价方法和基于信息内容加权的SSIM评价方法,改进了SSIM的性能。除了基于结构相似度的评价方法,Sheikh等人将全参考图像质量评价看成是信息保真度问题,根据量化失真过程中图像信息的丢失量,提出了一种基于视觉信息保真度(Visual InformationFidelity,VIF)的图像质量评价方法。Chandler等人从图像的视觉感知的临界阈值和超阈值特性出发,结合小波变换,提出了一种基于小波视觉信噪比(visual signal-to-noiseratio,VSNR)的图像质量评价方法,该方法能较好地适应不同视觉条件。虽然研究者对人类视觉系统进行了深入探索,但由于人眼系统的复杂性,对人类视觉系统的认知仍比较肤浅,所以仍无法提出与人眼主观感知完全一致的图像质量客观评价方法。
为了更好地体现人类视觉系统特性,基于稀疏表示和视觉关注度的图像质量客观评价方法越来越受关注。许多研究表明,稀疏表示能很好地描述人脑初级视觉皮层中神经元的活动。例如,Guha等人公开了一种基于稀疏表示的图像质量评价方法,该方法分为两个阶段,第一个阶段是字典学习阶段:将从参考图像中随机选取的图像块作为训练样本,利用KSVD算法训练出过完备字典;第二个阶段是评价阶段:利用正交匹配追踪算法(OMP)对参考图像中的图像块与对应的失真图像中的图像块进行稀疏编码,得到参考图像稀疏系数与失真图像稀疏系数,进而得到图像客观评价值。然而,该类基于稀疏表示的图像质量客观评价方法都需要利用正交匹配追踪算法进行稀疏编码,需要大量运动开销,而且,该类方法过完备字典的获取是通过离线操作完成的,需要大量有效的自然图像作为训练样本,而且对于有实时要求的图像处理具有局限性。
对于数字图像如此高维的数据,实质上存在大量的信息冗余,需要利用降维技术对其进行处理,而在降维的同时又期望其本质结构可以得以保持。流形学习方法(ManifoldLearning),自2000年在著名科学杂志《Science》被首次提出以来,已成为信息科学领域的研究热点。假设数据是均匀采样于一个高维欧氏空间中的低维流形,流形学习就是从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射,以实现维数约简。有研究表明流形是感知的基础,大脑中以流形方式对事物进行感知。近年来,流形学习在图像去噪、人脸识别、人体行为检测等方面应用广泛,并取得了较好的效果。Deng等人针对局部保持投影(Locality Preserving Projection,LPP)算法中的列向量不是正交的问题,对其改进得到正交局部保持投影算法(Orthogonal Locality PreservingProjection,OLPP),该算法可找到数据的流形结构且具有线性特点,取得了更好的局部保持能力和判别能力。流形学习能够模拟图像信号在初级视觉皮层细胞中的描述,从而能准确地提取出图像的视觉感知特征。图像的低维流形特征较好地描述了各失真图像之间的非线性变化关系,失真图像在流形空间里会按照变化的类型和强度的大小来排列。因此,研究一种客观评价结果与人眼视觉感知吻合度高的基于流形学习的图像质量客观评价方法很有必要。
发明内容
本发明所要解决的技术问题是提供一种基于在线流形学习的彩色图像质量客观评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于在线流形学习的彩色图像质量客观评价方法,其特征在于包括以下步骤:
①令IR表示宽度为W且高度为H的无失真的参考图像,令ID表示与IR对应的待评价的失真图像;
②采用视觉显著检测算法,分别获取IR和ID各自的显著图,对应记为MR和MD;然后根据MR和MD,计算最大融合显著图,记为MF,将MF中坐标位置为(x,y)的像素点的像素值记为MF(x,y),MF(x,y)=max(MR(x,y),MD(x,y)),其中,1≤x≤W,1≤y≤H,max()为取最大值函数,MR(x,y)表示MR中坐标位置为(x,y)的像素点的像素值,MD(x,y)表示MD中坐标位置为(x,y)的像素点的像素值;
③将IR、ID、MR、MD和MF分别通过尺寸大小为8×8的滑动窗口划分成个互不重叠的大小相同的图像块;
然后将IR和ID各自中的每个图像块中的所有像素点的R、G、B通道的颜色值向量化,将IR中的第j个图像块中的所有像素点的R、G、B通道的颜色值向量化后形成的颜色向量记为将ID中的第j个图像块中的所有像素点的R、G、B通道的颜色值向量化后形成的颜色向量记为其中,j的初始值为1, 的维数均为192×1,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的R通道的颜色值,中的第65个元素至第128个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的G通道的颜色值,中的第129个元素至第192个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的B通道的颜色值,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的R通道的颜色值,中的第65个元素至第128个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的G通道的颜色值,中的第129个元素至第192个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的B通道的颜色值;
并将MR、MD和MF各自中的每个图像块中的所有像素点的像素值向量化,将MR中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为将MD中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为将MF中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为其中,的维数均为64×1,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MR中的第j个图像块中的每个像素点的像素值,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MD中的第j个图像块中的每个像素点的像素值,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MF中的第j个图像块中的每个像素点的像素值;
④计算MF中的每个图像块的显著性,将MF中的第j个图像块的显著性记为dj其中,1≤i≤64,表示中的第i个元素的值;
然后按从大到小的顺序排列MF中的所有图像块的显著性,排序后再确定前t1个显著性对应的图像块的序号,其中,λ1表示图像块选取比例系数,λ1∈(0,1];
接着找出IR中与所确定的t1个序号相应的图像块,并定义为参考图像块;找出ID中与所确定的t1个序号相应的图像块,并定义为失真图像块;找出MR中与所确定的t1个序号相应的图像块,并定义为参考显著图像块;找出MD中与所确定的t1个序号相应的图像块,并定义为失真显著图像块;
⑤利用绝对差值衡量IR中的每个参考图像块与ID中对应的失真图像块的显著差异值,将IR中的第t'个参考图像块与ID中的第t'个失真图像块的显著差异值记为et',其中,t'的初始值为1,1≤t'≤t1,符号“||”为取绝对值符号,表示MR中的第t'个参考显著图像块对应的像素值向量中的第i个元素的值,表示MD中的第t'个失真显著图像块对应的像素值向量中的第i个元素的值;
然后按从大到小的顺序排列衡量得到的t1个显著差异值,排序后再确定前t2个显著差异值对应的参考图像块和失真图像块,将所确定的t2个参考图像块定义为参考视觉重要图像块,并将所有参考视觉重要图像块对应的颜色向量构成的矩阵作为参考视觉重要图像块矩阵,记为YR;将所确定的t2个失真图像块定义为失真视觉重要图像块,并将所有失真视觉重要图像块对应的颜色向量构成的矩阵作为失真视觉重要图像块矩阵,记为YD,其中,t2=λ2×t1,λ2表示参考图像块和失真图像块选取比例系数,λ2∈(0,1],YR和YD的维数均为192×t2,YR中的第t”个列向量为所确定的第t”个参考图像块对应的颜色向量,YD中的第t”个列向量为所确定的第t”个失真图像块对应的颜色向量,t”的初始值为1,1≤t”≤t2
⑥将YR中的每个列向量中的每个元素的值减去该列向量中所有元素的值的均值进行中心化,将中心化处理后得到的矩阵记为Y,其中,Y的维数为192×t2
然后利用主成分分析对Y进行降维以及白化操作,得到降维以及白化操作后的矩阵,记为Yw,Yw=W×Y,其中,Yw的维数为M×t2,W表示白化矩阵,W的维数为M×192,1<M<<192,符号“<<”为远小于符号;
⑦利用正交局部保持投影算法对Yw进行在线训练,获取Yw的特征基矩阵,记为D,其中,D的维数为M×192;
⑧根据YR和D,计算每个参考视觉重要图像块的流形特征向量,将第t”个参考视觉重要图像块的流形特征向量记为ut”其中,ut”的维数为M×1,为YR中的第t”个列向量;并根据YD和D,计算每个失真视觉重要图像块的流形特征向量,将第t”个失真视觉重要图像块的流形特征向量记为vt”其中,vt”的维数为M×1,为YD中的第t”个列向量;
⑨根据所有参考视觉重要图像块的流形特征向量和所有失真视觉重要图像块的流形特征向量,计算ID的客观质量评价值,记为Score,其中,1≤m≤M,ut”(m)表示ut”中的第m个元素的值,vt”(m)表示vt”中的第m个元素的值,C为一个很小的常量,用于保证结果的稳定性。
所述的步骤⑥中Yw的获取过程为:⑥_1、令C表示Y的协方差矩阵,其中,C的维数为192×192,YT为Y的转置;⑥_2、对C进行特征值分解,得到所有最大特征值和对应的特征向量,其中,特征向量的维数为192×1;⑥_3、取M个最大特征值和对应的M个特征向量;⑥_4、根据所取的M个最大特征值和对应的M个特征向量计算白化矩阵W,W=Ψ-1/2×ET,其中,Ψ的维数为M×M,Ψ=diag(ψ1,...,ψM),E的维数为192×M,E=[e1,...,eM],diag()为主对角线矩阵表示形式,ψ1,...,ψM对应表示所取的第1个、…、第M个最大特征值,e1,...,eM对应表示所取的第1个、…、第M个特征向量;⑥_5、根据W对Y进行白化操作,得到降维以及白化操作后的矩阵Yw,Yw=W×Y。
所述的步骤④中取λ1=0.7。
所述的步骤⑤中取λ2=0.6。
所述的步骤⑨中取C=0.04。
与现有技术相比,本发明的优点在于:
1)本发明方法考虑到显著性与图像质量客观评价的关系,利用视觉显著检测算法,通过求取参考图像与失真图像各自的显著图来获得最大融合显著图,并在最大融合显著图中的图像块的最大显著性的基础上利用绝对差值来衡量参考图像块与对应的失真图像块的显著差异值,由此筛选提取到参考视觉重要图像块与失真视觉重要图像块,再利用参考视觉重要图像块与失真视觉重要图像块的流形特征向量来计算失真图像的客观质量评价值,评价效果明显提高,客观评价结果与主观感知之间的相关性高。
2)本发明方法从图像数据本身出发通过流形学习的方式寻找数据的内在几何结构,训练得到特征基矩阵,利用特征基矩阵对参考视觉重要图像块与失真重要图像块进行降维得到流形特征向量,降维后的流形特征向量仍然保持了高维图像数据的几何特性,减少了很多冗余信息,在计算失真图像的客观质量评价值时更简单、更准确。
3)本发明方法针对现有的基于稀疏表示的图像质量客观评价方法中过完备字典的离线学习获取需要大量有效的训练样本及对有实时要求的图像处理存在局限性的问题,对已提取的参考视觉重要图像块利用正交局部保持投影算法在线学习训练得到特征基矩阵,可以实时地获取特征基矩阵,因此鲁棒性更高,评价效果更加稳定。
附图说明
图1为本发明方法的总体实现框图;
图2a为本发明方法在LIVE图像数据库中的散点拟合曲线图;
图2b为本发明方法在CSIQ图像数据库中的散点拟合曲线图;
图2c为本发明方法在TID2008图像数据库中的散点拟合曲线图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于在线流形学习的彩色图像质量客观评价方法,其总体实现框图如图1所示,其包括以下步骤:
①令IR表示宽度为W且高度为H的无失真的参考图像,令ID表示与IR对应的待评价的失真图像。
②采用现有的视觉显著检测算法(Saliency Detection based on SimplePriors,SDSP),分别获取IR和ID各自的显著图,对应记为MR和MD;然后根据MR和MD,计算最大融合显著图,记为MF,将MF中坐标位置为(x,y)的像素点的像素值记为MF(x,y),MF(x,y)=max(MR(x,y),MD(x,y)),其中,1≤x≤W,1≤y≤H,max()为取最大值函数,MR(x,y)表示MR中坐标位置为(x,y)的像素点的像素值,MD(x,y)表示MD中坐标位置为(x,y)的像素点的像素值。
③将IR、ID、MR、MD和MF分别通过尺寸大小为8×8的滑动窗口划分成个互不重叠的大小相同的图像块,若图像的尺寸大小不能被8×8整除,则多余的像素点不作处理。
然后将IR和ID各自中的每个图像块中的所有像素点的R、G、B通道的颜色值向量化,将IR中的第j个图像块中的所有像素点的R、G、B通道的颜色值向量化后形成的颜色向量记为将ID中的第j个图像块中的所有像素点的R、G、B通道的颜色值向量化后形成的颜色向量记为其中,j的初始值为1, 的维数均为192×1,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的R通道的颜色值,即中的第1个元素的值为IR中的第j个图像块中第1行第1列的像素点的R通道的颜色值,中的第2个元素的值为IR中的第j个图像块中第1行第2列的像素点的R通道的颜色值,依次类推;中的第65个元素至第128个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的G通道的颜色值,即中的第65个元素的值为IR中的第j个图像块中第1行第1列的像素点的G通道的颜色值,中的第66个元素的值为IR中的第j个图像块中第1行第2列的像素点的G通道的颜色值,依次类推;中的第129个元素至第192个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的B通道的颜色值,即中的第129个元素的值为IR中的第j个图像块中第1行第1列的像素点的B通道的颜色值,中的第130个元素的值为IR中的第j个图像块中第1行第2列的像素点的B通道的颜色值,依次类推;中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的R通道的颜色值,即中的第1个元素的值为ID中的第j个图像块中第1行第1列的像素点的R通道的颜色值,中的第2个元素的值为ID中的第j个图像块中第1行第2列的像素点的R通道的颜色值,依次类推;中的第65个元素至第128个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的G通道的颜色值,即中的第65个元素的值为ID中的第j个图像块中第1行第1列的像素点的G通道的颜色值,中的第66个元素的值为ID中的第j个图像块中第1行第2列的像素点的G通道的颜色值,依次类推;中的第129个元素至第192个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的B通道的颜色值,即中的第129个元素的值为ID中的第j个图像块中第1行第1列的像素点的B通道的颜色值,中的第130个元素的值为ID中的第j个图像块中第1行第2列的像素点的B通道的颜色值,依次类推。
并将MR、MD和MF各自中的每个图像块中的所有像素点的像素值向量化,将MR中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为将MD中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为将MF中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为其中,的维数均为64×1,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MR中的第j个图像块中的每个像素点的像素值,即中的第1个元素的值为MR中的第j个图像块中第1行第1列的像素点的像素值,中的第2个元素的值为MR中的第j个图像块中第1行第2列的像素点的像素值,依次类推;中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MD中的第j个图像块中的每个像素点的像素值,即中的第1个元素的值为MD中的第j个图像块中第1行第1列的像素点的像素值,中的第2个元素的值为MD中的第j个图像块中第1行第2列的像素点的像素值,依次类推;中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MF中的第j个图像块中的每个像素点的像素值,即中的第1个元素的值为MF中的第j个图像块中第1行第1列的像素点的像素值,中的第2个元素的值为MF中的第j个图像块中第1行第2列的像素点的像素值,依次类推。
④计算MF中的每个图像块的显著性,将MF中的第j个图像块的显著性记为dj其中,1≤i≤64,表示中的第i个元素的值,即表示MF中的第j个图像块中的第i个像素点的像素值。
然后按从大到小的顺序排列MF中的所有图像块的显著性,排序后再确定前t1个显著性(即最大的t1个显著性)对应的图像块的序号,其中,λ1表示图像块选取比例系数,λ1∈(0,1],在本实施例中取λ1=0.7。
接着找出IR中与所确定的t1个序号相应的图像块,并定义为参考图像块;找出ID中与所确定的t1个序号相应的图像块,并定义为失真图像块;找出MR中与所确定的t1个序号相应的图像块,并定义为参考显著图像块;找出MD中与所确定的t1个序号相应的图像块,并定义为失真显著图像块。
⑤利用绝对差值衡量IR中的每个参考图像块与ID中对应的失真图像块的显著差异值,将IR中的第t'个参考图像块与ID中的第t'个失真图像块的显著差异值记为et'其中,t'的初始值为1,1≤t'≤t1,符号“|·|”为取绝对值符号,表示MR中的第t'个参考显著图像块对应的像素值向量中的第i个元素的值,即表示MR中的第t'个参考显著图像块中的第i个像素点的像素值,表示MD中的第t'个失真显著图像块对应的像素值向量中的第i个元素的值,即表示MD中的第t'个失真显著图像块中的第i个像素点的像素值。
然后按从大到小的顺序排列衡量得到的t1个显著差异值,排序后再确定前t2个显著差异值(即最大的t2个显著差异性)对应的参考图像块和失真图像块,将所确定的t2个参考图像块定义为参考视觉重要图像块,并将所有参考视觉重要图像块对应的颜色向量构成的矩阵作为参考视觉重要图像块矩阵,记为YR;将所确定的t2个失真图像块定义为失真视觉重要图像块,并将所有失真视觉重要图像块对应的颜色向量构成的矩阵作为失真视觉重要图像块矩阵,记为YD,其中,t2=λ2×t1,λ2表示参考图像块和失真图像块选取比例系数,λ2∈(0,1],在本实施例中取λ2=0.6,YR和YD的维数均为192×t2,YR中的第t”个列向量为所确定的第t”个参考图像块对应的颜色向量,YD中的第t”个列向量为所确定的第t”个失真图像块对应的颜色向量,t”的初始值为1,1≤t”≤t2
⑥将YR中的每个列向量中的每个元素的值减去该列向量中所有元素的值的均值进行中心化,将中心化处理后得到的矩阵记为Y,其中,Y的维数为192×t2
然后利用现有的主成分分析(Principal Components Analysis,PCA)对中心化处理后得到的Y进行降维以及白化操作,得到降维以及白化操作后的矩阵,记为Yw,Yw=W×Y,其中,Yw的维数为M×t2,W表示白化矩阵,W的维数为M×192,1<M<<192,符号“<<”为远小于符号。
在本实施例中通过对样本数据协方差矩阵进行特征值分解来实现主成分分析过程,即步骤⑥中Yw的获取过程为:⑥_1、令C表示Y的协方差矩阵,其中,C的维数为192×192,YT为Y的转置;⑥_2、对C进行特征值分解,得到所有最大特征值和对应的特征向量,其中,特征向量的维数为192×1;⑥_3、取M个最大特征值和对应的M个特征向量,以实现对Y的降维操作,在本实施例中取M=8,即只取了前8个主成分用于训练,也就是说维数从192维降到了M=8维;⑥_4、根据所取的M个最大特征值和对应的M个特征向量计算白化矩阵W,W=Ψ-1/2×ET,其中,Ψ的维数为M×M,Ψ=diag(ψ1,...,ψM),E的维数为192×M,E=[e1,...,eM],diag()为主对角线矩阵表示形式,ψ1,...,ψM对应表示所取的第1个、…、第M个最大特征值,e1,...,eM对应表示所取的第1个、…、第M个特征向量;⑥_5、根据W对Y进行白化操作,得到降维以及白化操作后的矩阵Yw,Yw=W×Y。
⑦利用现有的正交局部保持投影(OLPP)算法对Yw进行在线训练,获取Yw的特征基矩阵,记为D,其中,D的维数为M×192。
⑧根据YR和D,计算每个参考视觉重要图像块的流形特征向量,将第t”个参考视觉重要图像块的流形特征向量记为ut”其中,ut”的维数为M×1,为YR中的第t”个列向量;并根据YD和D,计算每个失真视觉重要图像块的流形特征向量,将第t”个失真视觉重要图像块的流形特征向量记为vt”其中,vt”的维数为M×1,为YD中的第t”个列向量。
⑨根据所有参考视觉重要图像块的流形特征向量和所有失真视觉重要图像块的流形特征向量,计算ID的客观质量评价值,记为Score,其中,1≤m≤M,ut”(m)表示ut”中的第m个元素的值,vt”(m)表示vt”中的第m个元素的值,C为一个很小的常量,用于保证结果的稳定性,在本实施例中取C=0.04。
为进一步说明本发明方法的可行性和有效性,进行实验。
在本实施例中,选取三个公开的权威图像数据库分别为LIVE图像数据库、CSIQ图像数据库、TID2008图像数据库进行实验。表1中详细说明了每个图像数据库的各个指标,包括参考图像数目、失真图像数目、失真类型数目。其中,每个图像数据库都提供了每幅失真图像的平均主观评分差值。
表1权威图像数据库的各项指标
图像数据库 参考图像数目 失真图像数目 失真类型数目
LIVE 29 779 5
CSIQ 30 866 6
TID2008 25 1700 17
接下来,分析利用本发明方法获取的每幅失真图像的客观质量评价值与平均主观评分差值之间的相关性。这里,利用评估图像质量评价方法的3个常用的客观参量作为评价指标,即线性相关性系数(Pearson Linear Correlation Coefficients,PLCC)反映预测的准确性、Spearman秩相关系数(Spearman Rank Order Correlation coefficient,SROCC)反映预测的单调性、均方根误差(Root mean squared error,RMSE)反映预测的一致性。其中,PLCC和SROCC的取值范围是[0,1],其值越接近1,表明图像质量客观评价方法越好,反之越差;RMSE值越小,表示图像质量客观评价方法的预测越准确,性能越好,反之,则越差。
对于上述LIVE图像数据库、CSIQ图像数据库和TID2008图像数据库中的所有失真图像,分别按本发明方法的步骤①至步骤⑨的过程,采用相同的方式计算得到每幅失真图像的客观质量评价值。分析实验得到的失真图像的客观质量评价值与平均主观评分差值之间的相关性。首先获取客观质量评价值,然后将客观质量评价值做五参数Logistic函数非线性拟合,最后得到客观评价结果与平均主观评分差值之间的性能指标值。为了验证本发明的有效性,将本发明方法与现有的性能较为先进的6种全参考图像质量客观评价方法在表1列出的三个图像数据库上进行了比较分析,表示三个图像数据库的评价性能的PLCC、SROCC和RMSE系数如表2所列,表2中参与比较的6种方法分别为:经典的PSNR方法,Z.Wang提出的基于结构相似度的评价方法(SSIM),N.Damera Venkata提出的基于退化模型的方法(IFC),H.R.Sheikh提出的基于信息保真度准则的方法(VIF),D.M.Chandler提出的基于小波域的视觉信噪比的方法(VSNR),T.Guha提出的基于稀疏表示的图像质量评价方法(SPARQ)。由表2中所列的数据可见,本发明方法在LIVE图像数据库上的性能仅次于VIF方法,而在CSIQ图像数据库和TID图像数据库上都表现最优,因此,在三个图像数据库上按本发明方法计算得到的失真图像的客观质量评价值与平均主观评分差值之间都有很好的相关性。另外,LIVE图像数据库和CSIQ图像数据库的PLCC值和SROCC值都超过了0.94,失真类型更加复杂的TID2008图像数据库的PLCC和SROCC值也达到了0.82,并且加权平均后本发明方法的性能比现有的6种方法均有不同程度的提高。表明了本发明方法的客观评价结果与人眼主观感知的结果较为一致,并且评价效果稳定,充分说明了本发明方法的有效性。
表2本发明方法与现有的图像质量客观评价方法的性能比较
图2a给出了本发明方法在LIVE图像数据库中的散点拟合曲线图,图2b给出了本发明方法在CSIQ图像数据库中的散点拟合曲线图,图2c给出了本发明方法在TID2008图像数据库中的散点拟合曲线图。从图2a、图2b及图2c中可以清晰地看到,散点均分布在拟合线的附近并且呈现良好的单调性与连续性。

Claims (5)

1.一种基于在线流形学习的彩色图像质量客观评价方法,其特征在于包括以下步骤:
①令IR表示宽度为W且高度为H的无失真的参考图像,令ID表示与IR对应的待评价的失真图像;
②采用视觉显著检测算法,分别获取IR和ID各自的显著图,对应记为MR和MD;然后根据MR和MD,计算最大融合显著图,记为MF,将MF中坐标位置为(x,y)的像素点的像素值记为MF(x,y),MF(x,y)=max(MR(x,y),MD(x,y)),其中,1≤x≤W,1≤y≤H,max()为取最大值函数,MR(x,y)表示MR中坐标位置为(x,y)的像素点的像素值,MD(x,y)表示MD中坐标位置为(x,y)的像素点的像素值;
③将IR、ID、MR、MD和MF分别通过尺寸大小为8×8的滑动窗口划分成个互不重叠的大小相同的图像块;
然后将IR和ID各自中的每个图像块中的所有像素点的R、G、B通道的颜色值向量化,将IR中的第j个图像块中的所有像素点的R、G、B通道的颜色值向量化后形成的颜色向量记为将ID中的第j个图像块中的所有像素点的R、G、B通道的颜色值向量化后形成的颜色向量记为其中,j的初始值为1, 的维数均为192×1,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的R通道的颜色值,中的第65个元素至第128个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的G通道的颜色值,中的第129个元素至第192个元素的值一一对应为以逐行扫描方式扫描IR中的第j个图像块中的每个像素点的B通道的颜色值,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的R通道的颜色值,中的第65个元素至第128个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的G通道的颜色值,中的第129个元素至第192个元素的值一一对应为以逐行扫描方式扫描ID中的第j个图像块中的每个像素点的B通道的颜色值;
并将MR、MD和MF各自中的每个图像块中的所有像素点的像素值向量化,将MR中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为将MD中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为将MF中的第j个图像块中的所有像素点的像素值向量化后形成的像素值向量记为其中,的维数均为64×1,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MR中的第j个图像块中的每个像素点的像素值,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MD中的第j个图像块中的每个像素点的像素值,中的第1个元素至第64个元素的值一一对应为以逐行扫描方式扫描MF中的第j个图像块中的每个像素点的像素值;
④计算MF中的每个图像块的显著性,将MF中的第j个图像块的显著性记为dj其中,1≤i≤64,表示中的第i个元素的值;
然后按从大到小的顺序排列MF中的所有图像块的显著性,排序后再确定前t1个显著性对应的图像块的序号,其中,λ1表示图像块选取比例系数,λ1∈(0,1];
接着找出IR中与所确定的t1个序号相应的图像块,并定义为参考图像块;找出ID中与所确定的t1个序号相应的图像块,并定义为失真图像块;找出MR中与所确定的t1个序号相应的图像块,并定义为参考显著图像块;找出MD中与所确定的t1个序号相应的图像块,并定义为失真显著图像块;
⑤利用绝对差值衡量IR中的每个参考图像块与ID中对应的失真图像块的显著差异值,将IR中的第t'个参考图像块与ID中的第t'个失真图像块的显著差异值记为et'其中,t'的初始值为1,1≤t'≤t1,符号“||”为取绝对值符号,表示MR中的第t'个参考显著图像块对应的像素值向量中的第i个元素的值,表示MD中的第t'个失真显著图像块对应的像素值向量中的第i个元素的值;
然后按从大到小的顺序排列衡量得到的t1个显著差异值,排序后再确定前t2个显著差异值对应的参考图像块和失真图像块,将所确定的t2个参考图像块定义为参考视觉重要图像块,并将所有参考视觉重要图像块对应的颜色向量构成的矩阵作为参考视觉重要图像块矩阵,记为YR;将所确定的t2个失真图像块定义为失真视觉重要图像块,并将所有失真视觉重要图像块对应的颜色向量构成的矩阵作为失真视觉重要图像块矩阵,记为YD,其中,t2=λ2×t1,λ2表示参考图像块和失真图像块选取比例系数,λ2∈(0,1],YR和YD的维数均为192×t2,YR中的第t”个列向量为所确定的第t”个参考图像块对应的颜色向量,YD中的第t”个列向量为所确定的第t”个失真图像块对应的颜色向量,t”的初始值为1,1≤t”≤t2
⑥将YR中的每个列向量中的每个元素的值减去该列向量中所有元素的值的均值进行中心化,将中心化处理后得到的矩阵记为Y,其中,Y的维数为192×t2
然后利用主成分分析对Y进行降维以及白化操作,得到降维以及白化操作后的矩阵,记为Yw,Yw=W×Y,其中,Yw的维数为M×t2,W表示白化矩阵,W的维数为M×192,1<M<<192,符号“<<”为远小于符号;
⑦利用正交局部保持投影算法对Yw进行在线训练,获取Yw的特征基矩阵,记为D,其中,D的维数为M×192;
⑧根据YR和D,计算每个参考视觉重要图像块的流形特征向量,将第t”个参考视觉重要图像块的流形特征向量记为ut”其中,ut”的维数为M×1,为YR中的第t”个列向量;并根据YD和D,计算每个失真视觉重要图像块的流形特征向量,将第t”个失真视觉重要图像块的流形特征向量记为vt”其中,vt”的维数为M×1,为YD中的第t”个列向量;
⑨根据所有参考视觉重要图像块的流形特征向量和所有失真视觉重要图像块的流形特征向量,计算ID的客观质量评价值,记为Score,其中,1≤m≤M,ut″(m)表示ut”中的第m个元素的值,vt”(m)表示vt”中的第m个元素的值,C为一个很小的常量,用于保证结果的稳定性。
2.根据权利要求1所述的一种基于在线流形学习的彩色图像质量客观评价方法,其特征在于所述的步骤⑥中Yw的获取过程为:⑥_1、令C表示Y的协方差矩阵,其中,C的维数为192×192,YT为Y的转置;⑥_2、对C进行特征值分解,得到所有最大特征值和对应的特征向量,其中,特征向量的维数为192×1;⑥_3、取M个最大特征值和对应的M个特征向量;⑥_4、根据所取的M个最大特征值和对应的M个特征向量计算白化矩阵W,W=Ψ-1/2×ET,其中,Ψ的维数为M×M,Ψ=diag(ψ1,...,ψM),E的维数为192×M,E=[e1,...,eM],diag()为主对角线矩阵表示形式,ψ1,...,ψM对应表示所取的第1个、…、第M个最大特征值,e1,...,eM对应表示所取的第1个、…、第M个特征向量;⑥_5、根据W对Y进行白化操作,得到降维以及白化操作后的矩阵Yw,Yw=W×Y。
3.根据权利要求1所述的一种基于在线流形学习的彩色图像质量客观评价方法,其特征在于所述的步骤④中取λ1=0.7。
4.根据权利要求1所述的一种基于在线流形学习的彩色图像质量客观评价方法,其特征在于所述的步骤⑤中取λ2=0.6。
5.根据权利要求1所述的一种基于在线流形学习的彩色图像质量客观评价方法,其特征在于所述的步骤⑨中取C=0.04。
CN201610202181.5A 2016-03-31 2016-03-31 一种基于在线流形学习的彩色图像质量客观评价方法 Active CN105913413B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610202181.5A CN105913413B (zh) 2016-03-31 2016-03-31 一种基于在线流形学习的彩色图像质量客观评价方法
US15/197,604 US9846818B2 (en) 2016-03-31 2016-06-29 Objective assessment method for color image quality based on online manifold learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610202181.5A CN105913413B (zh) 2016-03-31 2016-03-31 一种基于在线流形学习的彩色图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN105913413A true CN105913413A (zh) 2016-08-31
CN105913413B CN105913413B (zh) 2019-02-22

Family

ID=56745319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610202181.5A Active CN105913413B (zh) 2016-03-31 2016-03-31 一种基于在线流形学习的彩色图像质量客观评价方法

Country Status (2)

Country Link
US (1) US9846818B2 (zh)
CN (1) CN105913413B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220962A (zh) * 2017-04-07 2017-09-29 北京工业大学 一种隧道裂纹的图像检测方法和装置
CN108921824A (zh) * 2018-06-11 2018-11-30 中国科学院国家空间科学中心 一种基于稀疏化特征提取的彩色图像质量评价方法
CN109754391A (zh) * 2018-12-18 2019-05-14 北京爱奇艺科技有限公司 一种图像质量评价方法、装置及电子设备
CN111881758A (zh) * 2020-06-29 2020-11-03 普瑞达建设有限公司 一种停车管理方法和系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003256B (zh) * 2018-06-13 2022-03-04 天津师范大学 一种基于联合稀疏表示的多聚焦图像融合质量评价方法
CN109003265B (zh) * 2018-07-09 2022-02-11 嘉兴学院 一种基于贝叶斯压缩感知的无参考图像质量客观评价方法
CN109636397A (zh) * 2018-11-13 2019-04-16 平安科技(深圳)有限公司 公共交通出行控制方法、装置、计算机设备及存储介质
CN109523542B (zh) * 2018-11-23 2022-12-30 嘉兴学院 一种基于彩色向量夹角lbp算子的无参考彩色图像质量评价方法
CN109978834A (zh) * 2019-03-05 2019-07-05 方玉明 一种基于色彩和纹理特征的屏幕图像质量评价方法
CN110189243B (zh) * 2019-05-13 2023-03-24 杭州电子科技大学上虞科学与工程研究院有限公司 一种基于张量奇异值分解的彩色图像鲁棒水印方法
CN110147792B (zh) * 2019-05-22 2021-05-28 齐鲁工业大学 基于内存优化的药品包装字符高速检测系统及方法
CN111127387B (zh) * 2019-07-11 2024-02-09 宁夏大学 无参考图像的质量的评价方法
CN110399887B (zh) * 2019-07-19 2022-11-04 合肥工业大学 基于视觉显著性和直方图统计技术的代表色彩提取方法
CN111354048B (zh) * 2020-02-24 2023-06-20 清华大学深圳国际研究生院 一种面向相机获取图片的质量评价方法和装置
CN112233065B (zh) * 2020-09-15 2023-02-24 西北大学 显著性调制下多维视觉特征协作的全盲图像质量评价方法
US20240054607A1 (en) * 2021-09-20 2024-02-15 Meta Platforms, Inc. Reducing the complexity of video quality metric calculations
CN117456208A (zh) * 2023-11-07 2024-01-26 广东新裕信息科技有限公司 一种基于显著性检测的双流法素描质量评价方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008150840A1 (en) * 2007-05-29 2008-12-11 University Of Iowa Research Foundation Methods and systems for determining optimal features for classifying patterns or objects in images
US8848970B2 (en) * 2011-04-26 2014-09-30 Digimarc Corporation Salient point-based arrangements
CN104036501B (zh) * 2014-06-03 2016-08-24 宁波大学 一种基于稀疏表示的立体图像质量客观评价方法
US9454712B2 (en) * 2014-10-08 2016-09-27 Adobe Systems Incorporated Saliency map computation
CN104408716A (zh) * 2014-11-24 2015-03-11 宁波大学 一种基于视觉保真度的立体图像质量客观评价方法
CN105447884B (zh) * 2015-12-21 2017-11-24 宁波大学 一种基于流形特征相似度的图像质量客观评价方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220962A (zh) * 2017-04-07 2017-09-29 北京工业大学 一种隧道裂纹的图像检测方法和装置
CN107220962B (zh) * 2017-04-07 2020-04-21 北京工业大学 一种隧道裂纹的图像检测方法和装置
CN108921824A (zh) * 2018-06-11 2018-11-30 中国科学院国家空间科学中心 一种基于稀疏化特征提取的彩色图像质量评价方法
CN109754391A (zh) * 2018-12-18 2019-05-14 北京爱奇艺科技有限公司 一种图像质量评价方法、装置及电子设备
CN109754391B (zh) * 2018-12-18 2021-10-22 北京爱奇艺科技有限公司 一种图像质量评价方法、装置及电子设备
CN111881758A (zh) * 2020-06-29 2020-11-03 普瑞达建设有限公司 一种停车管理方法和系统
CN111881758B (zh) * 2020-06-29 2021-03-19 普瑞达建设有限公司 一种停车管理方法和系统

Also Published As

Publication number Publication date
US20170286798A1 (en) 2017-10-05
US9846818B2 (en) 2017-12-19
CN105913413B (zh) 2019-02-22

Similar Documents

Publication Publication Date Title
CN105913413A (zh) 一种基于在线流形学习的彩色图像质量客观评价方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN105447884B (zh) 一种基于流形特征相似度的图像质量客观评价方法
Juefei-Xu et al. Investigating age invariant face recognition based on periocular biometrics
CN108961198B (zh) 一种多风格生成对抗网络的水下图像合成方法及其应用
CN111080567A (zh) 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
CN110111256B (zh) 基于残差蒸馏网络的图像超分辨重建方法
CN106952317B (zh) 基于结构稀疏的高光谱图像重建方法
CN109872305B (zh) 一种基于质量图生成网络的无参考立体图像质量评价方法
CN112288668B (zh) 基于深度无监督密集卷积网络的红外和可见光图像融合方法
CN107862680B (zh) 一种基于相关滤波器的目标跟踪优化方法
Kantarcı et al. Thermal to visible face recognition using deep autoencoders
CN112862792A (zh) 一种用于小样本图像数据集的小麦白粉病孢子分割方法
CN111539331A (zh) 一种基于脑机接口的视觉图像重建系统
CN107194314B (zh) 融合模糊2dpca和模糊2dlda的人脸识别方法
CN106599833B (zh) 一种基于领域适应和流形距离度量的人脸识别方法
CN112950480A (zh) 一种融合多感受野和密集残差注意的超分辨率重建方法
CN110796022A (zh) 一种基于多流形耦合映射的低分辨人脸识别方法
CN110111276A (zh) 基于空-谱信息深度利用的高光谱遥感影像超分辨率方法
Li et al. RGB-induced feature modulation network for hyperspectral image super-resolution
CN108985301A (zh) 一种多特征类子字典学习的高光谱图像分类方法
Hill et al. Aging the human face-a statistically rigorous approach
CN108596906A (zh) 一种基于稀疏局部保持投影的全参考屏幕图像质量评价方法
CN110415816B (zh) 一种基于迁移学习的皮肤病临床图像多分类方法
CN109766810B (zh) 基于协同表示和池化及融合的人脸识别分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant