CN106778788A - 对图像进行美学评价的多特征融合方法 - Google Patents

对图像进行美学评价的多特征融合方法 Download PDF

Info

Publication number
CN106778788A
CN106778788A CN201710025626.1A CN201710025626A CN106778788A CN 106778788 A CN106778788 A CN 106778788A CN 201710025626 A CN201710025626 A CN 201710025626A CN 106778788 A CN106778788 A CN 106778788A
Authority
CN
China
Prior art keywords
image
gray
vector
sub
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710025626.1A
Other languages
English (en)
Other versions
CN106778788B (zh
Inventor
于明
葛瑞雪
李丽莎
于洋
师硕
郭迎春
刘依
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University of Technology
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN201710025626.1A priority Critical patent/CN106778788B/zh
Publication of CN106778788A publication Critical patent/CN106778788A/zh
Application granted granted Critical
Publication of CN106778788B publication Critical patent/CN106778788B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明对图像进行美学评价的多特征融合方法,涉及一般的图像数据处理的图像分析,步骤是:输入彩色RGB图像I,并进行显著区域检测得到主体区域和背景区域;彩色RGB图像I在不同颜色空间的特征向量提取:包括提取色彩调和特征向量,提取构图特征向量,提取颜色特征向量,提取清晰度特征向量,提取纹理特征向量,提取DCT统计特征向量共六类特征向量;将提取的六类特征向量融合后利用SVM分类器将图像按美学分数高低分为两类,实现图像的美学评价,克服了现有技术利用多特征融合方法进行图像美学评价时,存在对于颜色复杂图像的美学评价效果不好,不能很好地适用于各种类型图像美学评价的缺陷。

Description

对图像进行美学评价的多特征融合方法
技术领域
本发明的技术方案涉及一般的图像数据处理的图像分析,具体地说是对图像进行美学评价的多特征融合方法。
背景技术
可计算图像美学评价的研究是利用计算机模拟人类的视觉系统与审美思维对图像进行美学评价,计算美学的概念是在2005年由欧洲计算机图形学会举办的第一届图形图像视觉计算美学学术会议上提出的,随后逐渐引起了各界学术人士的关注。可计算美学广泛应用于基于语义的图像检索、图像美学评价、图像的美学修正以及摄影的美学预测等。
2006年,宾夕法尼亚大学Datta等人通过提取一系列全局和局部视觉特征,来构建图像美学评价模型。该模型包括图像的颜色、饱和度及亮度等56个特征值,利用分类回归树算法选取其中15个最为有效的特征值,并利用支持向量机对图像进行分类,但得到的图像高低美感评价的准确率不高,主要原因是由于采用的特征是低层特征,且量化比较粗糙。2009年,新加坡国立大学的Wong等人利用了显著性增强算法来提取图像的显著区域,作为主体区域,然后利用主体区域特征、全局特征及主体和背景之间的关系的特征来区分专业照和快照,强调了主体区域在图像美学评价中的重要的作用,但并未考虑构图特征,导致分类预测的准确率不高。2011年,东京大学工业科学研究所的Nishiyama等人利用Moon-Spencer色彩调和模型,通过结合图像局部区域和Moon-Spencer色彩调和模型的分类方法实现对图像的分类,但在采样时使用的简单网格法没有考虑主体和背景颜色复杂度的不同,使得最终的分类效果不佳。2012年,浙江大学金勇等人根据基本的构图原则,设计了一个带有约束条件的二次规划能量函数,用这个函数来衡量在原始图像中视觉元素的位置和符合美学的目标位置的距离,以评估图像的组成。但他们只考虑了构图特征,没有提取颜色、清晰度和纹理等特征。2016年,华南理工大学王伟凝等人在前人的研究基础上,提取了颜色、纹理、景深和复杂度等特征,利用这些特征构建图像美学分类模型,对图像进行高低美感的分类,由于采用的色彩调和模板本身只涉及色调,没有饱和度和亮度的计算,同时选用模板时,一幅图像适用多个模板,造成难以确定适用模板的问题。CN105787966A公开了一种计算机图像的美学评估方法,该方法提出了基于对象区域构图特征,将局部高层语义特征应用于美学计算进行美学评估,主要是根据构图来进行美学分析,没有考虑色彩和纹理这些全局特征对图像美学的影响,同时没有明确说明图像美学评价的准确率。CN103218619A公开了一种图像美学评价方法,提出了图像整体区域和主体区域的低层视觉特征和高层美学特征,利用Adaboost和SVR(Support Vector Regression)算法建立了美感等级分类器和美学回归模型,该方法虽然提取了大量的特征,但其中有些特征的有效性较低,没有提高对图像美学评价的准确率。
现有技术的图像美学评价模型虽然利用多特征融合的方法来进行图像美学评价,然而由于没有考虑图像的主体区域和背景区域的颜色信息熵的不同,仍存在对于颜色复杂的图像美学评价的效果不好,不能很好地适用于各种类型图像的图像美学评价。
发明内容
本发明所要解决的技术问题是:提供对图像进行美学评价的多特征融合方法,该方法提取图像的色彩调和特征向量、颜色特征向量、构图特征向量、清晰度特征向量、纹理特征向量和DCT统计特征向量共六类特征向量,将提取的六类特征向量融合后利用SVM分类器将图像按美学分数高低分为两类,实现图像的美学评价,克服了现有技术利用多特征融合方法进行图像美学评价时,存在对于颜色复杂图像的美学评价效果不好,不能很好地适用于各种类型图像美学评价的缺陷。
本发明解决该技术问题所采用的技术方案是:对图像进行美学评价的多特征融合方法,提取图像的色彩调和特征向量、颜色特征向量、构图特征向量、清晰度特征向量、纹理特征向量和DCT统计特征向量共六类特征向量,将提取的六类特征向量融合后利用SVM分类器将图像按美学分数高低分为两类,实现图像的美学评价,具体步骤如下:
第一步,输入彩色RGB图像I,并进行显著区域检测得到主体区域和背景区域:
通过USB接口向计算机输入彩色RGB图像I,大小为w×h×3像素,其中w为图像宽度,h为图像高度,不同图像的宽度w和高度h不同,采用阿里巴巴的Yang提出的基于图的流形排序显著性检测算法对输入彩色RGB图像I进行显著区域检测,得到显著区域,之后提取包含显著区域的最小外接矩形,得到主体区域If,其余为背景区域Ib,同时得到主体区域If的中心点O(Ox,Oy);
第二步,彩色RGB图像I在不同颜色空间的特征向量提取:
(2.1)提取彩色RGB图像I在HSV、LAB和Munsell三个颜色空间的色彩调和特征向量:
这里分为以下三个阶段进行:
第一阶段,图像的分块:将上述第一步中主体区域If和背景区域Ib分别转换为HSV空间中的图像Ifh和Ibh,然后分别采用循环的方式进行分块,在进行分块时,每次分块的块数为N1×N1,进而计算每个子块的颜色信息熵值和像素个数,当子块的颜色信息熵的值小于阈值Tc或子块的像素个数小于阈值S时,不再进行分块,否则,继续进行分块;
第二阶段,确定子块的主颜色:将上述第一步中的彩色RGB图像I转换到LAB空间图像ILAB进行SLIC超像素分割,得到超像素标签,并统计上述(2.1)步第一阶段中划分的各子块中超像素的标签,数量最多的超像素标签的超像素区域是该子块的主颜色区,即可得到该子块的主颜色;
第三阶段,计算色调特征向量nh和明度及彩度特征向量nvc,得到色彩调和特征向量:
将上述(2.1)步第一阶段得到的子块由HSV颜色空间转换到Munsell颜色空间,得到色调Hue、明度V和彩度C三个分量,分别提取色调特征值、明度与彩度合并的特征值,具体步骤如下:
首先,对上述(2.1)步第一阶段得到的每个子块进行色调分量Hue的特征值提取:将子块中的每个像素的色调分量值减去上述(2.1)步第二阶段中得到的该子块主颜色的色调分量值,得到该像素的色调差值HS,根据Moon-Spencer色彩调和模型,确定色调差值HS是否和谐,判断色调是否和谐的符号函数sgn公式如(1)所示:
统计与主色调和谐的像素个数,并将和谐的像素个数与当前子块总的像素个数的比作为此子块的色调分量Hue的特征值,具体公式如(2)所示:
hi=Numhi/mi,i=1,...,Z (2),
其中Numhi为第i个图像子块内色调和谐的像素点的个数,mi为该子块总的像素点的个数,当计算主体区域的色调分量Hue的特征值时,Z为主体区域的分块个数,当计算背景区域的色调分量Hue的特征值时,Z为背景区域的分块个数;
其次,对每个子块进行明度分量V和彩度分量C的特征值提取:对上述(2.1)步第一阶段得到的每个子块中的每个像素的明度值减去上述(2.1)步第二阶段中该子块主颜色的明度值得到明度差值VS,子块中的每个像素的彩度值减去上述(2.1)步第二阶段中该子块主颜色的彩度值得到彩度差值CS,将明度差值VS及彩度差值CS合并作为一个特征值根据Moon-Spencer色彩调和模型,判断明度及彩度是否和谐,公式如(3)所示:
其中,firE、secE和thirE分别是衡量像素与所属子块主颜色的明度差值VS及彩度差值CS是否落在Munsell颜色空间中三个椭圆区域内的度量值,当sgn(VS,CS)值为1时,表明当前像素点的明度及彩度和谐,统计子块i中明度及彩度和谐的像素点的个数Numvci,计算其与子块i总的像素点的个数mi的比值,得到子块i的明度及彩度的特征值vci
vci=Numvci/mi,i=1,...,Z (4),
最后,计算所有子块的色调特征值组合得到整个图像的色调特征向量h=[h1,h2,..,hZ],并计算所有子块的明度及彩度特征值组合得到整个图像的明度及彩度特征向量vc=[vc1,vc2,…,vcZ],然后把得到的色调特征向量h、明度及彩度特征向量vc分别归一化到[0,1]区间,并将该区间进行R等分,根据落在每个子区间的色调特征值和明度及彩度特征值个数得到色调特征向量nh和明度及彩度特征向量nvc,如公式(5)、(6)所示,
nh={Nh1,Nh2,...,NhR} (5),
nvc={Nvc1,Nvc2,...,NvcR} (6),
其中,Nhi为色调特征值在第i个子区间的数量,Nvci为明度及彩度特征值在第i个子区间的数量,i=1,2,…,R,这里R取10;
色调特征向量nh和明度及彩度特征向量nvc合称为色调调和特征向量,由此完成提取图像在Munsell颜色空间的色彩调和特征向量的提取;
(2.2)提取彩色RGB图像I的构图特征向量:
对上述第一步中的彩色RGB图像I同时采用以下两个构图准则提取构图特征向量:
第一个构图准则是三分法则,步骤是:将上述第一步中彩色RGB图像I的宽度w和高度h均分为三等分,得到四个交叉点(xj,yj),根据上述第一步得到的主体区域If的中心点O(Ox,Oy),计算中心点O到三分法则的四个交叉点(xj,yj)最近的归一化欧式距离d,j=1,2,3,4,具体公式如(7)所示:
第二个构图准则是主体区域大小与整个图像大小的比,步骤是:根据上述第一步得到的彩色RGB图像I和主体区域If,计算主体区域If像素点的个数与整个彩色RGB图像I像素点的个数比ratio,具体如公式(8),
ratio=num/(w×h) (8),
其中,num为主体区域总像素点的个数;
由上述两个构图准则得到的中心点到四个交叉点最近的归一化欧式距离和主体区域与整个彩色RGB图像像素点的个数比组成构图特征向量,由此完成构图特征向量的提取;
(2.3)提取彩色RGB图像I在HSV空间的颜色特征向量:
从两方面来提取彩色RGB图像I的颜色特征向量:
第一个方面是提取颜色矩特征向量,将上述第一步中彩色RGB图像I转换到HSV颜色空间的图像Ihsv,在H、S和V三个通道上,分别计算一阶矩μ、二阶矩σ和三阶矩ε,计算公式如下式(9)所示:
其中,pj,k为第j个像素点在第k个通道上的分量,k=1,2,3分别代表H、S、V分量,由H、S和V三个通道上的一阶矩、二阶矩和三阶矩组成颜色矩特征向量,由此提取得到彩色RGB图像I在HSV空间的颜色矩特征向量;
第二个方面是提取主体和背景的颜色差异特征向量,对上述第一步中的彩色RGB图像I的主体区域If和背景区域Ib分别在R、G、B三个通道上,统计颜色直方图,直方图分为L级(L=256),根据公式(10)来衡量主体和背景的差异diffc
其中,fl,c、bl,c分别为主体区域和背景区域在第c个通道上第l级颜色直方图的大小,c=1,2,3分别代表R、G、B分量,由R、G、B三个通道的主体和背景的差异组成主体和背景的颜色差异特征向量,由此提取得到主体和背景的颜色差异特征向量;
由上述的颜色矩特征向量和颜色差异特征向量构成彩色RGB图像I在HSV空间的颜色特征向量,由此完成彩色RGB图像I的颜色特征向量的提取;
(2.4)提取彩色RGB图像I转换为灰度图像Igray后的清晰度特征向量:
将上述第一步中的彩色RGB图像I转换为灰度图像Igray,其中的主体区域转换为灰度图像后标注为Ifgray,然后将二者分别进行快速傅里叶变换,用公式(11)计算傅里叶变换后的FFT(Igray)和傅里叶变换后的主体区域的FFT(Ifgray)中大于等于阈值T的像素点个数与所计算区域总的像素点的个数比值,得到灰度图像Igray的清晰度特征值Degray和主体区域的灰度图Ifgray的清晰度特征值Def
其中,T=8为阈值,ngray为灰度图像Igray中大于等于阈值T的像素点的个数,nf为主体区域的灰度图Ifgray中大于等于阈值T的像素点的个数,num为主体区域总的像素点的个数,由灰度图像Igray的清晰度特征值Degray和主体区域的灰度图Ifgray的清晰度特征值Def组成灰度图像的清晰度特征向量,由此提取得到灰度图像的清晰度特征向量;
(2.5)提取彩色RGB图像I转换为灰度图像Igray后的纹理特征向量:
将上述第一步中的彩色RGB图像I转为灰度图像Igray,然后从基于Tamura纹理的特征和基于可控金字塔特征两个方面来提取其纹理特征,得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个基于Tamura纹理的纹理特征值,以及灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征共同构成图像的纹理特征向量,由此完成提取纹理特征向量;
(2.6)提取彩色RGB图像I转换为灰度图像Igray后的DCT统计特征向量:
将上述第一步得到的彩色RGB图像I转为灰度图像Igray,对灰度图像Igray进行一次高斯滤波且经过下采样,得到宽和高各为灰度图像Igray的1/2的图像Igauss1,将得到的图像Igauss1再进行一次高斯滤波且经过下采样,得到宽和高各为Igray的1/4的图像Igauss2,然后将得到的灰度图像Igray、图像Igauss1和图像Igauss2都均分成像素大小为N2×N2的子块,然后对每个子块进行DCT变换,舍弃每个子块的直流系数,保留非直流系数,采用广义高斯模型来模拟DCT系数分布,采用灰度图像Igray均值μgray、图像Igauss1均值μgauss1、图像Igauss2均值μgauss2、灰度图像Igray平均方差图像Igauss1平均方差图像Igauss2平均方差灰度图像Igray形状参数γgray、图像Igauss1形状参数γgauss1和图像Igauss2形状参数γgauss2作为美学度量的特征,具体公式如(12)-(17)所示:
1)计算灰度图像Igray均值μgray、图像Igauss1均值μgauss1和图像Igauss2均值μgauss2
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2中第r子块的均值μgray,r、μgauss1,r和μgauss2,r,如下式(12)所示:
其中,dgray,r,c、dgauss1,r,c、dgauss2,r,c分别为灰度图像Igray、图像Igauss1和图像Igauss2中第r个子块中经过DCT变换后的系数,
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的均值μgray、μgauss1和μgauss2,如下式(13)所示:
其中,Zgray、Zgauss1、Zgauss2分别为灰度图像Igray、图像Igauss1和图像Igauss2的子块数量,由此得到灰度图像Igray均值μgray、图像Igauss1均值μgauss1和图像Igauss2均值μgauss2
2)分别计算灰度图像Igray、图像Igauss1和图像Igauss2的平均方差
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2中第r子块的方差如下式(14)所示:
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的平均方差如下式(15)所示:
由此得到灰度图像Igray、图像Igauss1和图像Igauss2所有子块的平均方差
3)分别计算灰度图像Igray、图像Igauss1和图像Igauss2的形状参数γgray、γgauss1和γgauss2
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2的第r个子块的形状参数γgray,r、γgauss1,r和γgauss2,r的估计如下式(16),
其中,R(x)=Γ2(2/x)/(Γ(1/x)×Γ(3/x));
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的形状参数 的均值即灰度图像Igray、图像Igauss1和图像Igauss2的形状参数γgray、γgauss1和γgauss2,如下式(17)所示:
由此得到灰度图像Igray形状参数γgray、图像Igauss1形状参数γgauss1和图像Igauss2形状参数γgauss2
综合(2.6)步中的1)、2)和3)步,完成彩色RGB图像I转换为灰度图像Igray后的DCT统计特征向量的提取;
第三步,使用支持向量机对图像进行高低美感的分类:
将第二步得到的所有特征串联起来,输入核函数为RBF的支持向量机,进行训练,在本专利中,参数s为0、t为2、c和g采用五折交叉验证法选取最佳值,得到图像美学分类模型,利用此分类模型将输入的图像分为高、低美感两类,至此实现对图像进行美学评价。
上述对图像进行美学评价的多特征融合方法,所述第二步的(2.1)步的第一阶段中,在进行分块时,每次分块的块数为N1×N1=3×3。
上述对图像进行美学评价的多特征融合方法,所述第二步的(2.1)步的第一阶段中,颜色信息熵的计算过程为:首先,根据下述公式(18)将每个子块中的每个像素的H、S和V分量进行量化,
然后,将每个像素的Hq、Sq、Vq加权组合成像素值Q,如下公式(19):
Q=q1Hq+q2Sq+q3Vq (19),
其中,q1、q2和q3均为常量;
最后,根据每个像素的Q值统计得到图像子块的直方图,依此直方图计算每个子块的颜色信息熵。
上述对图像进行美学评价的多特征融合方法,所述第二步中的从基于Tamura纹理来提取其纹理特征,得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个基于Tamura纹理的纹理特征值的具体步骤如下:
1)提取灰度图像Igray的粗糙度特征值:
第一阶段,计算有效范围内灰度的平均值,有效范围为x∈[2(t-1)+1,w-2(t-1)],y∈[2(t-1)+1,h-2(t-1)],当窗口大小为2t×2t时,计算有效范围内每个像素点(x,y)的2t×2t邻域内灰度的平均值Mt(x,y),具体公式如(20)所示:
其中,Igray(x′,y′)为像素点(x′,y′)的灰度值;
第二阶段,计算在水平和垂直方向上不重叠的窗口之间的灰度差,具体公式如(21)、(22)所示:
Cth(x,y)=|Mt(x+2t-1,y)-Mt(x-2t-1,y)| (21),
Ctv(x,y)=|Mt(x,y+2t-1)-Mt(x,y-2t-1)| (22),
其中,Cth(x,y)为水平方向灰度差,Ctv(x,y)为垂直方向灰度差;
第三阶段,寻找使水平方向灰度差Cth(x,y)或垂直方向灰度差Ctv(x,y)达到最大的topt,如下公式(23a)所示,由此得到每个像素点的最优窗口大小因此,整个图像粗糙度的定义如下(23b)所示:
topt=argmax{Cth(x,y),Ctv(x,y)} (23a),
其中,由此提取得到灰度图像Igray的粗糙度特征值;
2)提取灰度图像Igray的对比度特征值:
图像对比度具体计算公式如(24)所示:
其中,μgray为灰度图像Igray灰度值的均值,σgray为灰度图像Igray的灰度值标准差;由此提取得到灰度图像Igray的对比度特征值;
3)提取灰度图像Igray的方向度特征值:
第一阶段,使用GradH和GradV两个算子与灰度图像Igray进行卷积运算,根据卷积运算结果计算上述第一步得到的灰度图像Igray中像素点(x,y)的梯度向量的模和方向,GradH和GradV算子如(25)所示:
灰度图像Igray的水平方向的梯度向量MHConv和垂直方向的梯度向量MVConv如下式(26),
其中,conv()表示卷积;
然后,计算图像Igray像素点(x,y)的梯度向量的模|MG(x,y)|和方向θ(x,y),如下式(27):
第二阶段,根据上述提取灰度图像Igray的方向度特征值的第一阶段得到的各像素点的梯度向量,构造方向统计直方图:将[0,π]进行R等分,每一区间的间隔为g=π/R,取每个区间上的最大弧度φ,统计θ对应的每个区间内|MG(x,y)|大于阈值T0的像素点的数量,构造统计直方图H;
第三阶段,根据上述提取灰度图像Igray的方向度特征值的第二阶段得到的方向统计直方图H和每个区间的最大弧度φ,计算其方向度特征值,具体计算公式如(28)所示:
其中,D为直方图H中所有波峰的集合,d为集合中的某一波峰,φd为波峰d所在的弧度,wd为波峰d到左右第一个波谷间所有弧度的集合,H(φ)为φ在直方图H中的幅值,由此提取得到灰度图像Igray的方向度特征值;
至此得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个纹理特征组成的纹理特征向量。
上述对图像进行美学评价的多特征融合方法,所述第二步的(2.5)步中从基于可控金字塔特征方面来提取其纹理特征,即提取灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征共同构成图像的纹理特征向量的具体步骤如下:
将上述第一步得到的彩色RGB图像I转为灰度图像Igray,对灰度图像Igray采用可控金字塔进行2个尺度6个方向的分解,共得到M个子带,这里M=12,其中,尺度A∈{1,2},方向θ∈{0°,30°,60°,90°,120°,150°},采用子带系数的能量向量Ee、熵向量Ep和尺度间子带的能量差向量Ec进行纹理特征度量,公式如(29)-(34):
子带系数的能量向量Ee:
Ee={Ee1,Ee2,...,EeM} (30),
其中,m=1,2,3,…,M,cm,nu为子带m的第nu个系数,Nsize为子带m的大小;
尺度间子带的能量差向量Ec:
Ecm=Eem-Eem+M/2 (31),
Ec={Ec1,Ec2,...,EcM/2} (32);
子带系数的熵向量Ep:
Ep={Ep1,Ep2,...,EpM} (34);
上述式(33)中将Q个子带系数中的最大值与最小值之间平均分为12个区间,pm,n为第m个子带中系数落在第n个区间的概率;
至此得到灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征向量。
上述对图像进行美学评价的多特征融合方法,所述第二步的(2.6)步中的将得到的灰度图像Igray、图像Igauss1和图像Igauss2都均分成像素大小为N2×N2=8×8的子块。
上述对图像进行美学评价的多特征融合方法,所述SLIC超像素分割、Tamura纹理、可控金字塔和支持向量机是本技术领域公知的。
本发明的有益效果是:与现有技术相比,本发明的突出的实质性特点和显著进步如下:
(1)本发明方法从多个颜色空间中提取图像的色彩调和特征向量、颜色特征向量、构图特征向量、清晰度特征向量、纹理特征向量和DCT统计特征向量共六类图像特征向量,从不同角度提取的特征向量,丰富了图像美学评价特征,其中,色彩调和特征向量的提取、纹理特征向量的提取及把图像的DCT统计特征向量应用到图像美学评价中是本发明方法的创新,本发明方法克服了现有的基于多特征融合的美学评价方法在对颜色复杂的图像进行美学评价时效果不好,且不能适用于各种类型图像美学评价的缺陷。
(2)在色彩调和特征方面,本发明方法对主体和背景分别进行分块,减少了由于没有考虑主体区域和背景区域的颜色信息熵的不同,造成冗余计算量,确定分块内的主颜色,并利用Moon-Spencer色彩调和模型进行色彩调和性的计算,根据Moon-Spencer色彩调和模型,确定色调、明度及彩度是否和谐,避免了Matsuda调和模板只考虑色调调和程度,比较难以确定适用的模板的缺点,更加有效地度量了图像的色彩调和特征。
(3)在纹理特征方面,本发明方法改进从基于Tamura纹理的特征和基于可控金字塔特征两个方面来提取图像的纹理特征向量,使得图像的纹理特征向量包含了全局和局部特征向量,从而更精确地提取了图像的纹理特征向量。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明方法的流程示意图。
具体实施方式
图1所示实施例表明,本发明方法的流程是:输入彩色RGB图像I,并进行显著区域检测得到主体区域和背景区域→彩色RGB图像I在不同颜色空间的特征向量提取:包括提取色彩调和特征向量;提取彩色RGB图像I的构图特征向量;提取颜色特征向量;提取清晰度特征向量;提取纹理特征向量;提取DCT统计特征向量→使用支持向量机对图像进行高低美感的分类。
实施例1
第一步,输入彩色RGB图像I,并进行显著区域检测得到主体区域和背景区域:
通过USB接口向计算机输入彩色RGB图像I,大小为w×h×3像素,其中w为图像宽度,h为图像高度,不同图像的宽度w和高度h不同,采用阿里巴巴的Yang提出的基于图的流形排序显著性检测算法对输入彩色RGB图像I进行显著区域检测,得到显著区域,之后提取包含显著区域的最小外接矩形,得到主体区域If,其余为背景区域Ib,同时得到主体区域If的中心点O(Ox,Oy);
第二步,彩色RGB图像I在不同颜色空间的特征向量提取:
(2.1)提取彩色RGB图像I在HSV、LAB和Munsell三个颜色空间的色彩调和特征向量:
这里分为以下三个阶段进行:
第一阶段,图像的分块:将上述第一步中主体区域If和背景区域Ib分别转换为HSV空间中的图像Ifh和Ibh,然后分别采用循环的方式进行分块,在进行分块时,每次分块的块数为N1×N1=3×3,进而计算每个子块的颜色信息熵值和像素个数,当子块的颜色信息熵的值小于阈值Tc或子块的像素个数小于阈值S时,不再进行分块,否则,继续进行分块,
上述颜色信息熵的计算过程为:首先,根据下述公式(18)将每个子块中的每个像素的H、S和V分量进行量化,
然后,将每个像素的Hq、Sq、Vq加权组合成像素值Q,如下公式(19):
Q=q1Hq+q2Sq+q3Vq (19),
其中,q1、q2和q3均为常量;
最后,根据每个像素的Q值统计得到图像子块的直方图,依此直方图计算每个子块的颜色信息熵;
第二阶段,确定子块的主颜色:将上述第一步中的彩色RGB图像I转换到LAB空间图像ILAB进行SLIC超像素分割,得到超像素标签,并统计上述(2.1)步第一阶段中划分的各子块中超像素的标签,数量最多的超像素标签的超像素区域是该子块的主颜色区,即可得到该子块的主颜色;
第三阶段,计算色调特征向量nh和明度及彩度特征向量nvc,得到色彩调和特征向量:
将上述(2.1)步第一阶段得到的子块由HSV颜色空间转换到Munsell颜色空间,得到色调Hue、明度V和彩度C三个分量,分别提取色调特征值、明度与彩度合并的特征值,具体步骤如下:
首先,对上述(2.1)步第一阶段得到的每个子块进行色调分量Hue的特征值提取:将子块中的每个像素的色调分量值减去上述(2.1)步第二阶段中得到的该子块主颜色的色调分量值,得到该像素的色调差值HS,根据Moon-Spencer色彩调和模型,确定色调差值HS是否和谐,判断色调是否和谐的符号函数sgn公式如(1)所示:
统计与主色调和谐的像素个数,并将和谐的像素个数与当前子块总的像素个数的比作为此子块的色调分量Hue的特征值,具体公式如(2)所示:
hi=Numhi/mi,i=1,...,Z (2),
其中Numhi为第i个图像子块内色调和谐的像素点的个数,mi为该子块总的像素点的个数,当计算主体区域的色调分量Hue的特征值时,Z为主体区域的分块个数,当计算背景区域的色调分量Hue的特征值时,Z为背景区域的分块个数;
其次,对每个子块进行明度分量V和彩度分量C的特征值提取:对上述(2.1)步第一阶段得到的每个子块中的每个像素的明度值减去上述(2.1)步第二阶段中该子块主颜色的明度值得到明度差值VS,子块中的每个像素的彩度值减去上述(2.1)步第二阶段中该子块主颜色的彩度值得到彩度差值CS,将明度差值VS及彩度差值CS合并作为一个特征值根据Moon-Spencer色彩调和模型,判断明度及彩度是否和谐,公式如(3)所示:
其中,firE、secE和thirE分别是衡量像素与所属子块主颜色的明度差值VS及彩度差值CS是否落在Munsell颜色空间中三个椭圆区域内的度量值,当sgn(VS,CS)值为1时,表明当前像素点的明度及彩度和谐,统计子块i中明度及彩度和谐的像素点的个数Numvci,计算其与子块i总的像素点的个数mi的比值,得到子块i的明度及彩度的特征值vci
vci=Numvci/mi,i=1,...,Z (4),
其中,Numvci为第i个图像子块内明度及彩度和谐的像素点的个数,mi为该子块总的像素点的个数;
最后,计算所有子块的色调特征值组合得到整个图像的色调特征向量h=[h1,h2,..,hZ],并计算所有子块的明度及彩度特征值组合得到整个图像的明度及彩度特征向量vc=[vc1,vc2,…,vcZ],然后把得到的色调特征向量h、明度及彩度特征向量vc分别归一化到[0,1]区间,并将该区间进行R等分,根据落在每个子区间的色调特征值和明度及彩度特征值个数得到色调特征向量nh和明度及彩度特征向量nvc,如公式(5)、(6)所示,
nh={Nh1,Nh2,...,NhR} (5),
nvc={Nvc1,Nvc2,...,NvcR} (6),
其中,Nhi为色调特征值在第i个子区间的数量,Nvci为明度及彩度特征值在第i个子区间的数量,i=1,2,…,R,这里R取10;
色调特征向量nh和明度及彩度特征向量nvc合称为色调调和特征向量,由此完成提取图像在Munsell颜色空间的色彩调和特征向量的提取;
(2.2)提取彩色RGB图像I的构图特征向量:
对上述第一步中的彩色RGB图像I同时采用以下两个构图准则提取构图特征向量:
第一个构图准则是三分法则,步骤是:将上述第一步中彩色RGB图像I的宽度w和高度h均分为三等分,得到四个交叉点(xj,yj),根据上述第一步得到的主体区域If的中心点O(Ox,Oy),计算中心点O到三分法则的四个交叉点(xj,yj)最近的归一化欧式距离d,j=1,2,3,4,具体公式如(7)所示:
第二个构图准则是主体区域大小与整个图像大小的比,步骤是:根据上述第一步得到的彩色RGB图像I和主体区域If,计算主体区域If像素点的个数与整个彩色RGB图像I像素点的个数比ratio,具体如公式(8),
ratio=num/(w×h) (8),
其中,num为主体区域总像素点的个数;
由上述两个构图准则得到的中心点到四个交叉点最近的归一化欧式距离和主体区域与整个彩色RGB图像像素点的个数比组成构图特征向量,由此完成构图特征向量的提取;
(2.3)提取彩色RGB图像I在HSV空间的颜色特征向量:
从两方面来提取彩色RGB图像I的颜色特征向量:
第一个方面是提取颜色矩特征向量,将上述第一步中彩色RGB图像I转换到HSV颜色空间的图像Ihsv,在H、S和V三个通道上,分别计算一阶矩μ、二阶矩σ和三阶矩ε,计算公式如下式(9)所示:
其中,pj,k为第j个像素点在第k个通道上的分量,k=1,2,3分别代表H、S、V分量,由H、S和V三个通道上的一阶矩、二阶矩和三阶矩组成颜色矩特征向量,由此提取得到彩色RGB图像I在HSV空间的颜色矩特征向量;
第二个方面是提取主体和背景的颜色差异特征向量,对上述第一步中的彩色RGB图像I的主体区域If和背景区域Ib分别在R、G、B三个通道上,统计颜色直方图,直方图分为L级(L=256),根据公式(10)来衡量主体和背景的差异diffc
其中,fl,c、bl,c分别为主体区域和背景区域在第c个通道上第l级颜色直方图的大小,c=1,2,3分别代表R、G、B分量,由R、G、B三个通道的主体和背景的差异组成主体和背景的颜色差异特征向量,由此提取得到主体和背景的颜色差异特征向量;
由上述的颜色矩特征向量和颜色差异特征向量构成彩色RGB图像I在HSV空间的颜色特征向量,由此完成彩色RGB图像I的颜色特征向量的提取;
(2.4)提取彩色RGB图像I转换为灰度图像Igray后的清晰度特征向量:
将上述第一步中的彩色RGB图像I转换为灰度图像Igray,其中的主体区域转换为灰度图像后标注为Ifgray,然后将二者分别进行快速傅里叶变换,用公式(11)计算傅里叶变换后的FFT(Igray)和傅里叶变换后的主体区域的FFT(Ifgray)中大于等于阈值T的像素点个数与所计算区域总的像素点的个数比值,得到灰度图像Igray的清晰度特征值Degray和主体区域的灰度图Ifgray的清晰度特征值Def
其中,T=8为阈值,ngray为灰度图像Igray中大于等于阈值T的像素点的个数,nf为主体区域的灰度图Ifgray中大于等于阈值T的像素点的个数,num为主体区域总的像素点的个数,由灰度图像Igray的清晰度特征值Degray和主体区域的灰度图Ifgray的清晰度特征值Def组成灰度图像的清晰度特征向量,由此提取得到灰度图像的清晰度特征向量;
(2.5)提取彩色RGB图像I转换为灰度图像Igray后的纹理特征向量:
将上述第一步中的彩色RGB图像I转为灰度图像Igray,然后从基于Tamura纹理的特征和基于可控金字塔特征两个方面来提取其纹理特征,得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个纹理特征值,以及灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征共同构成图像的纹理特征向量,由此完成提取纹理特征向量;
上述从基于Tamura纹理的特征方面来提取其纹理特征,得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个基于Tamura纹理的纹理特征值的具体步骤如下:
1)提取灰度图像Igray的粗糙度特征值:
第一阶段,计算有效范围内灰度的平均值,有效范围为x∈[2(t-1)+1,w-2(t-1)],y∈[2(t-1)+1,h-2(t-1)],当窗口大小为2t×2t时,计算有效范围内每个像素点(x,y)的2t×2t邻域内灰度的平均值Mt(x,y),具体公式如(20)所示:
其中,Igray(x′,y′)为像素点(x′,y′)的灰度值;
第二阶段,计算在水平和垂直方向上不重叠的窗口之间的灰度差,具体公式如(21)、(22)所示:
Cth(x,y)=|Mt(x+2t-1,y)-Mt(x-2t-1,y)| (21),
Ctv(x,y)=|Mt(x,y+2t-1)-Mt(x,y-2t-1)| (22),
其中,Cth(x,y)为水平方向灰度差,Ctv(x,y)为垂直方向灰度差;
第三阶段,寻找使水平方向灰度差Cth(x,y)或垂直方向灰度差Ctv(x,y)达到最大的topt,如下公式(23a)所示,由此得到每个像素点的最优窗口大小因此,整个图像粗糙度的定义如下(23b)所示:
topt=argmax{Cth(x,y),Ctv(x,y)} (23a),
其中,由此提取得到灰度图像Igray的粗糙度特征值;
2)提取灰度图像Igray的对比度特征值:
图像对比度具体计算公式如(24)所示:
其中,μgray为灰度图像Igray灰度值的均值,σgray为灰度图像Igray的灰度值标准差;由此提取得到灰度图像Igray的对比度特征值;
3)提取灰度图像Igray的方向度特征值:
第一阶段,使用GradH和GradV两个算子与灰度图像Igray进行卷积运算,根据卷积运算结果计算上述第一步得到的灰度图像Igray中像素点(x,y)的梯度向量的模和方向,GradH和GradV算子如(25)所示:
灰度图像Igray的水平方向的梯度向量MHConv和垂直方向的梯度向量MVConv如下式(26),
其中,conv()表示卷积;
然后,计算图像Igray像素点(x,y)的梯度向量的模|MG(x,y)|和方向θ(x,y),如下式(27):
第二阶段,根据上述提取灰度图像Igray的方向度特征值的第一阶段得到的各像素点的梯度向量,构造方向统计直方图:将[0,π]进行R等分,每一区间的间隔为g=π/R,取每个区间上的最大弧度φ,统计θ对应的每个区间内|MG(x,y)|大于阈值T0的像素点的数量,构造统计直方图H;
第三阶段,根据上述提取灰度图像Igray的方向度特征值的第二阶段得到的方向统计直方图H和每个区间的最大弧度φ,计算其方向度特征值,具体计算公式如(28)所示:
其中,D为直方图H中所有波峰的集合,d为集合中的某一波峰,φd为波峰d所在的弧度,wd为波峰d到左右第一个波谷间所有弧度的集合,H(φ)为φ在直方图H中的幅值,由此提取得到灰度图像Igray的方向度特征值;
至此得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个纹理特征组成的纹理特征向量。
上述基于可控金字塔特征方面来提取其纹理特征,即提取灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征共同构成图像的纹理特征向量的具体步骤如下:
将上述第一步得到的彩色RGB图像I转为灰度图像Igray,对灰度图像Igray采用可控金字塔进行2个尺度6个方向的分解,共得到M个子带,这里M=12,其中,尺度A∈{1,2},方向θ∈{0°,30°,60°,90°,120°,150°},采用子带系数的能量向量Ee、熵向量Ep和尺度间子带的能量差向量Ec进行纹理特征度量,公式如(29)-(34):
子带系数的能量向量Ee:
Ee={Ee1,Ee2,...,EeM} (30),
其中,m=1,2,3,…,M,cm,nu为子带m的第nu个系数,Nsize为子带m的大小;
尺度间子带的能量差向量Ec:
Ecm=Eem-Eem+M/2 (31),
Ec={Ec1,Ec2,...,EcM/2} (32);
子带系数的熵向量Ep:
Ep={Ep1,Ep2,...,EpM} (34);
上述式(33)中将Q个子带系数中的最大值与最小值之间平均分为12个区间,pm,n为第m个子带中系数落在第n个区间的概率;
至此得到灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征向量。
(2.6)提取彩色RGB图像I转换为灰度图像Igray后的DCT统计特征向量:
将上述第一步得到的彩色RGB图像I转为灰度图像Igray,对灰度图像Igray进行一次高斯滤波且经过下采样,得到宽和高各为灰度图像Igray的1/2的图像Igauss1,将得到的图像Igauss1再进行一次高斯滤波且经过下采样,得到宽和高各为Igray的1/4的图像Igauss2,然后将得到的灰度图像Igray、图像Igauss1和图像Igauss2都均分成像素大小为N2×N2=8×8的子块,然后对每个子块进行DCT变换,舍弃每个子块的直流系数,保留非直流系数,采用广义高斯模型来模拟DCT系数分布,采用灰度图像Igray均值μgray、图像Igauss1均值μgauss1、图像Igauss2均值μgauss2、灰度图像Igray平均方差图像Igauss1平均方差图像Igauss2平均方差灰度图像Igray形状参数γgray、图像Igauss1形状参数γgauss1和图像Igauss2形状参数γgauss2作为美学度量的特征,具体公式如(12)-(17)所示:
1)计算灰度图像Igray均值μgray、图像Igauss1均值μgauss1和图像Igauss2均值μgauss2
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2中第r子块的均值μgray,r、μgauss1,r和μgauss2,r,如下式(12)所示:
其中,dgray,r,c、dgauss1,r,c、dgauss2,r,c分别为灰度图像Igray、图像Igauss1和图像Igauss2中第r个子块中经过DCT变换后的系数,
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的均值μgray、μgauss1和μgauss2,如下式(13)所示:
其中,Zgray、Zgauss1、Zgauss2分别为灰度图像Igray、图像Igauss1和图像Igauss2的子块数量,由此得到灰度图像Igray均值μgray、图像Igauss1均值μgauss1和Igauss2均值μgauss2
2)分别计算灰度图像Igray、图像Igauss1和图像Igauss2的平均方差
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2中第r子块的方差如下式(14)所示:
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的平均方差如下式(15)所示:
由此得到灰度图像Igray、图像Igauss1和图像Igauss2所有子块的平均方差
3)分别计算灰度图像Igray、图像Igauss1和图像Igauss2的形状参数γgray、γgauss1和γgauss2
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2的第r个子块的形状参数γgray,r、γgauss1,r和γgauss2,r的估计如下式(16),
其中,R(x)=Γ2(2/x)/(Γ(1/x)×Γ(3/x));
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的形状参数 的均值即灰度图像Igray、图像Igauss1和图像Igauss2的形状参数γgray、γgauss1和γgauss2,如下式(17)所示:
由此得到灰度图像Igray形状参数γgray、图像Igauss1形状参数γgauss1和图像Igauss2形状参数γgauss2
综合(2.6)步中的1)、2)和3)步,完成彩色RGB图像I转换为灰度图像Igray后的DCT统计特征向量的提取;
第三步,使用支持向量机对图像进行高低美感的分类:
将第二步得到的所有特征串联起来,输入核函数为RBF的支持向量机,进行训练,在本专利中,参数s为0、t为2、c和g采用五折交叉验证法选取最佳值,得到图像美学分类模型,利用此分类模型将输入的图像分为高、低美感两类,本实施例中,将分数大于等于5.8的图像划分为高美感图像,将分数小于等于4.2的图像划分为低美感图像,至此实现对图像进行美学评价。
本发明方法利用OPENCV平台实现,处理器是因特尔i7,8G内存,使用的是宾夕法尼亚大学Datta构建的数据库,从中分别随机选取了高美感图像750张,低美感图像644张,共1394张图像,来进行测试和训练。其中,本专利随机选取一半的高美感图像和一半的低美感图像作为训练集,余下的作为测试集。
本实施例不仅对每类特征向量进行单独测试,而且也对整体进行了测试。具体如表1所示。其中,准确率指的是被正确分类的图像数量与所有测试图像数量的比,即平均准确率。
表1Datta数据库中各类特征的分类准确率
从表1中可以看到,在所有特征向量中,纹理特征向量的分类准确率最高,为73.19%。DCT统计特征向量准确率次之,色彩调和特征向量的准确率排名第三。这说明了本发明提出的色彩调和度量方法和图像的DCT统计特征向量对图像美学评价的有效性。从提出的所有特征向量来看,单个特征向量的准确率不是很高,但所有特征向量级联起来的准确率为82.04%,效果较好,证明了本发明方法的有效性,同时也说明了各类特征向量起到了相互补充的作用。
实施例2
将本发明方法与现有技术中目前流行的图像美学评价方法进行了实验对比,实验结果如表2所示,现有技术中目前流行的图像美学评价方法是Datta方法、Wong提出的方法以及Wang提出的方法。
表2在Datta数据库上本发明和其他算法准确率的比较结果
从表2中可以看出,本发明方法的准确率为82.04%。Datta方法的准确率最低,为70.12%。Wong方法比Datta方法要好些,准确率为78.8%。Wang方法的准确率为82.4%,比本专利方法的准确率要高。原因是:在本发明方法中,共提取了6类特征向量,总维数为78。在Wang提出的方法中,特征的总维数为86,比本发明方法的维数要多,但是从效率上,本发明方法比Wang提出的方法具有更大的优越性。除此之外,本专利使用的高美感图像750张,低美感图像644张,都是分别从Datta数据库高低美感图像中随机选取的,所以本发明方法也更具有普遍性。
上述实施例中,所述SLIC超像素分割、Tamura纹理、可控金字塔、支持向量机是本技术领域公知的。

Claims (6)

1.对图像进行美学评价的多特征融合方法,其特征在于:提取图像的色彩调和特征向量、颜色特征向量、构图特征向量、清晰度特征向量、纹理特征向量和DCT统计特征向量共六类特征向量,将提取的六类特征向量融合后利用SVM分类器将图像按美学分数高低分为两类,实现对图像进行美学评价,具体步骤如下:
第一步,输入彩色RGB图像I,并进行显著区域检测得到主体区域和背景区域:
通过USB接口向计算机输入彩色RGB图像I,大小为w×h×3像素,其中w为图像宽度,h为图像高度,不同图像的宽度w和高度h不同,采用阿里巴巴的Yang提出的基于图的流形排序显著性检测算法对输入彩色RGB图像I进行显著区域检测,得到显著区域,之后提取包含显著区域的最小外接矩形,得到主体区域If,其余为背景区域Ib,同时得到主体区域If的中心点O(Ox,Oy);
第二步,彩色RGB图像I在不同颜色空间的特征向量提取:
(2.1)提取彩色RGB图像I在HSV、LAB和Munsell三个颜色空间的色彩调和特征向量:
这里分为以下三个阶段进行:
第一阶段,图像的分块:将上述第一步中主体区域If和背景区域Ib分别转换为HSV空间中的图像Ifh和Ibh,然后分别采用循环的方式进行分块,在进行分块时,每次分块的块数为N1×N1,进而计算每个子块的颜色信息熵值和像素个数,当子块的颜色信息熵的值小于阈值Tc或子块的像素个数小于阈值S时,不再进行分块,否则,继续进行分块;
第二阶段,确定子块的主颜色:将上述第一步中的彩色RGB图像I转换到LAB空间图像ILAB进行SLIC超像素分割,得到超像素标签,并统计上述(2.1)步第一阶段中划分的各子块中超像素的标签,数量最多的超像素标签的超像素区域是该子块的主颜色区,即可得到该子块的主颜色;
第三阶段,计算色调特征向量nh和明度及彩度特征向量nvc,得到色彩调和特征向量:
将上述(2.1)步第一阶段得到的子块由HSV颜色空间转换到Munsell颜色空间,得到色调Hue、明度V和彩度C三个分量,分别提取色调特征值、明度与彩度合并的特征值,具体步骤如下:
首先,对上述(2.1)步第一阶段得到的每个子块进行色调分量Hue的特征值提取:将子块中的每个像素的色调分量值减去上述(2.1)步第二阶段中得到的该子块主颜色的色调分量值,得到该像素的色调差值HS,根据Moon-Spencer色彩调和模型,确定色调差值HS是否和谐,判断色调是否和谐的符号函数sgn公式如(1)所示:
统计与主色调和谐的像素个数,并将和谐的像素个数与当前子块总的像素个数的比作为此子块的色调分量Hue的特征值,具体公式如(2)所示:
hi=Numhi/mi,i=1,...,Z (2),
其中Numhi为第i个图像子块内色调和谐的像素点的个数,mi为该子块总的像素点的个数,当计算主体区域的色调分量Hue的特征值时,Z为主体区域的分块个数,当计算背景区域的色调分量Hue的特征值时,Z为背景区域的分块个数;
其次,对每个子块进行明度分量V和彩度分量C的特征值提取:对上述(2.1)步第一阶段得到的每个子块中的每个像素的明度值减去上述(2.1)步第二阶段中该子块主颜色的明度值得到明度差值VS,子块中的每个像素的彩度值减去上述(2.1)步第二阶段中该子块主颜色的彩度值得到彩度差值CS,将明度差值VS及彩度差值CS合并作为一个特征值根据Moon-Spencer色彩调和模型,判断明度及彩度是否和谐,公式如(3)所示:
其中,firE、secE和thirE分别是衡量像素与所属子块主颜色的明度差值VS及彩度差值CS是否落在Munsell颜色空间中三个椭圆区域内的度量值,当sgn(VS,CS)值为1时,表明当前像素点的明度及彩度和谐,统计子块i中明度及彩度和谐的像素点的个数Numvci,计算其与子块i总的像素点的个数mi的比值,得到子块i的明度及彩度的特征值vci
vci=Numvci/mi,i=1,...,Z (4),
最后,计算所有子块的色调特征值组合得到整个图像的色调特征向量h=[h1,h2,..,hZ],并计算所有子块的明度及彩度特征值组合得到整个图像的明度及彩度特征向量vc=[vc1,vc2,…,vcZ],然后把得到的色调特征向量h、明度及彩度特征向量vc分别归一化到[0,1]区间,并将该区间进行R等分,根据落在每个子区间的色调特征值和明度及彩度特征值个数得到色调特征向量nh和明度及彩度特征向量nvc,如公式(5)、(6)所示,
nh={Nh1,Nh2,...,NhR} (5),
nvc={Nvc1,Nvc2,...,NvcR} (6),
其中,Nhi为色调特征值在第i个子区间的数量,Nvci为明度及彩度特征值在第i个子区间的数量,i=1,2,…,R,这里R取10;
色调特征向量nh和明度及彩度特征向量nvc合称为色调调和特征向量,由此完成提取图像在Munsell颜色空间的色彩调和特征向量的提取;
(2.2)提取彩色RGB图像I的构图特征向量:
对上述第一步中的彩色RGB图像I同时采用以下两个构图准则提取构图特征向量:
第一个构图准则是三分法则,步骤是:将上述第一步中彩色RGB图像I的宽度w和高度h均分为三等分,得到四个交叉点(xj,yj),根据上述第一步得到的主体区域If的中心点O(Ox,Oy),计算中心点O到三分法则的四个交叉点(xj,yj)最近的归一化欧式距离d,j=1,2,3,4,具体公式如(7)所示:
d = min j = 1 , 2 , 3 , 4 ( O x - x j ) 2 / ( w / 3 ) 2 + ( O y - y j ) 2 / ( h / 3 ) 2 - - - ( 7 ) ,
第二个构图准则是主体区域大小与整个图像大小的比,步骤是:根据上述第一步得到的彩色RGB图像I和主体区域If,计算主体区域If像素点的个数与整个彩色RGB图像I像素点的个数比ratio,具体如公式(8),
ratio=num/(w×h) (8),
其中,num为主体区域总像素点的个数;
由上述两个构图准则得到的中心点到四个交叉点最近的归一化欧式距离和主体区域与整个彩色RGB图像像素点的个数比组成构图特征向量,由此完成构图特征向量的提取;
(2.3)提取彩色RGB图像I在HSV空间的颜色特征向量:
从两方面来提取彩色RGB图像I的颜色特征向量:
第一个方面是提取颜色矩特征向量,将上述第一步中彩色RGB图像I转换到HSV颜色空间的图像Ihsv,在H、S和V三个通道上,分别计算一阶矩μ、二阶矩σ和三阶矩ε,计算公式如下式(9)所示:
μ k = Σ j = 1 w × h p j , k / ( w × h ) σ k = [ Σ j = 1 w × h ( p j , k - μ k ) 2 / ( w × h ) ] 1 / 2 ϵ k = [ Σ j = 1 w × h ( p j , k - μ k ) 3 / ( w × h ) ] 1 / 3 - - - ( 9 ) ,
其中,pj,k为第j个像素点在第k个通道上的分量,k=1,2,3分别代表H、S、V分量,由H、S和V三个通道上的一阶矩、二阶矩和三阶矩组成颜色矩特征向量,由此提取得到彩色RGB图像I在HSV空间的颜色矩特征向量;
第二个方面是提取主体和背景的颜色差异特征向量,对上述第一步中的彩色RGB图像I的主体区域If和背景区域Ib分别在R、G、B三个通道上,统计颜色直方图,直方图分为L级(L=256),根据公式(10)来衡量主体和背景的差异diffc
diff c = 1 L Σ l = 1 L ( 1 - | f l , c - b l , c | / M a x ( f l , c , b l , c ) ) - - - ( 10 ) ,
其中,fl,c、bl,c分别为主体区域和背景区域在第c个通道上第l级颜色直方图的大小,c=1,2,3分别代表R、G、B分量,由R、G、B三个通道的主体和背景的差异组成主体和背景的颜色差异特征向量,由此提取得到主体和背景的颜色差异特征向量;
由上述的颜色矩特征向量和颜色差异特征向量构成彩色RGB图像I在HSV空间的颜色特征向量,由此完成彩色RGB图像I的颜色特征向量的提取;
(2.4)提取彩色RGB图像I转换为灰度图像Igray后的清晰度特征向量:
将上述第一步中的彩色RGB图像I转换为灰度图像Igray,其中的主体区域转换为灰度图像后标注为Ifgray,然后将二者分别进行快速傅里叶变换,用公式(11)计算傅里叶变换后的FFT(Igray)和傅里叶变换后的主体区域的FFT(Ifgray)中大于等于阈值T的像素点个数与所计算区域总的像素点的个数比值,得到灰度图像Igray的清晰度特征值Degray和主体区域的灰度图Ifgray的清晰度特征值Def
De g r a y = { n g r a y | | F F T ( I g r a y ) ≥ T } / ( w × h ) De f = { n f | | F F T ( I f g r a y ) ≥ T } / n u m - - - ( 11 ) ,
其中,T=8为阈值,ngray为灰度图像Igray中大于等于阈值T的像素点的个数,nf为主体区域的灰度图Ifgray中大于等于阈值T的像素点的个数,num为主体区域总的像素点的个数,由灰度图像Igray的清晰度特征值Degray和主体区域的灰度图Ifgray的清晰度特征值Def组成灰度图像的清晰度特征向量,由此提取得到灰度图像的清晰度特征向量;
(2.5)提取彩色RGB图像I转换为灰度图像Igray后的纹理特征向量:
将上述第一步中的彩色RGB图像I转为灰度图像Igray,然后从基于Tamura纹理的特征和基于可控金字塔特征两个方面来提取其纹理特征,得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个基于Tamura纹理的纹理特征值,以及灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征共同构成图像的纹理特征向量,由此完成提取纹理特征向量;
(2.6)提取彩色RGB图像I转换为灰度图像Igray后的DCT统计特征向量:
将上述第一步得到的彩色RGB图像I转为灰度图像Igray,对灰度图像Igray进行一次高斯滤波且经过下采样,得到宽和高各为灰度图像Igray的1/2的图像Igauss1,将得到的图像Igauss1再进行一次高斯滤波且经过下采样,得到宽和高各为Igray的1/4的图像Igauss2,然后将得到的灰度图像Igray、图像Igauss1和图像Igauss2都均分成像素大小为N2×N2的子块,然后对每个子块进行DCT变换,舍弃每个子块的直流系数,保留非直流系数,采用广义高斯模型来模拟DCT系数分布,采用灰度图像Igray均值μgray、图像Igauss1均值μgauss1、图像Igauss2均值μgauss2、灰度图像Igray平均方差图像Igauss1平均方差图像Igauss2平均方差灰度图像Igray形状参数γgray、图像Igauss1形状参数γgauss1和图像Igauss2形状参数γgauss2作为美学度量的特征,具体公式如(12)-(17)所示:
1)计算灰度图像Igray均值μgray、图像Igauss1均值μgauss1和图像Igauss2均值μgauss2
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2中第r子块的均值μgray,r、μgauss1,r和μgauss2,r,如下式(12)所示:
μ g r a y , r = Σ c = 1 63 d g r a y , r , c / 63 , μ g a u s s 1 , r = Σ c = 1 63 d g a u s s 1 , r , c / 63 , μ g a u s s 2 , r = Σ c = 1 63 d g a u s s 2 , r , c / 63 - - - ( 12 ) ,
其中,dgray,r,c、dgauss1,r,c、dgauss2,r,c分别为灰度图像Igray、图像Igauss1和图像Igauss2中第r个子块中经过DCT变换后的系数,
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的均值μgray、μgauss1和μgauss2,如下式(13)所示:
μ g r a y = Σ r = 1 Z g r a y μ g r a y , r / Z g r a y , μ g a u s s 1 = Σ r = 1 Z g u a s s 1 μ g a u s s 1 , r / Z g a u s s 1 , μ g a u s s 2 = Σ r = 1 Z g u a s s 2 μ g a u s s 2 , r / Z g a u s s 2 - - - ( 13 ) ,
其中,Zgray、Zgauss1、Zgauss2分别为灰度图像Igray、图像Igauss1和图像Igauss2的子块数量,由此得到灰度图像Igray均值μgray、图像Igauss1均值μgauss1和图像Igauss2均值μgauss2
2)分别计算灰度图像Igray、图像Igauss1和图像Igauss2的平均方差
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2中第r子块的方差如下式(14)所示:
σ g r a y , r 2 = Σ c = 1 63 ( d g r a y , r , c - μ g r a y , r ) 2 / 63 , σ g a u s s 1 , r 2 = Σ c = 1 63 ( d g a u s s 1 , r , c - μ g a u s s 1 , r ) 2 / 63 , σ g a u s s 2 , r 2 = Σ c = 1 63 ( d g a u s s 2 , r , c - μ g a u s s 2 , r ) 2 / 63 - - - ( 14 ) ,
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的平均方差 如下式(15)所示:
σ g r a y 2 = Σ r = 1 Z g r a y σ g r a y , r 2 / Z g r a y , σ g a u s s 1 2 = Σ r = 1 Z g a u s s 1 σ g a u s s 1 , r 2 / Z g a u s s 1 , σ g a u s s 2 2 = Σ r = 1 Z g a u s s 2 σ g a u s s 2 , r 2 / Z g a u s s 2 - - - ( 15 ) ,
由此得到灰度图像Igray、图像Igauss1和图像Igauss2所有子块的平均方差
3)分别计算灰度图像Igray、图像Igauss1和图像Igauss2的形状参数γgray、γgauss1和γgauss2
首先,分别计算灰度图像Igray、图像Igauss1和图像Igauss2的第r个子块的形状参数γgray,r、γgauss1,r和γgauss2,r的估计如下式(16),
γ ^ g r a y , r = R - 1 ( ( Σ c = 1 63 | d g r a y , r , c | / 63 ) 2 / σ g r a y , r 2 ) , γ ^ g a u s s 1 , r = R - 1 ( ( Σ c = 1 63 | d g a u s s 1 , r , c | / 63 ) 2 / σ g a u s s 1 , r 2 ) ,
γ ^ g a u s s 2 , r = R - 1 ( ( Σ c = 1 63 | d g a u s s 2 , r , c | / 63 ) 2 / σ g a u s s 2 , r 2 ) - - - ( 16 ) ,
其中,R(x)=Γ2(2/x)/(Γ(1/x)×Γ(3/x));
然后,分别计算灰度图像Igray、图像Igauss1和图像Igauss2所有子块的形状参数 的均值即灰度图像Igray、图像Igauss1和图像Igauss2的形状参数γgray、γgauss1和γgauss2,如下式(17)所示:
γ g r a y = Σ r = 1 Z g r a y γ ^ g r a y , r / Z g r a y , γ g a u s s 1 = Σ r = 1 Z g a u s s 1 γ ^ g a u s s 1 , r / Z g a u s s 1 , γ g a u s s 2 = Σ r = 1 Z g a u s s 2 γ ^ g a u s s 2 , r / Z g a u s s 2 - - - ( 17 ) ,
由此得到灰度图像Igray形状参数γgray、图像Igauss1形状参数γgauss1和图像Igauss2形状参数γgauss2
综合(2.6)步中的1)、2)和3)步,完成彩色RGB图像I转换为灰度图像Igray后的DCT统计特征向量的提取;
第三步,使用支持向量机对图像进行高低美感的分类:
将第二步得到的所有特征串联起来,输入核函数为RBF的支持向量机,进行训练,在本专利中,参数s为0、t为2、c和g采用五折交叉验证法选取最佳值,得到图像美学分类模型,利用此分类模型将输入的图像分为高、低美感两类,至此实现对图像进行美学评价。
2.根据权利要求1所述对图像进行美学评价的多特征融合方法,其特征在于:所述第二步的(2.1)步的第一阶段中,在进行分块时,每次分块的块数为N1×N1=3×3。
3.根据权利要求1所述对图像进行美学评价的多特征融合方法,其特征在于:所述第二步的(2.1)步的第一阶段中,颜色信息熵的计算过程为:首先,根据下述公式(18)将每个子块中的每个像素的H、S和V分量进行量化,
H q = 0 , H ∈ ( 0 , 20 ] 1 , H ∈ ( 20 , 40 ] 2 , H ∈ ( 40 , 75 ] 3 , H ∈ ( 75 , 155 ] 4 , H ∈ ( 155 , 190 ] 5 , H ∈ ( 190 , 270 ] 6 , H ∈ ( 270 , 295 ] 7 , H ∈ ( 295 , 360 ] , S q = 0 , S ∈ ( 0 , 0.2 ] 1 , S ∈ ( 0.2 , 0.65 ] 2 , S ∈ ( 0.65 , 1 ] , V q = 0 , V ∈ ( 0 , 0.2 ] 1 , V ∈ ( 0.2 , 0.65 ] 2 , V ∈ ( 0.65 , 1 ] - - - ( 18 ) ,
然后,将每个像素的Hq、Sq、Vq加权组合成像素值Q,如下公式(19):
Q=q1Hq+q2Sq+q3Vq (19),
其中,q1、q2和q3均为常量;
最后,根据每个像素的Q值统计得到图像子块的直方图,依此直方图计算每个子块的颜色信息熵。
4.根据权利要求1所述对图像进行美学评价的多特征融合方法,其特征在于:所述第二步中的从基于Tamura纹理的特征来提取其纹理特征,得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个基于Tamura纹理的纹理特征值的具体步骤如下:
1)提取灰度图像Igray的粗糙度特征值:
第一阶段,计算有效范围内灰度的平均值,有效范围为x∈[2(t-1)+1,w-2(t-1)],y∈[2(t -1)+1,h-2(t-1)],当窗口大小为2t×2t时,计算有效范围内每个像素点(x,y)的2t×2t邻域内灰度的平均值Mt(x,y),具体公式如(20)所示:
M t ( x , y ) = Σ x ′ = x - 2 t - 1 x + 2 t - 1 - 1 Σ y ′ = y - 2 t - 1 y + 2 t - 1 - 1 I g r a y ( x ′ , y ′ ) / ( 2 2 t ) , t ≥ 1 - - - ( 20 ) ,
其中,Igray(x′,y′)为像素点(x′,y′)的灰度值;
第二阶段,计算在水平和垂直方向上不重叠的窗口之间的灰度差,具体公式如(21)、(22)所示:
Cth(x,y)=|Mt(x+2t-1,y)-Mt(x-2t-1,y)| (21),
Ctv(x,y)=|Mt(x,y+2t-1)-Mt(x,y-2t-1)| (22),
其中,Cth(x,y)为水平方向灰度差,Ctv(x,y)为垂直方向灰度差;
第三阶段,寻找使水平方向灰度差Cth(x,y)或垂直方向灰度差Ctv(x,y)达到最大的topt,如下公式(23a)所示,由此得到每个像素点的最优窗口大小因此,整个图像粗糙度的定义如下(23b)所示:
topt=argmax{Cth(x,y),Ctv(x,y)} (23a),
C o a r s e = Σ x = 2 t o p t - 1 + 1 w 1 Σ y = 2 t o p t - 1 + 1 h 1 S o p t ( x , y ) / ( w 1 × h 1 ) - - - ( 23 b ) ,
其中,w1=w-2topt,h1=h-2topt;由此提取得到灰度图像Igray的粗糙度特征值;
2)提取灰度图像Igray的对比度特征值:
图像对比度具体计算公式如(24)所示:
C o n t r a s t = σ g r a y / a 4 4 - - - ( 24 ) ,
其中,μgray为灰度图像Igray灰度值的均值,σgray为灰度图像Igray的灰度值标准差;由此提取得到灰度图像Igray的对比度特征值;
3)提取灰度图像Igray的方向度特征值:
第一阶段,使用GradH和GradV两个算子与灰度图像Igray进行卷积运算,根据卷积运算结果计算上述第一步得到的灰度图像Igray中像素点(x,y)的梯度向量的模和方向,GradH和GradV算子如(25)所示:
G r a d H = - 1 0 1 - 1 0 1 - 1 0 1 , G r a d V = 1 1 1 0 0 0 - 1 - 1 - 1 - - - ( 25 ) ,
灰度图像Igray的水平方向的梯度向量MHConv和垂直方向的梯度向量MVConv如下式(26),
M H C o n v = c o n v ( I g r a y , G r a d H ) M V C o n v = c o n v ( I g r a y , G r a d V ) - - - ( 26 ) ,
其中,conv()表示卷积;
然后,计算图像Igray像素点(x,y)的梯度向量的模|MG(x,y)|和方向θ(x,y),如下式(27):
| M G ( x , y ) | = ( | M H C o n v ( x , y ) | + | M V C o n v ( x , y ) | ) / 2 θ ( x , y ) = arctan ( M V C o n v ( x , y ) / M H C o n v ( x , y ) ) + π 2 - - - ( 27 ) ,
第二阶段,根据上述提取灰度图像Igray的方向度特征值的第一阶段得到的各像素点的梯度向量,构造方向统计直方图:将[0,π]进行R等分,每一区间的间隔为g=π/R,取每个区间上的最大弧度φ,统计θ对应的每个区间内|MG(x,y)|大于阈值T0的像素点的数量,构造统计直方图H;
第三阶段,根据上述提取灰度图像Igray的方向度特征值的第二阶段得到的方向统计直方图H和每个区间的最大弧度φ,计算其方向度特征值,具体计算公式如(28)所示:
O r i e n t a t i o n = Σ d ∈ D Σ φ ∈ w d ( φ - φ d ) 2 H ( φ ) - - - ( 28 ) ,
其中,D为直方图H中所有波峰的集合,d为集合中的某一波峰,φd为波峰d所在的弧度,wd为波峰d到左右第一个波谷间所有弧度的集合,H(φ)为φ在直方图H中的幅值,由此提取得到灰度图像Igray的方向度特征值;
至此得到灰度图像Igray的基于Tamura纹理的粗糙度特征值、对比度特征值和方向度特征值三个纹理特征组成的纹理特征向量。
5.根据权利要求1所述对图像进行美学评价的多特征融合方法,其特征在于:所述第二步的(2.5)步中从基于可控金字塔特征方面来提取其纹理特征,即提取灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征共同构成图像的纹理特征向量的具体步骤如下:
将上述第一步得到的彩色RGB图像I转为灰度图像Igray,对灰度图像Igray采用可控金字塔进行2个尺度6个方向的分解,共得到M个子带,这里M=12,其中,尺度A∈{1,2},方向θ∈{0°,30°,60°,90°,120°,150°},采用子带系数的能量向量Ee、熵向量Ep和尺度间子带的能量差向量Ec进行纹理特征度量,公式如(29)-(34):
子带系数的能量向量Ee:
Ee m = Σ n u = 1 N s i z e c m , n u 2 - - - ( 29 ) ,
Ee={Ee1,Ee2,...,EeM}(30),
其中,m=1,2,3,…,M,cm,nu为子带m的第nu个系数,Nsize为子带m的大小;
尺度间子带的能量差向量Ec:
Ecm=Eem-Eem+M/2 (31),
Ec={Ec1,Ec2,...,EcM/2} (32);
子带系数的熵向量Ep:
Ep m = - Σ n = 1 12 p m , n log 2 p m , n - - - ( 33 ) ,
Ep={Ep1,Ep2,...,EpM} (34);
上述式(33)中将Q个子带系数中的最大值与最小值之间平均分为12个区间,pm,n为第m个子带中系数落在第n个区间的概率;
至此得到灰度图像Igray的子带能量向量Ee,尺度间子带的能量差向量Ec以及子带系数熵向量Ep三个基于可控金字塔纹理特征向量。
6.根据权利要求1所述对图像进行美学评价的多特征融合方法,其特征在于:所述第二步的(2.6)步中的将得到的灰度图像Igray、图像Igauss1和图像Igauss2都均分成像素大小为N2×N2=8×8的子块。
CN201710025626.1A 2017-01-13 2017-01-13 对图像进行美学评价的多特征融合方法 Expired - Fee Related CN106778788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710025626.1A CN106778788B (zh) 2017-01-13 2017-01-13 对图像进行美学评价的多特征融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710025626.1A CN106778788B (zh) 2017-01-13 2017-01-13 对图像进行美学评价的多特征融合方法

Publications (2)

Publication Number Publication Date
CN106778788A true CN106778788A (zh) 2017-05-31
CN106778788B CN106778788B (zh) 2019-11-12

Family

ID=58946735

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710025626.1A Expired - Fee Related CN106778788B (zh) 2017-01-13 2017-01-13 对图像进行美学评价的多特征融合方法

Country Status (1)

Country Link
CN (1) CN106778788B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107274223A (zh) * 2017-06-13 2017-10-20 杭州电子科技大学 融合脑电信号与注视跟踪特征的广告评估方法
CN108230297A (zh) * 2017-11-30 2018-06-29 复旦大学 一种基于服装替换的色彩搭配评估方法
CN108492294A (zh) * 2018-03-23 2018-09-04 北京邮电大学 一种图像色彩和谐程度的评估方法及装置
CN108645875A (zh) * 2018-03-20 2018-10-12 上海市建筑科学研究院 一种预制剪力墙灌浆连接的缺陷识别方法
CN108961346A (zh) * 2018-08-08 2018-12-07 浙江工商大学 基于bp神经网络对颜色和谐度进行预测的方法
CN109373363A (zh) * 2018-12-04 2019-02-22 邱迪 火力可调式落地燃气灶
CN109598681A (zh) * 2018-11-01 2019-04-09 兰州理工大学 一种对称唐卡修复后图像的无参考质量评价方法
CN109741358A (zh) * 2018-12-29 2019-05-10 北京工业大学 基于自适应超图学习的超像素分割方法
CN109829924A (zh) * 2019-01-18 2019-05-31 武汉大学 一种基于主体特征分析的图像质量评价方法
CN110046673A (zh) * 2019-04-25 2019-07-23 上海大学 基于多特征融合的无参考色调映射图像质量评价方法
CN110119710A (zh) * 2019-05-13 2019-08-13 广州锟元方青医疗科技有限公司 细胞分类方法、装置、计算机设备和存储介质
CN110321452A (zh) * 2019-05-05 2019-10-11 广西师范大学 一种基于方向选择机制的图像检索方法
CN110569860A (zh) * 2019-08-30 2019-12-13 西安理工大学 结合判别分析和多核学习的图像有趣性二分类预测方法
CN111160478A (zh) * 2019-12-31 2020-05-15 北京理工大学重庆创新中心 一种基于深度学习的高光谱目标显著性检测方法
CN111260536A (zh) * 2018-12-03 2020-06-09 中国科学院沈阳自动化研究所 可变参数的数字图像多尺度卷积处理器及其实现方法
CN112200242A (zh) * 2020-10-09 2021-01-08 陕西科技大学 绘画唐卡图像的颜色分类方法、计算机设备、终端及介质
CN112329649A (zh) * 2020-11-09 2021-02-05 上海圣之尧智能科技有限公司 一种城市植被种类识别方法、系统、设备以及介质
CN113066068A (zh) * 2021-03-31 2021-07-02 北京达佳互联信息技术有限公司 图像评估方法及装置
CN113989227A (zh) * 2021-10-27 2022-01-28 北京市水产科学研究所(国家淡水渔业工程技术研究中心) 一种丹顶红白锦鲤色彩量化评价方法、装置及系统
CN115830945A (zh) * 2023-01-14 2023-03-21 苏州海易泰克机电设备有限公司 一种飞行模拟机的智能监控管理方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160140157A1 (en) * 2014-11-14 2016-05-19 International Business Machines Corporation Aesthetics data identification and evaluation
CN105787966A (zh) * 2016-03-21 2016-07-20 复旦大学 一种计算机图像的美学评估方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160140157A1 (en) * 2014-11-14 2016-05-19 International Business Machines Corporation Aesthetics data identification and evaluation
CN105787966A (zh) * 2016-03-21 2016-07-20 复旦大学 一种计算机图像的美学评估方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PENG LU ETC.: ""Towards aesthetics of image:A Bayesian framework for color harmony modeling"", 《SIGNAL PROCESSING:IMAGE COMMUNICATION》 *
李玉凤等: ""计算机辅助设计中的色彩调和美度评价模型"", 《计算机工程与应用》 *
范彩霞等: ""颜色空间的感知均匀性评价及其在图像处理中的应用"", 《西安理工大学学报》 *

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107274223A (zh) * 2017-06-13 2017-10-20 杭州电子科技大学 融合脑电信号与注视跟踪特征的广告评估方法
CN107274223B (zh) * 2017-06-13 2020-08-25 杭州电子科技大学 融合脑电信号与注视跟踪特征的广告评估方法
CN108230297B (zh) * 2017-11-30 2020-05-12 复旦大学 一种基于服装替换的色彩搭配评估方法
CN108230297A (zh) * 2017-11-30 2018-06-29 复旦大学 一种基于服装替换的色彩搭配评估方法
CN108645875A (zh) * 2018-03-20 2018-10-12 上海市建筑科学研究院 一种预制剪力墙灌浆连接的缺陷识别方法
CN108492294B (zh) * 2018-03-23 2022-04-12 北京邮电大学 一种图像色彩和谐程度的评估方法及装置
CN108492294A (zh) * 2018-03-23 2018-09-04 北京邮电大学 一种图像色彩和谐程度的评估方法及装置
CN108961346A (zh) * 2018-08-08 2018-12-07 浙江工商大学 基于bp神经网络对颜色和谐度进行预测的方法
CN109598681A (zh) * 2018-11-01 2019-04-09 兰州理工大学 一种对称唐卡修复后图像的无参考质量评价方法
CN109598681B (zh) * 2018-11-01 2022-09-13 兰州理工大学 一种对称唐卡修复后图像的无参考质量评价方法
CN111260536A (zh) * 2018-12-03 2020-06-09 中国科学院沈阳自动化研究所 可变参数的数字图像多尺度卷积处理器及其实现方法
CN111260536B (zh) * 2018-12-03 2022-03-08 中国科学院沈阳自动化研究所 可变参数的数字图像多尺度卷积处理器及其实现方法
CN109373363A (zh) * 2018-12-04 2019-02-22 邱迪 火力可调式落地燃气灶
CN109741358A (zh) * 2018-12-29 2019-05-10 北京工业大学 基于自适应超图学习的超像素分割方法
CN109829924A (zh) * 2019-01-18 2019-05-31 武汉大学 一种基于主体特征分析的图像质量评价方法
CN109829924B (zh) * 2019-01-18 2020-09-08 武汉大学 一种基于主体特征分析的图像质量评价方法
CN110046673A (zh) * 2019-04-25 2019-07-23 上海大学 基于多特征融合的无参考色调映射图像质量评价方法
CN110046673B (zh) * 2019-04-25 2021-05-07 上海大学 基于多特征融合的无参考色调映射图像质量评价方法
CN110321452A (zh) * 2019-05-05 2019-10-11 广西师范大学 一种基于方向选择机制的图像检索方法
CN110321452B (zh) * 2019-05-05 2022-08-09 广西师范大学 一种基于方向选择机制的图像检索方法
CN110119710A (zh) * 2019-05-13 2019-08-13 广州锟元方青医疗科技有限公司 细胞分类方法、装置、计算机设备和存储介质
CN110569860A (zh) * 2019-08-30 2019-12-13 西安理工大学 结合判别分析和多核学习的图像有趣性二分类预测方法
CN110569860B (zh) * 2019-08-30 2022-10-04 西安理工大学 结合判别分析和多核学习的图像有趣性二分类预测方法
CN111160478B (zh) * 2019-12-31 2022-07-26 北京理工大学重庆创新中心 一种基于深度学习的高光谱目标显著性检测方法
CN111160478A (zh) * 2019-12-31 2020-05-15 北京理工大学重庆创新中心 一种基于深度学习的高光谱目标显著性检测方法
CN112200242A (zh) * 2020-10-09 2021-01-08 陕西科技大学 绘画唐卡图像的颜色分类方法、计算机设备、终端及介质
CN112200242B (zh) * 2020-10-09 2023-06-20 陕西科技大学 绘画唐卡图像的颜色分类方法、计算机设备、终端及介质
CN112329649A (zh) * 2020-11-09 2021-02-05 上海圣之尧智能科技有限公司 一种城市植被种类识别方法、系统、设备以及介质
CN113066068A (zh) * 2021-03-31 2021-07-02 北京达佳互联信息技术有限公司 图像评估方法及装置
CN113066068B (zh) * 2021-03-31 2024-03-26 北京达佳互联信息技术有限公司 图像评估方法及装置
CN113989227A (zh) * 2021-10-27 2022-01-28 北京市水产科学研究所(国家淡水渔业工程技术研究中心) 一种丹顶红白锦鲤色彩量化评价方法、装置及系统
CN113989227B (zh) * 2021-10-27 2022-09-02 北京市水产科学研究所(国家淡水渔业工程技术研究中心) 一种丹顶红白锦鲤色彩量化评价方法、装置及系统
CN115830945A (zh) * 2023-01-14 2023-03-21 苏州海易泰克机电设备有限公司 一种飞行模拟机的智能监控管理方法及系统

Also Published As

Publication number Publication date
CN106778788B (zh) 2019-11-12

Similar Documents

Publication Publication Date Title
CN106778788A (zh) 对图像进行美学评价的多特征融合方法
Ye et al. DeepCloud: Ground-based cloud image categorization using deep convolutional features
CN108549891B (zh) 基于背景与目标先验的多尺度扩散显著目标检测方法
CN106296695B (zh) 基于显著性的自适应阈值自然目标图像分割抽取算法
CN102117413B (zh) 基于多层特征的不良图像自动过滤方法
CN105718882B (zh) 一种分辨率自适应特征提取与融合的行人重识别方法
CN108564049A (zh) 一种基于深度学习的快速人脸检测识别方法
CN103473571B (zh) 一种人体检测方法
CN110399909A (zh) 一种基于标签约束弹性网图模型的高光谱图像分类方法
CN104268590B (zh) 基于互补性组合特征与多相回归的盲图像质量评价方法
CN108960404B (zh) 一种基于图像的人群计数方法及设备
CN103679192B (zh) 基于协方差特征的图像场景类型判别方法
CN105303152B (zh) 一种人体再识别方法
CN104992177A (zh) 基于深层卷积神经网络的网络色情图像检测方法
CN103456013B (zh) 一种表示超像素以及度量超像素之间相似性的方法
CN108388905B (zh) 一种基于卷积神经网络和邻域上下文的光源估计方法
CN104834898A (zh) 一种人物摄影图像的质量分类方法
CN109919177A (zh) 基于层次化深度网络的特征选择方法
CN109829924B (zh) 一种基于主体特征分析的图像质量评价方法
CN107066972B (zh) 基于多通道极值区域的自然场景文本检测方法
CN103824079B (zh) 基于多层次模式子块划分的图像分类方法
CN108537239A (zh) 一种图像显著性目标检测的方法
CN102034107B (zh) 基于鲁棒视觉注意特征与稀疏表示的不良图像判别方法
CN106156798B (zh) 基于环形空间金字塔和多核学习的场景图像分类方法
CN110533077A (zh) 用于高光谱图像分类的形状自适应卷积深度神经网络方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20191112

CF01 Termination of patent right due to non-payment of annual fee