CN111507941B - 一种用于美学质量评价的构图表征学习方法 - Google Patents

一种用于美学质量评价的构图表征学习方法 Download PDF

Info

Publication number
CN111507941B
CN111507941B CN202010214893.5A CN202010214893A CN111507941B CN 111507941 B CN111507941 B CN 111507941B CN 202010214893 A CN202010214893 A CN 202010214893A CN 111507941 B CN111507941 B CN 111507941B
Authority
CN
China
Prior art keywords
feature
composition
global
features
aesthetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010214893.5A
Other languages
English (en)
Other versions
CN111507941A (zh
Inventor
俞俊
高飞
尚梅梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010214893.5A priority Critical patent/CN111507941B/zh
Publication of CN111507941A publication Critical patent/CN111507941A/zh
Application granted granted Critical
Publication of CN111507941B publication Critical patent/CN111507941B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于美学质量评价的构图表征学习方法。本发明步骤如下:步骤(1)数据预处理,将所有数据集的图片经过调整尺寸和裁剪的操作缩放到统一大小;步骤(2)特征提取及全连接图构建,分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络,分别用来提取全局特征和构图特征;利用提取出来的构图特征构建全连接图;步骤(3)全局特征与构图特征相融合,将提取出来的全局特征与构图特征输入门控单元进行特征融合,获取融合特征;步骤(4)美学分数预测以及准确率度量。本发明提出了利用构图特征构建全连接图并与全局特征融合,而且获得了目前图片美学质量评价中的最好效果。

Description

一种用于美学质量评价的构图表征学习方法
技术领域
本发明提到了一种用于美学质量评价的构图表征学习(RepresentationLearning of Image Composition for Aesthetic Evaluation)的新方法,主要涉及一种利用卷积神经网络进行训练,对得到的深层特征即构图信息和全局信息进行表征学习的方式,以构建一个与人工评价结果更加一致的准确率较高的美学质量评价模型。
背景技术
图像美学质量评价(Photo Quality Assessment)是基于对图像的艺术理解通过计算方式准确的评估图片的美学质量。PQA应用空间广泛,例如最优图像筛选和自动搜索相机设置。此外,研究人员已在探索利用PQA从美学角度重构和增强图片。
之前研究人员主要利用手动设计的特征通过“浅表”机器学习技术判断图片是否专业。手工特征主要是基于专家知识的亮度对比,构图几何,构图以及场景构图等,然后利用支持向量机和神经网络等机器学习方法产生二进制美学标签。所以传统方法主要面向分类问题,即明确美学质量的好与坏。近期受到机器学习在各领域取得成功的启发,卷积神经网络(CNN)被用于训练图片美学评价模型,并且取得了不错的进展。
虽然PQA工作有一定的进展,但还是有很大的进步空间。现有方法方法大部分将图片输入CNN模型以取得美学质量评价结果,考虑到裁剪等数据预处理造成图片信息丢失,研究人员提出增加图片块和显著性图等补充信息作为额外输入,但额外的目标检测算法增加了计算复杂度;此外,尽管构图信息与美学质量评价息息相关,现存方法却很少将构图信息纳入图片质量评价体系。
发明内容
本发明的目的是针对现有技术的不足,提供一种利用构图特征进行表征学习用于图片美学质量评价的方法。对一个大型美学数据集AVA(Aesthetic Visual AnalysisDataste)数据集做了实验,该数据集包含超过25万张照片,每张图片平均由超过200人评分,分数范围为0到10分。并且在多个补充数据集(The Comparative Photo Dataset&TheJenAesthetics Subjective Dataset)上进行了有效性验证。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤(1)数据预处理
将所有数据集的图片经过调整尺寸和裁剪的操作缩放到统一大小;
步骤(2)特征提取及全连接图构建
分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络,分别用来提取全局特征和构图特征;
利用提取出来的构图特征构建全连接图;
所述的微调是指用指定的训练集对Moblinet v2进行训练,得到所需参数的指定网络;
步骤(3)全局特征与构图特征相融合
将提取出来的全局特征与构图特征输入门控单元进行特征融合,获取融合特征;
步骤(4)美学分数预测以及准确率度量
将融合特征输入美学评价模块得到美学质量分数,与数据集中原有的人工评分进行比较,计算美学质量分数的准确率。
进一步的,所述的步骤(1)所述的数据预处理:
1-1AVA数据集是一个包含25万多张图片的大型美学数据集,我们按照标准数据集划分方法,随机取80%的图片作为训练集,其余20%的数据集作为测试集;
1-2对图片进行预处理时先将图片缩放到256*256大小,然后对图片进行随机裁剪,大小变为224*224;
为防止过拟合,对训练集图片进行数据增强,所有图片进行随机水平翻转。
进一步的,所述的步骤(2)所述的特征提取及全连接图构建:
2-1分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络用来进行特征提取;
将整张图片分别输入全局特征提取网络和构图特征提取网络,分别得到全局特征F1和构图特征F2,F1,F2∈R7×7×1280
2-2全连接图的构建如下:把构图特征提取网络输出的构图特征F2中,设每个位置Xi视为一个节点,
Figure BDA0002424067130000031
其中i=1,2…,N;Xi位置对应的特征向量为节点特征;任意节点特征之间的余弦相似性视为边;该边的信息即图片的构图特征;对全局特征提取网络输出的全局特征F1进行全局池化,得到池化后包含全局信息的全局特征;
所述的全局特征F1和构图特征F2均为7*7的矩阵,矩阵中的每个位置作为节点;
所述的构图特征提取网络的输出的构图特征F2有N=W×H个位置,其中W和H的取值均为7;
所述的任意节点特征之间的余弦相似性的计算如下:
Figure BDA0002424067130000032
其中,ei,j代表连接节点i,j的边;边的集合为
Figure BDA0002424067130000033
节点的集合和边的集合构成全连接图;
所述的对全局特征F1进行全局池化的实现如下:
所有的节点特征
Figure BDA0002424067130000034
进行平均池化得到全局特征
Figure BDA0002424067130000035
其中,xi是指全局特征F1的矩阵中第i个位置的特征。
进一步的,所述的步骤(3)所述的全局特征与构图特征相融合:
对池化后的全局特征u和构图特征e,分别赋予不同的权重值,具体实现如下:
将池化后的全局特征u和构图特征e分别经过池化操作得到均值A1,A2,标准差S1,S2,最大值max1,max2,最小值min1,min2;将得到的8个特征值级联起来得到特征向量F,F∈Rh,h表示级联之后输出的向量长度,长度值为8;将特征向量F输入门控单元;
所述特征向量F在门控单元内的实现如下:
特征向量F先经过一层全连接层得到特征向量FC1,FC1∈R64再经Tanh激活函数,然后经过一层全连接层得特征向量FC2,FC2∈R2,FC2再经过一层Sigmoid得到两个特征值α,β;特征值α,β分别为通过门控单元学习到的全局特征u和构图特征e的权重;将全局特征与构图特征分别与各自权重相乘再级联得到融合特征,即αu⊕βe;
所述的特征值级联的顺序为:A1,A2,S1,S2,max1,max2,min1,min2。
进一步的,所述的步骤(4)所述的美学分数预测以及准确率度量:
4-1将得到的融合特征输入美学评价模块,该美学评价模块包含两个全连接层和一个Softmax层,输出向量a=[a1,a2,…,a10],
其中,k的取值是1-10的自然数;原图片的最终得分为
Figure BDA0002424067130000041
Figure BDA0002424067130000042
原图片的人工得分为P=∑10k.pk;ak和pk分别表示预测得分和实际得分为k的概率;
4-2损失函数选择EMDLoss,
Figure BDA0002424067130000043
其中p代表图片真实的美学分数分布;CDF(.)代表累积分布函数;当损失函数约束预测值越靠近真实值,预测结果越准确;
4-3将预测分数S与实际分数P相比较,计算二者的皮尔逊相关系数(PLCC)和斯皮尔曼相关系数(SRCC),结果比目前最优分别高出0.242和0.238;准确率比目前最优结果高出2%。
本发明有益效果如下:
本发明对于美学评价的准确率和与人工评价的一致性在AVA数据及上处于领先地位,并且再在补充数据集(CPC&JAS)上表现也十分优异,因此在做相关工作时,利用本发明在图片美学质量评价工作上可以获得较高的正确率,与人类主观评分的一致性也较强。
附图说明
图1是利用构图与全局特征相融合的美学质量评价框架示意图;
图2是全局特征及构图特征提取网络的体系结构图;
具体实施细节
下面结合附图对本发明做进一步说明。
如图1和图2所示,一种用于美学质量评价的构图表征学习方法,具体包括如下步骤:
步骤(1)数据预处理
将所有数据集的图片经过调整尺寸和裁剪的操作缩放到统一大小。
步骤(2)特征提取及全连接图构建
分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络,分别用来提取全局特征和构图特征。
利用提取出来的构图特征构建全连接图。
所述的微调是指用指定的训练集对Moblinet v2进行训练,得到所需参数的指定网络。
步骤(3)全局特征与构图特征相融合
将提取出来的全局特征与构图特征输入门控单元进行特征融合,获取融合特征。
步骤(4)美学分数预测以及准确率度量
将融合特征输入美学评价模块得到美学质量分数,与数据集中原有的人工评分进行比较,计算美学质量分数的准确率。
进一步的,所述的步骤(1)所述的数据预处理:
1-1AVA数据集是一个包含25万多张图片的大型美学数据集,按照标准数据集划分方法,随机取80%的图片作为训练集,其余20%的数据集作为测试集。
1-2对图片进行预处理时先将图片缩放到256*256大小,然后对图片进行随机裁剪,大小变为224*224。
为防止过拟合,对训练集图片进行数据增强,所有图片进行随机水平翻转。
进一步的,所述的步骤(2)所述的特征提取及全连接图构建:
2-1分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络用来进行特征提取。
将整张图片分别输入全局特征提取网络和构图特征提取网络,分别得到全局特征F1和构图特征F2,F1,F2∈R7×7×1280
2-2全连接图的构建如下:把构图特征提取网络输出的构图特征F2中,设每个位置Xi视为一个节点,
Figure BDA0002424067130000061
其中i=1,2…,N;Xi位置对应的特征向量为节点特征;任意节点特征之间的余弦相似性视为边;该边的信息即图片的构图特征;对全局特征提取网络输出的全局特征F1进行全局池化,得到池化后包含全局信息的全局特征。
所述的全局特征F1和构图特征F2均为7*7的矩阵,矩阵中的每个位置作为节点;
所述的构图特征提取网络的输出的构图特征F2有N=W×H个位置,其中W和H的取值均为7;
所述的任意节点特征之间的余弦相似性的计算如下:
Figure BDA0002424067130000062
其中,ei,j代表连接节点i,j的边。边的集合为
Figure BDA0002424067130000063
节点的集合和边的集合构成全连接图。
所述的对全局特征F1进行全局池化的实现如下:
所有的节点特征
Figure BDA0002424067130000064
进行平均池化得到全局特征
Figure BDA0002424067130000065
其中,xi是指全局特征F1的矩阵中第i个位置的特征;
进一步的,所述的步骤(3)所述的全局特征与构图特征相融合:
对池化后的全局特征u和构图特征e,分别赋予不同的权重值,具体实现如下:
将池化后的全局特征u和构图特征e分别经过池化操作得到均值A1,A2,标准差S1,S2,最大值max1,max2,最小值min1,min2;将得到的8个特征值级联起来得到特征向量F,F∈Rh,h表示级联之后输出的向量长度,长度值为8;将特征向量F输入门控单元;
所述特征向量F在门控单元内的实现如下:
特征向量F先经过一层全连接层得到特征向量FC1,FC1∈R64再经一层全连接层得特征向量FC2,FC2∈R2,FC2再经过一层Softmax得到两个特征值α,β;特征值α,β分别为通过门控单元学习到的全局特征u和构图特征e的权重。将全局特征与构图特征分别与各自权重相乘再级联得到融合特征,即αu⊕βe。
所述的特征值级联的顺序为:A1,A2,S1,S2,max1,max2,min1,min2;
进一步的,所述的步骤(4)所述的美学分数预测以及相关性和性度量:
在对图片进行美学质量评价的过程中,经过上述步骤能够得到全局特征与构图特征融合之后的特征向量,其中全局特征包含原图的全局信息,构图特包含原图的构图信息。
4-1将得到的融合特征输入美学评价模块,该美学评价模块包含两个全连接层和一个Softmax层,输出向量a=[a1,a2,…,a10],
其中,k的取值是1-10的自然数;原图片的最终得分为
Figure BDA0002424067130000072
Figure BDA0002424067130000073
原图片的人工得分为P=∑10k.pk;ak和pk分别表示预测得分和实际得分为k的概率;
4-2损失函数选择EMDLoss,
Figure BDA0002424067130000074
其中p代表图片真实的美学分数分布;CDF(.)代表累积分布函数;当损失函数约束预测值越靠近真实值,预测结果越准确;
4-3将预测分数S与实际分数P相比较,计算二者的皮尔逊相关系数(PLCC)和斯皮尔曼相关系数(SRCC),值越高说明相关性越大,也即模型预测分数与人工评判分数一致性越高;结果表明皮尔逊相关系数(PLCC)和斯皮尔曼相关系数(SRCC)比目前最优分别高出0.242和0.238;将美学评价视为二分类任务,将预测分数与实际分数按照阈值5分进行分类,高与阈值的标为1,低于阈值的标为0,重新标记后计算模型的分类准确率,准确率比目前最优结果高出2%。

Claims (3)

1.一种用于美学质量评价的构图表征学习方法,其特征在于包括如下步骤:
步骤(1)数据预处理
将所有数据集的图片经过调整尺寸和裁剪的操作缩放到统一大小;
步骤(2)特征提取及全连接图构建
分别对两个预训练的Mobilenet-v2进行微调构成全局特征提取网络和构图特征提取网络,分别用来提取全局特征和构图特征;
利用提取出来的构图特征构建全连接图;
所述的微调是指用指定的训练集对Mobilenet-v2进行训练,得到所需参数的指定网络;
步骤(3)全局特征与构图特征相融合
将提取出来的全局特征与构图特征输入门控单元进行特征融合,获取融合特征;
步骤(4)美学分数预测以及准确率度量
将融合特征输入美学评价模块得到美学质量分数,与数据集中原有的人工评分进行比较,计算美学质量分数的准确率;
步骤(1)所述的数据预处理:
1-1AVA数据集是一个包含25万多张图片的大型美学数据集,我们按照标准数据集划分方法,随机取80%的图片作为训练集,其余20%的数据集作为测试集;
1-2对图片进行预处理时先将图片缩放到256*256大小,然后对图片进行随机裁剪,大小变为224*224;
为防止过拟合,对训练集图片进行数据增强,所有图片进行随机水平翻转;
步骤(2)所述的特征提取及全连接图构建:
2-1分别对两个预训练的Mobilenet-v2进行微调构成全局特征提取网络和构图特征提取网络用来进行特征提取;
将整张图片分别输入全局特征提取网络和构图特征提取网络,分别得到全局特征F1和构图特征F2,F1,F2∈R7×7×1280
2-2全连接图的构建如下:把构图特征提取网络输出的构图特征F2中,设每个位置Xi视为一个节点,
Figure FDA0004171604110000021
其中i=1,2…,N;Xi位置对应的特征向量为节点特征;任意节点特征之间的余弦相似性视为边;该边的信息即图片的构图特征;对全局特征提取网络输出的全局特征F1进行全局池化,得到池化后包含全局信息的全局特征;
所述的全局特征F1和构图特征F2均为7*7的矩阵,矩阵中的每个位置作为节点;
所述的构图特征提取网络的输出的构图特征F2有N=W×H个位置,其中W和H的取值均为7;
所述的任意节点特征之间的余弦相似性的计算如下:
Figure FDA0004171604110000022
其中,ei,j代表连接节点i,j的边;边的集合为
Figure FDA0004171604110000023
节点的集合和边的集合构成全连接图;
所述的对全局特征F1进行全局池化的实现如下:
所有的节点特征
Figure FDA0004171604110000024
进行平均池化得到全局特征
Figure FDA0004171604110000025
其中,xi是指全局特征F1的矩阵中第i个位置的特征。
2.根据权利要求1所述的一种用于美学质量评价的构图表征学习方法,其特征在于步骤(3)所述的全局特征与构图特征相融合:
对池化后的全局特征u和构图特征e,分别赋予不同的权重值,具体实现如下:
将池化后的全局特征u和构图特征e分别经过池化操作得到均值A1,A2,标准差S1,S2,最大值max1,max2,最小值min1,min2;将得到的8个特征值级联起来得到特征向量F,F∈Rh,h表示级联之后输出的向量长度,长度值为8;将特征向量F输入门控单元;
所述特征向量F在门控单元内的实现如下:
特征向量F先经过一层全连接层得到特征向量FC1,FC1∈R64再经Tanh激活函数,然后经过一层全连接层得特征向量FC2,FC2∈R2,FC2再经过一层Sigmoid得到两个特征值α,β;特征值α,β分别为通过门控单元学习到的全局特征u和构图特征e的权重;将全局特征与构图特征分别与各自权重相乘再级联得到融合特征,即αu⊕βe;
所述的特征值级联的顺序为:A1,A2,S1,S2,max1,max2,min1,min2。
3.根据权利要求2所述的一种用于美学质量评价的构图表征学习方法,其特征在于步骤(4)所述的美学分数预测以及准确率度量:
4-1将得到的融合特征输入美学评价模块,该美学评价模块包含两个全连接层和一个Softmax层,输出向量a=[a1,a2,…,a10],
其中,k的取值是1-10的自然数;原图片的最终得分为
Figure FDA0004171604110000031
Figure FDA0004171604110000032
原图片的人工得分为
Figure FDA0004171604110000033
ak和pk分别表示预测得分和实际得分为k的概率;
4-2损失函数选择EMDLoss,
Figure FDA0004171604110000034
其中p代表图片真实的美学分数分布;CDF()代表累积分布函数;当损失函数约束预测值越靠近真实值,预测结果越准确;
4-3将预测分数S与实际分数P相比较,计算二者的皮尔逊相关系数和斯皮尔曼相关系数,结果比目前最优分别高出0.242和0.238;准确率比目前最优结果高出2%。
CN202010214893.5A 2020-03-24 2020-03-24 一种用于美学质量评价的构图表征学习方法 Active CN111507941B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010214893.5A CN111507941B (zh) 2020-03-24 2020-03-24 一种用于美学质量评价的构图表征学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010214893.5A CN111507941B (zh) 2020-03-24 2020-03-24 一种用于美学质量评价的构图表征学习方法

Publications (2)

Publication Number Publication Date
CN111507941A CN111507941A (zh) 2020-08-07
CN111507941B true CN111507941B (zh) 2023-06-02

Family

ID=71877862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010214893.5A Active CN111507941B (zh) 2020-03-24 2020-03-24 一种用于美学质量评价的构图表征学习方法

Country Status (1)

Country Link
CN (1) CN111507941B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113592707A (zh) * 2021-08-03 2021-11-02 南开大学 基于图像内容外扩和美学引导的构图方法
CN117152409B (zh) * 2023-08-07 2024-09-27 中移互联网有限公司 基于多模态感知建模的图像裁剪方法、装置和设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107545570A (zh) * 2017-08-31 2018-01-05 中国地质大学(武汉) 一种半参考图的重构图像质量评价方法
CN107679250A (zh) * 2017-11-01 2018-02-09 浙江工业大学 一种基于深度自编码卷积神经网络的多任务分层图像检索方法
CN109801256A (zh) * 2018-12-15 2019-05-24 华南理工大学 一种基于感兴趣区域和全局特征的图像美学质量评估方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8660342B2 (en) * 2012-01-24 2014-02-25 Telefonica, S.A. Method to assess aesthetic quality of photographs
US10074003B2 (en) * 2014-07-11 2018-09-11 Intel Corporation Dynamic control for data capture
US10592743B2 (en) * 2017-08-24 2020-03-17 International Business Machines Corporation Machine learning to predict cognitive image composition
CN109063778A (zh) * 2018-08-09 2018-12-21 中共中央办公厅电子科技学院 一种图像美学质量确定方法及系统
CN109544524B (zh) * 2018-11-15 2023-05-23 中共中央办公厅电子科技学院 一种基于注意力机制的多属性图像美学评价系统
CN109829924B (zh) * 2019-01-18 2020-09-08 武汉大学 一种基于主体特征分析的图像质量评价方法
CN110519509A (zh) * 2019-08-01 2019-11-29 幻想动力(上海)文化传播有限公司 构图评价方法、摄影方法、装置、电子设备、存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107545570A (zh) * 2017-08-31 2018-01-05 中国地质大学(武汉) 一种半参考图的重构图像质量评价方法
CN107679250A (zh) * 2017-11-01 2018-02-09 浙江工业大学 一种基于深度自编码卷积神经网络的多任务分层图像检索方法
CN109801256A (zh) * 2018-12-15 2019-05-24 华南理工大学 一种基于感兴趣区域和全局特征的图像美学质量评估方法

Also Published As

Publication number Publication date
CN111507941A (zh) 2020-08-07

Similar Documents

Publication Publication Date Title
CN108681752B (zh) 一种基于深度学习的图像场景标注方法
CN108256426A (zh) 一种基于卷积神经网络的人脸表情识别方法
CN109523463A (zh) 一种基于条件生成对抗网络的人脸老化方法
CN111507941B (zh) 一种用于美学质量评价的构图表征学习方法
CN110569730A (zh) 一种基于U-net神经网络模型的路面裂缝自动识别方法
CN111340771B (zh) 一种融合视觉信息丰富度和宽深度联合学习的细颗粒物实时监测方法
CN112233129A (zh) 基于深度学习的并行多尺度注意力机制语义分割方法及装置
CN114821299B (zh) 一种遥感图像变化检测方法
CN112396587A (zh) 一种基于协同训练和密度图的公交车厢内拥挤度检测方法
CN107743225A (zh) 一种利用多层深度表征进行无参考图像质量预测的方法
CN111914758A (zh) 一种基于卷积神经网络的人脸活体检测方法及装置
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN117495735A (zh) 一种基于结构引导的建筑物立面纹理自动修复方法及系统
CN115830537A (zh) 一种人群计数方法
CN113627302B (zh) 一种登高施工合规性检测方法及系统
CN114663769A (zh) 一种基于YOLO v5的水果识别方法
CN110503606A (zh) 一种提高人脸清晰度的方法
CN116758401B (zh) 基于深度学习和遥感图像的城市内河水质评估方法
CN117541574A (zh) 一种基于ai语义分割和图像识别的舌诊检测方法
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法
TW202020724A (zh) 影像適應性特徵提取法及其應用
CN110490053B (zh) 一种基于三目摄像头深度估计的人脸属性识别方法
CN115880477A (zh) 一种基于深度卷积神经网络的苹果检测定位方法与系统
CN116012903A (zh) 一种人脸表情自动标注的方法及系统
CN114821174A (zh) 一种基于内容感知的输电线路航拍图像数据清洗方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant