CN111507941B - 一种用于美学质量评价的构图表征学习方法 - Google Patents
一种用于美学质量评价的构图表征学习方法 Download PDFInfo
- Publication number
- CN111507941B CN111507941B CN202010214893.5A CN202010214893A CN111507941B CN 111507941 B CN111507941 B CN 111507941B CN 202010214893 A CN202010214893 A CN 202010214893A CN 111507941 B CN111507941 B CN 111507941B
- Authority
- CN
- China
- Prior art keywords
- feature
- composition
- global
- features
- aesthetic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000012512 characterization method Methods 0.000 title claims abstract description 10
- 238000013441 quality evaluation Methods 0.000 title abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 40
- 230000004927 fusion Effects 0.000 claims abstract description 18
- 238000010276 construction Methods 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 claims abstract description 10
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000005259 measurement Methods 0.000 claims abstract description 4
- 238000011176 pooling Methods 0.000 claims description 13
- 238000011156 evaluation Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 238000001303 quality assessment method Methods 0.000 claims description 8
- 101100129500 Caenorhabditis elegans max-2 gene Proteins 0.000 claims description 6
- 101100083446 Danio rerio plekhh1 gene Proteins 0.000 claims description 6
- 238000000059 patterning Methods 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000005315 distribution function Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 230000000153 supplemental effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种用于美学质量评价的构图表征学习方法。本发明步骤如下:步骤(1)数据预处理,将所有数据集的图片经过调整尺寸和裁剪的操作缩放到统一大小;步骤(2)特征提取及全连接图构建,分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络,分别用来提取全局特征和构图特征;利用提取出来的构图特征构建全连接图;步骤(3)全局特征与构图特征相融合,将提取出来的全局特征与构图特征输入门控单元进行特征融合,获取融合特征;步骤(4)美学分数预测以及准确率度量。本发明提出了利用构图特征构建全连接图并与全局特征融合,而且获得了目前图片美学质量评价中的最好效果。
Description
技术领域
本发明提到了一种用于美学质量评价的构图表征学习(RepresentationLearning of Image Composition for Aesthetic Evaluation)的新方法,主要涉及一种利用卷积神经网络进行训练,对得到的深层特征即构图信息和全局信息进行表征学习的方式,以构建一个与人工评价结果更加一致的准确率较高的美学质量评价模型。
背景技术
图像美学质量评价(Photo Quality Assessment)是基于对图像的艺术理解通过计算方式准确的评估图片的美学质量。PQA应用空间广泛,例如最优图像筛选和自动搜索相机设置。此外,研究人员已在探索利用PQA从美学角度重构和增强图片。
之前研究人员主要利用手动设计的特征通过“浅表”机器学习技术判断图片是否专业。手工特征主要是基于专家知识的亮度对比,构图几何,构图以及场景构图等,然后利用支持向量机和神经网络等机器学习方法产生二进制美学标签。所以传统方法主要面向分类问题,即明确美学质量的好与坏。近期受到机器学习在各领域取得成功的启发,卷积神经网络(CNN)被用于训练图片美学评价模型,并且取得了不错的进展。
虽然PQA工作有一定的进展,但还是有很大的进步空间。现有方法方法大部分将图片输入CNN模型以取得美学质量评价结果,考虑到裁剪等数据预处理造成图片信息丢失,研究人员提出增加图片块和显著性图等补充信息作为额外输入,但额外的目标检测算法增加了计算复杂度;此外,尽管构图信息与美学质量评价息息相关,现存方法却很少将构图信息纳入图片质量评价体系。
发明内容
本发明的目的是针对现有技术的不足,提供一种利用构图特征进行表征学习用于图片美学质量评价的方法。对一个大型美学数据集AVA(Aesthetic Visual AnalysisDataste)数据集做了实验,该数据集包含超过25万张照片,每张图片平均由超过200人评分,分数范围为0到10分。并且在多个补充数据集(The Comparative Photo Dataset&TheJenAesthetics Subjective Dataset)上进行了有效性验证。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤(1)数据预处理
将所有数据集的图片经过调整尺寸和裁剪的操作缩放到统一大小;
步骤(2)特征提取及全连接图构建
分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络,分别用来提取全局特征和构图特征;
利用提取出来的构图特征构建全连接图;
所述的微调是指用指定的训练集对Moblinet v2进行训练,得到所需参数的指定网络;
步骤(3)全局特征与构图特征相融合
将提取出来的全局特征与构图特征输入门控单元进行特征融合,获取融合特征;
步骤(4)美学分数预测以及准确率度量
将融合特征输入美学评价模块得到美学质量分数,与数据集中原有的人工评分进行比较,计算美学质量分数的准确率。
进一步的,所述的步骤(1)所述的数据预处理:
1-1AVA数据集是一个包含25万多张图片的大型美学数据集,我们按照标准数据集划分方法,随机取80%的图片作为训练集,其余20%的数据集作为测试集;
1-2对图片进行预处理时先将图片缩放到256*256大小,然后对图片进行随机裁剪,大小变为224*224;
为防止过拟合,对训练集图片进行数据增强,所有图片进行随机水平翻转。
进一步的,所述的步骤(2)所述的特征提取及全连接图构建:
2-1分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络用来进行特征提取;
将整张图片分别输入全局特征提取网络和构图特征提取网络,分别得到全局特征F1和构图特征F2,F1,F2∈R7×7×1280;
2-2全连接图的构建如下:把构图特征提取网络输出的构图特征F2中,设每个位置Xi视为一个节点,其中i=1,2…,N;Xi位置对应的特征向量为节点特征;任意节点特征之间的余弦相似性视为边;该边的信息即图片的构图特征;对全局特征提取网络输出的全局特征F1进行全局池化,得到池化后包含全局信息的全局特征;
所述的全局特征F1和构图特征F2均为7*7的矩阵,矩阵中的每个位置作为节点;
所述的构图特征提取网络的输出的构图特征F2有N=W×H个位置,其中W和H的取值均为7;
所述的任意节点特征之间的余弦相似性的计算如下:
所述的对全局特征F1进行全局池化的实现如下:
进一步的,所述的步骤(3)所述的全局特征与构图特征相融合:
对池化后的全局特征u和构图特征e,分别赋予不同的权重值,具体实现如下:
将池化后的全局特征u和构图特征e分别经过池化操作得到均值A1,A2,标准差S1,S2,最大值max1,max2,最小值min1,min2;将得到的8个特征值级联起来得到特征向量F,F∈Rh,h表示级联之后输出的向量长度,长度值为8;将特征向量F输入门控单元;
所述特征向量F在门控单元内的实现如下:
特征向量F先经过一层全连接层得到特征向量FC1,FC1∈R64再经Tanh激活函数,然后经过一层全连接层得特征向量FC2,FC2∈R2,FC2再经过一层Sigmoid得到两个特征值α,β;特征值α,β分别为通过门控单元学习到的全局特征u和构图特征e的权重;将全局特征与构图特征分别与各自权重相乘再级联得到融合特征,即αu⊕βe;
所述的特征值级联的顺序为:A1,A2,S1,S2,max1,max2,min1,min2。
进一步的,所述的步骤(4)所述的美学分数预测以及准确率度量:
4-1将得到的融合特征输入美学评价模块,该美学评价模块包含两个全连接层和一个Softmax层,输出向量a=[a1,a2,…,a10],
4-3将预测分数S与实际分数P相比较,计算二者的皮尔逊相关系数(PLCC)和斯皮尔曼相关系数(SRCC),结果比目前最优分别高出0.242和0.238;准确率比目前最优结果高出2%。
本发明有益效果如下:
本发明对于美学评价的准确率和与人工评价的一致性在AVA数据及上处于领先地位,并且再在补充数据集(CPC&JAS)上表现也十分优异,因此在做相关工作时,利用本发明在图片美学质量评价工作上可以获得较高的正确率,与人类主观评分的一致性也较强。
附图说明
图1是利用构图与全局特征相融合的美学质量评价框架示意图;
图2是全局特征及构图特征提取网络的体系结构图;
具体实施细节
下面结合附图对本发明做进一步说明。
如图1和图2所示,一种用于美学质量评价的构图表征学习方法,具体包括如下步骤:
步骤(1)数据预处理
将所有数据集的图片经过调整尺寸和裁剪的操作缩放到统一大小。
步骤(2)特征提取及全连接图构建
分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络,分别用来提取全局特征和构图特征。
利用提取出来的构图特征构建全连接图。
所述的微调是指用指定的训练集对Moblinet v2进行训练,得到所需参数的指定网络。
步骤(3)全局特征与构图特征相融合
将提取出来的全局特征与构图特征输入门控单元进行特征融合,获取融合特征。
步骤(4)美学分数预测以及准确率度量
将融合特征输入美学评价模块得到美学质量分数,与数据集中原有的人工评分进行比较,计算美学质量分数的准确率。
进一步的,所述的步骤(1)所述的数据预处理:
1-1AVA数据集是一个包含25万多张图片的大型美学数据集,按照标准数据集划分方法,随机取80%的图片作为训练集,其余20%的数据集作为测试集。
1-2对图片进行预处理时先将图片缩放到256*256大小,然后对图片进行随机裁剪,大小变为224*224。
为防止过拟合,对训练集图片进行数据增强,所有图片进行随机水平翻转。
进一步的,所述的步骤(2)所述的特征提取及全连接图构建:
2-1分别对两个预训练的Moblinet v2进行微调构成全局特征提取网络和构图特征提取网络用来进行特征提取。
将整张图片分别输入全局特征提取网络和构图特征提取网络,分别得到全局特征F1和构图特征F2,F1,F2∈R7×7×1280;
2-2全连接图的构建如下:把构图特征提取网络输出的构图特征F2中,设每个位置Xi视为一个节点,其中i=1,2…,N;Xi位置对应的特征向量为节点特征;任意节点特征之间的余弦相似性视为边;该边的信息即图片的构图特征;对全局特征提取网络输出的全局特征F1进行全局池化,得到池化后包含全局信息的全局特征。
所述的全局特征F1和构图特征F2均为7*7的矩阵,矩阵中的每个位置作为节点;
所述的构图特征提取网络的输出的构图特征F2有N=W×H个位置,其中W和H的取值均为7;
所述的任意节点特征之间的余弦相似性的计算如下:
所述的对全局特征F1进行全局池化的实现如下:
进一步的,所述的步骤(3)所述的全局特征与构图特征相融合:
对池化后的全局特征u和构图特征e,分别赋予不同的权重值,具体实现如下:
将池化后的全局特征u和构图特征e分别经过池化操作得到均值A1,A2,标准差S1,S2,最大值max1,max2,最小值min1,min2;将得到的8个特征值级联起来得到特征向量F,F∈Rh,h表示级联之后输出的向量长度,长度值为8;将特征向量F输入门控单元;
所述特征向量F在门控单元内的实现如下:
特征向量F先经过一层全连接层得到特征向量FC1,FC1∈R64再经一层全连接层得特征向量FC2,FC2∈R2,FC2再经过一层Softmax得到两个特征值α,β;特征值α,β分别为通过门控单元学习到的全局特征u和构图特征e的权重。将全局特征与构图特征分别与各自权重相乘再级联得到融合特征,即αu⊕βe。
所述的特征值级联的顺序为:A1,A2,S1,S2,max1,max2,min1,min2;
进一步的,所述的步骤(4)所述的美学分数预测以及相关性和性度量:
在对图片进行美学质量评价的过程中,经过上述步骤能够得到全局特征与构图特征融合之后的特征向量,其中全局特征包含原图的全局信息,构图特包含原图的构图信息。
4-1将得到的融合特征输入美学评价模块,该美学评价模块包含两个全连接层和一个Softmax层,输出向量a=[a1,a2,…,a10],
4-3将预测分数S与实际分数P相比较,计算二者的皮尔逊相关系数(PLCC)和斯皮尔曼相关系数(SRCC),值越高说明相关性越大,也即模型预测分数与人工评判分数一致性越高;结果表明皮尔逊相关系数(PLCC)和斯皮尔曼相关系数(SRCC)比目前最优分别高出0.242和0.238;将美学评价视为二分类任务,将预测分数与实际分数按照阈值5分进行分类,高与阈值的标为1,低于阈值的标为0,重新标记后计算模型的分类准确率,准确率比目前最优结果高出2%。
Claims (3)
1.一种用于美学质量评价的构图表征学习方法,其特征在于包括如下步骤:
步骤(1)数据预处理
将所有数据集的图片经过调整尺寸和裁剪的操作缩放到统一大小;
步骤(2)特征提取及全连接图构建
分别对两个预训练的Mobilenet-v2进行微调构成全局特征提取网络和构图特征提取网络,分别用来提取全局特征和构图特征;
利用提取出来的构图特征构建全连接图;
所述的微调是指用指定的训练集对Mobilenet-v2进行训练,得到所需参数的指定网络;
步骤(3)全局特征与构图特征相融合
将提取出来的全局特征与构图特征输入门控单元进行特征融合,获取融合特征;
步骤(4)美学分数预测以及准确率度量
将融合特征输入美学评价模块得到美学质量分数,与数据集中原有的人工评分进行比较,计算美学质量分数的准确率;
步骤(1)所述的数据预处理:
1-1AVA数据集是一个包含25万多张图片的大型美学数据集,我们按照标准数据集划分方法,随机取80%的图片作为训练集,其余20%的数据集作为测试集;
1-2对图片进行预处理时先将图片缩放到256*256大小,然后对图片进行随机裁剪,大小变为224*224;
为防止过拟合,对训练集图片进行数据增强,所有图片进行随机水平翻转;
步骤(2)所述的特征提取及全连接图构建:
2-1分别对两个预训练的Mobilenet-v2进行微调构成全局特征提取网络和构图特征提取网络用来进行特征提取;
将整张图片分别输入全局特征提取网络和构图特征提取网络,分别得到全局特征F1和构图特征F2,F1,F2∈R7×7×1280;
2-2全连接图的构建如下:把构图特征提取网络输出的构图特征F2中,设每个位置Xi视为一个节点,其中i=1,2…,N;Xi位置对应的特征向量为节点特征;任意节点特征之间的余弦相似性视为边;该边的信息即图片的构图特征;对全局特征提取网络输出的全局特征F1进行全局池化,得到池化后包含全局信息的全局特征;
所述的全局特征F1和构图特征F2均为7*7的矩阵,矩阵中的每个位置作为节点;
所述的构图特征提取网络的输出的构图特征F2有N=W×H个位置,其中W和H的取值均为7;
所述的任意节点特征之间的余弦相似性的计算如下:
所述的对全局特征F1进行全局池化的实现如下:
2.根据权利要求1所述的一种用于美学质量评价的构图表征学习方法,其特征在于步骤(3)所述的全局特征与构图特征相融合:
对池化后的全局特征u和构图特征e,分别赋予不同的权重值,具体实现如下:
将池化后的全局特征u和构图特征e分别经过池化操作得到均值A1,A2,标准差S1,S2,最大值max1,max2,最小值min1,min2;将得到的8个特征值级联起来得到特征向量F,F∈Rh,h表示级联之后输出的向量长度,长度值为8;将特征向量F输入门控单元;
所述特征向量F在门控单元内的实现如下:
特征向量F先经过一层全连接层得到特征向量FC1,FC1∈R64再经Tanh激活函数,然后经过一层全连接层得特征向量FC2,FC2∈R2,FC2再经过一层Sigmoid得到两个特征值α,β;特征值α,β分别为通过门控单元学习到的全局特征u和构图特征e的权重;将全局特征与构图特征分别与各自权重相乘再级联得到融合特征,即αu⊕βe;
所述的特征值级联的顺序为:A1,A2,S1,S2,max1,max2,min1,min2。
3.根据权利要求2所述的一种用于美学质量评价的构图表征学习方法,其特征在于步骤(4)所述的美学分数预测以及准确率度量:
4-1将得到的融合特征输入美学评价模块,该美学评价模块包含两个全连接层和一个Softmax层,输出向量a=[a1,a2,…,a10],
4-3将预测分数S与实际分数P相比较,计算二者的皮尔逊相关系数和斯皮尔曼相关系数,结果比目前最优分别高出0.242和0.238;准确率比目前最优结果高出2%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010214893.5A CN111507941B (zh) | 2020-03-24 | 2020-03-24 | 一种用于美学质量评价的构图表征学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010214893.5A CN111507941B (zh) | 2020-03-24 | 2020-03-24 | 一种用于美学质量评价的构图表征学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111507941A CN111507941A (zh) | 2020-08-07 |
CN111507941B true CN111507941B (zh) | 2023-06-02 |
Family
ID=71877862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010214893.5A Active CN111507941B (zh) | 2020-03-24 | 2020-03-24 | 一种用于美学质量评价的构图表征学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111507941B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592707A (zh) * | 2021-08-03 | 2021-11-02 | 南开大学 | 基于图像内容外扩和美学引导的构图方法 |
CN117152409B (zh) * | 2023-08-07 | 2024-09-27 | 中移互联网有限公司 | 基于多模态感知建模的图像裁剪方法、装置和设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107545570A (zh) * | 2017-08-31 | 2018-01-05 | 中国地质大学(武汉) | 一种半参考图的重构图像质量评价方法 |
CN107679250A (zh) * | 2017-11-01 | 2018-02-09 | 浙江工业大学 | 一种基于深度自编码卷积神经网络的多任务分层图像检索方法 |
CN109801256A (zh) * | 2018-12-15 | 2019-05-24 | 华南理工大学 | 一种基于感兴趣区域和全局特征的图像美学质量评估方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8660342B2 (en) * | 2012-01-24 | 2014-02-25 | Telefonica, S.A. | Method to assess aesthetic quality of photographs |
US10074003B2 (en) * | 2014-07-11 | 2018-09-11 | Intel Corporation | Dynamic control for data capture |
US10592743B2 (en) * | 2017-08-24 | 2020-03-17 | International Business Machines Corporation | Machine learning to predict cognitive image composition |
CN109063778A (zh) * | 2018-08-09 | 2018-12-21 | 中共中央办公厅电子科技学院 | 一种图像美学质量确定方法及系统 |
CN109544524B (zh) * | 2018-11-15 | 2023-05-23 | 中共中央办公厅电子科技学院 | 一种基于注意力机制的多属性图像美学评价系统 |
CN109829924B (zh) * | 2019-01-18 | 2020-09-08 | 武汉大学 | 一种基于主体特征分析的图像质量评价方法 |
CN110519509A (zh) * | 2019-08-01 | 2019-11-29 | 幻想动力(上海)文化传播有限公司 | 构图评价方法、摄影方法、装置、电子设备、存储介质 |
-
2020
- 2020-03-24 CN CN202010214893.5A patent/CN111507941B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107545570A (zh) * | 2017-08-31 | 2018-01-05 | 中国地质大学(武汉) | 一种半参考图的重构图像质量评价方法 |
CN107679250A (zh) * | 2017-11-01 | 2018-02-09 | 浙江工业大学 | 一种基于深度自编码卷积神经网络的多任务分层图像检索方法 |
CN109801256A (zh) * | 2018-12-15 | 2019-05-24 | 华南理工大学 | 一种基于感兴趣区域和全局特征的图像美学质量评估方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111507941A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108681752B (zh) | 一种基于深度学习的图像场景标注方法 | |
CN108256426A (zh) | 一种基于卷积神经网络的人脸表情识别方法 | |
CN109523463A (zh) | 一种基于条件生成对抗网络的人脸老化方法 | |
CN111507941B (zh) | 一种用于美学质量评价的构图表征学习方法 | |
CN110569730A (zh) | 一种基于U-net神经网络模型的路面裂缝自动识别方法 | |
CN111340771B (zh) | 一种融合视觉信息丰富度和宽深度联合学习的细颗粒物实时监测方法 | |
CN112233129A (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN114821299B (zh) | 一种遥感图像变化检测方法 | |
CN112396587A (zh) | 一种基于协同训练和密度图的公交车厢内拥挤度检测方法 | |
CN107743225A (zh) | 一种利用多层深度表征进行无参考图像质量预测的方法 | |
CN111914758A (zh) | 一种基于卷积神经网络的人脸活体检测方法及装置 | |
CN111126155B (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN117495735A (zh) | 一种基于结构引导的建筑物立面纹理自动修复方法及系统 | |
CN115830537A (zh) | 一种人群计数方法 | |
CN113627302B (zh) | 一种登高施工合规性检测方法及系统 | |
CN114663769A (zh) | 一种基于YOLO v5的水果识别方法 | |
CN110503606A (zh) | 一种提高人脸清晰度的方法 | |
CN116758401B (zh) | 基于深度学习和遥感图像的城市内河水质评估方法 | |
CN117541574A (zh) | 一种基于ai语义分割和图像识别的舌诊检测方法 | |
CN115830302B (zh) | 一种多尺度特征提取融合配电网设备定位识别方法 | |
TW202020724A (zh) | 影像適應性特徵提取法及其應用 | |
CN110490053B (zh) | 一种基于三目摄像头深度估计的人脸属性识别方法 | |
CN115880477A (zh) | 一种基于深度卷积神经网络的苹果检测定位方法与系统 | |
CN116012903A (zh) | 一种人脸表情自动标注的方法及系统 | |
CN114821174A (zh) | 一种基于内容感知的输电线路航拍图像数据清洗方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |