CN111144497B - 基于美学分析的多任务深度网络下的图像显著性预测方法 - Google Patents

基于美学分析的多任务深度网络下的图像显著性预测方法 Download PDF

Info

Publication number
CN111144497B
CN111144497B CN201911385418.8A CN201911385418A CN111144497B CN 111144497 B CN111144497 B CN 111144497B CN 201911385418 A CN201911385418 A CN 201911385418A CN 111144497 B CN111144497 B CN 111144497B
Authority
CN
China
Prior art keywords
neural network
convolutional neural
aesthetic
multitasking
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911385418.8A
Other languages
English (en)
Other versions
CN111144497A (zh
Inventor
张静
吕锦成
刘婧
苏育挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201911385418.8A priority Critical patent/CN111144497B/zh
Publication of CN111144497A publication Critical patent/CN111144497A/zh
Application granted granted Critical
Publication of CN111144497B publication Critical patent/CN111144497B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于美学分析的多任务深度网络下的图像显著性预测方法:设计多任务卷积神经网络;将AVA美学分析数据库和SALICON显著性数据库的图像同时输入到设计好的多任务卷积神经网络;定义多任务卷积神经网络的损失函数,通过反向传播算法最小化损失函数;将测试集的图像经过多任务卷积神经网络并通过softmax级联输出单张图片的显著性映射分布。本发明能够提高模型预测图像显著性的鲁棒性,避免了需要统一图像尺寸而造成的图像信息结构破坏,大幅提高了图像显著性映射分布预测的精度,改善了传统方法缺少融合和关联人类视觉美学信息的问题。

Description

基于美学分析的多任务深度网络下的图像显著性预测方法
技术领域
本发明涉及一种图像显著性预测方法。特别是涉及一种基于美学分析的多任务深度网络下的图像显著性预测方法。
背景技术
随着计算机技术和通信技术的飞速发展,计算机视觉与人类视觉系统领域涌现出纷繁复杂的信息,其中图像是重要载体,而如何对视觉图像中的目标检测和识别成为一个重要的研究问题[1]。显著性映射作为目标检测和识别中重要的预处理步骤,已经引起足够的重视并成为了一项独立研究的课题。所谓显著性映射技术,即是聚焦图像中引起人眼注意的区域。
目前显著性映射的流行算法通过使用单独的端到端分层模型来预测显着性图,着重于使用目前目标检测领域新的卷积神经网络模型和研究合适的损失函数,一般只关注显著性映射任务的专有数据库本身,而这样的数据库的创建本身是艰难的且稀少的。比较接近跨域跨数据集的方法,主要将网络模型在诸如ImageNet图像分类挑战任务中进行预训练,然后利用已经预训练的骨架网络对显著性映射任务进一步训练,而鲜有能针对性迁移人类视觉美学先验知识来训练显著性映射任务。而研究表明,视觉注意力与视觉美学之间存在很强的相关性。Lind等人发现美学对象引起了人们的注意[2],因为它们很有趣。同样,根据Coe的研究,美学被用作创造物体或人的注意力的手段[3]。这些研究表明,视觉美学可能是帮助确定视觉注意力的关键,比如图像的布局和组成决定了图像美学和显着性,即位于图像的黄金分割点的目标,会影响人类图像美学的评估,吸引人类的注意力;图像颜色的协调,清晰的前景和模糊的背景和图像纹理的组合影响美学和显着性等等。
发明内容
本发明所要解决的技术问题是,提供一种能够提高图像显著性映射精度的基于美学分析的多任务深度网络下的图像显著性预测方法。
本发明所采用的技术方案是:一种基于美学分析的多任务深度网络下的图像显著性预测方法,包括如下步骤:
1)设计多任务卷积神经网络;
2)将AVA美学分析数据库和SALICON显著性数据库的图像同时输入到设计好的多任务卷积神经网络;
3)定义多任务卷积神经网络的损失函数,通过反向传播算法最小化损失函数;
4)将测试集的图像经过多任务卷积神经网络并通过softmax级联输出单张图片的显著性映射分布。
步骤1)所述的多任务卷积神经网络,包括:
(1)采用VGG16网络前13层的卷积层,其中,每层卷积滤波器的大小为3*3,步长为1,在第2、4、7、10层卷积层后面都有Maxpooling层用以降低特征图的尺寸,构成共享卷积部分,用以融合两个不同任务的数据的特征;
(2)在共享卷积部分后面设计两个分支,一个为美学分支,另一个为显著性分支,每个分支有各自的卷积神经网络,其中:
美学分支上,首先将共享部分的输出特征经过自适应空间池化,使得每个通道均分为9块,不同的特征在自适应空间池化后固定为相同尺度的特征,将相同尺度的特征展开为一维;再依次通过输出长度为4096和10的两个全连接层;最后加上Softmax操作;
显著性分支上,将共享部分的输出特征依次经过3层卷积滤波器处理,每个滤波器的大小为7*7,步长为1,3层卷积滤波器输出的特征通道数依次为32、8和1,再经过上采样和Softmax操作;
在多任务卷积神经网络中,每层卷积或全连接操作后都接ReLU激活函数。
步骤2)首先将AVA美学数据库按照7:2:1的比例划分为训练集、测试集和验证集;SALICON显著性数据库的图像已划分为训练集、测试集和验证集;其中,训练集用于多任务卷积神经网络参数的设定,验证集主要用于调整多任务卷积神经网络中的超参数,而测试集则用于判定多任务卷积神经网络的好坏;将训练集的图像输入到多任务卷积神经网络中,输入的方法是交替输入,即输入一张AVA美学数据库的图像,再输入一张SALICON显著性数据库的图像,以此重复。
步骤3)包括:
定义AVA美学数据库训练集和验证集图像Ia,Ia∈A和SALICON显著性数据库训练集和验证集图像Is,Is∈S,通过多任务卷积神经网络之后的输出分别定义为a和s,aj
Figure BDA0002343470800000021
分别是输出a和真实标签
Figure BDA0002343470800000022
的美学打分分布第j个位置值,si
Figure BDA0002343470800000023
分别代表输出s和真实值
Figure BDA0002343470800000024
的最后一层响应图第i个像素值;
多任务卷积神经网络的训练过程,是对于给定的集合X={xi,xi=Ia∨Is},通过反向传播算法去不断调整超参数,以达到最小化损失函数的目的,损失函数为:
Figure BDA0002343470800000025
Figure BDA0002343470800000026
其中,C1是显著性分支的损失函数,C2是美学分支的损失函数,N是最后一个响应图的总像素数;γ遵从大多数工作的设置,为2;M是分布长度,在这里为10;
最小化损失函数的问题看作为:
Figure BDA0002343470800000027
其中,超参数σ用来调整两个损失函数C1和C2的尺度,保证训练时收敛速度一致,超参数σ为经验值;多任务卷积神经网络的参数R通过标准反向传播不断去更新;由于R分为共享结构参数Rshare和分支结构参数Ra和Rs,因此在训练过程中交替的去训练Rshare、Ra和Rshare、Rs,最终找到最优解。
本发明的基于美学分析的多任务深度网络下的图像显著性预测方法,有益效果是:
1、通过本发明的方法迁移学习和显著性有关联的美学分析数据库,能够提高模型预测图像显著性的鲁棒性;
2、本发明的方法针对基于美学分析的图像显著性映射分布图设计了全新的多任务神经网络,其中美学支路中自适应空间池化以及显著性支路中全卷积结构,更是可以支持任意尺度的图像输入,避免了需要统一图像尺寸而造成的图像信息结构破坏;
3、本发明的方法大幅提高了图像显著性映射分布预测的精度,改善了传统方法缺少融合和关联人类视觉美学信息的问题。
附图说明
图1是本发明的基于美学分析的多任务深度网络下的图像显著性预测方法的流程图;
图2是本发明的多任务卷积神经网络示意图。
具体实施方式
下面结合实施例和附图对本发明的基于美学分析的多任务深度网络下的图像显著性预测方法做出详细说明。
如图1所示,本发明的基于美学分析的多任务深度网络下的图像显著性预测方法,包括如下步骤:
1)设计多任务卷积神经网络;所述的多任务卷积神经网络,包括:
(1)采用VGG16网络前13层的卷积层,其中,每层卷积滤波器的大小为3*3,步长为1,在第2、4、7、10层卷积层后面都有Maxpooling层用以降低特征图的尺寸,构成共享卷积部分,用以融合两个不同任务的数据的特征;
(2)在共享卷积部分后面设计两个分支,一个为美学分支,另一个为显著性分支,每个分支有各自的卷积神经网络,其中:
美学分支上,首先将共享部分的输出特征经过自适应空间池化,使得每个通道均分为9块,不同的特征在自适应空间池化后固定为相同尺度的特征,将相同尺度的特征展开为一维;再依次通过输出长度为4096和10的两个全连接层;最后加上Softmax操作;
显著性分支上,将共享部分的输出特征依次经过3层卷积滤波器处理,每个滤波器的大小为7*7,步长为1,3层卷积滤波器输出的特征通道数依次为32、8和1,再经过上采样和Softmax操作;
在多任务卷积神经网络中,每层卷积或全连接操作后都接ReLU激活函数。
2)将AVA美学分析数据库和SALICON显著性数据库的图像同时输入到设计好的多任务卷积神经网络;
首先将AVA美学数据库按照7:2:1的比例划分为训练集、测试集和验证集;SALICON显著性数据库的图像已划分为训练集、测试集和验证集;其中,训练集用于多任务卷积神经网络参数的设定,验证集主要用于调整多任务卷积神经网络中的超参数,而测试集则用于判定多任务卷积神经网络的好坏;将训练集的图像输入到多任务卷积神经网络中,输入的方法是交替输入,即输入一张AVA美学数据库的图像,再输入一张SALICON显著性数据库的图像,以此重复。
3)定义多任务卷积神经网络的损失函数,通过反向传播算法最小化损失函数;包括:
定义AVA美学数据库训练集和验证集图像Ia,Ia∈A和SALICON显著性数据库训练集和验证集图像Is,Is∈S,通过多任务卷积神经网络之后的输出分别定义为a和s,aj
Figure BDA0002343470800000041
分别是输出a和真实标签
Figure BDA0002343470800000042
的美学打分分布第j个位置值,si
Figure BDA0002343470800000043
分别代表输出s和真实值
Figure BDA0002343470800000044
的最后一层响应图第i个像素值;
多任务卷积神经网络的训练过程,是对于给定的集合X={xi,xi=Ia∨Is},通过反向传播算法去不断调整超参数,以达到最小化损失函数的目的,损失函数为:
Figure BDA0002343470800000045
Figure BDA0002343470800000046
其中,C1是显著性分支的损失函数,C2是美学分支的损失函数,N是最后一个响应图的总像素数;γ遵从大多数工作的设置,为2;M是分布长度,在这里为10;
最小化损失函数的问题看作为:
Figure BDA0002343470800000047
其中,超参数σ用来调整两个损失函数C1和C2的尺度,保证训练时收敛速度一致,超参数σ为经验值;多任务卷积神经网络的参数R通过标准反向传播不断去更新;由于R分为共享结构参数Rshare和分支结构参数Ra和Rs,因此在训练过程中交替的去训练Rshare、Ra和Rshare、Rs,最终找到最优解。
4)将测试集的图像经过多任务卷积神经网络并通过softmax级联输出单张图片的显著性映射分布。
在最小化损失函数后,神经网络最后一层通过softmax级联输出单张图片的显著性映射分布。一般而言,损失值越小,其得分将更加准确。
Softmax函数的表达式如下:
Figure BDA0002343470800000048
对于显著性分支的输出x,oi表示的就是第i处的输出值,S(oi)表示softmax处理的最终分布的值,显然∑S(oi)=1,这样便可得到最终的显著性映射分布。
综上所述,本发明的基于美学分析的多任务深度网络下的图像显著性预测方法设计了全新的多任务卷积神经网络结构,结合了人类视觉美学信息,提高了显著性预测的精度。
下面结合具体的试验对本发明的基于美学分析的多任务深度网络下的图像显著性预测方法进行可行性验证,详见下文描述:
表1对本实施例中的方案进行了可行性验证,采用sAUC(shuffled AUC)和AUC-Judd来衡量本方法的性能。AUC-Judd调整显著性映射图中的阈值从0到1上升,来计算真实显著性固定点为真阳性(True Positive,TP)或假阳性(False Positive,FP)的数目,从而绘制ROC(Receive Operator Curve)曲线,该曲线下的面积称为AUC-Judd[6]。sAUC[7]为减轻了随机阴性样本导致中心偏差的影响,将其他图像的真实显著性固定点计算在内。其中,ROC曲线的横轴与纵轴分别为假正类率(false postive rate,FPR)和真正类率(TruePositive Rate,TPR),计算如下:
Figure BDA0002343470800000051
Figure BDA0002343470800000052
其中,TP、FP、TN(True Negative)和FN(False Negative)的混淆矩阵表示如表2。
一般而言,AUC-Judd和sAUC越大,算法性能越好。由表1可知,本方法相较于目前现有方法,效果要好。
表1
方法 sAUC AUC-Judd
Itti 0.73 0.77
GVBS 0.66 0.83
eDN 0.66 0.85
Deeo-Net 0.73 0.86
Mr-CNN 0.73 0.80
本方法 0.74 0.86
表2
Figure BDA0002343470800000053
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
参考文献:
[1]Grauman,K and Leibe B,Visual object recognition[M].Synthesislectures on artificial intelligence and machine learning,2011,5(2),1-181.
[2]Richard W L,Attention and the aesthetic object[J].The Journal ofAesthetics and Art Criticism,1980,39(2):131–142.
[3]Kathryn C.Art:The replicable unitan inquiry into the possibleorigin of art as a social behavior[J].Journal of Social and EvolutionarySystems,1992,15(2):217–234.
[4]PerronninF,Marchesotti L,Murray N.AVA:A large-scale database foraesthetic visual analysis[C].2012 IEEE Conference on Computer Vision andPattern Recognition.IEEE Computer Society,2012.
[5]Ming J,Huang S,Duan J,et al.SALICON:Saliency in Context[C].Computer Vision&Pattern Recognition.2015
[6]Riche N,Duvinage M,Mancas M,et al.Saliency and Human Fixations:State-of-the-Art and Study of Comparison Metrics[C].International Conferenceon Computer Vision.IEEE,2013.
[7]Borji A,Tavakoli H R,Sihite D N,et al.Analysis of Scores,Datasets,and Models in Visual Saliency Prediction.[C].International Conference onComputer Vision.IEEE,2014.

Claims (3)

1.一种基于美学分析的多任务深度网络下的图像显著性预测方法,其特征在于,包括如下步骤:
1)设计多任务卷积神经网络;所述的多任务卷积神经网络,包括:
(1)采用VGG16网络前13层的卷积层,其中,每层卷积滤波器的大小为3*3,步长为1,在第2、4、7、10层卷积层后面都有Maxpooling层用以降低特征图的尺寸,构成共享卷积部分,用以融合两个不同任务的数据的特征;
(2)在共享卷积部分后面设计两个分支,一个为美学分支,另一个为显著性分支,每个分支有各自的卷积神经网络,其中:
美学分支上,首先将共享部分的输出特征经过自适应空间池化,使得每个通道均分为9块,不同的特征在自适应空间池化后固定为相同尺度的特征,将相同尺度的特征展开为一维;再依次通过输出长度为4096和10的两个全连接层;最后加上Softmax操作;
显著性分支上,将共享部分的输出特征依次经过3层卷积滤波器处理,每个滤波器的大小为7*7,步长为1,3层卷积滤波器输出的特征通道数依次为32、8和1,再经过上采样和Softmax操作;
在多任务卷积神经网络中,每层卷积或全连接操作后都接ReLU激活函数;
2)将AVA美学分析数据库和SALICON显著性数据库的图像同时输入到设计好的多任务卷积神经网络;
3)定义多任务卷积神经网络的损失函数,通过反向传播算法最小化损失函数;
4)将测试集的图像经过多任务卷积神经网络并通过softmax级联输出单张图片的显著性映射分布。
2.根据权利要求1所述的基于美学分析的多任务深度网络下的图像显著性预测方法,其特征在于,步骤2)首先将AVA美学数据库按照7:2:1的比例划分为训练集、测试集和验证集;SALICON显著性数据库的图像已划分为训练集、测试集和验证集;其中,训练集用于多任务卷积神经网络参数的设定,验证集主要用于调整多任务卷积神经网络中的超参数,而测试集则用于判定多任务卷积神经网络的好坏;将训练集的图像输入到多任务卷积神经网络中,输入的方法是交替输入,即输入一张AVA美学数据库的图像,再输入一张SALICON显著性数据库的图像,以此重复。
3.根据权利要求1所述的基于美学分析的多任务深度网络下的图像显著性预测方法,其特征在于,步骤3)包括:
定义AVA美学数据库训练集和验证集图像Ia,Ia∈A和SALICON显著性数据库训练集和验证集图像Is,Is∈S,通过多任务卷积神经网络之后的输出分别定义为a和s,aj
Figure FDA0004080080600000011
分别是输出a和真实标签
Figure FDA0004080080600000012
的美学打分分布第j个位置值,si
Figure FDA0004080080600000013
分别代表输出s和真实值
Figure FDA0004080080600000014
的最后一层响应图第i个像素值;
多任务卷积神经网络的训练过程,是对于给定的集合X={xi,xi=Ia∨Is},通过反向传播算法去不断调整超参数,以达到最小化损失函数的目的,损失函数为:
Figure FDA0004080080600000021
Figure FDA0004080080600000022
其中,C1是显著性分支的损失函数,C2是美学分支的损失函数,N是最后一个响应图的总像素数;γ遵从大多数工作的设置,为2;M是分布长度,在这里为10;
最小化损失函数的问题看作为:
Figure FDA0004080080600000023
其中,超参数σ用来调整两个损失函数C1和C2的尺度,保证训练时收敛速度一致,超参数σ为经验值;多任务卷积神经网络的参数R通过标准反向传播不断去更新;由于R分为共享结构参数Rshare和分支结构参数Ra和Rs,因此在训练过程中交替的去训练Rshare、Ra和Rshare、Rs,最终找到最优解。
CN201911385418.8A 2019-12-28 2019-12-28 基于美学分析的多任务深度网络下的图像显著性预测方法 Active CN111144497B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911385418.8A CN111144497B (zh) 2019-12-28 2019-12-28 基于美学分析的多任务深度网络下的图像显著性预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911385418.8A CN111144497B (zh) 2019-12-28 2019-12-28 基于美学分析的多任务深度网络下的图像显著性预测方法

Publications (2)

Publication Number Publication Date
CN111144497A CN111144497A (zh) 2020-05-12
CN111144497B true CN111144497B (zh) 2023-04-28

Family

ID=70521598

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911385418.8A Active CN111144497B (zh) 2019-12-28 2019-12-28 基于美学分析的多任务深度网络下的图像显著性预测方法

Country Status (1)

Country Link
CN (1) CN111144497B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4256479A1 (en) * 2020-12-03 2023-10-11 National University of Singapore Method and system for training a neural network
CN112668643B (zh) * 2020-12-28 2022-10-21 武汉工程大学 一种基于格式塔法则的半监督显著性检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN109544524A (zh) * 2018-11-15 2019-03-29 中共中央办公厅电子科技学院 一种基于注意力机制的多属性图像美学评价系统
CN109801256A (zh) * 2018-12-15 2019-05-24 华南理工大学 一种基于感兴趣区域和全局特征的图像美学质量评估方法
CN110473164A (zh) * 2019-05-31 2019-11-19 北京理工大学 一种基于注意力机制的图像美学质量评价方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311364B2 (en) * 2009-09-25 2012-11-13 Eastman Kodak Company Estimating aesthetic quality of digital images
US9830529B2 (en) * 2016-04-26 2017-11-28 Xerox Corporation End-to-end saliency mapping via probability distribution prediction
US10719927B2 (en) * 2017-01-04 2020-07-21 Samsung Electronics Co., Ltd. Multiframe image processing using semantic saliency

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN109544524A (zh) * 2018-11-15 2019-03-29 中共中央办公厅电子科技学院 一种基于注意力机制的多属性图像美学评价系统
CN109801256A (zh) * 2018-12-15 2019-05-24 华南理工大学 一种基于感兴趣区域和全局特征的图像美学质量评估方法
CN110473164A (zh) * 2019-05-31 2019-11-19 北京理工大学 一种基于注意力机制的图像美学质量评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨国亮 ; 曾建尤 ; 王志元 ; .基于深层卷积神经网络的图像美感度分类.中北大学学报(自然科学版).(第04期),全文. *

Also Published As

Publication number Publication date
CN111144497A (zh) 2020-05-12

Similar Documents

Publication Publication Date Title
CN108319972B (zh) 一种针对图像语义分割的端到端差异网络学习方法
CN110084173B (zh) 人头检测方法及装置
CN108154118B (zh) 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN108182441B (zh) 平行多通道卷积神经网络、构建方法及图像特征提取方法
CN108898620B (zh) 基于多重孪生神经网络与区域神经网络的目标跟踪方法
WO2018052587A1 (en) Method and system for cell image segmentation using multi-stage convolutional neural networks
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
CN108470354A (zh) 视频目标跟踪方法、装置和实现装置
CN110084215A (zh) 一种二值化三元组孪生网络模型的行人重识别方法及系统
CN108921019B (zh) 一种基于GEI和TripletLoss-DenseNet的步态识别方法
CN108009222B (zh) 基于较优视图和深度卷积神经网络的三维模型检索方法
JP2017513144A (ja) 顔認証方法およびシステム
CN106650617A (zh) 一种基于概率潜在语义分析的行人异常识别方法
CN111860587B (zh) 一种用于图片小目标的检测方法
CN108038859A (zh) 基于pso和综合评价准则的pcnn图分割方法及装置
CN113706581B (zh) 基于残差通道注意与多层次分类回归的目标跟踪方法
CN111144497B (zh) 基于美学分析的多任务深度网络下的图像显著性预测方法
CN112560710B (zh) 一种用于构建指静脉识别系统的方法及指静脉识别系统
CN112070768A (zh) 基于Anchor-Free的实时实例分割方法
CN111126249A (zh) 一种大数据和贝叶斯相结合的行人重识别方法及装置
CN109919246A (zh) 基于自适应特征聚类和多重损失融合的行人重识别方法
CN109376699A (zh) 一种基于卷积神经网络的指纹识别方法
CN113033547A (zh) 一种基于MobileNetV2的焊接状态分类方法
CN114219824A (zh) 基于深度网络的可见光-红外目标跟踪方法及系统
Zhu et al. A novel simple visual tracking algorithm based on hashing and deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant