CN109360191A - 一种基于变分自编码器的图像显著性检测方法 - Google Patents

一种基于变分自编码器的图像显著性检测方法 Download PDF

Info

Publication number
CN109360191A
CN109360191A CN201811113241.1A CN201811113241A CN109360191A CN 109360191 A CN109360191 A CN 109360191A CN 201811113241 A CN201811113241 A CN 201811113241A CN 109360191 A CN109360191 A CN 109360191A
Authority
CN
China
Prior art keywords
pixel
super
image
variation
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811113241.1A
Other languages
English (en)
Other versions
CN109360191B (zh
Inventor
孙正兴
徐峻峰
李博
胡佳高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201811113241.1A priority Critical patent/CN109360191B/zh
Publication of CN109360191A publication Critical patent/CN109360191A/zh
Application granted granted Critical
Publication of CN109360191B publication Critical patent/CN109360191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于变分自编码器的图像显著性检测方法,包括如下步骤:首先将输入图像分割成超像素,并计算每个超像素的边界连通性,根据连通性值筛选出背景样本集;然后构建变分子编码器深度网络模型,使用得到的背景样本数据通过随机梯度下降方式对网络进行训练;最后,使用训练完成的变分自编码器网络对整幅图像的所有超像素进行重建,并计算重建错误,得到显著性值。

Description

一种基于变分自编码器的图像显著性检测方法
技术领域
本发明属于图像处理技术领域,涉及一种基于变分自编码器的图像显著性检测方法。
背景技术
最近,致力于寻找图像中重要部分的显著性检测已经成为计算机视觉领域研究中的热点问题。显著性检测作为视觉媒体处理的重要一环,为诸如对象分割,图像检索,图像内容编辑等诸多视觉应用提供了有效的帮助。
通常,在显著性检测领域,已有的方法可以被分为自上而下或者自下而上两种。自上而下的方法是任务驱动型,需要人工标注的真值图像进行监督训练。为了更好地从背景中辨别显著物体,我们需要应用高级信息和监督方法来提高显著性图的准确率。相反,自下而上的方法通常利用低级线索,比如特征,颜色和空间距离来构建显著性图。一种应用最多的原则是对比度优先原则。这种原则主要是通过计算一个区域和周围环境的颜色对比度和空间对比度来得到该区域的显著性值。然而,已有方法都是通过计算图像区域在低层特征上的差异对比度来计算显著性结果,如专利《一种显著性区域的检测方法》(201510297326.X),通过计算图像区域的RGB与LAB颜色空间上的特征对比度来得到区域的显著性值。当遇到较为复杂的图像时,低层特征对比度无法反应出显著差异,导致检测结果较差。另外,还有一些方法是基于边缘优先性。它们假设图像边缘的区域更加有可能成为背景,如专利《一种图像目标显著性度量方法》(201711124512.9),通过计算边界图像块与最临近目标图像块的匹配差异来计算任意目标的显著性值。诚然,图像的边缘有很大可能成为背景,这在文献1:A.Borji,D.N.Sihite,and L.Itti.Salient object detection:Abenchmark.In Computer Vision--ECCV 2012,pages 414--429.Springer,2012.1,中有所证明。但是,像之前大多数方法那样,将图像边缘上的所有点都归为背景点并不合理。如果目标物体出现在图像的边缘,被选做背景的种子就会不准确,并直接导致错误的显著检测结果。同时,已有的方法在发掘背景种子点的模式时,受模型本身的限制,对于背景的泛化表达能力差,也会导致部分背景区域被检测出较高的显著性。
纵观现有的图像显著性领域的研究和应用可知,目前的单幅图像显著性检测方法,存在着如下的不足:
(1)仅使用低层图像特征进行显著性计算,导致显著检测结果存在图像语意层面的误差。
(2)在利用边缘优先性时,错误选取目标物体为背景种子点,导致错误的显著检测结果。使用的模式识别模型在泛化表达能力上有所欠缺,导致背景区域被误检为显著对象。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于变分自编码器的图像显著性检测算法,用于支持对图像中显著目标的有效检测。
为了解决上述技术问题,本发明公开了一种基于变分自编码器的图像显著性检测算法,包括如下步骤:
包括如下步骤:
步骤1,输入图像,筛选背景样本;
步骤2,通过背景样本训练变分自编码器深度网络模型;
步骤3,通过变分自编码器深度网络模型计算超像素重建错误,得到图像的显著性值。
步骤1包括如下步骤:
步骤1-1,使用SLIC(Simple Linear Iterative Cluster)简单线性迭代聚类方法将输入的整幅图像划分为N1(一般取值为300)个超像素,并计算每个超像素的平均CIELab颜色统计特征值;
步骤1-2,使用K-means聚类算法通过对超像素CIELab颜色统计特征值进行聚类得到图像区域,并计算每个图像区域的边界连通性;
步骤1-3,计算区域中超像素的边界连通性;
步骤1-4,根据超像素的边界连通性计算得到超像素属于背景的概率。
步骤1-2中,使用如下公式计算每个图像区域的边界连通性:
其中RGm代表图像中第m个区域,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域,即图像最外围超像素组成的区域。
步骤1-3中,使用如下公式计算图像区域中超像素的边界连通性:
bdconn(SPO=bdconn(RGm),(SPi∈RGm)
其中,bdconn(SPi)表示第i个超像素的边界连通性,第i个超像素的边界连通性与其所在图像区域的边界连通性相同,
步骤1-4中,通过如下公式计算得到超像素属于背景的概率:
其中bgPro(SPi)代表第i个超像素属于背景的概率,表示平衡权重,选取属于背景的概率大于或等于N2(一般取值为0.8)的超像素组成背景样本集合B。
步骤2包含如下步骤,
步骤2-1,构建一个深度为5的变分自编码器深度网络模型,包括输入层,隐藏层一,变分层,隐藏层三,输出层,相邻两层之间采用全连接方式连接,其中输入层单元数量为N3(一般取值为400),对应于超像素中包含的像素RGB值,隐藏层单元数量为N4(一般取值为300),网络为对称设计形式,即变分自编码器中编码器部分和解码器部分网络结构对称一致;
步骤2-2,使用方向传播和随机梯度下降法训练变分自编码器深度网络模型:每一个隐藏层需要训练的参数为Wj和bj,输入为向量x,表示背景样本集合B中超像素SPi中像素RGB值,输出为向量当进行反向传播时,输入为向量y,输出为向量 是网络中使用的非线性激活函数;训练过程中,损失函数L定义为编码解码交叉熵和KL散度之和,公式如下:
其中q(z|x)为输入向量x在变分空间z中的高斯分布,p(x|z)是输出向量在变分空间z中的高斯分布通,损失函数前项表示交叉熵损失,后项
DKL(q(z|x)||p(z))是KL(Kullback-Leibler Divergence)散度,对每个隐藏层,分别使用随机梯度下降法,最小化L,得到参数Wj和bj
步骤3包含如下步骤,
步骤3-1,对于图像中第i个超像素SPi,xi表示其RGB像素值,通过训练得到的变分自编码器深度网络模型,得到xi对应的编码解码结果从而计算得到该超像素SPi的变分重建错误
步骤3-2,通过第i个超像素SPi的变分重建错误计算得到第i个超像素SPi的显著性值
步骤3-3,采用步骤3-1~步骤3-2的方法得到N1个超像素的显著性值,从而得到图像的显著性值。
步骤3-1中,通过如下公式计算得到第i个超像素SPi的变分重建错误
步骤3-2中,通过如下公式计算得到第i个超像素SPi的显著性值
本发明通过引入变分自编码器深度网络尝试从深度空间计算图像显著性,克服了以往背景模式建模时模型泛化能力不足的情况;同时利用有超像素的边界连通性优化了边缘背景种子点的选取过程,大大降低了目标对象被错选为背景样本的可能,提高了显著性检测的的精度。从而使得本发明有着较高的应用价值。
有益效果:本发明具有如下优点:首先,本发明基于边界连通性检测进行背景样本的筛选,获得了包含错误较少的纯净背景样本集合,提高了对图像非显著背景区域的建模精度;其次,本发明通过构建新的变分自编码器深度网络,并通过随机梯度下降方式对其进行了高效训练,实现了在深度空间上对图像显著信息的探查,并提高了对背景建模的泛化能力;最后,本发明提出基于变分重建错误计算得到的图线显著性方法,能得到输入图像较为准确的显著性检测结果,提高了检测精度。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述或其他方面的优点将会变得更加清楚。
图1是本发明的处理流程示意图。
图2是变分自编码器结构示意图。
图3a是对部分牲畜类图像进行显著检测的结果与已有其他显著性方法检测结果对比示意图。
图3b是对部分人脸图像进行显著检测的结果与已有其他显著性方法检测结果对比示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
如图1所示,本发明公开了一种基于变分自编码器的图像显著性检测算法,包括如下步骤:
步骤1,背景样本筛选。
步骤1.1,使用文献2:R.Achanta,A.Shaji,K.Smith,A.Lucchi,P.Fua,and S.S¨usstrunk.Slic superpixels compared to state-of-the-art superpixel methods.T-PAMI,34(11):2274–2282,2012,中SLIC(简单线性迭代聚类)方法将输入的整幅图像划分为300个超像素,并计算每个超像素的平均CIELab颜色统计特征值。
步骤1.2,利用文献3:W.Zhu,S.Liang,Y.Wei,and J.Sun,“Saliencyoptimization from robust background detection,”in Proceedings of the IEEEComputer Society Conference on Computer Vision and Pattern Recognition,2014,pp.2814–2821,中边界连通性计算超像素属于背景的概率,实现使用如下公式计算每个区域的边界连通性:
其中RGm代表图像中第m个区域,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域。然后区域中超像素的边界连通性可以用如下公式计算:
bdconn(SPi)=bdconn(RGm),(SPi∈RGm)
其中超像素i的边界连通性与其所在区域的边界连通性相同。
然后根据超像素的边界连通性可以计算得到超像素属于背景的概率,计算公式如下:
其中bgPro(SPi)代表第i个超像素的背景概率,属于平衡权重。选取背景概率大于或等于0.8的超像素组成背景样本集合B。
如图2所示,为本发明步骤2,变分自编码器训练,具体包括:
步骤2.1,构建变分自编码器模型:构建一个深度为5的变分自编码器深度网络模型,包括输入层,隐藏层一,变分层,隐藏层三,输出层,相邻两层之间采用全连接方式连接。其中输入层单元数量为400,对应于超像素中包含的像素RGB值。隐藏层单元数量为300,网络为对称设计形式。
步骤2.2,使用方向传播和随机梯度下降法训练神经网络模型:使用文献4:HintonG E,Salakhutdinov R R.Reducing the dimensionality of data with neuralnetworks[J].science,2006,313(5786):504-507,中的方法训练网络。每一个隐藏层需要训练的参数为Wj和bj,输入为向量x,表示背景样本集合B中超像素SPi中像素RGB值,输出为向量当进行反向传播时,输入为向量y,输出为向量 是网络中使用的非线性激活函数;训练过程中,损失函数定义为编码—解码交叉熵和KL散度之和,公式如下:
其中q(z|x)为输入向量x在变分空间z中的高斯分布,p(x|z)是输出向量在变分空间z中的高斯分布通,损失函数前项是交叉熵,后项是KL散度。对每个隐藏层,分别使用随机梯度下降法,最小化L,得到参数Wj和bj
步骤3,计算超像素重建错误,得到显著性值。
对于图像中所有的超像素SPi,xi表示其RGB像素值。通过训练得到的变分自编码器深度网络,对于每个xi,都能得到其对应的编码—解码结果则可以计算该超像素的变分重建错误:
然后可以得到该超像素的显著性值,通过如下公式:
使用文献5:Dingwen Zhang,Deyu Meng,and Junwei Han.2017.Co-saliencydetection via a self-paced multiple-instance learning framework.IEEEtransactions on pattern analysis and machine intelligence 39,5(2017),865–878.
使用文献6:Dingwen Zhang,Junwei Han,Chao Li,Jingdong Wang,and XuelongLi.2016.Detection of Co-salient Objects by Looking Deep andWide.International Journal of Computer Vision 120,2(2016),215–232.https://doi.org/10.1007/s11263-016-0907-4
使用文献7:Xiaochun Cao,Zhiqiang Tao,Bao Zhang,Huazhu Fu,and WeiFeng.2014.Selfadaptively weighted co-saliency detection via rankconstraint.IEEE Transaction on Image Processing 23,9(2014),4175–4186.https://doi.org/10.1109/TIP.2014.等文献结果作为对比结果,进一步说明本发明效果的优点。
图3a是对部分牲畜类图像进行显著检测的结果与已有其他显著性方法检测结果对比示意图;图3a中,第一行是原图,第二行是真值图,第三行是本发明结果,第四行是文献5结果,第五行是文献6结果,第六行是文献7结果,由效果可见,对比已有的显著检测方法,本发明的显著检测结果能够更好地标记出显著对象(牲畜)的完整轮廓,显著对象内的显著性值分布更加均衡,同时能够更好地抑制背景区域(草地、灌木、树林等)的显著性值。
图3b是对部分人脸图像进行显著检测的结果与已有其他显著性方法检测结果对比示意图;图3b中,第一行是原图,第二行是真值图,第三行是本发明结果,第四行是文献5结果,第五行是文献6结果,第六行是文献7结果,由效果可见,对比已有的显著检测方法,本发明的显著检测结果能够更好地标记出显著对象(人脸)的完整轮廓,显著对象内的显著性值分布更加均衡,同时能够更好地抑制背景区域的显著性值,同时减少非显著区域(人脸下方的衣物和脖颈)的干扰。
本发明提供了一种基于变分自编码器的图像显著性检测方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (9)

1.一种基于变分自编码器的图像显著性检测方法,其特征在于,包括如下步骤:
步骤1,输入图像,筛选背景样本;
步骤2,通过背景样本训练变分自编码器深度网络模型;
步骤3,通过变分自编码器深度网络模型计算超像素重建错误,得到图像的显著性值。
2.根据权利要求1所述的方法,其特征在于,步骤1包括如下步骤:
步骤1-1,使用SLIC简单线性迭代聚类方法将输入的整幅图像划分为N1个超像素,并计算每个超像素的平均CIELab颜色统计特征值;
步骤1-2,使用K-means聚类算法通过对超像素CIELab颜色统计特征值进行聚类得到图像区域,并计算每个图像区域的边界连通性;
步骤1-3,计算图像区域中超像素的边界连通性;
步骤1-4,根据超像素的边界连通性计算得到超像素属于背景的概率。
3.根据权利要求2所述的方法,其特征在于,步骤1-2中,使用如下公式计算每个图像区域的边界连通性:
其中RGm代表图像中第m个区域,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域,即图像最外围超像素组成的区域。
4.根据权利要求3所述的方法,其特征在于,步骤1-3中,使用如下公式计算图像区域中超像素的边界连通性:
bdconn(SPi)=bdconn(RGm),(SPi∈RGm),
其中,bdconn(SPi)表示第i个超像素的边界连通性,第i个超像素的边界连通性与其所在图像区域的边界连通性相同。
5.根据权利要求4所述的方法,其特征在于,步骤1-4中,通过如下公式计算得到超像素属于背景的概率:
其中bgPro(SPi)代表第i个超像素属于背景的概率,表示平衡权重,选取属于背景的概率大于或等于N2的超像素组成背景样本集合B。
6.根据权利要求5所述的方法,其特征在于,步骤2包含如下步骤,
步骤2-1,构建一个深度为5的变分自编码器深度网络模型,包括输入层,隐藏层一,变分层,隐藏层三,输出层,相邻两层之间采用全连接方式连接,其中输入层单元数量为N3,对应于超像素中包含的像素RGB值,隐藏层单元数量为N4,网络为对称设计形式,即变分自编码器中编码器部分和解码器部分网络结构对称一致;
步骤2-2,使用方向传播和随机梯度下降法训练变分自编码器深度网络模型:每一个隐藏层需要训练的参数为Wj和bj,输入为向量x,表示背景样本集合B中超像素SPi中像素RGB值,输出为向量当进行反向传播时,输入为向量y,输出为向量 是网络中使用的非线性激活函数;训练过程中,损失函数L定义为编码解码交叉熵和KL散度之和,公式如下:
其中q(z|x)为输入向量x在变分空间z中的高斯分布,p(x|z)是输出向量在变分空间z中的高斯分布通,损失函数前项表示交叉熵损失,后项DKL(q(z|x)||p(z))是KL散度,对每个隐藏层,分别使用随机梯度下降法,最小化L,得到参数Wj和bj
7.根据权利要求6所述的方法,其特征在于,步骤3包含如下步骤,
步骤3-1,对于图像中第i个超像素SPi,xi表示其RGB像素值,通过训练得到的变分自编码器深度网络模型,得到xi对应的编码解码结果从而计算得到该超像素SPi的变分重建错误
步骤3-2,通过第i个超像素SPi的变分重建错误计算得到第i个超像素SPi的显著性值
步骤3-3,采用步骤3-1~步骤3-2的方法得到N1个超像素的显著性值,从而得到图像的显著性值。
8.根据权利要求7所述的方法,其特征在于,步骤3-1中,通过如下公式计算得到第i个超像素SPi的变分重建错误
9.根据权利要求8所述的方法,其特征在于,步骤3-2中,通过如下公式计算得到第i个超像素SPi的显著性值
CN201811113241.1A 2018-09-25 2018-09-25 一种基于变分自编码器的图像显著性检测方法 Active CN109360191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811113241.1A CN109360191B (zh) 2018-09-25 2018-09-25 一种基于变分自编码器的图像显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811113241.1A CN109360191B (zh) 2018-09-25 2018-09-25 一种基于变分自编码器的图像显著性检测方法

Publications (2)

Publication Number Publication Date
CN109360191A true CN109360191A (zh) 2019-02-19
CN109360191B CN109360191B (zh) 2020-06-12

Family

ID=65351366

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811113241.1A Active CN109360191B (zh) 2018-09-25 2018-09-25 一种基于变分自编码器的图像显著性检测方法

Country Status (1)

Country Link
CN (1) CN109360191B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993208A (zh) * 2019-03-04 2019-07-09 北京工业大学 一种有噪声图像的聚类处理方法
CN110517759A (zh) * 2019-08-29 2019-11-29 腾讯科技(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置
CN113544704A (zh) * 2019-03-26 2021-10-22 日本电信电话株式会社 评价装置、评价方法以及评价程序
CN114677368A (zh) * 2022-04-19 2022-06-28 中国人民解放军32021部队 一种图像显著性检测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529419A (zh) * 2016-10-20 2017-03-22 北京航空航天大学 视频显著性堆栈式聚合的对象自动检测方法
US20170193294A1 (en) * 2015-12-31 2017-07-06 International Business Machines Corporation Visual object and event detection and prediction system using saccades
CN108171701A (zh) * 2018-01-15 2018-06-15 复旦大学 基于u网络和对抗学习的显著性检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170193294A1 (en) * 2015-12-31 2017-07-06 International Business Machines Corporation Visual object and event detection and prediction system using saccades
CN106529419A (zh) * 2016-10-20 2017-03-22 北京航空航天大学 视频显著性堆栈式聚合的对象自动检测方法
CN108171701A (zh) * 2018-01-15 2018-06-15 复旦大学 基于u网络和对抗学习的显著性检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BO LI ET.AL: "Co-saliency Detection via Sparse reconstruction and Co-salient Object Discovery", 《PCM 2017: ADVANCES IN MULTIMEDIA INFORMATION PROCESSING》 *
JUNWEI HAN ET.AL: "Background Prior-Based Salient Object Detection via Deep Reconstruction Residual", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
RIJNDER WEVER ET.AL: "Subitizing with Variational Autoencoders", 《ARXIV:1808.00257V1 [CS.CV]》 *
WANGJIANG ZHU ET.AL: "Saliency Optimization from Robust Background Detection", 《CVPR2014》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993208A (zh) * 2019-03-04 2019-07-09 北京工业大学 一种有噪声图像的聚类处理方法
CN109993208B (zh) * 2019-03-04 2020-11-17 北京工业大学 一种有噪声图像的聚类处理方法
CN113544704A (zh) * 2019-03-26 2021-10-22 日本电信电话株式会社 评价装置、评价方法以及评价程序
CN110517759A (zh) * 2019-08-29 2019-11-29 腾讯科技(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置
CN110517759B (zh) * 2019-08-29 2022-03-25 腾讯医疗健康(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置
CN114677368A (zh) * 2022-04-19 2022-06-28 中国人民解放军32021部队 一种图像显著性检测方法及装置

Also Published As

Publication number Publication date
CN109360191B (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
CN109360191A (zh) 一种基于变分自编码器的图像显著性检测方法
Yuan et al. Gated CNN: Integrating multi-scale feature layers for object detection
CN106372648A (zh) 基于多特征融合卷积神经网络的浮游生物图像分类方法
CN110555060B (zh) 基于成对样本匹配的迁移学习方法
WO2016066042A1 (zh) 商品图片的分割方法及其装置
CN108052966A (zh) 基于卷积神经网络的遥感图像场景自动提取和分类方法
CN106920243A (zh) 改进的全卷积神经网络的陶瓷材质件序列图像分割方法
CN112115967B (zh) 一种基于数据保护的图像增量学习方法
CN108960404B (zh) 一种基于图像的人群计数方法及设备
CN106682696A (zh) 基于在线示例分类器精化的多示例检测网络及其训练方法
CN107784657A (zh) 一种基于颜色空间分类的无人机遥感图像分割方法
CN104598920B (zh) 基于Gist特征与极限学习机的场景分类方法
CN107480723B (zh) 基于局部二进制阈值学习网络的纹理识别方法
CN106874862B (zh) 基于子模技术和半监督学习的人群计数方法
CN108615229B (zh) 基于曲率点聚类及决策树的碰撞检测优化方法
CN108154158B (zh) 一种面向增强现实应用的建筑物图像分割方法
CN109902714A (zh) 一种基于多图正则化深度哈希的多模态医学图像检索方法
CN103093470A (zh) 一种具有尺度无关特性的快速多模态图像协同分割方法
CN113032613B (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN107341440A (zh) 基于多任务度量多核学习的室内rgb‑d场景图像识别方法
CN105678790B (zh) 基于可变高斯混合模型的高分辨率遥感影像监督分割方法
CN107392251A (zh) 一种使用分类图片提升目标检测网络性能的方法
CN111291818B (zh) 一种面向云掩膜的非均匀类别的样本均衡化方法
CN112258525A (zh) 一种基于鸟类高帧频序列图像丰度统计和种群识别算法
CN115063890A (zh) 基于两级加权均方损失函数的人体姿态估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant