CN109360191A - 一种基于变分自编码器的图像显著性检测方法 - Google Patents
一种基于变分自编码器的图像显著性检测方法 Download PDFInfo
- Publication number
- CN109360191A CN109360191A CN201811113241.1A CN201811113241A CN109360191A CN 109360191 A CN109360191 A CN 109360191A CN 201811113241 A CN201811113241 A CN 201811113241A CN 109360191 A CN109360191 A CN 109360191A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- image
- variation
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims description 36
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 244000144972 livestock Species 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000007812 deficiency Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于变分自编码器的图像显著性检测方法,包括如下步骤:首先将输入图像分割成超像素,并计算每个超像素的边界连通性,根据连通性值筛选出背景样本集;然后构建变分子编码器深度网络模型,使用得到的背景样本数据通过随机梯度下降方式对网络进行训练;最后,使用训练完成的变分自编码器网络对整幅图像的所有超像素进行重建,并计算重建错误,得到显著性值。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于变分自编码器的图像显著性检测方法。
背景技术
最近,致力于寻找图像中重要部分的显著性检测已经成为计算机视觉领域研究中的热点问题。显著性检测作为视觉媒体处理的重要一环,为诸如对象分割,图像检索,图像内容编辑等诸多视觉应用提供了有效的帮助。
通常,在显著性检测领域,已有的方法可以被分为自上而下或者自下而上两种。自上而下的方法是任务驱动型,需要人工标注的真值图像进行监督训练。为了更好地从背景中辨别显著物体,我们需要应用高级信息和监督方法来提高显著性图的准确率。相反,自下而上的方法通常利用低级线索,比如特征,颜色和空间距离来构建显著性图。一种应用最多的原则是对比度优先原则。这种原则主要是通过计算一个区域和周围环境的颜色对比度和空间对比度来得到该区域的显著性值。然而,已有方法都是通过计算图像区域在低层特征上的差异对比度来计算显著性结果,如专利《一种显著性区域的检测方法》(201510297326.X),通过计算图像区域的RGB与LAB颜色空间上的特征对比度来得到区域的显著性值。当遇到较为复杂的图像时,低层特征对比度无法反应出显著差异,导致检测结果较差。另外,还有一些方法是基于边缘优先性。它们假设图像边缘的区域更加有可能成为背景,如专利《一种图像目标显著性度量方法》(201711124512.9),通过计算边界图像块与最临近目标图像块的匹配差异来计算任意目标的显著性值。诚然,图像的边缘有很大可能成为背景,这在文献1:A.Borji,D.N.Sihite,and L.Itti.Salient object detection:Abenchmark.In Computer Vision--ECCV 2012,pages 414--429.Springer,2012.1,中有所证明。但是,像之前大多数方法那样,将图像边缘上的所有点都归为背景点并不合理。如果目标物体出现在图像的边缘,被选做背景的种子就会不准确,并直接导致错误的显著检测结果。同时,已有的方法在发掘背景种子点的模式时,受模型本身的限制,对于背景的泛化表达能力差,也会导致部分背景区域被检测出较高的显著性。
纵观现有的图像显著性领域的研究和应用可知,目前的单幅图像显著性检测方法,存在着如下的不足:
(1)仅使用低层图像特征进行显著性计算,导致显著检测结果存在图像语意层面的误差。
(2)在利用边缘优先性时,错误选取目标物体为背景种子点,导致错误的显著检测结果。使用的模式识别模型在泛化表达能力上有所欠缺,导致背景区域被误检为显著对象。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于变分自编码器的图像显著性检测算法,用于支持对图像中显著目标的有效检测。
为了解决上述技术问题,本发明公开了一种基于变分自编码器的图像显著性检测算法,包括如下步骤:
包括如下步骤:
步骤1,输入图像,筛选背景样本;
步骤2,通过背景样本训练变分自编码器深度网络模型;
步骤3,通过变分自编码器深度网络模型计算超像素重建错误,得到图像的显著性值。
步骤1包括如下步骤:
步骤1-1,使用SLIC(Simple Linear Iterative Cluster)简单线性迭代聚类方法将输入的整幅图像划分为N1(一般取值为300)个超像素,并计算每个超像素的平均CIELab颜色统计特征值;
步骤1-2,使用K-means聚类算法通过对超像素CIELab颜色统计特征值进行聚类得到图像区域,并计算每个图像区域的边界连通性;
步骤1-3,计算区域中超像素的边界连通性;
步骤1-4,根据超像素的边界连通性计算得到超像素属于背景的概率。
步骤1-2中,使用如下公式计算每个图像区域的边界连通性:
其中RGm代表图像中第m个区域,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域,即图像最外围超像素组成的区域。
步骤1-3中,使用如下公式计算图像区域中超像素的边界连通性:
bdconn(SPO=bdconn(RGm),(SPi∈RGm)
其中,bdconn(SPi)表示第i个超像素的边界连通性,第i个超像素的边界连通性与其所在图像区域的边界连通性相同,
步骤1-4中,通过如下公式计算得到超像素属于背景的概率:
其中bgPro(SPi)代表第i个超像素属于背景的概率,表示平衡权重,选取属于背景的概率大于或等于N2(一般取值为0.8)的超像素组成背景样本集合B。
步骤2包含如下步骤,
步骤2-1,构建一个深度为5的变分自编码器深度网络模型,包括输入层,隐藏层一,变分层,隐藏层三,输出层,相邻两层之间采用全连接方式连接,其中输入层单元数量为N3(一般取值为400),对应于超像素中包含的像素RGB值,隐藏层单元数量为N4(一般取值为300),网络为对称设计形式,即变分自编码器中编码器部分和解码器部分网络结构对称一致;
步骤2-2,使用方向传播和随机梯度下降法训练变分自编码器深度网络模型:每一个隐藏层需要训练的参数为Wj和bj,输入为向量x,表示背景样本集合B中超像素SPi中像素RGB值,输出为向量当进行反向传播时,输入为向量y,输出为向量 是网络中使用的非线性激活函数;训练过程中,损失函数L定义为编码解码交叉熵和KL散度之和,公式如下:
其中q(z|x)为输入向量x在变分空间z中的高斯分布,p(x|z)是输出向量在变分空间z中的高斯分布通,损失函数前项表示交叉熵损失,后项
DKL(q(z|x)||p(z))是KL(Kullback-Leibler Divergence)散度,对每个隐藏层,分别使用随机梯度下降法,最小化L,得到参数Wj和bj。
步骤3包含如下步骤,
步骤3-1,对于图像中第i个超像素SPi,xi表示其RGB像素值,通过训练得到的变分自编码器深度网络模型,得到xi对应的编码解码结果从而计算得到该超像素SPi的变分重建错误
步骤3-2,通过第i个超像素SPi的变分重建错误计算得到第i个超像素SPi的显著性值
步骤3-3,采用步骤3-1~步骤3-2的方法得到N1个超像素的显著性值,从而得到图像的显著性值。
步骤3-1中,通过如下公式计算得到第i个超像素SPi的变分重建错误
步骤3-2中,通过如下公式计算得到第i个超像素SPi的显著性值
本发明通过引入变分自编码器深度网络尝试从深度空间计算图像显著性,克服了以往背景模式建模时模型泛化能力不足的情况;同时利用有超像素的边界连通性优化了边缘背景种子点的选取过程,大大降低了目标对象被错选为背景样本的可能,提高了显著性检测的的精度。从而使得本发明有着较高的应用价值。
有益效果:本发明具有如下优点:首先,本发明基于边界连通性检测进行背景样本的筛选,获得了包含错误较少的纯净背景样本集合,提高了对图像非显著背景区域的建模精度;其次,本发明通过构建新的变分自编码器深度网络,并通过随机梯度下降方式对其进行了高效训练,实现了在深度空间上对图像显著信息的探查,并提高了对背景建模的泛化能力;最后,本发明提出基于变分重建错误计算得到的图线显著性方法,能得到输入图像较为准确的显著性检测结果,提高了检测精度。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述或其他方面的优点将会变得更加清楚。
图1是本发明的处理流程示意图。
图2是变分自编码器结构示意图。
图3a是对部分牲畜类图像进行显著检测的结果与已有其他显著性方法检测结果对比示意图。
图3b是对部分人脸图像进行显著检测的结果与已有其他显著性方法检测结果对比示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
如图1所示,本发明公开了一种基于变分自编码器的图像显著性检测算法,包括如下步骤:
步骤1,背景样本筛选。
步骤1.1,使用文献2:R.Achanta,A.Shaji,K.Smith,A.Lucchi,P.Fua,and S.S¨usstrunk.Slic superpixels compared to state-of-the-art superpixel methods.T-PAMI,34(11):2274–2282,2012,中SLIC(简单线性迭代聚类)方法将输入的整幅图像划分为300个超像素,并计算每个超像素的平均CIELab颜色统计特征值。
步骤1.2,利用文献3:W.Zhu,S.Liang,Y.Wei,and J.Sun,“Saliencyoptimization from robust background detection,”in Proceedings of the IEEEComputer Society Conference on Computer Vision and Pattern Recognition,2014,pp.2814–2821,中边界连通性计算超像素属于背景的概率,实现使用如下公式计算每个区域的边界连通性:
其中RGm代表图像中第m个区域,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域。然后区域中超像素的边界连通性可以用如下公式计算:
bdconn(SPi)=bdconn(RGm),(SPi∈RGm)
其中超像素i的边界连通性与其所在区域的边界连通性相同。
然后根据超像素的边界连通性可以计算得到超像素属于背景的概率,计算公式如下:
其中bgPro(SPi)代表第i个超像素的背景概率,属于平衡权重。选取背景概率大于或等于0.8的超像素组成背景样本集合B。
如图2所示,为本发明步骤2,变分自编码器训练,具体包括:
步骤2.1,构建变分自编码器模型:构建一个深度为5的变分自编码器深度网络模型,包括输入层,隐藏层一,变分层,隐藏层三,输出层,相邻两层之间采用全连接方式连接。其中输入层单元数量为400,对应于超像素中包含的像素RGB值。隐藏层单元数量为300,网络为对称设计形式。
步骤2.2,使用方向传播和随机梯度下降法训练神经网络模型:使用文献4:HintonG E,Salakhutdinov R R.Reducing the dimensionality of data with neuralnetworks[J].science,2006,313(5786):504-507,中的方法训练网络。每一个隐藏层需要训练的参数为Wj和bj,输入为向量x,表示背景样本集合B中超像素SPi中像素RGB值,输出为向量当进行反向传播时,输入为向量y,输出为向量 是网络中使用的非线性激活函数;训练过程中,损失函数定义为编码—解码交叉熵和KL散度之和,公式如下:
其中q(z|x)为输入向量x在变分空间z中的高斯分布,p(x|z)是输出向量在变分空间z中的高斯分布通,损失函数前项是交叉熵,后项是KL散度。对每个隐藏层,分别使用随机梯度下降法,最小化L,得到参数Wj和bj;
步骤3,计算超像素重建错误,得到显著性值。
对于图像中所有的超像素SPi,xi表示其RGB像素值。通过训练得到的变分自编码器深度网络,对于每个xi,都能得到其对应的编码—解码结果则可以计算该超像素的变分重建错误:
然后可以得到该超像素的显著性值,通过如下公式:
使用文献5:Dingwen Zhang,Deyu Meng,and Junwei Han.2017.Co-saliencydetection via a self-paced multiple-instance learning framework.IEEEtransactions on pattern analysis and machine intelligence 39,5(2017),865–878.
使用文献6:Dingwen Zhang,Junwei Han,Chao Li,Jingdong Wang,and XuelongLi.2016.Detection of Co-salient Objects by Looking Deep andWide.International Journal of Computer Vision 120,2(2016),215–232.https://doi.org/10.1007/s11263-016-0907-4
使用文献7:Xiaochun Cao,Zhiqiang Tao,Bao Zhang,Huazhu Fu,and WeiFeng.2014.Selfadaptively weighted co-saliency detection via rankconstraint.IEEE Transaction on Image Processing 23,9(2014),4175–4186.https://doi.org/10.1109/TIP.2014.等文献结果作为对比结果,进一步说明本发明效果的优点。
图3a是对部分牲畜类图像进行显著检测的结果与已有其他显著性方法检测结果对比示意图;图3a中,第一行是原图,第二行是真值图,第三行是本发明结果,第四行是文献5结果,第五行是文献6结果,第六行是文献7结果,由效果可见,对比已有的显著检测方法,本发明的显著检测结果能够更好地标记出显著对象(牲畜)的完整轮廓,显著对象内的显著性值分布更加均衡,同时能够更好地抑制背景区域(草地、灌木、树林等)的显著性值。
图3b是对部分人脸图像进行显著检测的结果与已有其他显著性方法检测结果对比示意图;图3b中,第一行是原图,第二行是真值图,第三行是本发明结果,第四行是文献5结果,第五行是文献6结果,第六行是文献7结果,由效果可见,对比已有的显著检测方法,本发明的显著检测结果能够更好地标记出显著对象(人脸)的完整轮廓,显著对象内的显著性值分布更加均衡,同时能够更好地抑制背景区域的显著性值,同时减少非显著区域(人脸下方的衣物和脖颈)的干扰。
本发明提供了一种基于变分自编码器的图像显著性检测方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (9)
1.一种基于变分自编码器的图像显著性检测方法,其特征在于,包括如下步骤:
步骤1,输入图像,筛选背景样本;
步骤2,通过背景样本训练变分自编码器深度网络模型;
步骤3,通过变分自编码器深度网络模型计算超像素重建错误,得到图像的显著性值。
2.根据权利要求1所述的方法,其特征在于,步骤1包括如下步骤:
步骤1-1,使用SLIC简单线性迭代聚类方法将输入的整幅图像划分为N1个超像素,并计算每个超像素的平均CIELab颜色统计特征值;
步骤1-2,使用K-means聚类算法通过对超像素CIELab颜色统计特征值进行聚类得到图像区域,并计算每个图像区域的边界连通性;
步骤1-3,计算图像区域中超像素的边界连通性;
步骤1-4,根据超像素的边界连通性计算得到超像素属于背景的概率。
3.根据权利要求2所述的方法,其特征在于,步骤1-2中,使用如下公式计算每个图像区域的边界连通性:
其中RGm代表图像中第m个区域,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域,即图像最外围超像素组成的区域。
4.根据权利要求3所述的方法,其特征在于,步骤1-3中,使用如下公式计算图像区域中超像素的边界连通性:
bdconn(SPi)=bdconn(RGm),(SPi∈RGm),
其中,bdconn(SPi)表示第i个超像素的边界连通性,第i个超像素的边界连通性与其所在图像区域的边界连通性相同。
5.根据权利要求4所述的方法,其特征在于,步骤1-4中,通过如下公式计算得到超像素属于背景的概率:
其中bgPro(SPi)代表第i个超像素属于背景的概率,表示平衡权重,选取属于背景的概率大于或等于N2的超像素组成背景样本集合B。
6.根据权利要求5所述的方法,其特征在于,步骤2包含如下步骤,
步骤2-1,构建一个深度为5的变分自编码器深度网络模型,包括输入层,隐藏层一,变分层,隐藏层三,输出层,相邻两层之间采用全连接方式连接,其中输入层单元数量为N3,对应于超像素中包含的像素RGB值,隐藏层单元数量为N4,网络为对称设计形式,即变分自编码器中编码器部分和解码器部分网络结构对称一致;
步骤2-2,使用方向传播和随机梯度下降法训练变分自编码器深度网络模型:每一个隐藏层需要训练的参数为Wj和bj,输入为向量x,表示背景样本集合B中超像素SPi中像素RGB值,输出为向量当进行反向传播时,输入为向量y,输出为向量 是网络中使用的非线性激活函数;训练过程中,损失函数L定义为编码解码交叉熵和KL散度之和,公式如下:
其中q(z|x)为输入向量x在变分空间z中的高斯分布,p(x|z)是输出向量在变分空间z中的高斯分布通,损失函数前项表示交叉熵损失,后项DKL(q(z|x)||p(z))是KL散度,对每个隐藏层,分别使用随机梯度下降法,最小化L,得到参数Wj和bj。
7.根据权利要求6所述的方法,其特征在于,步骤3包含如下步骤,
步骤3-1,对于图像中第i个超像素SPi,xi表示其RGB像素值,通过训练得到的变分自编码器深度网络模型,得到xi对应的编码解码结果从而计算得到该超像素SPi的变分重建错误
步骤3-2,通过第i个超像素SPi的变分重建错误计算得到第i个超像素SPi的显著性值
步骤3-3,采用步骤3-1~步骤3-2的方法得到N1个超像素的显著性值,从而得到图像的显著性值。
8.根据权利要求7所述的方法,其特征在于,步骤3-1中,通过如下公式计算得到第i个超像素SPi的变分重建错误
9.根据权利要求8所述的方法,其特征在于,步骤3-2中,通过如下公式计算得到第i个超像素SPi的显著性值
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811113241.1A CN109360191B (zh) | 2018-09-25 | 2018-09-25 | 一种基于变分自编码器的图像显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811113241.1A CN109360191B (zh) | 2018-09-25 | 2018-09-25 | 一种基于变分自编码器的图像显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109360191A true CN109360191A (zh) | 2019-02-19 |
CN109360191B CN109360191B (zh) | 2020-06-12 |
Family
ID=65351366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811113241.1A Active CN109360191B (zh) | 2018-09-25 | 2018-09-25 | 一种基于变分自编码器的图像显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109360191B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993208A (zh) * | 2019-03-04 | 2019-07-09 | 北京工业大学 | 一种有噪声图像的聚类处理方法 |
CN110517759A (zh) * | 2019-08-29 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种待标注图像确定的方法、模型训练的方法及装置 |
CN113544704A (zh) * | 2019-03-26 | 2021-10-22 | 日本电信电话株式会社 | 评价装置、评价方法以及评价程序 |
CN114677368A (zh) * | 2022-04-19 | 2022-06-28 | 中国人民解放军32021部队 | 一种图像显著性检测方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106529419A (zh) * | 2016-10-20 | 2017-03-22 | 北京航空航天大学 | 视频显著性堆栈式聚合的对象自动检测方法 |
US20170193294A1 (en) * | 2015-12-31 | 2017-07-06 | International Business Machines Corporation | Visual object and event detection and prediction system using saccades |
CN108171701A (zh) * | 2018-01-15 | 2018-06-15 | 复旦大学 | 基于u网络和对抗学习的显著性检测方法 |
-
2018
- 2018-09-25 CN CN201811113241.1A patent/CN109360191B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170193294A1 (en) * | 2015-12-31 | 2017-07-06 | International Business Machines Corporation | Visual object and event detection and prediction system using saccades |
CN106529419A (zh) * | 2016-10-20 | 2017-03-22 | 北京航空航天大学 | 视频显著性堆栈式聚合的对象自动检测方法 |
CN108171701A (zh) * | 2018-01-15 | 2018-06-15 | 复旦大学 | 基于u网络和对抗学习的显著性检测方法 |
Non-Patent Citations (4)
Title |
---|
BO LI ET.AL: "Co-saliency Detection via Sparse reconstruction and Co-salient Object Discovery", 《PCM 2017: ADVANCES IN MULTIMEDIA INFORMATION PROCESSING》 * |
JUNWEI HAN ET.AL: "Background Prior-Based Salient Object Detection via Deep Reconstruction Residual", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
RIJNDER WEVER ET.AL: "Subitizing with Variational Autoencoders", 《ARXIV:1808.00257V1 [CS.CV]》 * |
WANGJIANG ZHU ET.AL: "Saliency Optimization from Robust Background Detection", 《CVPR2014》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993208A (zh) * | 2019-03-04 | 2019-07-09 | 北京工业大学 | 一种有噪声图像的聚类处理方法 |
CN109993208B (zh) * | 2019-03-04 | 2020-11-17 | 北京工业大学 | 一种有噪声图像的聚类处理方法 |
CN113544704A (zh) * | 2019-03-26 | 2021-10-22 | 日本电信电话株式会社 | 评价装置、评价方法以及评价程序 |
CN110517759A (zh) * | 2019-08-29 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种待标注图像确定的方法、模型训练的方法及装置 |
CN110517759B (zh) * | 2019-08-29 | 2022-03-25 | 腾讯医疗健康(深圳)有限公司 | 一种待标注图像确定的方法、模型训练的方法及装置 |
CN114677368A (zh) * | 2022-04-19 | 2022-06-28 | 中国人民解放军32021部队 | 一种图像显著性检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109360191B (zh) | 2020-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360191A (zh) | 一种基于变分自编码器的图像显著性检测方法 | |
Yuan et al. | Gated CNN: Integrating multi-scale feature layers for object detection | |
CN106372648A (zh) | 基于多特征融合卷积神经网络的浮游生物图像分类方法 | |
CN110555060B (zh) | 基于成对样本匹配的迁移学习方法 | |
WO2016066042A1 (zh) | 商品图片的分割方法及其装置 | |
CN108052966A (zh) | 基于卷积神经网络的遥感图像场景自动提取和分类方法 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN112115967B (zh) | 一种基于数据保护的图像增量学习方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN106682696A (zh) | 基于在线示例分类器精化的多示例检测网络及其训练方法 | |
CN107784657A (zh) | 一种基于颜色空间分类的无人机遥感图像分割方法 | |
CN104598920B (zh) | 基于Gist特征与极限学习机的场景分类方法 | |
CN107480723B (zh) | 基于局部二进制阈值学习网络的纹理识别方法 | |
CN106874862B (zh) | 基于子模技术和半监督学习的人群计数方法 | |
CN108615229B (zh) | 基于曲率点聚类及决策树的碰撞检测优化方法 | |
CN108154158B (zh) | 一种面向增强现实应用的建筑物图像分割方法 | |
CN109902714A (zh) | 一种基于多图正则化深度哈希的多模态医学图像检索方法 | |
CN103093470A (zh) | 一种具有尺度无关特性的快速多模态图像协同分割方法 | |
CN113032613B (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
CN107341440A (zh) | 基于多任务度量多核学习的室内rgb‑d场景图像识别方法 | |
CN105678790B (zh) | 基于可变高斯混合模型的高分辨率遥感影像监督分割方法 | |
CN107392251A (zh) | 一种使用分类图片提升目标检测网络性能的方法 | |
CN111291818B (zh) | 一种面向云掩膜的非均匀类别的样本均衡化方法 | |
CN112258525A (zh) | 一种基于鸟类高帧频序列图像丰度统计和种群识别算法 | |
CN115063890A (zh) | 基于两级加权均方损失函数的人体姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |