CN105825502B - 一种基于显著性指导的词典学习的弱监督图像解析方法 - Google Patents

一种基于显著性指导的词典学习的弱监督图像解析方法 Download PDF

Info

Publication number
CN105825502B
CN105825502B CN201610140715.6A CN201610140715A CN105825502B CN 105825502 B CN105825502 B CN 105825502B CN 201610140715 A CN201610140715 A CN 201610140715A CN 105825502 B CN105825502 B CN 105825502B
Authority
CN
China
Prior art keywords
pixel
super
dictionary
image
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610140715.6A
Other languages
English (en)
Other versions
CN105825502A (zh
Inventor
赖百胜
龚小谨
江文婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201610140715.6A priority Critical patent/CN105825502B/zh
Publication of CN105825502A publication Critical patent/CN105825502A/zh
Application granted granted Critical
Publication of CN105825502B publication Critical patent/CN105825502B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于显著性指导的词典学习的弱监督图像解析方法。获得图像集及其图像级标签,对每幅图像进行超像素分割,对每个超像素提取多维特征,组合形成特征矩阵;对每幅图像进行显著性检测,得到每个超像素的平均显著值;同时定义包含有不同标签的词典,计算得到每个超像素中的指导向量;构建优化问题模型并进行求解,获得每个超像素的表示系数与其在每个词典原子中的权重以及词典:根据各个超像素的表示系数、权重和词典,求解获得每个超像素对应的标签:由此完成图像解析,获得图像的分割结果。本发明改造了传统词典学习方法,并利用显著性先验,与以往的弱监督图像解析方法相比,得到了更好的效果。

Description

一种基于显著性指导的词典学习的弱监督图像解析方法
技术领域
本发明涉及图像语义分割方法,具体涉及了一种基于显著性指导的词典学习的弱监督图像解析方法。
背景技术
图像解析,即对图像中的每个像素,识别出它的类别,是图像处理中的一个核心问题。传统的图像解析方法,一般利用监督学习的方法,即需要训练数据中的每个像素都带有标签,而对训练数据进行像素级的标注是十分昂贵的。因此,传统监督学习的方法的瓶颈在于训练数据的数量。
为了解决训练数据标注昂贵的问题,近年来,发展出了弱监督的学习方法,即仅利用弱的标签进行学习,并且达到与监督学习近似的性能。具体到图像解析问题中,弱监督的图像解析方法仅利用图像级的标签来学习,即利用图像中包含的类别信息,在不知道这些类别的物体在图像中的具体位置的情况下,对输入图像进行语义的分割,即将每个类别的物体在图像中的具体位置标记出来,从而达到对图像的理解。
在大数据的背景下,虽然数据的总量呈现爆炸式的增长,但是大量的数据只有弱的标记,而传统的监督学习方法并不能利用这些数据。同时,随着图片社交网络,如Flickr的兴起,用户会上传大量的带有图像级标签的图像,使得即使海量的带有图像级标签的数据都可以免费获得。因此,弱监督的图像解析方法比传统的监督学习图像解析方法在大数据时代有更大的用武之地。
然而弱监督的图像解析是一个非常困难的问题,因为用来学习模型的训练数据是有歧义的。比如一幅带有“牛”,“草”,“天空”的图像,算法只知道图像中具有这些标签的物体,但是不知道这些物体的具体位置,因此对于这幅图像的每个像素,都有可能是“牛”,“草”或者“天空”,这些带有歧义的数据会误导分类器的学习。同时传统的弱监督的图像解析方法没有利用其它信息进行指导,仅利用带歧义的训练数据,往往不能得到好的解析结果。
发明内容
本发明的目的在于提供一种基于显著性指导的词典学习的弱监督图像解析方法,本发明利用显著性检测,显著性检测目的在于检测出一幅图像中显著的区域,即人有可能会关注的区域,采用无监督的方法,即并不需要事先训练。由于人更有可能关注前景,因此显著的区域为前景的概率更大。因此,本发明 用显著性检测的结果作为前景目标分割的指导,可以大幅提高分割的准确性。
本发明采用的技术方案是包括以下步骤:
1)将有N幅图像的图像集记为I={I1,...Ik,...,IN},N表示图像的个数,Y={Y1,...Yk,...,YN}是图像集I的图像级标签,Yk表示第k幅图像Ik的图像级标签,所有图像级标签共有Nl种;
2)对每幅图像用SLIC算法进行超像素分割,共得到Ns个超像素,对每个超像素p利用卷积神经网络算法(CNN)提取d维特征,将所有超像素的d维特征组合形成d×Ns的特征矩阵A;
3)对每幅图像进行显著性检测,得到每个超像素p的平均显著值S(p);同时定义一个词典词典D为包含有Nl种不同标签的词典,Dl是属于第l种标签的子词典,Dl=[Dl1,...,DlM],子词典Dl包含M列,每一列称为一个原子(atom),M表示子词典Dl中的原子个数;
4)再采用以下公式计算得到每个超像素p中指导向量Gp的第i个值:
其中,L(Di)是词典D第i列所属的标签,I(p)为超像素p所在的图像,Ts为显著性阈值,fbs()表示图像中标签的前-背景值,c为指导向量常量;
5)构建以下公式所表示的优化问题模型并进行求解,获得每个超像素p的表示系数Xp与其在每个词典原子中的权重Wp以及词典D:
其中,tr()表示计算矩阵迹的函数,diag(Wp)将向量Wp转换成对角矩阵,|| ||1指L1范数,Ap是第p个超像素的CNN特征,Xp为超像素p的表示系数,X为所有超像素的表示系数,W为所有超像素在每个词典原子中的权重,Wp表示超像素p用来学习每个词典原子的权重,LX表示超像素的邻接矩阵UX的拉普拉斯矩阵,LD表示词典D的邻接矩阵UD的拉普拉斯矩阵,λ1,λ2,λ3,λ4是第一、第二、第三、第四可调参数;
6)根据各个超像素的表示系数Xp、权重Wp和词典D,采用以下公式求解获得每个超像素p对应的标签
其中,δl()表示抽取函数,δl(Xp)表示表示系数Xp中关于标签l相关的部分;
抽取函数δl()采用以下公式进行计算:
其中,Xp[i]表示表示系数Xp的第i个分量,δl(Xp)[i]表示系数Xp中关于标签l相关的部分δl(Xp)的第i个分量。
由此完成图像解析,获得图像的分割结果。
所述步骤3)中的显著性检测采用文献(W.Zhu,S.Liang,Y.Wei,andJ.Sun.Saliency optimization from robust background detection.In CVPR,2014)方法。
所述步骤4)中图像标签的前-背景值fbs()具体采用以下公式计算
其中,Lm表示图像k中的第m个标签,fbs(Lm,Ik)表示图像Ik中标签Lm的前-背景值,P(Ln|Lm)为在图像集中标签Lm出现时标签Ln出现的概率,标签Ln表示图像Ik下除标签Lm以外的标签;
所述的超像素邻接矩阵UX的拉普拉斯矩阵Lx采用以下公式计算:
其中,BX表示超像素的度矩阵,度矩阵BX是一个对角矩阵且对角线上的元素UX表示超像素的邻接矩阵,并采用以下公式计算:
其中,N(q)是与第q个超像素相邻的超像素,p、q分别表示超像素的下标,UX(p,q)表示矩阵UX的第p行,第q列的元素。
所述的词典D的邻接矩阵UD的拉普拉斯矩阵LD采用以下公式计算:
LD=I-BD -1/2UDBD -1./2
其中,BD表示词典的度矩阵,度矩阵BD是一个对角矩阵且对角线上的元素UD表示词典的邻接矩阵,并采用以下公式计算:
其中,UD(i,j)表示UD的第i行、第j列的元素,L(Dj)是词典D第j个原子所属的标签。
所述步骤5)的优化问题模型采用块梯度下降法(Block Coordinate Descent)进行求解,具体采用以下方式:
5.1)记Xt,Dt,Wt分别为在第t次迭代中变量X,D,W的值,根据第t次迭代的词典Dt和第t次迭代的权重Wt求解以下公式计算得到第t+1次迭代的表示系数Xt+1
其中,指向量Wp在第t次迭代的值;
5.2)接着根据第t+1次迭代的表示系数Xt+1和第t次迭代的权重Wt求解以下公式计算得到第t+1次迭代的词典Dt+1
其中,表示第p个超像素在第t+1迭代的值;
5.3)最后根据第t+1次迭代的词典Dt+1和第t+1次迭代的表示系数Xt+1求解以下公式计算得到第t+1次迭代的权重Wt+1中的每一列
其中,
所述步骤5.1)的公式利用FISTA算法进行求解,所述步骤5.2)的公式是一个最小二乘问题,利用L-BFGS算法进行求解,所述步骤5.3)的公式是一个二次规划问题,利用interior-point-convex算法进行求解。
本发明方法在传统的词典学习方法中引入权重变量,该权重表示每个训练数据对于不同类别的词典的重要性,同时使用显著性先验来指导权重的更新,使得显著的区域对前景具有大的权重。引入的权重能够减少弱监督中训练数据的歧义性,因此能训练出具有高分辨能力的词典。得到词典之后再利用稀疏表示分类器,对图像的每个超像素进行分类,从而对图像中的每个像素分配语义标签。
与背景技术相比,本发明具有的有益效果是:
本发明利用显著性检测的结果对弱监督图像解析进行指导,同时通过加权 的词典学习方法学习每个类别的词典用来分类,大幅度提高了解析结果的准确性。
本发明改进了传统词典学习方法,并利用显著性先验,与以往的弱监督图像解析方法相比,得到了更好的效果。
附图说明
图1是本发明的方法的步骤示意图。
图2是两幅图像的分割结果。
其中图2第1列为原始输入图像和它们的图像级标签,图2第2列为显著图,越亮的区域表示越显著,图2第3列为与图像边缘相接的超像素,未被涂白的区域即为与边缘相接的超像素,图2第4列为本方法的分割结果,图2第5列为分割结果的真值。
具体实施方式
下面结合附图与实施例对本发明进行进一步说明。
本发明的实施例如下:
图1给出了基于显著性指导的词典学习的弱监督图像解析方法的流程图。
(1)对数据集中的每幅图像,利用SLIC进行超像素分割,每幅图的超像素个数为100。对每个超像素利用CNN提取特征,具体为,将超像素所在的最小矩形框,利用插值方法调整为固定大小,输入预先训练好的CNN模型(ImageNet Classification with DeepConvolutional Neural Networks),取出特征层的输出。
(2)对每幅图像利用文献1(Wangjiang Zhu,Shuang Liang,Yichen Wei,and JianSun.Saliency Optimization from Robust Background Detection.In CVPR,2014)的方法进行非监督的显著性检测,得到每个超像素的平均显著值。按照上述(1)式的定义计算每张图像中,每个标签前-背景值,前-背景值大于零,说明此标签在此图中为前景,反之,则为背景。(1)式基于的假设为,在数据集中,前景会伴随着某一特定背景出现,而背景不会伴随某一前景出现。比如在有“牛”的图像中,“草”也出现的概率很大,但是在有“草”出现的图像中,“牛”也出现的概率并不高。
(3)根据上一步计算的前-背景值,按照(3)计算每个超像素的指导向量。指导向量会引导算法将显著的超像素用来学习前景的词典,将边缘的超像素用来学习背景的词典。
(4)按照式(4)至(6)计算词典和超像素的拉普拉斯矩阵,式(7)中两个tr()项的作用是使类别相同的词典原子更为接近,使特征相似的超像素的标签接近,即起到平滑的作用。
(5)求解式(7)所示的优化问题。由于此优化问题具有三个变量,因此使用块梯度下降法(Block Coordinate Descent)的方法,即每个变量单独优化,并在优化单个变量时固定其他变量,即迭代地求解式(10)至(12)三个标准的优化问题。式(10)所示优化问题是一个稀疏编码的问题,我们使用FISTA算法进行求解。式(11)所示优化问题是最小二乘问题,使用基于梯度的L-BFGS方法进行解。式(12)所示优化问题是二次规划问题,使用interior-point-convex方法进行求解。经试验,外循环的迭代次数为5时,收敛效果好。
(6)在得到表示系数X和词典D后,可以通过重构误差对每个超像素进行分类,即式(8)所示。具体为,对超像素的每一个可能的类别,计算仅用此类别对应的词典和表示系数进行重构的误差,取误差最小的类别为识别的类别。
具体实施中,使用标准数据集MSRC21(J.Shotton,J.Winn,C.Rother,andA.Criminisi.Textonboost for image understanding:Multi-class objectrecognition and segmentation by jointly modeling texture,layout,andcontext.International Journal of Computer Vision,81(1):2–23,2009)和VOC07(M.Everingham,S.A.Eslami,L.Van Gool,C.K.Williams,J.Winn,and A.Zisserman.Thepascal visual object classes challenge:A retrospective.International Journalof Computer Vision,111(1):98–136,2014.)进行测试。MSRC21数据集共有591张带图像级标签的图像,并且每一幅图像均有较为精细的语义分割的真值,其中共有标签21种,包括“天空”,“草”,“水”等背景标签和“牛”,“建筑”,“汽车”等前景标签。VOC07共有632幅带图像级标签的图像,也包含21种标签,其中有20类前景标签和1类杂乱的背景标签。相比较于MSRC21,VOC07的弱监督语义解析的难度更大。
运行算法时,设置可调参数λ1=10-3,λ2=5×10-1,λ3=10-1,λ4=10-2,设置显著性阈值Ts=30,常量c=10-1,外循环次数为5,每个子问题的内循环次数为100,每类词典共学习30个原子。测试时输入图像及对应的图像级标签,输出像素级的语义解析结果。评判时,按照语义解析的通用评判标准,先对每个类别计算召回率,然后计算所有类别召回率的均值,并比对均值的大小,均值越大,说明算法效果越好。其中某一类别召回率的计算方法为:
表1和表2给出了本方法与最新的弱监督语义解析方法的数值结果的比较。可看到,由于加入了显著性的指导,本方法大大优于现有方法。
表1本方法与最新方法在MSRC21数据集上的比较
表2本方法与最新方法在VOC07数据集上的比较
本方法 Zhang WSG BiLayer KNN SG+HG
54 45 38 32 47
图2给出了数据集中两幅图像的输入,中间结果和最终结果。图2第1列是输入图像和它的图像级标签,第2列是对输入图像进行显著性检测的结果,越亮的区域代表越显著,第3列显示了处于图像边缘的超像素,通过前3列我们可以发现显著的物体一般都是前景物体,如“牛”,“建筑”和“树”,而处于图像边缘的物体,一般都是背景物体,如“草”,“天空”,这也是本方法引入的先验知识,且此先验能够帮助得到更精准的图像解析结果。第4列和第5列分别为本方法的解析结果和真值。
由此可见,本发明能大幅度提高了解析结果的准确性,较传统方法具有突出显著的技术效果,得到了更好的效果。

Claims (8)

1.一种基于显著性指导的词典学习的弱监督图像解析方法,其特征是:包括如下步骤:
1)将有N幅图像的图像集记为I={I1,...Ik,...,IN},N表示图像的个数,Y={Y1,...Yk,...,YN}是图像集I的图像级标签,Yk表示第k幅图像Ik的图像级标签,所有图像级标签共有Nl种;
2)对每幅图像用SLIC算法进行超像素分割,共得到Ns个超像素,对每个超像素p利用卷积神经网络算法提取d维特征,将所有超像素的d维特征组合形成d×Ns的特征矩阵A;
3)对每幅图像进行显著性检测,得到每个超像素p的平均显著值S(p);同时定义一个词典D=[D1,...,Dl,...,DNl],词典D为包含有Nl种不同标签的词典,Dl是属于第l种标签的子词典,Dl=[Dl1,...,DlM],子词典Dl包含M个原子;
4)再采用以下公式计算得到每个超像素p中指导向量Gp的第i个值:
其中,L(Di)是词典D第i列所属的标签,I(p)为超像素p所在的图像,Ts为显著性阈值,fbs()表示图像中标签的前-背景值,c为指导向量常量;
5)构建以下公式所表示的优化问题模型并进行求解,获得每个超像素p的表示系数Xp与其在每个词典原子中的权重Wp以及词典D:
其中,tr()表示计算矩阵迹的函数,diag(Wp)将权重Wp转换成对角矩阵,|| ||1指L1范数,Ap是第p个超像素的卷积神经网络特征,Xp为超像素p的表示系数,X为所有超像素的表示系数,W为所有超像素在每个词典原子中的权重,Wp表示超像素p用来学习每个词典原子的权重,LX表示超像素的邻接矩阵UX的拉普拉斯矩阵,LD表示词典D的邻接矩阵UD的拉普拉斯矩阵,λ1,λ2,λ3,λ4分别是第一、第二、第三、第四可调参数,s.t.表示约束条件;
6)根据各个超像素的表示系数Xp、权重Wp和词典D,采用以下公式求解获得每个超像素p对应的标签
其中,δl()表示抽取函数,δl(Xp)代表表示系数Xp中关于标签l相关的部分;
抽取函数δl()采用以下公式进行计算:
其中,Xp[i]代表表示系数Xp的第i个分量,δl(Xp)[i]表示系数Xp中关于标签l相关的部分δl(Xp)的第i个分量。
2.根据权利要求1所述的一种基于显著性指导的词典学习的弱监督图像解析方法,其特征是:所述步骤4)中图像标签的前-背景值fbs()具体采用以下公式计算:
其中,Lm表示图像Ik中的第m个标签,fbs(Lm,Ik)表示图像Ik中标签Lm的前-背景值,P(Ln|Lm)为在图像集中标签Lm出现时标签Ln出现的概率,标签Ln表示图像Ik下除标签Lm以外的标签。
3.根据权利要求1所述的一种基于显著性指导的词典学习的弱监督图像解析方法,其特征是:所述的超像素邻接矩阵UX的拉普拉斯矩阵Lx采用以下公式计算:
其中,BX表示超像素的度矩阵,度矩阵BX是一个对角矩阵且对角线上的元素UX表示超像素的邻接矩阵,并采用以下公式计算:
其中,是与第q个超像素相邻的超像素,p、q分别表示超像素的下标,UX(p,q)表示矩阵UX的第p行、第q列的元素。
4.根据权利要求1所述的一种基于显著性指导的词典学习的弱监督图像解析方法,其特征是:所述的词典D的邻接矩阵UD的拉普拉斯矩阵LD采用以下公式计算:
LD=I-BD -1/2UDBD -1/2
其中,BD表示词典的度矩阵,度矩阵BD是一个对角矩阵且对角线上的元素UD表示词典的邻接矩阵,并采用以下公式计算:
其中,UD(i,j)表示UD的第i行、第j列的元素,L(Dj)是词典D第j个原子所属的标签。
5.根据权利要求1所述的一种基于显著性指导的词典学习的弱监督图像解析方法,其特征是:所述步骤5)的优化问题模型采用块梯度下降法进行求解,具体采用以下方式:
5.1)记Xt,Dt,Wt分别为在第t次迭代中变量X,D,W的值,根据第t次迭代的词典Dt和第t次迭代的权重Wt求解以下公式计算得到第t+1次迭代的表示系数Xt+1
其中,指向量Wp在第t次迭代的值;
5.2)接着根据第t+1次迭代的表示系数Xt+1和第t次迭代的权重Wt求解以下公式计算得到第t+1次迭代的词典Dt+1
其中,表示第p个超像素在第t+1次迭代的值;
5.3)最后根据第t+1次迭代的词典Dt+1和第t+1次迭代的表示系数Xt+1求解以下公式计算得到第t+1次迭代的权重Wt+1中的每一列
其中,运算符d表示为:
6.根据权利要求5所述的一种基于显著性指导的词典学习的弱监督图像解析方法,其特征是:所述步骤5.1)的公式利用FISTA算法进行求解。
7.根据权利要求5所述的一种基于显著性指导的词典学习的弱监督图像解析方法,其特征是:所述步骤5.2)的公式利用L-BFGS算法进行求解。
8.根据权利要求5所述的一种基于显著性指导的词典学习的弱监督图像解析方法,其特征是:所述步骤5.3)的公式利用interior-point-convex算法进行求解。
CN201610140715.6A 2016-03-12 2016-03-12 一种基于显著性指导的词典学习的弱监督图像解析方法 Active CN105825502B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610140715.6A CN105825502B (zh) 2016-03-12 2016-03-12 一种基于显著性指导的词典学习的弱监督图像解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610140715.6A CN105825502B (zh) 2016-03-12 2016-03-12 一种基于显著性指导的词典学习的弱监督图像解析方法

Publications (2)

Publication Number Publication Date
CN105825502A CN105825502A (zh) 2016-08-03
CN105825502B true CN105825502B (zh) 2018-06-15

Family

ID=56987775

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610140715.6A Active CN105825502B (zh) 2016-03-12 2016-03-12 一种基于显著性指导的词典学习的弱监督图像解析方法

Country Status (1)

Country Link
CN (1) CN105825502B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133955B (zh) * 2017-04-14 2019-08-09 大连理工大学 一种多层次结合的协同显著性检测方法
CN107369160B (zh) * 2017-06-28 2020-04-03 苏州比格威医疗科技有限公司 一种oct图像中脉络膜新生血管分割算法
CN109840530A (zh) * 2017-11-24 2019-06-04 华为技术有限公司 训练多标签分类模型的方法和装置
CN109840531B (zh) * 2017-11-24 2023-08-25 华为技术有限公司 训练多标签分类模型的方法和装置
CN110009556A (zh) 2018-01-05 2019-07-12 广东欧珀移动通信有限公司 图像背景虚化方法、装置、存储介质及电子设备
CN108399406B (zh) * 2018-01-15 2022-02-01 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
CN109063723B (zh) * 2018-06-11 2020-04-28 清华大学 基于迭代挖掘物体共同特征的弱监督图像语义分割方法
EP3582181B1 (en) * 2018-06-14 2020-04-01 Axis AB Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground
CN110638477B (zh) * 2018-06-26 2023-08-11 佳能医疗系统株式会社 医用图像诊断装置以及对位方法
CN109934826B (zh) * 2019-02-28 2023-05-12 东南大学 一种基于图卷积网络的图像特征分割方法
CN110008844B (zh) * 2019-03-12 2023-07-21 华南理工大学 一种融合slic算法的kcf长期手势跟踪方法
CN110458172A (zh) * 2019-08-16 2019-11-15 中国农业大学 一种基于区域对比度检测的弱监督图像语义分割方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104599275A (zh) * 2015-01-27 2015-05-06 浙江大学 基于概率图模型的非参数化的rgb-d场景理解方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226429A (ja) * 2011-04-15 2012-11-15 Takashi Toriu 画像検索および認識システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104599275A (zh) * 2015-01-27 2015-05-06 浙江大学 基于概率图模型的非参数化的rgb-d场景理解方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Salient region detection and segmentation for general object recognition and image understanding;HUANG TieJun等;《Science China(Information Sciences)》;20111201;第54卷(第12期);第2461-2470页 *
图像物体分类与检测算法综述;黄凯奇等;《计算机学报》;20140615;第37卷(第6期);第1225-1240页 *

Also Published As

Publication number Publication date
CN105825502A (zh) 2016-08-03

Similar Documents

Publication Publication Date Title
CN105825502B (zh) 一种基于显著性指导的词典学习的弱监督图像解析方法
CN106920243B (zh) 改进的全卷积神经网络的陶瓷材质件序列图像分割方法
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN107133616B (zh) 一种基于深度学习的无分割字符定位与识别方法
CN106845374B (zh) 基于深度学习的行人检测方法及检测装置
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN110119728A (zh) 基于多尺度融合语义分割网络的遥感图像云检测方法
CN104834922B (zh) 基于混合神经网络的手势识别方法
CN108009509A (zh) 车辆目标检测方法
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN109034210A (zh) 基于超特征融合与多尺度金字塔网络的目标检测方法
CN105740945B (zh) 一种基于视频分析的人群计数方法
CN106504255B (zh) 一种基于多标签多示例学习的多目标图像联合分割方法
CN109002807A (zh) 一种基于ssd神经网络的驾驶场景车辆检测方法
CN104598885B (zh) 街景图像中的文字标牌检测与定位方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN107103326A (zh) 基于超像素聚类的协同显著性检测方法
CN105205475A (zh) 一种动态手势识别方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
CN106611423B (zh) 基于脊波滤波器和反卷积结构模型的sar图像分割方法
CN109446922B (zh) 一种实时鲁棒的人脸检测方法
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN109409240A (zh) 一种结合随机游走的SegNet遥感图像语义分割方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant