CN107133955B - 一种多层次结合的协同显著性检测方法 - Google Patents
一种多层次结合的协同显著性检测方法 Download PDFInfo
- Publication number
- CN107133955B CN107133955B CN201710238188.7A CN201710238188A CN107133955B CN 107133955 B CN107133955 B CN 107133955B CN 201710238188 A CN201710238188 A CN 201710238188A CN 107133955 B CN107133955 B CN 107133955B
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- image
- target
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Abstract
本发明属于显著性检测技术领域,提供了一种多层次结合的协同显著性检测方法。步骤如下:1)提取目标框及目标框初始筛选;2)目标框粗略筛选及分割目标区域;3)基于噪声检测的目标区域精确筛选;4)超像素分割及特征提取;5)超像素分类;6)多尺度融合及扩散。本发明的效果和益处是从两个不同层次着手进行协同显著性检测,层层递进,用目标层提供的目标模板信息指导了超像素层的精细分类,综合利用了不同层次的优势,互相弥补了不足,更准确地检测出了一组图像中共有的目标。
Description
技术领域
本发明属于显著性检测技术领域,涉及到一种多层次结合的协同显著性检测方法,特别涉及到目标区域筛选、超像素分类方法。
背景技术
随着科技的发展,计算机视觉的关注度不断提高。图像显著性检测是计算机视觉中的热点课题,旨在找出图像中最引人注意、最具信息量的区域。而随着实际生活中多媒体技术和社交媒体的发展,很多情况下会有成组的图片出现,这些图片往往只是目标的姿势、拍摄角度等方面有所不同,但目标的整体特征相似,协同显著性检测正适用于这种情况。协同显著性检测,目的是检测出一组图像中共有的显著目标,是传统显著性检测的分支领域,可应用于视频目标跟踪,目标检测,图像协同定位等计算机视觉应用中,目前也受到了广泛的关注。
现有的协同显著性检测方法基本都依赖于单一层次,如目标层,超像素层,像素层等。然而这种单一层次上进行的显著性检测虽有各自的优势,却也存在着一定的局限性。2014年Liu等提出的算法是在目标层上进行的,通过计算不同目标分割区域的对比度,来描述图像内的显著性,再通过计算整组图像间目标区域的相似度来计算图像间的显著性。该算法是在较大尺度的目标层上进行计算,因此可以把握目标整体结构信息,定位目标位置,但在目标的细节信息上却不够细致准确。2015年Zhang等提出的算法是基于超像素的,将超像素作为事例,应用多事例学习模型来解决协同显著性检测,并将其整合到自步进学习机制中。该算法可通过超像素对目标边缘等细节信息检测更准确,却无法较好把握目标整体结构信息。因此,若能在不同层次上来进行协同显著性检测,整合各个层次的优势,互相弥补不足,则会得到更好的结果。
发明内容
本发明要解决的技术问题是如何对一组图像中共有的显著目标进行检测。提供了一种多层次结合的协同显著性检测方法。
本发明的技术方案:
一种多层次结合的协同显著性检测方法,步骤如下:
1)提取目标框及目标框初始筛选
本方法需要在图像分组放置的图像库上进行检测,图像库中每组图像内的多个图像都包含相同或相似的目标;
对每幅图像提取1000至2000个目标框,计算每个目标框占所属图像的面积比例,将比例超过70%以及不足30%的目标框删除;
2)目标框粗略筛选及分割目标区域
将每幅图像在上一步中保留下来的目标框叠加,形成初始灰度图,将小于0.3的灰度值称为背景灰度值;对应初始灰度图,统计每个目标框内包含像素对应的背景灰度值之和,并除以对应目标框面积,作为背景值得分;对每幅图像,取背景值得分最小的前30个目标框保留;并用基于高阶能量项的分割方法对每个目标框进行分割,得到30个具有轮廓信息的不规则目标区域;再通过edgebox算法得到每幅图像的目标边缘图;通过计算每个目标区域的边缘与对应的目标边缘图中目标边缘的重合度,目标区域与目标边缘图中重心距离等线索,每个目标区域得到一个得分,按照得分从大到小的顺序排列,取前10个目标区域保留;
3)基于噪声检测的目标区域精确筛选
首先分别提取整组图像每个目标区域的R-CNN(Regions with convolutionalneural networks)特征,每个目标区域共8192维,将一组图像中所有目标区域一起进行检测,噪声检测的目标函数如下:
其中,α1,α2均为参数,均取0.1;xi为目标区域i的R-CNN特征;f为分类函数,f(xi)则代表目标区域i的预测标签;n和n+分别代表所有目标区域的个数,以及正类目标区域的个数;yi为软标签,其取值为或L=D-W,W表示两个临近目标区域间的相似度,其元素计算如下:ε为设定的参数;其中目标区域i处于j的邻近集合中,且目标区域j也处于i的邻近集合中;D是一个对角矩阵,其对角元素定义为
现采用迭代求解方式对噪声检测的目标函数进行求解;首先将分类函数f定义为f=Kβ,其中β=[β1,β2,...,βn]T是系数,K代表核矩阵,其核映射为k(x)=[κ(x1,x),...,κ(xn,x)]T,因而分类函数也可表示为f(x)=βTk(x);将β0初始化为则随后,不断迭代更新f;在每一次迭代t中,通过参考有噪声的标签矩阵yt,此噪声检测的目标函数可产生新的预测标签ft+1=Kβ;然后再由ft+1得到更精细的标签yt+1,并且保留到下次迭代之中,根据实际需求进行多次迭代;最后根据标签f的正负,将所有目标区域分成模板类(正)和噪声类(负)两类;模板类中的目标区域包含较准确的目标信息,而并不准确的目标区域则被视为噪声,分到噪声类中;
将噪声类中的所有目标区域去除,不论其来自于哪幅图像;将模板类中属于同一幅图像的目标区域叠加,得到一个灰度图,再用基于高阶能量项的分割方法将其分割,得到属于该幅图像的模板;
4)超像素分割及特征提取
对每幅图像,用SLIC(Simple linear iterative cluster)算法进行多尺度超像素分割,通过已训练好的VGG(Visual Geometry group)网络为每个超像素提取VGG特征,选用VGG1-1层和池化1层的输出,将其分别转化到与图像大小对应的尺寸上,进而得到每个像素的对应值作为该像素的特征;对于每个超像素,再计算其包含的像素特征的平均值,作为该超像素的特征;将每层输出串联起来,得到最终超像素特征;
5)超像素分类
将每一组内所有图像的各个尺度超像素输入到如下所述超像素分类模型中,首先需要求解如下目标函数,得到转移矩阵Q;
其中,A为超像素VGG特征矩阵,av和az则分别代表超像素v和z的VGG特征;Q为需要求解的转移矩阵,hvz为超像素v和z的相似度;目标函数中第一项的F代表F范数;γ1与γ2是设定好的参数,均取0.0001;N为总的超像素个数;P为超像素的伪真值标签矩阵,伪真值标签取值分为正负两类,取值为+1或-1;我们根据噪声检测中得到的模板计算标签矩阵P;首先计算各个超像素中处于对应模板的前景区域中的面积占该超像素总面积的比例;当该比例大于70%时,赋予此超像素正标签,反之则赋予其负标签;若某幅图像在噪声检测中并未得到模板,则该图像的超像素不作为训练超像素来计算转移矩阵Q;
选定超像素标签后,则开始对超像素分类的目标函数进行求解;标签分为正负两类,先从第r类的转移矩阵Qr入手,对其求偏导数如下:
其中,Pr是第r类的标签矩阵;Er是一个对角矩阵,其中第m个对角元emr由Qr中第m个对角元计算得到;计算公式如下:随后迭代更新Qr和Er的值,根据实际需求进行多次迭代;每一次迭代θ中,通过固定由上公式计算出再固定将更新为其中η是一个参数;
根据求解得到的Qr,分别计算组内所有超像素属于每一类的预测得分ATQr;若该超像素在正类中得分高,则判为正类,反之则判为负类;根据正类超像素对应灰度值为1,负类超像素对应灰度值为0,每幅图像得到对应的二值分类结果图;
6)多尺度融合及扩散
上一步骤中每幅图像在多尺度下均得到对应的二值分类结果图,将每幅图像的多幅二值分类结果图叠加,得到灰度图S1,将叠加的灰度图S1按照自适应的阈值分割,得到分类后的二值图S2;其中自适应阈值设定为μ+σ,μ为该图像灰度值均值,σ为标准差;
再将多尺度叠加后所得二值图S2用graphcut算法分割,每幅图像中以分割后灰度值为1的部分为前景种子点,根据流行排序算法进行扩散,得到扩散后的灰度显著性图S3;再与多尺度叠加得到的灰度图S1融合,融合公式如下:S=2*S1+S3;将所得融合图S归一化后便得到最终的显著性图。
本发明的效果和益处是从两个不同层次着手进行协同显著性检测,层层递进,用目标层提供的目标模板信息指导了超像素层的精细分类,综合利用了不同层次的优势,互相弥补了不足,更准确地检测出了一组图像中共有的目标。
附图说明
图1是本发明方法的基本流程图。
图2是本发明方法利用多层次结合的协同显著性检测的结果图。左侧一列是原图像,右侧一列是对应的本发明方法的协同显著性检测结果图。
具体实施方式
以下结合技术方案(和附图)详细叙述本发明的具体实施方式。
用于实施的软件环境是:
实施例中运行的软件环境是Matlab2011a,Windows7系统。
如图1所示,为本具体实施方式中协同显著性检测方法的流程图,包括以下步骤:
1)提取目标框及目标框初始筛选
本方法需在分组放置的图像库上进行检测,图像库中每组图像内的多个图像都包含相同或相似的目标;本实施例在iCoseg图像库上进行了实验;
对每幅图像提取1000至2000个目标框,计算每个目标框占所属图像的面积比例,将比例超过70%以及不足30%的目标框删除;
2)目标框粗略筛选及分割目标区域
将每幅图像在上一步中保留下来的目标框叠加,形成初始灰度图,将小于0.3的灰度值称为背景灰度值;对应初始灰度图,统计每个目标框内包含像素对应的背景灰度值之和,并除以对应目标框面积,作为背景值得分;对每幅图像,取背景值得分最小的前30个目标框保留;并用基于高阶能量项的分割方法对每个目标框进行分割,得到30个具有轮廓信息的不规则目标区域;再通过edgebox算法得到每幅图像的目标边缘图;通过计算每个目标区域的边缘与对应的目标边缘图中目标边缘的重合度,目标区域与目标边缘图中重心距离等线索,每个目标区域得到一个得分,按照得分从大到小的顺序排列,取前10个目标区域保留;
3)基于噪声检测的目标区域精确筛选
首先分别提取整组图像每个目标区域的R-CNN特征,每个目标区域共8192维,将一组图像中所有目标区域一起进行检测,噪声检测的目标函数如下:
其中,α1,α2均为参数,本实施例中均取0.1;xi为目标区域i的R-CNN特征;f为分类函数,f(xi)则代表目标区域i的预测标签;n和n+分别代表所有目标区域的个数,以及正类目标区域的个数;yi为软标签,其取值为或L=D-W,W表示两个临近目标区域间的相似度,其元素计算如下:ε为设定的参数;其中目标区域i处于j的邻近集合中,且目标区域j也处于i的邻近集合中;D是一个对角矩阵,其对角元素定义为
现采用迭代求解方式对噪声检测的目标函数进行求解;首先将分类函数f定义为f=Kβ,其中β=[β1,β2,...,βn]T是系数,K代表核矩阵,其核映射为k(x)=[κ(x1,x),...,κ(xn,x)]T,因而分类函数也可表示为f(x)=βTk(x);将β0初始化为则随后,不断迭代更新f;在每一次迭代t中,通过参考有噪声的标签矩阵yt,此噪声检测的目标函数可产生新的预测标签ft+1=Kβ;然后再由ft+1得到更精细的标签yt+1,并且保留到下次迭代之中,根据实际需求进行多次迭代;最后根据标签f的正负,将所有目标区域分成模板类(正)和噪声类(负)两类;模板类中的目标区域包含较准确的目标信息,而并不准确的目标区域则被视为噪声,分到噪声类中;
将噪声类中的所有目标区域去除,不论其来自于哪幅图像;将模板类中属于同一幅图像的目标区域叠加,得到一个灰度图,再用基于高阶能量项的分割方法将其分割,得到属于该幅图像的模板;
4)超像素分割及特征提取
对每幅图像,用SLIC算法进行多尺度超像素分割,通过已训练好的VGG网络为每个超像素提取VGG特征,选用VGG1-1层和池化1层的输出,将其分别转化到与图像大小对应的尺寸上,进而得到每个像素的对应值作为该像素的特征;对于每个超像素,再计算其包含的像素特征的平均值,作为该超像素的特征;将每层输出串联起来,得到最终超像素特征;
5)超像素分类
将每一组内所有图像的各个尺度超像素输入到如下所述超像素分类模型中,首先需要求解如下目标函数,得到转移矩阵Q;
其中,A为超像素VGG特征矩阵,av和az则分别代表超像素v和z的VGG特征;Q为需要求解的转移矩阵,hvz为超像素v和z的相似度;目标函数中第一项的F代表F范数;γ1与γ2是设定好的参数,均取0.0001;N为总的超像素个数;P为超像素的伪真值标签矩阵,伪真值标签取值分为正负两类,取值为+1或-1;我们根据噪声检测中得到的模板计算标签矩阵P;首先计算各个超像素中处于对应模板的前景区域中的面积占该超像素总面积的比例;当该比例大于70%时,赋予此超像素正标签,反之则赋予其负标签;若某幅图像在噪声检测中并未得到模板,则该图像的超像素不作为训练超像素来计算转移矩阵Q;
选定超像素标签后,则开始对超像素分类的目标函数进行求解;标签分为正负两类,先从第r类的转移矩阵Qr入手,对其求偏导数如下:
其中,Pr是第r类的标签矩阵;Er是一个对角矩阵,其中第m个对角元emr由Qr中第m个对角元计算得到;计算公式如下:随后迭代更新Qr和Er的值,根据实际需求进行多次迭代;每一次迭代θ中,通过固定由上公式计算出再固定将更新为其中η是一个参数;
根据求解得到的Qr,分别计算组内所有超像素属于每一类的预测得分ATQr;若该超像素在正类中得分高,则判为正类,反之则判为负类;根据正类超像素对应灰度值为1,负类超像素对应灰度值为0,每幅图像得到对应的二值分类结果图;
6)多尺度融合及扩散
上一步骤中每幅图像在多尺度下均得到对应的二值分类结果图,将每幅图像的多幅二值分类结果图叠加,得到灰度图S1,将叠加的灰度图S1按照自适应的阈值分割,得到分类后的二值图S2;其中自适应阈值设定为μ+σ,μ为该图像灰度值均值,σ为标准差;
再将多尺度叠加后所得二值图S2用graphcut算法分割,每幅图像中以分割后灰度值为1的部分为前景种子点,根据流行排序算法进行扩散,得到扩散后的灰度显著性图S3;再与多尺度叠加得到的灰度图S1融合,融合公式如下:S=2*S1+S3;将所得融合图S归一化后便得到最终的显著性图。
本实施例中,图2为本发明方法利用多层次结合的协同显著性检测的结果图。左侧一列是原图像,右侧一列是对应的本发明的协同显著性检测结果图。从图中可以看出,本发明方法可以很好地将同组图像中的共同显著性目标检测出来。
Claims (1)
1.一种多层次结合的协同显著性检测方法,其特征在于,步骤如下:
1)提取目标框及目标框初始筛选
本协同显著性检测方法在图像分组放置的图像库上进行检测,图像库中每组图像内的多个图像都包含相同或相似的目标;
对每幅图像提取1000~2000个目标框,计算每个目标框占所属图像的面积比例,将比例超过70%以及不足30%的目标框删除;
2)目标框粗略筛选及分割目标区域
将每幅图像在步骤1)中保留下来的目标框叠加,形成初始灰度图,将小于0.3的灰度值称为背景灰度值;对应初始灰度图,统计每个目标框内包含像素对应的背景灰度值之和,并除以对应目标框面积,作为背景值得分;对每幅图像,取背景值得分最小的前30个目标框保留;用基于高阶能量项的分割方法对每个目标框进行分割,得到30个具有轮廓信息的不规则目标区域;再通过edgebox算法得到每幅图像的目标边缘图;通过计算每个目标区域的边缘与对应的目标边缘图中目标边缘的重合度,目标区域与目标边缘图中重心距离,每个目标区域得到一个得分,按照得分从大到小的顺序排列,取前10个目标区域保留;
3)基于噪声检测的目标区域精确筛选
首先分别提取整组图像每个目标区域的R-CNN特征,每个目标区域共8192维,将一组图像中所有目标区域一并进行检测,噪声检测的目标函数如下:
其中,α1,α2均为参数,取0.1;xi为目标区域i的R-CNN特征;f为分类函数,f(xi)则代表目标区域i的预测标签;n和n+分别代表所有目标区域的个数以及正类目标区域的个数;yi为软标签,其取值为或L=D-W,W表示两个临近目标区域间的相似度,其元素计算如下:ε为设定的参数;其中目标区域i处于j的邻近集合中,且目标区域j也处于i的邻近集合中;D是一个对角矩阵,其对角元素定义为
采用迭代求解方式对噪声检测的目标函数进行求解;首先将分类函数f定义为f=Kβ,其中β=[β1,β2,...,βn]T是系数,K代表核矩阵,其核映射为k(x)=[κ(x1,x),...,κ(xn,x)]T,因而分类函数也表示为f(x)=βTk(x);将β0初始化为则随后,不断迭代更新f;在每一次迭代t中,通过参考有噪声的标签矩阵yt,此噪声检测的目标函数产生新的预测标签ft+1=Kβ;然后再由ft+1得到更精细的标签yt+1,并且保留到下次迭代中,根据实际需求进行多次迭代;最后根据标签f的正负,将所有目标区域分成模板类和噪声类两类,标签f是正定义为模板类,标签f是负定义为噪声类;
将所有图像中噪声类中的所有目标区域去除;将模板类中属于同一幅图像的目标区域叠加,得到一个灰度图,再用基于高阶能量项的分割方法将其分割,得到属于该幅图像的模板;
4)超像素分割及特征提取
对每幅图像,用SLIC算法进行多尺度超像素分割,通过已训练好的VGG网络为每个超像素提取VGG特征,选用VGG1-1层和池化1层的输出,将其分别转化到与图像大小对应的尺寸上,进而得到每个像素的对应值作为该像素的特征;对于每个超像素,再计算其包含的像素特征的平均值,作为该超像素的特征;将每层输出串联起来,得到最终超像素特征;
5)超像素分类
将每一组内所有图像的各个尺度超像素输入到超像素分类模型中,首先需要求解如下目标函数,得到转移矩阵Q;
其中,A为超像素VGG特征矩阵,av和az则分别代表超像素v和z的VGG特征;Q为需要求解的转移矩阵,hvz为超像素v和z的相似度;目标函数中第一项的F代表F范数;γ1与γ2是设定好的参数,均取0.0001;N为总的超像素个数;P为超像素的伪真值标签矩阵,伪真值标签取值分为正负两类,取值为+1或-1;我们根据噪声检测中得到的模板计算标签矩阵P;首先计算各个超像素中处于对应模板的前景区域中的面积占该超像素总面积的比例;当该比例大于70%时,赋予此超像素正标签,反之则赋予其负标签;若某幅图像在噪声检测中并未得到模板,则该图像的超像素不作为训练超像素来计算转移矩阵Q;
选定超像素标签后,则开始对超像素分类的目标函数进行求解;标签分为正负两类,先从第r类的转移矩阵Qr入手,对其求偏导数如下:
其中,Pr是第r类的标签矩阵;Er是一个对角矩阵,其中第m个对角元emr由Qr中第m个对角元计算得到;计算公式如下:随后迭代更新Qr和Er的值,根据实际需求进行多次迭代;每一次迭代θ中,通过固定由上公式计算出再固定将更新为其中η是一个参数;
根据求解得到的Qr,分别计算组内所有超像素属于每一类的预测得分ATQr;若该超像素在正类中得分高,则判为正类,反之则判为负类;根据正类超像素对应灰度值为1,负类超像素对应灰度值为0,每幅图像得到对应的二值分类结果图;
6)多尺度融合及扩散
步骤5)中每幅图像在多尺度下均得到对应的二值分类结果图,将每幅图像的多幅二值分类结果图叠加,得到灰度图S1,将叠加的灰度图S1按照自适应的阈值分割,得到分类后的二值图S2;其中自适应阈值设定为μ+σ,μ为该图像灰度值均值,σ为标准差;
再将多尺度叠加后所得二值图S2用graphcut算法分割,每幅图像中以分割后灰度值为1的部分为前景种子点,根据流行排序算法进行扩散,得到扩散后的灰度显著性图S3;再与多尺度叠加得到的灰度图S1融合,融合公式如下:S=2*S1+S3;将所得融合图S归一化后便得到最终的显著性图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710238188.7A CN107133955B (zh) | 2017-04-14 | 2017-04-14 | 一种多层次结合的协同显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710238188.7A CN107133955B (zh) | 2017-04-14 | 2017-04-14 | 一种多层次结合的协同显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107133955A CN107133955A (zh) | 2017-09-05 |
CN107133955B true CN107133955B (zh) | 2019-08-09 |
Family
ID=59716362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710238188.7A Active CN107133955B (zh) | 2017-04-14 | 2017-04-14 | 一种多层次结合的协同显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107133955B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038502A (zh) * | 2017-12-08 | 2018-05-15 | 电子科技大学 | 基于卷积神经网络的对象协同检测方法 |
CN108230581A (zh) * | 2017-12-23 | 2018-06-29 | 浙江行雨网络科技有限公司 | 一种无人超市商品结算的商品图像分割方法 |
CN108053448B (zh) * | 2017-12-29 | 2019-12-24 | 中国科学院声学研究所 | 一种针对声压敏感核声图的目标定位方法及其系统 |
CN108388901B (zh) * | 2018-02-05 | 2020-06-16 | 西安电子科技大学 | 基于空间-语义通道的协同显著目标检测方法 |
CN108932518B (zh) * | 2018-06-22 | 2020-08-25 | 大连理工大学 | 一种基于视觉词袋模型的鞋印图像特征提取及检索方法 |
CN109658419B (zh) * | 2018-11-15 | 2020-06-19 | 浙江大学 | 一种医学图像中小器官的分割方法 |
CN110020658B (zh) * | 2019-03-28 | 2022-09-30 | 大连理工大学 | 一种基于多任务深度学习的显著目标检测方法 |
CN110135435B (zh) * | 2019-04-17 | 2021-05-18 | 上海师范大学 | 一种基于广度学习系统的显著性检测方法及装置 |
CN110443257B (zh) * | 2019-07-08 | 2022-04-12 | 大连理工大学 | 一种基于主动学习的显著性检测方法 |
CN110751157B (zh) * | 2019-10-18 | 2022-06-24 | 厦门美图之家科技有限公司 | 图像显著性分割、图像显著性模型训练方法及装置 |
CN113298748B (zh) * | 2020-02-21 | 2022-11-18 | 安徽大学 | 一种基于注意力机制的图像协同显著目标检测模型 |
CN114418898B (zh) * | 2022-03-21 | 2022-07-26 | 南湖实验室 | 一种基于目标重叠度计算和自适应调整的数据增强方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102637253A (zh) * | 2011-12-30 | 2012-08-15 | 清华大学 | 基于视觉显著性和超像素分割的视频前景目标提取方法 |
CN103942774A (zh) * | 2014-01-20 | 2014-07-23 | 天津大学 | 一种基于相似性传播的多目标协同显著区域检测方法 |
CN104809729A (zh) * | 2015-04-29 | 2015-07-29 | 山东大学 | 一种鲁棒的图像显著性区域自动分割方法 |
CN105825502A (zh) * | 2016-03-12 | 2016-08-03 | 浙江大学 | 一种基于显著性指导的词典学习的弱监督图像解析方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8649606B2 (en) * | 2010-02-10 | 2014-02-11 | California Institute Of Technology | Methods and systems for generating saliency models through linear and/or nonlinear integration |
-
2017
- 2017-04-14 CN CN201710238188.7A patent/CN107133955B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102637253A (zh) * | 2011-12-30 | 2012-08-15 | 清华大学 | 基于视觉显著性和超像素分割的视频前景目标提取方法 |
CN103942774A (zh) * | 2014-01-20 | 2014-07-23 | 天津大学 | 一种基于相似性传播的多目标协同显著区域检测方法 |
CN104809729A (zh) * | 2015-04-29 | 2015-07-29 | 山东大学 | 一种鲁棒的图像显著性区域自动分割方法 |
CN105825502A (zh) * | 2016-03-12 | 2016-08-03 | 浙江大学 | 一种基于显著性指导的词典学习的弱监督图像解析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107133955A (zh) | 2017-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107133955B (zh) | 一种多层次结合的协同显著性检测方法 | |
CN110119728A (zh) | 基于多尺度融合语义分割网络的遥感图像云检测方法 | |
CN110349136A (zh) | 一种基于深度学习的篡改图像检测方法 | |
CN106408030B (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN106845374A (zh) | 基于深度学习的行人检测方法及检测装置 | |
CN103699904B (zh) | 多序列核磁共振影像的图像计算机辅助判断方法 | |
CN108009509A (zh) | 车辆目标检测方法 | |
CN108647602B (zh) | 一种基于图像复杂度判定的航空遥感图像场景分类方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN105574550A (zh) | 一种车辆识别方法及装置 | |
CN104166841A (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN101833664A (zh) | 基于稀疏表达的视频图像文字检测方法 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN103824079B (zh) | 基于多层次模式子块划分的图像分类方法 | |
CN110119688A (zh) | 一种利用视觉注意力协同网络的图像情感分类方法 | |
CN106897681A (zh) | 一种遥感图像对比分析方法及系统 | |
CN106570874A (zh) | 一种结合图像局部约束与对象全局约束的图像标记方法 | |
CN106991686A (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN108846416A (zh) | 显著图像的提取处理方法及系统 | |
CN102034267A (zh) | 基于关注度的目标物三维重建方法 | |
CN108447057A (zh) | 基于显著性和深度卷积网络的sar图像变化检测方法 | |
CN106022254A (zh) | 图像识别技术 | |
CN105469111A (zh) | 基于改进的mfa和迁移学习的小样本集的物体分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |