CN107358245A - 一种图像协同显著区域的检测方法 - Google Patents
一种图像协同显著区域的检测方法 Download PDFInfo
- Publication number
- CN107358245A CN107358245A CN201710591486.4A CN201710591486A CN107358245A CN 107358245 A CN107358245 A CN 107358245A CN 201710591486 A CN201710591486 A CN 201710591486A CN 107358245 A CN107358245 A CN 107358245A
- Authority
- CN
- China
- Prior art keywords
- notable
- matrix
- image
- low
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像协同显著区域的检测方法,属于计算机视觉技术领域,包括:S1、采用M种显著检测方法对N张待检测图像进行显著性检测,得到M×N基本显著图S2、利用具有拉普拉斯正则项的低秩矩阵分解模型,对M×N张显著区域颜色特征构成的直方图矩阵进行分解,得到所述基本显著图的加权值,得到的加权值;S3、将的加权值与相应的进行融合,得到加权显著图Sc;S4、对每张待检测图像进行聚类处理,利用Sc指导第i张待检测图像聚类后类的协同显著分配,得到协同显著图Sd;S5、将Sc和Sd进行融合,得到N张待检测图像的显著图S。通过在低秩矩阵分解模型中加入拉普拉斯正则项,提高了低秩背景与系数矩阵区分的准确性,提高了协同显著区域的检测效率。
Description
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种图像协同显著区域的检测方法。
背景技术
近年来,显著性检测在国内外得到了广泛的关注,伴随着互联网技术的发展,从注重单张图像、单个视频的显著性处理到从多张图像或多个视频中寻找相同或相思的显著性目标的协同显著性检测技术越来越吸引人们的注意。
协同显著性检测具有两种性质:一是,每张图片的协同显著区域与周围相比应该具有较强的局部显著性。二是,所有的协同显著区域应该是相似的。因此,系统显著性检测是在图像集中找到共同地显著目标的同时要将个别的显著目标抑制为背景,协同显著性检测多应用于计算机视觉检测方面,比如协同分割、协同识别、匹配等。
目前,在协同显著性检测技术中,低秩矩阵分解策略和聚类的方法被广泛应用于协同显著性目标检测。其中,低秩矩阵分解是将一个矩阵分解成代表背景的低秩矩阵和代表目标的稀疏矩阵。比如Ye等在论文《Depth Co-Saliency Detection via Co-SalientObject Discovery and Recovery》中提出一个有效协同显著目标恢复策略。黄睿等在论文《Saliency and co-saliency detection by low-rank multiscale fusion》提出了高斯混合模型生成协同先验,使用融合策略得到协同显著检测结果。操晓春等在论文《Self-adaptively Weighted Co-saliency Detection via Rank Constraint》中计算自适应加权值来融合单张显著图,使用秩约束获得协同显著图。但是在低秩矩阵和稀疏矩阵相对一致时,显著目标和背景相似或具有复杂的背景时,低秩矩阵分解策略很难区分低秩背景和稀疏目标,协同显著性检测结果不准确。
聚类的方法比如,付等在论文《Cluster-based co-saliency detection》中提出了基于颜色特征聚类的方法,在类的层次上整合对比、空间和一致性线索,融合单张检测结果和协同检测结果得到最终显著图。Hwang等在论文《Image co-saliency detectionbased on clustering and diffusion process》提出基于聚类和传播的协同显著检测方法,通过类的一致性和前景概率计算类的协同显著值,再通过两个阶段的传播得到最终的显著值。但是,类的一致性会将分布较广的背景误识为显著目标,协同显著检测结果偏差较大。
发明内容
本发明的目的在于提供一种图像协同显著区域的检测方法,以提高协同显著区域检测的准确率。
为实现以上目的,本发明采用采用一种图像协同显著区域的检测方法,包括:
S1、采用M种显著检测方法对N张待检测图像进行显著性检测,得到基本显著图表示采用第j种显著检测方法处理第i张待检测图像得到的基本显著图,1≤i≤N,1≤j≤M,N、M均为常数;
S2、利用具有拉普拉斯正则项的低秩矩阵分解模型,对M×N张显著区域颜色特征构成的直方图矩阵进行分解,得到所述基本显著图的加权值;
S3、将所述基本显著图的加权值与相应的基本显著图进行融合,得到加权显著图Sc;
S4、对每张待检测图像进行聚类处理,并利用所述加权显著图Sc指导对应待检测图像聚类之后类的协同显著分配,得到协同显著图Sd;
S5、将所述加权显著图Sc和所述协同显著图Sd进行融合,得到N张待检测图像的显著图S。
其中,步骤S2,具体包括:
根据设定的显著阈值,对所述基本显著图进行二值化处理,得到第i张待检测图像的显著区域
将M×N张待检测图像的显著区域的RGB颜色通道组成直方图矩阵H,其中,第i张待检测图像的显著区域用表示,其中K表示一个显著区域构造的向量;
利用所述具有拉普拉斯正则项的低秩矩阵分解模型对第i张待检测图像向量构成的矩阵进行分解,得到低秩背景矩阵L和稀疏目标矩阵E;
根据所述低秩背景L和稀疏目标E,计算所述基本显著图的加权值
其中,修正后的分解模型具体为:
其中,L*表示背景的低秩矩阵,E*表示目标的稀疏矩阵,λ表示控制E的稀疏权重系数,β表示平衡参数,θ(L,E)表示拉普拉斯正则项:li表示低秩背景矩阵L的第i列,lj表示低秩背景矩阵L的第j列,LT表示低秩背景矩阵L的转置,Tr(·)代表矩阵LTWL的迹,第j种显著检测方法,Tr(·)代表矩阵的迹,W表示拉普拉斯矩阵:W=(wab)∈RMN×MN,ha代表直方图特征矩阵H的第a列,hb表示直方图特征矩阵H的第b列,σ2是控制权重的参数常量,|| ||*表示核范式,|| ||1表示第一范式,表示欧式距离。
其中,根据所述低秩背景L和稀疏目标E,计算所述基本显著图的加权值,具体包括:
根据公式计算所述基本显著图的加权值,其中是的加权值, 为特征直方图和第i张待检测图像之间的距离,定义为其中,E∈R(NM×K), 是稀疏目标矩阵E的第((i-1)×M+j)行,稀疏目标矩阵E是直方图特征矩阵H和低秩矩阵L之间的误差。
其中,步骤S2具体包括:
根据公式将基本显著图的加权值与相应的基本显著图进行融合,得到加权显著图Sc。
其中,步骤S4,具体包括:
利用K-means对所述N张待检测图像进行聚类,得到类的分布情况;
将所述加权显著图Sc的显著值分配到聚类之后图像的每个像素点上,计算各待检测图像中第t个类的平均显著值
根据显著分布权重公式计算每个类的i平均显著分布权重,var()表示方差分布;
将所述每个类的显著分布权重与所述每个类的平均显著值进行融合,得到协同显著图Sd。
其中,协同显著图Sd的计算过程为:
根据公式将所述每个类的显著分布权重w(c)与所述每个类的平均显著值进行融合,得到协同显著图Sd。
其中,显著图S的计算过程为:
根据公式S=Sc×Sd,将所述加权显著图Sc和所述协同显著图Sd进行融合,得到显著图S。
与现有技术相比,本发明存在以下技术效果:本发明针对现有技术中存在的问题,为了更好的区分低秩背景和稀疏矩阵,在低秩矩阵分解模型中加入一个拉普拉斯正则项,得到一个修正后的分解模型。并构造颜色直方图来表示N张待检测图像的显著区域,将各待检测图像之间的差异性信息融入拉普拉斯正则项,得到各待检测图像的加权显著图。此外,针对简单的类分布不能很好的体现出各待检测图像的系统一致性,本发明中利用相同类的显著值的一致性,用聚类一致性得到协同显著图,并与加权显著图进行融合,实现各张待检测图像的协同显著区域,极大的提高了协同显著区域检测的准确率。
附图说明
下面结合附图,对本发明的具体实施方式进行详细描述:
图1是本发明中一种图像协同显著区域的检测方法的流程示意图;
图2是采用本发明提供的图像协同显著区域的检测方法与使用原始低秩矩阵分解模型的SA方法在数据集iCosegSub上的协同显著区域检测结果PR曲线对比图;
图3是采用本发明提供的图像协同显著区域的检测方法与使用原始低秩矩阵分解模型的SA方法在数据集iCosegSub上的协同显著区域检测结果准确率-召回率-F值柱状比对图;
图4是采用本发明提供的图像协同显著区域的检测方法与使用带有拉普拉斯正则项的低秩矩阵分解模型的SA-L方法在数据集iCoseg上的协同显著区域检测结果PR曲线比对图;
图5是采用本发明提供的图像协同显著区域的检测方法与使用带有拉普拉斯正则项的低秩矩阵分解模型的SA-L方法在数据集iCoseg上的协同显著区域检测结果准确率-召回率-F值柱状比对图;
图6是本发明中检测图像协同显著区域的过程示意图。
具体实施方式
为了更进一步说明本发明的特征,请参阅以下有关本发明的详细说明与附图。所附图仅供参考与说明之用,并非用来对本发明的保护范围加以限制。
如图1所示,本实施例公开了一种图像协同显著区域的检测方法,该方法包括如下步骤S1至S5:
S1、采用M种显著检测方法对N张待检测图像进行显著性检测,得到M×N张基本显著图表示采用第j种显著检测方法处理第i张待检测图像得到的基本显著图,1≤i≤N,1≤j≤M,N、M均为常数;
具体地,本实施例中的M种显著检测方法包括《Saliency Detection via Graph-Based Manifold Ranking》、《Hierarchical saliency detection》和《Salient ObjectDetection via Structured Matrix Decomposition》等提出的显著性检测方法。
S2、利用具有拉普拉斯正则项的低秩矩阵分解模型,对M×N张显著区域颜色特征构成的直方图矩阵进行分解,得到所述基本显著图的加权值;
具体地,本实施例中在低秩矩阵分解模型中加入拉普拉斯正则项,以更好的区分低秩背景和稀疏目标,提高了低秩背景和稀疏目标区分的准确性。
S3、将所述基本显著图的加权值与相应的基本显著图进行融合,得到加权显著图Sc;
S4、对每张待检测图像进行聚类处理,并利用所述加权显著图Sc指导第i张待检测图像聚类之后类的协同显著分配,得到协同显著图Sd;
S5、将所述加权显著图Sc和所述协同显著图Sd进行融合,得到N张待检测图像的显著图S。
进一步地,上述的步骤S2,具体包括如下细分步骤:
根据设定的显著阈值,对所述基本显著图进行二值化处理,得到第i张待检测图像的显著区域
将M×N张待检测图像的显著区域的RGB颜色通道组成直方图矩阵H,其中,第i张待检测图像的显著区域用表示,其中K表示一个显著区域构造的向量;
其中还,根据实际应用的情况设定二值化处理的显著阈值,从各待检测图像的RGB图像中提取显示区域并用来表示,并将所有的RGB颜色直方图构造成直方图特征矩阵H,其中K表示103bins,每张RGB图像共3个通道颜色,每个颜色通道统一量化为10bins,共有K=103bins;则这个直方图矩阵是(M×N)×1000的矩阵。
利用所述具有拉普拉斯正则项的低秩矩阵分解模型对直方图矩阵H进行分解,得到低秩背景矩阵L和稀疏目标矩阵E;
具体地,具有拉普拉斯正则项的低秩矩阵分解模型具体为:
其中,L*表示背景的低秩矩阵,E*表示目标的稀疏矩阵,λ表示控制E的稀疏权重系数,β表示平衡参数,θ(L,E)表示拉普拉斯正则项:li表示低秩背景矩阵L的第i列,lj表示低秩背景矩阵L的第j列,LT表示低秩背景矩阵L的转置,Tr(·)代表矩阵LTWL的迹,这里,LT、W、L三个矩阵相乘的结果还是一个矩阵,矩阵的迹是这个矩阵对角线上所有数值的绝对值之和,W表示拉普拉斯矩阵:W=(wab)∈RMN×MN,ha代表直方图特征矩阵H的第a列,hb表示直方图特征矩阵H的第b列,σ2是控制权重的参数常量。
根据所述低秩背景L和稀疏目标E,计算所述基本显著图的加权值
其中,加权值的定义为:计算所述基本显著图的加权值,其中是的加权值, 为特征直方图和第i张待检测图像Ii之间的距离,定义为其中,E∈R(NM×K), 是稀疏目标矩阵E的第((i-1)×M+j)行,稀疏目标矩阵E是直方图特征矩阵H和低秩矩阵L之间的误差。
进一步地,步骤S3,具体包括:
根据公式将基本显著图的加权值与相应的基本显著图进行融合,得到加权显著图Sc。
进一步地,步骤S4,具体包括:
利用K-means对所述N张待检测图像进行聚类,得到类的分布情况;
将所述加权显著图Sc的显著值分配到聚类之后图像的每个像素点上,计算各待检测图像中第t个类的平均显著值 其中,Ct表示类的索引且1≤t≤T,C表示聚类的数量,该处取值为20,表示类Ct中的像素点;
根据显著分布权重公式计算每个类的平均显著分布权重,var()表示方差分布;
将所述每个类的显著分布权重与所述每个类的平均显著值进行融合,得到协同显著图Sd。
需要说明的是,在一组图像中相同的类的显著值分布的均匀情况,方差越小表示类的显著值分布不均更可能是显著非协同部分,方差越小表明显著值分布均匀是显著协同或者是非显著部分的可能性更大。
进一步地,步骤S5中协同显著图Sd的计算过程为:
根据公式将所述每个类的显著分布权重w(c)与所述每个类的平均显著值进行融合,得到协同显著图Sd。
进一步地,步骤S5中显著图S的计算过程为:
根据公式S=Sc×Sd,将所述加权显著图Sc和所述协同显著图Sd进行融合,得到显著图S。
如图6所示,对本实施例中协同显著区域检测过程举例进行说明:
假设一个数据集共37组图像,每组5张图。则一次处理5张图,协同显著区域检测是检测出这5张图中相似、一致的区域,即协同显著区域。
使用M种方法处理N张图像得到M×N张基本显著图;设置阈值,提取显著区域的RGB颜色特征得到显著区域,将显著区域的RGB颜色特征构成直方图,将每张图的显著区域构造成一个直方图向量(该向量1*1000),共25张图,所有直方图排列起来,所以构成一个25*1000的直方图矩阵,也就是特征矩阵。
分解特征矩阵得到加权值,和基本显著图融合得到加权显著图,将加权显著图的显著值分配给聚类之后的图像上,再将加权显著图与协同显著图进行融合得到最终结果。
需要说明的是,本实施例提供的发明思路是使用具有拉普拉斯正则项的低秩矩阵分解模型,增大背景和稀疏目标的差异,得到更精确的加权值,用加权值融合相应的基本显著图得到更精确的加权显著图;以加权显著图指导类的显著分布,得到协同显著图,并和加权显著图融合得到最终协同显著结果。如图2-图5所示,通过在数据集iCosegSub和iCoseg上进行协同显著性检测,证明本实施例中利用加权值和类的显著分布具有增强图像协同显著区域检测的作用,有效的提高了图像协同显著区域检测的准确率。
具体地,在数据集iCosegSub、iCoseg上分别采用本实施例提供的显著性检测方法并以OURS表示、操晓春等人在《Self-adaptively Weighted Co-saliency Detection viaRank Constraint》中使用原始低秩矩阵模型的方法并表示为SA,以及添加了拉普拉斯正则项的SA方法并用SA-L表示,分别对图像进行协同显著区域检测。由图2、图4可以看出,利用本实施例的显著性检测方法得到的准确率-召回率(Precision-recall)曲线位于SA方法得到的准确率-召回率(Precision-recall)曲线上方。由图3、图5可以看出,利用本实施例公开方法的显著性检测方法得到的准确率-召回率-F值(precision-recall-F-measure)柱状图中的准确率和F值均高于SA-L方法得到的准确率和F值。因此,本实施例公开的协同显著区域检测方法有效的提高了协同显著区域检测的准确率。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种图像协同显著区域的检测方法,其特征在于,包括:
S1、采用M种显著检测方法对N张待检测图像进行显著性检测,得到M×N张基本显著图 表示采用第j种显著检测方法处理第i张待检测图像得到的基本显著图,1≤i≤N,1≤j≤M,M、N均为常数;
S2、利用具有拉普拉斯正则项的低秩矩阵分解模型,对M×N张显著区域颜色特征构成的直方图矩阵进行分解,得到所述基本显著图的加权值;
S3、将所述基本显著图的加权值与相应的基本显著图进行融合,得到加权显著图Sc;
S4、对每张待检测图像进行聚类处理,并利用所述加权显著图Sc指导对应待检测图像聚类之后类的协同显著分配,得到协同显著图Sd;
S5、将所述加权显著图Sc和所述协同显著图Sd进行融合,得到N张待检测图像的显著图S。
2.如权利要求1所述的方法,其特征在于,所述的步骤S2,具体包括:
根据设定的显著阈值,对所述基本显著图进行二值化处理,得到每张待检测图像的显著区域
将M×N张待检测图像的显著区域的RGB颜色通道组成直方图矩阵H,其中,第i张待检测图像的显著区域用表示,其中K表示一个显著区域构造的向量;
利用所述具有拉普拉斯正则项的低秩矩阵分解模型对直方图矩阵H进行分解,得到低秩背景矩阵L和稀疏目标矩阵E;
根据所述低秩背景L和稀疏目标E,计算所述基本显著图的加权值
3.如权利要求2所述的方法,其特征在于,所述具有拉普拉斯正则项的低秩矩阵分解模型具体为:
<mrow>
<mo>(</mo>
<mi>L</mi>
<mo>*</mo>
<mo>,</mo>
<mi>E</mi>
<mo>*</mo>
<mo>)</mo>
<mo>=</mo>
<munder>
<mrow>
<mi>arg</mi>
<mi>min</mi>
</mrow>
<mrow>
<mi>L</mi>
<mo>,</mo>
<mi>E</mi>
</mrow>
</munder>
<mo>|</mo>
<mo>|</mo>
<mi>L</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mo>*</mo>
</msub>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>|</mo>
<mo>|</mo>
<mi>E</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
<mo>+</mo>
<mi>&beta;</mi>
<mi>&theta;</mi>
<mo>(</mo>
<mi>L</mi>
<mo>,</mo>
<mi>E</mi>
<mo>)</mo>
<mo>,</mo>
</mrow>
其中,L*表示背景的低秩矩阵,E*表示目标的稀疏矩阵,λ表示控制E的稀疏权重系数,β表示平衡参数,θ(L,E)表示拉普拉斯正则项:li表示低秩背景矩阵L的第i列,lj表示低秩背景矩阵L的第j列,LT表示低秩背景矩阵L的转置,Tr(·)代表矩阵LTWL的迹,W表示拉普拉斯矩阵:W=(wab)∈RMN×MN,ha代表直方图特征矩阵H的第a列,hb表示直方图特征矩阵H的第b列,σ2是控制权重的参数常量。
4.如权利要求3所述的方法,其特征在于,所述的根据所述低秩背景L和稀疏目标E,计算所述基本显著图的加权值,具体包括:
根据公式计算所述基本显著图的加权值,其中是的加权值, 为特征直方图和第i张待检测图像之间的距离,定义为其中,E∈R(NM×K), 是稀疏目标矩阵E的第((i-1)×M+j)行,稀疏目标矩阵E是直方图特征矩阵H和低秩矩阵L之间的误差。
5.如权利要求3所述的方法,其特征在于,所述的步骤S3具体包括:
根据公式将基本显著图的加权值与相应的基本显著图进行融合,得到加权显著图Sc。
6.如权利要求3所述的方法,其特征在于,所述的步骤S4,具体包括:
利用K-means对所述N张待检测图像进行聚类,得到类的分布情况;
将所述加权显著图Sc的显著值分配到聚类之后图像的每个像素点上,计算各待检测图像中第t个类的平均显著值
根据显著分布权重公式计算每个类的i平均显著分布权重,var()表示方差分布;
将所述每个类的显著分布权重与所述每个类的平均显著值进行融合,得到协同显著图Sd。
7.如权利要求6所述的方法,其特征在于,所述协同显著图Sd的计算过程为:
根据公式将所述每个类的显著分布权重w(c)与所述每个类的平均显著值进行融合,得到协同显著图Sd。
8.如权利要求7所述的方法,其特征在于,所述的显著图S的计算过程为:
根据公式S=Sc×Sd,将所述加权显著图Sc和所述协同显著图Sd进行融合,得到显著图S。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710591486.4A CN107358245B (zh) | 2017-07-19 | 2017-07-19 | 一种图像协同显著区域的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710591486.4A CN107358245B (zh) | 2017-07-19 | 2017-07-19 | 一种图像协同显著区域的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107358245A true CN107358245A (zh) | 2017-11-17 |
CN107358245B CN107358245B (zh) | 2020-05-26 |
Family
ID=60284689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710591486.4A Active CN107358245B (zh) | 2017-07-19 | 2017-07-19 | 一种图像协同显著区域的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107358245B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388901A (zh) * | 2018-02-05 | 2018-08-10 | 西安电子科技大学 | 基于空间-语义通道的协同显著目标检测方法 |
CN108460379A (zh) * | 2018-02-06 | 2018-08-28 | 西安电子科技大学 | 基于细化空间一致性二阶段图的显著目标检测方法 |
CN108717546A (zh) * | 2018-05-14 | 2018-10-30 | 天津大学 | 基于颜色特征增强的没有单一显著残差的协同检测算法 |
CN108764177A (zh) * | 2018-05-31 | 2018-11-06 | 安徽大学 | 一种基于低秩分解和表示联合学习的运动目标检测方法 |
CN109389031A (zh) * | 2018-08-27 | 2019-02-26 | 浙江大丰实业股份有限公司 | 演出人员自动定位机构 |
CN109636818A (zh) * | 2018-12-14 | 2019-04-16 | 成都航空职业技术学院 | 一种拉普拉斯正则约束下低秩稀疏优化的目标分割方法 |
CN110866523A (zh) * | 2019-10-25 | 2020-03-06 | 北京联合大学 | 一种显著图融合方法及系统 |
CN111862027A (zh) * | 2020-07-15 | 2020-10-30 | 常州大学 | 基于低秩稀疏矩阵分解的纺织品瑕疵检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040013305A1 (en) * | 2001-11-14 | 2004-01-22 | Achi Brandt | Method and apparatus for data clustering including segmentation and boundary detection |
CN106127197A (zh) * | 2016-04-09 | 2016-11-16 | 北京交通大学 | 一种基于显著标签排序的图像显著性目标检测方法 |
CN106204615A (zh) * | 2016-07-20 | 2016-12-07 | 安徽大学 | 一种基于中心矩形构图先验的显著目标检测方法 |
-
2017
- 2017-07-19 CN CN201710591486.4A patent/CN107358245B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040013305A1 (en) * | 2001-11-14 | 2004-01-22 | Achi Brandt | Method and apparatus for data clustering including segmentation and boundary detection |
CN106127197A (zh) * | 2016-04-09 | 2016-11-16 | 北京交通大学 | 一种基于显著标签排序的图像显著性目标检测方法 |
CN106204615A (zh) * | 2016-07-20 | 2016-12-07 | 安徽大学 | 一种基于中心矩形构图先验的显著目标检测方法 |
Non-Patent Citations (2)
Title |
---|
HUAZHU FU,ETC: "cluster-based co-saliency detection", <IEEE TRANSACTIONS ON IMAGE PROCESSING> * |
INSUNG HWANG1,ETC: "image co-saliency detection based on clustering and diffusion process", <IEEE> * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388901B (zh) * | 2018-02-05 | 2020-06-16 | 西安电子科技大学 | 基于空间-语义通道的协同显著目标检测方法 |
CN108388901A (zh) * | 2018-02-05 | 2018-08-10 | 西安电子科技大学 | 基于空间-语义通道的协同显著目标检测方法 |
CN108460379A (zh) * | 2018-02-06 | 2018-08-28 | 西安电子科技大学 | 基于细化空间一致性二阶段图的显著目标检测方法 |
CN108460379B (zh) * | 2018-02-06 | 2021-05-04 | 西安电子科技大学 | 基于细化空间一致性二阶段图的显著目标检测方法 |
CN108717546A (zh) * | 2018-05-14 | 2018-10-30 | 天津大学 | 基于颜色特征增强的没有单一显著残差的协同检测算法 |
CN108764177A (zh) * | 2018-05-31 | 2018-11-06 | 安徽大学 | 一种基于低秩分解和表示联合学习的运动目标检测方法 |
CN108764177B (zh) * | 2018-05-31 | 2021-08-27 | 安徽大学 | 一种基于低秩分解和表示联合学习的运动目标检测方法 |
CN109389031A (zh) * | 2018-08-27 | 2019-02-26 | 浙江大丰实业股份有限公司 | 演出人员自动定位机构 |
CN109389031B (zh) * | 2018-08-27 | 2021-12-03 | 浙江大丰实业股份有限公司 | 演出人员自动定位机构 |
CN109636818A (zh) * | 2018-12-14 | 2019-04-16 | 成都航空职业技术学院 | 一种拉普拉斯正则约束下低秩稀疏优化的目标分割方法 |
CN110866523A (zh) * | 2019-10-25 | 2020-03-06 | 北京联合大学 | 一种显著图融合方法及系统 |
CN111862027A (zh) * | 2020-07-15 | 2020-10-30 | 常州大学 | 基于低秩稀疏矩阵分解的纺织品瑕疵检测方法 |
CN111862027B (zh) * | 2020-07-15 | 2024-02-20 | 常州大学 | 基于低秩稀疏矩阵分解的纺织品瑕疵检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107358245B (zh) | 2020-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107358245A (zh) | 一种图像协同显著区域的检测方法 | |
Yi et al. | Learning to find good correspondences | |
Veit et al. | Learning visual clothing style with heterogeneous dyadic co-occurrences | |
Schwarz et al. | RGB-D object recognition and pose estimation based on pre-trained convolutional neural network features | |
CN106997597B (zh) | 一种基于有监督显著性检测的目标跟踪方法 | |
CN104008174B (zh) | 一种海量图像检索的隐私保护索引生成方法 | |
CN104036255B (zh) | 一种人脸表情识别方法 | |
CN104599275B (zh) | 基于概率图模型的非参数化的rgb-d场景理解方法 | |
CN104992191B (zh) | 基于深度学习的特征和最大置信路径的图像分类方法 | |
CN107590491B (zh) | 一种图像处理方法及装置 | |
CN108345850A (zh) | 基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法 | |
CN104992454B (zh) | 一种区域化自动变类的图像分割方法 | |
CN108537239A (zh) | 一种图像显著性目标检测的方法 | |
CN107392968A (zh) | 融合颜色对比图和颜色空间分布图的图像显著性检测方法 | |
CN102982544A (zh) | 多前景目标图像交互式分割方法 | |
CN103778430B (zh) | 一种基于肤色分割和AdaBoost相结合的快速人脸检测方法 | |
CN107038701A (zh) | 一种工业生产中线缆表面瑕疵的检测方法及系统 | |
Jiang et al. | Consensus style centralizing auto-encoder for weak style classification | |
CN110516533A (zh) | 一种基于深度度量的行人再辨识方法 | |
CN103761503A (zh) | 用于相关反馈图像检索的自适应训练样本选取方法 | |
Huo et al. | Semisupervised learning based on a novel iterative optimization model for saliency detection | |
TW201023102A (en) | Method for appearance model generation, object identification method and surveillance system | |
CN107657276A (zh) | 一种基于寻找语义类簇的弱监督语义分割方法 | |
CN107358244B (zh) | 一种快速局部不变特征提取与描述方法 | |
CN113033345B (zh) | 基于公共特征子空间的v2v视频人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |