CN109191485A - 一种基于多层超图模型的多视频目标协同分割方法 - Google Patents
一种基于多层超图模型的多视频目标协同分割方法 Download PDFInfo
- Publication number
- CN109191485A CN109191485A CN201810998162.7A CN201810998162A CN109191485A CN 109191485 A CN109191485 A CN 109191485A CN 201810998162 A CN201810998162 A CN 201810998162A CN 109191485 A CN109191485 A CN 109191485A
- Authority
- CN
- China
- Prior art keywords
- super
- hypergraph
- pixel
- video
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多层超图模型的多视频目标协同分割方法,属于计算机视觉领域,本发明针对视频中包含较多非相关帧的视频,引入全卷积神经网络得到的分割结果作为超边构造的语义特征,在视频的每一帧生成若干潜在目标区域,利用视频内和视频间的相关关系,得到可靠目标区域,作为高层特征并构造高层目标模型;利用外观、光流以及显著性检测方法,提取视频帧的相关特征作为低层特征,并构造低层目标模型。利用低层模型和高层模型共同构造超图,最后利用超图分割算法,实现视频目标分割,提升了分割准确率。
Description
技术领域
本发明属于计算机视觉领域,涉及一种基于多层超图模型的多视频目标协同分割方法。
背景技术
视频分割技术作为视频处理的关键步骤,对视频处理的效果有很大影响。目前现有的视频分割技术普遍存在以下几个问题:(1)大多数分割方法均基于简单图模型,简单图仅仅保留两个像素或分块间的相关关系,而在许多现实问题中,结点之间的关系十分复杂,利用简单图来表征分割问题势必会导致信息的丢失。(2)基于目标区域的分割方法通常在每一个视频帧内仅选择单个潜在目标区域作为特征信息,一旦该潜在目标区域不准确,必然导致分割结果出现较大误差。(3)目前提出的方法均建立在所有视频的每一帧中均包含前景目标的基础上。而这一假设在现实场景中很难实现,目标往往在不确定时刻会被遮挡或超出视野范围,而对于包含较多噪声帧(非相关帧)的视频,此类方法会受到较大影响,大大降低了分割准确性。
发明内容
本发明主要针对现有方法存在的视频特征信息不完整、目标区域选择不准确、不能处理噪声视频等问题,提出了基于多层超图模型的视频目标分割算法,有效保存结点之间的复杂关系,完整地描述客观世界中数据间的多重关系及特征信息,针对视频中包含较多非相关帧的视频,可以更有效的分割视频中的目标,提高了分割准确率。
本发明是通过下述技术方案来实现的。
一种基于多层超图模型的多视频目标协同分割方法,该方法针对包含较多非相关帧的视频集,引入全卷积神经网络作为高级语义特征,在视频的每一帧生成若干潜在目标区域,利用视频内和视频间的相关关系,得到可靠目标区域,作为高层特征并构造高层目标模型;利用外观、运动及显著性等低层特征构造低层目标模型,共同构造超图,之后利用超图分割算法,实现视频目标分割。该方法与现有方法进行对比实验分析,在XJTU-Stevens和Noisy-ViCoSeg两个公开数据集上验证分割算法的准确性和有效性。
本发明一种基于多层超图模型的多视频目标协同分割方法,包括如下步骤:
步骤1:超图结点表示:
1)利用过分割算法对视频的每一帧进行处理,得到的超像素作为超图的结点;
2)对拉普拉斯矩阵进行特征值分解,将相同属性超图的结点聚类到同一个超边中;分别由高层目标模型和低层目标模型计算得到;
步骤2:高层目标模型构造超边:
1)利用基于类别独立的潜在目标区域生成方法,在视频的每一帧生成若干个潜在目标区域;对每一个潜在目标区域设置分数,其目标分数O(rm)利用运动、外观和语义信息计算得到;
2)根据潜在目标区域目标分数O(rm)对每一视频帧的潜在目标区域排序,挑选前M个潜在目标区域融合得到一个备选目标区域;
3)利用k-means聚类算法,将同一类视频中所有视频帧的潜在目标区域进行聚类,得到两组集合,可靠集合Qb和不可靠集合Qu;
4)利用可靠集合Qb中包含的备选目标区域分别对应的前M个潜在目标区域作为正样本,其余潜在目标区域作为负样本,训练一个线性SVM分类器,其中潜在目标区域的特征提取利用Resnet的fc7层特征;
5)利用SVM分类器对于所有的原始潜在目标区域进行测试,得到每一个原始潜在目标区域rm的分类分数Oc(rm);利用该分类分数,重新优化视频目标分数O(rm)←O(rm)+Oc(rm);
6)根据优化后的视频目标分数,对于每一视频帧,重新挑选前M个潜在目标区域,融合得到可靠目标区域,作为超边构造的高层特征;
步骤3:低层目标模型构造超边:
1)利用外观特征构造超边:首先获取视频帧中每个超像素的Lab值,计算每个超像素的外观特征Pc;基于所述外观特征Pc,定义超图的任意两个结点p和q之间的相似度矩阵;
2)利用运动特征构造超边:一个超像素的运动由超像素的运动强度Pu和运动角度Pd表示,为Pm=(Pu,Pd),由一个超像素中包含的所有像素的运动平均值得到;基于运动特征,定义超图的任意两个结点p和q之间的相似度矩阵;
3)利用显著性特征构造超边:任意超像素的显著性值Ps,由该超像素所包含的所有像素的平均显著性值计算得到;基于显著性特征,定义超图的任意两个结点p和q之间的相似度矩阵;
步骤4:超边权重:
超边的权重越大,表示超边内的结点相似程度越高,且与其它超边包含的结点相似程度越低。根据权重的以上特点,定义超边e的权重w(e);
步骤5:超图分割:
1)将超图的所有结点分别划分至前景目标集合或背景集合中,即为超图的标准二划分;类似于标准割,超图的标准二划分的最小化问题是一个NP完全问题,它可以松弛化为实值优化问题;采用谱分析的近似算法,定义超图的拉普拉斯矩阵;
2)超图拉普拉斯矩阵的最小非零特征值对应的特征向量即为该实值优化问题的最优解,超图的二划分结果即为最终目标分割的结果。
与现有技术相比,本发明的有益效果是:
本发明是一种基于多层超图模型的多视频目标协同分割方法,针对目前视频分割方法中存在的特征信息不完整、目标区域选择不准确、不能处理噪声视频等问题,引入多层超图模型,自动分割出视频中包含的目标,提高了分割准确率。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的不当限定,在附图中:
图1(a)、图1(b)分别为本发明的验证数据集实例,其中:图1(a)是XJTU-Stevens数据集示例图,图1(b)是Noisy-ViCoSeg数据集示例图;
图2为本发明分割方法流程图;
图3为超图结构示意图;
图4为两个视频不同帧的运动(光流)特征示例图;
图5为一个视频其中三帧的显著性特征示例。
具体实施方式
下面将结合附图以及具体实施例来详细说明本发明,在此本发明的示意性实施例以及说明用来解释本发明,但并不作为对本发明的限定。
如附图1(a)、图1(b)所示,图1(a)、图1(b)分别是验证本发明方法可行性的数据集:图1(a)是XJTU-Stevens数据集的部分相关和不相关帧的示例。视频相关帧被标记为(√),非相关帧被标记为(×)。相关帧展示了对应的像素级的分割掩码。每一类视频下方为相关数据,以airplane为例,11(4/7)表示视频集包含11个视频,其中4个视频仅包含相关帧,7个视频包含非相关帧;“1763(1702/61)”表示视频集中所有视频帧的个数为1763,其中相关帧和非相关帧分别为1702和61。图1(b)是Noisy-ViCoseg数据集的部分视频帧示例,其中红色叉表示噪声帧,帧内不包含目标;绿色勾号表示相关帧,帧内包含目标。
参见图2,为本发明所述的基于多层超图模型的多视频目标协同分割方法的方法流程图,步骤如下:
步骤1:超图结点表示:
1)利用过分割算法对视频的每一帧进行处理,得到的区域块(超像素)作为超图的结点;
2)利用拉普拉斯矩阵L=D-1/2(D-A)D-1/2的特征值分解,将相同属性的结点聚类到同一个超边中。其中A(p,q)表示两个结点p和q之间的相似度,分别由高层目标模型和低层目标模型计算得到。
步骤2:高层目标模型构造超边:
1)利用基于类别独立的潜在目标区域生成方法,在视频的每一帧生成若干个潜在目标区域。对每一个潜在目标区域设置分数,其目标分数利用运动、外观信息计算得到:
O(rm)=Oa(rm)+Om(rm)+Os(rm)
其中,rm表示潜在目标区域;Oa(rm)表示rm的外观分数;Om(rm)表示rm的运动分数;Os(rm)表示rm的语义分数,由训练后的全卷积神经网络计算得到。
2)根据潜在目标区域目标分数O(rm)对每一视频帧的潜在目标区域排序,挑选前M个潜在目标区域融合得到一个备选目标区域;
3)利用k-means聚类算法,将同一类视频中所有视频帧的潜在目标区域进行聚类,得到两组集合,可靠集合Qb和不可靠集合Qu;
4)利用可靠集合Qb中包含的备选目标区域分别对应的前M个潜在目标区域作为正样本,其余潜在目标区域作为负样本,训练一个线性SVM分类器,其中潜在目标区域的特征提取利用Resnet的fc7层特征;
5)利用SVM分类器对于所有的原始潜在目标区域进行测试,得到每一个原始潜在目标区域rm的分类分数Oc(rm)。利用该分类分数,重新优化视频目标分数O(rm)←O(rm)+Oc(rm);
6)根据优化后的视频目标分数,对于每一视频帧,重新挑选前M个潜在目标区域,融合得到可靠目标区域,作为超边构造的高层特征;
步骤3:低层目标模型构造超边:
1)利用外观特征构造超边:首先获取视频帧中每个超像素的Lab值,计算每个超像素的外观特征Pc为:
其中,Ns表示超像素中包含像素的个数;cj表示超像素中第j个像素颜色Lab值。
基于外观特征,超图的任意两个结点(超像素)p和q之间的相似度矩阵
Ac(p,q)定义如下:
其中,Pc(p)表示结点p的外观特征;Pc(q)表示结点q的外观特征;σc为||Pc(p)-Pc(q)||2的标准差。
2)利用运动特征构造超边:视频的运动特征示例如图4所示;一个超像素的运动由超像素的运动强度Pu和运动角度Pd表示,为Pm=(Pu,Pd),由一个超像素中包含的所有像素的运动平均值得到:
其中,Ns表示超像素中包含像素的个数;ωj表示超像素中第j个像素的权重大小;uj,dj分别表示第j个像素运动强度和运动角度。
基于运动特征,超图的任意两个结点(超像素)p和q之间的相似度矩阵Am(p,q)定义如下:
其中,Pm(p)表示结点p的运动特征;Pm(q)表示结点q的运动特征;σm表示||Pm(p)-Pm(q)||2的标准差。
3)利用显著性特征构造超边:视频的显著性特征如图5所示;任意超像素的显著性值Ps,由该超像素所包含的所有像素的平均显著性值计算得到:
式中,Ns表示超像素中包含像素的个数;sj表示超像素中第j个像素的显著性值;
基于显著性特征,超图的任意两个结点(超像素)p和q之间的相似度矩阵As(p,q)定义为:
其中,Ps(p)表示结点p的显著性特征;Ps(q)表示结点q的显著性特征;σs表示||Ps(p)-Ps(q)||2的标准差。
步骤4:超边权重:
超边的权重越大,表示超边内的结点相似程度越高,且与其它超边包含的结点相似程度越低。根据权重的以上特点,定义超边e的权重:
其中,c表示归一化系数;A(p,q)表示结点p和q之间的相似度矩阵。
步骤5:超图分割:
1)将超图的所有结点分别划分至前景目标集合或背景集合中,即为超图的标准二划分;类似于标准割,超图的标准二划分的最小化问题是一个NP完全问题,它可以松弛化为实值优化问题;采用谱分析的近似算法,定义超图的拉普拉斯矩阵为:
式中,I表示单位矩阵;Dv、De分别表示结点度数和超边度数的对角矩阵;H表示超图的邻接矩阵;W表示超边权重的对角矩阵。
2)超图拉普拉斯矩阵的最小非零特征值对应的特征向量即为该实值优化问题的最优解,超图的二划分结果即为最终目标分割的结果。
图3是超图结构的示例图,其中X={x1,x2,...,xn}表示超图的顶点,超图的超边分别是:E1={x1,x2,x3},E2={x1,x4},E3={x4,x5,x6},E4={x3,x5,x7},E5={x7,x8},E6={x9}。
表1a、1b分别是分割方法的实验结果,表1a为在XJTU-Stevens数据集下该方法的实验结果,表1b为在Noisy-ViCoSeg数据集下该方法的实验结果。
表1a 在XJTU-Stevens数据集下该方法的实验结果
表1b 在Noisy-ViCoSeg数据集下该方法的实验结果
从表1a和表1b中可以看出,与VOS、FOS、BVS、MVC以及VOC五种方法进行对比,本发明基于多层超图模型的多视频目标协同分割方法的分割准确率有了较大的提高。
需要说明的是:以上所述仅为本发明的优选实施例,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,凡在本发明的精神、原则和宗旨之内,在本领域的普通技术人员所具备的知识范围内,其对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行同等替换,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于多层超图模型的多视频目标协同分割方法,其特征在于,包括如下步骤:
步骤1:超图结点表示:
1)利用过分割算法对视频的每一帧进行处理,得到的超像素作为超图的结点;
2)对拉普拉斯矩阵进行特征值分解,将相同属性超图的结点聚类到同一个超边中;分别由高层目标模型和低层目标模型计算得到;
步骤2:高层目标模型构造超边:
1)利用基于类别独立的潜在目标区域生成方法,在视频的每一帧生成若干个潜在目标区域;对每一个潜在目标区域设置分数,其目标分数O(rm)利用运动、外观和语义信息计算得到;
2)根据潜在目标区域目标分数O(rm)对每一视频帧的潜在目标区域排序,挑选前M个潜在目标区域融合得到一个备选目标区域;
3)利用k-means聚类算法,将同一类视频中所有视频帧的潜在目标区域进行聚类,得到两组集合,即可靠集合Qb和不可靠集合Qu;
4)利用可靠集合Qb中包含的备选目标区域分别对应的前M个潜在目标区域作为正样本,其余潜在目标区域作为负样本,训练一个线性SVM分类器,其中潜在目标区域的特征提取利用Resnet的fc7层特征;
5)利用SVM分类器对于所有的原始潜在目标区域进行测试,得到每一个原始潜在目标区域rm的分类分数Oc(rm);利用该分类分数,重新优化视频目标分数O(rm)←O(rm)+Oc(rm);
6)根据优化后的视频目标分数,对于每一视频帧,重新挑选前M个潜在目标区域,融合得到可靠目标区域,作为超边构造的高层特征;
步骤3:低层目标模型构造超边:
1)利用外观特征构造超边:首先获取视频帧中每个超像素的Lab值,计算每个超像素的外观特征Pc;基于所述外观特征Pc,定义超图的任意两个结点p和q之间的相似度矩阵;
2)利用运动特征构造超边:一个超像素的运动由超像素的运动强度Pu和运动角度Pd表示,为Pm=(Pu,Pd),由一个超像素中包含的所有像素的运动平均值得到;基于运动特征,定义超图的任意两个结点p和q之间的相似度矩阵;
3)利用显著性特征构造超边:任意超像素的显著性值Ps,由该超像素所包含的所有像素的平均显著性值计算得到;基于显著性特征,定义超图的任意两个结点p和q之间的相似度矩阵;
步骤4:超边权重:
根据超边的权重越大,表示超边内的结点相似程度越高,且与其它超边包含的结点相似程度越低的特点,定义超边e的权重w(e);
步骤5:超图分割:
1)将超图的所有结点分别划分至前景目标集合或背景集合中,即为超图的标准二划分;类似于标准割,超图的标准二划分的最小化问题是一个NP完全问题,它可以松弛化为实值优化问题;采用谱分析的近似算法,定义超图的拉普拉斯矩阵;
2)超图拉普拉斯矩阵的最小非零特征值对应的特征向量即为该实值优化问题的最优解,超图的二划分结果即为最终目标分割的结果。
2.根据权利要求1所述的一种基于多层超图模型的多视频目标协同分割方法,其特征在于,所述步骤1中,拉普拉斯矩阵如下:
L=D-1/2(D-A)D-1/2
式中,A(p,q)表示两个结点p和q之间的相似度;D表示对角矩阵D(p,p)=∑qA(p,q)。
3.根据权利要求1所述的一种基于多层超图模型的多视频目标协同分割方法,其特征在于,所述步骤2-1)中,潜在目标区域目标分数如下:
O(rm)=Oa(rm)+Om(rm)+Os(rm)
其中,rm表示潜在目标区域;Oa(rm)表示rm的外观分数;Om(rm)表示rm的运动分数;Os(rm)表示rm的语义分数,由训练后的全卷积神经网络计算得到。
4.根据权利要求1所述的一种基于多层超图模型的多视频目标协同分割方法,其特征在于,所述步骤3-1)中,每个超像素的外观特征Pc如下:
其中,Ns表示超像素中包含像素的个数;cj表示超像素中第j个像素的颜色Lab值;
超图的任意两个结点p和q之间的相似度矩阵Ac(p,q)如下:
其中,Pc(p)表示结点p的外观特征;Pc(q)表示结点q的外观特征;σc为||Pc(p)-Pc(q)||2的标准差。
5.根据权利要求1所述的一种基于多层超图模型的多视频目标协同分割方法,其特征在于,所述步骤3-2)中,超像素的运动强度Pu和运动角度Pd如下:
其中,Ns表示超像素中包含像素的个数;ωj表示超像素中第j个像素的权重大小;uj,dj分别表示第j个像素运动强度和运动角度;
超图的任意两个结点p和q之间的相似度矩阵Am(p,q)如下:
其中,Pm(p)表示结点p的运动特征;Pm(q)表示结点q的运动特征;σm表示||Pm(p)-Pm(q)||2的标准差。
6.根据权利要求1所述的一种基于多层超图模型的多视频目标协同分割方法,其特征在于,所述步骤3-3)中,超像素的显著性值Ps如下:
式中,Ns表示超像素中包含像素的个数;sj表示超像素中第j个像素的显著性值;
超图的任意两个结点p和q之间的相似度矩阵As(p,q)如下:
其中,Ps(p)表示结点p的显著性特征;Ps(q)表示结点q的显著性特征;σs表示||Ps(p)-Ps(q)||2的标准差。
7.根据权利要求1所述的一种基于多层超图模型的多视频目标协同分割方法,其特征在于,所述步骤4)中,超边e的权重为:
式中:c表示归一化系数;A(p,q)表示结点p和q之间的相似度矩阵。
8.根据权利要求1所述的一种基于多层超图模型的多视频目标协同分割方法,其特征在于,所述步骤5-1)中,超图的拉普拉斯矩阵为:
式中,I表示单位矩阵;Dv、De分别表示结点度数和超边度数的对角矩阵;H表示超图的邻接矩阵;W表示超边权重的对角矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810998162.7A CN109191485B (zh) | 2018-08-29 | 2018-08-29 | 一种基于多层超图模型的多视频目标协同分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810998162.7A CN109191485B (zh) | 2018-08-29 | 2018-08-29 | 一种基于多层超图模型的多视频目标协同分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109191485A true CN109191485A (zh) | 2019-01-11 |
CN109191485B CN109191485B (zh) | 2020-05-22 |
Family
ID=64916540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810998162.7A Active CN109191485B (zh) | 2018-08-29 | 2018-08-29 | 一种基于多层超图模型的多视频目标协同分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109191485B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902303A (zh) * | 2019-03-01 | 2019-06-18 | 腾讯科技(深圳)有限公司 | 一种实体识别方法及相关设备 |
CN110163888A (zh) * | 2019-05-30 | 2019-08-23 | 闽江学院 | 一种新型的运动分割模型数量检测方法 |
CN111583288A (zh) * | 2020-04-21 | 2020-08-25 | 西安交通大学 | 一种视频多目标关联与分割方法及系统 |
CN113963020A (zh) * | 2021-09-18 | 2022-01-21 | 江苏大学 | 一种基于超图匹配的多智能网联汽车协同目标跟踪方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544697A (zh) * | 2013-09-30 | 2014-01-29 | 南京信息工程大学 | 一种基于超图谱分析的图像分割方法 |
CN103678483A (zh) * | 2013-10-24 | 2014-03-26 | 江苏大学 | 基于自适应概率超图和半监督学习的视频语义分析方法 |
CN104134217A (zh) * | 2014-07-29 | 2014-11-05 | 中国科学院自动化研究所 | 一种基于超体素图割的视频显著物体分割方法 |
US20150178937A1 (en) * | 2013-12-20 | 2015-06-25 | Canon Kabushiki Kaisha | Method, system and apparatus for updating a scene model |
CN105491370A (zh) * | 2015-11-19 | 2016-04-13 | 国家新闻出版广电总局广播科学研究院 | 基于图的协同低高级特征的视频显著性检测方法 |
CN105488812A (zh) * | 2015-11-24 | 2016-04-13 | 江南大学 | 一种融合运动特征的时空显著性检测方法 |
CN105740915A (zh) * | 2016-03-04 | 2016-07-06 | 浙江大学 | 一种融合感知信息的协同分割方法 |
CN105913456A (zh) * | 2016-04-12 | 2016-08-31 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN106530319A (zh) * | 2016-09-24 | 2017-03-22 | 上海大学 | 一种基于轨迹有向图的视频对象协同分割方法 |
CN106997597A (zh) * | 2017-03-22 | 2017-08-01 | 南京大学 | 一种基于有监督显著性检测的目标跟踪方法 |
-
2018
- 2018-08-29 CN CN201810998162.7A patent/CN109191485B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544697A (zh) * | 2013-09-30 | 2014-01-29 | 南京信息工程大学 | 一种基于超图谱分析的图像分割方法 |
CN103678483A (zh) * | 2013-10-24 | 2014-03-26 | 江苏大学 | 基于自适应概率超图和半监督学习的视频语义分析方法 |
US20150178937A1 (en) * | 2013-12-20 | 2015-06-25 | Canon Kabushiki Kaisha | Method, system and apparatus for updating a scene model |
CN104134217A (zh) * | 2014-07-29 | 2014-11-05 | 中国科学院自动化研究所 | 一种基于超体素图割的视频显著物体分割方法 |
CN105491370A (zh) * | 2015-11-19 | 2016-04-13 | 国家新闻出版广电总局广播科学研究院 | 基于图的协同低高级特征的视频显著性检测方法 |
CN105488812A (zh) * | 2015-11-24 | 2016-04-13 | 江南大学 | 一种融合运动特征的时空显著性检测方法 |
CN105740915A (zh) * | 2016-03-04 | 2016-07-06 | 浙江大学 | 一种融合感知信息的协同分割方法 |
CN105913456A (zh) * | 2016-04-12 | 2016-08-31 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN106530319A (zh) * | 2016-09-24 | 2017-03-22 | 上海大学 | 一种基于轨迹有向图的视频对象协同分割方法 |
CN106997597A (zh) * | 2017-03-22 | 2017-08-01 | 南京大学 | 一种基于有监督显著性检测的目标跟踪方法 |
Non-Patent Citations (9)
Title |
---|
ARMIN MUSTAFA等: ""Semantically coherent co-segmentation and reconstruction of dynamic scenes"", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
JONATHAN LONG等: ""Fully convolutional networks for semantic segmentation"", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
MENG YANG等: ""A Denoising Method for Randomly Clustered Noise in ICCD Sensing Images Based on Hypergraph Cut and Down Sampling"", 《SENSORS》 * |
YI-HSUAN TSAI等: ""Semantic co-segmentation in videos"", 《EUROPEAN CONFERENCE ON COMPUTER VISIO》 * |
YUCHI HUANG等: ""Video object segmentation by hypergraph cut"", 《2009 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
付彦伟: ""多视点视频内容分析与摘要技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
吴胜: ""目标分割算法在交互式视频中的研究与应用"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
谢奕: ""面向智能视频监控的行人目标再识别研究"", 《中国博士学位论文全文数据库 信息科技辑》 * |
郝静: ""基于自适应缩放图像多尺度超图的显著性检测方法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902303A (zh) * | 2019-03-01 | 2019-06-18 | 腾讯科技(深圳)有限公司 | 一种实体识别方法及相关设备 |
CN110163888A (zh) * | 2019-05-30 | 2019-08-23 | 闽江学院 | 一种新型的运动分割模型数量检测方法 |
CN111583288A (zh) * | 2020-04-21 | 2020-08-25 | 西安交通大学 | 一种视频多目标关联与分割方法及系统 |
CN113963020A (zh) * | 2021-09-18 | 2022-01-21 | 江苏大学 | 一种基于超图匹配的多智能网联汽车协同目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109191485B (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A free lunch for unsupervised domain adaptive object detection without source data | |
Zhu et al. | A three-pathway psychobiological framework of salient object detection using stereoscopic technology | |
CN106997597B (zh) | 一种基于有监督显著性检测的目标跟踪方法 | |
CN104599275B (zh) | 基于概率图模型的非参数化的rgb-d场景理解方法 | |
CN109191485A (zh) | 一种基于多层超图模型的多视频目标协同分割方法 | |
CN106778796B (zh) | 基于混合式协同训练的人体动作识别方法及系统 | |
Lu et al. | Human action segmentation with hierarchical supervoxel consistency | |
CN108898145A (zh) | 一种结合深度学习的图像显著目标检测方法 | |
CN109376603A (zh) | 一种视频识别方法、装置、计算机设备及存储介质 | |
CN103020992B (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
CN105447459A (zh) | 一种无人机自动检测目标和跟踪方法 | |
CN107203753A (zh) | 一种基于模糊神经网络和图模型推理的动作识别方法 | |
CN106529467A (zh) | 基于多特征融合的群体行为识别方法 | |
WO2009143279A1 (en) | Automatic tracking of people and bodies in video | |
CN103988232A (zh) | 使用运动流形来改进图像匹配 | |
Couprie et al. | Convolutional nets and watershed cuts for real-time semantic labeling of rgbd videos | |
Wang et al. | Improving human action recognition by non-action classification | |
CN106897681A (zh) | 一种遥感图像对比分析方法及系统 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
CN110956158A (zh) | 一种基于教师学生学习框架的遮挡行人再标识方法 | |
CN110046544A (zh) | 基于卷积神经网络的数字手势识别方法 | |
CN106874825A (zh) | 人脸检测的训练方法、检测方法和装置 | |
CN110599463A (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN110472566A (zh) | 一种高精度的模糊人脸识别方法与系统 | |
French et al. | Multi-spectral pedestrian detection via image fusion and deep neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |