CN102722720B - 基于hsv空间在线聚类的视频背景提取方法 - Google Patents
基于hsv空间在线聚类的视频背景提取方法 Download PDFInfo
- Publication number
- CN102722720B CN102722720B CN201210166509.4A CN201210166509A CN102722720B CN 102722720 B CN102722720 B CN 102722720B CN 201210166509 A CN201210166509 A CN 201210166509A CN 102722720 B CN102722720 B CN 102722720B
- Authority
- CN
- China
- Prior art keywords
- cluster
- value
- pixel
- frame
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
本发明公开了一种基于HSV空间在线聚类的视频背景提取方法,采用聚类方法实现,对一段视频训练帧,以像素点在HSV空间的三个通道的值为聚类分类依据,分别提取每个像素点在HSV空间的H、S和V值,对每个像素点,分别按H、S和V值进行聚类,其中,根据当前帧与前一帧在HSV空间中H值之差的绝对值、S值之差的绝对值和V值之差的绝对值之后更新聚类阈值,分别计算H、S、V值与对应通道中各个聚类的聚类中心之间的最近距离,将三个最近距离之和与聚类阈值比较确定聚类;用包含元素数目最多的聚类的聚类中心作为该像素点的当前背景值。本发明得到比灰度背景图像更优的彩色背景,具有良好的背景提取能力和可行性。
Description
技术领域
本发明涉及一种视频背景提取的方法,尤其涉及一种提取彩色背景的、鲁棒性较强的基于HSV空间在线聚类的背景提取方法,属于运动目标检测领域。
背景技术
从视频中提取运动目标是计算机视觉领域的基础课题,广泛应用于视频监视和交通自动监控等领域。常用的运动目标检测方法有光流法、帧差法和背景差分法等。背景差分法能够完整地检测出运动目标,并能够实现实时的运动检测。因而,其在计算机视觉领域有着广泛的应用。背景差分法主要由背景提取、目标检测和背景更新三部分组成。
视频背景提取是运动目标检测和分割的基础,运动目标检测效果的好坏直接取决于所提取的背景的优劣。由于视频中存在运动物体,视觉目标本身及周边环境复杂多变,因此获得鲁棒而高效的背景提取方法目前仍旧是计算机视觉中一个极具挑战性的研究课题。
传统的利用聚类算法进行背景提取的方法是利用三个动态三元组记录每个像素的像素值在整个训练视频中的变化并进行K-均值聚类实现。但是这种方法具有一定的局限性,那就是K-均值聚类在视频背景提取中必须预先设定聚类数目,进行人工干预。针对这一问题,肖梅、韩崇昭等人在《模式识别与人工智能》第20卷第1期的基于在线聚类的背景减法一文中提出对每一像素点的灰度值进行在线聚类的方法提取背景。中国发明专利CN101834981A公开了一种基于在线聚类的视频背景提取方法,以像素点的灰度值为聚类分类依据,采用聚类的方法,通过自适应更新聚类阈值,实现自适应的在线聚类,较好地实现了背景的提取。
但是,上述方法均只能处理灰度图像,需要将视频图像首先进行灰度化处理,在此过程中,丢失了部分图像信息,导致以此为基础的背景提取效果受到影响。
蒋建国、郎立娜等人在《电子测量与仪器学报》第26卷第2期的基于像素值聚类的运动目标检测方法一文中,提出基于RGB颜色空间聚类提取彩色背景的方法,但是该算法限定了3个聚类模板,并且需要人工设置两个阈值分别进行模板选择和背景训练判定,不能做到自适应地提取背景。同时,由于采用RGB颜色空间,聚类判定时与灰度图像聚类类似,将像素点与每个模板的3个颜色分量之间的颜色差求和后作为一个值与阈值进行对比,没有体现彩色图像信息较多的优势,提取效果甚至不如灰度图像的在线聚类。
发明内容
本发明的发明目的是提供一种基于HSV空间在线聚类的视频背景提取方法,采用在线聚类方法,能够提取到彩色背景,更加符合人类的视觉特性;并且能够自动获取并更新聚类阈值,使阈值不断向优化算法效果的方向发展,获得更好的背景提取效果。
为达到上述发明目的,本发明采用的技术方案是:一种基于HSV空间在线聚类的视频背景提取方法,采用聚类方法实现,对一段视频训练帧,以像素点在HSV空间的三个通道的值为聚类分类依据,分别提取每个像素点在HSV空间的H、S和V值,视频训练帧的帧数为N,N≥50,对视频训练帧中的每个像素点,分别按下列步骤处理:
[1]取视频第一帧,以帧在HSV空间中的H、S和V值初始化三个通道中的第一个聚类,并同时初始化聚类中心和类中包含的元素数目,第一帧中该像素点在HSV颜色空间的H、S和V值分别为三个通道各自的第一个聚类的聚类中心,初始的元素数目为1,初始的聚类阈值为0;
[2]依次取视频的第t帧,1<t≤N,每次进行如下两步操作:
[2-1]更新阈值:取该像素点在当前帧与前一帧在HSV空间中H值之差的绝对值、S值之差的绝对值和V值之差的绝对值,将上述三个值之和与上一轮的聚类阈值进行比较,取其中大的一个作为本一轮的聚类阈值;
[2-2]聚类:分别计算该像素点在第t帧中的H、S或V值与对应通道中各个聚类的聚类中心之间的距离,寻找距离最近的聚类类别,获得分别对应H、S、V值的三个最近距离;判断三个最近距离之和与本一轮的聚类阈值的关系,如果最近距离之和小于等于聚类阈值,则将该像素点在HSV空间的H、S和V值分别归入各自相应的距离最近的聚类中,并分别对三个通道的该聚类中的所有值求算术平均值,作为该聚类的新的聚类中心;如果最近距离之和大于聚类阈值,则三个通道中分别创建一个新的聚类,并进行初始化:以该像素点在第t帧的H、S和V值分别作为各自通道新聚类的聚类中心,同时定义新聚类的数目为1;
[3]统计三个通道中各聚类的元素数目,分别用三个通道中各自包含元素数目最多的聚类的聚类中心作为该像素点在HSV空间的三个通道的当前背景值。
上述技术方案是基于这样一个合理的假设,背景中的同一个像素点在HSV颜色空间中的H值、S值和V值总是以较大的概率出现。实验表明上述假设是成立的。附图1显示了某视频中一个像素点在无前景运动目标情况下在500帧中的H、S和V值的变化情况,附图2显示了某视频中一个像素点在有前景运行目标情况下在500帧中的H、S和V值的变化情况。由图可以看出,理想情况下,一段时间内任何像素点在HSV颜色空间的H、S和V值在同一视频流的不同帧中是恒定不变的。当有前景运动目标出现时,像素点的H、S和V值会发生较大变化,但是变化持续的时间较短,随着前景运动目标的离开,该像素点的三个值又回到相应的稳定的三个值进行小幅度的波动。这三个稳定的值就可以作为该像素点在背景值。因此,对像素点在HSV空间的H、S和V值分别进行在线聚类,每一个聚类中把相应的值变化较小的聚成一类,这样就可得到背景像素点在HSV空间的H、S和V值。
优选的技术方案,N为100~200的整数。
由于上述技术方案运用,本发明与现有技术相比具有下列优点:
1.本发明的方法针对图像在HSV空间中的H、S和V值进行分别聚类,这样能获取到背景像素点更多的信息,得到比灰度背景图像更优的彩色背景,该彩色背景含有更多的图像信息,更加符合人类的视觉特性。
2.本发明在聚类过程中,聚类阈值是通过单个像素点在各帧中的变化进行自动更新,每个像素点逐步向该像素点在前后帧背景变化较大的趋势发展;随着聚类阈值的逐渐增大抑制了聚类数目的增加,同时加快了聚类的收敛速度。
3.本发明对H、S、V值分别设置三个聚类通道,分别进行聚类,有效地利用了彩色图像信息更多的特征,而在进行阈值判断时,则采用三个距离之和进行比较,避免分别比较可能导致的信息偏差,这种方式克服了现有技术中聚类和阈值判断采用同一口径的思维定式,具备创造性。
4.实验证明,本发明的方法具有良好的背景提取能力和可行性。
5.本方法在智能交通系统、汽车辅助运动、人体运动分析和机器人视觉等领域有着广阔的应用前景和发展潜力。这种基于HSV空间的在线聚类方法算法具有较快的收敛性,应用于上述系统中时,能够提高目标跟踪的效率和准确性。
附图说明
图1是视频像素点在HSV空间的H、S和V值在无前景运动目标经过时的变化情况示意图;
图2是视频像素点在HSV空间的H、S和V值在无前景运动目标经过时的变化情况示意图;
图3是本发明实施例中基于HSV空间在线聚类的视频背景提取方法的流程图;
图4是实施例(视频一)中传统在线聚类方法效果图;
图5是实施例(视频一)中传统自动获取阈值在线聚类法效果图;
图6是实施例(视频一)中基于HSV空间在线聚类方法效果图;
图7是实施例(视频二)中传统在线聚类方法效果图;
图8是实施例(视频二)中传统自动阈值在线聚类法效果图;
图9是实施例(视频二)中基于HSV空间在线聚类方法效果图。
具体实施方式
下面结合附图及实施例对本发明作进一步描述:
实施例:参见图3所示,一种基于HSV空间在线聚类的视频背景提取方法,采用聚类方法实现,对一段视频训练帧,以像素点在HSV空间的三个通道的值为聚类分类依据,分别提取每个像素点在HSV空间的H、S和V值,视频训练帧的帧数为N,N≥50。
上文中,视频训练帧的帧数N可以根据情况设定,但帧数过少可能造成背景提取效果变差,帧数过多会造成计算量的增大,本领域技术人员可以根据实际效果情况选择。
对视频训练帧中的每个像素点,分别按下列步骤处理:
[1]取视频第一帧,以帧在HSV空间中的H、S和V值初始化三个通道中的第一个聚类,并同时初始化聚类中心和类中包含的元素数目,第一帧中该像素点在HSV颜色空间的H、S和V值分别为三个通道各自的第一个聚类的聚类中心,初始的元素数目为1,初始的聚类阈值为0;
设第t个视频帧为Ft,像素点(x,y)在HSV空间的三个分量分别是Ht(x,y)、St(x,y)和Vt(x,y)。CHi(x,y)、CSi(x,y)、CVi(x,y)分别表示分量H、S和V的第i个聚类的聚类中心,NUMHi(x,y)、NUMSi(x,y)、NUMVi(x,y)分别表示分量H、S和V的第i个聚类的数目,初始化聚类阈值α为0。
帧中的H、S和V值初始化三个通道中的第一个聚类,并同时初始化聚类中心和类中包含的元素数目可表示为:
t=1帧,初始化第一个聚类,
CH1=Ht(x,y),CS1=St(x,y),CV1=Vt(x,y) (1)
NUMH1=1 NUMS1=1 NUMV1=1 (2)
其中公式(1)和(2)分别是初始化三个通道的聚类中心和聚类数目。
[2]依次取视频的第t帧,1<t≤N,每次进行如下两步操作:
[2-1]更新阈值:取该像素点在当前帧与前一帧在HSV空间中H值之差的绝对值、S值之差的绝对值和V值之差的绝对值,将上述三个值之和与上一轮的聚类阈值进行比较,取其中大的一个作为本一轮的聚类阈值;
可表示为:
αt=arg max((|Ht(x,y)-Ht-1(x,y)|+|St(x,y)-St-1(x,y)|+|Vt(x,y)-Vt-1(x,y)|),αt-1)(3)
式中,|Ht(x,y)-Ht-1(x,y)|表示该像素点在当前帧与前一帧在HSV空间中H值之差的绝对值,另外两个则表示S值和V值之差的绝对值。求其三个差值之和与上一轮的阈值α进行比较,如果大于上一轮阈值,则更新阈值;否则阈值不变。
[2-2]聚类:分别计算该像素点在第t帧中的H、S或V值与对应通道中各个聚类的聚类中心之间的距离,寻找距离最近的聚类类别,获得分别对应H、S、V值的三个最近距离;判断三个最近距离之和与本一轮的聚类阈值的关系,如果最近距离之和小于聚类阈值,则将该像素点在HSV空间的H、S和V值分别归入各自相应的距离最近的聚类中,并分别对三个通道的该聚类中的所有值求算术平均值,作为该聚类的新的聚类中心;如果最近距离之和大于聚类阈值,则三个通道中分别创建一个新的聚类,并进行初始化:以该像素点在第t帧的H、S和V值分别作为各自通道新聚类的聚类中心,同时定义新聚类的数目为1;
具体表示如下:
分别计算像素点(x,y)在三个通道的值与各自聚类中心之间的距离,找到距离最近的类别hj、sj和vj:
其中i为在t帧时最后被创建的聚类,并自动将Ht(x,y)、St(x,y)和Vt(x,y)分别归入能够取距离最近的聚类CHj(x,y)、CSj(x,y)和CVj(x,y)。
进一步判断三个最近距离之和与聚类阈值α的关系,如果
Hj+Sj+Vj=|Ht(x,y)-CHhj(x,y)|+|St(x,y)-CSsj(x,y)|+|Vt(x,y)-CVvj(x,y)|≤α(5)
则该帧三个通道的值归入相应的类中,对三个类做如下的更新:
其中,式(6)中是采用K-均值的方法更新三个类的聚类中心,本质上就是对聚类中的所有值求算术平均值。式(7)用于更新三个聚类的数目。
如果三个最近距离之和不满足式(5),则三个通道分别创建一个新聚类,并初始化:
[3]统计各聚类的元素数目,用包含元素数目最多的聚类的聚类中心作为该像素点的当前背景值。
mr=arg max(m1(x,y),m2(x,y),…) (10)
使用一段320×240像素的交通视频中(100,100)像素点从第1帧到第50帧的H、S和V值作为具体分析实例。以下为每帧中该点的H、S和V值:
H值:
95 | 96 | 96 | 96 | 96 | 96 | 90 | 90 | 90 | 90 |
96 | 96 | 103 | 102 | 102 | 100 | 100 | 95 | 95 | 95 |
86 | 86 | 86 | 86 | 90 | 90 | 90 | 90 | 90 | 90 |
96 | 96 | 96 | 96 | 96 | 96 | 90 | 90 | 90 | 90 |
90 | 95 | 105 | 102 | 90 | 90 | 100 | 96 | 96 | 77 |
S值:
11 | 9 | 9 | 9 | 9 | 9 | 13 | 13 | 13 | 13 |
16 | 16 | 19 | 24 | 26 | 21 | 21 | 20 | 20 | 20 |
16 | 16 | 16 | 16 | 11 | 12 | 11 | 11 | 9 | 9 |
9 | 9 | 9 | 9 | 9 | 9 | 12 | 12 | 13 | 13 |
9 | 15 | 14 | 18 | 12 | 9 | 12 | 12 | 10 | 9 |
V值:
134 | 135 | 135 | 135 | 135 | 135 | 135 | 136 | 135 | 137 |
139 | 138 | 141 | 143 | 142 | 141 | 141 | 138 | 138 | 138 |
138 | 138 | 138 | 138 | 139 | 138 | 139 | 139 | 139 | 139 |
138 | 138 | 138 | 137 | 136 | 136 | 141 | 138 | 136 | 136 |
132 | 99 | 72 | 99 | 118 | 160 | 180 | 189 | 209 | 197 |
方法如下:
设第t个视频帧为Ft,像素点(100,100)在HSV空间的三个分量分别是Ht(100,100)、St(100,100)和Vt(100,100)。CHi(100,100)、CSi(100,100)、CVi(100,100)分别表示分量H、S和V第i个聚类的聚类中心,NUMHi(100,100)、NUMSi(100,100)、NUMVi(100,100)分别表示分量H、S和V第i个聚类的数目,初始化聚类阈值α为0,则对1-50视频训练帧中的每个像素点(x,y),本算法可具体描述如下:
(1)t=1帧,初始化第一个聚类,
其中,(1)(2)式分别用来初始化聚类中心和类中包含的元素数目。
(2)第t(1<t≤50)帧到来,作如下步骤:
更新阈值(这里假设前一帧阈值α为5):
αt=arg max((|Ht(100,100)-Ht-1(100,100)|+|St(100,100)-St-1(x,y)|+|Vt(100,100)-Vt-1(100,100)|),5) (3)
假设像素点(100,100)在当前帧和前一帧在HSV空间三通道的差值绝对值之和为7,大于上一阈值4,则用其更新α;否则聚类阈值不改变。
(3)聚类:
分别计算像素点(100,100)在三个通道的值与各自聚类中心之间的距离,找到距离最近的类别hj、sj和vj:
进一步判断三个最近距离之和与聚类阈值α的关系,如果|Ht(100,100)-CHhj(100,100)|+|St(100,100)-CSsj(100,100)|+|Vt(100,100)-CVvj(100,100)|≤α(5)
则Ht(100,100)、St(100,100)和Vt(100,100)应被归入各自相应的聚类中,于是对这三个聚类做如下更新:
经计算第31帧(100,100)点在HSV空间的三个通道有一个聚类CH1(100,100)=93.0455、CS1(100,100)=12.1364和CV1(100,100)=136.773,聚类数m1(100,100)=21。
当到达第32帧时H32(100,100)=96、S32(100,100)=9和V32(100,100)=138,|H32(100,100)-CH1(100,100)|+|S32(100,100)-CS1(100,100)|+|V32(100,100)-CV1(100,100)|≥7关系不满足式(5)式,所以在三个通道各创建一个新的聚类,聚类中心是H32(100,100)=96、S32(100,100)=9和V32(100,100)=138,聚类个数是1。
以此类推。
(4)统计各聚类的元素数目,用最大聚类(包含元素数目最多的)的聚类中心作为该像素点的当前背景值。
mr(100,100)=arg max(m1(100,100)=34,m2(100,100)=4,…) (8)
(100,100)像素点在H通道得到六个聚类:CH1(100,100)=92.9143NUMH1(100,100)=34、CH2(100,100)=99 NUMH2(100,100)=4、CH3(100,100)=102NUMH3(100,100)=2、CH4(100,100)=86 NUMH4(100,100)=4、CH5(100,100)=104NUMH5(100,100)=2、CH6(100,100)=93.8、NUMH6(100,100)=4,在S通道得到的六个聚类:CS1(100,100)=11.6286 NUMS1(100,100)=34、CS2(100,100)=18.6NUMS2(100,100)=4、CS3(100,100)=24.6667 NUMS3(100,100)=2、CS4(100,100)=16NUMS4(100,100)=4、CS5(100,100)=15.3333 NUMS5(100,100)=2、CS6(100,100)=11NUMS6(100,100)=4,在V通道得到的六个聚类:CS1(100,100)=135.829NUMS1(100,100)=34、CS2(100,100)=140.2 NUMS2(100,100)=4、CS3(100,100)=142.667 NUMS3(100,100)=2、CS4(100,100)=138 NUMS4(100,100)=4、CS5(100,100)=81 NUMS4(100,100)=2、CS6(100,100)=191 NUMS6(100,100)=4。
经计算得r=1
所以最后(100,100)像素点该点的背景值设置为其所对应的三个通道最大聚类的聚类中心值。
实施例中以视频中(100,100)像素点在1-50帧中的处理过程得到该点的背景值,在视频帧中的其他各像素点也遵循以上处理步骤,得到其背景值。
分别选择二个视频采用本实施例的方法和现有技术的方法进行比较,效果如附图4-9所示。
附图4是视频一中传统在线聚类方法效果图,其中,(a)α为20;(b)α为30;(c)α为40;
附图5是视频一中传统自动获取阈值在线聚类法效果图,其中,(a)第一帧;(b)第100帧;(c)提取的背景;
附图6是视频一中基于HSV空间在线聚类方法效果图,其中,(a)第一帧;(b)第100帧;(c)提取的背景。
由图4、图5和图6对比可见,本专利使用方法在背景提取效果上优于传统在线聚类算法提取背景。
图7是视频二中传统在线聚类方法效果图,其中,(a)α为20;(b)α为30;(c)α为40;
图8是视频二中传统自动阈值在线聚类法效果图,其中,(a)第一帧;(b)第100帧;(c)提取的背景;
图9是视频二中基于HSV空间在线聚类方法效果图,其中,(a)第一帧;(b)第100帧;(c)提取的背景。
由图7、图8和图9对比更加能体现出本专利方法的优秀效果。
Claims (2)
1. 一种基于HSV空间在线聚类的视频背景提取方法,采用聚类方法实现,对一段视频训练帧,以像素点在HSV空间的三个通道的值为聚类分类依据,分别提取每个像素点在HSV空间的H、S和V值,视频训练帧的帧数为N,N≥50,对视频训练帧中的每个像素点,分别按下列步骤处理:
[1]取视频第一帧,以帧在HSV空间中的H、S和V值初始化三个通道中的第一个聚类,并同时初始化聚类中心和类中包含的元素数目,第一帧中该像素点在HSV颜色空间的H、S和V值分别为三个通道各自的第一个聚类的聚类中心,初始的元素数目为1,初始的聚类阈值为0;
[2]依次取视频的第t帧,1<t≤N,每次进行如下两步操作:
[2-1]更新阈值:取该像素点在当前帧与前一帧在HSV空间中H值之差的绝对值、S值之差的绝对值和V值之差的绝对值,将上述三个值之和与上一轮的聚类阈值进行比较,取其中大的一个作为本一轮的聚类阈值;
[2-2]聚类:分别计算该像素点在第t帧中的H、S或V值与对应通道中各个聚类的聚类中心之间的距离,寻找距离最近的聚类类别,获得分别对应H、S、V值的三个最近距离;判断三个最近距离之和与本一轮的聚类阈值的关系,如果最近距离之和小于等于聚类阈值,则将该像素点在HSV空间的H、S和V值分别归入各自相应的距离最近的聚类中,并分别对三个通道的该聚类中的所有值求算术平均值,作为该聚类的新的聚类中心;如果最近距离之和大于聚类阈值,则三个通道中分别创建一个新的聚类,并进行初始化:以该像素点在第t帧的H、S和V值分别作为各自通道新聚类的聚类中心,同时定义新聚类的元素的数目为1;
[3] 统计三个通道中各聚类的元素数目,分别用三个通道中各自包含元素数目最多的聚类的聚类中心作为该像素点在HSV空间的三个通道的当前背景值。
2. 根据权利要求1所述的基于HSV空间在线聚类的视频背景提取方法,其特征在于:N为100~200的整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210166509.4A CN102722720B (zh) | 2012-05-25 | 2012-05-25 | 基于hsv空间在线聚类的视频背景提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210166509.4A CN102722720B (zh) | 2012-05-25 | 2012-05-25 | 基于hsv空间在线聚类的视频背景提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102722720A CN102722720A (zh) | 2012-10-10 |
CN102722720B true CN102722720B (zh) | 2014-02-26 |
Family
ID=46948470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210166509.4A Expired - Fee Related CN102722720B (zh) | 2012-05-25 | 2012-05-25 | 基于hsv空间在线聚类的视频背景提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102722720B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105208398B (zh) * | 2015-09-22 | 2018-06-19 | 西南交通大学 | 一种获取道路实时背景图的方法 |
CN106651966B (zh) * | 2016-09-26 | 2020-06-23 | 广东安居宝数码科技股份有限公司 | 图片颜色识别方法和系统 |
CN109409377B (zh) * | 2018-12-03 | 2020-06-02 | 龙马智芯(珠海横琴)科技有限公司 | 图像中文字的检测方法及装置 |
CN111161237A (zh) * | 2019-12-27 | 2020-05-15 | 中山德著智能科技有限公司 | 一种果蔬表面质检方法及其储存介质、分拣装置 |
CN116935027A (zh) * | 2022-03-29 | 2023-10-24 | 脸萌有限公司 | 一种对象识别方法、装置、电子设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101834981B (zh) * | 2010-05-04 | 2011-11-23 | 崔志明 | 基于在线聚类的视频背景提取方法 |
-
2012
- 2012-05-25 CN CN201210166509.4A patent/CN102722720B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102722720A (zh) | 2012-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110111340B (zh) | 基于多路割的弱监督实例分割方法 | |
CN109829443B (zh) | 基于图像增强与3d卷积神经网络的视频行为识别方法 | |
CN112734775B (zh) | 图像标注、图像语义分割、模型训练方法及装置 | |
CN106327520B (zh) | 一种运动目标检测方法及系统 | |
CN109753913B (zh) | 计算高效的多模式视频语义分割方法 | |
CN102722720B (zh) | 基于hsv空间在线聚类的视频背景提取方法 | |
CN110472467A (zh) | 基于YOLO v3的针对交通枢纽关键物体的检测方法 | |
CN105354791B (zh) | 一种改进的自适应混合高斯前景检测方法 | |
CN103942751B (zh) | 一种视频关键帧提取方法 | |
CN105678338B (zh) | 基于局部特征学习的目标跟踪方法 | |
CN101834981B (zh) | 基于在线聚类的视频背景提取方法 | |
CN101216943B (zh) | 一种视频运动目标分割的方法 | |
CN111242027B (zh) | 一种融合语义信息的无监督学习场景特征快速提取方法 | |
CN106204586A (zh) | 一种基于跟踪的复杂场景下的运动目标检测方法 | |
CN107895379A (zh) | 一种视频监控中前景提取的改进算法 | |
CN103824284A (zh) | 一种基于视觉注意力模型的关键帧提取方法和系统 | |
CN103119625A (zh) | 一种视频人物分割的方法及装置 | |
CN106570885A (zh) | 基于亮度和纹理融合阈值的背景建模方法 | |
CN105118051A (zh) | 一种应用于静态图像人体分割的显著性检测方法 | |
CN103413323A (zh) | 基于部件级表观模型的物体跟踪方法 | |
CN102663777A (zh) | 基于多视点视频的目标跟踪方法及系统 | |
CN107729827A (zh) | 一种人脸特征点定位方法及装置 | |
CN110322479B (zh) | 一种基于时空显著性的双核kcf目标跟踪方法 | |
CN104077786A (zh) | 一种基于自适应核密度估计模型的运动目标检测方法 | |
CN104899557A (zh) | 一种基于视频的交叉路口背景图像提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140226 Termination date: 20170525 |
|
CF01 | Termination of patent right due to non-payment of annual fee |