CN102663405B - 基于显著度和混合高斯模型的监控视频前景提取方法 - Google Patents
基于显著度和混合高斯模型的监控视频前景提取方法 Download PDFInfo
- Publication number
- CN102663405B CN102663405B CN 201210147096 CN201210147096A CN102663405B CN 102663405 B CN102663405 B CN 102663405B CN 201210147096 CN201210147096 CN 201210147096 CN 201210147096 A CN201210147096 A CN 201210147096A CN 102663405 B CN102663405 B CN 102663405B
- Authority
- CN
- China
- Prior art keywords
- frame
- mask
- significance
- foreground
- gauss model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
一种基于显著度和混合高斯模型的监控视频前景提取方法:先将待分析的视频采用混合高斯模型进行前景提取,然后将当前帧前帧中相邻2帧中颜色直方图欧式距离相差大的两帧中的帧号小的那一帧作为参考帧,将当前帧与该参考帧做差获取帧差图像,再进行二值化得到掩模图像。对该掩模图像进行基于3×3模板的高斯滤波消除图像的噪声。通过上述掩膜图像,获得基于该掩膜图像的当前帧区域,对区域进行显著度的提取并二值化得到基于显著度的掩膜,将基于显著度的掩膜和基于混合高斯模型的掩膜求并集,最终得到更加完整的前景区域。
Description
技术领域
本发明涉及数字视频分析领域,尤其涉及一种基于显著度和混合高斯模型的监控视频前景提取方法。
背景技术
视频监控系统已经广泛应用于小区安全监控,交通路况,机场,银行等,并将有着广泛的应用前景。由于现有的视频监控系统大部分都是仅仅将视频录制以后保存,并没有发挥实时主动地监控作用,在此基础上发展的智能视频监控系统,采用视频分析技术,自动实现对目标的检测,识别和跟踪,并在此基础上对行为进行判断。视频监控系统集视频采集、检测、识别、检索与一身,代表了未来监控领域的发展趋势,但是由于视频的种类变换多样,而现有的视频分析方法的适用性不强,严重影响智能监控系统的监控效果,一定程度上制约了视频监控系统的发展,因此,如何对视频进行有效地分析是视频监控领域的一个亟待解决的重要问题。
视频监控系统由于摄像机位置比较固定,因此背景区域基本保持不变,基于像素的背景建模方法由于运算复杂度低得到了广泛的应用。2000年美国麻省理工人工智能研究所Staufferand Grimson采用混合高斯模型即每个像素均由3到5个高斯模型表示,每个像素均循环每个高斯模型直到找到合适的高斯模型,采用基于在线EM(期望最大化)学习方法更新参数,以便适应视频的变化。每个像素都需要判断是否属于高斯模型,如果属于前景的高斯模型,则该像素为前景,否则该像素为背景,该方法的提出为混合高斯模型算法的应用和发展奠定了基础,但这种基于EM算法的更新方法,收敛速度比较慢,很难适应视频内容的变化,而且该算法很难确定一个合适的学习速率。2008年Haque通过选择相近的高斯模型函数的方法,不需要循环所有的模型,通过自动设定循环区间的方法,仅仅选择重要的高斯背景模型进行判断的方法,在解决背景部分抖动方面取得了一定的效果,但是该方法仍然不能完整地提取物体的内部区域。
总之,前景提取算法中的背景建模方法本身是一种基于像素在时间域的分析方法,根据像素在时域上的变化判断,该像素是否是前景像素,并没有充分利用出前景像素在当前帧的相关位置及其像素之间的相关关系信息,导致检测的前景区域并不完整。
发明内容
本发明的目的在于针对现有的基于混合高斯模型的前景提取方法获取的前景不完整的问题,提供一种基于显著度和混合高斯模型的监控视频前景提取方法,更加完整地提取监控视频的前景区域,为视频监控系统目标识别,跟踪与检索提供强有力的支持。
为了达到上述目的,本发明采用如下的技术方案:
一种基于显著度和混合高斯模型的监控视频前景提取方法,对视频进行前景提取时,进行以下步骤,
步骤1,对视频进行基于混合高斯模型的前景提取,得到基于混合高斯模型的前景区域的掩膜;
步骤2,将视频的每一帧图像从RGB颜色空间转换到LAB颜色空间;
步骤3,获取当前帧与参考帧的帧差图像;
步骤4,将步骤3所得帧差图像进行高斯滤波消除图像噪声,并对滤波后帧差图像进行二值化获取当前帧的掩模图像;
步骤5,通过步骤4所得掩膜图像获取当前帧的前景区域,并在LAB颜色空间中对当前帧的前景区域进行图像显著度的提取,得到显著度图;
步骤6,将步骤5所得显著度图进行二值化,获得基于显著度的图像前景的掩膜;
步骤7,将步骤1所得基于混合高斯模型的前景区域的掩膜与步骤6所得基于显著度的前景区域的掩膜合并,得到最终的前景区域。
而且,步骤3所述的参考帧的获取方法为,在当前帧的以前帧中求取相邻帧颜色直方图的欧式距离的差值,将差值最大的相邻帧中时间较前的一帧设为当前帧的参考帧,其中帧号越小表示时间越靠前。
而且,步骤4中,对帧差图像采用3×3大小的高斯滤波器消除图像噪声,然后对滤波后帧差图像进行基于单一阈值的二值化操作,获取当前帧的掩模图像。
而且,步骤5中,对当前帧的前景区域进行图像显著度的提取时,只针对步骤4所得滤波后帧差图像中的掩膜区域进行显著度的提取,对其中的非掩膜区域不进行显著度的提取。
而且,步骤5中,进行显著度提取的处理如下,
步骤a,设步骤4所得滤波后帧差图像尺寸为M×N,对整个滤波后帧差图像进行二维DCT变换,得到滤波后帧差图像在(x,y)坐标的DCT变换结果值f(x,y),x的取值为0,1,2,...M-1,y的取值为0,1,2,...N-1;
步骤b,根据步骤4所得掩膜图像中非掩膜区域,将相应dct系数设置为0,如以下公式所示,
x∈[0,M) y∈[0,N)
其中,dct(x,y)为滤波后帧差图像在(x,y)坐标的dct系数,pixel(x,y)为滤波后帧差图像在(x,y)坐标的像素值;
步骤c,对步骤b所得dct系数dct(x,y),采用以下公式进一步提取dct系数特征值sign(x,y),
x∈[0,M) y∈[0,N)
其中,sign(x,y)表示滤波后帧差图像在(x,y)坐标的dct系数特征值;
步骤d,对步骤c所得dct系数特征值sign(x,y)采用反DCT变换并将该反DCT的值进行平方后归一化,获取滤波后帧差图像在(x,y)坐标处像素的显著度值,作为显著度图在(x,y)坐标的显著度值;若步骤4所得掩膜图像在(x,y)坐标处像素值为0,显著度图在(x,y)坐标的像素值依然为0。
而且,步骤6中,对步骤5所得显著度图采用otsu算法获取基于显著度的图像前景的掩膜,如以下公式所示,
x∈[0,M) y∈[0,N)
其中,Mask_s(x,y)表示基于显著度的前景区域的掩膜在(x,y)坐标的像素值,pixel_s(x,y)表示显著度图在(x,y)坐标的像素值,ostu_threslod为ostu算法自动获取的阈值。
而且,步骤7中,将步骤1所得基于混合高斯模型的前景区域的掩膜与步骤6所得基于显著度的前景区域的掩膜取并集得到最终的前景区域的掩膜,如以下公式所示,
x∈[0,M) y∈[0,N)
其中,Mask_g(x,y)为基于混合高斯模型的前景区域的掩膜在(x,y)坐标的像素值。
本发明提出了采用显著度和混合高斯模型相结合的前景区域提取方法,针对混合高斯模型检测前景不完整的缺点,采用基于显著的前景掩膜和混合高斯模型掩膜相结合的方法获取更加完整的前景区域的掩膜。
附图说明
图1是本发明实施例的流程图。
具体实施方式
以下结合附图和实施例详细说明本发明技术方案。本发明实施例于在对视频进行前景提取时的流程参见图1:
步骤1,对视频进行基于混合高斯模型的前景提取,得到基于混合高斯模型的前景区域的掩膜。
本发明首先采用现有技术对选定M×N分辨率的视频进行基于混合高斯模型的前景提取,实施例中为352×288分辨率。
为便于实施参考起见,提供目前的基于混合高斯模型判断图像中任一像素点是否属于前景区域具体步骤如下:
假设图像中每个像素点的像素值符合高斯分布的混合分布,即:
其中,xt是t时刻该像素点的像素值,矩阵 分别表示该像素点颜色值的R,G,B分量,权值ω≥0;i=1,2,3......K,该实施例中K设置为3,且∑为协方差矩阵,σi为方差,I为单位矩阵。K个高斯分布按照权值从高到低的次序进行排序,再根据:
确定B个背景分布(其中T为阈值,实施例中设置为0.7)。即确定前B个高斯分布为背景分布。将要进行匹配的像素点x看成正态分布,判断像素点x是否与K个高斯模型中的任意一个相匹配,匹配定义为一个像素点的值处在某个高斯模型标准差内的2.5倍范围内,且该高斯分布为背景分布。当前匹配点则为背景点,其余情况则认为当前匹配点是前景点。
混合高斯模型存在三个需要更新的参数,权值、均值、方差,分为以下两种情况:(a)假设t时刻,对于新到的像素在K个高斯模型中找到一个和当前像素点匹配的高斯模型,则该点的像素值应参加此高斯模型的参数更新,应按(7)、(8)、(9)公式重新调整权重ωi,t、均值μi,t和方差
ωi,t=(1-α)·ωi,t-1+α (7)
μi,t=(1-ρ)·μi,t-1+ρ·xi,t (8)
式中,参数更新率ρ=α,α表示学习速率,一般取值在0到1之间,它的大小决定了背景更新的速度。
另外对在此像素点的余下没有匹配的高斯模型,则保持它的均值和方差不变,但是要通过式(10)降低此高斯模型的权重,使其按照权重值的大小排列时,会排在匹配模型的后面。
ωi,t=(1-α)·ωi,t-1 (10)
(b)对于新到的像素点,在此点的K个高斯模型中,没能找到与之匹配的高斯模型,则应当舍弃其混合模型中权值最小的那个子模型,然后用当前像素值作为舍弃的模型的均值,并重新采用公式(11)赋予初始化时的方差和权重,添加到混合模型中,重新学习其参数。
ωi,t=0.05∑i,t=30 (11)
通过上述方法更新参数之后,返回公式(6)来判断该像素点是否是前景像素。
本实施例中需要为352×288个像素建立混合高斯模型,获取前景的掩膜图像,记Mask_g(x,y)为基于混合高斯模型的前景区域的掩膜在(x,y)坐标的像素值。
步骤2,将视频的每一帧图像从RGB颜色空间转换到LAB颜色空间。本步骤为现有技术,根据LAB颜色空间定义转换即可。
步骤3,获取当前帧与参考帧的帧差图像。本步骤为现有技术,求取当前帧与参考帧的相应像素点的像素值之差后,作为帧差图像中相应像素点的像素值。
实施例中参考帧的获取方法为,采用在当前帧的以前帧中,相邻帧颜色直方图的欧式距离相差最大的两帧中时间较前的一帧,其中帧号越小表示时间越早。
步骤4,将步骤3所得帧差图像进行高斯滤波消除图像噪声,并对滤波后帧差图像进行二值化获取当前帧的掩模图像。
实施例对帧差图像采用3×3大小的高斯滤波器消除图像噪声,然后对滤波后帧差图像进行基于单一阈值的二值化操作,获取当前帧的掩模图像。具体实施时,可基于现有otsu算法获取的阈值进行二值化操作。
步骤5,通过步骤4所得掩膜图像获取当前帧的前景区域,并在LAB颜色空间中对当前帧的前景区域进行图像显著度的提取,得到显著度图。
为提高效率起见,实施例中对当前帧的前景区域进行图像显著度的提取时,只针对步骤4所得滤波后帧差图像中的掩膜区域进行显著度的提取,对其中的非掩膜区域不进行显著度的提取。
实施例进行显著度提取的处理如下,
步骤a,设步骤4所得滤波后帧差图像尺寸为M×N,对整个滤波后帧差图像进行二维DCT变换,得到滤波后帧差图像在(x,y)坐标的DCT变换结果值f(x,y),x的取值为0,1,2,...M-1,y的取值为0,1,2,...N-1;实施例中M=352,N=288;
步骤b,根据步骤4所得掩膜图像中非掩膜区域,将相应dct系数设置为0,如以下公式所示,
x∈[0,M) y∈[0,N)
其中,dct(x,y)为滤波后帧差图像在(x,y)坐标的dct系数,pixel(x,y)为滤波后帧差图像在(x,y)坐标的像素值;
步骤c,对步骤b所得dct系数dct(x,y),采用以下公式进一步提取dct系数特征值sign(x,y),
x∈[0,M) y∈[0,N)
其中,sign(x,y)表示滤波后帧差图像在(x,y)坐标的dct系数特征值;
步骤d,对步骤c所得dct系数特征值sign(x,y)采用反DCT变换并将该反DCT的值进行平方后归一化,获取滤波后帧差图像在(x,y)坐标处像素的显著度值,作为显著度图在(x,y)坐标的显著度值;若步骤4所得掩膜图像在(x,y)坐标处像素值为0,显著度图在(x,y)坐标的像素值依然为0。
显著度提取在LAB颜色空间中进行,以上处理基于步骤2的转换结果实现。
步骤6,将步骤5所得显著度图进行二值化,获得基于显著度的图像前景的掩膜。
实施例中,对步骤5所得显著度图采用现有otsu算法获取基于显著度的图像前景的掩膜,如以下公式所示,
x∈[0,M) y∈[0,N)
其中,Mask_s(x,y)表示基于显著度的前景区域的掩膜在(x,y)坐标的像素值,pixel_s(x,y)表示显著度图在(x,y)坐标的像素值,ostu_threslod为ostu算法自动获取的阈值。具体实施时可以采用其他现有技术进行二值化。
步骤7,将步骤1所得基于混合高斯模型的前景区域的掩膜与步骤6所得基于显著度的前景区域的掩膜合并,得到最终的前景区域。
实施例中将步骤1所得基于混合高斯模型的前景区域的掩膜与步骤6所得基于显著度的前景区域的掩膜取并集得到最终的前景区域的掩膜,如以下公式所示,
x∈[0,M) y∈[0,N)
其中,Mask_g(x,y)为基于混合高斯模型的前景区域的掩膜在(x,y)坐标的像素值。
通过上述步骤,即可获得实施例中352×288分辨率的前景图像。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (7)
1.一种基于显著度和混合高斯模型的监控视频前景提取方法,其特征在于:对视频进行前景提取时,进行以下步骤,
步骤1,对视频进行基于混合高斯模型的前景提取,得到基于混合高斯模型的前景区域的掩膜;
步骤2,将视频的每一帧图像从RGB颜色空间转换到LAB颜色空间;
步骤3,获取当前帧与参考帧的帧差图像;
步骤4,将步骤3所得帧差图像进行高斯滤波消除图像噪声,并对滤波后帧差图像进行二值化获取当前帧的掩膜图像;
步骤5,通过步骤4所得掩膜图像获取当前帧的前景区域,并在LAB颜色空间中对当前帧的前景区域进行图像显著度的提取,得到显著度图;
步骤6,将步骤5所得显著度图进行二值化,获得基于显著度的图像前景的掩膜;
步骤7,将步骤1所得基于混合高斯模型的前景区域的掩膜与步骤6所得基于显著度的前景区域的掩膜合并,得到最终的前景区域。
2.根据权利要求1所述基于显著度和混合高斯模型的监控视频前景提取方法,其特征在于:步骤3所述的参考帧的获取方法为,在当前帧的以前帧中求取相邻帧颜色直方图的欧式距离的差值,将差值最大的相邻帧中时间较前的一帧设为当前帧的参考帧,其中帧号越小表示时间越靠前。
3.根据权利要求1所述基于显著度和混合高斯模型的监控视频前景提取方法,其特征在于:步骤4中,对帧差图像采用3×3大小的高斯滤波器消除图像噪声,然后对滤波后帧差图像进行基于单一阈值的二值化操作,获取当前帧的掩膜图像。
4.根据权利要求1所述基于显著度和混合高斯模型的监控视频前景提取方法,其特征在于:步骤5中,对当前帧的前景区域进行图像显著度的提取时,只针对步骤4所得滤波后帧差图像中的掩膜区域进行显著度的提取,对其中的非掩膜区域不进行显著度的提取。
5.根据权利要求4所述基于显著度和混合高斯模型的监控视频前景提取方法,其特征在于:步骤5中,进行显著度提取的处理如下,
步骤a,设步骤4所得滤波后帧差图像尺寸为M×N,对整个滤波后帧差图像进行二维DCT变换,得到滤波后帧差图像在(x,y)坐标的DCT变换结果值f(x,y),x的取值为0,1,2,…M-1,y的取值为0,1,2,…N-1;
步骤b,根据步骤4所得掩膜图像中非掩膜区域,将相应dct系数设置为0,如以下公式所示,
x∈[0,M) y∈[0,N)
其中,dct(x,y)为滤波后帧差图像在(x,y)坐标的dct系数,pixel(x,y)为滤波后帧差图像在(x,y)坐标的像素值;
步骤c,对步骤b所得dct系数dct(x,y),采用以下公式进一步提取dct系数特征值sign(x,y),
x∈[0,M) y∈[0,N)
其中,sign(x,y)表示滤波后帧差图像在(x,y)坐标的dct系数特征值;
步骤d,对步骤c所得dct系数特征值sign(x,y)采用反DCT变换并将该反DCT的值进行平方后归一化,获取滤波后帧差图像在(x,y)坐标处像素的显著度值,作为显著度图在(x,y)坐标的显著度值;若步骤4所得掩膜图像在(x,y)坐标处像素值为0,显著度图在(x,y)坐标的像素值依然为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201210147096 CN102663405B (zh) | 2012-05-14 | 2012-05-14 | 基于显著度和混合高斯模型的监控视频前景提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201210147096 CN102663405B (zh) | 2012-05-14 | 2012-05-14 | 基于显著度和混合高斯模型的监控视频前景提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102663405A CN102663405A (zh) | 2012-09-12 |
CN102663405B true CN102663405B (zh) | 2013-07-24 |
Family
ID=46772889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201210147096 Expired - Fee Related CN102663405B (zh) | 2012-05-14 | 2012-05-14 | 基于显著度和混合高斯模型的监控视频前景提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102663405B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105225249B (zh) * | 2014-12-01 | 2018-06-12 | 天津光电高斯通信工程技术股份有限公司 | 高铁站台越界检测方法 |
CN104463220A (zh) * | 2014-12-19 | 2015-03-25 | 深圳市捷顺科技实业股份有限公司 | 一种车牌检测方法和系统 |
CN104486598A (zh) * | 2014-12-31 | 2015-04-01 | 国家电网公司 | 一种视频监控方法及装置 |
CN105139426B (zh) * | 2015-09-10 | 2018-11-23 | 南京林业大学 | 一种基于非下采样小波变换和lbp的视频运动目标检测方法 |
CN105631800A (zh) * | 2016-02-05 | 2016-06-01 | 上海厚安信息技术有限公司 | 自适应实时图像背景去除方法及系统 |
CN110378327B (zh) * | 2019-07-09 | 2021-05-18 | 浙江大学 | 添加辅助性显著特征的目标检测装置及方法 |
CN110798592B (zh) * | 2019-10-29 | 2022-01-04 | 普联技术有限公司 | 基于视频图像的物体移动侦测方法、装置、设备及存储介质 |
CN112581490B (zh) * | 2020-12-28 | 2023-03-17 | 西安理工大学 | 一种复杂曲面干涉测量中前景区域提取方法 |
CN112802348B (zh) * | 2021-02-24 | 2022-05-06 | 辽宁石化职业技术学院 | 一种基于混合Gaussian模型的车流量计数方法 |
CN117173416B (zh) * | 2023-11-01 | 2024-01-05 | 山西阳光三极科技股份有限公司 | 基于图像处理的铁路货运车号图像清晰化处理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101847264A (zh) * | 2010-05-28 | 2010-09-29 | 北京大学 | 基于互补显著度图的图像兴趣物体自动提取方法及系统 |
CN101950362A (zh) * | 2010-09-14 | 2011-01-19 | 武汉大学 | 一种视频信号的关注度分析系统 |
-
2012
- 2012-05-14 CN CN 201210147096 patent/CN102663405B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101847264A (zh) * | 2010-05-28 | 2010-09-29 | 北京大学 | 基于互补显著度图的图像兴趣物体自动提取方法及系统 |
CN101950362A (zh) * | 2010-09-14 | 2011-01-19 | 武汉大学 | 一种视频信号的关注度分析系统 |
Non-Patent Citations (4)
Title |
---|
Chang Liua等.Object motion detection using information theoretic spatio-temporal saliency.《Pattern Recognition》.2009,第42卷(第11期),2897–2906. |
Object motion detection using information theoretic spatio-temporal saliency;Chang Liua等;《Pattern Recognition》;20091130;第42卷(第11期);215-219 * |
一种基于高斯混合模型的视频监控运动物体提取系统;房胜等;《计算机科学》;20051231;第32卷(第12期);2897–2906 * |
房胜等.一种基于高斯混合模型的视频监控运动物体提取系统.《计算机科学》.2005,第32卷(第12期),215-219. |
Also Published As
Publication number | Publication date |
---|---|
CN102663405A (zh) | 2012-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102663405B (zh) | 基于显著度和混合高斯模型的监控视频前景提取方法 | |
CN110503108B (zh) | 违章建筑识别方法及装置、存储介质、计算机设备 | |
Xia et al. | Towards improving quality of video-based vehicle counting method for traffic flow estimation | |
CN109918971B (zh) | 监控视频中人数检测方法及装置 | |
CN105404847A (zh) | 一种遗留物实时检测方法 | |
CN107301375B (zh) | 一种基于稠密光流的视频图像烟雾检测方法 | |
CN106447674B (zh) | 一种视频的背景去除方法 | |
CN104966085A (zh) | 一种基于多显著特征融合的遥感图像感兴趣区域检测方法 | |
CN104966054B (zh) | 无人机可见光图像中的弱小目标检测方法 | |
Li et al. | A lane marking detection and tracking algorithm based on sub-regions | |
CN112750147A (zh) | 一种行人多目标跟踪方法、装置、智能终端及存储介质 | |
CN103400368A (zh) | 基于图论和超像素的并行快速sar图像分割方法 | |
CN103544488A (zh) | 一种人脸识别方法及装置 | |
CN111639589A (zh) | 基于对抗学习和类颜色空间的视频虚假人脸检测方法 | |
Katramados et al. | Real-time visual saliency by division of gaussians | |
Santoyo-Morales et al. | Video background subtraction in complex environments | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN103268498A (zh) | 一种感兴趣区域模糊图像语义理解的方法 | |
CN106056078A (zh) | 一种基于多特征回归式集成学习的人群密度估计方法 | |
CN103699888A (zh) | 人脸检测方法和装置 | |
Chen et al. | Visual depth guided image rain streaks removal via sparse coding | |
Wang et al. | Haze removal algorithm based on single-images with chromatic properties | |
Miller et al. | Person tracking in UAV video | |
Muchtar et al. | A unified smart surveillance system incorporating adaptive foreground extraction and deep learning-based classification | |
CN108009480A (zh) | 一种基于特征识别的图像人体行为检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130724 Termination date: 20160514 |
|
CF01 | Termination of patent right due to non-payment of annual fee |