CN105374051B - 智能移动终端防镜头抖动视频运动目标检测方法 - Google Patents

智能移动终端防镜头抖动视频运动目标检测方法 Download PDF

Info

Publication number
CN105374051B
CN105374051B CN201510717103.4A CN201510717103A CN105374051B CN 105374051 B CN105374051 B CN 105374051B CN 201510717103 A CN201510717103 A CN 201510717103A CN 105374051 B CN105374051 B CN 105374051B
Authority
CN
China
Prior art keywords
msub
mrow
mtd
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510717103.4A
Other languages
English (en)
Other versions
CN105374051A (zh
Inventor
郑紫微
熊欧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aerospace Guosheng Technology Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201510717103.4A priority Critical patent/CN105374051B/zh
Publication of CN105374051A publication Critical patent/CN105374051A/zh
Application granted granted Critical
Publication of CN105374051B publication Critical patent/CN105374051B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及智能移动终端防镜头抖动视频运动目标检测方法,通过分割抖动视频为若干独立编号的原始帧图像,并以预设差值为间隔,提取连续的原始帧图像组成原始图像,以保证原有视频不会出现大的像素点缺失,原始图像经优化的图像空间转换参数做灰度化处理、二维高斯滤波处理后,通过建立背景像素模型和球模型,对处理所得图像分类,得到背景点;背景模型经初始化和实时更新后,选择采用图像背景像素的偏移量对当前帧图像做运动补偿和修正,并利用偏移量修正背景模型,提取运动目标。该方法通过图像背景像素的偏移量对当前帧图像进行运动补偿和修正,以补偿镜头的抖动、消除不稳定的抖动镜头带来的恶劣影响,从而有效地检测出抖动视频运动目标。

Description

智能移动终端防镜头抖动视频运动目标检测方法
技术领域
本发明涉及智能视频处理领域,尤其涉及一种智能移动终端防镜头抖动视频运动目标检测方法。
背景技术
近些年,各种各样的摄像头被安装在不同的公共场合,例如公路、街角、大型商场、医院、学校和机场等,以实现视频监控的目的。传统视频监控依赖于人工对这些视频数据进行主观意识的分析判断,对其中的动作行为做出理解,然后才得出结论做出反馈。传统视频监控也存在诸多缺陷,尤其是在摄像头的镜头出现抖动时,监控人员一旦不能对抖动视频中的运动目标做出研判,一旦遗漏重要信息可能造成无法挽回的后果。同时,伴随着智能移动终端的不断涌现,摄像头也作为重要部件被安置在智能移动终端中。因此,无论是视频监控还是利用智能移动终端的视频拍摄,针对视频中运动目标的检测尤为重要,这也成为当下研究的热点之一。
视频运动目标处理技术通过模拟人类对视觉图像响应,对视频场景中的运动目标分类、识别、跟踪,在这些基本视频场景处理的基础上以期实现对视频中运动目标行为分析判断和理解。智能化视频处理的过程中,无论是运动目标的分类、识别、跟踪,还是后续的行为的判断和理解都是建立在成功检测出视频运动目标的前提下进行的,即视频场景中运动目标的提取质量对智能化视频处理的结果至关重要。视频运动目标提取是从视频中提取出正在运动或者说是变化的区域作为感兴趣区域,为后续高级图像处理提供服务。
然而,在摄像头固定的情况下,现有方法都默认视频数据的采集是在摄像头被固定的前提下工作的,一旦手持智能移动终端拍摄视频时,如相机或是手机,容易出现镜头抖动,传统针对非抖动镜头的视频运动目标检测方法将会无用武之地,导致抖动的镜头对运动目标提取产生干扰,造成大面积误检。
发明内容
本发明所要解决的技术问题是针对上述现有技术提供一种在镜头出现抖动时,能够有效检测抖动视频中运动目标的智能移动终端防镜头抖动视频运动目标检测方法。
本发明解决上述技术问题所采用的技术方案为:智能移动终端防镜头抖动视频运动目标检测方法,其特征在于,包括以下步骤:
(1)对智能移动终端获取的原始视频进行分帧,得到一组独立的原始帧图像序列,并对原始帧图像序列中的各原始帧图像按照分帧的先后顺序编号,得到具有独立编号的原始帧图像序列;
(2)以预设差值作为编号间隔,在具有独立编号的原始帧图像序列S(i,j)中连续选取部分原始帧图像组成原始图像S(i,j);
(3)对原始图像S(i,j)进行灰度化处理,得到灰度图像Y(i,j);其中,原始图像S(i,j)转换为灰度图像Y(i,j)采用如下转换公式:
Y(i,j)=0.257×r(i,j)+0.504×g(i,j)+0.239×b(i,j);
其中,r(i,j)、g(i,j)、b(i,j)分别对应原始图像S(i,j)的颜色空间三维坐标中的红、绿、蓝颜色分量,Y(i,j)是该像素点对应的灰度值;
(4)对灰度图像Y进行预处理,得到预处理图像I,并采用均值是零的二维高斯滤波对预处理图像I滤波处理;其中:
高斯滤波采用的二维高斯函数g(i,j)为:
其使用的图像模板算子为
(5)建立背景像素模型M(i,j),M(i,j)={v1,v2,…,vN};其中,vk(i,j)表示图像(i,j)位置上的像素值,k是背景像素样本中的序号,M(i,j)表示图像(i,j)位置上的N个样本观察值;
(6)根据背景像素模型M(i,j)进行分类,建立以v(i,j)为中心,以R为半径的球SR(v(i,j)),进行比较并分类;其中,比较分类过程如下:当处在球SR(v(i,j))以内的样本观察值的数量K不小于基数Kmin,即K≥Kmin时,则判定当前像素v(i,j)为背景点;其中,K表示为K={SR(v(i,j))∩{v1,v2,…,vN}};
(7)对背景像素模型M(i,j)进行初始化,在第一帧图像中随机选择相邻像素值与目标像素的样本进行混合,M1(i,j)={v1(y|y∈NG(i,j))},每一个相邻位置y上的像素通过同样的方式被随机的选取,M1(i,j)表示第一帧图像序号的背景模型,NG(i,j)表示与像素位置(i,j)相邻的像素;
(8)更新背景像素模型M(i,j),并采用保守更新策略,配合着向被前景区域遮挡的像素注入空间相邻像素信息实现更新,使用v(i,j)更新背景模型M(i,j),随机的选择样本数量为6中的一个像素值进行更新;
(9)每次对背景模型进行更新时,以随机的更新判定为背景的像素位置上的模型,依然保留在模型中的概率P(t,t+dt)为:
N为样本数量;
(10)采用图像背景像素的偏移量d对当前帧图像进行运动补偿和修正,再使用修正后的图像与背景模型匹配,得到检测结果;其中,背景偏移量d=[dx dy]T
(11)根据邻域窗口内的像素对比计算结果,得到偏移量ε(d);其中,偏移量ε(d)计算公式如下:
其中,wx、wy是与邻域窗口相关的参数,窗口的尺寸表示为2(wx+1)×2(wy+1),(ux,uy)为背景图像中的特征角点,M表示背景模型,I表示当前帧图像;
(12)考察当前帧图像I中特征角点(ux,uy)周围的像素点,计算得到具有最小偏移量ε(d)的像素点(ux1,uy1),并把该像素点(ux1,uy1)当作对应背景点(ux,uy)的像素点,得到像素(ux,uy)在当前帧图像I中的偏移量d,其中,偏移量d计算如下:
d=(ux1-ux,uy1-uy);
(13)计算多个背景图像上特征角点的位移均值S1以及位移中值S2,并以所得位移均值和位移中值的平均值作为整个背景图像的偏移量S;其中,位移均值S1、位移中值S2和偏移量S的计算公式如下:
N为样本数量;
(14)利用偏移量S修正背景模型,并提取运动目标F,其中,运动目标F提取公式如下:
F{SR(v(i,j))∩M(i+dx,j+dy)}。
为了在获取连续原始帧图像的同时,又能够保证对抖动视频中运动目标的检测效果,作为优选,所述步骤(2)中的预设差值设置为2。
为了提高运动目标检测的精确度,所述半径R为20,基数Kmin为2。
与现有技术相比,本发明的优点在于:在对抖动镜头获取的视频运动目标检测时,通过将抖动视频分割成若干独立编号的原始帧图像,并以预设差值作为间隔,提取连续的原始帧图像组成原始图像,以保证原有视频不会出现大的像素点缺失,原始图像经利用优化的图像空间转换参数转换做灰度化处理、二维高斯滤波处理后,得到具有高压缩率、纯净的灰度图像,通过建立背景像素模型和球模型,对处理所得图像分类,得到背景点;背景模型经初始化和实时更新后,选择采用图像背景像素的偏移量对当前帧图像进行运动补偿和修正,并利用偏移量修正背景模型,提取运动目标。该方法通设定优化的图像空间转换参数,得到压缩率的灰度图像;利用图像背景像素的偏移量对当前帧图像进行运动补偿和修正,以补偿镜头的抖动、消除不稳定的抖动镜头对视频运动目标提取带来的恶劣影响。
附图说明
图1为本发明中智能移动终端防镜头抖动视频运动目标检测方法的流程示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
如图1所示,为了防止镜头抖动对智能移动终端采集的视频运动目标检测影响,本实施例中提供的智能移动终端防镜头抖动视频运动目标检测方法,包括以下步骤:
步骤1,对智能移动终端获取的原始视频进行分帧,得到一组独立的原始帧图像序列,并对原始帧图像序列中的各原始帧图像按照分帧的先后顺序编号,得到具有独立编号的原始帧图像序列;
例如,在获取的时长为10秒的原始视频A.mp4文件中,将该10秒的原始视频先后分割成独立的200幅独立的原始帧图像,即200幅原始静止图像;同时,按照先后分帧的顺序,分别对这200幅独立的原始帧图像编号为001号、002号、003号、…、200号;则该200幅原始帧图像构成一个数量为200的原始帧图像序列;
步骤2,以预设差值作为编号间隔,在具有独立编号的原始帧图像序列S(i,j)中连续选取部分原始帧图像组成原始图像S(i,j),以保证原有视频不会出现大的像素点缺失;
为了在获取连续原始帧图像的同时,又能够保证对视频中运动目标的检测效果,作为优选,预设差值设置为2。例如,设定编号间隔的预设差值为2,初始原始帧图像为002号帧图像,则原始帧图像序列中被连续选取的部分原始帧图像分别为002号、004号、006号、…、198号和200号帧图像,被选取的该100幅帧图像组成原始图像S(i,j);
步骤3,对原始图像S(i,j)进行灰度化处理,得到灰度图像Y(i,j);其中,
Y(i,j)=0.257×r(i,j)+0.504×g(i,j)+0.239×b(i,j);
其中,r(i,j)、g(i,j)、b(i,j)分别对应原始图像S(i,j)的颜色空间三维坐标中的红、绿、蓝颜色分量,Y(i,j)是该像素点对应的灰度值;在本实施例中,针对红、绿、蓝颜色分量,分别设定优化的图像转换参数0.257、0.504和0.239,以得到具有高压缩率的灰度图像,由此得到具有小容量的灰度图像,从而可以有效的节约智能移动终端的存储空间,进一步提高智能移动终端的运行效率;
步骤4,在步骤3得到的灰度图像基础上,对灰度图像Y进行预处理,得到预处理图像I,并采用均值是零的二维高斯滤波对预处理图像I滤波处理,得到纯净的预处理图像,从而可以弥补后续单独使用三帧差分法难以满足对运动目标提取质量要求的不足;其中,本步骤4中的二维高斯函数为g(i,j),g(i,j)的计算公式如下:
其使用的图像模板算子为
步骤5,建立背景像素模型M(i,j),M(i,j)={v1,v2,…,vN};其中,vk(i,j)表示图像(i,j)位置上的像素值,k是背景像素样本中的序号,M(i,j)表示图像(i,j)位置上的N个样本观察值;
步骤6,根据背景像素模型M(i,j)进行分类,建立以v(i,j)为中心,以R为半径的球SR(v(i,j)),进行比较并分类;其中,处在球SR(v(i,j))以内的样本观察值的数量K不小于基数Kmin,即K≥Kmin时,则令当前像素v(i,j)为背景点;其中,K={SR(v(i,j))∩{v1,v2,…,vN}};
为了提高运动目标检测的精确度,以实现运动目标与背景图像的准确分离,在本实施例中,球半径R为20,基数Kmin为2;其中,球SR(v(i,j))的半径R即为与背景模型中的样本匹配的阈值,最小基数Kmin即为成功匹配背景模型的阈值;
步骤7,对背景像素模型M(i,j)进行初始化,在第一帧图像中随机选择相邻像素值与目标像素的样本进行混合,M0(i,j)={v0(y|y∈NG(i,j))},每一个相邻位置y上的像素通过同样的方式被随机的选取,M0(i,j)表示第一帧图像序号的背景模型,NG(i,j)表示与像素位置(i,j)相邻的像素;
步骤8,更新背景像素模型M(i,j),并采用保守更新策略,配合着向被前景区域遮挡的像素注入空间相邻像素信息实现更新,使用v(i,j)更新背景模型M(i,j),随机的选择样本数量为6中的一个像素值进行更新;
步骤9,在每次对背景模型进行更新时,以随机的更新判定为背景的像素位置上的模型,依然保留在模型中的概率P(t,t+dt)为:
其中,N为样本数量,样本数量在本实施例中选择设定为4;
步骤10,采用图像背景像素的偏移量d对当前帧图像进行运动补偿和修正,再使用修正后的图像与背景模型匹配,得到检测结果;其中,背景偏移量d=[dx dy]T
步骤11,根据邻域窗口内的像素对比计算结果,得到偏移量ε(d);其中,偏移量ε(d)计算公式如下:
其中,wx、wy是与邻域窗口相关的参数,窗口的尺寸为2(wx+1)×2(wy+1),(ux,uy)为背景图像中的特征角点,M表示背景模型,I表示当前帧图像;
步骤12,考察当前帧图像I中特征角点(ux,uy)周围的像素点,计算得到具有最小偏移量ε(d)的像素点(ux1,uy1),并把该像素点(ux1,uy1)当作对应背景点(ux,uy)的像素点,得到像素(ux,uy)在当前帧图像I中的偏移量d,其中,偏移量d计算如下:
d=(ux1-ux,uy1-uy);
步骤13,计算多个背景图像上特征角点的位移均值S1以及位移中值S2,并以所得位移均值S1和位移中值S2的平均值作为整个背景图像的偏移量S;位移均值S1、位移中值S2和偏移量S的计算公式如下:
位移均值
位移中值
整个背景图像的偏移量N为样本数量;在本步骤13中定义的整个背景图像的偏移量S可以有效的解决单独采用位移平均值S1作为背景图像偏移量对后续背景模型修正带来的不利影响;
步骤14,利用偏移量S修正背景模型,并按照如下公式提取运动目标F,其中,运动目标F提取公式如下:
F{SR(v(i,j))∩M(i+dx,j+dy)}。
本实施例对本发明提供的智能移动终端防镜头抖动视频运动目标检测方法和传统的自适应密度函数估计检测方法仿真比较发现,利用本发明提供的检测方法几乎完全的检测出抖动视频中的运动目标。这是由于该检测方法中,通过分割原始抖动视频为若干独立编号的原始帧图像,并以预设差值选取连续的原始帧图像作为原始图像,保证了原有视频不会出现大的像素点缺失;同时,通过利用图像背景像素的偏移量对当前帧图像进行运动补偿和修正,以对镜头的抖动进行补偿,很好的消除了不稳定的抖动镜头对运动目标提取带来的恶劣影响,从而正确的提取出了前景目标,即抖动视频中的运动目标。

Claims (3)

1.智能移动终端防镜头抖动视频运动目标检测方法,其特征在于,包括以下步骤:
(1)对智能移动终端获取的原始视频进行分帧,得到一组独立的原始帧图像序列,并对原始帧图像序列中的各原始帧图像按照分帧的先后顺序编号,得到具有独立编号的原始帧图像序列;
(2)以预设差值作为编号间隔,在具有独立编号的原始帧图像序列S(i,j)中连续选取部分原始帧图像组成原始图像S(i,j);
(3)对原始图像S(i,j)进行灰度化处理,得到灰度图像Y(i,j);其中,原始图像S(i,j)转换为灰度图像Y(i,j)采用如下转换公式:
Y(i,j)=0.257×r(i,j)+0.504×g(i,j)+0.239×b(i,j);
其中,r(i,j)、g(i,j)、b(i,j)分别对应原始图像S(i,j)的颜色空间三维坐标中的红、绿、蓝颜色分量,Y(i,j)是该像素点对应的灰度值;
(4)对灰度图像Y进行预处理,得到预处理图像I,并采用均值是零的二维高斯滤波对预处理图像I滤波处理;其中:
高斯滤波采用的二维高斯函数g(i,j)为:
其使用的图像模板算子为 <mrow> <mfrac> <mn>1</mn> <mn>273</mn> </mfrac> <mo>&amp;times;</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>4</mn> </mtd> <mtd> <mn>7</mn> </mtd> <mtd> <mn>4</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mn>4</mn> </mtd> <mtd> <mn>16</mn> </mtd> <mtd> <mn>26</mn> </mtd> <mtd> <mn>16</mn> </mtd> <mtd> <mn>4</mn> </mtd> </mtr> <mtr> <mtd> <mn>7</mn> </mtd> <mtd> <mn>26</mn> </mtd> <mtd> <mn>41</mn> </mtd> <mtd> <mn>26</mn> </mtd> <mtd> <mn>7</mn> </mtd> </mtr> <mtr> <mtd> <mn>4</mn> </mtd> <mtd> <mn>16</mn> </mtd> <mtd> <mn>26</mn> </mtd> <mtd> <mn>16</mn> </mtd> <mtd> <mn>4</mn> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>4</mn> </mtd> <mtd> <mn>7</mn> </mtd> <mtd> <mn>4</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
(5)建立背景像素模型M(i,j),M(i,j)={v1,v2,…,vN};其中,vk(i,j)表示图像(i,j)位置上的像素值,k是背景像素样本中的序号,M(i,j)表示图像(i,j)位置上的N个样本观察值;
(6)根据背景像素模型M(i,j)进行分类,建立以v(i,j)为中心,以R为半径的球SR(v(i,j)),进行比较并分类;其中,比较分类过程如下:当处在球SR(v(i,j))以内的样本观察值的数量K不小于基数Kmin,即K≥Kmin时,则判定当前像素v(i,j)为背景点;其中,K表示为K={SR(v(i,j))∩{v1,v2,…,vN}};
(7)对背景像素模型M(i,j)进行初始化,在第一帧图像中随机选择相邻像素值与目标像素的样本进行混合,M1(i,j)={v1(y|y∈NG(i,j))},每一个相邻位置y上的像素通过同样的方式被随机的选取,M1(i,j)表示第一帧图像序号的背景模型,NG(i,j)表示与像素位置(i,j)相邻的像素;
(8)更新背景像素模型M(i,j),并采用保守更新策略,配合着向被前景区域遮挡的像素注入空间相邻像素信息实现更新,使用v(i,j)更新背景模型M(i,j),随机的选择样本数量为6中的一个像素值进行更新;
(9)每次对背景模型进行更新时,以随机的更新判定为背景的像素位置上的模型,依然保留在模型中的概率P(t,t+dt)为:
<mrow> <mi>P</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>,</mo> <mi>t</mi> <mo>+</mo> <mi>d</mi> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mi>ln</mi> <mrow> <mo>(</mo> <mfrac> <mi>N</mi> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </mfrac> <mo>)</mo> </mrow> <mi>d</mi> <mi>t</mi> </mrow> </msup> <mo>,</mo> </mrow> N为样本数量;
(10)采用图像背景像素的偏移量d对当前帧图像进行运动补偿和修正,再使用修正后的图像与背景模型匹配,得到检测结果;其中,背景偏移量d=[dx dy]T
(11)根据邻域窗口内的像素对比计算结果,得到偏移量ε(d);其中,偏移量ε(d)计算公式如下:
<mrow> <mi>&amp;epsiv;</mi> <mrow> <mo>(</mo> <mi>d</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>&amp;epsiv;</mi> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mi>x</mi> </msub> <mo>,</mo> <msub> <mi>d</mi> <mi>y</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>=</mo> <msub> <mi>u</mi> <mi>x</mi> </msub> <mo>-</mo> <msub> <mi>w</mi> <mi>x</mi> </msub> </mrow> <mrow> <msub> <mi>u</mi> <mi>x</mi> </msub> <mo>+</mo> <msub> <mi>w</mi> <mi>x</mi> </msub> </mrow> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>y</mi> <mo>=</mo> <msub> <mi>u</mi> <mi>y</mi> </msub> <mo>-</mo> <msub> <mi>w</mi> <mi>y</mi> </msub> </mrow> <mrow> <msub> <mi>u</mi> <mi>y</mi> </msub> <mo>+</mo> <msub> <mi>w</mi> <mi>y</mi> </msub> </mrow> </munderover> <msup> <mrow> <mo>(</mo> <mi>M</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>-</mo> <mi>I</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>+</mo> <msub> <mi>d</mi> <mi>x</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>+</mo> <msub> <mi>d</mi> <mi>y</mi> </msub> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>;</mo> </mrow>
其中,wx、wy是与邻域窗口相关的参数,窗口的尺寸表示为2(wx+1)×2(wy+1),(ux,uy)为背景图像中的特征角点,M表示背景模型,I表示当前帧图像;
(12)考察当前帧图像I中特征角点(ux,uy)周围的像素点,计算得到具有最小偏移量ε(d)的像素点(ux1,uy1),并把该像素点(ux1,uy1)当作对应背景点(ux,uy)的像素点,得到像素(ux,uy)在当前帧图像I中的偏移量d,其中,偏移量d计算如下:
d=(ux1-ux,uy1-uy);
(13)计算多个背景图像上特征角点的位移均值S1以及位移中值S2,并以所得位移均值和位移中值的平均值作为整个背景图像的偏移量S;其中,位移均值S1、位移中值S2和偏移量S的计算公式如下:
<mrow> <msub> <mi>S</mi> <mn>1</mn> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mrow> <mo>(</mo> <msub> <mi>d</mi> <msub> <mi>x</mi> <mi>k</mi> </msub> </msub> <mo>,</mo> <msub> <mi>d</mi> <msub> <mi>y</mi> <mi>k</mi> </msub> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow> <mrow> <msub> <mi>S</mi> <mn>2</mn> </msub> <mo>=</mo> <mi>m</mi> <mi>e</mi> <mi>d</mi> <mo>{</mo> <mrow> <mo>(</mo> <msub> <mi>d</mi> <msub> <mi>x</mi> <mn>1</mn> </msub> </msub> <mo>,</mo> <msub> <mi>d</mi> <msub> <mi>y</mi> <mn>1</mn> </msub> </msub> <mo>)</mo> </mrow> <mo>,</mo> <mrow> <mo>(</mo> <msub> <mi>d</mi> <msub> <mi>x</mi> <mn>2</mn> </msub> </msub> <mo>,</mo> <msub> <mi>d</mi> <msub> <mi>y</mi> <mn>2</mn> </msub> </msub> <mo>)</mo> </mrow> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mrow> <mo>(</mo> <msub> <mi>d</mi> <msub> <mi>x</mi> <mi>N</mi> </msub> </msub> <mo>,</mo> <msub> <mi>d</mi> <msub> <mi>y</mi> <mi>N</mi> </msub> </msub> <mo>)</mo> </mrow> <mo>}</mo> <mo>,</mo> </mrow> <mrow> <mi>S</mi> <mo>=</mo> <mfrac> <mrow> <msub> <mi>S</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>S</mi> <mn>2</mn> </msub> </mrow> <mn>2</mn> </mfrac> <mo>,</mo> </mrow> N为样本数 量;
(14)利用偏移量S修正背景模型,并提取运动目标F,其中,运动目标F提取公式如下:
F{SR(v(i,j))∩M(i+dx,j+dy)}。
2.根据权利要求1所述的智能移动终端防镜头抖动视频运动目标检测方法,其特征在于,所述步骤(2)中的预设差值设置为2。
3.根据权利要求2所述的智能移动终端防镜头抖动视频运动目标检测方法,其特征在于,所述步骤(6)中的球半径R为20,基数Kmin为2。
CN201510717103.4A 2015-10-29 2015-10-29 智能移动终端防镜头抖动视频运动目标检测方法 Active CN105374051B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510717103.4A CN105374051B (zh) 2015-10-29 2015-10-29 智能移动终端防镜头抖动视频运动目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510717103.4A CN105374051B (zh) 2015-10-29 2015-10-29 智能移动终端防镜头抖动视频运动目标检测方法

Publications (2)

Publication Number Publication Date
CN105374051A CN105374051A (zh) 2016-03-02
CN105374051B true CN105374051B (zh) 2018-04-24

Family

ID=55376223

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510717103.4A Active CN105374051B (zh) 2015-10-29 2015-10-29 智能移动终端防镜头抖动视频运动目标检测方法

Country Status (1)

Country Link
CN (1) CN105374051B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106851050B (zh) * 2017-03-13 2020-04-24 Oppo广东移动通信有限公司 运动检测方法和装置、移动设备
CN108307076B (zh) * 2018-03-12 2020-05-19 宁波大学 一种移动智能终端视频去抖动方法
CN109495695A (zh) * 2018-11-29 2019-03-19 北京字节跳动网络技术有限公司 运动物体视频特效添加方法、装置、终端设备及存储介质
CN114339395A (zh) * 2021-12-14 2022-04-12 浙江大华技术股份有限公司 视频抖动检测方法、检测装置、电子设备和可读存储介质
CN114666498A (zh) * 2022-02-28 2022-06-24 超级视线科技有限公司 一种视频图像采集抖动处理方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103500454A (zh) * 2013-08-27 2014-01-08 东莞中国科学院云计算产业技术创新与育成中心 一种抖动视频运动目标提取方法
CN103530893A (zh) * 2013-10-25 2014-01-22 南京大学 相机抖动场景下基于背景差和运动信息的前景检测方法
CN103617632A (zh) * 2013-11-19 2014-03-05 浙江工业大学 一种结合相邻帧差法和混合高斯模型的运动目标检测方法
CN104392468A (zh) * 2014-11-21 2015-03-04 南京理工大学 基于改进视觉背景提取的运动目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013260753A1 (en) * 2013-11-25 2015-06-11 Canon Kabushiki Kaisha Rapid shake detection using a cascade of quad-tree motion detectors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103500454A (zh) * 2013-08-27 2014-01-08 东莞中国科学院云计算产业技术创新与育成中心 一种抖动视频运动目标提取方法
CN103530893A (zh) * 2013-10-25 2014-01-22 南京大学 相机抖动场景下基于背景差和运动信息的前景检测方法
CN103617632A (zh) * 2013-11-19 2014-03-05 浙江工业大学 一种结合相邻帧差法和混合高斯模型的运动目标检测方法
CN104392468A (zh) * 2014-11-21 2015-03-04 南京理工大学 基于改进视觉背景提取的运动目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于Android平台的视频运动目标检测系统";熊欧等;《数据通信》;20150531;论文第10-14页 *

Also Published As

Publication number Publication date
CN105374051A (zh) 2016-03-02

Similar Documents

Publication Publication Date Title
CN105374051B (zh) 智能移动终端防镜头抖动视频运动目标检测方法
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN108830252A (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN108710865A (zh) 一种基于神经网络的司机异常行为检测方法
CN108280406A (zh) 一种基于分段双流模型的行为识别方法、系统及装置
CN107507172A (zh) 融合红外可见光的特高压线路绝缘子串深度学习识别方法
CN105654471A (zh) 应用于互联网视频直播的增强现实ar系统及方法
CN108154102A (zh) 一种道路交通标志识别方法
CN108416266A (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN106529494A (zh) 一种基于多摄像头机型的人脸识别方法
CN110390673B (zh) 一种监控场景下基于深度学习的香烟自动检测方法
CN109816625A (zh) 一种视频质量评分实现方法
CN110032932B (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN111062331B (zh) 图像的马赛克检测方法、装置、电子设备及存储介质
CN106650668A (zh) 一种实时检测可移动目标物的方法及系统
CN110032983A (zh) 一种基于orb特征提取和flann快速匹配的轨迹识别方法
CN104036243A (zh) 一种基于光流信息的行为识别方法
CN105405153B (zh) 智能移动终端抗噪声干扰运动目标提取方法
CN106709438A (zh) 一种基于视频会议的人数统计方法
CN107093186A (zh) 基于边缘投影匹配的剧烈运动检测方法
CN111860457A (zh) 一种斗殴行为识别预警方法及其识别预警系统
CN103295238B (zh) 安卓平台上基于roi运动检测的视频实时定位方法
CN111274864A (zh) 人群聚集的判断方法及人群聚集的判断装置
CN114708532A (zh) 一种监控视频质量评估方法、系统及存储介质
CN108520496B (zh) 一种基于光流法的海空背景监控视频图像拼接方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210426

Address after: Room 406, no.3020 Huling Road, Linghu Town, Nanxun District, Huzhou City, Zhejiang Province

Patentee after: Huzhou lingchuang Technology Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240307

Address after: Room 601, 6th Floor, Building 5, Lianhuayuan, Haidian District, Beijing, 100080

Patentee after: Aerospace Guosheng Technology Co.,Ltd.

Country or region after: China

Address before: Room 406, no.3020 Huling Road, Linghu Town, Nanxun District, Huzhou City, Zhejiang Province

Patentee before: Huzhou lingchuang Technology Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right