CN105405153B - 智能移动终端抗噪声干扰运动目标提取方法 - Google Patents

智能移动终端抗噪声干扰运动目标提取方法 Download PDF

Info

Publication number
CN105405153B
CN105405153B CN201510717145.8A CN201510717145A CN105405153B CN 105405153 B CN105405153 B CN 105405153B CN 201510717145 A CN201510717145 A CN 201510717145A CN 105405153 B CN105405153 B CN 105405153B
Authority
CN
China
Prior art keywords
mrow
mtd
msubsup
image
msub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510717145.8A
Other languages
English (en)
Other versions
CN105405153A (zh
Inventor
郑紫微
程劼
熊欧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aerospace Guosheng Technology Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201510717145.8A priority Critical patent/CN105405153B/zh
Publication of CN105405153A publication Critical patent/CN105405153A/zh
Application granted granted Critical
Publication of CN105405153B publication Critical patent/CN105405153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及智能移动终端抗噪声干扰运动目标提取方法,经设定图像空间转换的优化转换参数,原始图像转换处理得到灰度图像后,选择高斯滤波对预处理图像滤波,并选取三幅相同帧间隔的连续预处理图像做差分处理,以克服单独使用三帧差分法提取运动目标质量的不足,二值化处理所得差分图像后,对二值化图像做逻辑“或”以及逻辑“与”处理,以得到潜在运动目标区域的二值化图像,利用逻辑“与”自动摒弃新暴露出来的像素点,消除“鬼影”现象,然后建立背景模型并实时更新,同时基于高斯模型检测潜在运动目标区域内的运动目标,避免了基于帧间差分方法容易引入的“空洞”问题,最后根据95%置信区间理论,对运动前景提取得到运动目标。

Description

智能移动终端抗噪声干扰运动目标提取方法
技术领域
本发明涉及智能视频处理领域,尤其涉及一种智能移动终端抗噪声干扰运动目标提取方法。
背景技术
近些年,各种各样的摄像头被安装在不同的公共场合,例如公路,自助取款机,街角,大型商场,医院,学校,机场等,甚至被安装到家庭之中,以实现视频监控的目的。传统视频监控依赖于人工对这些视频数据进行主观意识的分析判断,对其中的动作行为做出理解,然后才得出结论做出反馈。传统视频监控也存在诸多缺陷,尤其是监控人员一旦遗漏重要信息可能造成无法挽回的后果。因此,智能视频处理技术显得尤为重要,成为当下研究的热点之一。
视频处理技术通过模拟人类对视觉图像响应,使用计算机对视频场景中运动目标分类、识别、跟踪,在这些基本视频场景处理的基础上以期实现对运动目标行为分析判断和理解。智能化视频处理的过程中,无论是运动目标的分类、识别、跟踪,还是后续的行为的判断和理解都是建立在成功检测出运动目标的前提下进行的,即视频场景中运动目标区域的提取的质量对智能化视频处理的结果至关重要。运动目标提取是从序列图像中提取出正在运动或者说是变化的区域作为感兴趣区域,为后续高级图像处理提供服务。
然而,在摄像头固定的情况下,现有方法都默认视频数据的采集是在摄像头被固定的前提下工作的,一旦出现这样一个场景:一旦通过手持设备或其他易抖动的设备,如相机和手机,来提取出视频中包含运动目标的区域,容易出现镜头抖动,这些现有方法将会无用武之地,导致抖动的镜头对运动目标提取产生干扰,不可避免的出现大面积的误检。
发明内容
本发明所要解决的技术问题是针对上述现有技术提供一种能够防止抖动的摄像头干扰运动目标提取的智能移动终端抗噪声干扰运动目标提取方法。
本发明解决上述技术问题所采用的技术方案为:智能移动终端抗噪声干扰运动目标提取方法,用于对图像序列运动目标的精确提取,其特征在于,依次包括以下步骤:
(1)对智能移动终端获取的原始图像S(i,j)进行灰度化处理,实现颜色空间转换,得到灰度图像Y(i,j);其中,原始图像S(i,j)转换为灰度图像Y(i,j)采用如下转换公式:
Y(i,j)=0.257×r(i,j)+0.504×g(i,j)+0.239×b(i,j);
其中,r(i,j)、g(i,j)、b(i,j)分别对应原始图像S(i,j)的颜色空间三维坐标中的红、绿、蓝颜色分量,Y(i,j)是该像素点对应的灰度值;
(2)对灰度图像Y进行预处理,得到预处理图像I,并采用高斯滤波对预处理图像I进行处理,其中,高斯函数为均值是零的二维高斯函数g(i,j),其中,
其使用的图像模板算子为
(3)对连续间隔m帧的三帧预处理图像Ik-m(i,j)、Ik(i,j)和Ik+m(i,j)做差分,得到两个差分图像D(k,k-m)(i,j)和D(k+m,k)(i,j);其中,
D(k,k-m)(i,j)=|Ik(i,j)-Ik-m(i,j)|,D(k+m,k)(i,j)=|Ik+m(i,j)-Ik(i,j)|;
其中,Ik-m(i,j)、Ik(i,j)和Ik+m(i,j)分别表示预处理序列图像I(i,j)中的某三帧预处理图像,m表示预处理序列图像I(i,j)之间相邻间隔的帧数,m∈Z,且m∈[1,5];
(4)对所得两个差分图像D(k,k-m)(i,j)和D(k+m,k)(i,j)分别做二值化处理,得到对应的二值化图像R(k,k-m)(i,j)和R(k+m,k)(i,j);其中,二值化处理准则如下:
其中,T表示阈值,m表示各序列图像I(i,j)之间相邻间隔的帧数;
(5)对所得到的两幅相邻的二值化图像R(k,k-m)(i,j)和R(k+m,k)(i,j)做逻辑“或”操作和逻辑“与”操作,分别得到对应运算后的联合二值化“或”图像Bork(i,j)和联合二值化“与”图像Bandk(i,j),并将联合二值化“或”图像Bork(i,j)和联合二值化“与”图像Bandk(i,j)进行逻辑“与”运算,得到潜在运动目标区域的二值化图像Bk(i,j);其中,
联合二值化“或”图像为
联合二值化“与”图像为
潜在运动目标区域的二值化图像
(6)对潜在运动目标区域内进行基于高斯模型的运动目标检测,对高斯分布的参数均值以及方差赋初值,建立背景模型;其中,
N表示被用来进行模型初始化的图像的数量,表示第k帧图像中(i,j)位置上的像素观察值;
(7)对建立的背景模型以设定的更新方式进行实时更新;其中,设定的更新方式为:
其中,α表示当前帧图像中的像素对所对应位置上的背景模型的更新所做出的贡献程度,α=0.0025;
(8)计算像素位置上高斯分布的95%置信区间的上限和下限其中,上限下限
(9)根据95%置信区间的理论,对运动前景提取得到运动目标
为了使做差分的相邻帧图像之间的时间间隔变短,以有效地消除动态背景所引入的干扰,作为优选,所述步骤(3)中间隔m帧的数值为3。
进一步地,在步骤(6)中初始化高斯背景模型的图像的数量N为50。
与现有技术相比,本发明的优点在于:在本发明提供的运动目标提取方法中,通过设定图像空间转换的优化转换参数,将原始图像转换处理,得到具有高压缩率的灰度图像后,选择高斯滤波对预处理图像滤波,以获得纯净的预处理图像,并选取三幅相同间隔的连续预处理图像做差分处理,以克服单独使用三帧差分法提取运动目标质量的不足;同时,二值化处理所得差分图像后,对二值化图像做逻辑“或”、“与”操作后,再次进行逻辑“与”处理,以得到潜在运动目标区域的二值化图像,利用逻辑“与”自动摒弃新暴露出来的像素点,消除“鬼影”现象,然后建立背景模型并实时更新,同时基于高斯模型检测潜在运动目标区域内的运动目标,避免了基于帧间差分方法容易引入的“空洞”问题,最后根据95%置信区间理论,对运动前景准确提取得到运动目标,消除了镜头抖动对视频中运动目标提取的干扰。
附图说明
图1为本发明中智能移动终端抗噪声干扰运动目标提取方法的流程示意图;
图2为利用本发明中方法对运动目标检测的性能曲线示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
如图1所示,为了利用智能移动终端提取图像序列中的运动目标,本实施例中提供的智能移动终端抗噪声干扰运动目标提取方法依次包括以下步骤:
步骤1,对智能移动终端获取的原始图像S(i,j)进行灰度化处理,实现颜色空间转换,得到灰度图像Y(i,j);其中,原始图像S(i,j)转换为灰度图像Y(i,j)采用如下转换公式:
Y(i,j)=0.257×r(i,j)+0.504×g(i,j)+0.239×b(i,j);
其中,r(i,j)、g(i,j)、b(i,j)分别对应原始图像S(i,j)的颜色空间三维坐标中的红、绿、蓝颜色分量,Y(i,j)是该像素点对应的灰度值;通过在本实施例中,针对红、绿、蓝颜色分量,分别设定优化的图像转换参数0.257、0.504和0.239,以得到具有高压缩率的灰度图像,由此得到具有小容量的灰度图像,从而可以有效的节约智能移动终端的存储空间,进一步提高智能移动终端的运行效率;
步骤2,对灰度图像Y进行预处理,得到预处理图像I,并采用高斯滤波对预处理图像I进行处理,经高斯滤波后,得到纯净的预处理图像,从而可以弥补后续单独使用三帧差分法难以满足对运动目标提取质量要求的不足;
其中,高斯函数为均值是零的二维高斯函数g(i,j),其中,其使用的图像模板算子为
步骤3,以帧间隔数为m帧,在预处理序列图像I中选取三幅连续的预处理图像Ik-m(i,j)、Ik(i,j)和Ik+m(i,j)做差分,得到两个差分图像D(k,k-m)(i,j)和D(k+m,k)(i,j),由两个差分图像D(k,k-m)(i,j)和D(k+m,k)(i,j)初步提取出包含运动目标区域的大致轮廓;其中,
D(k,k-m)(i,j)=|Ik(i,j)-Ik-m(i,j)|,D(k+m,k)(i,j)=|Ik+m(i,j)-Ik(i,j)|;
其中,Ik-m(i,j)、Ik(i,j)和Ik+m(i,j)分别表示预处理序列图像I(i,j)中的某三帧预处理图像,m表示预处理序列图像I(i,j)之间相邻间隔的帧数,m∈Z,且m∈[1,5];
假设预处理序列图像I{I1(i,j),I2(i,j),I3(i,j),I4(i,j),I5(i,j),I6(i,j),I7(i,j)},帧间隔数为2帧,则在预处理序列图像I中选取的三幅连续预处理图像为I1(i,j)、I3(i,j)和I5(i,j),亦或者选取的三幅连续预处理图像为I2(i,j)、I4(i,j)和I6(i,j);对三幅连续预处理图像I1(i,j)、I3(i,j)和I5(i,j)做差分后,可以得到两个差分图像D(3,1)(i,j)=|I3(i,j)-I1(i,j)|,D(5,3)(i,j)=|I5(i,j)-I3(i,j)|;其中,为了使相邻帧图像之间的时间间隔变短,在保证预处理图像像素不会发生缺失的条件下,以有效地消除动态背景所引入的干扰,作为优选,三幅连续预处理图像的帧间隔m帧的数值为3;
步骤4,对所得两个差分图像D(k,k-m)(i,j)和D(k+m,k)(i,j)分别做二值化处理,得到对应的二值化图像R(k,k-m)(i,j)和R(k+m,k)(i,j);其中,二值化处理准则如下:
其中,T表示阈值,m表示各序列图像I(i,j)之间相邻间隔的帧数;具体地,是通过设定阈值T,过滤掉差分图像D(k,k-m)(i,j)和D(k+m,k)(i,j)中灰度差值小于阈值T的像素,同时将灰度差值大于阈值T的像素值转化为255;二值化图像R(k,k-m)(i,j)和R(k+m,k)(i,j)中所有的非零像素点组成前景区域,而那些零像素点则是属于背景图像的部分;
步骤5,对所得到的两幅相邻的二值化图像R(k,k-m)(i,j)和R(k+m,k)(i,j)做逻辑“或”操作和逻辑“与”操作,分别得到对应运算后的联合二值化“或”图像Bork(i,j)和联合二值化“与”图像Bandk(i,j),并将联合二值化“或”图像Bork(i,j)和联合二值化“与”图像Bandk(i,j)进行逻辑“与”运算,得到潜在运动目标区域的二值化图像Bk(i,j);逻辑“与”操作可以自动摒弃新暴露出来的像素点,有效的消除“鬼影”现象,其中,
联合二值化“或”图像为
联合二值化“与”图像为
潜在运动目标区域的二值化图像
步骤6,对潜在运动目标区域内进行基于高斯模型的运动目标检测,对高斯分布的参数均值以及方差赋初值,建立背景模型;其中,
N表示被用来进行模型初始化的图像的数量,表示第k帧图像中(i,j)位置上的像素观察值;例如,在本实施例中,进行模型初始化的图像数量N选取为50,,即参数均值方差
步骤7,对建立的背景模型以设定的更新方式进行实时更新,以适应实际场景中背景图像并随着时间动态地发生变化;其中,本实施例中设定的更新方式为:
其中,α表示当前帧图像中的像素对所对应位置上的背景模型的更新所做出的贡献程度;在本实施例中,设定贡献程度α=0.0025,以满足当前更新后的背景模型真实的反映实际场景中的真实背景图像,而当贡献程度α设定为其他数值时,则更新后的背景模型与实际场景中的真实背景图像发生偏移,从而导致不能建立最佳的背景模型,这样将不利于后续从背景图像中精确的提取运动目标;
步骤8,计算像素位置上高斯分布的95%置信区间的上限和下限其中,上限下限通过在本实施例中采用95%置信区间,可以进一步提高对运动前景,即中运动目标的正确提取概率;
步骤9,根据95%置信区间的理论,对运动前景提取得到运动目标
其中,在潜在运动目标区域范围内,像素灰度值落到95%置信区间内的像素点被提取出来成为前景点,置信区间以外的像素点则被认为是背景点而被忽略,从而完成对运动前景中运动目标的精确提取。
为了解本发明中所提供的智能移动终端抗噪声干扰运动目标提取方法的性能,本实施例中利用智能移动终端进行了仿真,以伪正类率和真正类率作为运动目标提取方法性能的评价参数:其中,本发明中的抗噪声干扰运动目标提取方法简记为PM方法,传统的自适应混合高斯模型运功目标检测方法简记为GMM方法,PM方法与GMM方法的仿真结果参加图2所示。
从图2中可以看出,运动目标提取方法的伪正类率随着真正类率的增加也不断变大,实际上是阈值T的不断放宽使得真正类率的上升所必然带来的负面影响,即伪正类率的快速攀升;在达到相同的真正类率情况下,本发明中提供的抗噪声干扰运动目标提取方法PM的伪正类率一直低于GMM方法,表现为检测结果中的伪前景点较少,这说明利用抗噪声干扰运动目标提取方法正确检测运动目标的概率更高,PM方法具有更好的正检性能。

Claims (3)

1.智能移动终端抗噪声干扰运动目标提取方法,其特征在于,包括以下步骤:
(1)对智能移动终端获取的原始图像S(i,j)进行灰度化处理,实现颜色空间转换,得到灰度图像Y(i,j);其中,原始图像S(i,j)转换为灰度图像Y(i,j)采用如下转换公式:
Y(i,j)=0.257×r(i,j)+0.504×g(i,j)+0.239×b(i,j);
其中,r(i,j)、g(i,j)、b(i,j)分别对应原始图像S(i,j)的颜色空间三维坐标中的红、绿、蓝颜色分量,Y(i,j)是该像素点对应的灰度值;
(2)对灰度图像Y进行预处理,得到预处理图像I,并采用高斯滤波对预处理图像I进行处理,高斯函数为均值是零的二维高斯函数g(i,j),其中,
<mrow> <mi>g</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mi>i</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>j</mi> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>,</mo> </mrow> 其使用的图像模板算子为 <mrow> <mfrac> <mn>1</mn> <mn>273</mn> </mfrac> <mo>&amp;times;</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>4</mn> </mtd> <mtd> <mn>7</mn> </mtd> <mtd> <mn>4</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mn>4</mn> </mtd> <mtd> <mn>16</mn> </mtd> <mtd> <mn>26</mn> </mtd> <mtd> <mn>16</mn> </mtd> <mtd> <mn>4</mn> </mtd> </mtr> <mtr> <mtd> <mn>7</mn> </mtd> <mtd> <mn>26</mn> </mtd> <mtd> <mn>41</mn> </mtd> <mtd> <mn>26</mn> </mtd> <mtd> <mn>7</mn> </mtd> </mtr> <mtr> <mtd> <mn>4</mn> </mtd> <mtd> <mn>16</mn> </mtd> <mtd> <mn>26</mn> </mtd> <mtd> <mn>16</mn> </mtd> <mtd> <mn>4</mn> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>4</mn> </mtd> <mtd> <mn>7</mn> </mtd> <mtd> <mn>4</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
(3)对连续间隔m帧的三帧预处理图像Ik-m(i,j)、Ik(i,j)和Ik+m(i,j)做差分,得到两个差分图像D(k,k-m)(i,j)和D(k+m,k)(i,j);其中,
D(k,k-m)(i,j)=|Ik(i,j)-Ik-m(i,j)|,D(k+m,k)(i,j)=|Ik+m(i,j)-Ik(i,j)|;
其中,Ik-m(i,j)、Ik(i,j)和Ik+m(i,j)分别表示预处理序列图像I(i,j)中的某三帧预处理图像,m表示预处理序列图像I(i,j)之间相邻间隔的帧数,m∈Z,且m∈[1,5];
(4)对所得两个差分图像D(k,k-m)(i,j)和D(k+m,k)(i,j)分别做二值化处理,得到对应的二值化图像R(k,k-m)(i,j)和R(k+m,k)(i,j);其中,二值化处理准则如下:
<mrow> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>,</mo> <mi>k</mi> <mo>-</mo> <mi>m</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>255</mn> </mtd> <mtd> <mrow> <msub> <mi>D</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>,</mo> <mi>k</mi> <mo>-</mo> <mi>m</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <mi>T</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>m</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>255</mn> </mtd> <mtd> <mrow> <msub> <mi>D</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>m</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <mi>T</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
其中,T表示阈值,m表示各序列图像I(i,j)之间相邻间隔的帧数;
(5)对所得到的两幅相邻的二值化图像R(k,k-m)(i,j)和R(k+m,k)(i,j)做逻辑“或”操作和逻辑“与”操作,分别得到对应运算后的联合二值化“或”图像Bork(i,j)和联合二值化“与”图像Bandk(i,j),并将联合二值化“或”图像Bork(i,j)和联合二值化“与”图像Bandk(i,j)进行逻辑“与”运算,得到潜在运动目标区域的二值化图像Bk(i,j);其中,
联合二值化“或”图像为 <mrow> <msub> <mi>Bor</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>255</mn> </mtd> <mtd> <mrow> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>,</mo> <mi>k</mi> <mo>-</mo> <mi>m</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;cup;</mo> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>m</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;NotEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>,</mo> <mi>k</mi> <mo>-</mo> <mi>m</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;cup;</mo> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>m</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>
联合二值化“与”图像为 <mrow> <msub> <mi>Band</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>255</mn> </mtd> <mtd> <mrow> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>,</mo> <mi>k</mi> <mo>-</mo> <mi>m</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;cap;</mo> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>m</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;NotEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>,</mo> <mi>k</mi> <mo>-</mo> <mi>m</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;cap;</mo> <msub> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>m</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>
潜在运动目标区域的二值化图像 <mrow> <msub> <mi>B</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>255</mn> </mtd> <mtd> <mrow> <msub> <mi>Bor</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;cap;</mo> <msub> <mi>Band</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;NotEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <msub> <mi>Bor</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;cap;</mo> <msub> <mi>Band</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
(6)对潜在运动目标区域内进行基于高斯模型的运动目标检测,对高斯分布的参数均值以及方差赋初值,建立背景模型;其中,
<mrow> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mn>0</mn> </msubsup> <mo>=</mo> <mn>1</mn> <mo>/</mo> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>,</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mn>0</mn> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>=</mo> <mn>1</mn> <mo>/</mo> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mn>0</mn> </msubsup> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>;</mo> </mrow>
N表示被用来进行模型初始化的图像的数量,表示第k帧图像中(i,j)位置上的像素观察值;
(7)对建立的背景模型以设定的更新方式进行实时更新;其中,设定的更新方式为:
<mrow> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;alpha;</mi> <mo>)</mo> </mrow> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>&amp;alpha;x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>,</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;alpha;</mi> <mo>)</mo> </mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;alpha;</mi> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>;</mo> </mrow>
其中,α表示当前帧图像中的像素对所对应位置上的背景模型的更新所做出的贡献程度,α=0.0025;
(8)计算像素位置上高斯分布的95%置信区间的上限和下限其中,上限 <mrow> <msubsup> <mi>x</mi> <mi>h</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>=</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>+</mo> <mn>1.96</mn> <mo>&amp;times;</mo> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>,</mo> </mrow> 下限 <mrow> <msubsup> <mi>x</mi> <mi>l</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>=</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>-</mo> <mn>1.96</mn> <mo>&amp;times;</mo> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>;</mo> </mrow>
(9)根据95%置信区间的理论,对运动前景提取得到运动目标
<mrow> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <msubsup> <mi>x</mi> <mi>l</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>&amp;GreaterEqual;</mo> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>&amp;GreaterEqual;</mo> <msubsup> <mi>x</mi> <mi>h</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>255</mn> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>.</mo> </mrow>
2.根据权利要求1所述的智能移动终端抗噪声干扰运动目标提取方法,其特征在于,所述步骤(3)中间隔m帧的数值为3。
3.根据权利要求1所述的智能移动终端抗噪声干扰运动目标提取方法,其特征在于,所述步骤(6)中初始化高斯背景模型的图像的数量N为50。
CN201510717145.8A 2015-10-29 2015-10-29 智能移动终端抗噪声干扰运动目标提取方法 Active CN105405153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510717145.8A CN105405153B (zh) 2015-10-29 2015-10-29 智能移动终端抗噪声干扰运动目标提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510717145.8A CN105405153B (zh) 2015-10-29 2015-10-29 智能移动终端抗噪声干扰运动目标提取方法

Publications (2)

Publication Number Publication Date
CN105405153A CN105405153A (zh) 2016-03-16
CN105405153B true CN105405153B (zh) 2018-05-18

Family

ID=55470620

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510717145.8A Active CN105405153B (zh) 2015-10-29 2015-10-29 智能移动终端抗噪声干扰运动目标提取方法

Country Status (1)

Country Link
CN (1) CN105405153B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145861A (zh) * 2017-05-05 2017-09-08 中国科学院上海高等研究院 一种遗弃物自动检测方法
CN110542908B (zh) * 2019-09-09 2023-04-25 深圳市海梁科技有限公司 应用于智能驾驶车辆上的激光雷达动态物体感知方法
CN111062926B (zh) * 2019-12-18 2023-08-22 腾讯科技(深圳)有限公司 一种视频数据处理方法、装置及存储介质
CN113112444B (zh) * 2020-01-09 2022-05-31 舜宇光学(浙江)研究院有限公司 鬼像检测方法及其系统、电子设备以及鬼像检测平台
CN117253293A (zh) * 2023-11-15 2023-12-19 江西师范大学 行为识别方法、系统、存储介质及计算机设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035067A (en) * 1993-04-30 2000-03-07 U.S. Philips Corporation Apparatus for tracking objects in video sequences and methods therefor
CN103177456A (zh) * 2013-03-29 2013-06-26 上海理工大学 视频图像的运动目标检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035067A (en) * 1993-04-30 2000-03-07 U.S. Philips Corporation Apparatus for tracking objects in video sequences and methods therefor
CN103177456A (zh) * 2013-03-29 2013-06-26 上海理工大学 视频图像的运动目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"基于Android平台的视频运动目标检测系统";熊欧等;《数据通信》;20140531;论文第10-13页 *
"视频序列中入侵目标检测算法研究";张光伟;《中国优秀硕士学位论文全文数据库 信息科技辑》;20101015(第10期);论文第17页 *
"面向移动目标检测的天气场景建模方法";赵旭东;《中国博士学术论文全文数据库 信息科技辑》;20130115(第1期);论文第71页 *

Also Published As

Publication number Publication date
CN105405153A (zh) 2016-03-16

Similar Documents

Publication Publication Date Title
CN105405153B (zh) 智能移动终端抗噪声干扰运动目标提取方法
CN105069472B (zh) 一种基于卷积神经网络自适应的车辆检测方法
CN102307274B (zh) 基于边缘检测和帧差法的运动检测方法
CN107341480A (zh) 一种改进型pccnn神经网络模型的人群聚集检测方法
CN110378288A (zh) 一种基于深度学习的多级时空运动目标检测方法
CN105184812B (zh) 一种基于目标跟踪的行人徘徊检测方法
CN109977790A (zh) 一种基于迁移学习的视频烟雾检测与识别方法
CN103984946B (zh) 一种基于K‑means的高分辨率遥感地图道路提取方法
CN107909556A (zh) 基于卷积神经网络的视频图像去雨方法
CN105374051B (zh) 智能移动终端防镜头抖动视频运动目标检测方法
CN105469105A (zh) 一种基于视频监控的香烟烟雾检测方法
CN104182772A (zh) 一种基于深度学习的手势识别方法
CN106897698A (zh) 基于机器视觉与双目协同技术的教室人数检测方法及系统
CN109508741A (zh) 基于深度学习筛选训练集的方法
CN109978854A (zh) 一种基于边缘与结构特征的屏幕内容图像质量评估方法
CN109002752A (zh) 一种基于深度学习的复杂公共场景快速行人检测方法
CN105632170A (zh) 一种基于Mean Shift跟踪算法的交通流检测方法
CN106709438A (zh) 一种基于视频会议的人数统计方法
CN104156729B (zh) 一种教室人数统计方法
CN106815576A (zh) 基于连续时空置信图和半监督极限学习机的目标追踪方法
CN110472628A (zh) 一种基于视频特征的改进Faster R-CNN网络检测漂浮物方法
CN109241814A (zh) 基于yolo神经网络的行人检测方法
CN107123130A (zh) 一种基于超像素和混合哈希的核相关滤波目标跟踪方法
CN109902613A (zh) 一种基于迁移学习和图像增强的人体特征提取方法
CN101908153A (zh) 低分辨率图像处理中的头部姿态估计的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Zheng Ziwei

Inventor after: Cheng Jie

Inventor after: Xiong Ou

Inventor before: Zheng Ziwei

Inventor before: Xiong Ou

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210426

Address after: Room 406, no.3020 Huling Road, Linghu Town, Nanxun District, Huzhou City, Zhejiang Province

Patentee after: Huzhou lingchuang Technology Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240305

Address after: Room 601, 6th Floor, Building 5, Lianhuayuan, Haidian District, Beijing, 100080

Patentee after: Aerospace Guosheng Technology Co.,Ltd.

Country or region after: China

Address before: Room 406, no.3020 Huling Road, Linghu Town, Nanxun District, Huzhou City, Zhejiang Province

Patentee before: Huzhou lingchuang Technology Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right