CN105023248B - 一种低信噪比的视频运动目标提取方法 - Google Patents

一种低信噪比的视频运动目标提取方法 Download PDF

Info

Publication number
CN105023248B
CN105023248B CN201510363222.4A CN201510363222A CN105023248B CN 105023248 B CN105023248 B CN 105023248B CN 201510363222 A CN201510363222 A CN 201510363222A CN 105023248 B CN105023248 B CN 105023248B
Authority
CN
China
Prior art keywords
mrow
msub
mtd
mtr
centerdot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510363222.4A
Other languages
English (en)
Other versions
CN105023248A (zh
Inventor
朱虹
何振
王栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201510363222.4A priority Critical patent/CN105023248B/zh
Publication of CN105023248A publication Critical patent/CN105023248A/zh
Application granted granted Critical
Publication of CN105023248B publication Critical patent/CN105023248B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)

Abstract

本发明公开了一种低信噪比的视频运动目标提取方法,步骤包括:步骤1、获取背景帧;步骤2、估计待处理视频帧的噪声标准差;步骤3、取待处理视频帧的相邻帧序列进行背景差分处理;步骤4、获取背景差分图像中的目标占比;步骤5、检测运动目标,即成。本发明的方法,能够从如高粉尘作业等恶劣的低对比度监控环境中,提取运动目标,以便对该运动目标进行后续的分析和处理,是低信噪比环境下的视频去噪,运动目标跟踪等处理不可缺少的预处理方法。

Description

一种低信噪比的视频运动目标提取方法
技术领域
本发明属于智能监控技术领域,涉及一种低信噪比的视频运动目标提取方法。
背景技术
随着智能监控领域的迅猛发展,视频信息的应用已经成为安全保障的有力手段之一。对于诸如矿井下的监控环境,需要在户外24小时全天候监控环境下,因光照条件受限等原因,会出现监控画面有强噪声干扰的情况,有时甚至是运动目标被吞没在噪声之中。这时对于判断监控画面中是否存在运动目标等操作和处理很难有效实现,在很大一定程度上限制了视频监控视频的应用。
发明内容
本发明的目的是提供一种低信噪比的视频运动目标提取方法,解决了现有技术中,因环境噪声过强,使得画面被严重干扰情况下,对视频运动目标低信噪比很难提取到相应区域的问题。
本发明采用的技术方案是,一种低信噪比的视频运动目标提取方法,具体按照以下步骤实施:
步骤1、获取背景帧
假设提供给训练获取背景帧的视频帧序列为{F1,F2,...,FN},其中,Ft=[ft(i,j)]m×n,t=1,2,...,N,是由N帧分辨率为m行n列的视频帧序列构成,求取该视频帧序列的均值作为背景帧B=[b(i,j)]m×n,计算公式见下式(1):
步骤2、估计待处理视频帧的噪声标准差
设待处理视频帧为Fc=[fc(i,j)]m×n,估计其噪声标准差的方法如下:
2.1)先对待处理视频帧Fc=[fc(i,j)]m×n进行背景差分计算,得到差分结果Ec=[ec(i,j)]m×n,见下式(2):
ec(i,j)=fc(i,j)-b(i,j),i=1,2,...,m,j=1,2,...,n, (2)
2.2)根据差分结果Ec=[ec(i,j)]m×n,估计噪声标准差σc的值,见下式(3):
其中,μc为Ec=[ec(i,j)]m×n的均值,计算公式见下式(4):
步骤3、取待处理视频帧的相邻帧序列进行背景差分处理
在待处理视频帧为Fc=[fc(i,j)]m×n中,取其相邻的2K帧视频序列,构成当前帧的相邻帧序列{Fc-K,Fc-K+1,...,Fc,Fc+1,...,Fc+K},其中K为经验值;然后采用巴特沃斯滤波器进行低通滤波处理,得到滤波后的相邻帧序列为再对该滤波后的相邻帧序列进行背景差分;
步骤4、获取背景差分图像中的目标占比;
步骤5、检测运动目标,即成。
本发明的有益效果是,能够从如高粉尘作业等恶劣的低对比度监控环境中,提取运动目标,以便对该运动目标进行后续的分析和处理,是低信噪比环境下的视频去噪,运动目标跟踪等处理不可缺少的预处理方法。
附图说明
图1是本发明方法实施例1实际拍摄的清晰原始图像;
图2是本发明方法实施例1给清晰图像人为加载强噪声的结果图;
图3是本发明方法实施例1加载强噪声情况下进行目标提取后的结果图;
图4是本发明方法实施例2实际拍摄的夜间原始图像;
图5是本发明方法实施例2对夜间拍摄的图像进行图像增强后的结果;
图6是本发明方法实施例2对图5提取目标的结果图像。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明的低信噪比的视频运动目标提取方法,具体按照以下步骤实施:
步骤1、获取背景帧
基于目标运动、背景静止的原理,采用背景差分法提取出运动目标,但由于强噪声会混淆背景与目标,直接采用背景差分,是很难提取出运动目标的,本步骤中,考虑到运动目标在帧序列中运动的连续性,以及噪声在帧序列中出现的随机性,进行以下的处理:
假设提供给训练获取背景帧的视频帧序列为{F1,F2,...,FN},其中,Ft=[ft(i,j)]m×n,t=1,2,...,N,是由N帧分辨率为m行n列的视频帧序列构成,求取该视频帧序列的均值作为背景帧B=[b(i,j)]m×n,计算公式见下式(1):
步骤2、估计待处理视频帧的噪声标准差
设待处理视频帧为Fc=[fc(i,j)]m×n,估计其噪声标准差的方法如下:
2.1)先对待处理视频帧Fc=[fc(i,j)]m×n进行背景差分计算,得到差分结果Ec=[ec(i,j)]m×n,见下式(2):
ec(i,j)=fc(i,j)-b(i,j),i=1,2,...,m,j=1,2,...,n (2)
2.2)根据差分结果Ec=[ec(i,j)]m×n,估计噪声标准差σc的值,见下式(3):
其中,μc为Ec=[ec(i,j)]m×n的均值,计算公式见下式(4):
步骤3、取待处理视频帧的相邻帧序列进行背景差分处理
在待处理视频帧为Fc=[fc(i,j)]m×n中,取其相邻的2K帧视频序列,构成当前帧的相邻帧序列{Fc-K,Fc-K+1,...,Fc,Fc+1,...,Fc+K},其中K为经验值,噪声大则偏向取大,本步骤中建议取值范围为10≤K≤20;然后采用巴特沃斯滤波器进行低通滤波处理,(巴特沃斯滤波器进行低通滤波的方法可参考相关的教材以及论文),得到滤波后的相邻帧序列为再对该滤波后的相邻帧序列进行背景差分,
具体过程如下:
3.1)确定背景差分阈值:
thβ=μbβ·σc, (5)
其中,μb为背景帧B=[b(i,j)]m×n的均值;
αβ为阈值调整系数,为经验值,考虑到低信噪比视频帧序列中的运动目标,通常被淹没在噪声中的情况,为了保留微弱的前景信息,选择较低的阈值,建议优择αβ=0.05β,β为[1,nc]区间内的整数,nc为最高阈值的选取参数,为经验值,建议优选nc=20;
σc为步骤2估计得到的待处理帧Fc的噪声标准差。
3.2)根据αβ=0.05β,β为[1,nc]区间内的整数,按照公式(5)得到nc个阈值,取这nc个由低到高的阈值,按照下面的公式(6),对相邻帧序列{Fc-K,Fc-K+1,...,Fc,Fc+1,...,Fc+K}进行背景差分计算,得到差分结果{dFc-K β,dFc-K+1 β,...,dFc β,dFc+1 β,...,dFc+K β},β=1,2,...,nc
其中,dFk β=[dfk β(i,j)]m×n,k=c-K,c-K+1,...,c,c+1,...,c+K,
3.3)对每个阈值下的相邻帧差分序列,按照下面的公式(7)进行或运算,得到nc个差分序列其中,δFβ=[δfβ(i,j)]m×n
按照公式(7)计算得到δfβ(i,j)=1的点为目标点,δfβ(i,j)=0为背景点;
步骤4、获取背景差分图像中的目标占比
4.1)将步骤3.3)得到的差分序列中的每个差分帧图像δFβ=[δfβ(i,j)]m×n等分为M×M个大小相同的子块,每个子块的大小为msub×nsub,msub=m/M,nsub=n/M,
则有Bβ=[blockβ(x,y)]M×M,其中,
,x=1,2,...,M,y=1,2,...,M;
4.2)计算步骤4.1)等分的每个子块的目标点的占比矩阵Rβ=[rateβ(x,y)]M×M
其中,
4.3)计算占比矩阵Rβ=[rateβ(x,y)]M×M的均值和标准差
步骤5、检测运动目标
因为对于低信噪比的视频帧来说,最大的问题就是不管取怎样的阈值来提取运动目标,噪声点都会同时被提取出来,如果要抑制噪声,则会导致运动目标的缺损,所以,按照以下步骤从高噪声干扰中检测出运动目标:
5.1)取步骤4.3)得到的占比矩阵的均值的中值为阈值th,即:
th=argmid([μ12,...,μnc]); (12)
5.2)从占比矩阵Rβ=[rateβ(x,y)]M×M中,令β=th,选择一个用以获取目标的占比矩阵Rth=[rateth(x,y)]M×M
5.3)计算检测目标的判断矩阵Bth=[blockth(x,y)]M×M,计算公式如下:
其中,为大小是msub×nsub,(即步骤4.1)分块时所得到的每个图像子块的大小),且元素全为0的矩阵;
5.4)根据步骤5.3)得到的判断矩阵Bth=[blockth(x,y)]M×M,从处理帧Fc=[fc(i,j)]m×n获取运动目标区域,即把非目标区域置零:
通过以上的步骤,即获取了在强噪声干扰下的低信噪比视频图像的运动目标,完全能够为后续的视频去噪,以及视频运动目标的行为分析等操作,提供关键数据。
参照图1、图2、图3,是本发明实施例1在人为给清晰图像加载强噪声情况下的目标提取结果对比图,其中,图1为实际拍摄的清晰图像;图2是加入强噪声后的效果图像;图3是利用本发明方法对图2的图像进行目标提取的结果图像;由于结果图像的画面过于模糊,为显示提取效果,将检测出的目标位置利用清晰目标替换,以便突出本发明方法检测的正确性。
参照图4、图5、图6,是本发明实施例2对于实际拍摄的夜间图像的目标提取效果对比图,图4为实际拍摄的夜间原始图像;图5为对图4对应进行图像增强后的结果,可以看到,画面噪声也被增强;图6为利用本发明方法对图5提取目标的结果图像。
通过上述的两个实施例,可以看出,本发明的方法,能够顺利实现在强噪声干扰下的低信噪比视频图像的运动目标提取,提取结果准确率高,工作量低。

Claims (2)

1.一种低信噪比的视频运动目标提取方法,其特征在于,具体按照以下步骤实施:
步骤1、获取背景帧
假设提供给训练获取背景帧的视频帧序列为{F1,F2,...,FN},其中,Ft=[ft(i,j)]m×n,t=1,2,...,N,是由N帧分辨率为m行n列的视频帧序列构成,求取该视频帧序列的均值作为背景帧B=[b(i,j)]m×n,计算公式见下式(1):
<mrow> <mi>b</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>f</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>m</mi> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>n</mi> <mo>;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
步骤2、估计待处理视频帧的噪声标准差
设待处理视频帧为Fc=[fc(i,j)]m×n,估计其噪声标准差的方法如下:
2.1)先对待处理视频帧Fc=[fc(i,j)]m×n进行背景差分计算,得到差分结果Ec=[ec(i,j)]m×n,见下式(2):
ec(i,j)=fc(i,j)-b(i,j),i=1,2,...,m,j=1,2,...,n, (2)
2.2)根据差分结果Ec=[ec(i,j)]m×n,估计噪声标准差σc的值,见下式(3):
<mrow> <msub> <mi>&amp;sigma;</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>m</mi> <mo>&amp;times;</mo> <mi>n</mi> </mrow> </mfrac> <mo>&amp;CenterDot;</mo> <msqrt> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msup> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mi>c</mi> </msub> <mo>(</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mo>)</mo> <mo>-</mo> <msub> <mi>&amp;mu;</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>,</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
其中,μc为Ec=[ec(i,j)]m×n的均值,计算公式见下式(4):
<mrow> <msub> <mi>&amp;mu;</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>m</mi> <mo>&amp;times;</mo> <mi>n</mi> </mrow> </mfrac> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>e</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
步骤3、取待处理视频帧的相邻帧序列进行背景差分处理
在待处理视频帧为Fc=[fc(i,j)]m×n中,取其相邻的2K帧视频序列,构成当前帧的相邻帧序列{Fc-K,Fc-K+1,...,Fc,Fc+1,...,Fc+K},其中K为经验值;然后采用巴特沃斯滤波器进行低通滤波处理,得到滤波后的相邻帧序列为再对该滤波后的相邻帧序列进行背景差分;
具体过程如下:
3.1)确定背景差分阈值:
thβ=μbβ·σc, (5)
其中,μb为背景帧B=[b(i,j)]m×n的均值;
αβ为阈值调整系数,为经验值,αβ=0.05β,β为[1,nc]区间内的整数,nc为最高阈值的选取参数,为经验值,nc=20;
σc为步骤2估计得到的待处理帧Fc的噪声标准差;
3.2)按照公式(5)得到nc个阈值,取这nc个由低到高的阈值,按照下面的公式(6),对滤波后的相邻帧序列进行背景差分计算,得到差分结果{dFc-K β,dFc-K+1 β,...,dFc β,dFc+1 β,...,dFc+K β},β=1,2,...,nc
其中,dFk β=[dfk β(i,j)]m×n,k=c-K,c-K+1,...,c,c+1,...,c+K,
<mrow> <msup> <msub> <mi>df</mi> <mi>k</mi> </msub> <mi>&amp;beta;</mi> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mo>|</mo> <msub> <mover> <mi>f</mi> <mo>&amp;OverBar;</mo> </mover> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>&amp;GreaterEqual;</mo> <msub> <mi>th</mi> <mi>&amp;beta;</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
3.3)对每个阈值下的滤波后的相邻帧差分序列,按照下面的公式(7)进行或运算,得到nc个差分序列其中,δFβ=[δfβ(i,j)]m×n
<mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mi>c</mi> <mo>-</mo> <mi>K</mi> </mrow> <mrow> <mi>c</mi> <mo>+</mo> <mi>K</mi> </mrow> </munderover> <msup> <msub> <mi>df</mi> <mi>k</mi> </msub> <mi>&amp;beta;</mi> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
按照公式(7)计算得到δfβ(i,j)=1的点为目标点,δfβ(i,j)=0为背景点;
步骤4、获取背景差分图像中的目标占比
具体过程如下:
4.1)将步骤3.3)得到的差分序列中的每个差分帧图像δFβ=[δfβ(i,j)]m×n等分为M×M个大小相同的子块,每个子块的大小为msub×nsub,msub=m/M,nsub=n/M,
则有Bβ=[blockβ(x,y)]M×M,其中,
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>block</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mo>(</mo> <mrow> <mi>y</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mo>(</mo> <mrow> <mi>y</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mn>...</mn> </mtd> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>y</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>2</mn> <mo>,</mo> <mo>(</mo> <mrow> <mi>y</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>2</mn> <mo>,</mo> <mo>(</mo> <mrow> <mi>y</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>2</mn> <mo>,</mo> <mi>y</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>...</mn> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>,</mo> <mo>(</mo> <mrow> <mi>y</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>,</mo> <mo>(</mo> <mrow> <mi>y</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow></mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>,</mo> <mi>y</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>,</mo> <mi>x</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <mi>M</mi> <mo>,</mo> <mi>y</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <mi>M</mi> <mo>;</mo> </mrow> </mtd> </mtr> </mtable> </mfenced>
4.2)计算步骤4.1)等分的每个子块的目标点的占比矩阵Rβ=[rateβ(x,y)]M×M
其中,
<mrow> <mi>s</mi> <mi>u</mi> <mi>m</mi> <mrow> <mo>(</mo> <msub> <mi>block</mi> <mi>&amp;beta;</mi> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mo>=</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mi>M</mi> <mo>+</mo> <mn>1</mn> </mrow> <mrow> <mi>x</mi> <mi>M</mi> </mrow> </munderover> <mo>&amp;lsqb;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>t</mi> <mo>=</mo> <mrow> <mo>(</mo> <mi>y</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mi>M</mi> <mo>+</mo> <mn>1</mn> </mrow> <mrow> <mi>y</mi> <mi>M</mi> </mrow> </munderover> <msub> <mi>&amp;delta;f</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>s</mi> <mo>,</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
4.3)计算占比矩阵Rβ=[rateβ(x,y)]M×M的均值和标准差
<mrow> <msub> <mi>&amp;mu;</mi> <mi>&amp;beta;</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>M</mi> <mo>&amp;times;</mo> <mi>M</mi> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>y</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>rate</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>,</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>&amp;sigma;</mi> <mi>&amp;beta;</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>M</mi> <mo>&amp;times;</mo> <mi>M</mi> </mrow> </mfrac> <msup> <mrow> <mo>{</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>y</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msup> <mrow> <mo>&amp;lsqb;</mo> <msub> <mi>rate</mi> <mi>&amp;beta;</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;mu;</mi> <mi>&amp;beta;</mi> </msub> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>}</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>2</mn> </mrow> </msup> <mo>;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
步骤5、检测运动目标
具体过程如下:
5.1)取步骤4.3)得到的占比矩阵的均值的中值为阈值th,即:
<mrow> <mi>t</mi> <mi>h</mi> <mo>=</mo> <mi>arg</mi> <mi> </mi> <mi>m</mi> <mi>i</mi> <mi>d</mi> <mrow> <mo>(</mo> <mo>&amp;lsqb;</mo> <msub> <mi>&amp;mu;</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>&amp;mu;</mi> <mn>2</mn> </msub> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msub> <mi>&amp;mu;</mi> <msub> <mi>n</mi> <mi>c</mi> </msub> </msub> <mo>&amp;rsqb;</mo> <mo>)</mo> </mrow> <mo>;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
5.2)从占比矩阵Rβ=[rateβ(x,y)]M×M中,令β=th,选择一个用以获取目标的占比矩阵Rth=[rateth(x,y)]M×M
5.3)计算检测目标的判断矩阵Bth=[blockth(x,y)]M×M,计算公式如下:
<mrow> <msub> <mi>block</mi> <mrow> <mi>t</mi> <mi>h</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>block</mi> <mrow> <mi>t</mi> <mi>h</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <msub> <mi>rate</mi> <mrow> <mi>t</mi> <mi>h</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <msub> <mi>&amp;mu;</mi> <mrow> <mi>t</mi> <mi>h</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>t</mi> <mi>h</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <msub> <mn>0</mn> <mrow> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>&amp;times;</mo> <msub> <mi>n</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> </mrow> </msub> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>s</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>13</mn> <mo>)</mo> </mrow> </mrow>
其中,为大小是msub×nsub,(即步骤4.1)分块时所得到的每个图像子块的大小),且元素全为0的矩阵;
5.4)根据步骤5.3)得到的判断矩阵Bth=[blockth(x,y)]M×M,从处理帧Fc=[fc(i,j)]m×n获取运动目标区域,即把非目标区域置零:
<mrow> <msub> <mi>f</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mo>&amp;lsqb;</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>x</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>&amp;rsqb;</mo> <mo>,</mo> <mi>j</mi> <mo>&amp;Element;</mo> <mo>&amp;lsqb;</mo> <mrow> <mo>(</mo> <mi>y</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>y</mi> <mo>&amp;CenterDot;</mo> <msub> <mi>m</mi> <mrow> <mi>s</mi> <mi>u</mi> <mi>b</mi> </mrow> </msub> <mo>&amp;rsqb;</mo> <mo>,</mo> <msub> <mi>block</mi> <mrow> <mi>t</mi> <mi>h</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>f</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>s</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
即成。
2.根据权利要求1所述的低信噪比的视频运动目标提取方法,其特征在于,所述的步骤3中,取值范围为10≤K≤20。
CN201510363222.4A 2015-06-25 2015-06-25 一种低信噪比的视频运动目标提取方法 Expired - Fee Related CN105023248B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510363222.4A CN105023248B (zh) 2015-06-25 2015-06-25 一种低信噪比的视频运动目标提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510363222.4A CN105023248B (zh) 2015-06-25 2015-06-25 一种低信噪比的视频运动目标提取方法

Publications (2)

Publication Number Publication Date
CN105023248A CN105023248A (zh) 2015-11-04
CN105023248B true CN105023248B (zh) 2017-11-03

Family

ID=54413192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510363222.4A Expired - Fee Related CN105023248B (zh) 2015-06-25 2015-06-25 一种低信噪比的视频运动目标提取方法

Country Status (1)

Country Link
CN (1) CN105023248B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469394B (zh) * 2015-11-20 2018-01-19 成都因纳伟盛科技股份有限公司 一种基于复杂环境的目标智能跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101068342A (zh) * 2007-06-05 2007-11-07 西安理工大学 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
CN101159855A (zh) * 2007-11-14 2008-04-09 南京优科漫科技有限公司 基于特征点分析的多目标分离预测方法
CN101394479A (zh) * 2008-09-25 2009-03-25 上海交通大学 基于运动检测结合多通道融合的教师运动跟踪方法
CN101777186A (zh) * 2010-01-13 2010-07-14 西安理工大学 一种多模态自动更新替换的背景建模方法
CN102509306A (zh) * 2011-10-08 2012-06-20 西安理工大学 一种基于视频的特定目标的跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101068342A (zh) * 2007-06-05 2007-11-07 西安理工大学 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
CN101159855A (zh) * 2007-11-14 2008-04-09 南京优科漫科技有限公司 基于特征点分析的多目标分离预测方法
CN101394479A (zh) * 2008-09-25 2009-03-25 上海交通大学 基于运动检测结合多通道融合的教师运动跟踪方法
CN101777186A (zh) * 2010-01-13 2010-07-14 西安理工大学 一种多模态自动更新替换的背景建模方法
CN102509306A (zh) * 2011-10-08 2012-06-20 西安理工大学 一种基于视频的特定目标的跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Dynamic Adaptive Update System of Tracking Moving Objects Based on Contour Feature;Dong Wang 等;《Information Acquisition》;20060823;第332-336页 *
一种快速的基于对称差分的视频分割算法;贺贵明 等;《小型微型计算机系统》;20030630;第24卷(第6期);第966-968页 *
基于帧间差分和运动估计的Camshift 目标跟踪算法;邬大鹏 等;《光电工程》;20100131;第37卷(第1期);第55-60页 *
基于自适应背景的实时运动物体检测;潘石柱 等;《计算机应用》;20041031;第24卷(第10期);第94-96页 *

Also Published As

Publication number Publication date
CN105023248A (zh) 2015-11-04

Similar Documents

Publication Publication Date Title
CN103020965B (zh) 一种基于显著性检测的前景分割方法
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
CN102831618B (zh) 基于霍夫森林的视频目标跟踪方法
CN100474337C (zh) 一种基于径向基神经网络的有噪运动模糊图像复原方法
CN102494675B (zh) 一种运动目标特征高速视觉捕捉方法
CN101179713A (zh) 复杂背景下单个运动目标的检测方法
CN103413276A (zh) 一种基于纹理分布特征的深度增强方法
CN109410248B (zh) 一种基于r-K算法的浮选泡沫运动特征提取方法
CN102629385A (zh) 一种基于多摄像机信息融合的目标匹配与跟踪系统及方法
CN103208105B (zh) 一种红外图像细节增强与噪声自适应抑制方法
Karpagavalli et al. Estimating the density of the people and counting the number of people in a crowd environment for human safety
CN106485702A (zh) 基于自然图像特征统计的图像模糊检测方法
CN103955949A (zh) 基于Mean-shift算法的运动目标检测方法
CN102982537A (zh) 一种检测场景变换的方法和系统
CN111353496B (zh) 一种红外弱小目标实时检测方法
CN102236887A (zh) 基于旋转差分和加权总变分的运动模糊图像复原方法
CN104680483A (zh) 图像的噪声估计方法、视频图像去噪方法及装置
CN104243916A (zh) 一种基于压缩传感的运动目标检测和跟踪方法
CN103428409A (zh) 一种基于固定场景的视频降噪处理方法及装置
Meshram et al. Traffic surveillance by counting and classification of vehicles from video using image processing
CN102663777A (zh) 基于多视点视频的目标跟踪方法及系统
CN105139391A (zh) 一种雾霾天气交通图像边缘检测方法
Nigam et al. Curvelet transform-based technique for tracking of moving objects
CN105427266A (zh) 一种信息损耗约束的沙尘图像清晰化方法
CN106875360A (zh) 一种消除图像运动模糊的方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171103

Termination date: 20200625

CF01 Termination of patent right due to non-payment of annual fee