CN111160099B - 一种视频图像目标的智能化分割方法 - Google Patents

一种视频图像目标的智能化分割方法 Download PDF

Info

Publication number
CN111160099B
CN111160099B CN201911187932.0A CN201911187932A CN111160099B CN 111160099 B CN111160099 B CN 111160099B CN 201911187932 A CN201911187932 A CN 201911187932A CN 111160099 B CN111160099 B CN 111160099B
Authority
CN
China
Prior art keywords
pixel
background
background model
distance
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911187932.0A
Other languages
English (en)
Other versions
CN111160099A (zh
Inventor
林欣郁
邹建红
张毅
高元荣
陈米思
肖晓柏
朱含杉
陈华辉
陈思添
谢月萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Nebula Big Data Application Service Co ltd
Original Assignee
Fujian Nebula Big Data Application Service Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Nebula Big Data Application Service Co ltd filed Critical Fujian Nebula Big Data Application Service Co ltd
Priority to CN201911187932.0A priority Critical patent/CN111160099B/zh
Publication of CN111160099A publication Critical patent/CN111160099A/zh
Application granted granted Critical
Publication of CN111160099B publication Critical patent/CN111160099B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种视频图像目标的智能化分割方法,该方法使用YUV颜色空间和特定的距离度量来克服光照的影响,维护多个聚类中心以处理动态背景,利用最大连续未获匹配时间长度参数将前景像素排除在背景模型之外。本发明的方法能在有限的存储空间里长时间获取结构化的背景运动,可为动态背景建立紧凑的模型;能克服光照对背景建模和前景检测的影响;在建模和检测阶段之间周期性地切换,以满足视频监控长时间不间断运行的应用需求。本发明的方法具有较好的分割准确性和较高的处理速度,比较适用于客流统计、交通流视频监控、工业自动化监控以及安全防范等场景的视频对象分割。

Description

一种视频图像目标的智能化分割方法
技术领域
本发明属于智能视频监控分析技术领域,尤其是涉及一种视频图像目标的智能化分割方法。
背景技术
与静态图像相比,数字视频序列图像提供了更丰富的信息。通过对多帧图像的分析,获得从单幅图像中不能得到的信息。随着计算机视觉技术的发展,视频分析技术应用越来越广泛,视频对象分割是视频分析系统中的关键技术之一,主要应用于基于对象的视频编码、基于内容的视频检索、智能监控、交互式视频娱乐等方面。目前的视频对象分割方法有以下几种:
运动估计视频对象分割:是指先使用光流场等方法估计运动参数,寻找满足运动模型的像素连通域,再合并各连通域得到分割结果。由于实际监控视频中遮挡性、多光源、透明性和噪声等原因,光流场基本方程的假设条件经常得不到满足。并且,由于光流计算方法相对复杂,计算量大,不能满足实时性的要求。
交互式视频对象分割:是利用人工监督来辅助进行分割的方式,即人工为视频图像绘制粗略的初始分割区域,再运用基于时空和运动的信息进行分割。交互式视频对象分割的应用比较受限,实时性较差。
时域空域视频对象分割:主要是利用视频图像相邻帧之间连续性和相关性进行分割,即先进行时域分割寻找视频图像中的运动区域,再进行空域分割生成边界准确的语义区域,最后结合两者生成具有精确边缘的分割结果。基于时空的视频对象分割实现相对简单,实时性好,但由于实际场景中光照变化明显、运动目标多、背景成分复杂,给视频对象分割算法带来了困难。
发明内容
本发明所要解决的技术问题在于提供一种视频图像目标的智能化分割方法,该方法能在有限的存储空间里长时间获取结构化的背景运动,可为动态背景建立紧凑的模型,能克服光照对背景建模和前景检测的影响,在建模和检测阶段之间周期性地切换,以满足视频监控长时间不间断运行的应用需求。
本发明是通过以下技术方案实现的:
一种视频图像目标的智能化分割方法,采用背景模型建立阶段和前景检测阶段交替进行的方式,包括如下步骤:
步骤1:设监控视频的帧率为fFPS,帧序号为n,T1和T2分别为背景模型建立阶段和前景检测阶段的周期;
当1≤n≤T1f时,为建立背景模型建立阶段;
当T1f≤n≤(T1+T2)f时,为前景检测阶段;
步骤2:将像素xn=(R,G,B)的像素值由RGB颜色空间转换到YUV颜色空间,得到亮度分量Yn和两个色差分量Un、Vn,转换公式如下:
Figure BDA0002292832510000021
步骤3:建立基于像素值时间序列聚类的背景模型,包括:
计算待检测像素与聚类中心的亮度距离和色差距离;
确定阈值;
寻找与待检测像素匹配的聚类中心;
若存在匹配的聚类中心,则将待检测像素归为聚类中心代表的类别,并更新聚类中心;若不存在匹配的聚类中心或聚类中心集合为空集,则创建一个新的聚类中心,同时更新其他聚类中心;
对背景建模周期内的视频帧重复执行上述步骤;
滤除最大连续未获匹配时间长度超过阈值的聚类中心,得到聚类中心集合的背景模型,背景模型建立阶段结束,转到步骤4;
步骤4:前景检测阶段,包括:
在背景模型中寻找与待检测像素匹配的聚类中心;
若存在匹配的聚类中心,则视待检测像素为背景,并更新背景模型;
若不存在匹配的聚类中心,则视待检测像素为前景;
对前景检测周期内的视频帧重复执行上述步骤;
前景检测阶段结束,转到步骤3。
进一步地,所述步骤3,具体包括:
参数初始化:n=1,L=0,其中L表示背景模型中聚类中心的数目,对帧号从1到T1f的每一帧图像进行以下循环操作:
(i)计算亮度距离和色差距离;
亮度距离为:YUV空间中的两像素色差距离等于一个像素到过另一个像素且与Y轴平行的直线的垂线段的长度;
色差距离为:YUV空间中的两像素亮度距离等于它们的亮度分量的比值与1的差的绝对值;
设待检测像素xm与背景模型聚类中心ci的连线与Y轴平行,则它们的U、V分量分别相等,亮度距离f1为:
Figure BDA0002292832510000031
色差距离f2为:
f2(xm,ci)=0 (3)
待检测像素x′m与聚类中心ci的亮度距离f1为:
Figure BDA0002292832510000041
色差距离f2为:
Figure BDA0002292832510000042
(ii)确定阈值:
选取固定摄像机在一个时间段内的监控视频,并从视频图像中选取固定的三个像素位置A、B、C作为采样点,每5分钟记录一次各采样点的像素值并转换到YUV空间。设采样点A的像素值序列为(Yj,Uj,Vj),j=1,2,…,M,聚类中心的像素值为
Figure BDA0002292832510000043
通过求极值方式求解公式(6)、(7),即可确定采样点A的聚类中心/>
Figure BDA0002292832510000044
Figure BDA0002292832510000045
Figure BDA0002292832510000046
A点处亮度距离阈值的计算公式为:
Figure BDA0002292832510000047
A点处色差距离阈值的计算公式为:
Figure BDA0002292832510000048
同理,可根据采样点B、C的像素值序列计算采样点B、C处的亮度阈值和色差阈值d1B、d2B、d1C、d2C。进一步,得到亮度距离阈值d1和色差距离阈值d2
Figure BDA0002292832510000049
Figure BDA00022928325100000410
(iii)寻找与xn匹配的聚类中心。匹配条件如公式(12)所示。在聚类中心集合Cn-1={ci|i=1,2,…,L}中,聚类中心ci的亮度为
Figure BDA0002292832510000051
色差分量为/>
Figure BDA0002292832510000052
和/>
Figure BDA0002292832510000053
当环境光照发生变化时,像素值在经过背景模型聚类中心ci且与Y轴近似平行的直线上移动。若检测到像素值与ci的亮度距离小于阈值d1,则判断此像素为背景像素。判断像素值是否位于过ci且与Y轴近似平行的直线上的条件是它们的色差距离是否小于阈值d2。当ci确定后,通过与之匹配而判断为背景像素的待检测像素的集合构成一个半径为d2、高度为2d1、中心为ci的圆柱体;
Figure BDA0002292832510000054
(iv)若存在匹配的聚类中心ci,则将xn归为第i类背景像素,并更新ci
Figure BDA0002292832510000055
其中,α、β分别为亮度分量和色差分量的学习速率。同时更新其它未获得匹配的聚类中心cj:τjc←τjc+1,τjh←max{τjhjc},1≤j≤L且j≠i。τjc表示包含当前帧在内的最近一段未获匹配图像序列的帧数,τjh表示整个背景建模周期T1内所有未获匹配图像序列的帧数的最大值。设某像素在周期T1内共有m段未获匹配图像序列,各段序列的帧数分别为(τjc)j,则:
Figure BDA0002292832510000056
(v)若不存在匹配的聚类中心或
Figure BDA0002292832510000057
则L←L+1,创建一个新的聚类中心cL=xn,τLh←n-1,τLc←0。同时更新其他聚类中心cj:τjc←τjc+1,τjh←max{τjhjc},1≤j≤L-1;
利用公式(15)滤除那些最大连续未获匹配时间长度超过阈值d3的聚类中心,背景建模阶段结束,得到聚类中心集合Cn的背景模型,
Cn←{ci|ci∈Cnih<d3} (15)
其中,阈值d3是根据实验数据确定的。设采样点A的背景模型为CA,聚类中心数目为LA,各聚类中心的最大连续未获匹配时间长度为τi,i=1,2,…,LA,其最大值为:
Figure BDA0002292832510000061
在时间段T1f内从采样点A多次经过,时间随机,得到采样点A的背景模型C′A,聚类中心数目为L′A,各聚类中心的最大连续未获匹配时间长度为τ′i,i=1,2,…,L′A,则最大连续未获匹配时间长度的阈值为:
Figure BDA0002292832510000062
同理,可根据采样点B、C的像素值序列计算采样点B、C处的最大连续未获匹配时间长度的阈值d3B、d3C,则:
Figure BDA0002292832510000063
由于随机因素的影响导致多次实验计算得到的d3取值不尽相同,也可按照经验将d3的值设置为背景建模阶段帧数的一半,即:
Figure BDA0002292832510000064
背景模型建立阶段结束,转到步骤4的前景检测阶段;
进一步地,所述步骤4,具体包括:
对帧号从T1f到(T1+T2)f的每一帧图像进行以下循环操作:
(i)在背景模型Cn-1={ci|i=1,2,…,L}中寻找与待检测像素xn匹配的聚类中心,匹配条件为:
Figure BDA0002292832510000065
其中,d4表示亮度距离阈值,d5表示色差距离阈值。检测阶段的亮度距离阈值、色差距离阈值可以和建模阶段的取值不同,即允许d4≠d1、d5≠d2
(ii)若存在匹配的聚类中心ci,则视xn为背景,并更新背景模型:
Figure BDA0002292832510000071
(iii)若不存在匹配的聚类中心,则视xn为前景;
前景检测阶段结束,转到步骤3的背景模型建立阶段。
本发明的优点在于:本发明的方法在不同光照条件和动态背景下都具有较好的效果。在保证分割准确性的同时,又有较快的处理速度,具有较好的综合性能。
附图说明
下面结合附图对本发明的具体实施例做进一步详细说明。
图1是本发明采用的背景建模阶段和前景检测阶段交替进行的方法示意图。
图2是本发明的像素间亮度距离和色差距离示意图。
图3是数据集PDD中pedestrains视频图像序列的第901帧。
图4是数据集PDD中pedestrains视频图像序列的第931帧。
图5是数据集PDD中pedestrains视频图像序列的第961帧。
图6是数据集PDD中pedestrains视频图像序列的第991帧。
图7是本发明方法对图3的分割结果。
图8是本发明方法对图4的分割结果。
图9是本发明方法对图5的分割结果。
图10是本发明方法对图6的分割结果。
图11是数据集PDD中office视频图像序列的其中一帧。
图12是SGM对图11的分割结果。
图13是GMM对图11的分割结果。
图14是Kernel对图11的分割结果。
图15是DeepBS对图11的分割结果。
图16是本发明的方法对图11的分割结果。
具体实施方式
一种视频图像目标的智能化分割方法,采用背景模型建立阶段和前景检测阶段交替进行的方式,如图1所示,在YUV颜色空间使用一种新的颜色空间距离度量和一种新的类周期性动态背景处理方法,在建模阶段利用最大连续未获匹配时间长度参数有效区分前景与背景,该方法具体包括如下步骤:
步骤1:设监控视频的帧率为fFPS,帧序号为n,T1和T2分别为背景模型建立阶段和前景检测阶段的周期,当1≤n≤T1f时,为建立背景模型建立阶段;当T1f≤n≤(T1+T2)f时,为前景检测阶段。
步骤2:将像素xn=(R,G,B)的像素值由RGB颜色空间转换到YUV颜色空间,得到(明)亮度分量Yn和两个色差分量Un、Vn,转换公式如下:
Figure BDA0002292832510000081
步骤3:建立基于像素值时间序列聚类的背景模型:
(1)参数初始化:n=1,L=0,其中L表示背景模型中聚类中心的数目;
(2)对帧号从1到T1f的每一帧图像进行以下循环操作:
(i)计算亮度距离和色差距离。
本发明采用了一种新的颜色空间距离度量。YUV空间中的两像素色差距离等于一个像素到过另一个像素且与Y轴平行的直线的垂线段的长度。YUV空间中的两像素亮度距离等于它们的亮度分量的比值与1的差的绝对值。色差距离和亮度距离的度量的含义如图2所示。设待检测像素xm与背景模型聚类中心ci的连线与Y轴平行,则它们的U、V分量分别相等,亮度距离f1为:
Figure BDA0002292832510000091
色差距离f2为:
f2(xm,ci)=0 (3)
待检测像素x′m与聚类中心ci的亮度距离f1为:
Figure BDA0002292832510000092
色差距离f2为:
Figure BDA0002292832510000093
(ii)确定阈值。选取固定摄像机在一个时间段内的监控视频。并从视频图像中选取固定的三个像素位置A、B、C作为采样点,每5分钟记录一次各采样点的像素值并转换到YUV空间。设采样点A的像素值序列为(Yj,Uj,Vj),j=1,2,…,M,聚类中心的像素值为
Figure BDA0002292832510000094
通过求极值方式求解公式(6)、(7),即可确定采样点A的聚类中心
Figure BDA0002292832510000095
Figure BDA0002292832510000096
Figure BDA0002292832510000097
A点处亮度距离阈值的计算公式为:
Figure BDA0002292832510000098
A点处色差距离阈值的计算公式为:
Figure BDA0002292832510000099
同理,可根据采样点B、C的像素值序列计算采样点B、C处的亮度阈值和色差阈值d1B、d2B、d1C、d2C。进一步,得到亮度距离阈值d1和色差距离阈值d2
Figure BDA0002292832510000101
Figure BDA0002292832510000102
(iii)寻找与xn匹配的聚类中心。匹配条件如公式(12)所示。在聚类中心集合Cn-1={ci|i=1,2,…,L}中,聚类中心ci的亮度为
Figure BDA0002292832510000103
色差分量为/>
Figure BDA0002292832510000104
和/>
Figure BDA0002292832510000105
当环境光照发生变化时,像素值在经过背景模型聚类中心ci且与Y轴近似平行的直线上移动。若检测到像素值与ci的亮度距离小于阈值d1,则判断此像素为背景像素。判断像素值是否位于过ci且与Y轴近似平行的直线上的条件是它们的色差距离是否小于阈值d2。当ci确定后,通过与之匹配而判断为背景像素的待检测像素的集合构成一个半径为d2、高度为2d1、中心为ci的圆柱体,如图2所示。
Figure BDA0002292832510000106
(iv)若存在匹配的聚类中心ci,则将xn归为第i类背景像素,并更新ci
Figure BDA0002292832510000107
其中,α、β分别为亮度分量和色差分量的学习速率。同时更新其它未获得匹配的聚类中心cj:τjc←τjc+1,τjh←max{τjhjc},1≤j≤L且j≠i。τjc表示包含当前帧在内的最近一段未获匹配图像序列的帧数,τjh表示整个背景建模周期T1内所有未获匹配图像序列的帧数的最大值。设某像素在周期T1内共有m段未获匹配图像序列,各段序列的帧数分别为(τjc)j,则:
Figure BDA0002292832510000108
(v)若不存在匹配的聚类中心或
Figure BDA0002292832510000111
则L←L+1,创建一个新的聚类中心cL=xn,τLh←n-1,τLc←0。同时更新其他聚类中心cj:τjc←τjc+1,τjh←max{τjhjc},1≤j≤L-1。
(3)利用公式(15)滤除那些最大连续未获匹配时间长度超过阈值d3的聚类中心,背景建模阶段结束,得到聚类中心集合Cn的背景模型,
Cn←{ci|ci∈Cnih<d3} (15)
其中,阈值d3是根据实验数据确定的。设采样点A的背景模型为CA,聚类中心数目为LA,各聚类中心的最大连续未获匹配时间长度为τi,i=1,2,…,LA,其最大值为:
Figure BDA0002292832510000112
在时间段T1f内从采样点A多次经过,时间随机,得到采样点A的背景模型C′A,聚类中心数目为L′A,各聚类中心的最大连续未获匹配时间长度为τ′i,i=1,2,…,L′A,则最大连续未获匹配时间长度的阈值为:
Figure BDA0002292832510000113
同理,可根据采样点B、C的像素值序列计算采样点B、C处的最大连续未获匹配时间长度的阈值d3B、d3C,则:
Figure BDA0002292832510000114
由于随机因素的影响导致多次实验计算得到的d3取值不尽相同,也可按照经验将d3的值设置为背景建模阶段帧数的一半,即:
Figure BDA0002292832510000115
背景模型建立阶段结束,转到步骤4的前景检测阶段。
步骤4:前景检测阶段,具体包括:
(1)对帧号从T1f到(T1+T2)f的每一帧图像进行以下循环操作:
(i)在背景模型Cn-1={ci|i=1,2,…,L}中寻找与待检测像素xn匹配的聚类中心,匹配条件为:
Figure BDA0002292832510000121
其中,d4表示亮度距离阈值,d5表示色差距离阈值。检测阶段的亮度距离阈值、色差距离阈值可以和建模阶段的取值不同,即允许d4≠d1、d5≠d2
(ii)若存在匹配的聚类中心ci,则视xn为背景,并更新背景模型:
Figure BDA0002292832510000122
(iii)若不存在匹配的聚类中心,则视xn为前景。
(2)前景检测阶段结束,转到步骤3的背景模型建立阶段。
步骤3的背景模型建立阶段和步骤4的前景检测阶段涉及的主要参数设置如表1所示。
表1视频图像目标的智能化分割方法的参数
Figure BDA0002292832510000123
Figure BDA0002292832510000131
用数据集PDD的pedestrians和office视频序列对本发明方法进行检验。视频序列pedestrians中,草坪本身是动态背景,且受光照变化的影响,本发明的方法能正确分割其为背景。在行人运动过程中,行人区域的分割都比较准确。行人的影子也在不断“运动”,影子区域像素值的变化是一种突变,当超过了YUV空间亮度和色差距离阈值时,则被当成前景,反映出本发明的方法仅具有分割能力,不具备目标识别能力。结果如图3-10所示。将本发明的方法与SGM、GMM、Kernel和DeepBS进行比较,结果如图11-16和表2所示。综合三种指标来看,SGM和GMM的准确性最差,处理速度最快;DeepBS的准确性最好,处理速度最慢;Kernel和本发明的方法的性能指标居中,且本发明的方法的准确性和处理速度都稍优于Kernel。
表2不同视频对象分割算法的性能比较
Figure BDA0002292832510000132
本发明的方法能在有限的存储空间里长时间获取结构化的背景运动,可为动态背景建立紧凑的模型;能克服光照对背景建模和前景检测的影响;在建模和检测阶段之间周期性地切换,以满足视频监控长时间不间断运行的应用需求。本发明的方法具有较好的分割准确性和较高的处理速度,比较适用于客流统计、交通流视频监控、工业自动化监控以及安全防范等场景的视频对象分割。
此处公开的仅为本发明的优选实施例,本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,并不是对发明的限定。任何本领域技术人员在说明书范围内所做的修改和变化,均应落在本发明保护的范围内。

Claims (3)

1.一种视频图像目标的智能化分割方法,其特征在于:采用背景模型建立阶段和前景检测阶段交替进行的方式,包括如下步骤:
步骤1:设监控视频的帧率为fFPS,帧序号为n,T1和T2分别为背景模型建立阶段和前景检测阶段的周期;
当1≤n≤T1f时,为建立背景模型建立阶段;
当T1f≤n≤(T1+T2)f时,为前景检测阶段;
步骤2:将像素xn=(R,G,B)的像素值由RGB颜色空间转换到YUV颜色空间,得到亮度分量Yn和两个色差分量Un、Vn,转换公式如下:
Figure FDA0004011607830000011
步骤3:建立基于像素值时间序列聚类的背景模型,包括:
计算待检测像素与聚类中心的亮度距离和色差距离;
确定阈值;
寻找与待检测像素匹配的聚类中心;
若存在匹配的聚类中心,则将待检测像素归为聚类中心代表的类别,并更新聚类中心;若不存在匹配的聚类中心或聚类中心集合为空集,则创建一个新的聚类中心,同时更新其他聚类中心;
对背景建模周期内的视频帧重复执行上述步骤;
滤除最大连续未获匹配时间长度超过阈值的聚类中心,得到聚类中心集合的背景模型,背景模型建立阶段结束,转到步骤4;
步骤4:前景检测阶段,包括:
在背景模型中寻找与待检测像素匹配的聚类中心;
若存在匹配的聚类中心,则视待检测像素为背景,并更新背景模型;
若不存在匹配的聚类中心,则视待检测像素为前景;
对前景检测周期内的视频帧重复执行上述步骤;
前景检测阶段结束,转到步骤3。
2.如权利要求1所述的一种视频图像目标的智能化分割方法,其特征在于:
所述步骤3,具体包括:
参数初始化:n=1,L=0,其中L表示背景模型中聚类中心的数目,对帧号从1到T1f的每一帧图像进行以下循环操作:
(i)计算亮度距离和色差距离;
亮度距离为:YUV空间中的两像素色差距离等于一个像素到过另一个像素且与Y轴平行的直线的垂线段的长度;
色差距离为:YUV空间中的两像素亮度距离等于它们的亮度分量的比值与1的差的绝对值;
设待检测像素xm与背景模型聚类中心ci的连线与Y轴平行,则它们的U、V分量分别相等,亮度距离f1为:
Figure FDA0004011607830000021
色差距离f2为:
f2(xm,ci)=0 (3)
待检测像素x'm与聚类中心ci的亮度距离f1为:
Figure FDA0004011607830000022
色差距离f2为:
Figure FDA0004011607830000023
(ii)确定阈值:
选取固定摄像机在一个时间段内的监控视频,并从视频图像中选取固定的三个像素位置A、B、C作为采样点,每5分钟记录一次各采样点的像素值并转换到YUV空间;设采样点A的像素值序列为(Yj,Uj,Vj),j=1,2,…,M,聚类中心的像素值为
Figure FDA0004011607830000031
通过求极值方式求解公式(6)、(7),即可确定采样点A的聚类中心
Figure FDA0004011607830000032
Figure FDA0004011607830000033
Figure FDA0004011607830000034
A点处亮度距离阈值的计算公式为:
Figure FDA0004011607830000035
A点处色差距离阈值的计算公式为:
Figure FDA0004011607830000036
同理,可根据采样点B、C的像素值序列计算采样点B、C处的亮度阈值和色差阈值d1B、d2B、d1C、d2C;进一步,得到亮度距离阈值d1和色差距离阈值d2
Figure FDA0004011607830000037
Figure FDA0004011607830000038
(iii)寻找与xn匹配的聚类中心;匹配条件如公式(12)所示;在聚类中心集合Cn-1={ci|i=1,2,…,L}中,聚类中心ci的亮度为
Figure FDA0004011607830000039
色差分量为
Figure FDA00040116078300000310
Figure FDA00040116078300000311
当环境光照发生变化时,像素值在经过背景模型聚类中心ci且与Y轴近似平行的直线上移动;若检测到像素值与ci的亮度距离小于阈值d1,则判断此像素为背景像素;判断像素值是否位于过ci且与Y轴近似平行的直线上的条件是它们的色差距离是否小于阈值d2;当ci确定后,通过与之匹配而判断为背景像素的待检测像素的集合构成一个半径为d2、高度为2d1、中心为ci的圆柱体;
Figure FDA0004011607830000041
(iv)若存在匹配的聚类中心ci,则将xn归为第i类背景像素,并更新ci
Figure FDA0004011607830000042
其中,α、β分别为亮度分量和色差分量的学习速率;同时更新其它未获得匹配的聚类中心cj:τjc←τjc+1,τjh←max{τjhjc},1≤j≤L且j≠i;τjc表示包含当前帧在内的最近一段未获匹配图像序列的帧数,τjh表示整个背景建模周期T1内所有未获匹配图像序列的帧数的最大值;设某像素在周期T1内共有m段未获匹配图像序列,各段序列的帧数分别为(τjc)j,则:
Figure FDA0004011607830000043
(v)若不存在匹配的聚类中心或
Figure FDA0004011607830000044
则L←L+1,创建一个新的聚类中心cL=xn,τLh←n-1,τLc←0;同时更新其他聚类中心cj:τjc←τjc+1,τjh←max{τjhjc},1≤j≤L-1;
利用公式(15)滤除那些最大连续未获匹配时间长度超过阈值d3的聚类中心,背景建模阶段结束,得到聚类中心集合Cn的背景模型,
Cn←{ci|ci∈Cnih<d3} (15)
其中,阈值d3是根据实验数据确定的;设采样点A的背景模型为CA,聚类中心数目为LA,各聚类中心的最大连续未获匹配时间长度为τi,i=1,2,…,LA,其最大值为:
Figure FDA0004011607830000045
在时间段T1f内从采样点A多次经过,时间随机,得到采样点A的背景模型C'A,聚类中心数目为L'A,各聚类中心的最大连续未获匹配时间长度为τ'i,i=1,2,…,L'A,则最大连续未获匹配时间长度的阈值为:
Figure FDA0004011607830000051
同理,可根据采样点B、C的像素值序列计算采样点B、C处的最大连续未获匹配时间长度的阈值d3B、d3C,则:
Figure FDA0004011607830000052
由于随机因素的影响导致多次实验计算得到的d3取值不尽相同,也可按照经验将d3的值设置为背景建模阶段帧数的一半,即:
Figure FDA0004011607830000053
背景模型建立阶段结束,转到步骤4的前景检测阶段。
3.如权利要求2所述的一种视频图像目标的智能化分割方法,其特征在于:
所述步骤4,具体包括:
对帧号从T1f到(T1+T2)f的每一帧图像进行以下循环操作:
(i)在背景模型Cn-1={ci|i=1,2,…,L}中寻找与待检测像素xn匹配的聚类中心,匹配条件为:
Figure FDA0004011607830000054
其中,d4表示亮度距离阈值,d5表示色差距离阈值;检测阶段的亮度距离阈值、色差距离阈值可以和建模阶段的取值不同,即允许d4≠d1、d5≠d2
(ii)若存在匹配的聚类中心ci,则视xn为背景,并更新背景模型:
Figure FDA0004011607830000055
(iii)若不存在匹配的聚类中心,则视xn为前景;
前景检测阶段结束,转到步骤3的背景模型建立阶段。
CN201911187932.0A 2019-11-28 2019-11-28 一种视频图像目标的智能化分割方法 Active CN111160099B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911187932.0A CN111160099B (zh) 2019-11-28 2019-11-28 一种视频图像目标的智能化分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911187932.0A CN111160099B (zh) 2019-11-28 2019-11-28 一种视频图像目标的智能化分割方法

Publications (2)

Publication Number Publication Date
CN111160099A CN111160099A (zh) 2020-05-15
CN111160099B true CN111160099B (zh) 2023-03-24

Family

ID=70556204

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911187932.0A Active CN111160099B (zh) 2019-11-28 2019-11-28 一种视频图像目标的智能化分割方法

Country Status (1)

Country Link
CN (1) CN111160099B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7475959B2 (ja) * 2020-05-20 2024-04-30 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN112288047B (zh) * 2020-12-25 2021-04-09 成都索贝数码科技股份有限公司 基于概率分布转换聚类的广播电视新闻拆条方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116894A (zh) * 2013-01-31 2013-05-22 南京邮电大学 一种动态控制的前景提取方法
CN105825234A (zh) * 2016-03-16 2016-08-03 电子科技大学 一种融合超像素和背景模型的前景检测方法
CN106097366A (zh) * 2016-03-24 2016-11-09 南京航空航天大学 一种基于改进的Codebook前景检测的图像处理方法
CN106504264A (zh) * 2016-10-27 2017-03-15 锐捷网络股份有限公司 视频前景图像提取方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101686338B (zh) * 2008-09-26 2013-12-25 索尼株式会社 分割视频中的前景和背景的系统和方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116894A (zh) * 2013-01-31 2013-05-22 南京邮电大学 一种动态控制的前景提取方法
CN105825234A (zh) * 2016-03-16 2016-08-03 电子科技大学 一种融合超像素和背景模型的前景检测方法
CN106097366A (zh) * 2016-03-24 2016-11-09 南京航空航天大学 一种基于改进的Codebook前景检测的图像处理方法
CN106504264A (zh) * 2016-10-27 2017-03-15 锐捷网络股份有限公司 视频前景图像提取方法和装置

Also Published As

Publication number Publication date
CN111160099A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
WO2022099598A1 (zh) 一种基于图像像素相对统计特征的视频动态目标检测的方法
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN112257569B (zh) 一种基于实时视频流的目标检测和识别方法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN107358141B (zh) 数据识别的方法及装置
CN111353448A (zh) 基于相关性聚类和时空约束的行人多目标跟踪方法
CN105741319B (zh) 基于盲目更新策略和前景模型的改进视觉背景提取方法
Fradi et al. Robust foreground segmentation using improved gaussian mixture model and optical flow
CN111160099B (zh) 一种视频图像目标的智能化分割方法
Brebion et al. Real-time optical flow for vehicular perception with low-and high-resolution event cameras
Kim et al. Foreground objects detection using a fully convolutional network with a background model image and multiple original images
Chebli et al. Pedestrian detection based on background compensation with block-matching algorithm
CN102314681A (zh) 基于子镜头分割的自适应关键帧提取方法
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
Zhang et al. An optical flow based moving objects detection algorithm for the UAV
CN113052136A (zh) 一种基于改进Faster RCNN的行人检测方法
CN114120202B (zh) 一种基于多尺度目标模型和特征融合的半监督视频目标分割方法
CN115512263A (zh) 一种面向高空坠物的动态视觉监测方法及装置
CN110830734B (zh) 一种突变和渐变镜头切换识别方法及系统
Wang et al. Video Smoke Detection Based on Multi-feature Fusion and Modified Random Forest.
Lin et al. Improving motion state change object detection by using block background context
Li et al. Image object detection algorithm based on improved Gaussian mixture model
Zhao et al. An improved VIBE algorithm for fast suppression of ghosts and static objects

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant