CN104574435B - 基于块聚类的运动相机前景分割方法 - Google Patents

基于块聚类的运动相机前景分割方法 Download PDF

Info

Publication number
CN104574435B
CN104574435B CN201410493430.1A CN201410493430A CN104574435B CN 104574435 B CN104574435 B CN 104574435B CN 201410493430 A CN201410493430 A CN 201410493430A CN 104574435 B CN104574435 B CN 104574435B
Authority
CN
China
Prior art keywords
track
locus
region
points
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410493430.1A
Other languages
English (en)
Other versions
CN104574435A (zh
Inventor
刘煜
张茂军
王炜
熊志辉
尹晓晴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN201410493430.1A priority Critical patent/CN104574435B/zh
Publication of CN104574435A publication Critical patent/CN104574435A/zh
Application granted granted Critical
Publication of CN104574435B publication Critical patent/CN104574435B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20152Watershed segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像信息处理领域,具体公开了一种基于块聚类的运动相机前景分割方法,首先利用光流法在运动场景中进行点跟踪,获得整个场景区域的点轨迹;再通过对点轨迹进行分类以分别获得前景点轨迹和背景点轨迹,并去除掉错误轨迹;然后将视频图像分割为前景和背景区域,对于不包含点轨迹的区域,求解区域质心运动轨迹,并将区域轨迹与前景和背景轨迹比较判断该区域是否属于前景或背景,最终实现前景分割方法。本方法能够获得更高精度的点轨迹分类结果和准确的目标边缘,并能够弥补由于点轨迹不准确造成的误检测问题。

Description

基于块聚类的运动相机前景分割方法
技术领域
本发明属于图像信息处理领域,涉及运动相机拍摄视频的前景分割方法。
背景技术
视频前景分割在计算机视觉和视频图像处理领域应用广泛,对目标检测、识别与跟踪具有非常重要的意义。一些传统的前景分割方法在拍摄相机静止时能够取得理想效果,但在相机运动的情况下难以发挥作用。基于点轨迹的运动分析[1]是处理运动相机前景分割的有效方法,但该方法不能精确保持前景运动目标的边缘,且由于点轨迹的误差造成部分前景区域丢失,影响了实际应用效果。
现有的基于点轨迹的方法是:首先通过光流法获得场景点轨迹,然后对点轨迹进行分类[2],确定前景和背景点轨迹。但由于光流法本身的局限性仍可能出现少量的错误轨迹,需要在此基础上进一步过滤前景点轨迹,去除错误轨迹。
发明内容
本发明为解决运动相机拍摄视频的前景分割技术问题,提供一种基于块聚类的运动相机前景分割方法,能够获得更高精度的点轨迹分类结果和准确的目标边缘,并能够弥补由于点轨迹不准确造成的误检测问题。
本发明是采用以下技术方案实现的:
一种基于块聚类的运动相机前景分割方法,其特征在于,包括如下步骤:
S1、利用光流法在运动场景中进行点跟踪,获得整个场景区域的点轨迹;根据点轨迹的位置和形状信息进行分类,分别获得前景点轨迹和背景点轨迹。
S2、对视频图像进行预处理,然后再此基础上采用基于标记的改进分水岭算法,对整个场景区域的视频图像进行分割;
S3、分别将包含前景点和背景点的区域划分为前景和背景区域,对于不包含点轨迹的区域,确定区域轨迹,判断该区域是否属于前景,最后获得整个场景区域的前景区域。
所述S1步骤还包括,采用RobustPCA算法对获得的前景点轨迹进行检测,去除前景点轨迹中的错误轨迹。
所述步骤S2中对视频图像进行预处理包括如下步骤:
首先采用双边滤波方法对图像进行平滑处理,如下式所示,
I ( θ ) = ∫ f ( α ) exp [ ( θ - α ) 2 - 2 σ d 2 ] exp [ ( f ( θ ) - f ( α ) ) - 2 σ r 2 ] dα
其中σd和σr表示双边滤波器在空间域和亮度范围内的标准偏差,θ和α表示空间索引值,f和I分别为原始图像和滤波结果;
再利用Sobel边缘检测算子计算原始图像的边缘信息,然后将边缘信息进一步叠加到原始图像上,增强图像边缘,如下式所示:
I=keIe+koIo
其中Io和Ie分别表示原始图像和边缘图像,ko,ke为权重系数。
所述步骤S3中确定区域轨迹的方法包括以下步骤:
S31、提取该区域质心;
S32、通过块匹配方法确定质心轨迹;
S33、用质心轨迹表示区域运动轨迹,通过与前景点、背景点轨迹进行比较,确定该区域是否属于前景或背景。
本发明所述方法的设计原理是,首先利用现有的光流法在运动场景中进行点跟踪,获得整个场景区域的点轨迹。根据点轨迹的位置和形状信息进行分类,分别获得前景和背景点轨迹,并进一步过滤前景点轨迹,去除错误轨迹。然后对视频图像进行分割,在准确保持边缘的同时抑制过分割。由于图像分割方法能够保持图像中的边缘信息,因此首先对视频图像做分割,从而产生多个局部区域,将包含前景点和背景点的区域分别标记为前景区域和背景区域。对于不包含轨迹点的区域,提取区域质心,通过块匹配方法确定质心轨迹。由于质心具有平移和旋转不变性,可以作为区域特征,因此可以用质心轨迹表示区域运动轨迹,通过与前景点、背景点轨迹进行比较,确定该区域是否属于前景或背景。本发明所述的图像分割方法可采用现有的水岭算法[3]和图割算法[4]等,实现对视频场景进行精确分割。
本发明在图像分割产生的局部区域中,与传统的基于点轨迹的方法相比,本方法能够获得更高精度的点轨迹分类结果和准确的目标边缘,并能够弥补由于点轨迹不准确造成的误检测问题。
附图说明
图1是本发明所述方法的流程图;
图2(a)、(b)是本发明实施例中的两幅源图像;
图3是轨迹初步分类结果。浅色和深色点分别为背景和前景轨迹点;
图4是过滤错误轨迹后的轨迹分类结果。圆圈标记点为检测出的错误前景点;
图5是对图像进行预处理后,利用改进分水岭算法进行图像分割的结果;
图6是质心轨迹示意图。其中黑色点为区域质心;
图7(a)、(b)是图2(a)、(b)所示源图像的前景分割效果。背景为阴暗区域,前景为明亮区域;
具体实施方式
下面结合附图和具体实施方式对本发明作进一步说明。
本发明提供了一种基于块聚类的运动相机前景分割方法,如图1所示,包括如下步骤:
步骤一:对于图2所示的源图像,利用光流法在运动场景中进行点跟踪,获得整个场景区域的点轨迹。根据点轨迹的位置和形状信息进行分类,分别获得前景点轨迹和背景点轨迹,
光流法根据空间运动物体在观察成像平面上的像素运动的瞬时速度,利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性,找到前一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息。根据点轨迹的位置和形状信息进行分类,分别获得前景点轨迹和背景点轨迹,如图3所示。
按照传统方法获得的点轨迹中存在一些错误轨迹(方框标出),需要进一步过滤前景点轨迹,去除错误轨迹。
对于长度为l的轨迹T=[Ps,Ps+1,L,Ps+l-1](P为轨迹节点,Pk=(xk,yk),k=s,s+1,…s+l-1),其中s为轨迹起始点下标。轨迹的位移矢量ΔT定义为:
ΔT=[Ps+l-1-Ps]=[xs+l-1-xs,ys+l-1-ys]
轨迹的位移矢量ΔT可以作为衡量轨迹运动的依据。对于任意两条轨迹Ti,Tj,其运动相似度S(Ti,Tj)可以表示为:
S(Ti,Tj)=||ΔTi-ΔTj||
根据该准则可以对前景和背景点轨迹进行初步分类。但由于光流法自身存在的问题,获得的点轨迹可能存在轨迹点偏差和缺失的情况。根据位移矢量分类无法检测出错误点轨迹,RobustPCA算法[5]能够有效去除信号噪点、提取信号主要特征,因此采用该算法对前景轨迹进行过滤,去除错误轨迹。
以前景点轨迹向量为列向量,构建观测矩阵D:
D = [ T 1 , T 2 , · · · , T N t ] = Δx 1 ( 1 ) Δx 1 ( 2 ) · · · Δx 1 ( N t ) Δy 1 ( 1 ) Δy 1 ( 2 ) · · · Δy 1 ( N t ) · · · · · · · · · Δx N f - 1 ( 1 ) Δx N f - 1 ( 2 ) · · · Δx N f - 1 ( N t ) Δy N f - 1 ( 1 ) Δy N f - 1 ( 2 ) · · · Δy N f - 1 ( N t )
其中Δxi (j)=xi+1 (j)-xi (j),Δyi (j)=yi+1 (j)-yi (j)为轨迹点(xi (j),yi (j))坐标变化量。为第j个轨迹,Nt,Nf分别表示点轨迹和视频帧的数量。
根据RobustPCA算法,可以从观测矩阵中恢复出低秩矩阵A和误差矩阵E,满足:
D=A+E
误差点轨迹对应于误差矩阵非零列,滤除误差点轨迹,并将其他点轨迹作为过滤之后的前景轨迹,提高前景轨迹的精确度。精确的前景和背景点如图4所示。
步骤二:在对图像进行预处理的基础上,采用现有的基于标记的改进分水岭算法,对视频图像进行分割对整个场景区域的视频图像进行分割。
首先采用双边滤波方法[6]对图像进行平滑处理,在保持图像主要边缘信息的同时,减少琐碎的图像细节,缓解过分割问题。
I ( θ ) = ∫ f ( α ) exp [ ( θ - α ) 2 - 2 σ d 2 ] exp [ ( f ( θ ) - f ( α ) ) - 2 σ r 2 ] dα
其中σd和σr表示双边滤波器在空间域和亮度范围内的标准偏差,θ和α表示空间索引值,f和I分别为原始图像和滤波结果。
利用Sobel边缘检测算子[6]计算原始图像的边缘,然后将边缘信息进一步叠加到原始图像上,增强图像边缘:
I=keIe+koIo
其中Io和Ie分别表示原始图像和边缘图像,ko,ke为权重系数。通过提高边缘信息的权重系数,能够加强边缘信息,减少由于边缘造成的分割不准确问题。
在上述图像预处理基础上,采用基于标记的改进分水岭算法对视频图像进行分割,将每一帧图像划分为NR个区域Ri(i=1…NR),分割结果如图5所示。
步骤三:分别将包含前景点和背景点的区域划分为前景和背景区域。对于不包含轨迹点的区域,提取区域质心,通过块匹配方法确定质心轨迹。由于质心具有平移和旋转不变性,可以作为区域特征,如图6所示,因此可以用质心轨迹表示区域运动轨迹,通过与前景点、背景点轨迹进行比较,确定该区域是否属于前景或背景。
首先利用下式求解区域Ri质心(xc (i),yc (i))(i=1…NR):
x c ( i ) = Σ ( x , y ) ∈ R i xI ( x , y ) Σ ( x , y ) ∈ R i I ( x , y ) y c ( i ) = Σ ( x , y ) ∈ R i yI ( x , y ) Σ ( x , y ) ∈ R i I ( x , y )
其中I(x,y)为点(x,y)处的灰度值。取半径为r的质心圆形邻域,利用块匹配方法在相邻帧中搜索匹配块。根据以下3个因素衡量待匹配块Bm (j),Bn (j+1)的差异:
d(Bm (j),Bn (j+1))=k1dh(Bm (j),Bn (j+1))+k1dg(Bm (j),Bn (j+1))+k1ds(Bm (j),Bn (j+1))
d h ( H B m ( j ) , H B n ( j + 1 ) ) = H B m ( j ) H B n ( j + 1 ) | | H B m ( j ) | | 2 | | H B n ( j + 1 ) | | 2 d g ( B m ( j ) , B n ( j + 1 ) ) = | c ‾ ( B m ( j ) ) - c ‾ ( B m j ) | d v ( B m ( j ) , B n ( j + 1 ) ) = | var ( B m ( j ) ) - var ( B m ( j ) ) |
dh因子为颜色直方图H(□)的差异,通过计算颜色直方图向量夹角衡量。dg,dv因子表示匹配块颜色向量统计信息,其中和var(□)分别为颜色向量平均值和方差。设当前帧为fn,在相邻帧fn-s,fn-s+1…fn+s-1,fn+s中搜索匹配块,获得区域质心的运动轨迹:
Tc={(xc (n-s),yc (n-s)),(xc (n-s+1),yc (n-s+1))…(xc (n+s-1),yc (n+s-1)),(xc (n+s),yc (n+s))}
其中(xc (i),yc (i))(i=n-s,i=n-s+1,…,i=n+s)为第i帧中区域质心点,并作为整个区域的运动轨迹。若区域轨迹与前景轨迹一致则将该区域划分为前景,否则作为背景区域。最终的前景分割效果如图7所示。
参考文献
[1]T.BroxandJ.Malik.Objectsegmentationbylongtermanalysisofpointtrajectories.Perspectivesinneuralcomputing,179-193,2010.
[2]Yu-GangJiang,QiDai,XiangyangXue,WeiLiu,andChong-WahNgo,Trajectory-BasedModelingofHumanActionswithMotionReferencePoints,CVPR10,425-438,2010.
[3]高丽,杨树元,夏杰,王诗俊,梁军利,李海强,基于标记的Watershed图像分割新算法,电子学报,34(11),2018-2023,2006.
[4]Y.Boykov,V.Kolmogorov,AnExperimentalComparisonofMin-Cut/Max-FlowAlgorithmsforEnergyMinimizationinVision,IEEETrans.PatternAnalysisandMachineIntelligence,26(9),1124-1137,2004.
[5]JohnWright,YigangPengandYiMa,RobustPrincipalComponentAnalysis:ExactRecoveryofCorruptedLow-RankMatricesbyConvexOptimization,3(10),45-62,2008.
[6]XuezhiYangandDavidA.Clausi,SARSeaIceImageSegmentationBasedonEdge-preservingWatersheds,FourthCanadianConferenceonComputerandRobotVision(CRV'07),189-194,2007。

Claims (3)

1.一种基于块聚类的运动相机前景分割方法,其特征在于,包括如下步骤:
S1、利用光流法在运动场景中进行点跟踪,获得整个场景区域的点轨迹;根据点轨迹的位置和形状信息进行分类,分别获得前景点轨迹和背景点轨迹;
S2、对视频图像进行预处理,然后在此基础上采用基于标记的改进分水岭算法,对整个场景区域的视频图像进行分割;
所述对视频图像进行预处理包括如下步骤:
首先采用双边滤波方法对图像进行平滑处理,如下式所示,
I ( θ ) = ∫ f ( α ) exp [ ( θ - α ) 2 - 2 σ d 2 ] exp [ ( f ( θ ) - f ( α ) ) - 2 σ r 2 ] d α
其中σd和σr表示双边滤波器在空间域和亮度范围内的标准偏差,θ和α表示空间索引值,f和I分别为原始图像和滤波结果;
再利用Sobel边缘检测算子计算原始图像的边缘信息,然后将边缘信息进一步叠加到原始图像上,增强图像边缘,如下式所示:
I=keIe+koIo
其中Io和Ie分别表示原始图像和边缘图像,ko,ke为权重系数;
S3、分别将包含前景点和背景点的区域划分为前景和背景区域,对于不包含点轨迹的区域,确定区域轨迹,判断该区域是否属于前景,最后获得整个场景区域的前景区域。
2.根据权利要求1所述基于块聚类的运动相机前景分割方法,其特征在于,所述S1步骤还包括,采用RobustPCA算法对获得的前景点轨迹进行检测,去除前景点轨迹中的错误轨迹。
3.根据权利要求1所述基于块聚类的运动相机前景分割方法,其特征在于,所述步骤S3中确定区域轨迹的方法包括以下步骤:
S31、提取该区域质心;
S32、通过块匹配方法确定质心轨迹;
S33、用质心轨迹表示区域运动轨迹,通过与前景点、背景点轨迹进行比较,确定该区域是否属于前景或背景。
CN201410493430.1A 2014-09-24 2014-09-24 基于块聚类的运动相机前景分割方法 Active CN104574435B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410493430.1A CN104574435B (zh) 2014-09-24 2014-09-24 基于块聚类的运动相机前景分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410493430.1A CN104574435B (zh) 2014-09-24 2014-09-24 基于块聚类的运动相机前景分割方法

Publications (2)

Publication Number Publication Date
CN104574435A CN104574435A (zh) 2015-04-29
CN104574435B true CN104574435B (zh) 2016-03-02

Family

ID=53090405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410493430.1A Active CN104574435B (zh) 2014-09-24 2014-09-24 基于块聚类的运动相机前景分割方法

Country Status (1)

Country Link
CN (1) CN104574435B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105023278B (zh) * 2015-07-01 2019-03-05 中国矿业大学 一种基于光流法的运动目标跟踪方法及系统
CN109544490B (zh) * 2018-10-17 2021-07-13 北京达佳互联信息技术有限公司 图像增强方法、装置和计算机可读存储介质
CN111611907B (zh) * 2020-05-18 2023-10-31 沈阳理工大学 一种图像增强的红外目标检测方法
CN111563489A (zh) * 2020-07-14 2020-08-21 浙江大华技术股份有限公司 一种目标跟踪方法、装置以及计算机存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101231755A (zh) * 2007-01-25 2008-07-30 上海遥薇实业有限公司 运动目标跟踪及数量统计方法
CN103871076A (zh) * 2014-02-27 2014-06-18 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100738522B1 (ko) * 2004-12-21 2007-07-11 삼성전자주식회사 비디오 감시 시스템에서 카메라/물체 움직임 구분 및 객체추출 장치 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101231755A (zh) * 2007-01-25 2008-07-30 上海遥薇实业有限公司 运动目标跟踪及数量统计方法
CN103871076A (zh) * 2014-02-27 2014-06-18 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法

Also Published As

Publication number Publication date
CN104574435A (zh) 2015-04-29

Similar Documents

Publication Publication Date Title
Luvizon et al. A video-based system for vehicle speed measurement in urban roadways
CN104134222B (zh) 基于多特征融合的车流监控图像检测和跟踪系统及方法
CN102184550B (zh) 一种动平台地面运动目标检测方法
CN104978567B (zh) 基于场景分类的车辆检测方法
Torabi et al. Local self-similarity-based registration of human ROIs in pairs of stereo thermal-visible videos
CN105404857A (zh) 一种基于红外的夜间智能车前方行人检测方法
CN102609720B (zh) 一种基于位置校正模型的行人检测方法
CN104574435B (zh) 基于块聚类的运动相机前景分割方法
CN104123529A (zh) 人手检测方法及系统
Cao et al. Ego motion guided particle filter for vehicle tracking in airborne videos
CN103886619A (zh) 一种融合多尺度超像素的目标跟踪方法
CN109934224A (zh) 基于马尔科夫随机场和视觉对比机制的小目标检测方法
CN104156693A (zh) 一种基于多模态序列融合的动作识别方法
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
Börcs et al. Fast 3-D urban object detection on streaming point clouds
Shen et al. Adaptive pedestrian tracking via patch-based features and spatial–temporal similarity measurement
CN108090485A (zh) 基于多视角融合的图像前景自动提取方法
CN102663777A (zh) 基于多视点视频的目标跟踪方法及系统
CN102289822A (zh) 一种多摄像机协同跟踪运动目标的方法
Zhang Detection and tracking of human motion targets in video images based on camshift algorithms
CN103854290A (zh) 一种结合骨架特征点和分布场描述子的扩展目标跟踪方法
Hu et al. Depth sensor based human detection for indoor surveillance
Xia et al. Automatic multi-vehicle tracking using video cameras: An improved CAMShift approach
Khan et al. Estimating speeds of pedestrians in real-world using computer vision
Kini Real time moving vehicle congestion detection and tracking using OpenCV

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant