CN106651903B - 一种运动物体检测方法 - Google Patents

一种运动物体检测方法 Download PDF

Info

Publication number
CN106651903B
CN106651903B CN201611255054.8A CN201611255054A CN106651903B CN 106651903 B CN106651903 B CN 106651903B CN 201611255054 A CN201611255054 A CN 201611255054A CN 106651903 B CN106651903 B CN 106651903B
Authority
CN
China
Prior art keywords
grid
pixel
point
area
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611255054.8A
Other languages
English (en)
Other versions
CN106651903A (zh
Inventor
谢超
陈从华
陈海沯
任赋
叶德焰
林雅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ming Ming (xiamen) Technology Co Ltd
Original Assignee
Ming Ming (xiamen) Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ming Ming (xiamen) Technology Co Ltd filed Critical Ming Ming (xiamen) Technology Co Ltd
Priority to CN201611255054.8A priority Critical patent/CN106651903B/zh
Publication of CN106651903A publication Critical patent/CN106651903A/zh
Application granted granted Critical
Publication of CN106651903B publication Critical patent/CN106651903B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Abstract

本发明提出一种运动物体检测方法,该方法基于一种改进的单高斯背景模型,该背景模型融合了运动补偿方法,并在像素领域内更新模型参数,而不是逐像素的更新,这样不仅能够进一步消除运动补偿误差,还能够减少计算量,提高算法效率,并且提高动态背景中运动物体检测的精度。

Description

一种运动物体检测方法
技术领域
本发明涉及图像处理领域,具体涉及一种运动物体检测方法。
背景技术
移动物体检测(MOD)是高级驾驶辅助系统(ADAS)中的重要组成部分,特别在汽车起步与倒车时,对于盲区移动物体的准确检测与报警能够保证日常行车安全,避免人身财产损失。但目前ADAS中的移动物体检测技术基本只能应用在汽车静止状态,通过车载摄像机拍摄的连续帧,采用差分法可以很好的解决静态背景中的移动物体检测。然而在汽车起步与倒车等低速环境中仍然需要检测盲区的移动物体,此时车载摄像机拍摄的连续帧中即存在外界物体的运动,也存在由于汽车自身运动造成的背景变化,即动态背景,简单的差分法将无法满足动态背景中移动物体检测的要求。
在动态背景中检测移动物体需要对摄像机的运动进行补偿,一种方法是可以通过车载传感器检测汽车自身的运动状态,从而对摄像机的运动进行补偿,但这样的运动补偿方法受到传感器精度的影响,补偿后的背景图像仍和真实情况存在较大的误差;另一种方法是采用图像处理的算法,通过前后帧图像中特征点的对应关系进行图像变换,从而达到自身运动补偿的效果。但无论采用何种运动补偿方法,补偿误差是不可避免的。
发明内容
针对当前在动态背景中检测运动物体技术的不足,本发明提出一种运动物体检测方法,该方法基于一种改进的单高斯背景模型,该背景模型融合了运动补偿方法,并在像素领域内更新模型参数,而不是逐像素的更新,这样不仅能够进一步消除运动补偿误差,还能够减少计算量,提高算法效率,并且提高动态背景中运动物体检测的精度。
具体方案如下:
一种运动物体检测方法,包括:
S1,采集包含待检测物体的初始帧图像,并计算该帧图像的Harris角点,获取Harris角点集P;
S2,采集包含待检测物体的另一帧图像,获取该帧图像中与初始帧图像的Harris角点集P对应的点集P′;
S3,计算点集P与点集P′之间的单应性矩阵H;
S4,建立基于网格领域的单高斯背景模型:
将图像划分成若干个N×N的网格,记在时间t,第i个网格内的像素点的集合为Pi,网格内像素点的数目为N(Pi),均值为方差为像素点j在时间t时的像素值为背景模型的学习率为α,更新单高斯模型的参数,参数包括均值以及方差
其中,
S5,融合运动补偿更新单高斯背景模型:
假设在t时刻,背景模型参数还停留在t-1时刻,假设运动检测前第i个网格的中心坐标为xi,经过运动补偿后,xi移动到xi′,以单应性矩阵H计算xi′,以xi′为中心的网格区域与周围的网格产生交叠,设有交叠的网格为Ok,网格Ok内所有像素的均值μk,方差为σk,以xi′为中心的网格内所有像素的均值为μi,方差为σi,更新网格i内的参数:
其中wk为各个交叠面积与原网格面积的比值;
S6,判断像素Ij是否为运动物体,若满足:
其中θ为阈值参数,则像素Ij为运动物体,否则不是运动物体。
进一步的,所述的步骤S1中计算Harris角点的方法为非极大值抑制法。
进一步的,所述的步骤S2中获取该帧图像中与初始帧图像的Harris角点集P对应的点集P′的方法为金字塔LK光流法。
进一步的,所述的步骤S3具体包括:由点集P′组成的齐次坐标矩阵A,和点集P组成的齐次坐标矩阵B,则可以得到:
AH=B
单应性矩阵H具体计算步骤如下:
①设置最大迭代次数K,误差阈值E,一致性数据点数阈值Tn,Nmax=0。
②从矩阵A和矩阵B中随机抽取对应的4组点,利用最小二乘法计算单应性矩阵H,将这4组点加入一致性数据集,计算公式如下:
H=(ATA)-1ATB;
③利用H将A中的点变换到B,并利用欧氏距离计算误差e,如果e<E,则将该点加入到一致性数据集,如果e≥E,则将该点从一致性数据集中剔除,记录此时一致性数据集中的点数Nk和此时的单应性矩阵Hk
④若Nk≥Tn,则H=Hk,跳出循环,若Nk<Tn,Nmax=Nk>Nmax?Nk:Nmax,H=Nk>Nmax?Hk:H,k++,跳转至②,若k>K,跳出循环。
进一步的,所述的步骤S4中的网格包括分布在图像中多个区域的区域网格,不同区域的区域网格的大小不同,相同区域内的区域网格的大小相同。
进一步的:所述的区域网格包括中心区域网格、边缘区域网格和位于二者之间的次边缘区域网格,其中次边缘区域网格大于中心区域网格,边缘区域网格大于中心区域网格。
本发明有益效果:本发明的方法基于网格领域的单高斯背景模型,该背景模型综合考虑像素领域,针对车载视频的透视特点采用不等大网格划分背景,并融合了带有运动补偿的背景更新方法,使得普通单高斯模型可以运用到动态背景环境中,并且有效消除运动补偿误差,还能够减少计算量,提高动态背景中运动物体检测的精度。
附图说明
图1为本发明一实施例方法流程图;
图2为本发明一实施例不等分网格图。
具体实施方式
为进一步说明各实施例,本发明提供有附图。这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理。配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点。现结合附图和具体实施方式对本发明进一步说明。
图1为本发明一实施的方法流程图,其具体流程如下:
1.1从车载摄像机采集一帧图像,记为It-1,在It-1中计算Harris角点,一般在Harris角点检测中对角点响应值R使用阈值,当R>TR时,留下满足要求的点。但在本发明的算法中,由于计算Harris角点是为了后续计算单应性矩阵H所需,而且取得的Harris角点应尽可能多的落在图像背景中,因此这里并不使用阈值去筛选角点,而是在图像空间中采用非极大值抑制的方法,在每个小范围内保留|R|最大的点。
1.2再从车载摄像机采集一帧图像,记为It。根据It-1中得到的Harris角点位置与当前帧It,采用金字塔LK光流法计算It-1中每个Harris角点pi在It中的对应点pi′。
1.3设由It-1得到的Harris点集{P|pi∈P,i=0,1,2...N},由点集P在It中计算对应的光流得到点集{P′|p′i∈P′,i=0,1,2...N},点集P与点集P′中的点一一对应,由于使用光流法计算出的对应点对可能存在误差,因此去除大于阈值T的点对,以免对后续计算单应性矩阵造成较大影响。
由点集P′组成的齐次坐标矩阵A,和点集P组成的齐次坐标矩阵B,则可以得到:
AH=B (1)
这里采用RANSAC方法计算单应性矩阵H,具体步骤如下:
①设置最大迭代次数K,误差阈值E,一致性数据点数阈值Tn,Nmax=0。
②从矩阵A和矩阵B中随机抽取对应的4组点,利用最小二乘法计算单应性矩阵H,将这4组点加入一致性数据集,计算公式如下:
H=(ATA)-1ATB (2)。
③利用H将A中的点变换到B,并利用欧氏距离计算误差e,如果e<E,则将该点加入到一致性数据集;如果e≥E,则将该点从一致性数据集中剔除,记录此时一致性数据集中的点数Nk和此时的单应性矩阵Hk
④若Nk≥Tn,则H=Hk,跳出循环,若Nk<Tn,Nmax=Nk>Nmax?Nk:Nmax,H=Nk>Nmax?Hk:H,k++,跳转②。若k>K,跳出循环。
1.4建立基于网格领域的单高斯背景模型。普通的单高斯背景模型在每个像素点上都有一个均值μ和方差σ,但由于运动补偿始终存在误差,因此就不能将每个像素点的观测值直接用来更新模型。本发明提出一种基于网格领域的单高斯背景模型,该模型将整张图像划分成若干个N×N的网格,每个网格中只使用一个均值和方差,记在时间t,第i个网格内的像素点的集合为Pi,网格内像素点的数目为N(Pi),均值为方差为像素点j在时间t时的像素值为背景模型的学习率为α,那么单高斯模型的更新方法如下:
其中:
采用基于网格领域的单高斯背景模型可以让模型学习到运动补偿产生的误差,减少错误。而且在每个网格中只存储一个均值和一个方差,相比普通的单高斯背景模型在每个像素点上都有一个均值和方差,既降低了内存要求也减少了计算量。由于本发明旨在解决车载视频中的移动物体检测问题,车载摄像机一般朝前或者朝后安装,因透视关系造成移动物体在近处变化率较快,在远处变化率较小,如果在整张图中都用相同大小的网格,容易因远处变化率较慢造成漏检测,近处变化率太快造成误检测,因此本发明的一实施例将网格尺寸分为三个大小等级的区域网格,在图像中心附近的网格最小,越往图像边缘的网格越大,区域网格包括中心区域网格、边缘区域网格和位于二者之间的次边缘区域网格,其中次边缘区域网格大于中心区域网格,边缘区域网格大于中心区域网格。网格如图2所示,需要说明的是,在其他的实施例中,可以按需求相应的划分网格尺寸以及等级数,但也需满足图像中心附近的网格小,而越靠近图像边缘的网格越大。
1.5融合运动补偿的背景模型更新。该方法使用1.3中计算的单应性矩阵,在运动补偿时对背景模型做一次更新,使背景建模方法在动态背景问题中得到应用。假设在t时刻,此时的背景模型参数还停留在t-1时刻,在运动检测前需要根据运动补偿对背景模型参数做一次更新。假设第i个网格的中心坐标为xi,经过运动补偿后,xi移动到xi′,此时以xi′为中心的网格区域与周围的网格产生交叠,设有交叠的网格为Ok,网格Ok内所有像素的均值μk,方差为σk,以xi′为中心的网格内所有像素的均值为μi,方差为σi,更新网格i内的参数:
其中wk为各个交叠面积与原网格面积的比值。
1.6经过背景模型的更新后,使用如下方法判断像素Ij是否为运动物体,若满足
其中θ为阈值参数,则判断像素Ij为运动物体,否则判断像素Ij不是运动物体。
本发明提出基于网格领域的单高斯背景模型,该背景模型综合考虑像素领域,针对车载视频的透视特点采用不等大网格划分背景,并融合了带有运动补偿的背景更新方法,使得普通单高斯模型可以运用到动态背景环境中,并且有效消除运动补偿误差,还能够减少计算量,提高动态背景中运动物体检测的精度。
尽管结合优选实施方案具体展示和介绍了本发明,但所属领域的技术人员应该明白,在不脱离所附权利要求书所限定的本发明的精神和范围内,在形式上和细节上可以对本发明做出各种变化,均为本发明的保护范围。

Claims (6)

1.一种运动物体检测方法,其特征在于,包括:
S1,采集包含待检测物体的初始帧图像,并计算该帧图像的Harris角点,获取Harris角点集P;
S2,采集包含待检测物体的另一帧图像,获取该帧图像中与初始帧图像的Harris角点集P对应的点集P';
S3,计算点集P与点集P'之间的单应性矩阵H;
S4,建立基于网格领域的单高斯背景模型:
将图像划分成若干个N×N的网格,记在时间t,第i个网格内的像素点的集合为Pi,网格内像素点的数目为N(Pi),均值为方差为像素点j在时间t时的像素值为背景模型的学习率为α,更新单高斯模型的参数,参数包括均值以及方差
其中,为中间变量,
S5,融合运动补偿更新单高斯背景模型:
假设在t时刻,背景模型参数还停留在t-1时刻,假设运动检测前第i个网格的中心坐标为xi,经过运动补偿后,xi移动到xi',以单应性矩阵H计算xi',以xi'为中心的网格区域与周围的网格产生交叠,设有交叠的网格为Ok,网格Ok内所有像素的均值为μk,方差为σk,以xi'为中心的网格内所有像素的均值为μi,方差为σi,更新网格i内的参数:
其中wk为各个交叠面积与原网格面积的比值;
S6,判断像素Ij是否为运动物体,若满足:
其中θ为阈值参数,则像素Ij为运动物体,否则不是运动物体。
2.根据权利要求1所述的运动物体检测方法,其特征在于:所述的步骤S1中计算Harris角点的方法为非极大值抑制法。
3.根据权利要求1所述的运动物体检测方法,其特征在于:所述的步骤S2中获取该帧图像中与初始帧图像的Harris角点集P对应的点集P'的方法为金字塔LK光流法。
4.根据权利要求1所述的运动物体检测方法,其特征在于:所述的步骤S3具体包括:由点集P'组成的齐次坐标矩阵A,和点集P组成的齐次坐标矩阵B,则可以得到:
AH=B
单应性矩阵H具体计算步骤如下:
①设置最大迭代次数K,误差阈值E,一致性数据点数阈值Tn,Nmax=0;
②从矩阵A和矩阵B中随机抽取对应的4组点,利用最小二乘法计算单应性矩阵H,将这4组点加入一致性数据集,计算公式如下:
H=(ATA)-1ATB;
③利用H将A中的点变换到B,并利用欧氏距离计算误差e,如果e<E,则将该点加入到一致性数据集,如果e≥E,则将该点从一致性数据集中剔除,记录此时一致性数据集中的点数Nk和此时的单应性矩阵Hk
④若Nk≥Tn,则H=Hk,跳出循环,若Nk<Tn,Nmax=Nk>Nmax?Nk:Nmax,H=Nk>Nmax?Hk:H,k++,跳转至②,若k>K,跳出循环。
5.根据权利要求1所述的运动物体检测方法,其特征在于:所述的步骤S4中的网格包括分布在图像中多个区域的区域网格,不同区域的区域网格的大小不同,相同区域内的区域网格的大小相同。
6.根据权利要求5所述的运动物体检测方法,其特征在于:所述的区域网格包括中心区域网格、边缘区域网格和位于二者之间的次边缘区域网格,其中次边缘区域网格大于中心区域网格,边缘区域网格大于中心区域网格。
CN201611255054.8A 2016-12-30 2016-12-30 一种运动物体检测方法 Active CN106651903B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611255054.8A CN106651903B (zh) 2016-12-30 2016-12-30 一种运动物体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611255054.8A CN106651903B (zh) 2016-12-30 2016-12-30 一种运动物体检测方法

Publications (2)

Publication Number Publication Date
CN106651903A CN106651903A (zh) 2017-05-10
CN106651903B true CN106651903B (zh) 2019-08-09

Family

ID=58837277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611255054.8A Active CN106651903B (zh) 2016-12-30 2016-12-30 一种运动物体检测方法

Country Status (1)

Country Link
CN (1) CN106651903B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767403A (zh) * 2017-11-06 2018-03-06 佛山市章扬科技有限公司 一种基于动态背景下运动目标检测的方法和装置
CN107992865A (zh) * 2018-01-26 2018-05-04 重庆邮电大学 一种基于视频分析的车辆识别方法和系统
CN109727266A (zh) * 2019-01-08 2019-05-07 青岛一舍科技有限公司 一种基于视频获取纯景致背景的目标人物照片的方法
CN109859200B (zh) * 2019-02-15 2022-03-18 哈尔滨工程大学 一种基于背景分析的低空慢速无人机快速检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9681125B2 (en) * 2011-12-29 2017-06-13 Pelco, Inc Method and system for video coding with noise filtering
US9928628B2 (en) * 2013-05-13 2018-03-27 Nokia Technologies Oy Method, apparatus and computer program product to represent motion in composite images
CN103325112B (zh) * 2013-06-07 2016-03-23 中国民航大学 动态场景中运动目标快速检测方法
CN104331873A (zh) * 2013-07-22 2015-02-04 浙江大学 一种从单幅图像检测道路的方法
CN104637041B (zh) * 2014-12-31 2017-06-23 浙江理工大学 一种基于参照特征的宽幅织物图像获取与拼接方法
CN105227907B (zh) * 2015-08-31 2018-07-27 电子科技大学 基于视频的无监督异常事件实时检测方法

Also Published As

Publication number Publication date
CN106651903A (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
KR101939349B1 (ko) 기계학습모델을 이용하여 자동차용 어라운드 뷰 영상을 제공하는 방법
CN106651903B (zh) 一种运动物体检测方法
CN108367714B (zh) 填充由镜子或其他车辆部件遮挡的周围视野区域
CN102779334B (zh) 一种多曝光运动图像的校正方法及装置
CN109155066B (zh) 用于机动车辆的环境区域的两个图像之间的运动估计的方法,计算装置,驾驶员辅助系统以及机动车辆
CN108052910A (zh) 一种车辆全景成像系统的自动调整方法、装置及存储介质
CN105335955A (zh) 对象检测方法和对象检测装置
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
CN112489136B (zh) 标定方法、位置确定方法、装置、电子设备及存储介质
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN110119679B (zh) 物体三维信息估计方法及装置、计算机设备、存储介质
US9984444B2 (en) Apparatus for correcting image distortion of lens
CN112348752B (zh) 一种基于平行约束的车道线消失点补偿方法及装置
US20200074660A1 (en) Image processing device, driving assistance system, image processing method, and program
CN108182666B (zh) 一种视差校正方法、装置和终端
CN111105452A (zh) 基于双目视觉的高低分辨率融合立体匹配方法
KR101705558B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
US20220319145A1 (en) Image processing device, image processing method, moving device, and storage medium
JP5240517B2 (ja) 車載カメラの校正装置
US11457158B2 (en) Location estimation device, location estimation method, and program recording medium
JP2017020942A (ja) 推定装置及び推定プログラム
CN111738085B (zh) 实现自动驾驶同时定位与建图的系统构建方法及装置
JP6492603B2 (ja) 画像処理装置、システム、画像処理方法、およびプログラム
CN104182993B (zh) 一种目标跟踪的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant