CN101587591A - 基于双参数阈值分割的视觉精确跟踪技术 - Google Patents

基于双参数阈值分割的视觉精确跟踪技术 Download PDF

Info

Publication number
CN101587591A
CN101587591A CNA2009100849258A CN200910084925A CN101587591A CN 101587591 A CN101587591 A CN 101587591A CN A2009100849258 A CNA2009100849258 A CN A2009100849258A CN 200910084925 A CN200910084925 A CN 200910084925A CN 101587591 A CN101587591 A CN 101587591A
Authority
CN
China
Prior art keywords
target
image
tracking
barycenter
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2009100849258A
Other languages
English (en)
Other versions
CN101587591B (zh
Inventor
贾英民
倪娜
曹镝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN2009100849258A priority Critical patent/CN101587591B/zh
Publication of CN101587591A publication Critical patent/CN101587591A/zh
Application granted granted Critical
Publication of CN101587591B publication Critical patent/CN101587591B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出一种基于图像特征的运动目标精确跟踪技术,具体为一种基于双参数阈值分割的视觉精确跟踪技术,采取H、S双参数阈值分割和距离滤波相结合的图像处理方法,只利用一个安装在追踪运动体上的视觉敏感器对参考运动体的进行实时跟踪,从而实现了对移动目标的精确定位,该方法简便、实时性好且跟踪精度高。

Description

基于双参数阈值分割的视觉精确跟踪技术
技术领域
本发明属于计算机视觉领域,具体涉及一种基于图像特征的运动目标精确跟踪技术。
背景技术
经过几十年的迅速发展,机器人领域越来越系统化、成熟化。各种类型的机器人已经越来越广泛的应用于现代工业、军事、航天、医疗、交通、服务以及人类生活的许多领域。而智能移动型机器人作为机器人研究领域的一个重要而典型的研究方向,越来越受到国内外研究机构的重视,成为当今机器人工业界的一个活跃的分支。近年来国内外的许多工业智能移动机器人的技术有了很大的发展,而西方各国又投入了更多的经费用于研制应用于社会服务和人类生活领域的各种类型的服务型智能移动机器人。
移动机器人导航技术是智能移动机器人领域的一个重要研究方向,也是智能移动机器人的一项关键技术。在过去的几十年中,国际国内有大量的科技工作者致力于移动机器人导航技术的研究,对很多关键导航技术问题,如多传感器融合导航、机器人自定位、场景模型建立、障碍检测及路径规划等等,取得了长足的进步和较清晰的认识。在某些特定的工业应用领域,移动机器人导航技术已获得了实际应用。
计算机视觉作为模仿生物视觉的一种技术,它的生物机理到现在仍然不是很清楚,很多心理学家、生理学家和认知学家一直在努力的探讨和研究这个问题,并且做着把脑认知方面的研究向计算机应用方面进行转化的努力。作为计算机视觉的应用,移动机器人的导航研究在引入视觉信息后有了很大的发展,解决了很多以前使用传统传感器很难解决的问题,对于在超声波、激光和红外等传统导航方式并不是很适合的非结构场景的自然环境下,利用视觉传感器解决移动机器人的自定位问题有较大优势。利用视觉的方法具有探测距离远,环境特征较好识别等特点,可以充分的发挥图像处理和模式识别领域已有成果的优势,使得一些在非结构环境下的机器人自定位问题开始逐步走向解决。
基于视觉的精确跟踪技术是指一种通过图像处理与分析的方法,从图像信号中实时自动识别目标,准确获取目标位置信息,并精确跟踪目标运动的技术。基于视觉信息的跟踪技术是以图像处理技术为核心,有机融合了计算机技术、传感器技术、自动控制、模式识别、人工智能等多种理论和技术的新型技术,它依靠成像技术获得更加丰富的目标信息,通过目标与真实空间信息之间的相互关系,有效减少机动估计延时、提高跟踪性能。
根据识别方法的差别,视觉跟踪可以分为基于图像分割的跟踪、基于活动轮廓的跟踪和基于模板匹配的区域跟踪。
1.基于图像分割的跟踪方法一直是视觉跟踪的主要方法,分割的线索包括了图像强度、颜色、运动、纹理、灰度直方图等,依据给定的特征将目标区域从图像中分割出来。
2.基于活动轮廓跟踪方法的思想是活动轮廓在模拟的外力和内力作用下向物体边缘靠近的过程。这类方法的特点是从整体上识别物体,在物体具有变形、背景复杂和局部被遮挡的情况下,仍可以得到较为满意的跟踪效果,具有较强的鲁棒性。但是这种方法要求被跟踪物体具有清晰的轮廓,尤其当出现局部遮挡现象时更有这样的要求。
3.基于模板匹配的区域跟踪的基本思想是按像素对感兴趣的区域进行匹配,计算目标图像与区域图像的相关值。其方法要求目标的外形基本上保持不变,这就不允许目标位置、光照条件快速变化,也不允许遮挡现象的发生。该方法通常计算量较大,计算时间较长。
在对图像进行分割时,需要选择恰当的模型空间求取阈值。对同一颜色属性物体,在光照种类、照度、物体反射特性等不同条件下,测得的RGB颜色值分布很分散,3个变量互相关联变化,很难确定阈值范围。而HSI模型符合人眼对颜色的感觉,H具有较稳定和较窄的变化范围,因此选H作为一个阈值。但是当I较小时,根据HSI的定义,H的值趋向不确定,不能作为单一的识别依据,因此本发明采取H与S相结合的阈值作为分割的依据。
在实际中,需要综合考虑目标视觉跟踪算法的精确度、计算复杂度以及通用性等方面,折衷进行处理。
发明内容
本发明的目的在于提出一种基于图像特征的运动目标精确跟踪方法,结合视觉传感、数字图像处理和目标识别等相关技术,实现了对移动目标的精确定位,该方法简便、实时性好且跟踪精度高。
本发明利用一个安装在追踪运动体上的视觉敏感器(摄像机)实现对参考运动体的实时跟踪。为达到上述目的,如图1所示,本发明的技术方案具体是这样实现的:
1.对待跟踪的目标物体离线求取颜色分割阈值,选取色调H和饱和度S作为阈值分割的判别依据;
2.对目标图像进行颜色空间转换,然后与1中确定的阈值进行比较,剔除背景,分割出需要跟踪目标;
3.在2得到的目标区域中选取距离初始点一定范围内的像素点作为跟踪目标,剔除干扰点,进行距离滤波;
4.随着被跟踪物体的运动,由3得到的目标区域点确定质心;
5.确保被跟踪目标始终成像在图像坐标系的中心位置,以此来驱动追踪物体运动,实现实时的精确跟踪。
本发明有以下一些技术特征:
(1)步骤1所述的离线求取颜色分割阈值的原始图像是RGB格式的彩色图像;
(2)步骤1所述的离线求取颜色分割阈值是在HSI颜色空间中进行的,基于性能和效率的权衡考虑,我们选取色调H和饱和度S作为阈值分割的判别依据;
(3)步骤1所述的离线求取颜色分割阈值中分割阈值的选取是通过以下步骤实现的:用图像采集卡得到多幅数字化的RGB彩色图像,通过人机交互确定被跟踪对象,将该局部彩色图像转化为HSI模型,对其H、S两个分量分别作直方图得到选定区域的H、S阈值,并求平均值作为分割阈值;
(4)步骤2所述的颜色信息滤波就是对图像采集卡实时采集的每幅图像与(3)中确定的阈值进行比较,剔除背景,分割出需要跟踪目标的边缘;
(5)步骤3所述的距离信息滤波是为了保证提取目标的准确性,我们从(4)得到的目标区域中选取距离初始点一定范围内的像素点作为跟踪目标,剔除干扰点;
(6)步骤4所述的求取质心必须满足有足够多的像素点,否则把(5)中选取的目标进行异常处理,即不予进行质心求取运算,并保持上一帧图像质心,返回到步骤1采集下一时刻图像;
(7)步骤5所述的追踪目标运动体的过程就是保证目标物体质心成像在图像中心位置。
本发明采用了基于图像的H、S双参数阈值分割和距离滤波相结合的图像处理方法,实时准确地识别出目标物体,得到物体的质心,从而实现对目标运动体的精确跟踪。该方法识别精度高,实时性强,具有很高的应用价值。
附图说明
图1为基于视觉的精确跟踪技术流程图;
图2为被追踪目标图像H参数直方图;
图3为被追踪目标图像S参数直方图;
图4为对目标进行颜色分割后的图像;
图5为距离滤波后的图像;
图6为跟踪目标质心在图像坐标系中的运动轨迹。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例对本发明进一步详细说明。
本发明实现的系统平台采用CCD摄像头和图像采集卡作为图像的采集系统,采集彩色图像大小为320像素×240像素,以RGB格式的位图方式保存。位图由像素点矩阵组成,每个像素点都有一个像素值,表示特定颜色的强度,用R,G,B三个颜色分量表示,每个颜色分量用一个字节表示,数值在0到255之间。
由于HSI模型可以在一定程度上避免RGB模型的高分散性和高相关性所带来的阈值划分问题,我们在HSI空间进行颜色滤波。
从RGB颜色空间到HSI颜色空间的转换公式为:
I = max ( R , G , B ) 255 , S = 1 - min ( R , G , B ) I × 255 , F = 2 × R - G - B G - B
H = 90 - tan - 1 ( F 3 ) × 360 / ( 2 π ) , G > B 90 - tan - 1 ( F 3 ) × 360 / ( 2 π ) + 180 , G > B 0 , G = B
基于性能和效率的权衡考虑,我们选取色调H和饱和度S作为阈值分割的判别依据。首先拍摄10幅目标物体图像,然后对每幅图像手动选取被跟踪目标的矩形区域,并将彩色图像转化为HSI模式,做H和S直方图如图2、图3所示,得到选定区域的H和S阈值(Hmin,Hmax)和(Smin,Smax),其中Hmin<H<Hmax,Smin<S<Smax,Hmin、Hmax、Smin、Smax分别为区域图像色调和饱和度的最小阈值和最大阈值;最后求出平均确定分割阈值(Hmin,Hmax)和(Smin,Smax)。
这相当于一个离线的学习过程,在随后的实时图像识别中,该阈值作为物体分割的标准。每幅实时采集的图像在进行去噪处理后都与该阈值进行比较,从而分割出物体,找到物体的图像边缘,如图4所示。在被跟踪物体没有发生变化且光线没有强烈变化的情况下,都不需要进行重新学习,直至跟踪过程完成。
由于采集图像的背景比较复杂,只进行颜色滤波不能保证物体分割的准确性,所以我们再进行一次距离滤波,剔除干扰信息。就是把经过颜色分割后得到的目标点中距离选取的初始化点30个像素范围内的点作为被跟踪目标点,如图5所示。
如果得到的目标点个数小于5,我们认为没有正确识别出物体,返回对下一刻采集的图像进行识别;如果得到的目标点个数大于5,我们就进行质心求取。质心坐标计算公式为:
x ‾ = Σ i = 1 n x i p ( x i , y i ) p ( x i , y i ) ,
y ‾ = Σ i = 1 n y i p ( x i , y i ) p ( x i , y i )
其中,(x,y)为质心坐标;n为目标区域占据的像素个数;(xi,yi)为第i个像素的坐标;p(xi,yi)为第i个像素的H、S值的分布概率。质心算法计算简单,计算量小,特别适合于对称图像的中心计算,算法的优点在于充分利用了对称图像中的每一点的概率分布值,因此具有较高的质心坐标计算精度。
图6为经过图像处理得到的目标质心在图像中的坐标,可以看到大部分点分布在(160,120)附近范围。随着被跟踪物体的运动,其在图像中的坐标也在发生变化,当目标质心偏离中心点时,摄像机会自动开始跟踪,驱动追踪物体运动,保证被跟踪目标始终成像在图像坐标系的中心位置,实现实时的精确跟踪。

Claims (7)

1、基于双参数阈值分割的视觉精确跟踪技术,对待跟踪的目标物体上的参照物离线求取参数色调H和饱和度S的分割阈值,然后对目标图像进行颜色空间转换,然后与确定的阈值进行比较,剔除背景,分割出需要跟踪目标,再进行距离滤波并确定目标质心,通过相应的算法控制被跟踪目标始终成像在图像坐标系的中心位置,以此来驱动追踪物体运动,实现实时的精确跟踪。其特征在于,该方法包括:
颜色空间转换;
离线求取颜色分割双参数阈值;
距离滤波;
确定质心。
2、根据权利要求1所述的方法,其特征在于,用图像采集卡得到多幅数字化的RGB彩色图像,通过人机交互确定被跟踪对象,将该局部彩色图像转化为HSI模型。
3、根据权利要求1所述的方法,其特征在于,离线求取颜色分割双参数阈值是在HSI颜色空间中进行的,基于性能和效率的权衡考虑,我们选取色调H和饱和度S作为阈值分割的判别依据。
4、根据权利要求1或3所述的方法,其特征在于,颜色信息滤波就是对图像采集卡实时采集的每幅图像与3中确定的阈值进行比较,剔除背景,分割出需要跟踪目标的边缘。
5、根据权利要求1所述的方法,其特征在于,我们从4得到的目标区域中选取距离初始点一定范围内的像素点作为跟踪目标,剔除干扰点。
6、根据权利要求1所述的方法,其特征在于,求取质心必须满足有足够多的像素点,否则把5中选取的目标进行异常处理,即不予进行质心求取运算,并保持上一帧图像质心,然后采集下一时刻图像。
7、根据权利要求1所述的方法,其特征在于,保证目标物体质心成像在图像中心位置。
CN2009100849258A 2009-05-27 2009-05-27 基于双参数阈值分割的视觉精确跟踪方法 Active CN101587591B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100849258A CN101587591B (zh) 2009-05-27 2009-05-27 基于双参数阈值分割的视觉精确跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100849258A CN101587591B (zh) 2009-05-27 2009-05-27 基于双参数阈值分割的视觉精确跟踪方法

Publications (2)

Publication Number Publication Date
CN101587591A true CN101587591A (zh) 2009-11-25
CN101587591B CN101587591B (zh) 2010-12-08

Family

ID=41371826

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100849258A Active CN101587591B (zh) 2009-05-27 2009-05-27 基于双参数阈值分割的视觉精确跟踪方法

Country Status (1)

Country Link
CN (1) CN101587591B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853507A (zh) * 2010-06-03 2010-10-06 浙江工业大学 一种仿射传播聚类的细胞分类方法
CN104236521A (zh) * 2013-06-14 2014-12-24 科沃斯机器人科技(苏州)有限公司 用于自移动机器人的线激光测距方法
CN104331903A (zh) * 2014-10-25 2015-02-04 北京航空航天大学 一种基于水黾食物定位的移动目标渐进定位跟踪方法
CN104718559A (zh) * 2012-10-22 2015-06-17 诺基亚技术有限公司 对图像采样进行分类
CN103063209B (zh) * 2012-12-28 2015-12-02 中北大学 基于动态双元热释电传感器网络的运动目标定位方法
CN105205503A (zh) * 2015-08-28 2015-12-30 重庆恢恢信息技术有限公司 基于众包主动学习用于检测异常图片的方法
CN105446333A (zh) * 2015-11-10 2016-03-30 中辰环能技术(株洲)有限公司 视觉agv导航系统
CN106780561A (zh) * 2016-12-30 2017-05-31 南京理工大学 一种用于视觉跟踪的具有光照鲁棒性的色空间构建方法
CN107305378A (zh) * 2016-04-20 2017-10-31 上海慧流云计算科技有限公司 一种图像处理追踪物体的机器人及追踪物体的方法
CN111094893A (zh) * 2017-07-28 2020-05-01 高通股份有限公司 机器人式运载工具的图像传感器初始化
CN112634356A (zh) * 2020-12-30 2021-04-09 欧普照明股份有限公司 跟踪方法及系统、电子设备
CN114518116A (zh) * 2022-02-17 2022-05-20 广州大学 一种基于跟踪导引线的视觉导航方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100393486C (zh) * 2004-07-13 2008-06-11 中国科学院自动化研究所 一种基于物体表面颜色的快速跟踪方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853507A (zh) * 2010-06-03 2010-10-06 浙江工业大学 一种仿射传播聚类的细胞分类方法
CN101853507B (zh) * 2010-06-03 2012-05-23 浙江工业大学 一种仿射传播聚类的细胞分类方法
US10096127B2 (en) 2012-10-22 2018-10-09 Nokia Technologies Oy Classifying image samples
CN104718559A (zh) * 2012-10-22 2015-06-17 诺基亚技术有限公司 对图像采样进行分类
CN104718559B (zh) * 2012-10-22 2018-05-01 诺基亚技术有限公司 用于图像处理的方法和设备
CN103063209B (zh) * 2012-12-28 2015-12-02 中北大学 基于动态双元热释电传感器网络的运动目标定位方法
CN104236521A (zh) * 2013-06-14 2014-12-24 科沃斯机器人科技(苏州)有限公司 用于自移动机器人的线激光测距方法
CN104331903B (zh) * 2014-10-25 2017-03-29 北京航空航天大学 一种基于水黾食物定位的移动目标渐进定位跟踪方法
CN104331903A (zh) * 2014-10-25 2015-02-04 北京航空航天大学 一种基于水黾食物定位的移动目标渐进定位跟踪方法
CN105205503A (zh) * 2015-08-28 2015-12-30 重庆恢恢信息技术有限公司 基于众包主动学习用于检测异常图片的方法
CN105205503B (zh) * 2015-08-28 2018-09-18 重庆恢恢信息技术有限公司 基于众包主动学习用于检测异常图片的方法
CN105446333A (zh) * 2015-11-10 2016-03-30 中辰环能技术(株洲)有限公司 视觉agv导航系统
CN107305378A (zh) * 2016-04-20 2017-10-31 上海慧流云计算科技有限公司 一种图像处理追踪物体的机器人及追踪物体的方法
CN106780561A (zh) * 2016-12-30 2017-05-31 南京理工大学 一种用于视觉跟踪的具有光照鲁棒性的色空间构建方法
CN106780561B (zh) * 2016-12-30 2020-04-17 南京理工大学 一种用于视觉跟踪的具有光照鲁棒性的色空间构建方法
CN111094893A (zh) * 2017-07-28 2020-05-01 高通股份有限公司 机器人式运载工具的图像传感器初始化
CN112634356A (zh) * 2020-12-30 2021-04-09 欧普照明股份有限公司 跟踪方法及系统、电子设备
CN114518116A (zh) * 2022-02-17 2022-05-20 广州大学 一种基于跟踪导引线的视觉导航方法

Also Published As

Publication number Publication date
CN101587591B (zh) 2010-12-08

Similar Documents

Publication Publication Date Title
CN101587591B (zh) 基于双参数阈值分割的视觉精确跟踪方法
CN111797716B (zh) 一种基于Siamese网络的单目标跟踪方法
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN109949375A (zh) 一种基于深度图感兴趣区域的移动机器人目标跟踪方法
CN101477631B (zh) 图像中提取目标的方法、设备及人机交互系统
CN105046206B (zh) 基于视频中运动先验信息的行人检测方法及装置
CN110443827A (zh) 一种基于改进孪生网络的无人机视频单目标长期跟踪方法
CN108573221A (zh) 一种基于视觉的机器人目标零件显著性检测方法
CN107330376A (zh) 一种车道线识别方法及系统
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN104794721B (zh) 一种基于多尺度斑点检测的快速视盘定位方法
CN103325126A (zh) 一种在尺度变化和遮挡情况下的视频目标跟踪方法
CN102982518A (zh) 红外与可见光动态图像的融合方法及装置
CN102184551A (zh) 结合多种特征匹配和粒子滤波的目标自动跟踪方法及系统
CN110232389A (zh) 一种基于绿色作物特征提取不变性的立体视觉导航方法
Nassu et al. A vision-based approach for rail extraction and its application in a camera pan–tilt control system
CN106197452A (zh) 一种视觉图像处理设备及系统
CN106951870A (zh) 主动视觉注意的监控视频显著事件智能检测预警方法
CN106326860A (zh) 基于视觉的手势识别方法
CN103324284A (zh) 基于人脸和眼部检测的鼠标控制方法
CN102289822A (zh) 一种多摄像机协同跟踪运动目标的方法
CN101635031A (zh) 小样本人物轮廓特征提取与识别方法
CN107274437A (zh) 一种基于卷积神经网络的视觉跟踪方法
CN110021029A (zh) 一种适用于rgbd-slam的实时动态配准方法及存储介质
CN108089695A (zh) 一种控制可移动设备的方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Free format text: FORMER OWNER: JIA YINGMIN NI NUO

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20100702

Address after: 100191 Haidian District, Xueyuan Road, No. 37,

Applicant after: Beihang University

Address before: 100191 Haidian District, Xueyuan Road, No. 37,

Applicant before: Beihang University

Co-applicant before: Jia Yingmin

Co-applicant before: Ni Na

C14 Grant of patent or utility model
GR01 Patent grant