CN103077538B - 仿生模式识别目标自适应跟踪方法 - Google Patents
仿生模式识别目标自适应跟踪方法 Download PDFInfo
- Publication number
- CN103077538B CN103077538B CN201310014606.6A CN201310014606A CN103077538B CN 103077538 B CN103077538 B CN 103077538B CN 201310014606 A CN201310014606 A CN 201310014606A CN 103077538 B CN103077538 B CN 103077538B
- Authority
- CN
- China
- Prior art keywords
- training sample
- training
- target
- neural network
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开一种仿生模式识别目标自适应跟踪方法,主要解决现有技术中鲁棒性较差、对训练样本多样性要求较高的问题。其实现步骤为:(1)获取训练样本集;(2)提取训练样本特征;(3)依据训练样本灰度特征建立超香肠神经网络,依据训练样本编号特征和训练样本尺寸特征建立径向基神经网络;(4)计算超香肠神经网络与搜索区域中所有候选区域之间的欧式距离;(5)采用最小距离法获取目标位置;(6)获得目标位置在超香肠神经网络中的编号,并将其输入径向基神经网络获得目标尺寸。本发明通过对训练样本集中的训练样本进行覆盖式训练,提高了目标跟踪的鲁棒性,减少了对训练样本多样性的依赖,可用于智能机器人、智能交通系统和视频监控等领域。
Description
技术领域
本发明属于目标跟踪领域,更进一步涉及一种仿生模式识别目标自适应跟踪方法,可用于智能机器人、智能交通系统和视频监控等领域。
背景技术
目标跟踪即依据事先给定的目标模板的某些特征如灰度特征、颜色特征、纹理特征、边缘特征等,采用模式识别方法在待跟踪视频图像中搜索目标,确定目标在视频图像中的位置信息和状态信息。现有的模式识别方法有模板匹配方法、BackPropagation神经网络方法等传统模式识别方法。
天津工业大学提出的专利申请“一种基于模板匹配的目标跟踪方法”(专利申请号201010529681.2,公开号CN102004898A)公开了一种基于模板匹配的目标跟踪方法。该方法将模板匹配方法的平移不变性与圆形模板的旋转不变形相结合,在目标发生较小变化时可以精确跟踪到目标。该方法仍存在的不足是对目标的学习能力不足,在目标状态发生较大变化时稳定跟踪的鲁棒性较差。
上海交通大学提出的专利申请“基于神经网络的机动目标精确跟踪方法”(专利申请号02112061.7,公开号CN1382997)公开了一种基于神经网络的机动目标精确跟踪方法。该方法采用训练Back Propagation神经网络调整系统的方法以适应目标的运动变化,对各种运动状态的机动目标具有良好自适应跟踪能力。该方法仍然存在的不足是基于分类划分的Back Propagation神经网络必须对多种不同状态的训练样本进行学习,产生划分的最优分界面才能完成对目标的精确识别,因此对训练样本的多样性要求较高。
传统模式识别方法应用在目标跟踪上存在两个缺陷:一是不具有学习能力的传统模式识别方法,例如模板匹配方法,在目标状态发生较大变化时鲁棒性较差;二是具有学习能力的传统模式识别方法,例如Back Propagation神经网络,必须对多种状态的训练样本进行学习,以产生划分的最优分界面,因此对训练样本的多样性要求较高。
发明内容
本发明的目的在于针对现有传统模式识别方法在目标跟踪中存在的不足,提出一种仿生模式识别目标自适应跟踪方法,通过对训练样本集中的训练样本进行覆盖式训练,提高目标跟踪的鲁棒性和稳定性,减少对训练样本多样性的依赖。
实现本发明的思路是:从训练样本集中提取训练样本特征,建立超香肠神经网络和径向基神经网络,使用欧式距离度量法则在搜索区域内搜索目标,计算超香肠神经网络中扩展样本与搜索区域中测试样本之间的欧式距离,采用最小距离法获得目标位置,将目标位置在超香肠神经网络中的编号输入径向基神经网络获得目标尺寸,从而实现目标的自适应跟踪。具体实现步骤包括如下:
(1)输入一段视频,采用隔帧抽取的方式选择n帧图像,以每帧图像中目标区域为中心截取训练样本,得到n个训练样本,分别将其编号为1,2,...,n,组成训练样本集;
(2)从训练样本集中提取训练样本特征,其特征包括:训练样本编号特征、训练样本灰度特征和训练样本目标尺寸特征;
(3)建立超香肠神经网络和径向基神经网络:
3a)设定覆盖参数α=0.05,覆盖间隔k=1/α,径向基函数个数m=10;
3b)采用向量化方法和标准化方法对训练样本灰度特征进行预处理,并按照覆盖参数α进行加权训练,得到扩展训练样本,将所有扩展训练样本组合形成超香肠神经网络H,再将超香肠神经网络H中所有的扩展样本依次编号作为超香肠神经网络编号特征;
3c)依据覆盖间隔k更新训练样本编号特征,将更新后的训练样本编号特征与训练样本目标尺寸特征一起输入到具有m个互相连接的径向基函数R内进行训练,获得径向基神经网络W;
(4)使用欧式距离度量法则在搜索区域内搜索目标:
4a)输入一帧视频图像作为搜索区域;
4b)在搜索区域内,逐像素选择与训练样本集中训练样本同尺寸的区域作为候选区域,提取候选区域灰度特征,按照步骤3b)的方法对候选区域灰度特征进行预处理后得到测试样本,计算测试样本与超香肠神经网络H中所有扩展样本之间的欧式距离,得到一组超香肠距离;
4c)记录搜索区域内每一候选区域的最小超香肠距离,得到搜索区域距离,记录最小超香肠距离在超香肠编号特征中的编号,得到搜索区域编号;
(5)取搜索区域距离中具有最小距离的位置作为目标位置;
(6)取得搜索区域编号中目标位置处的编号,输入到径向基神经网络W,得到目标尺寸;
(7)在输入的该帧视频图像中标记出目标位置和目标尺寸,重复步骤(4)-步骤(6),直至视频结束。
本发明与现有技术相比有以下优点:
第一,由于本发明采用超香肠神经网络对训练样本进行覆盖式训练,克服了传统模式识别方法在目标跟踪中鲁棒性较差、对训练样本多样性要求高的缺点。
第二,由于本发明采用基于径向基神经网络对训练样本目标尺寸特征进行训练,结合最小距离法获得视频图像中的目标尺寸,克服了现有技术在计算目标尺寸时对图像质量要求较高的缺点。
附图说明
图1为本发明的流程图;
图2为本发明使用的卡车视频中抽取的20帧图像;
图3为本发明使用的卡车视频的训练样本集;
图4为用本发明对卡车视频的仿真结果图。
具体实施措施
下面结合附图对本发明做进一步描述,并给出卡车视频作为实施例进行说明,但不局限于这种视频。
参照图1,对本发明的具体实现如下:
步骤1,输入一段视频,获取训练样本集:
1a)输入大小为512×384像素、长度为1000帧的卡车视频;
1b)从卡车视频的第0帧开始每隔50帧抽取一帧图像,共抽取20帧图像,如图2所示;
1c)从每帧图像中以目标区域为中心截取尺寸为80×90像素的区域作为一个训练样本,共得到20个训练样本,组成训练样本集,如图3所示。
步骤2,从训练样本集中提取训练样本特征:
2a)将训练样本集中的训练样本依次编号,第i个训练样本编号为i=0,1,...,19,用训练样本编号i作为提取的训练样本编号特征A,则训练样本编号特征A可以表示为A={0,1,...,19};
2b)将训练样本集中的训练样本由RGB图像转换为灰度图像,RGB图像中R表示红色通道、G表示绿色通道,B表示蓝色通道,灰度图像中只有灰度通道,将灰度通道作为提取的训练样本灰度特征B,训练样本灰度特征B可以表示为B=[b0,b1,...b19,其中bi表示编号为i的训练样本灰度特征,i=0,1,...,19;
2c)截取训练样本集中每个训练样本的目标区域,将目标区域的尺寸作为提取的训练样本目标尺寸特征C,训练样本目标尺寸特征C可以表示为C=[c0,c1,...,c19],其中ci表示编号为i的训练样本目标尺寸特征,i=0,1,...,19。
步骤3,建立超香肠神经网络H和径向基神经网络W:
3a)设定覆盖参数α=0.05,覆盖间隔k=1/α,径向基函数个数r=10;
3b)将训练样本灰度特征B中每个训练样本灰度特征bi按照先行后列顺序转换为向量的形式,得到训练样本向量B′=[b′0,b′1...,b′19],并采用如下转换公式对其进行转换,得到预处理后训练样本B″=[b0″b″1,...,b″19]:
其中bi′表示编号为i的训练样本向量,b′imin=min{b′i}表示取训练样本向量bi′中的最小值,b′imax=max{b′i}表示取训练样本向量bi′中的最大值,b″i表示编号为i的预处理后训练样本,i=0,1,...,19。
3c)将预处理后训练样本B″中的训练样本b″i-1、b″i按照覆盖参数α进行加权训练,得到一组扩展训练样本:hy={h0,h1,...,hm,...,h18},
其中hm=(1-ωm)×b″i-1+ωm×b″i表示权重为m的扩展训练样本,
ωm=m×α表示权重为m的覆盖参数,m=0,1,...,k-1表示权重,α=0.05表示覆盖参数,k=1α=20表示覆盖间隔,y=0,1,...,18;
3d)将扩展训练样本hy组合形成超香肠神经网络H,该超香肠神经网络H可以表示为H={h0,h1,...,hd,...,h380},其中hd表示编号为d的扩展训练样本,d=0,1,...,380;
3e)将超香肠神经网络H所有的扩展样本的编号作为超香肠神经网络编号特征D,该超香肠神经编号特征D表示为D={0,1,...,380};
3f)依据覆盖间隔k更新训练样本编号特征A={i},得到更新后的训练样本编号特征N={n},更新公式可以表示如下:
n=i×k
其中k=1/α=20表示覆盖间隔,α=0.05表示覆盖参数,i表示编号为i的训练样本编号特征,n表示更新后训练样本编号特征,i=0,1,...,19,n=0,20,...,380;
3g)将更新后的训练样本编号特征N与训练样本目标尺寸特征C一起输入到具有r个互相连接的径向基函数R内进行训练,获得径向基神经网络W;
步骤4,使用欧式距离度量法则在搜索区域内搜索目标:
4a)输入一帧大小为512×384像素的卡车视频图像作为搜索区域;
4b)在搜索区域内中,从起始坐标(x,y)开始选择宽度为80像素高度为90像素的区域作为一个候选区域uxy,所有候选区域组成候选区域集U,该候选区域集U表示为
其中p=384-90=294,q=512-80=532,uxy表示起始坐标为(x,y)的候选区域,x=1,2,...,294,y=1,2,...,532;
4c)将候选区域集U内的每一候选区域uxy由RGB图像转换为灰度图像,将灰度图像中的灰度通道作为提取的候选区域灰度特征u′xy;
4d)将候选区域灰度特征u′xy按照先行后列顺序转换为向量的形式,得到候选区域向量u″xy,并采用如下转换公式对其进行转换,得到测试样本u″′xy:
其中u″xy表示候选区域向量,u″min=min{u″xy}表示取候选区域向量u″xy中的最小值,u″max=max{u″xy}表示取候选区域向量u″xy中的最大值,u″′xy表示测试样本。
4e)计算测试样本u″′xy与超香肠神经网络H中所有扩展样本之间的欧式距离,得到一组超香肠距离h′xy={h′0,h′1,...,h′d,...,h′380},其中h′d=(u″′xy-hd)T(u″′xy-hd),u″′xy表示测试样本,hd表示编号为d的扩展训练样本,d=0,1,...,380;
4f)将搜索区域的所有超香肠距离h′xy中的最小值h″xy组成搜索区域距离H″,该搜索区域距离表示为
其中h″xy=min{h′xy}表示超香肠距离h′xy中的最小值;
4g)将超香肠距离h′xy中的最小值h″xy在超香肠距离h′xy中的编号d″xy组成搜索区域编号D″,该搜索区域编号D″表示为:
其中d″xy表示超香肠距离h′xy中的最小值h″xy在超香肠距离h′xy中的编号。
步骤5,取搜索区域距离H″中具有最小值所在的位置(x0,y0)作为目标区域起始坐标位置,则(x0+45,y0+40)为目标中心位置,其中45为训练样本高度的一半,40为训练样本宽度的一半。
步骤6,将搜索区域编号D″中目标位置(x0,y0)处的编号输入到径向基神经网络W,得到目标尺寸S。
步骤7,在输入的该帧视频图像中标记出目标中心位置(x0+45,y0+40)和目标尺寸S,重复步骤4-步骤6,直至视频结束。
本发明的效果可通过以下仿真实验进一步说明:
在MATLAB软件平台下,采用本发明对大小为512×384像素、长度为1000帧的卡车视频中的卡车进行跟踪,得到卡车视频仿真效果图如图4所示,其中:
图4(a)为卡车视频中第0帧的仿真效果图,该图中黑框的中心位置为目标中心位置,黑框的大小为目标尺寸。
图4(b)为卡车视频中第220帧的仿真效果图,该图中黑框的中心位置为目标中心位置,黑框的大小为目标尺寸。
图4(c)为卡车视频中第580帧的仿真效果图,该图中黑框的中心位置为目标中心位置,黑框的大小为目标尺寸。
图4(d)为卡车视频中第670帧的仿真效果图,该图中黑框的中心位置为目标中心位置,黑框的大小为目标尺寸。
图4(e)为卡车视频中第820帧的仿真效果图,该图中黑框的中心位置为目标中心位置,黑框的大小为目标尺寸。
图4(f)为卡车视频中第1000帧的仿真效果图,该图中黑框的中心位置为目标中心位置,黑框的大小为目标尺寸。
从卡车视频仿真效果图可以看出,采用本发明对卡车进行跟踪,实现了卡车在视频中的准确定位和卡车尺寸的识别,在低对比度的环境下本发明仍然有效。
以上是本发明的一个实例,并不构成对本发明的任何限制。
Claims (4)
1.一种仿生模式识别目标自适应跟踪方法,包括以下步骤:
(1)输入一段视频,采用隔帧抽取的方式选择n帧图像,以每帧图像中目标区域为中心截取训练样本,得到n个训练样本,分别将其编号为1,2,...,n,组成训练样本集;
(2)从训练样本集中提取训练样本特征,其特征包括:训练样本编号特征、训练样本灰度特征和训练样本目标尺寸特征;
(3)建立超香肠神经网络和径向基神经网络:
3a)设定覆盖参数α=0.05,覆盖间隔k=1/α,径向基函数个数m=10;
3b)采用向量化方法和标准化方法对训练样本灰度特征进行预处理,并按照覆盖参数α进行加权训练,得到扩展训练样本,将所有扩展训练样本组合形成超香肠神经网络H,再将超香肠神经网络H中所有的扩展样本依次编号作为超香肠神经网络编号特征;
所述的采用向量化方法和标准化方法对训练样本灰度特征进行预处理,是将训练样本灰度特征按照先行后列的顺序转换为向量的形式,得到训练样本向量,并采用如下转换公式对其进行转换,得到预处理后的训练样本:
其中,x表示训练样本向量,xmin=min{x}表示取训练样本向量x中的最小值,xmax=max{x}表示取训练样本向量x中的最大值,y表示预处理后的训练样本;
3c)依据覆盖间隔k更新训练样本编号特征,将更新后的训练样本编号特征与训练样本目标尺寸特征一起输入到具有m个互相连接的径向基函数R内进行训练,获得径向基神经网络W;
(4)使用欧式距离度量法则在搜索区域内搜索目标:
4a)输入一帧视频图像作为搜索区域;
4b)在搜索区域内,逐像素选择与训练样本集中训练样本同尺寸的区域作为候选区域,提取候选区域灰度特征,按照步骤3b)的方法对候选区域灰度特征进行预处理后得到测试样本,计算测试样本与超香肠神经网络H中所有扩展样本之间的欧式距离,得到一组超香肠距离;
4c)记录搜索区域内每一候选区域的最小超香肠距离,得到搜索区域距离,记录最小超香肠距离在超香肠编号特征中的编号,得到搜索区域编号;
(5)取搜索区域距离中具有最小距离的位置作为目标位置;
(6)取得搜索区域编号中目标位置处的编号,输入到径向基神经网络W,得到目标尺寸;
(7)在输入的该帧视频图像中标记出目标位置和目标尺寸,重复步骤(4)-步骤(6),直至视频结束。
2.根据权利要求1所述的仿生模式识别目标自适应跟踪方法,其特征在于,步骤(1)所述的采用隔帧抽取的方式选择n帧图像,是从输入的视频中每隔t帧抽取一帧图像,一共抽取n=L/t帧图像,其中L表示视频长度。
3.根据权利要求1所述的仿生模式识别目标自适应跟踪方法,其特征在于,步骤(2)所述的从训练样本集中提取训练样本特征,按照如下步骤进行:
2a)将训练样本集中的训练样本依次编号,将训练样本编号作为提取的训练样本编号特征;
2b)将训练样本集中的训练样本由RGB图像转换为灰度图像,RGB图像中R表示红色通道、G表示绿色通道,B表示蓝色通道,灰度图像中只有灰度通道,将灰度通道作为提取的训练样本灰度特征;
2c)截取训练样本集中训练样本的目标区域,将目标区域的尺寸作为提取的训练样本目标尺寸特征。
4.按照权利要求1所述的仿生模式识别目标自适应跟踪方法,其特征在于,步骤4b)所述的计算测试样本与超香肠神经网络H中所有扩展样本之间的欧式距离,利用如下公式计算:
d=(g-h)T(g-h),
其中g表示测试样本,h表示超香肠神经网络H中扩展样本,T表示转置运算,d表示测试样本g与超香肠神经网络H中扩展样本h之间的欧式距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310014606.6A CN103077538B (zh) | 2013-01-15 | 2013-01-15 | 仿生模式识别目标自适应跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310014606.6A CN103077538B (zh) | 2013-01-15 | 2013-01-15 | 仿生模式识别目标自适应跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103077538A CN103077538A (zh) | 2013-05-01 |
CN103077538B true CN103077538B (zh) | 2015-06-03 |
Family
ID=48154057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310014606.6A Expired - Fee Related CN103077538B (zh) | 2013-01-15 | 2013-01-15 | 仿生模式识别目标自适应跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103077538B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903279B (zh) * | 2014-03-21 | 2017-07-25 | 上海大学 | 基于仿生双目视觉机载平台的并行跟踪系统与方法 |
CN104299245B (zh) * | 2014-10-13 | 2017-12-26 | 深圳先进技术研究院 | 基于神经网络的增强现实跟踪方法 |
US11449750B2 (en) * | 2017-05-26 | 2022-09-20 | Deepmind Technologies Limited | Training action selection neural networks using look-ahead search |
CN107272418A (zh) * | 2017-07-27 | 2017-10-20 | 青岛格莱瑞智能控制技术有限公司 | 一种基于多内涵自调节神经网络的仿生智能控制方法 |
CN107895378A (zh) * | 2017-10-12 | 2018-04-10 | 西安天和防务技术股份有限公司 | 目标检测方法和装置、存储介质、电子设备 |
CN108197582B (zh) * | 2018-01-10 | 2021-09-14 | 武汉理工大学 | 基于深度学习的海事雷达图像处理方法 |
CN110084790B (zh) * | 2019-04-17 | 2020-11-17 | 电子科技大学成都学院 | 用于影像学肺炎判别的仿生模式识别改进方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1738426A (zh) * | 2005-09-09 | 2006-02-22 | 南京大学 | 一种视频运动目标分割与跟踪方法 |
US7069257B2 (en) * | 2002-06-27 | 2006-06-27 | Industrial Technology Research Institute | Pattern recognition method for reducing classification errors |
CN101299233A (zh) * | 2008-04-08 | 2008-11-05 | 西安交通大学 | 基于fpga实现的运动目标识别与跟踪装置及方法 |
-
2013
- 2013-01-15 CN CN201310014606.6A patent/CN103077538B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7069257B2 (en) * | 2002-06-27 | 2006-06-27 | Industrial Technology Research Institute | Pattern recognition method for reducing classification errors |
CN1738426A (zh) * | 2005-09-09 | 2006-02-22 | 南京大学 | 一种视频运动目标分割与跟踪方法 |
CN101299233A (zh) * | 2008-04-08 | 2008-11-05 | 西安交通大学 | 基于fpga实现的运动目标识别与跟踪装置及方法 |
Non-Patent Citations (1)
Title |
---|
一种基于概率神经网络多信息融合的移动目标跟踪算法;王昊;《上海交通大学学报》;20070531;第41卷(第5期);792-796 * |
Also Published As
Publication number | Publication date |
---|---|
CN103077538A (zh) | 2013-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103077538B (zh) | 仿生模式识别目标自适应跟踪方法 | |
CN111062973B (zh) | 基于目标特征敏感性和深度学习的车辆跟踪方法 | |
CN104331682B (zh) | 一种基于傅里叶描述子的建筑物自动识别方法 | |
CN108803617A (zh) | 轨迹预测方法及装置 | |
CN103077531B (zh) | 基于边缘信息的灰度目标自动跟踪方法 | |
JP6924517B2 (ja) | ディープニューラルネットワーク基盤の多重パッチ組み合わせを利用して顔を認識し、極度の状況でフォールトトレランス及びフラクチュエーションロバスト性を向上させる方法 | |
CN103413352A (zh) | 基于rgbd多传感器融合的场景三维重建方法 | |
CN105139412A (zh) | 一种高光谱图像角点检测方法与系统 | |
CN106355602A (zh) | 一种多目标定位跟踪视频监控方法 | |
CN103440510A (zh) | 一种面部图像中特征点的定位方法 | |
CN107808386A (zh) | 一种基于图像语义分割的海天线检测方法 | |
CN104517317A (zh) | 一种车载红外图像三维重建方法 | |
CN102799646B (zh) | 一种面向多视点视频的语义对象分割方法 | |
CN103065131A (zh) | 一种复杂场景下自动目标识别跟踪方法及系统 | |
CN109767454A (zh) | 基于时-空-频显著性的无人机航拍视频运动目标检测方法 | |
CN104933678A (zh) | 一种基于像素强度的图像超分辨率重建方法 | |
CN103065136A (zh) | 一种基于视觉注意机制的sar图像协同目标识别方法 | |
CN105120517A (zh) | 基于多维尺度分析的室内wlan信号平面图构建与定位方法 | |
CN111599007B (zh) | 一种基于无人机航拍的智慧城市cim道路贴图方法 | |
CN104732546A (zh) | 区域相似性和局部空间约束的非刚性sar图像配准方法 | |
CN106651917A (zh) | 基于神经网络的图像目标跟踪算法 | |
CN105184317A (zh) | 一种基于svm分类的车牌字符分割方法 | |
CN109754424A (zh) | 基于融合特征和自适应更新策略的相关滤波跟踪算法 | |
CN103218829B (zh) | 一种适应于动态背景的前景提取方法 | |
CN103996207A (zh) | 一种物体跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150603 Termination date: 20200115 |
|
CF01 | Termination of patent right due to non-payment of annual fee |