CN105469423A - 一种基于连续吸引子神经网络的在线目标跟踪方法 - Google Patents

一种基于连续吸引子神经网络的在线目标跟踪方法 Download PDF

Info

Publication number
CN105469423A
CN105469423A CN201510785470.8A CN201510785470A CN105469423A CN 105469423 A CN105469423 A CN 105469423A CN 201510785470 A CN201510785470 A CN 201510785470A CN 105469423 A CN105469423 A CN 105469423A
Authority
CN
China
Prior art keywords
network
target
neuron
input
input matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510785470.8A
Other languages
English (en)
Other versions
CN105469423B (zh
Inventor
吴思
高奇
弭元元
林小涵
夏燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Normal University
Original Assignee
Beijing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Normal University filed Critical Beijing Normal University
Priority to CN201510785470.8A priority Critical patent/CN105469423B/zh
Publication of CN105469423A publication Critical patent/CN105469423A/zh
Application granted granted Critical
Publication of CN105469423B publication Critical patent/CN105469423B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于连续吸引子神经网络的在线目标跟踪方法,包括如下步骤:S1,根据连续吸引子神经网络模型建立网络,根据网络状态调节神经元状态关键参数到供实际跟踪使用的参数域;S2,接收监控图像,对当前帧做差分操作得到差分图,根据指导位置和差分图得到输入矩阵;S3,将输入矩阵作为网络的输入,输入到建立的网络中;S4,使网络演化时间阈值长度,得到目标的预测位置;S5,使用目标的预测位置更新指导位置的数据,重复步骤S2~S4,在后续帧整合目标的预测位置,继续跟踪。该方法在目标跟踪过程中根据目标的预测位置实时对网络进行调整,有效地满足了对目标跟踪的准确性和实时性要求。

Description

一种基于连续吸引子神经网络的在线目标跟踪方法
技术领域
本发明涉及一种目标跟踪方法,尤其涉及一种基于连续吸引子神经网络的在线目标跟踪方法,属于机器视觉技术领域。
背景技术
随着计算机技术的飞速发展,目标跟踪技术作为计算机视觉领域的基础步骤,广泛应用于交通管制、医疗诊断、人机交互以及军事侦察等领域;通过目标跟踪技术,系统可以在连续的图像序列中,自动且快速得获取目标在视频或图像中的位置、大小和形状等信息。
目标跟踪技术在过去一些年被广泛的研究,但涉及不同的应用场景时所需求或使用的跟踪算法大不相同。目前,在视频监控、视频压缩、人机交互等多个领域,目标跟踪技术都展现了广阔的应用空间和前景。而现有的目标跟踪方法一般为:选取一帧无运动目标的图像作为背景图像,对于当前获取的一帧图像,将该帧图像与背景图像相减,得到该帧图像包括的每个像素点分别与在背景图像中对应的像素点之间的差值,获取差值大于预设阈值的像素点,然后由此来判定获取的像素点为出现在运动目标上的像素点,根据获取的像素点确定目标的位置、大小和形状。现有的目标跟踪方法可以有效提取运动目标的信息,但是常常噪音较大,限制了跟踪算法的准确性。而且,对背景图像的准确性要求非常高,当外部环境变化时,背景图像将发生变化,很可能丢失目标,除此之外,在目标跟踪过程中不能根据目标的预测位置进行实时调整,严重限制了对目标跟踪的准确性和实时性。
为了解决上述问题,考虑将日渐成熟的生物神经网络引入到目标跟踪的方法中。生物神经网络中的连续吸引子神经网络,是一种循环神经网络。作为一种基本生物神经网络模型,被提出已有多年,目前可以较好的阐释包括跟踪在内的多种生物神经机制。
负反馈调节机制,是一种广泛存在于实际神经网络活动中的机制。研究表明,整合负反馈调节机制,可以对多种神经网络模型的活动产生影响。尤其是,整合负反馈调节机制的连续吸引子网络,增强了其原有的跟踪特性。
但到目前为止,还没有将生物神经网络跟踪机制应用于实际目标跟踪的实例,以实现对在线目标的实时跟踪。
发明内容
针对现有技术的不足,本发明所要解决的技术问题在于提供一种基于连续吸引子神经网络的在线目标跟踪方法。
为实现上述发明目的,本发明采用下述的技术方案:
一种基于连续吸引子神经网络的在线目标跟踪方法,包括如下步骤:
S1,根据连续吸引子神经网络模型建立网络,根据网络状态调节神经元状态关键参数,使所述神经元状态关键参数在供实际跟踪使用的参数域内;
S2,接收监控图像,对当前帧做差分操作得到差分图,根据指导位置和差分图得到输入矩阵;
S3,将输入矩阵作为网络的输入,输入到建立的网络中;
S4,使网络演化时间阈值长度,得到目标的预测位置;
S5,使用目标的预测位置更新指导位置的数据,重复步骤S2~S4,在后续帧中整合目标的预测位置,对目标位置继续跟踪。
其中较优地,在步骤S1中,根据连续吸引子神经网络模型建立网络,包括如下步骤:
S101,根据图片的像素尺寸确定网络的形态,将所述吸引子神经网络模型中的所有神经元节点均匀分布在二维矩形网格的节点处;
S102,生成神经元的描述量,包括:膜电位、发放率,并引入负反馈调节机制;
S103,按照规则生成网络联接矩阵,根据连接权重公式,初始化每一个神经元节点到网络其余节点的连接权重,建立网络。
其中较优地,在步骤S102中,引入负反馈调节机制包括如下步骤:
在每一个神经元节点上采用微分方程得到负反馈大小V(x,t);
其中,V(x,t)为每个神经元对自身施加的负反馈大小,U(x,t)为神经元膜电位的当前值;
将求得的负反馈大小作用在神经元膜电位的当前值上,随着时间的变化,实时调节神经元膜电位的当前值。
其中较优地,在步骤S103中,所述连接权重公式为在网络中,神经元节点x连接到x′的权重满足的函数,即:
J ( x , x ′ ) = J o 2 πa 2 exp [ - ( x - x ′ ) 2 2 a 2 ]
其中,J(x,x′)为在网络中位置为x的神经元节点与位置为x′的神经元节点的连接权重;a为高斯分布的方差;J0为高斯分布的尺度因子。
其中较优地,在步骤S1中,根据网络状态调节神经元状态关键参数,使所述节神经元状态关键参数在供实际跟踪使用的参数域内;具体包括如下步骤:
S111,为网络中的神经元状态关键参数设置初始值;
S112,确定一个神经元状态关键参数作为变化量,其他神经元状态关键参数为常量,调节网络的全局抑制因子,使得连续吸引子出现;
S113,调节负反馈调节因子,检验连续吸引子网络的移动性,改变作为变化量的神经元状态关键参数的值,确定网络为可供实际跟踪使用时,作为变化量的神经元状态关键参数的参数域;
S114,改变确定为变化量的神经元状态关键参数,重复步骤S112~S113,确定神经元状态关键参数的参数域,并将神经元状态关键参数设置在参数域内。
其中较优地,在步骤S2中,接收监控图像,对当前帧做差分操作得到差分图,根据指导位置和差分图得到输入矩阵,包括如下步骤:
S21,读取一帧图像,转化成灰度图;
S22,若当前帧为第一帧,则保存当前帧为参考帧,返回步骤S21;否则,设当前帧为待处理帧;
S23,将待处理帧减去参考帧,得到差分图像;
S24,用矩形滤波器对差分图像进行空域均值滤波,得到滤波图像;
S25,对滤波图像进行二值化处理,得到二值图像;
S26,对二值图像进行以指导位置为中心的高斯过滤,得到输入矩阵。
其中较优地,第一次对获取的二值图像进行高斯过滤时,所述指导位置为需要跟踪的原始目标位置,随着目标移动,所述指导位置为后续用网络迭代输出的目标的预测位置。
其中较优地,在步骤S3中,得到输入矩阵之后,将输入矩阵作为网络的输入,输入到建立的网络中,包括如下步骤:
S31,将输入矩阵进行空间变形,将输入矩阵的图像尺寸调节到网络尺寸,以适应步骤S1建立的网络;
S32,将步骤S31得到的结果进行值域尺度变化,通过结果的值域尺度变化进行神经元节点的输入强度的调节,使输入矩阵输入到网络后,网络进行演化。
其中较优地,在步骤S4中,输入矩阵输入到建立的网络后,使网络演化时间阈值长度,得到目标的预测位置,包括如下步骤:
S41,根据计算性能和实际跟踪的目标,选择迭代步长和实际的步数的数值计算方法;
S42,根据视频或者图像采集设备的帧率参数,换算帧间距时间,采用步骤S41选择的实际的步数的数值计算方法,得到实际的步数,作为指定步数;
S43,将第一次输入矩阵输入网络后,输出的结果作为第二次输入进行迭代,迭代指定步数后,根据网络中各神经元节点具有的膜电位的值,计算网络组成的平面中,膜电位的重心,并将重心位置从网络空间位置对应回图像空间位置,作为目标的预测位置。
其中较优地,在步骤S3中,将输入矩阵输入网络时,对于没有映射到神经元节点的输入矩阵元素,向临近的神经元节点进行插值拟合,使网络中的每一个神经元节点得到唯一确定的输入。
本发明所提供的基于连续吸引子神经网络的在线目标跟踪方法,根据连续吸引子神经网络模型(CANN)建立网络;根据网络状态调节神经元状态关键参数到可供实际跟踪使用的参数域内;接收监控图像,对当前帧做差分操作,得到差分图,根据指导位置和差分图得到输入矩阵;然后,将输入矩阵作为网络的输入,输入到建立的网络;让网络演化时间阈值长度,得到目标的预测位置;最后,使用目标的预测位置更新指导位置的数据,继续接收监控图像,将接收的下一帧监控图像进行处理之后,以输入矩阵的形式输入网络,使网络演化时间阈值长度,得到目标的预测位置。在后续帧中整合目标的预测位置,对目标位置继续跟踪,在目标跟踪过程中根据目标的预测位置实时对网络进行调整,有效地满足了对目标跟踪的准确性和实时性要求。
附图说明
图1为本发明所提供的基于连续吸引子神经网络的在线目标跟踪方法的流程图。
具体实施方式
下面结合附图和具体实施例对本发明的技术内容进行详细具体的说明。
如图1所示,本发明所提供的基于连续吸引子神经网络的在线目标跟踪方法,包括如下步骤:首先,根据连续吸引子神经网络模型(CANN)建立网络;根据网络状态调节神经元状态关键参数,使所述节神经元状态关键参数在供实际跟踪使用的参数域内;其次,接收监控图像,对当前帧做差分操作,得到差分图,根据指导位置和差分图得到输入矩阵;然后,将输入矩阵作为网络的输入,输入到建立的网络;让网络演化时间阈值长度,得到目标的预测位置;最后,使用目标的预测位置更新指导位置的数据,继续接收监控图像,将接收的下一帧监控图像进行处理之后,以输入矩阵的形式输入网络,使网络演化时间阈值长度,得到目标的预测位置,在后续帧中整合目标的预测位置,对目标位置继续跟踪。下面对这一过程做详细具体的说明。
S1,根据连续吸引子神经网络模型(CANN)建立网络,根据网络状态调节神经元状态关键参数到可供实际跟踪使用的参数域内。
根据连续吸引子神经网络模型(CANN)建立网络,然后将获取的每帧图像读入到网络中,通过对实时获取每帧的图像的分析,得到目标位置,进而实现实时跟踪。其中,根据连续吸引子神经网络模型(CANN)建立网络,具体包括如下步骤:
S101,根据图片的像素尺寸确定网络的形态,将吸引子神经网络模型中的所有神经元节点均匀分布在二维矩形网格的节点处。
根据实际的跟踪场景和计算资源确定网络的形态,在本发明所提供的实施例中,按照图片的像素尺寸选择网络的形态为M行*N列的二维平面矩形结构,M可以等于或者不等于N。所有神经元节点均匀洒落在一个二维矩形网格的节点处。网络为全连接,连接权重按照距离远近,符合高斯分布函数。神经元节点具有三个特性,即:
1)可以接受输入;
2)维持一个膜电位态;
3)满足条件可以发放(输出)。
在网络中,神经元节点x连接到x′的权重具体满足的函数为:
J ( x , x ′ ) = J o 2 πa 2 exp [ - ( x - x ′ ) 2 2 a 2 ]
其中,J(x,x′)为在网络中位置为x的神经元节点与位置为x′的神经元节点的连接权重;a为高斯分布的方差;J0为高斯分布的尺度因子,在本发明所提供的实施例中,J0=1;网络满足随两神经元节点距离增大而连接权重减小的高斯分布I(0,a)。
S102,生成神经元的描述量,包括:膜电位、发放率,并引入负反馈调节机制。
生成神经元的描述量,包括:膜电位、发放率,并引入负反馈调节机制(SFA机制),采用负反馈调节机制增强连续吸引子网络的跟踪性能,以出现能够供实际跟踪使用的参数域。在本发明所提供的实施例中,增强神经网络性能的负反馈调节机制在每一个神经元节点上的具体实现,采用微分方程实现。其中,V为每个神经元对自身施加的负反馈大小,其在时间内的变化量,同当前的负反馈大小V(x,t)和神经元膜电位的当前值U(x,t)的关系。将求得的负反馈大小V(x,t)作用在神经元膜电位的当前值U(x,t)上,随着时间的变化,实时调节神经元膜电位的当前值。
S103,按照规则生成网络联接矩阵,根据连接权重公式,初始化每一个神经元节点到网络其余节点的连接权重,建立网络。
根据连续吸引子神经网络模型(CANN)建立网络之后,根据网络中各个神经元节点的状态调节神经元状态关键参数,使所述节神经元状态关键参数在供实际跟踪使用的参数域内,具体包括如下步骤:
S111,为网络中的神经元状态关键参数设置初始值。
S112,确定一个神经元状态关键参数作为变化量,其他神经元状态关键参数为常量,调节网络的全局抑制因子,使得连续吸引子出现。
S113,调节负反馈调节因子,检验连续吸引子网络的移动性,改变作为变化量的神经元状态关键参数的值,确定网络为可供实际跟踪使用时,作为变化量的神经元状态关键参数的参数域。
S114,改变确定为变化量的神经元状态关键参数,重复步骤S112~S113,确定神经元状态关键参数的参数域,并将神经元状态关键参数设置在参数域内。
S2,接收监控图像,对当前帧做差分操作,得到差分图,根据指导位置和差分图得到输入矩阵。
对当前帧做差分操作,得到差分图,差分操作可以为帧差分或背景差分,当采用帧差分时,参考帧为第一帧图像;当采用背景差分时,参考帧为历史数据统计平均模型。在本发明所提供的实施例中,采用帧差分进行差分操作得到差分图,根据指导位置(人工指定或网络迭代结果)和差分图得到输入矩阵。具体包括如下步骤:
S21,读取一帧图像,转化成灰度图。
S22,若当前帧为第一帧,则保存当前帧为参考帧,返回步骤S21;否则,设当前帧为待处理帧。
S23,将待处理帧减去参考帧,得到差分图像。
S24,用适当大小的矩形滤波器,对差分图像进行空域均值滤波,得到滤波图像。
S25,取适当的阈值t1,对滤波图像进行二值化。
S26,对二值图像进行以指导位置为中心的高斯过滤,得到输入矩阵。
其中,第一次对获取的二值图像进行高斯过滤时,指导位置为需要跟踪的原始目标位置,随着目标移动,指导位置为后续用网络迭代输出的目标的预测位置。对二值图像进行以指导位置为中心的高斯过滤得到输入矩阵,包括如下步骤:
用二值图像,与具有同样尺寸、以指导位置为中心、值按照高斯分布从中心到边缘径向递减的矩阵进行对应位置的点乘,即可得到输入矩阵。
S3,将输入矩阵作为网络的输入,输入到建立的网络。
经过高斯过滤得到输入矩阵之后,将输入矩阵作为网络的输入,输入到建立的网络,具体包括如下步骤:
S31,将输入矩阵进行空间变形,将图像尺寸调节到网络尺寸,以适应前序步骤调定的网络。
将输入矩阵进行空间重调节(空间变形),对步骤S26得到的结果从图像尺寸,调节到网络尺寸M*N,以适应前序步骤调定的网络。
将输入矩阵进行空间变形,是为了让网络中的每一个节点得到唯一确定的输入。对于没有恰好映射到神经元节点的输入矩阵元素,向临近的神经元节点进行插值拟合。
S32,将步骤S31得到的结果进行值域尺度变化,通过结果的值域尺度变化调节神经元节点的输入强度,使输入矩阵输入到网络后,网络可以进行演化。
将步骤S31得到的结果进行值域尺度变化,使神经元节点得到合适的输入强度,可以进行最优跟踪性能的演化。在本发明所提供的实施例中,将插值变形后的输入矩阵的值域,从[Val_min,Val_max]变换到[0,0.02],将输入矩阵输入到已经进行过初始化的网络中,以达到最优跟踪性能的演化。
S4,输入矩阵输入到建立的网络后,使网络演化时间阈值长度,得到目标的预测位置。
将输入矩阵输入到建立的网络后,使网络演化时间阈值长度,得到目标的预测位置,其中,在本发明所提供的实施例中,络演化的时间阈值长度恰好等于帧间距;对于帧丢失,网络可以继续演化1个或n个帧间距的时间。网络演化结束后,读出网络演化结果,即可得到目标的预测位置。具体包括如下步骤:
S41,根据计算性能和实际跟踪的问题,选择合理的迭代步长和实际的步数的数值计算方法。例如:在本发明所提供的实施例中,可以设定迭代步长为1/5,选择欧拉法进行实际的步数的数值计算。
S42,根据视频或者图像采集设备的帧率参数,换算帧间距时间,采用步骤S41选择的实际的步数的数值计算方法,得到实际的步数。例如:视频的帧率参数为33,则根据欧拉法可以用1/33/(1/5)进行实际的步数的数值计算,得出实际的步数作为迭代指定步数。
S43,将第一次输入矩阵输入网络后,输出的结果作为第二次输入进行迭代,迭代指定步数后,根据网络中各神经元节点具有的膜电位的值,计算网络组成的平面中膜电位的重心,并将重心位置从网络空间位置对应回图像空间位置,作为目标的预测位置。
S5,使用目标的预测位置更新指导位置的数据,重复步骤S2~S4,在后续帧中整合目标的预测位置,对目标位置继续跟踪。
使用目标的预测位置更新指导位置的数据,在目标跟踪过程中根据目标的预测位置实时对网络进行调整,有效地满足了对目标跟踪的准确性和实时性要求。继续接收监控图像,将接收的一帧监控图像进行处理之后,以输入矩阵的形式输入网络,使网络演化时间阈值长度,得到目标的预测位置。在后续帧中整合目标的预测位置,对目标位置继续跟踪,直至得到目标位置停止运动,追踪结束。
综上所述,本发明所提供的基于连续吸引子神经网络的在线目标跟踪方法,根据连续吸引子神经网络模型(CANN)建立网络;根据网络状态调节神经元状态关键参数,使所述节神经元状态关键参数在供实际跟踪使用的参数域内;接收监控图像,对当前帧做差分操作,得到差分图,根据指导位置和差分图得到输入矩阵;然后,将输入矩阵作为网络的输入,输入到建立的网络;让网络演化时间阈值长度,得到目标的预测位置;最后,使用目标的预测位置更新指导位置的数据,继续接收监控图像,将接收的下一帧监控图像进行处理之后,以输入矩阵的形式输入网络,使网络演化时间阈值长度,得到目标的预测位置。在后续接收的帧中整合目标的预测位置,对目标位置继续跟踪,在目标跟踪过程中根据目标的预测位置实时对网络进行调整,有效地满足了对目标跟踪的准确性和实时性要求,增强了其原有的跟踪特性。
上面对本发明所提供的基于连续吸引子神经网络的在线目标跟踪方法进行了详细的说明。对本领域的一般技术人员而言,在不背离本发明实质精神的前提下对它所做的任何显而易见的改动,都将构成对本发明专利权的侵犯,将承担相应的法律责任。

Claims (10)

1.一种基于连续吸引子神经网络的在线目标跟踪方法,其特征在于包括如下步骤:
S1,根据连续吸引子神经网络模型建立网络,根据网络状态调节神经元状态关键参数,使所述神经元状态关键参数在供实际跟踪使用的参数域内;
S2,接收监控图像,对当前帧做差分操作得到差分图,根据指导位置和差分图得到输入矩阵;
S3,将输入矩阵作为网络的输入,输入到建立的网络中;
S4,使网络演化时间阈值长度,得到目标的预测位置;
S5,使用目标的预测位置更新指导位置的数据,重复步骤S2~S4,在后续帧中整合目标的预测位置,对目标位置继续跟踪。
2.如权利要求1所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于在步骤S1中,根据连续吸引子神经网络模型建立网络,包括如下步骤:
S101,根据图片的像素尺寸确定网络的形态,将所述吸引子神经网络模型中的所有神经元节点均匀分布在二维矩形网格的节点处;
S102,生成神经元的描述量,包括:膜电位、发放率,并引入负反馈调节机制;
S103,按照规则生成网络联接矩阵,根据连接权重公式,初始化每一个神经元节点到网络其余节点的连接权重,建立网络。
3.如权利要求2所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于在步骤S102中,引入负反馈调节机制包括如下步骤:
在每一个神经元节点上采用微分方程得到负反馈大小V(x,t);
其中,V(x,t)为每个神经元对自身施加的负反馈大小,U(x,t)为神经元膜电位的当前值;
将求得的负反馈大小作用在神经元膜电位的当前值上,随着时间的变化,实时调节神经元膜电位的当前值。
4.如权利要求2所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于:
在步骤S103中,所述连接权重公式为在网络中,神经元节点x连接到x′的权重满足的函数,即:
J ( x , x ′ ) = J o 2 πa 2 e x p [ - ( x - x ′ ) 2 2 a 2 ] ,
其中,J(x,x′)为在网络中位置为x的神经元节点与位置为x′的神经元节点的连接权重;a为高斯分布的方差;J0为高斯分布的尺度因子。
5.如权利要求1所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于在步骤S1中,根据网络状态调节神经元状态关键参数,使所述节神经元状态关键参数在供实际跟踪使用的参数域内;具体包括如下步骤:
S111,为网络中的神经元状态关键参数设置初始值;
S112,确定一个神经元状态关键参数作为变化量,其他神经元状态关键参数为常量,调节网络的全局抑制因子,使得连续吸引子出现;
S113,调节负反馈调节因子,检验连续吸引子网络的移动性,改变作为变化量的神经元状态关键参数的值,确定网络为可供实际跟踪使用时,作为变化量的神经元状态关键参数的参数域;
S114,改变确定为变化量的神经元状态关键参数,重复步骤S112~S113,确定神经元状态关键参数的参数域,并将神经元状态关键参数设置在参数域内。
6.如权利要求1所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于在步骤S2中,接收监控图像,对当前帧做差分操作得到差分图,根据指导位置和差分图得到输入矩阵,包括如下步骤:
S21,读取一帧图像,转化成灰度图;
S22,若当前帧为第一帧,则保存当前帧为参考帧,返回步骤S21;否则,设当前帧为待处理帧;
S23,将待处理帧减去参考帧,得到差分图像;
S24,用矩形滤波器对差分图像进行空域均值滤波,得到滤波图像;
S25,对滤波图像进行二值化处理,得到二值图像;
S26,对二值图像进行以指导位置为中心的高斯过滤,得到输入矩阵。
7.如权利要求6所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于:
第一次对获取的二值图像进行高斯过滤时,所述指导位置为需要跟踪的原始目标位置,随着目标移动,所述指导位置为后续用网络迭代输出的目标的预测位置。
8.如权利要求1所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于在步骤S3中,得到输入矩阵之后,将输入矩阵作为网络的输入,输入到建立的网络中,包括如下步骤:
S31,将输入矩阵进行空间变形,将输入矩阵的图像尺寸调节到网络尺寸,以适应步骤S1建立的网络;
S32,将步骤S31得到的结果进行值域尺度变化,通过结果的值域尺度变化进行神经元节点的输入强度的调节,使输入矩阵输入到网络后,网络进行演化。
9.如权利要求1所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于在步骤S4中,输入矩阵输入到建立的网络后,使网络演化时间阈值长度,得到目标的预测位置,包括如下步骤:
S41,根据计算性能和实际跟踪的目标,选择迭代步长和实际的步数的数值计算方法;
S42,根据视频或者图像采集设备的帧率参数,换算帧间距时间,采用步骤S41选择的实际的步数的数值计算方法,得到实际的步数,作为指定步数;
S43,将第一次输入矩阵输入网络后,输出的结果作为第二次输入进行迭代,迭代指定步数后,根据网络中各神经元节点具有的膜电位的值,计算网络组成的平面中,膜电位的重心,并将重心位置从网络空间位置对应回图像空间位置,作为目标的预测位置。
10.如权利要求1所述的基于连续吸引子神经网络的在线目标跟踪方法,其特征在于:
在步骤S3中,将输入矩阵输入网络时,对于没有映射到神经元节点的输入矩阵元素,向临近的神经元节点进行插值拟合,使网络中的每一个神经元节点得到唯一确定的输入。
CN201510785470.8A 2015-11-16 2015-11-16 一种基于连续吸引子神经网络的在线目标跟踪方法 Active CN105469423B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510785470.8A CN105469423B (zh) 2015-11-16 2015-11-16 一种基于连续吸引子神经网络的在线目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510785470.8A CN105469423B (zh) 2015-11-16 2015-11-16 一种基于连续吸引子神经网络的在线目标跟踪方法

Publications (2)

Publication Number Publication Date
CN105469423A true CN105469423A (zh) 2016-04-06
CN105469423B CN105469423B (zh) 2018-06-22

Family

ID=55607082

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510785470.8A Active CN105469423B (zh) 2015-11-16 2015-11-16 一种基于连续吸引子神经网络的在线目标跟踪方法

Country Status (1)

Country Link
CN (1) CN105469423B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022239A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种基于循环神经网络的多目标跟踪方法
CN106447071A (zh) * 2016-07-25 2017-02-22 浙江大学 一种应用于视频监控场景的路径预测方法
CN107665708A (zh) * 2016-07-29 2018-02-06 科大讯飞股份有限公司 智能语音交互方法及系统
CN107808241A (zh) * 2017-10-16 2018-03-16 山西太钢不锈钢股份有限公司 一种不锈钢表面检测结果综合分析系统
CN108399628A (zh) * 2015-09-30 2018-08-14 快图有限公司 用于跟踪对象的方法和系统
CN112906884A (zh) * 2021-02-05 2021-06-04 鹏城实验室 一种基于脉冲连续吸引子网络的类脑预测跟踪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005020132A1 (en) * 2003-08-22 2005-03-03 Semeion Neural network for processing arrays of data with existent topology, such as images, and application of the network
CN1738426A (zh) * 2005-09-09 2006-02-22 南京大学 一种视频运动目标分割与跟踪方法
CN101017573A (zh) * 2007-02-09 2007-08-15 南京大学 一种基于视频监控的运动目标检测与识别方法
JP2009083095A (ja) * 2007-09-29 2009-04-23 Ihi Corp ロボット装置の制御方法及びロボット装置
US20090138167A1 (en) * 2007-11-28 2009-05-28 Honda Research Institute Europe Gmbh Adaptive Driver Assistance Systems With Robust Estimation Of Object Properties
CN104835178A (zh) * 2015-02-02 2015-08-12 郑州轻工业学院 一种低信噪比运动小目标的跟踪与识别的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005020132A1 (en) * 2003-08-22 2005-03-03 Semeion Neural network for processing arrays of data with existent topology, such as images, and application of the network
CN1738426A (zh) * 2005-09-09 2006-02-22 南京大学 一种视频运动目标分割与跟踪方法
CN101017573A (zh) * 2007-02-09 2007-08-15 南京大学 一种基于视频监控的运动目标检测与识别方法
JP2009083095A (ja) * 2007-09-29 2009-04-23 Ihi Corp ロボット装置の制御方法及びロボット装置
US20090138167A1 (en) * 2007-11-28 2009-05-28 Honda Research Institute Europe Gmbh Adaptive Driver Assistance Systems With Robust Estimation Of Object Properties
CN104835178A (zh) * 2015-02-02 2015-08-12 郑州轻工业学院 一种低信噪比运动小目标的跟踪与识别的方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
C. C. ALAN FUNG ET AL: ""A Moving Bump in a Continuous Manifold:A Comprehensive Study of the Tracking Dynamics of Continuous Attractor Neural Networks"", 《NEURAL COMPUTATION》 *
YUANYUAN MI ET AL: ""Spike Frequency Adaptation Implements Anticipative Tracking in Continuous Attractor Neural Networks "", 《ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEM》 *
曲仕茹等: ""采用Kalman_BP 神经网络的视频序列多目标检测与跟踪"", 《红外与激光工程》 *
朱志宇等: ""基于混沌神经网络的多目标跟踪技术研究"", 《中国造船》 *
田丽平: "基于神经网络的图像目标跟踪算法研究", 《万方学位论文》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399628A (zh) * 2015-09-30 2018-08-14 快图有限公司 用于跟踪对象的方法和系统
CN108399628B (zh) * 2015-09-30 2023-09-05 快图有限公司 用于跟踪对象的方法和系统
US11948350B2 (en) 2015-09-30 2024-04-02 Fotonation Limited Method and system for tracking an object
CN106022239A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种基于循环神经网络的多目标跟踪方法
CN106447071A (zh) * 2016-07-25 2017-02-22 浙江大学 一种应用于视频监控场景的路径预测方法
CN107665708A (zh) * 2016-07-29 2018-02-06 科大讯飞股份有限公司 智能语音交互方法及系统
CN107665708B (zh) * 2016-07-29 2021-06-08 科大讯飞股份有限公司 智能语音交互方法及系统
CN107808241A (zh) * 2017-10-16 2018-03-16 山西太钢不锈钢股份有限公司 一种不锈钢表面检测结果综合分析系统
CN107808241B (zh) * 2017-10-16 2021-08-06 山西太钢不锈钢股份有限公司 一种不锈钢表面检测结果综合分析系统
CN112906884A (zh) * 2021-02-05 2021-06-04 鹏城实验室 一种基于脉冲连续吸引子网络的类脑预测跟踪方法
CN112906884B (zh) * 2021-02-05 2023-04-18 鹏城实验室 一种基于脉冲连续吸引子网络的类脑预测跟踪方法

Also Published As

Publication number Publication date
CN105469423B (zh) 2018-06-22

Similar Documents

Publication Publication Date Title
CN105469423A (zh) 一种基于连续吸引子神经网络的在线目标跟踪方法
Yalcin et al. Plant classification using convolutional neural networks
US9239985B2 (en) Apparatus and methods for processing inputs in an artificial neuron network
CN110210551A (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN110135386B (zh) 一种基于深度学习的人体动作识别方法和系统
WO2017199233A1 (en) Anomaly detection using spiking neural networks
Wang et al. Echo state networks regulated by local intrinsic plasticity rules for regression
CN111079655A (zh) 一种基于融合神经网络的视频中人体行为识别方法
US20140379624A1 (en) Increased dynamic range artificial neuron network apparatus and methods
Nedić Distributed optimization
CN106372598A (zh) 一种基于图像特征检测的消除视频旋转和抖动的稳像方法
CN116861967A (zh) 一种基于脉冲神经网络的数据增强方法及装置
Boccato et al. Self-organization and lateral interaction in echo state network reservoirs
CN106778910A (zh) 基于本地训练的深度学习系统和方法
Chiang et al. Reservoir drought prediction using support vector machines
CN112733710A (zh) 用于灌溉装置的灌溉水压控制的神经网络的训练方法
Friedrich et al. Neural optimal feedback control with local learning rules
Wei et al. Cloudprednet: an ultra-short-term movement prediction model for ground-based cloud image
George et al. Online time-series forecasting using spiking reservoir
Henderson et al. Spike event based learning in neural networks
Luber et al. Structural neural additive models: Enhanced interpretable machine learning
CN107044893B (zh) 一种基于时域编解码的高精度动态信号传感和传输方法
CN116758331A (zh) 物体检测方法、装置及存储介质
Wang et al. A simplified pulse-coupled neural network for cucumber image segmentation
CN111582461B (zh) 神经网络训练方法、装置、终端设备和可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant