CN110223324B - 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法 - Google Patents

一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法 Download PDF

Info

Publication number
CN110223324B
CN110223324B CN201910484150.7A CN201910484150A CN110223324B CN 110223324 B CN110223324 B CN 110223324B CN 201910484150 A CN201910484150 A CN 201910484150A CN 110223324 B CN110223324 B CN 110223324B
Authority
CN
China
Prior art keywords
target
candidate
matching network
sample
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910484150.7A
Other languages
English (en)
Other versions
CN110223324A (zh
Inventor
杨国瑞
吴贇
蒋学芹
白恩健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN201910484150.7A priority Critical patent/CN110223324B/zh
Publication of CN110223324A publication Critical patent/CN110223324A/zh
Application granted granted Critical
Publication of CN110223324B publication Critical patent/CN110223324B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提供了一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法。该方法以孪生网络为基础,利用卷积网络的层次结构从不同层提取不同级别的信息,获得更丰富的特征表示。同时,使用长短时记忆网络将提取的特征编码成固定向量,它重点关注有用的信息,能够更好地描述图像以及图像间的差异,使得获得的特征向量鲁棒性更强。本发明将目标对象的特征与视频帧中的候选区域特征匹配并返回最相似的区域从而实现目标跟踪。此外,该方法利用大量外部数据集进行预训练时,模板更新引入置信决策方法,使得对目标模板的描述更充分。本发明提高了特征表示的鲁棒性,同时提高了目标跟踪的效果。

Description

一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法
技术领域
本发明涉及深度学习和计算机视觉技术,具体涉及目标跟踪、神经网络以及图像处理领域。
背景技术
视觉目标跟踪已经成为计算机视觉领域重要的研究方向和研究热点。经过多年的发展,目标跟踪技术已经取得了长足的进步,但依然面临多方面的挑战,如何处理目标的快速移动,光照变化,目标外观变形,运动模糊和背景相似干扰等,这些因素都将导致目标漂移甚至跟踪失败。给定在视频的一帧中标记的感兴趣对象,单目标跟踪的目标是在随后的视频帧中找到该对象并且定位。目标跟踪可在许多重要场景中找到直接应用,例如自动驾驶,视频监控,人机交互等。
基于传统方法的目标跟踪一般是利用手工设计的特征进行目标建模,例如颜色特征等,不同特征从不同角度对目标进行描述,同时不同特征又各有其优缺点,例如Hog特征对颜色、光照变化不敏感,却对目标形变较为敏感。而基于深度学习的目标跟踪方法大多采用卷积神经网络对目标进行特征提取,基于CNN的特征虽然更鲁棒,但是这是基于训练样本足够大的情况下,在训练样本不够充分的情况下会影响对目标的建模效果,一般还需实时采用大量正负样本进行模型修正,通常速度较慢。孪生网络是一种神经网络的框架,它有两个结构相同且共享权值的子网络,接收两个输入并将其转换为向量,再通过距离度量的方式计算两个输出向量的距离,它用于评估两个输入样本的相似度。虽然基于孪生网络的跟踪算法取得了一些进步,但是这些方法仍然存在一些问题。首先,用于孪生网络的框架一般都是比较浅层的AlexNet网络,在深度学习任务中,已经证明了更深的网络具有更强的信息表征能力;其次,由于缺少动态的调节机制,孪生网络只能等价的对待特征图和特征空间,没有重点关注的区域,这样限制了模型的丰富的表征能力。目标特征表示的准确性直接影响了目标跟踪的效果,所以我们需要设计出一种鲁棒性更好的特征表示方法从而提升跟踪的准确度。
发明内容
本发明的目的是:针对基于孪生网络的跟踪算法出现的上述问题,本发明提供一种新的孪生匹配网络结构。在孪生网络的框架上,卷积层使用表达能力更强的VGG网络,同时增加长短期记忆(LSTM)层来引入注意力机制,通过对目标对象自身信息与长短时记忆层中的序列相关信息相结合,从中获得有用的鲁棒特征表示,从而提升了跟踪效果。
为了达到上述目的,本发明的技术方案是提供了一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法,其特征在于,包括以下步骤:
步骤1、数据预处理:在用于目标追踪的视频中以当前帧的前一帧推断出的目标位置为中心,在当前帧中裁剪出两倍于目标大小的区域作为搜索区域,在搜索区域内采样出候选样本区域;
步骤2、构建孪生匹配网络,包括以下步骤:
步骤201、设计孪生匹配网络的网络结构,孪生匹配网络由候选区域提出层、卷积层和LSTM模型层组成;候选区域提出层采用的是由粗到精的搜索方式来采样候选样本,卷积层使用不同层次的特征代表对象的外观,LSTM模型层对于候选样本和目标对象分别采用了双向LSTM和attention LSTM来编码,最后通过计算候选样本和目标模板的特征向量的余弦距离来得到最相似的样本作为跟踪目标;
步骤202、构建训练集,从训练集中获得多对训练样本,作为孪生匹配网络两个分支的输入;训练集采集方法为从视频中的每两帧开始,生成多对框,一对框中一个是一帧中的真实边界框,另一个是在另一帧中采样的候选框,同时使用置信决策方法,利用相似度的值决定是否更新目标模型;
步骤203、对步骤201构建的孪生匹配网络进行训练,更新网络参数直至满足收敛条件,以及调试优化超参数;
步骤3、在视频测试集中进行目标跟踪:在孪生匹配网络训练完后,将要跟踪的目标区域裁剪出来作为孪生匹配网络的一个输入,当前帧搜索区域裁剪出来的候选样本区域作为另一个输入,通过网络得到的鲁棒特征向量来计算目标区域和候选样本区域的相似度,找到相似度最高的候选样本图像,即可得到目标在当前帧的位置,函数Sim[x,xi]反映了目标区域和候选样本区域的相似程度,有:
Sim[x,xi]=C(f(x)g(xi))
式中,x为目标图像,xi为候选样本图像,C为余弦距离,f(x)为对目标的特征表示函数,g(xi)为对候选样本的特征表示函数。
优选地,步骤1中,同时使用ROI Pooling以便在一帧中快速处理多个区域以得到特征图。
优选地,步骤1中,所述数据预处理步骤具体如下:
如果第t帧的目标对象边界框具有中心(xt,yt)且其宽度和高度为Wt和Ht,则候选框采样以(xt,yt)为中心,宽度和高度为2Wt和2Ht的区域内按步长Δs进行采样。
优选地,步骤202中,更新目标模型的具体过程为:
若相似度小于0.5,则认为当前帧发生了误匹配,此时不更新目标模型;若相似度大于0.8,则认为当前帧的匹配结果较为准确,目标模型无需更新;若相似度在(0.5,0.8)之间,则利用公式Pt=λPt-1+(1-λ)Q对当前帧的目标模板Pt进行更新,式中,Pt-1为上一帧中目标模板,Q为当前帧中匹配到的目标模板,λ为更新权重。
优选地,步骤203中,对网络进行训练的具体步骤为:根据匹配网络得到的相似度最大的候选样本是否与目标真实区域的交叉联合重叠最大来对网络进行训练,反向传播的损失直接来源于匹配的结果;卷积层通过梯度下降的方法训练,同时通过使用反向传播时间最小化交叉熵损失来训练长短期记忆层,基于训练样本重复更新网络,直到网络收敛或达到预定义的迭代次数。
优选地,步骤3中,对候选样本的特征表示函数g(xi)具体由以下步骤表示:
步骤301、使用卷积层提取候选目标的原始特征g'(x),每个候选样本xi维护四个状态变量分别是前向隐状态
Figure BDA0002084812420000031
后向隐状态/>
Figure BDA0002084812420000032
前向记忆/>
Figure BDA0002084812420000033
以及后向记忆/>
Figure BDA0002084812420000034
步骤302、前向变量由前一个参考样本的隐状态和上下文经过LSTM模型得到,当前样本的原始特征作为输入,如下式:
Figure BDA0002084812420000035
式中,LSTM表示LSTM模型;
步骤303、后向变量由后一个参考样本的隐状态和记忆经过LSTM模型确定,当前样本的原始特征作为输入,如下式:
Figure BDA0002084812420000041
步骤304、候选样本特征表示由其隐状态和原始特征共同决定,如下式:
Figure BDA0002084812420000042
式中,k表示样本的数量;
步骤3中,对目标的特征表示函数f(x)具体由以下步骤表示:
步骤311、使用参数共享的卷积层提取目标对象的原始特征f′(x),通过l=1,2,...,L次迭代,使用一个注意力LSTM模型计算测试样本的特征,每一步维护四个状态变量,分别是隐变量hl
Figure BDA0002084812420000043
读数rl以及记忆cl
步骤312、在第l步,用LSTM模型计算原始隐变量和记忆,如下式:
Figure BDA0002084812420000044
步骤313、加上原始特征,获得第l步的隐变量,记为
Figure BDA0002084812420000045
步骤314、第l步的读数是参考集特征的加权和,记为
Figure BDA0002084812420000046
注意力函数是softmax形式,用其他所有参考集样本归一化,记为
Figure BDA0002084812420000047
步骤315、除了以测试样本作为输入,在每一个步骤中,还要根据LSTM的状态h,决定把注意力放在哪一些参考集样本上,最后一步的读数即为目标对象特征,即
Figure BDA0002084812420000048
本发明的优点主要表现在:
本发明利用卷积神经网络作为初步特征提取部分,由于从不同层可以提取不同级别的信息,低层提取边缘图等特征,而较深层则捕获较复杂的高级概念,本发明使用不同层次的特征代表对象的外观,而不是仅使用网络最后一层的输出,以使网络具有更丰富的外观模型。本发明利用了孪生网络进行图片匹配的优势,并引入LSTM来让信息流动起来,让候选样本并不是孤立的,考虑了整个候选样本参考集合的贡献,对于候选样本和目标对象分别采用了双向LSTM和attention LSTM来编码,通过VGGNET获得的特征表示是原始只依赖自己的,而通过双向LSTM候选样本信息可以互通,通过attention LSTM候选样本可以用来修改目标样本的嵌入模型,这两个样本特征表示函数是对特征空间进行了优化,从而提高了精确度。
附图说明
图1为本发明提出的基于鲁棒特征表示的孪生匹配网络的目标跟踪方法示意图;
图2为本发明提出的跟踪方法在部分视频中的跟踪效果。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
如图1所示,本发明提供的一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法包括以下步骤:
步骤1、数据预处理:以前一帧推断出的目标位置为中心,在当前帧中裁剪出两倍于目标大小的区域作为搜索区域,在搜索区域内采样出候选区域,同时使用ROI Pooling以便在一帧中快速处理多个区域以得到特征图。
数据预处理步骤具体如下:
候选样本生成:如果第t帧的目标对象边界框具有中心(xt,yt)且其宽度和高度为Wt和Ht,则候选框采样将以(xt,yt)为中心,宽度和高度为2Wt和2Ht的区域内按步长Δs进行采样。在本发明中,步长Δs设置为1。同时为了处理尺度变化,在每个样本位置以初始框为基准按比例生成三种不同大小的框,其尺度比例为{1.025-1,1,1.025}。
步骤2、构建孪生匹配网络,包括如下子步骤:
步骤201、设计网络结构,网络由候选区域提出层、卷积层和长短期记忆(LSTM)层组成。候选区域提出层采用的是由粗到精的搜索方式来采样候选样本,卷积层使用不同层次的特征代表对象的外观,长短期记忆层对于候选样本和目标对象分别采用了双向LSTM和attention LSTM来编码,最后通过计算候选样本和目标模板的特征向量的余弦距离来得到最相似的样本作为跟踪目标。
步骤202、构建训练集,从训练集中获得多对训练样本,作为孪生匹配网络两个分支的输入。
构建训练集具体步骤为:
从视频中的每两帧开始,生成多对框。一对框中一个是一帧中的真实边界框,另一个是在另一帧中采样的候选框。同时本发明使用置信决策方法,利用相似度的值决定是否更新目标模型。具体过程为,若相似度小于0.5,则认为当前帧发生了误匹配,此时不更新目标模型;若相似度大于0.8,则认为当前帧的匹配结果较为准确,目标模型无需更新;若相似度在(0.5,0.8)之间,则利用公式Pt=λPt-1+(1-λ)Q对目标模型进行更新。式中,Pt-1为上一帧中目标模板,Q为当前帧中匹配到的目标模板,λ为更新权重。
步骤203、对网络进行训练,更新网络参数直至满足收敛条件,以及调试优化超参数。
对网络进行训练具体为:
根据匹配网络得到的相似度最大的候选样本是否与目标真实区域的交叉联合重叠最大来对网络进行训练,反向传播的损失直接来源于匹配的结果。卷积层通过梯度下降的方法训练,同时通过使用反向传播时间最小化交叉熵损失来训练LSTM模型。基于训练样本重复更新网络,直到网络收敛或达到预定义的迭代次数。
步骤3、在视频测试集中进行目标跟踪:在孪生匹配网络训练完后,将要跟踪的目标区域裁剪出来作为孪生匹配网络的一个输入,当前帧搜索区域裁剪出来的候选样本区域作为另一个输入,通过网络得到的鲁棒特征向量来计算目标和候选样本的相似度,找到相似度最高的候选样本图像,即可得到目标在当前帧的位置。函数Sim[x,xi]反映了目标和候选样本的相似程度,有:
Sim[x,xi]=C(f(x)g(xi))
其中x为目标图像,xi为候选样本图像,C为余弦距离,对目标的特征表示函数为f(x),对候选样本的特征表示函数为g(xi)。
对候选样本的特征表示函数g(xi)具体由以下步骤表示:
步骤301、使用卷积层提取候选目标的原始特征g'(x),每个候选样本xi维护四个状态变量分别是前向隐状态
Figure BDA0002084812420000071
后向隐状态/>
Figure BDA0002084812420000072
前向记忆/>
Figure BDA0002084812420000073
以及后向记忆/>
Figure BDA0002084812420000074
步骤302、前向变量由前一个参考样本的隐状态和上下文经过LSTM模型得到,当前样本的原始特征作为输入,如下式:
Figure BDA0002084812420000075
式中,LSTM表示LSTM模型;
步骤303、后向变量由后一个参考样本的隐状态和记忆经过LSTM模型确定,当前样本的原始特征作为输入,如下式:
Figure BDA0002084812420000076
步骤304、候选样本特征表示由其隐状态和原始特征共同决定,如下式:
Figure BDA0002084812420000077
式中,k表示样本的数量。
对目标的特征表示函数f(x)具体由以下步骤表示:
步骤311、使用参数共享的卷积层提取目标对象的原始特征f′(x),通过l=1,2,...,L次迭代,使用一个注意力LSTM模型计算测试样本的特征,每一步维护四个状态变量,分别是隐变量hl
Figure BDA0002084812420000078
读数rl以及记忆cl
步骤312、在第l步,用LSTM模型计算原始隐变量和记忆,如下式:
Figure BDA0002084812420000079
步骤313、加上原始特征,获得第l步的隐变量,记为
Figure BDA00020848124200000710
步骤314、第l步的读数是参考集特征的加权和,记为
Figure BDA00020848124200000711
注意力函数是softmax形式,用其他所有参考集样本归一化,记为
Figure BDA00020848124200000712
步骤315、除了以测试样本作为输入,在每一个步骤中,还要根据LSTM的状态h,决定把注意力放在哪一些参考集样本上,最后一步的读数即为目标对象特征,即
Figure BDA0002084812420000081
图2为本发明提出的跟踪方法在部分视频中的跟踪效果,绿色边框表示目标的真实边框,红色边框表示的是本发明的方法跟踪到的目标区域,包含的情形有光照变化、尺度变化、遮挡、运动模糊、快速运动等,在这些情形下我们的跟踪方法取得了不错的效果。由于本发明设计了鲁棒的特征表示,提高了目标对象匹配的准确度,使得我们的方法在不同的情形下有较好的鲁棒性。

Claims (5)

1.一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法,其特征在于,包括以下步骤:
步骤1、数据预处理:在用于目标追踪的视频中以当前帧的前一帧推断出的目标位置为中心,在当前帧中裁剪出两倍于目标大小的区域作为搜索区域,在搜索区域内采样出候选样本区域;
步骤2、构建孪生匹配网络,包括以下步骤:
步骤201、设计孪生匹配网络的网络结构,孪生匹配网络由候选区域提出层、卷积层和LSTM模型层组成;候选区域提出层采用的是由粗到精的搜索方式来采样候选样本,卷积层使用不同层次的特征代表对象的外观,LSTM模型层对于候选样本和目标对象分别采用了双向LSTM和attention LSTM来编码,最后通过计算候选样本和目标模板的特征向量的余弦距离来得到最相似的样本作为跟踪目标;
步骤202、构建训练集,从训练集中获得多对训练样本,作为孪生匹配网络两个分支的输入;训练集采集方法为从视频中的每两帧开始,生成多对框,一对框中一个是一帧中的真实边界框,另一个是在另一帧中采样的候选框,同时使用置信决策方法,利用相似度的值决定是否更新目标模型,具体包括以下步骤:
若相似度小于0.5,则认为当前帧发生了误匹配,此时不更新目标模型;若相似度大于0.8,则认为当前帧的匹配结果较为准确,目标模型无需更新;若相似度在(0.5,0.8)之间,则利用公式Pt=λPt-1+(1-λ)Q对当前帧的目标模板Pt进行更新,式中,Pt-1为上一帧中目标模板,Q为当前帧中匹配到的目标模板,λ为更新权重;
步骤203、对步骤201构建的孪生匹配网络进行训练,更新网络参数直至满足收敛条件,以及调试优化超参数;
步骤3、在视频测试集中进行目标跟踪:在孪生匹配网络训练完后,将要跟踪的目标区域裁剪出来作为孪生匹配网络的一个输入,当前帧搜索区域裁剪出来的候选样本区域作为另一个输入,通过网络得到的鲁棒特征向量来计算目标区域和候选样本区域的相似度,找到相似度最高的候选样本图像,即可得到目标在当前帧的位置,函数Sim[x,xi]反映了目标区域和候选样本区域的相似程度,有:
Sim[x,xi]=C(f(x)g(xi))
式中,x为目标图像,xi为候选样本图像,C为余弦距离,f(x)为对目标的特征表示函数,g(xi)为对候选样本的特征表示函数。
2.如权利要求1所述的一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法,其特征在于,步骤1中,同时使用ROIPooling以便在一帧中快速处理多个区域以得到特征图。
3.如权利要求1所述的一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法,其特征在于,步骤1中,所述数据预处理步骤具体如下:
如果第t帧的目标对象边界框具有中心(xt,yt)且其宽度和高度为Wt和Ht,则候选框采样以(xt,yt)为中心,宽度和高度为2Wt和2Ht的区域内按步长Δs进行采样。
4.如权利要求1所述的一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法,其特征在于,步骤203中,对网络进行训练的具体步骤为:根据匹配网络得到的相似度最大的候选样本是否与目标真实区域的交叉联合重叠最大来对网络进行训练,反向传播的损失直接来源于匹配的结果;卷积层通过梯度下降的方法训练,同时通过使用反向传播时间最小化交叉熵损失来训练长短期记忆层,基于训练样本重复更新网络,直到网络收敛或达到预定义的迭代次数。
5.如权利要求1所述的一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法,其特征在于,步骤3中,对候选样本的特征表示函数g(xi)具体由以下步骤表示:
步骤301、使用卷积层提取候选目标的原始特征g'(x),每个候选样本xi维护四个状态变量分别是前向隐状态
Figure FDA0004089788490000021
后向隐状态/>
Figure FDA0004089788490000022
前向记忆/>
Figure FDA0004089788490000023
以及后向记忆/>
Figure FDA0004089788490000024
步骤302、前向变量由前一个参考样本的隐状态和上下文经过LSTM模型得到,当前样本的原始特征作为输入,如下式:
Figure FDA0004089788490000025
式中,LSTM表示LSTM模型;
步骤303、后向变量由后一个参考样本的隐状态和记忆经过LSTM模型确定,当前样本的原始特征作为输入,如下式:
Figure FDA0004089788490000031
步骤304、候选样本特征表示由其隐状态和原始特征共同决定,如下式:
Figure FDA0004089788490000032
式中,k表示样本的数量;
步骤3中,对目标的特征表示函数f(x)具体由以下步骤表示:
步骤311、使用参数共享的卷积层提取目标对象的原始特征f′(x),通过l=1,2,...,L次迭代,使用一个注意力LSTM模型计算测试样本的特征,每一步维护四个状态变量,分别是隐变量hl
Figure FDA0004089788490000033
读数rl以及记忆cl
步骤312、在第l步,用LSTM模型计算原始隐变量和记忆,如下式:
Figure FDA0004089788490000034
步骤313、加上原始特征,获得第l步的隐变量,记为
Figure FDA0004089788490000035
步骤314、第l步的读数是参考集特征的加权和,记为
Figure FDA0004089788490000036
注意力函数是softmax形式,将所有参考集样本归一化,记为/>
Figure FDA0004089788490000037
步骤315、除了以测试样本作为输入,在每一个步骤中,还要根据LSTM的状态h,决定把注意力放在哪一些参考集样本上,最后一步的读数即为目标对象特征,即
Figure FDA0004089788490000038
CN201910484150.7A 2019-06-05 2019-06-05 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法 Active CN110223324B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910484150.7A CN110223324B (zh) 2019-06-05 2019-06-05 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910484150.7A CN110223324B (zh) 2019-06-05 2019-06-05 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110223324A CN110223324A (zh) 2019-09-10
CN110223324B true CN110223324B (zh) 2023-06-16

Family

ID=67819688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910484150.7A Active CN110223324B (zh) 2019-06-05 2019-06-05 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110223324B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647836B (zh) * 2019-09-18 2022-09-20 中国科学院光电技术研究所 一种鲁棒的基于深度学习的单目标跟踪方法
CN110648327B (zh) * 2019-09-29 2022-06-28 无锡祥生医疗科技股份有限公司 基于人工智能的超声影像视频自动追踪方法和设备
CN110766724B (zh) * 2019-10-31 2023-01-24 北京市商汤科技开发有限公司 目标跟踪网络训练、跟踪方法及装置、电子设备及介质
CN110825900A (zh) * 2019-11-07 2020-02-21 重庆紫光华山智安科技有限公司 特征重构层的训练方法、图像特征的重构方法及相关装置
CN111126563B (zh) * 2019-11-25 2023-09-29 中国科学院计算技术研究所 基于孪生网络的时空数据的目标识别方法及系统
CN111199189A (zh) * 2019-12-18 2020-05-26 中国科学院上海微系统与信息技术研究所 一种目标对象跟踪方法、系统、电子设备及存储介质
CN111242974B (zh) * 2020-01-07 2023-04-11 重庆邮电大学 一种基于孪生网络和反向传播的车辆实时跟踪方法
CN111291679B (zh) * 2020-02-06 2022-05-27 厦门大学 一种基于孪生网络的目标特定响应注意力目标跟踪方法
CN111263187B (zh) * 2020-02-13 2021-07-13 腾讯科技(深圳)有限公司 视频裁剪方法、装置、计算机设备和计算机可读存储介质
CN112184785B (zh) * 2020-09-30 2023-03-24 西安电子科技大学 基于mcd度量和vtm的多模态遥感图像配准方法
CN112149616B (zh) * 2020-10-13 2023-10-20 西安电子科技大学 基于动态信息的人物交互行为识别方法
CN112330718B (zh) * 2020-11-12 2022-08-23 重庆邮电大学 一种基于cnn的三级信息融合视觉目标跟踪方法
CN112465028B (zh) * 2020-11-27 2023-11-14 南京邮电大学 一种感知视觉安全评估方法及系统
CN112560656B (zh) * 2020-12-11 2024-04-02 成都东方天呈智能科技有限公司 一种联合注意力机制端到端训练的行人多目标跟踪方法
CN112489088A (zh) * 2020-12-15 2021-03-12 东北大学 一种基于记忆单元的孪生网络视觉跟踪方法
CN113011435A (zh) * 2021-02-04 2021-06-22 精英数智科技股份有限公司 目标对象的图像处理方法、装置及电子设备
CN113283584B (zh) * 2021-05-21 2022-03-25 北京大学 一种基于孪生网络的知识追踪方法及系统
CN113298142B (zh) * 2021-05-24 2023-11-17 南京邮电大学 一种基于深度时空孪生网络的目标跟踪方法
CN114913209B (zh) * 2022-07-14 2022-10-28 南京后摩智能科技有限公司 一种基于俯视投射的多目标跟踪网络构建方法及装置
CN115423847B (zh) * 2022-11-04 2023-02-07 华东交通大学 基于Transformer的孪生多模态目标跟踪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832353A (zh) * 2017-10-23 2018-03-23 同济大学 一种社交媒体平台虚假信息识别方法
CN108520530A (zh) * 2018-04-12 2018-09-11 厦门大学 基于长短时记忆网络的目标跟踪方法
CN108519890A (zh) * 2018-04-08 2018-09-11 武汉大学 一种基于自注意力机制的鲁棒性代码摘要生成方法
CN108932342A (zh) * 2018-07-18 2018-12-04 腾讯科技(深圳)有限公司 一种语义匹配的方法、模型的学习方法及服务器
CN109213995A (zh) * 2018-08-02 2019-01-15 哈尔滨工程大学 一种基于双语词嵌入的跨语言文本相似度评估技术
CN109543559A (zh) * 2018-10-31 2019-03-29 东南大学 基于孪生网络和动作选择机制的目标跟踪方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832353A (zh) * 2017-10-23 2018-03-23 同济大学 一种社交媒体平台虚假信息识别方法
CN108519890A (zh) * 2018-04-08 2018-09-11 武汉大学 一种基于自注意力机制的鲁棒性代码摘要生成方法
CN108520530A (zh) * 2018-04-12 2018-09-11 厦门大学 基于长短时记忆网络的目标跟踪方法
CN108932342A (zh) * 2018-07-18 2018-12-04 腾讯科技(深圳)有限公司 一种语义匹配的方法、模型的学习方法及服务器
CN109213995A (zh) * 2018-08-02 2019-01-15 哈尔滨工程大学 一种基于双语词嵌入的跨语言文本相似度评估技术
CN109543559A (zh) * 2018-10-31 2019-03-29 东南大学 基于孪生网络和动作选择机制的目标跟踪方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hierarchical spatial-aware Siamese network for thermal infrared object tracking;Xin Li等;《Knowledge-Based System》;20181213;第71-81页 *
基于递归和孪生神经网络调制的目标跟踪算法研究;欧阳谷;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190115(第1期);第45-52页 *

Also Published As

Publication number Publication date
CN110223324A (zh) 2019-09-10

Similar Documents

Publication Publication Date Title
CN110223324B (zh) 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法
CN108320297B (zh) 一种视频目标实时跟踪方法及系统
CN109815826B (zh) 人脸属性模型的生成方法及装置
Skorokhodov et al. 3d generation on imagenet
Liu et al. Bipartite differential neural network for unsupervised image change detection
CN112200165A (zh) 模型训练方法、人体姿态估计方法、装置、设备及介质
US11367195B2 (en) Image segmentation method, image segmentation apparatus, image segmentation device
CN112163498B (zh) 前景引导和纹理聚焦的行人重识别模型建立方法及其应用
CN107766864B (zh) 提取特征的方法和装置、物体识别的方法和装置
CN113705290A (zh) 图像处理方法、装置、计算机设备和存储介质
CN111914878A (zh) 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质
CN106407978B (zh) 一种结合似物度的无约束视频中显著物体检测方法
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及系统
CN115862119B (zh) 基于注意力机制的人脸年龄估计方法及装置
CN111291785A (zh) 目标检测的方法、装置、设备及存储介质
CN113807357B (zh) 一种基于室内地标文本与轮廓的室内定位方法
CN115496859A (zh) 基于散乱点云交叉注意学习的三维场景运动趋势估计方法
CN112508168B (zh) 基于预测框自动修正的边框回归神经网络构建方法
CN111797903B (zh) 一种基于数据驱动粒子群算法的多模态遥感图像配准方法
CN114549857A (zh) 图像信息识别方法、装置、计算机设备和存储介质
CN114550298A (zh) 短视频的动作识别方法及系统
CN113920170A (zh) 结合场景上下文和行人社会关系的行人轨迹预测方法、系统及存储介质
CN114092859A (zh) 一种面向视频流的奶牛知识图谱构建方法
CN112990195A (zh) 一种面向复杂环境下融入语义信息的slam回环检测方法
Wang et al. Convolutional neural network-based recognition method for volleyball movements

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant