CN115861379B - 孪生网络基于局部可信模板进行模板更新的视频跟踪方法 - Google Patents
孪生网络基于局部可信模板进行模板更新的视频跟踪方法 Download PDFInfo
- Publication number
- CN115861379B CN115861379B CN202211646915.0A CN202211646915A CN115861379B CN 115861379 B CN115861379 B CN 115861379B CN 202211646915 A CN202211646915 A CN 202211646915A CN 115861379 B CN115861379 B CN 115861379B
- Authority
- CN
- China
- Prior art keywords
- template
- target
- frame
- image
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000004044 response Effects 0.000 claims description 21
- 230000004927 fusion Effects 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 9
- 238000013136 deep learning model Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,属于视频跟踪技术领域,其包括确定视频序列中图像的总帧数,根据初始帧图像确定被跟踪目标,将视频序列分为前后两部分,分别采用不同的模板更新方法,都考虑了初始模板和当前模板,对于帧数较少的前部分还考虑了初始模板和当前模板之间的其余模板构成的累计模板,充分利用了以前帧图像的历史信息,而对于帧数较多的后部分则选用了峰距率大的可信模板,摒弃了累计模板中的噪音信息,增强了更新模板的可信度,提高目标跟踪的准确度。
Description
技术领域
本发明属于视频跟踪技术领域,具体涉及一种孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法。
背景技术
目标跟踪是计算机视觉的前沿课题,在自动驾驶、监控、行人检测和无人机等领域被广泛应用。近期,基于孪生网络的跟踪方法取得了巨大的进步,其核心思想是把目标跟踪任务转化为相似度匹配任务:以视频初始帧中的目标作为模板,以视频后续帧作为搜索帧,对模板特征和搜索特征进行互相关计算,得到响应图,从响应图的峰值信息中便可以得出目标的位置信息。
现有的孪生网络跟踪方法,仅以第一帧的目标作为模板,难以应对目标在复杂场景下的外观变化,从而丢失目标的位置。为了使跟踪器适应目标变化,提高跟踪的准确性,Zhang,L.等人提出了一种基于孪生网络具有自适应更新模板功能的视觉跟踪方法UpdateNet。UpdateNet通过学习模板更新函数实现对模板的自适应更新,极大的提高了跟踪性能。虽然上述跟踪方法考虑了每一帧的真值模板,提供了可靠的历史信息,但当遇到相似目标干扰、尺度变换等挑战时,仍会导致模型漂移,使目标跟踪失去鲁棒性和准确性。
因此,如何提高目标跟踪的准确性,仍是本领域技术人员需要努力攻克的技术难题。
发明内容
本发明所要解决的技术问题是提供一种孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,将目标模板更新分为两部分,既充分利用图像的历史信息,又摒弃噪音信息,提高视频跟踪的准确度。
为解决上述技术问题,本发明的技术方案是:设计一种孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,其特征在于:包括以下步骤:
(1)读取待跟踪的视频序列,确定视频序列中图像的总帧数K;
(2)获取步骤(1)视频序列中的初始帧图像,根据初始帧图像确定被跟踪目标,获得跟踪目标在初始帧图像中的目标框,以目标框中心为中心放大w倍,作为下一帧图像的搜索框;
(3)通过卷积神经网络分别提取步骤(1)视频序列中各帧图像的图像特征,构成各自图像的特征图,各帧图像的特征图构成各自图像的模板,由各帧图像的特征图对应生成各自的响应图,由响应图计算峰距率;其中,初始帧图像的特征图作为初始模板,并作为下一帧图像的目标模板;
(4)读取第t帧图像,t为大于1的自然数,根据第t帧的目标模板确定目标在本帧搜索框中的位置,得到目标在第t帧图像中目标框,完成第t帧图像的目标跟踪;第t帧图像的模板为当前模板,以目标框中心为中心放大w倍,作为下一帧图像的搜索框;
(5)判断步骤(4)中t是否大于m,m为设定的自然数,
t≤m时,将初始模板、累积模板与和当前模板输入深度学习模型进行模板更新,将更新的模板作为第t+1帧图像的目标模板;累积模板为初始模板与当前模板之间的模板;
t>m时,将m帧图像按峰距率由大到小排列,m帧图像的帧数所在区间为[t-m-1,t-1],选择前n帧图像对应的各自模板为局部最优模板,n为小于m的自然数,局部最优模板根据各自的自适应权重进行融合,得到自适应融合模板,将自适应融合模板与当前模板输入深度学习模型进行模板更新,将更新的模板作为第t+1帧图像的目标模板;
(6)步骤(5)后,计算t=t+1,判断t是否小于K,小于则重复步骤(4),否则完成目标跟踪。
进一步的,步骤(3)中,由特征图生成响应图的具体方法为:
Rt为第t帧图像的响应图,b1为神经网络模型的随机量,★为卷积运算互相关操作,为初始帧图像的特征图,/>为第t帧图像的特征图。
进一步的,步骤(3)中,由响应图计算峰距率的方法为:
PRRt为第t帧图像的峰距率,Rt为第t帧的响应图,max(Rt)表示Rt的最大值,min(Rt)表示Rt的最小值。
进一步的,步骤(5)中,自适应权重的确定方法为:
ωt为当前模板的自适应权重,ωj为局部最优模板的自适应权重,为局部可信模板中第j个模板对应的峰距率。
进一步的,步骤(5)中,自适应融合模板的获得方法为:
表示自适应融合模板,Tt为当前模板。
进一步的,步骤(5)中,
t≤m时,深度学习更新方法为:
t>m时,深度学习更新方法为:
Tt+1为深度学习后得到的模板,模板φ为深度学习函数,为初始模板。
进一步的,步骤(2)中,根据groundtruth确定初始帧图像中的被跟踪目标。
进一步的,步骤(5)中,0.2K≤m≤0.6K。
进一步的,步骤(5)中,0.4m≤n≤0.8m。
进一步的,步骤(2)中,1.5≤w≤5。
与现有技术相比,本发明的有益效果是:
1、本发明通过将视频序列的追踪模板更新方法分为前后两部分,两部分都考虑了初始模板和当前模板,对于帧数较少的前部分还考虑了初始模板和当前模板之间的其余模板构成的累计模板,充分利用了以前帧图像的历史信息,而对于帧数较多的后部分则选用了峰距率大的可信模板,摒弃了累计模板中的噪音信息,增强了更新模板的可信度,提高目标跟踪的准确度。
2、使用峰距率判断模板的置信度,从而选出置信度高的局部可信模板,拥有较强历史信息的同时,摒弃了其余模板的干扰信息,当目标发生遮挡、尺度变换、较大移动时,仍能进行准确有效的目标跟踪。当跟踪出现严重遮挡时,峰距率比峰值旁瓣比更能判断模板置信度。
3、本发明中目标模板的更新方式克服了现有技术中更新单一或不更新的弊端,从而增强目标跟踪的精准度和成功率。
4、本发明构思巧妙,将目标模板更新方法划分为前后两部分,对于模板数量较少的前部分,则充分利用模板的历史信息,对于模板数量较多的后部分则选用置信度高的模板,减少更新模板中的噪音信息,共同提高目标追踪的准确度,便于在行业内推广应用。
附图说明
图1是本发明的视频跟踪流程图;
图2是UpdateNet算法针对S0304第158帧的跟踪结果;
图3是本发明方法针对S0304第158帧的跟踪结果;
图4是UpdateNet算法针对S0304第358帧的跟踪结果;
图5是本发明方法针对S0304第358帧的跟踪结果;
图6是UpdateNet算法针对S0801第60帧的跟踪结果;
图7是本发明方法针对S0801第60帧的跟踪结果;
图8是UpdateNet算法针对S0801第218帧的跟踪结果;
图9是本发明方法针对S0801第218帧的跟踪结果;
图10是UpdateNet算法针对S0801第526帧的跟踪结果;
图11是本发明方法针对S0801第526帧的跟踪结果。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述。
本发明通过以下步骤实现视频跟踪:
(1)读取待跟踪的视频序列,确定视频序列中图像的总帧数K。
(2)获取步骤(1)视频序列中的初始帧图像,根据初始帧图像确定被跟踪目标,获得跟踪目标在初始帧图像中的目标框,以目标框的中心为放大中心,放大w倍得到下一帧图像的搜索框,w的取值范围为1.5≤w≤5,具体可以为1.5、2、2.5、3、3.5、4、4.5或者5,还可以是1.5到5之间的其它数值。
(3)通过卷积神经网络分别提取步骤(1)视频序列中每帧图像的图像特征,由图像特征一一对应构成每帧图像的特征图,所得到的特征图对应作为各自图像的模板,还由特征图生成响应图,由特征图生成响应图的具体方法为:
Rt为第t帧图像的响应图,b1为神经网络模型的随机量,此处的随机变量如同回归模型的随机量,起到提高模型拟合能力的作用。★为卷积运算互相关操作,为初始帧图像的特征图,/>为第t帧图像的特征图。
再由响应图计算峰距率,由响应图计算峰距率的方法为:
PRRt为第t帧图像的峰距率,Rt为第t帧的响应图,max(Rt)表示Rt的最大值,min(Rt)表示Rt的最小值。
如此,视频序列中的每帧图像对应有各自的特征图、模板、响应图以及峰距率。其中,初始帧图像的特征图作为初始模板,并作为下一帧图像的目标模板。
(4)读取步骤(1)视频序列中的第t帧图像,t为大于1的自然数,根据第t帧的目标模板确定目标在本帧图像搜索框中的位置,得到目标在第t帧图像中的目标框,完成第t帧图像的目标跟踪;第t帧图像的模板为当前模板,以目标框的中心为放大中心,放大w倍得到第t+1帧图像的搜索框,w的取值范围为1.5≤w≤5,具体可以为1.5、2、2.5、3、3.5、4、4.5或者5,还可以是1.5到5之间的其它数值。
(5)判断步骤(4)中t是否大于m,m为设定的自然数,具体地,0.2K≤m≤0.6K,可以通过滑动窗口的方式来设定,也可以是设定的某一具体数值,如果视频的光线变化较大、目标在移动的过程中有遮挡或者目标的形状及尺寸变化大,则m的取值趋小,反之则可趋大;
当t≤m时,将初始模板、累积模板与和当前模板输入深度学习模型进行模板更新,将更新的模板作为第t+1帧图像的目标模板;累积模板为初始模板与当前模板之间的模板;具体为:
Tt+1为深度学习后得到的模板,模板φ为深度学习函数,为初始模板。
当t>m时,将m帧图像按峰距率由大到小排列,m帧图像的帧数所在区间为[t-m-1,t-1],选择前n帧图像对应的模板为局部最优模板,n为0.4m≤n≤0.8m的自然数。局部最优模板根据各自的自适应权重进行融合,得到自适应融合模板,将自适应融合模板与当前模板输入深度学习模型进行模板更新,将更新的模板作为第t+1帧图像的目标模板。
自适应权重的确定方法为:
ωt为当前模板的自适应权重,ωj为局部最优模板的自适应权重,为局部可信模板中第j个模板对应的峰距率。
自适应融合模板的获得方法为:
表示自适应融合模板,Tt为当前模板。
深度学习更新方法为:
(6)步骤(5)后,计算t=t+1,判断t是否小于K,小于则重复步骤(4),否则完成目标跟踪。
为了验证本发明的整体跟踪性能,对单目标主流的跟踪平台UAVDT数据集上的50个视频和其中13个受复杂环境影响的视频(S0304、S0305、S0801、S1301、S1306、S1307、S1308、S1311、S1312、S1313、S1501、S1607和S1701)进行了验证,在精确度和成功率两个指标上进行了整体评估。
表1中展示了13个受复杂环境影响的视频,本发明与UpdateNet跟踪器在精确度和成功率指标下的对比,如表1中所示,相比基线UpdateNet跟踪器,本发明在精确度上提高6.3%,成功率提高约11.9%。
表1.UAVDT数据集结果对比
跟踪器 | 精确度 | 成功率 |
UpdateNet | 81.8% | 68.8% |
本发明 | 88.1% | 80.7% |
表2展示了在UAVDT全部50个视频下,本发明与UpdateNet跟踪器在精确度和成功率指标下的对比,如表2中所示,相比基线UpdateNet跟踪器,本发明在精确度上提高1.4%,成功率提高约2.4%。
表2.UAVDT数据集结果对比
跟踪器 | 精确度 | 成功率 |
UpdateNet | 83.1% | 73.5% |
本发明 | 84.5% | 75.9% |
图2和图4是UpdateNet算法针对S0304跟踪结果,黑色矩形框为跟踪框,在158帧时可跟踪到目标,但358帧时发生漂移;图3和图5是本发明方法针对S0304跟踪结果,能够准确地跟踪到目标。图6、图8和图10是UpdateNet算法针对S0801的跟踪结果,黑色矩形框为跟踪框,在60帧时可跟踪到目标,但218帧时发生漂移;图7、图9和图11是本发明方法针对S0801跟踪结果,能够准确地跟踪到目标,因此本发明方法具有显著的跟踪性能。其中,视频S0304共359帧图像,视频S0801共526帧图像。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (7)
1.一种孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,其特征在于:包括以下步骤:
(1)读取待跟踪的视频序列,确定视频序列中图像的总帧数K;
(2)获取步骤(1)视频序列中的初始帧图像,根据初始帧图像确定被跟踪目标,获得跟踪目标在初始帧图像中的目标框,以目标框中心为中心放大w倍,作为下一帧图像的搜索框;
(3)通过卷积神经网络分别提取步骤(1)视频序列中各帧图像的图像特征,构成各自图像的特征图,各帧图像的特征图作为各自图像的模板,由各帧图像的特征图对应生成各自的响应图,由响应图计算峰距率;其中,初始帧图像的特征图作为初始模板,并作为下一帧图像的目标模板;
由特征图生成响应图的具体方法为:
Rt为第t帧图像的响应图,b1为神经网络模型的随机量,★为卷积运算互相关操作,为初始帧图像的特征图,/>为第t帧图像的特征图;
由响应图计算峰距率的方法为:
PRRt为第t帧图像的峰距率,Rt为第t帧的响应图,max(Rt)表示Rt的最大值,min(Rt)表示Rt的最小值;
(4)读取第t帧图像,t为大于1的自然数,根据第t帧的目标模板确定目标在本帧搜索框中的位置,得到目标在第t帧图像中目标框,完成第t帧图像的目标跟踪;第t帧图像的模板为当前模板,以目标框中心为中心放大w倍,作为下一帧图像的搜索框;
(5)判断步骤(4)中t是否大于m,m为设定的自然数,0.2K≤m≤0.6K;
t≤m时,将初始模板、累积模板与和当前模板输入深度学习模型进行模板更新,将更新的模板作为第t+1帧图像的目标模板;累积模板为初始模板与当前模板之间的模板;
t>m时,将m帧图像按峰距率由大到小排列,m帧图像的帧数所在区间为[t-m-1,t-1],选择前n帧图像对应的各自模板为局部最优模板,n为小于m的自然数,局部最优模板根据各自的自适应权重进行融合,得到自适应融合模板,将自适应融合模板与当前模板输入深度学习模型进行模板更新,将更新的模板作为第t+1帧图像的目标模板;
(6)步骤(5)后,计算t=t+1,判断t是否小于K,小于则重复步骤(4),否则完成目标跟踪。
2.按照权利要求1所述的孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,其特征在于:步骤(5)中,自适应权重的确定方法为:
vt为当前模板的自适应权重,ωj为局部最优模板的自适应权重,为局部可信模板中第j个模板对应的峰距率。
3.按照权利要求2所述的孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,其特征在于:步骤(5)中,自适应融合模板的获得方法为:
表示自适应融合模板,Tt为当前模板,/>为局部最优模板。
4.按照权利要求3所述的孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,其特征在于:步骤(5)中,
t≤m时,深度学习更新方法为:
t>m时,深度学习更新方法为:
Tt+1为深度学习后得到的模板,模板φ为深度学习函数,为初始模板;/>为累积模板。
5.按照权利要求1至4任一所述的孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,其特征在于:步骤(2)中,根据groundtruth确定初始帧图像中的被跟踪目标。
6.按照权利要求1至4任一所述的孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,其特征在于:步骤(5)中,0.4m≤n≤0.8m。
7.按照权利要求1至4任一所述的孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法,其特征在于:步骤(2)中,1.5≤w≤5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211646915.0A CN115861379B (zh) | 2022-12-21 | 2022-12-21 | 孪生网络基于局部可信模板进行模板更新的视频跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211646915.0A CN115861379B (zh) | 2022-12-21 | 2022-12-21 | 孪生网络基于局部可信模板进行模板更新的视频跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115861379A CN115861379A (zh) | 2023-03-28 |
CN115861379B true CN115861379B (zh) | 2023-10-20 |
Family
ID=85674806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211646915.0A Active CN115861379B (zh) | 2022-12-21 | 2022-12-21 | 孪生网络基于局部可信模板进行模板更新的视频跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115861379B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739692A (zh) * | 2009-12-29 | 2010-06-16 | 天津市亚安科技电子有限公司 | 实时视频目标的快速相关跟踪方法 |
CN106408591A (zh) * | 2016-09-09 | 2017-02-15 | 南京航空航天大学 | 一种抗遮挡的目标跟踪方法 |
CN106408592A (zh) * | 2016-09-09 | 2017-02-15 | 南京航空航天大学 | 一种基于目标模板更新的目标跟踪方法 |
CN107844739A (zh) * | 2017-07-27 | 2018-03-27 | 电子科技大学 | 基于自适应同时稀疏表示的鲁棒性目标追踪方法 |
CN113052875A (zh) * | 2021-03-30 | 2021-06-29 | 电子科技大学 | 一种基于状态感知模板更新的目标跟踪算法 |
CN113129335A (zh) * | 2021-03-25 | 2021-07-16 | 西安电子科技大学 | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 |
JP2021128761A (ja) * | 2020-02-14 | 2021-09-02 | 富士通株式会社 | 道路監視ビデオのオブジェクト追跡装置及び方法 |
CN113379787A (zh) * | 2021-06-11 | 2021-09-10 | 西安理工大学 | 基于3d卷积孪生神经网络和模板更新的目标跟踪方法 |
CN113628246A (zh) * | 2021-07-28 | 2021-11-09 | 西安理工大学 | 一种基于3d卷积模板更新的孪生网络目标跟踪方法 |
CN113838087A (zh) * | 2021-09-08 | 2021-12-24 | 哈尔滨工业大学(威海) | 一种抗遮挡目标跟踪方法及系统 |
CN114972435A (zh) * | 2022-06-10 | 2022-08-30 | 东南大学 | 基于长短时集成外观更新机制的目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110033478A (zh) * | 2019-04-12 | 2019-07-19 | 北京影谱科技股份有限公司 | 基于深度对抗训练的视觉目标跟踪方法和装置 |
-
2022
- 2022-12-21 CN CN202211646915.0A patent/CN115861379B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739692A (zh) * | 2009-12-29 | 2010-06-16 | 天津市亚安科技电子有限公司 | 实时视频目标的快速相关跟踪方法 |
CN106408591A (zh) * | 2016-09-09 | 2017-02-15 | 南京航空航天大学 | 一种抗遮挡的目标跟踪方法 |
CN106408592A (zh) * | 2016-09-09 | 2017-02-15 | 南京航空航天大学 | 一种基于目标模板更新的目标跟踪方法 |
CN107844739A (zh) * | 2017-07-27 | 2018-03-27 | 电子科技大学 | 基于自适应同时稀疏表示的鲁棒性目标追踪方法 |
JP2021128761A (ja) * | 2020-02-14 | 2021-09-02 | 富士通株式会社 | 道路監視ビデオのオブジェクト追跡装置及び方法 |
CN113129335A (zh) * | 2021-03-25 | 2021-07-16 | 西安电子科技大学 | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 |
CN113052875A (zh) * | 2021-03-30 | 2021-06-29 | 电子科技大学 | 一种基于状态感知模板更新的目标跟踪算法 |
CN113379787A (zh) * | 2021-06-11 | 2021-09-10 | 西安理工大学 | 基于3d卷积孪生神经网络和模板更新的目标跟踪方法 |
CN113628246A (zh) * | 2021-07-28 | 2021-11-09 | 西安理工大学 | 一种基于3d卷积模板更新的孪生网络目标跟踪方法 |
CN113838087A (zh) * | 2021-09-08 | 2021-12-24 | 哈尔滨工业大学(威海) | 一种抗遮挡目标跟踪方法及系统 |
CN114972435A (zh) * | 2022-06-10 | 2022-08-30 | 东南大学 | 基于长短时集成外观更新机制的目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
Learning the Model Update for Siamese Trackers;Lichao Zhang 等;《IEEE》;4010-4019 * |
Learning the model update with local trusted templates for visual tracking;Zhiyong An 等;《https://doi.org/10.1049/ipr2.12654》;1-28 * |
基于孪生网络融合多模板的目标跟踪算法;杨哲 等;《计算机工程与应用》;第第58卷卷(第第4期期);212-220 * |
Also Published As
Publication number | Publication date |
---|---|
CN115861379A (zh) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109214349B (zh) | 一种基于语义分割增强的物体检测方法 | |
CN111160407B (zh) | 一种深度学习目标检测方法及系统 | |
CN114299417A (zh) | 一种基于雷视融合的多目标跟踪方法 | |
CN110853074B (zh) | 一种利用光流增强目标的视频目标检测网络系统 | |
CN109871763A (zh) | 一种基于yolo的特定目标跟踪方法 | |
CN109886079A (zh) | 一种车辆检测与跟踪方法 | |
CN104680559A (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN107944354B (zh) | 一种基于深度学习的车辆检测方法 | |
CN110502962B (zh) | 视频流中目标的检测方法、装置、设备和介质 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
Tsintotas et al. | DOSeqSLAM: Dynamic on-line sequence based loop closure detection algorithm for SLAM | |
CN111429485B (zh) | 基于自适应正则化和高信度更新的跨模态滤波跟踪方法 | |
CN113129336A (zh) | 一种端到端多车辆跟踪方法、系统及计算机可读介质 | |
CN112287906B (zh) | 一种基于深度特征融合的模板匹配跟踪方法及系统 | |
Han et al. | A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection | |
CN116229112A (zh) | 一种基于多重注意力的孪生网络目标跟踪方法 | |
CN117541652A (zh) | 一种基于深度lk光流法与d-prosac采样策略的动态slam方法 | |
CN112164093A (zh) | 一种基于边缘特征和相关滤波的人物自动跟踪方法 | |
CN113627481A (zh) | 一种面向智慧园林的多模型组合的无人机垃圾分类方法 | |
CN111368625B (zh) | 一种基于级联优化的行人目标检测方法 | |
CN115861379B (zh) | 孪生网络基于局部可信模板进行模板更新的视频跟踪方法 | |
CN115880332A (zh) | 一种低空飞行器视角的目标跟踪方法 | |
CN114694042A (zh) | 一种基于改进Scaled-YOLOv4的伪装人员目标检测方法 | |
CN110738113B (zh) | 一种基于邻近尺度特征滤除与转移的物体检测方法 | |
CN113808170B (zh) | 一种基于深度学习的反无人机跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |