CN111754546A - 一种基于多特征图融合的目标跟踪方法、系统及存储介质 - Google Patents
一种基于多特征图融合的目标跟踪方法、系统及存储介质 Download PDFInfo
- Publication number
- CN111754546A CN111754546A CN202010559161.XA CN202010559161A CN111754546A CN 111754546 A CN111754546 A CN 111754546A CN 202010559161 A CN202010559161 A CN 202010559161A CN 111754546 A CN111754546 A CN 111754546A
- Authority
- CN
- China
- Prior art keywords
- target
- feature
- branch
- area image
- regression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000004927 fusion Effects 0.000 title claims abstract description 29
- 230000004044 response Effects 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 abstract description 6
- 230000008859 change Effects 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明请求保护一种基于多特征图融合的目标跟踪方法、系统及存储介质,包括步骤:S1将初始帧中已经标注好位置的待跟踪目标区域图像和当前帧搜索区域图像送入同一个特征提取网络,分别得到三个输出特征图;S2对三个输出特征图进行卷积;S3将融合后特征图分别送入分类分支和回归分支,在分类分支中得到目标位置响应图,在回归分支得到当前位置对目标位置的尺度变换和平移;S4结合分类分支的最大响应区域与回归分支的目标移动量,预测表示出待跟踪目标在当前帧的位置。本发明提高了跟踪方法在目标尺度变化较大等复杂情况下的鲁棒性与准确率。
Description
技术领域
本发明属于图像处理技术领域,特别涉及基于卷积神经网络的多特征融合的目标跟踪方法、系统。
背景技术
目标跟踪方法属于计算机视觉领域,并在军事安防娱乐等众多方面有着广泛的应用。目标跟踪方法主要分为基于传统方法的跟踪方法和基于卷积神经网络的跟踪方法两类。
基于传统方法的跟踪方法中,相关滤波最具有代表性。核心思想是训练时使用目标周围区域的循环矩阵制作正负样本集,并利用岭回归训练一个目标检测器,在跟踪时通过检测器判别出目标的位置。因为是离线训练,所以实际跟踪时计算量小,速度较之前的方法有很大的提升,可以满足实时性的要求。
基于卷积神经网络的目标跟踪方法中,主要有基于分类的卷积神经网络跟踪方法,基于回归的卷积神经网络跟踪方法,基于相似度匹配的卷积神经网络跟踪方法,其中基于相似度匹配的方法最有代表性。最初此方法是在搜索区域中划分出多个候选区域,再分别与目标区域进行相似度计算,找到相似度最高的区域。之后思路直接通过特征提取网络,将目标区域和候选区域进行卷积,得到对应的特征图,然后再在特征图上进行卷积,得到相似度的响应图,最大响应区域映射回搜索区域,即为目标的预测位置。
虽然跟踪方法很多,但是在实际场景下仍然存在很多挑战,例如光照变化,背景的相似性干扰,遮挡,目标形变问题等。之前的基于卷积神经网络的跟踪方法,虽然在实时性上有很大的提高,但是对于目标的形变问题与预测准确度仍存在一定问题。目前对于目标的形变问题采用的是图像金字塔的预处理,将目标手动设定为几个固定的尺度,再传入深度学习模型。本发明主要解决的就是跟踪目标不同尺度的形变问题,通过多个特征图的融合,来很好的适应目标的尺度变换。之前的发明是固定几个尺度的,而本发明通过深度学习模型来学习目标的尺度变换,并且几个特征图进行融合,使得模型的鲁棒性更强。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种基于多特征图融合的目标跟踪方法。本发明的技术方案如下:
一种基于多特征图融合的目标跟踪方法,其包括以下步骤:
S1、将初始帧中已经标注好位置的待跟踪目标区域图像和当前帧搜索区域图像送入同一个特征提取网络,目标区域图像与带搜索区域图像分别得到三个输出特征图;
S2、将目标区域图像与带搜索区域图像各自的三个输出特征图进行卷积融合,分别得到融合后的特征图;
S3、将融合后特征图分别送入分类分支和回归分支,在分类分支中通过特征图卷积操作,计算两个特征图对应位置间的交叉互相关性,得到特征响应图;在回归分支中分别表示当前位置与目标位置下标的相关偏移量;
S4、结合分类分支的最大响应区域与回归分支的目标移动量,预测表示出待跟踪目标在当前帧的位置。
进一步的,所述步骤S1的特征提取网络以深度学习网络模型中常用的残差模块为基础进行网络搭建,并在网络的第16层,第19层和第22层分别输出网络通道特征图(F1),网络通道特征图(F2)和网络通道特征图(F3)。
进一步的,所述步骤S2将目标区域图像与带搜索区域图像各自的三个输出特征图进行卷积融合,分别得到融合后的特征图(Ff),计算公式为:
Ff=F1*F2*F3(*为卷积操作)
进一步的,所述步骤S3将融合后特征图分别送入分类分支和回归分支,在分类分支中,将模板特征图在搜索特征图上进行滑动,并依次进行卷积操作,分别得到特征图对应位置间的相似度响应值,当滑动完成之后,得到由不同位置相似度响应值组成的特征响应图;
进一步的,所述步骤S3在回归分支中分别表示当前位置与目标位置下标的相关偏移量,具体包括:
所述回归分支是通过对两个区域的中心位置坐标及长宽进行L1的损失函数约束和GIoU的面积约束回归得到,计算公式为:
IoU表示模板区域与预测区域的交并比,BC是包围两个区域的最小区域,U是两个区域的并集。
进一步的,所述步骤S4的结果结合是在分类分支中得到的最大响应点映射回原图,并根据回归分支学习到的坐标回归,对目标中心位置和长宽进行移动和放缩,达到尺度变换与偏移的目的。
一种基于多特征图融合的目标跟踪系统,其包括:
特征图获取模块:用于将初始帧中已经标注好位置的待跟踪目标区域图像和当前帧搜索区域图像送入同一个特征提取网络,目标区域图像与带搜索区域图像分别得到三个输出特征图;
卷积融合模块:用于将目标区域图像与带搜索区域图像各自的三个输出特征图进行卷积融合,分别得到融合后的特征图;
分类回归模块:用于将融合后特征图分别送入分类分支和回归分支,在分类分支中通过特征图卷积操作,计算两个特征图对应位置间的交叉互相关性,得到特征响应图;在回归分支中分别表示当前位置与目标位置下标的相关偏移量;
预测模块:用于结合分类分支的最大响应区域与回归分支的目标移动量,预测表示出待跟踪目标在当前帧的位置。
一种存储介质,所述存储介质为计算机可读存储介质,其存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行任一项所述的方法。
本发明的优点及有益效果如下:
本发明的创新主要是步骤S2,将特征提取网络进行多个特征图输出,并将多个特征图进行卷积融合,使得到的融合特征图能表示不同尺度目标的语义信息和结构信息,有利于后面的相似度计算。其对应的优点是通过网络去学习目标的尺度变换,而不是将图像简单的放缩为固定的几个尺度大小,而且特征图进行融合,可以增强网络模型的鲁棒性。最终我们的方法可以很好的适应目标的形变问题并且提高跟踪的准确率。
附图说明
图1是本发明提供优选实施例的流程图;
表1是与其他主流方法比较的结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
如图1所示为一种基于多特征图融合的目标跟踪方法,其包括以下步骤:
S1、将视频初始帧中已经标注好位置的待跟踪目标区域图像和当前帧搜索区域图像送入同一个特征提取网络,分别得到三个输出特征图;
S2、将目标区域图像与带搜索区域图像各自的三个输出特征图进行卷积融合,分别得到融合后的特征图;
S3、将两个融合后的特征图送入对应的分类分支和回归分支;在分类分支中通过特征图卷积操作,计算两个特征图对应位置间的交叉互相关性,得到特征响应图;在回归分支中分别表示当前位置与目标位置下标的相关偏移量;
S4、将分类分支特征相应图最大响应区域与回归分支对应区域的偏移量结果相结合,预测表示出待跟踪目标在当前帧的位置。
优选的,所述步骤S1的特征提取网络以残差模块为基础进行网络搭建,并在网络的第16层,第19层和第22层分别输出特征图(F1),特征图(F2)和特征图(F3)。
优选的,所述S2的卷积融合直接通过卷积操作得到融合后的特征图(Ff),计算公式为:
Ff=F1*F2*F3(*为卷积操作)
优选的,所述步骤3的分类分支中的特征响应图是将搜索区域特征图与目标区域特征图进行卷积操作得到;所述步骤3的回归分支是通过对两个区域的中心位置坐标及长宽进行L1的损失函数约束和GIoU的面积约束回归得到。
优选的,所述步骤4的结果结合是在分类分支中得到的最大响应点映射回原图,并根据回归分支的坐标回归,对目标进行尺度变换与偏移。
一种基于多特征图融合的目标跟踪系统,其包括:
特征图获取模块:用于将初始帧中已经标注好位置的待跟踪目标区域图像和当前帧搜索区域图像送入同一个特征提取网络,目标区域图像与带搜索区域图像分别得到三个输出特征图;
卷积融合模块:用于将目标区域图像与带搜索区域图像各自的三个输出特征图进行卷积融合,分别得到融合后的特征图;
分类回归模块:用于将融合后特征图分别送入分类分支和回归分支,在分类分支中通过特征图卷积操作,计算两个特征图对应位置间的交叉互相关性,得到特征响应图;在回归分支中分别表示当前位置与目标位置下标的相关偏移量;
预测模块:用于结合分类分支的最大响应区域与回归分支的目标移动量,预测表示出待跟踪目标在当前帧的位置。
一种存储介质,所述存储介质为计算机可读存储介质,其存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行如以上任一所述的方法。
表1
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (8)
1.一种基于多特征图融合的目标跟踪方法,其特征在于,包括以下步骤:
S1、将初始帧中已经标注好位置的待跟踪目标区域图像和当前帧搜索区域图像送入同一个特征提取网络,目标区域图像与带搜索区域图像分别得到三个输出特征图;
S2、将目标区域图像与带搜索区域图像各自的三个输出特征图进行卷积融合,分别得到融合后的特征图;
S3、将融合后特征图分别送入分类分支和回归分支,在分类分支中通过特征图卷积操作,计算两个特征图对应位置间的交叉互相关性,得到特征响应图;在回归分支中分别表示当前位置与目标位置下标的相关偏移量;
S4、结合分类分支的最大响应区域与回归分支的目标移动量,预测表示出待跟踪目标在当前帧的位置。
2.根据权利要求1所述的一种基于多特征图融合的目标跟踪方法,其特征在于,所述步骤S1的特征提取网络以深度学习网络模型中常用的残差模块为基础进行网络搭建,并在网络的第16层,第19层和第22层分别输出网络通道特征图(F1),网络通道特征图(F2)和网络通道特征图(F3)。
3.根据权利要求1或2所述的一种基于多特征图融合的目标跟踪方法,其特征在于,所述步骤S2将目标区域图像与带搜索区域图像各自的三个输出特征图进行卷积融合,分别得到融合后的特征图(Ff),计算公式为:
Ff=F1*F2*F3(*为卷积操作)。
4.根据权利要求3所述的一种基于多特征图融合的目标跟踪方法,其特征在于,所述步骤S3将融合后特征图分别送入分类分支和回归分支,在分类分支中,将模板特征图在搜索特征图上进行滑动,并依次进行卷积操作,分别得到特征图对应位置间的相似度响应值,当滑动完成之后,得到由不同位置相似度响应值组成的特征响应图。
6.根据权利要求5所述的一种基于多特征图融合的目标跟踪方法,其特征在于,所述步骤S4的结果结合是在分类分支中得到的最大响应点映射回原图,并根据回归分支学习到的坐标回归,对目标中心位置和长宽进行移动和放缩,达到尺度变换与偏移的目的。
7.一种基于多特征图融合的目标跟踪系统,其特征在于,包括:
特征图获取模块:用于将初始帧中已经标注好位置的待跟踪目标区域图像和当前帧搜索区域图像送入同一个特征提取网络,目标区域图像与带搜索区域图像分别得到三个输出特征图;
卷积融合模块:用于将目标区域图像与带搜索区域图像各自的三个输出特征图进行卷积融合,分别得到融合后的特征图;
分类回归模块:用于将融合后特征图分别送入分类分支和回归分支,在分类分支中通过特征图卷积操作,计算两个特征图对应位置间的交叉互相关性,得到特征响应图;在回归分支中分别表示当前位置与目标位置下标的相关偏移量;
预测模块:用于结合分类分支的最大响应区域与回归分支的目标移动量,预测表示出待跟踪目标在当前帧的位置。
8.一种存储介质,所述存储介质为计算机可读存储介质,其存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行如权利要求1-6任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010559161.XA CN111754546A (zh) | 2020-06-18 | 2020-06-18 | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010559161.XA CN111754546A (zh) | 2020-06-18 | 2020-06-18 | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111754546A true CN111754546A (zh) | 2020-10-09 |
Family
ID=72675446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010559161.XA Pending CN111754546A (zh) | 2020-06-18 | 2020-06-18 | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111754546A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561956A (zh) * | 2020-11-25 | 2021-03-26 | 中移(杭州)信息技术有限公司 | 视频目标跟踪方法、装置、电子设备及存储介质 |
CN112967232A (zh) * | 2021-02-04 | 2021-06-15 | 复旦大学附属中山医院 | 基于图卷积的胃癌病理图像分割网络结构 |
CN113129345A (zh) * | 2021-04-19 | 2021-07-16 | 重庆邮电大学 | 一种基于多特征图融合和多尺度膨胀卷积的目标跟踪方法 |
CN113269809A (zh) * | 2021-05-07 | 2021-08-17 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN113920172A (zh) * | 2021-12-14 | 2022-01-11 | 成都睿沿芯创科技有限公司 | 一种目标跟踪方法、装置、设备以及存储介质 |
CN114240994A (zh) * | 2021-11-04 | 2022-03-25 | 北京工业大学 | 目标跟踪方法、装置、电子设备及存储介质 |
CN114245206A (zh) * | 2022-02-23 | 2022-03-25 | 阿里巴巴达摩院(杭州)科技有限公司 | 视频处理方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830170A (zh) * | 2018-05-24 | 2018-11-16 | 杭州电子科技大学 | 一种基于分层特征表示的端到端目标跟踪方法 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN109102025A (zh) * | 2018-08-15 | 2018-12-28 | 电子科技大学 | 基于深度学习联合优化的行人重识别方法 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
-
2020
- 2020-06-18 CN CN202010559161.XA patent/CN111754546A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830170A (zh) * | 2018-05-24 | 2018-11-16 | 杭州电子科技大学 | 一种基于分层特征表示的端到端目标跟踪方法 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109102025A (zh) * | 2018-08-15 | 2018-12-28 | 电子科技大学 | 基于深度学习联合优化的行人重识别方法 |
Non-Patent Citations (2)
Title |
---|
BO LI ET AL: "High Performance Visual Tracking with Siamese Region Proposal Network", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
高俊艳 等: "结合注意力与特征融合的目标跟踪", 《广州工业大学学报》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561956A (zh) * | 2020-11-25 | 2021-03-26 | 中移(杭州)信息技术有限公司 | 视频目标跟踪方法、装置、电子设备及存储介质 |
CN112561956B (zh) * | 2020-11-25 | 2023-04-28 | 中移(杭州)信息技术有限公司 | 视频目标跟踪方法、装置、电子设备及存储介质 |
CN112967232A (zh) * | 2021-02-04 | 2021-06-15 | 复旦大学附属中山医院 | 基于图卷积的胃癌病理图像分割网络结构 |
CN113129345A (zh) * | 2021-04-19 | 2021-07-16 | 重庆邮电大学 | 一种基于多特征图融合和多尺度膨胀卷积的目标跟踪方法 |
CN113269809A (zh) * | 2021-05-07 | 2021-08-17 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN113269809B (zh) * | 2021-05-07 | 2022-06-21 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN114240994A (zh) * | 2021-11-04 | 2022-03-25 | 北京工业大学 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113920172A (zh) * | 2021-12-14 | 2022-01-11 | 成都睿沿芯创科技有限公司 | 一种目标跟踪方法、装置、设备以及存储介质 |
CN113920172B (zh) * | 2021-12-14 | 2022-03-01 | 成都睿沿芯创科技有限公司 | 一种目标跟踪方法、装置、设备以及存储介质 |
CN114245206A (zh) * | 2022-02-23 | 2022-03-25 | 阿里巴巴达摩院(杭州)科技有限公司 | 视频处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111754546A (zh) | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 | |
CN107291945B (zh) | 基于视觉注意力模型的高精度服装图像检索方法及系统 | |
CN112329680B (zh) | 基于类激活图的半监督遥感影像目标检测和分割方法 | |
CN111612834B (zh) | 生成目标图像的方法、装置及设备 | |
CN113129345A (zh) | 一种基于多特征图融合和多尺度膨胀卷积的目标跟踪方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN113536003B (zh) | 特征提取模型训练方法、图像检索方法、装置和设备 | |
CN113838135B (zh) | 基于lstm双流卷积神经网络的位姿估计方法、系统及介质 | |
CN109902588B (zh) | 一种手势识别方法、装置及计算机可读存储介质 | |
CN112308102B (zh) | 图像相似度计算方法、计算装置及存储介质 | |
CN111950370A (zh) | 动态环境下线拓展视觉里程计方法 | |
CN113723352B (zh) | 一种文本检测方法、系统、存储介质及电子设备 | |
CN111126358A (zh) | 人脸检测方法、装置、存储介质及设备 | |
CN113466839B (zh) | 侧扫声呐海底线检测方法和装置 | |
CN113963236A (zh) | 目标检测方法及装置 | |
CN114638996A (zh) | 基于对抗学习的模型训练方法、装置、设备和存储介质 | |
CN111008992A (zh) | 目标跟踪方法、装置和系统及存储介质 | |
CN112257686B (zh) | 人体姿态识别模型的训练方法、装置及存储介质 | |
CN111967365B (zh) | 影像连接点的提取方法和装置 | |
CN114332112A (zh) | 一种细胞图像分割方法、装置、电子设备及存储介质 | |
CN110826726B (zh) | 目标处理方法、目标处理装置、目标处理设备及介质 | |
CN113378715A (zh) | 一种基于彩色人脸图像的活体检测方法及相关设备 | |
CN117372327B (zh) | 一种水田导航基准线检测方法、系统及设备 | |
CN113361702A (zh) | 卷积神经网络剪枝、推理方法、设备以及计算机可读介质 | |
CN114662614B (zh) | 图像分类模型的训练方法、图像分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201009 |
|
RJ01 | Rejection of invention patent application after publication |