CN109767456A - 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 - Google Patents

一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 Download PDF

Info

Publication number
CN109767456A
CN109767456A CN201910018842.2A CN201910018842A CN109767456A CN 109767456 A CN109767456 A CN 109767456A CN 201910018842 A CN201910018842 A CN 201910018842A CN 109767456 A CN109767456 A CN 109767456A
Authority
CN
China
Prior art keywords
feature
frame
region
search
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910018842.2A
Other languages
English (en)
Inventor
刘娜
岳琪琪
李小毛
罗均
彭艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201910018842.2A priority Critical patent/CN109767456A/zh
Publication of CN109767456A publication Critical patent/CN109767456A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉技术领域,具体涉及一种基于SiameseFC框架和PFP神经网络的目标跟踪方法,包括以下步骤:(1)基于SiameseFC框架,对视频第1帧中的目标区域进行处理得到模板特征;将模板特征输入到PFP神经网络中,得到模板最终特征;(2)基于SiameseFC框架,对t‑1帧中的目标区域进行处理得到搜索区域特征;将搜索区域特征输入到PFP神经网络中得到搜索区域最终特征;(3)将模板最终特征作为卷积核,在搜索区域最终特征上进行卷积,确定第t帧中跟踪目标的中心位置以及目标区域;(4)重复步骤(2)步骤(3)至视频结束,完成对跟踪目标的中心位置以及目标区域的跟踪。本发明能够对上下文信息和不同感受野信息进行融合,从而提高目标跟踪精度。

Description

一种基于SiameseFC框架和PFP神经网络的目标跟踪方法
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于SiameseFC框架和PFP神经网络的目标跟踪方法。
背景技术
目标跟踪由于其在行为分析、车辆导航、人机交互、医学成像、视频监控等众多领域都有着广阔的应用,从而成为计算机视觉技术最活跃的研究之一。目标跟踪是指在给定视频第1帧中的目标位置,对之后的每一帧进行目标定位。目标跟踪的核心问题紧跟随着时间不断变化的目标。尽管近年来在国内外学者的不断研究下,目标跟踪算法得到了迅速发展,但在光照变化剧烈、目标快速运动、部分遮挡等情况下仍然无法取得很好效果。
近年来,国内外学者提出了多种跟踪算法,主要可以分成两类:一类是基于对于目标本身进行描述和刻画的生成式模型;另一类旨在将目标和背景分离开的判别式模型。生成式模型重点在于建立目标外观模型的表征,虽然构建有效的外观模型以处理跟踪中的各种具有挑战性的情况至关重要,但是与此同时,也会增加很大的计算复杂度,并且还会丢弃了可用于更好地将对象与背景分离的目标区域周围的有用信息;判别式模型将跟踪问题转换为目标和背景的二分类问题,即把跟踪的目标作为前景,利用在线学习或离线训练的判断器来区分前景目标和背景,从而得到前景目标的位置。在进行判断前往往会进行特征提取,以作为判断依据提高判断的精确度,但是这也会导致有大量的候选样本需要进行特征提取,使得难以达到实时性。
相关滤波是一种传统的信号处理方法,其描述了两个样本之间的相似程度。2015年KCF算法采用多通道HOG特征,生成循环样本集训练出滤波器并通过傅里叶域的快速运算实现了高速的目标跟踪。但是KCF算法在卷积求解中使用的固定大小的模板,从而导致模型没有尺度自适应的功能,DSST算法在原本的位置滤波器基础上增加了一个尺度滤波器,FDSST算法在DSST算法的基础上进行改进增加其跟踪速度,SAMF算法通过多尺度采样获取候选样本来使得模型具有尺度适应性。由于使用循环位移构造样本增加正负样本数量,图像像素会跨越边界,这样就产生的错误样本,使得分类器判别力降低,即所谓的边界效应。2015年提出的SRDCF算法通过引入成一种符合空间约束的正则化权重系数从而极大地减小了边界效应,提高了跟踪精度。基于相关滤波的跟踪算法属于判别式跟踪算法,其在进行判断前往往会进行特征提取,以作为判断依据提高判断的精确度,特征的表征能力在很大程度上决定了跟踪效果。自从2012年Hinton利用AlexNet深度卷积神经网络在ImageNet图像分类比赛中一举获得第一后,深度卷积神经网络开始兴起,其在许多任务中也展现了其令人惊叹的性能,特别是其所具有的强大的特征提取能力。2015年提出DeepSRDCF算法将VGG深度卷积神经网络应用于SRDCF算法中,使得精度得到进一步的提高。2016年提出的SiameseFC使用全卷积孪生神经网络分别得到模板图像和搜索区域的特征图,直接将模板图像的特征图作为滤波器得到搜索区域中的目标,SiameseFC实现了端到端的训练,使神经网络提取的特征更适用于目标跟踪,同时也解决了边界效应的问题,但是其只能使用单层神经网络所输出的特征图,没有很好的融合上下文信息和不同感受野的信息,这一局限限制了其区分目标与背景和对目标精确定位的能力。
针对目前跟踪算法只使用神经网络最后一层输出的特征,不能很好的融合上下文信息和不同感受野的信息,需要设计一种跟踪算法,使其能很好地融合上下文信息和不同感受野的信息,从而更好的预测目标的位置,使得跟踪精度得到提高。
发明内容
为解决背景技术中存在的问题,本发明的目的在于提供一种基于SiameseFC框架和PFP神经网络的目标跟踪方法。
基于上述目的,本发明采用如下技术方案:
一种基于SiameseFC框架和PFP神经网络的目标跟踪方法,其特征在于,包括以下步骤:
(1)基于SiameseFC框架,对视频第1帧中跟踪目标的中心位置所在的目标区域进行扩大,得到模板图像;将模板图像输入到AlexNet中,得到模板特征;将模板特征输入到PFP神经网络中,得到模板最终特征PZ
(2)基于SiameseFC框架,对t-1帧中跟踪目标的中心位置所在的目标区域进行处理得到搜索区域;将搜索区域输入到AlexNet中,得到搜索区域特征;将搜索区域特征输入到PFP神经网络中得到搜索区域最终特征PX,其中,t为大于等于2的整数;
(3)将步骤(1)得到的模板最终特征PZ作为卷积核,在步骤(2)得到的搜索区域最终特征PX上进行卷积,得到PZ和PX的相关响应图,响应图中响应值最大点所在位置即为第t帧中跟踪目标的中心位置(xt,yt),并确定目标区域(lt,ht);
(4)重复步骤(2)步骤(3)至视频结束,完成对跟踪目标的中心位置以及目标区域的跟踪。
进一步地,所述步骤(1)中获得模板最终特征PZ过程具体为:
①.对视频第1帧中跟踪目标的中心位置所在的目标区域进行扩大,得到模板图像,具体过程为:确定第1帧中跟踪目标的中心位置(x1,y1)以及目标区域(l1,h1),对目标区域进行扩大,得到模板图像Z1(lp,1,hp,1);即
Z1(lp,1,hp,1)=α(l1,h1)
其中,x1为第1帧中跟踪目标的中心位置的横坐标;y1为第1帧中跟踪目标的中心位置的纵坐标;l1为目标区域的长度;h1为目标区域的宽度;α为扩大比例;lp,1为扩大后目标区域的长度;hp,1为扩大后目标区域的宽度;
②.将模板图像输入到AlexNet中,得到模板特征,具体过程为:以AlexNet作为基础神经网络,将模板图像输入到基础神经网络中后得到模板特征其中Z1表示区域通道数为n的模板特征;表示模板特征Z1中的第n维特征;
③.将模板特征Z1输入到PFP神经网络中,得到模板最终特征。
进一步地,步骤③中将模板特征Z1输入到PFP神经网络的具体过程为:
A.将模板特征Z1输入到PFP神经网络中,对Z1进行上采样得到特征对Z1进行下采样得到特征其中,表示特征中的第n维特征,表示特征中的第n维特征;
B.将经过相同大小的卷积核卷积后,其通道数目降低,分别得到特征
C.将特征Z1在通道方向上连接并用1*1的卷积核卷积,使特征Z1融合得到模板最终特征
进一步地,步骤(2)中获得搜索区域最终特征PX过程具体为:
I.基于SiameseFC框架,对t-1帧中跟踪目标的中心位置所在的目标区域进行处理得到搜索区域,具体过程为:根据t-1帧中跟踪目标的中心位置(xt-1,yt-1)以及目标区域(lt-1,ht-1),对目标区域进行扩大,得到扩大后的目标区域(lp,t,hp,t),即(lp,t,hp,t)=γ(lt-1,ht-1),对扩大后的目标区域进行多尺度缩放,得到多种搜索区域图像Xt{(lt,ht)},即Xt{(lt,ht)}={β(lp,t,hp,t)},再将多种搜索区域图像Xt{(lt,ht)}通过插值进行变换为固定大小的搜索区域Xt(lt,ht),其中xt-1为第t-1帧跟踪目标的中心位置的横坐标;yt-1为第t-1帧跟踪目标的中心位置的纵坐标;lt-1为第t-1帧目标区域的长度;ht-1为第t-1帧目标区域的宽度;lp,t为扩大后目标区域的长度;hp,t为扩大后目标区域的宽度;γ为扩大比例;lt为第t帧搜索区域的长度;ht为第t帧搜索区域的宽度;β为缩放比例;
II.将搜索区域输入到AlexNet中,得到搜索区域特征,具体过程为:以AlexNet作为基础神经网络,将搜索区域输入到基础神经网络中后得到搜索区域特征其中,Xt表示区域通道数为n的搜索区域特征,表示搜索区域特征Xt中的第n维特征;
III.将搜索区域特征Xt输入到PFP神经网络中得到搜索区域最终特征PX
进一步地,步骤III中将搜索区域特征Xt输入到PFP神经网络的具体过程为:
a.将搜索区域特征Xt输入到PFP神经网络中,对Xt进行上采样得到特征对Xt进行下采样得到特征其中,表示特征中的第n维特征,表示特征中的第n维特征;
b.将经过相同大小的卷积核卷积后,其通道数目降低,分别得到特征
c.将特征Xt在通道方向上连接并用1*1的卷积核卷积,使特征Xt融合得到搜索区域最终特征
与现有技术相比,本发明的有益效果为:
本发明基于SiameseFC框架,结合PFP神经网络,实现对目标的跟踪,能够对同一深度、不同尺度和不同感受野的特征进行融合,避免了各特征抽象级别不同,也实现了上下文信息和不同感受野信息的融合,从而提高目标跟踪精度;此外,本发明提供的一种基于SiameseFC框架和PFP神经网络的目标跟踪方法是一种实时鲁棒性的跟踪算法,在不同的跟踪场景中取得了良好的效果。
附图说明
图1为本发明的方法流程图;
图2为本发明的神经网络框架图。
具体实施方式
如图1和图2所示,一种基于SiameseFC框架和PFP神经网络的目标跟踪方法,具体步骤为:
1)对于跟踪任务给予的视频中第1帧跟踪目标的中心位置(x1,y1)以及目标区域(l1,h1)信息,对目标区域进行扩大,得到模板图像Z1(lp,1,hp,1);即
Z1(lp,1,hp,1)=α(l1,h1)
其中,x1为第1帧中跟踪目标的中心位置的横坐标;y1为第1帧中跟踪目标的中心位置的纵坐标;l1为目标区域的长度;h1为目标区域的宽度;α为扩大比例;lp,1为扩大后目标区域的长度;hp,1为扩大后目标区域的宽度;目标区域是一个紧紧包围跟踪目标的示意框,跟踪目标的大小、形状决定了目标区域的大小,不同跟踪目标对应的目标区域不尽相同,在本实施例中,所得的模板图像的大小为127*127*3,由于模板图像的实际大小为127*127,而每一张彩色照片的通道数均为3,故在模板图像的大小采用(实际大小*通道数)进行表示;
2)以AlexNet作为基础神经网络,将模板图像输入到基础神经网络中后得到模板特征其中Z1表示区域通道数为n的模板特征;表示模板特征Z1中的第n维特征;AlexNet有5个卷积层,从前至后依次为卷积层1、卷积层2、卷积层3、卷积层4和卷积层5,其中,卷积层1与卷积层2之后均设有最大池化层,卷积层1的卷积核大小为11*11*3,卷积步长为2,卷积层2的卷积核大小为5*5*256,卷积步长为1,卷积层3和卷积层4的卷积核大小均为3*3*192,卷积步长均为1,卷积层5的卷积核大小为3*3*128,卷积步长为1,模板特征Z1的大小为6*6*128;
3)将模板特征Z1输入到PFP神经网络中,对Z1进行上采样得到特征其大小为12*12*128;对Z1进行下采样得到特征其大小为3*3*128;其中,表示特征中的第n维特征,表示特征中的第n维特征;
4)将均经过1*1*64的卷积核卷积后,将其通道数目降低为原来的一半,以提升计算效率,而后,均用3*3*64的卷积核卷积,分别得到降维后的特征
5)将特征Z1在通道方向上连接并用1*1的卷积核卷积,使特征Z1融合得到模板最终特征其大小为6*6*256;
6)基于SiameseFC框架,对t-1帧中跟踪目标的中心位置所在的目标区域进行处理得到搜索区域,具体过程为:根据t-1帧中跟踪目标的中心位置(xt-1,yt-1)以及目标区域(lt-1,ht-1),对目标区域进行扩大,得到扩大后的目标区域(lp,t,hp,t),即(lp,t,hp,t)=γ(lt-1,ht-1),对扩大后的目标区域进行多尺度缩放,得到多种搜索区域图像Xt{(lt,ht)},即Xt{(lt,ht)}={β(lp,t,hp,t)},再将多种搜索区域图像Xt{(lt,ht)}通过插值进行变换为固定大小的搜索区域Xt(lt,ht),变换后所得的搜索区域的大小为255*255*3,其中,t为大于等于2的整数,β为缩放尺度,β={0.985,0.99,1,1.005,1.01,1.015};xt-1为第t-1帧跟踪目标的中心位置的横坐标;yt-1为第t-1帧跟踪目标的中心位置的纵坐标;lt-1为第t-1帧目标区域的长度;ht-1为第t-1帧目标区域的宽度;lp,t为扩大后目标区域的长度;hp,t为扩大后目标区域的宽度;γ为扩大比例;lt为第t帧搜索区域的长度;ht为第t帧搜索区域的宽度;
7)以AlexNet作为基础神经网络,将搜索区域Xt(lt,ht)输入到基础神经网络中后得到搜索区域特征其中,Xt表示通道数为n的搜索区域特征,表示搜索区域特征Xt中的第n维特征;AlexNet有5个卷积层,从前至后依次为卷积层1、卷积层2、卷积层3、卷积层4和卷积层5,其中,卷积层1与卷积层2之后均设有最大池化层,卷积层1的卷积核大小为11*11*3,卷积步长为2,卷积层2的卷积核大小为5*5*256,卷积步长为1,卷积层3和卷积层4的卷积核大小均为3*3*192,卷积步长均为1,卷积层5的卷积核大小为3*3*128,卷积步长为1,搜索区域特征Xt大小为22*22*128;
8)将搜索区域特征Xt输入到PFP神经网络中,对Xt进行上采样得到特征其大小为44*44*128,对Xt进行下采样得到特征其大小为11*11*128,其中,表示特征中的第n维特征,表示特征中的第n维特征;
9)将均经过1*1*64的卷积核卷积后,将其通道数目降低为原来的一半以提升计算效率,而后,均用3*3*64的卷积核卷积,分别得到降维后的特征
10)将特征Xt在通道方向上连接并用1*1的卷积核卷积,使特征Xt融合得到搜索区域最终特征其大小为22*22*256;
11)经上述步骤得到的模板最终特征PZ作为卷积核,在上述步骤得到的搜索区域最终特征PX上进行卷积,得到PZ和PX的相关响应图,响应图中响应值最大点所在位置即为第t帧中跟踪目标的中心位置(xt,yt),并确定目标区域(lt,ht);
12)重复步骤6)至步骤11),至视频结束,完成对跟踪目标的中心位置以及目标区域的跟踪。

Claims (5)

1.一种基于SiameseFC框架和PFP神经网络的目标跟踪方法,其特征在于,包括以下步骤:
(1)基于SiameseFC框架,对视频第1帧中跟踪目标的中心位置所在的目标区域进行扩大,得到模板图像;将模板图像输入到AlexNet中,得到模板特征;将模板特征输入到PFP神经网络中,得到模板最终特征PZ
(2)基于SiameseFC框架,对t-1帧中跟踪目标的中心位置所在的目标区域进行处理得到搜索区域;将搜索区域输入到AlexNet中,得到搜索区域特征;将搜索区域特征输入到PFP神经网络中得到搜索区域最终特征PX,其中,t为大于等于2的整数;
(3)将步骤(1)得到的模板最终特征PZ作为卷积核在步骤(2)得到的搜索区域最终特征PX上进行卷积,得到PZ和PX的相关响应图,响应图中响应值最大点所在位置即为第t帧中跟踪目标的中心位置,从而确定目标区域;
(4)重复步骤(2)、步骤(3)至视频结束,完成对跟踪目标的中心位置以及目标区域的跟踪。
2.根据权利要求1所述的基于SiameseFC框架和PFP神经网络的目标跟踪方法,其特征在于,所述步骤(1)中获得模板最终特征PZ过程具体为:
①.对视频第1帧中跟踪目标的中心位置所在的目标区域进行扩大,得到模板图像,具体过程为:确定第1帧中跟踪目标的中心位置(x1,y1)以及目标区域(l1,h1),对目标区域进行扩大,得到模板图像Z1(lp,1,hp,1);即
Z1(lp,1,hp,1)=α(l1,h1)
其中,x1为第1帧中跟踪目标的中心位置的横坐标;y1为第1帧中跟踪目标的中心位置的纵坐标;l1为第1帧目标区域的长度;h1为第1帧目标区域的宽度;α为扩大比例;lp,1为扩大后目标区域的长度;hp,1为扩大后目标区域的宽度;
②.将模板图像输入到AlexNet中,得到模板特征,具体过程为:以AlexNet作为基础神经网络,将模板图像输入到基础神经网络中后得到模板特征其中Z1表示区域通道数为n的模板特征;表示模板特征Z1中的第n维特征;
③.将模板特征Z1输入到PFP神经网络中,得到模板最终特征PZ
3.根据权利要求2所述的基于SiameseFC框架和PFP神经网络的目标跟踪方法,其特征在于,所述步骤③中将模板特征Z1输入到PFP神经网络的具体过程为:
A.将模板特征Z1输入到PFP神经网络中,对Z1进行上采样得到特征对Z1进行下采样得到特征其中,表示特征中的第n维特征,表示特征中的第n维特征;
B.将经过相同大小的卷积核卷积后,其通道数目降低,分别得到特征
C.将特征Z1在通道方向上连接并用1*1的卷积核卷积,使特征Z1融合得到模板最终特征
4.根据权利要求1-3任一所述的基于SiameseFC框架和PFP神经网络的目标跟踪方法,其特征在于,所述步骤(2)中获得搜索区域最终特征PX过程具体为:
I.基于SiameseFC框架,对t-1帧中跟踪目标的中心位置所在的目标区域进行处理得到搜索区域,具体过程为:根据t-1帧中跟踪目标的中心位置(xt-1,yt-1)以及目标区域(lt-1,ht-1),对目标区域进行扩大,得到扩大后的目标区域(lp,t,hp,t),即(lp,t,hp,t)=γ(lt-1,ht-1),对扩大后的目标区域进行多尺度缩放,得到多种搜索区域图像Xt{(lt,ht)},即Xt{(lt,ht)}={β(lp,t,hp,t)},再将多种搜索区域图像Xt{(lt,ht)}通过插值进行变换为固定大小的搜索区域Xt(lt,ht),
其中xt-1为第t-1帧跟踪目标的中心位置的横坐标;yt-1为第t-1帧跟踪目标的中心位置的纵坐标;lt-1为第t-1帧目标区域的长度;ht-1为第t-1帧目标区域的宽度;lp,t为扩大后目标区域的长度;hp,t为扩大后目标区域的宽度;γ为扩大比例;lt为第t帧搜索区域的长度;ht为第t帧搜索区域的宽度;β为缩放比例;
II.将搜索区域输入到AlexNet中,得到搜索区域特征,具体过程为:以AlexNet作为基础神经网络,将搜索区域输入到基础神经网络中后得到搜索区域特征其中,Xt表示区域通道数为n的搜索区域特征,表示搜索区域特征Xt中的第n维特征;
III.将搜索区域特征Xt输入到PFP神经网络中得到搜索区域最终特征PX
5.根据权利要求4所述的基于SiameseFC框架和PFP神经网络的目标跟踪方法,其特征在于,所述步骤III中将搜索区域特征Xt输入到PFP神经网络的具体过程为:
a.将搜索区域特征Xt输入到PFP神经网络中,对Xt进行上采样得到特征对Xt进行下采样得到特征其中,表示特征中的第n维特征,表示特征中的第n维特征;
b.将经过相同大小的卷积核卷积后,其通道数目降低,分别得到特征
c.将特征Xt在通道方向上连接并用1*1的卷积核卷积,使特征Xt融合得到搜索区域最终特征
CN201910018842.2A 2019-01-09 2019-01-09 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 Pending CN109767456A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910018842.2A CN109767456A (zh) 2019-01-09 2019-01-09 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910018842.2A CN109767456A (zh) 2019-01-09 2019-01-09 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法

Publications (1)

Publication Number Publication Date
CN109767456A true CN109767456A (zh) 2019-05-17

Family

ID=66453500

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910018842.2A Pending CN109767456A (zh) 2019-01-09 2019-01-09 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109767456A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210551A (zh) * 2019-05-28 2019-09-06 北京工业大学 一种基于自适应主体敏感的视觉目标跟踪方法
CN110348393A (zh) * 2019-07-12 2019-10-18 上海眼控科技股份有限公司 车辆特征提取模型训练方法、车辆识别方法及设备
CN110443852A (zh) * 2019-08-07 2019-11-12 腾讯科技(深圳)有限公司 一种图像定位的方法及相关装置
CN110619655A (zh) * 2019-08-23 2019-12-27 深圳大学 一种融合光流信息和Siamese框架的目标跟踪方法及装置
CN110675423A (zh) * 2019-08-29 2020-01-10 电子科技大学 一种基于孪生神经网络和注意力模型的无人机跟踪方法
CN110675429A (zh) * 2019-09-24 2020-01-10 湖南人文科技学院 基于孪生网络和相关滤波器的长短程互补型目标跟踪方法
CN110992404A (zh) * 2019-12-23 2020-04-10 驭势科技(南京)有限公司 目标跟踪方法、装置和系统及存储介质
CN111161317A (zh) * 2019-12-30 2020-05-15 北京工业大学 一种基于多重网络的单目标跟踪方法
CN111179307A (zh) * 2019-12-16 2020-05-19 浙江工业大学 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法
CN112116630A (zh) * 2020-08-19 2020-12-22 上海闪马智能科技有限公司 目标跟踪的方法
CN112446900A (zh) * 2019-09-03 2021-03-05 中国科学院长春光学精密机械与物理研究所 孪生神经网络目标跟踪方法及系统
CN112784672A (zh) * 2019-11-08 2021-05-11 索尼公司 基于计算机视觉的手术场景评估

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184778A (zh) * 2015-08-25 2015-12-23 广州视源电子科技股份有限公司 一种检测方法及装置
WO2018084948A1 (en) * 2016-11-07 2018-05-11 Qualcomm Incorporated Enhanced siamese trackers
CN108090918A (zh) * 2018-02-12 2018-05-29 天津天地伟业信息系统集成有限公司 一种基于深度全卷积孪生网络的实时人脸跟踪方法
CN108171184A (zh) * 2018-01-03 2018-06-15 南京理工大学 基于Siamese网络的用于行人重识别的方法
CN108830878A (zh) * 2018-04-13 2018-11-16 上海大学 一种基于fpn神经网络的目标跟踪方法
CN108898619A (zh) * 2018-06-08 2018-11-27 上海大学 一种基于pvanet神经网络的目标跟踪方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184778A (zh) * 2015-08-25 2015-12-23 广州视源电子科技股份有限公司 一种检测方法及装置
WO2018084948A1 (en) * 2016-11-07 2018-05-11 Qualcomm Incorporated Enhanced siamese trackers
CN108171184A (zh) * 2018-01-03 2018-06-15 南京理工大学 基于Siamese网络的用于行人重识别的方法
CN108090918A (zh) * 2018-02-12 2018-05-29 天津天地伟业信息系统集成有限公司 一种基于深度全卷积孪生网络的实时人脸跟踪方法
CN108830878A (zh) * 2018-04-13 2018-11-16 上海大学 一种基于fpn神经网络的目标跟踪方法
CN108898619A (zh) * 2018-06-08 2018-11-27 上海大学 一种基于pvanet神经网络的目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LUCA BERTINETTO ET AL.: "Fully-Convolutional Siamese Networks for Object Tracking", 《ARXIV》 *
SEUNG-WOOK KIM ET AL.: "Parallel Feature Pyramid Network for Object Detection", 《ECCV》 *
周辉: "基于深度学习的多目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210551B (zh) * 2019-05-28 2021-07-30 北京工业大学 一种基于自适应主体敏感的视觉目标跟踪方法
CN110210551A (zh) * 2019-05-28 2019-09-06 北京工业大学 一种基于自适应主体敏感的视觉目标跟踪方法
CN110348393A (zh) * 2019-07-12 2019-10-18 上海眼控科技股份有限公司 车辆特征提取模型训练方法、车辆识别方法及设备
CN110443852A (zh) * 2019-08-07 2019-11-12 腾讯科技(深圳)有限公司 一种图像定位的方法及相关装置
CN110443852B (zh) * 2019-08-07 2022-03-01 腾讯科技(深圳)有限公司 一种图像定位的方法及相关装置
CN110619655A (zh) * 2019-08-23 2019-12-27 深圳大学 一种融合光流信息和Siamese框架的目标跟踪方法及装置
CN110619655B (zh) * 2019-08-23 2022-03-29 深圳大学 一种融合光流信息和Siamese框架的目标跟踪方法及装置
CN110675423A (zh) * 2019-08-29 2020-01-10 电子科技大学 一种基于孪生神经网络和注意力模型的无人机跟踪方法
CN112446900A (zh) * 2019-09-03 2021-03-05 中国科学院长春光学精密机械与物理研究所 孪生神经网络目标跟踪方法及系统
CN112446900B (zh) * 2019-09-03 2024-05-17 中国科学院长春光学精密机械与物理研究所 孪生神经网络目标跟踪方法及系统
CN110675429A (zh) * 2019-09-24 2020-01-10 湖南人文科技学院 基于孪生网络和相关滤波器的长短程互补型目标跟踪方法
CN112784672A (zh) * 2019-11-08 2021-05-11 索尼公司 基于计算机视觉的手术场景评估
CN111179307A (zh) * 2019-12-16 2020-05-19 浙江工业大学 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法
CN110992404A (zh) * 2019-12-23 2020-04-10 驭势科技(南京)有限公司 目标跟踪方法、装置和系统及存储介质
CN110992404B (zh) * 2019-12-23 2023-09-19 驭势科技(浙江)有限公司 目标跟踪方法、装置和系统及存储介质
CN111161317A (zh) * 2019-12-30 2020-05-15 北京工业大学 一种基于多重网络的单目标跟踪方法
CN112116630A (zh) * 2020-08-19 2020-12-22 上海闪马智能科技有限公司 目标跟踪的方法

Similar Documents

Publication Publication Date Title
CN109767456A (zh) 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法
Wang et al. OAENet: Oriented attention ensemble for accurate facial expression recognition
Zhang et al. MCnet: Multiple context information segmentation network of no-service rail surface defects
Yang et al. A part-aware multi-scale fully convolutional network for pedestrian detection
CN111666851B (zh) 一种基于多粒度标签的交叉域自适应行人重识别方法
Yuan et al. Action recognition using spatial-optical data organization and sequential learning framework
CN107767416B (zh) 一种低分辨率图像中行人朝向的识别方法
CN107452022A (zh) 一种视频目标跟踪方法
CN106845329A (zh) 一种基于深度卷积特征多通道金字塔池化的动作识别方法
Zhao et al. JSNet++: Dynamic filters and pointwise correlation for 3D point cloud instance and semantic segmentation
CN104063721B (zh) 一种基于语义特征自动学习与筛选的人类行为识别方法
CN106991385A (zh) 一种基于特征融合的人脸表情识别方法
Jiao et al. Joint attention mechanism for person re-identification
CN109740552A (zh) 一种基于平行特征金字塔神经网络的目标跟踪方法
Zhu et al. A multi-scale and multi-level feature aggregation network for crowd counting
CN109191493A (zh) 一种基于RefineNet神经网络和稀疏光流的目标跟踪方法
Jin et al. MiniExpNet: A small and effective facial expression recognition network based on facial local regions
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
Wang et al. Spatiotemporal module for video saliency prediction based on self-attention
CN108830878A (zh) 一种基于fpn神经网络的目标跟踪方法
Tian et al. Domain adaptive object detection with model-agnostic knowledge transferring
CN108898619A (zh) 一种基于pvanet神经网络的目标跟踪方法
Fan et al. Skip connection aggregation transformer for occluded person reidentification
Gao et al. Video object segmentation based on multi-level target models and feature integration
Zhong et al. Key frame extraction algorithm of motion video based on priori

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190517