CN112465862A - 一种基于跨域深度卷积神经网络的视觉目标跟踪方法 - Google Patents

一种基于跨域深度卷积神经网络的视觉目标跟踪方法 Download PDF

Info

Publication number
CN112465862A
CN112465862A CN202011334712.9A CN202011334712A CN112465862A CN 112465862 A CN112465862 A CN 112465862A CN 202011334712 A CN202011334712 A CN 202011334712A CN 112465862 A CN112465862 A CN 112465862A
Authority
CN
China
Prior art keywords
target
neural network
convolutional neural
sample
deep convolutional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011334712.9A
Other languages
English (en)
Other versions
CN112465862B (zh
Inventor
张科
王无为
王靖宇
谭明虎
苏雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202011334712.9A priority Critical patent/CN112465862B/zh
Publication of CN112465862A publication Critical patent/CN112465862A/zh
Application granted granted Critical
Publication of CN112465862B publication Critical patent/CN112465862B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于跨域深度卷积神经网络的视觉目标跟踪方法,首先在VGG网络架构基础上构建深度卷积神经网络模型,只保留VGG网络架构前三个卷积层Conv1‑Conv3和两个全连接层FC4‑FC5,在第二个全连接层FC5之后连接多域全连接层;然后随机取出1个训练集序列,构建正样本、负样本和难例负样本对网络模型进行训练,当达到预先设定的训练次数时结束训练,即得到最终用于目标跟踪的深度卷积神经网络模型。本方法充分利用跨域的信息进行离线训练,提高了模型对于目标和背景的分辨力,并通过多任务学习显著提高视觉目标跟踪的精度。

Description

一种基于跨域深度卷积神经网络的视觉目标跟踪方法
技术领域
本发明属于计算机视觉技术领域,具体涉及一种视觉目标跟踪方法。
背景技术
视觉目标跟踪是计算机视觉中最关键的组成部分之一,已广泛应用于智能交通监控、行为分析、视觉引导等众多领域。近年来,受图像分类和物体检测的启发,深度卷积神经网络(CNN)已被广泛用于视觉目标跟踪任务。深度卷积神经网络具有的深度、多隐藏层结构以及权值共享网络,能够减少权值数量,并极大提高网络的学习能力。
杨大伟,巩欣飞,毛琳,张汝波(《重构特征联合的多域卷积神经网络跟踪算法》,激光与光电子学进展,2019,56(19):165-173)针对已有的基于卷积神经网络的目标跟踪网络模型中存在的特征稳健性差以及目标背景信息丢失导致跟踪失败的问题,提出一种基于重构特征联合的多域卷积神经网络视觉跟踪算法。将网络末端卷积层提取的深层目标特征,通过反卷积操作上采样,获得了包含目标背景信息的重构特征,再通过联合目标高级特征和背景信息的重构特征的方式增强特征的稳健性,达到了有效区分目标和背景的目的。但该网络模型在训练阶段针对每个网络分支,仅利用单个域的正负样本进行训练,导致模型泛化性有限。此外,在在线跟踪阶段,该算法使用在线训练的回归器进行目标边界框回归,使得训练样本不足,回归精度较低。
发明内容
为了克服现有技术的不足,本发明提供了一种基于跨域深度卷积神经网络的视觉目标跟踪方法,首先在VGG网络架构基础上构建深度卷积神经网络模型,只保留VGG网络架构前三个卷积层Conv1-Conv3和两个全连接层FC4-FC5,在第二个全连接层FC5之后连接多域全连接层;然后随机取出1个训练集序列,构建正样本、负样本和难例负样本对网络模型进行训练,当达到预先设定的训练次数时结束训练,即得到最终用于目标跟踪的深度卷积神经网络模型。本方法充分利用跨域的信息进行离线训练,提高了模型对于目标和背景的分辨力,并通过多任务学习显著提高视觉目标跟踪的精度。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:构建深度卷积神经网络模型;
采用VGG网络架构,只保留VGG网络架构的前三个卷积层Conv1-Conv3和两个全连接层FC4-FC5,在第二个全连接层FC5之后连接多域全连接层;
多域全连接层的每个域对应于一个训练序列中的单个目标,并由一个用于区分目标和背景的二值分类层和一个用于定位的边界框回归层组成;多域全连接层的层数Nb等于训练集序列的个数;
步骤2:在Nb个训练集序列中随机取出1个序列,构建Npos个正样本、Nneg个负样本和Nhard个难例负样本作为当前mini-batch的输入;其中正样本表示样本框与对应目标真实位置的重叠率大于设定阈值λ1的样本;负样本表示与真实位置的重叠率小于定阈值λ1且大于定阈值λ2的样本;难例负样本表示从其他序列取得且与当前序列的目标为同一类别的正样本;
步骤3:将Npos+Nneg+Nhard个样本作为深度卷积神经网络模型的输入,输入尺寸为(Npos+Nneg+Nhard)×a1×a2×a3,并根据以下式(1)损失函数计算深度卷积神经网络模型输出的损失,然后根据损失更新网络参数:
Figure BDA0002796817560000021
其中,Pi和Ti分别表示深度卷积神经网络模型第i个分支中分类层和回归层的输出,Yi和Bi分别表示对应的样本标签和回归真值,
Figure BDA0002796817560000022
Figure BDA0002796817560000023
分别表示二值分类损失函数以及回归损失函数,超参数λ1控制
Figure BDA0002796817560000024
Figure BDA0002796817560000025
之间的平衡度;
步骤4:在每个mini-batch结束后重复步骤2到步骤3,直到达到预先设定的训练次数Nbatch
步骤5:利用步骤1到步骤4训练的深度卷积神经网络模型进行在线目标跟踪;
步骤5-1给定序列图像Ik,k=1,2,…,n中的第一帧I1,以及目标的初始矩形框B1,在目标周围采集Npos个正样本及Nneg个负样本;
步骤5-2:确定检测精度P,P的取值范围为(b1,b2);对序列图像Ik中的每一幅图像使用滑动窗口策略进行搜索,从图像左上角起,横向和纵向每隔N/4个像素取N×N大小的图像块B,作为样本输入深度卷积神经网络模型,若深度卷积神经网络模型计算出B是目标的概率大于P,则标记出B的位置为目标;
步骤5-3:第二帧及后续的每一帧中,以上一帧目标的位置为中心,选取Nc个候选样本
Figure BDA0002796817560000032
作为输入,深度卷积神经网络模型输出各个候选样本的正分类得分f+(xi)以及边界框偏移量;通过找到最大得分对应的候选样本x*及其边界框偏移量得到当前帧的最优目标位置;x*计算公式如下:
Figure BDA0002796817560000031
优选地,所述a1=107,a2=107,a3=3。
优选地,所述b1=0,b2=1。
本发明的有益效果是:本发明的一种基于跨域深度卷积神经网络的视觉目标跟踪方法充分利用跨域的信息进行离线训练,提高了模型对于目标和背景的分辨力,并通过多任务学习显著提高视觉目标跟踪的精度。
附图说明
图1是本发明方法流程图。
图2是本发明方法网络结构图。
图3是本发明实施例测试结果图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
已有的基于卷积神经网络的视觉目标跟踪算法在离线训练时大多只试图区分单个域中的目标和背景,对不同域中,特别是当前景对象属于同一语义类或具有相似外观时的前景对象的区分并不强大。本发明针对这一问题,设计了基于卷积神经网络的新型视觉目标跟踪模型,不仅利用单个域中的目标和背景信息,而且充分利用跨域的信息进行离线训练,提高模型对于目标和背景的分辨力,并通过多任务学习同时训练分类和回归模型,从而提高跟踪精度。
如图1所示,一种基于跨域深度卷积神经网络的视觉目标跟踪方法,包括以下步骤:
步骤1:构建深度卷积神经网络模型;
采用VGG网络架构,只保留前三个卷积层Conv1-Conv3和两个全连接层FC4-FC5,在第二个全连接层FC5之后连接多域全连接层;
多域全连接层的每个域对应于一个训练序列中的单个目标,并由一个用于区分目标和背景的二值分类层和一个用于定位的边界框回归层组成;多域全连接层的层数Nb等于训练集序列的个数;
步骤2:在Nb个训练集序列中随机取出1个序列,构建Npos个正样本、Nneg个负样本和Nhard个难例负样本作为当前mini-batch的输入;其中正样本表示样本框与对应目标真实位置的重叠率大于设定阈值λ1的样本;负样本表示与真实位置的重叠率小于定阈值λ1且大于定阈值λ2的样本;难例负样本表示从其他序列取得且与当前序列的目标为同一类别的正样本;
步骤3:将Npos+Nneg+Nhard个样本作为深度卷积神经网络模型的输入,输入尺寸为(Npos+Nneg+Nhard)×107×107×3,并根据以下式(1)损失函数计算深度卷积神经网络模型输出的损失,然后根据损失更新网络参数:
Figure BDA0002796817560000041
其中,Pi和Ti分别表示深度卷积神经网络模型第i个分支中分类层和回归层的输出,Yi和Bi分别表示对应的样本标签和回归真值,
Figure BDA0002796817560000042
Figure BDA0002796817560000043
分别表示二值分类损失函数以及回归损失函数,超参数λ1控制
Figure BDA0002796817560000044
Figure BDA0002796817560000045
之间的平衡度;
步骤4:在每个mini-batch结束后重复步骤2到步骤3,直到达到预先设定的训练次数Nbatch
步骤5:利用步骤1到步骤4训练的深度卷积神经网络模型进行在线目标跟踪;
步骤5-1给定序列图像Ik,k=1,2,…,n中的第一帧I1,以及目标的初始矩形框B1,在目标周围采集Npos个正样本及Nneg个负样本;
步骤5-2:确定检测精度P,P的取值范围为(0,1);对序列图像Ik中的每一幅图像使用滑动窗口策略进行搜索,从图像左上角起,横向和纵向每隔N/4个像素取N×N大小的图像块B,作为样本输入深度卷积神经网络模型,若深度卷积神经网络模型计算出B是目标的概率大于P,则标记出B的位置为目标;
步骤5-3:第二帧及后续的每一帧中,以上一帧目标的位置为中心,选取Nc个候选样本
Figure BDA0002796817560000046
作为输入,深度卷积神经网络模型输出各个候选样本的正分类得分f+(xi)以及边界框偏移量;通过找到最大得分对应的候选样本x*及其边界框偏移量得到当前帧的最优目标位置。x*计算公式如下:
Figure BDA0002796817560000051
具体实施例:
1、搭建深度跨域卷积神经网络模型,具体过程如下:
加载VGG网络,输入为107×107×3的图像,通过96个7×7的卷积核(Conv1)提取较大尺度的特征信息,经过最大池化层后,再分别通过256个3×3卷积核(Conv2)以及512个3×3卷积核(Conv3)构成的卷积层经过进一步特征提取后由两层512个神经元组成的全连接层(FC4-FC5)将特征进行加权求和,最后输入多域全连接层,每个域对应于一个训练序列中的单个目标,并由一个用于区分目标和背景的二值分类层(FC6-cls)和一个用于定位的边界框回归层组成(FC6-reg)。多域全连接层的层数Nb等于训练集序列的个数。
2、搭建深度卷积神经网络模型对单个域以及跨域信息进行训练,具体过程如下:
(1)依照图2构建深度神经网络模型,用随机数初始化所有的滤波器、参数及权重。
(2)在Nb个训练序列中随机取出1个序列,构建Npos个正样本,Nneg个负样本,Nhard个难例负样本作为当前mini-batch的输入。其中正样本表示样本框与对应目标真实位置的重叠率大于设定阈值λ1的样本,标签设为1;负样本表示与真实位置的重叠率小于定阈值λ1且大于定阈值λ221)的样本,标签设为-1;难例负样本为从其他序列且与当前序列的目标为同一类别的正样本。此外,对于正样本,计算其相对于真实边界框的偏差t=(tx,ty,tw,th),并保存。偏差计算公式为:
tx=(x-xg)/wg,ty=(y-yg)/hg,tw=log(w/wg),th=log(h/hg)
其中,(x,y,w,h)和(xg,yg,wg,hg)分别表示正样本与真实边界框的中心横纵坐标与宽高值。
(3)将步骤(2)中Npos+Nneg+Nhard个样本作为网络的输入(输入尺寸为(Npos+Nneg+Nhard)×107×107×3),并根据以下损失函数计算网络输出的损失,然后根据损失更新网络参数:
Figure BDA0002796817560000061
其中,Pi和Ti分别表示第i个分支中分类层和回归层的输出,Yi和Bi分别表示对应的样本标签和回归真值,
Figure BDA0002796817560000062
Figure BDA0002796817560000063
分别表示二值分类损失函数以及回归损失函数,超参数λ1控制
Figure BDA0002796817560000064
Figure BDA0002796817560000065
之间的平衡度。对于每个分支,分类损失Lcls计算公式为:
Figure BDA0002796817560000066
其中,ypn和yph分别表示正-负样本和正-难例负样本的二值标签,p表示分类层的输出结果,pi、pj对应正-负样本的概率,pk、pu对应正-难例负样本的概率。同时,超参数l2为平衡正-负样本和正-难例负样本分类的权重系数。
回归损失Lloc计算公式为:
Figure BDA0002796817560000067
其中,t和b分别表示网络输出和真实的边界框偏移量。
(4)在每个mini-batch结束后重复步骤(2)~(3),直到达到预先设定的训练次数Nbatch
3、利用步骤2训练得到的网络模型进行在线目标跟踪,具体过程如下:
(1)给定序列图像Ii(i=1,2,…,n)中的第一帧I1,以及目标的初始矩形框B1,在目标周围采集Npos个正样本及Nneg个负样本,对网络模型中的全连接层进行微调。
(2)确定检测精度P,P的取值范围为(0,1)。对[I1,I2…In]中的每一张图片使用滑动窗口策略进行搜索,对于[I1,I2…In]中的一张图像Ip,从其左上角起,横向和纵向每隔N/4个像素取N×N大小的图像块B,作为样本输入深度神经网络,若神经网络计算出B是目标的概率大于P,则标记出B的位置为目标。
(3)在第二帧及后续的每一帧中,以上一帧目标的位置为中心,选取Nc个候选样本
Figure BDA0002796817560000071
作为输入,网络输出各个候选样本的正分类得分f+(xi)以及边界框偏移量。通过找到最大得分对应的候选样本x*及其边界框偏移量即可得到当前帧的最优目标位置。x*计算公式如下:
Figure BDA0002796817560000072
如图3所示,是采用本发明模型进行测试的结果,能够看到,本发明对目标取得了很好的跟踪结果。

Claims (3)

1.一种基于跨域深度卷积神经网络的视觉目标跟踪方法,其特征在于,包括以下步骤:
步骤1:构建深度卷积神经网络模型;
采用VGG网络架构,只保留VGG网络架构的前三个卷积层Conv1-Conv3和两个全连接层FC4-FC5,在第二个全连接层FC5之后连接多域全连接层;
多域全连接层的每个域对应于一个训练序列中的单个目标,并由一个用于区分目标和背景的二值分类层和一个用于定位的边界框回归层组成;多域全连接层的层数Nb等于训练集序列的个数;
步骤2:在Nb个训练集序列中随机取出1个序列,构建Npos个正样本、Nneg个负样本和Nhard个难例负样本作为当前mini-batch的输入;其中正样本表示样本框与对应目标真实位置的重叠率大于设定阈值λ1的样本;负样本表示与真实位置的重叠率小于定阈值λ1且大于定阈值λ2的样本;难例负样本表示从其他序列取得且与当前序列的目标为同一类别的正样本;
步骤3:将Npos+Nneg+Nhard个样本作为深度卷积神经网络模型的输入,输入尺寸为(Npos+Nneg+Nhard)×a1×a2×a3,并根据以下式(1)损失函数计算深度卷积神经网络模型输出的损失,然后根据损失更新网络参数:
Figure FDA0002796817550000011
其中,Pi和Ti分别表示深度卷积神经网络模型第i个分支中分类层和回归层的输出,Yi和Bi分别表示对应的样本标签和回归真值,
Figure FDA0002796817550000012
Figure FDA0002796817550000013
分别表示二值分类损失函数以及回归损失函数,超参数λ1控制
Figure FDA0002796817550000014
Figure FDA0002796817550000015
之间的平衡度;
步骤4:在每个mini-batch结束后重复步骤2到步骤3,直到达到预先设定的训练次数Nbatch
步骤5:利用步骤1到步骤4训练的深度卷积神经网络模型进行在线目标跟踪;
步骤5-1给定序列图像Ik,k=1,2,…,n中的第一帧I1,以及目标的初始矩形框B1,在目标周围采集Npos个正样本及Nneg个负样本;
步骤5-2:确定检测精度P,P的取值范围为(b1,b2);对序列图像Ik中的每一幅图像使用滑动窗口策略进行搜索,从图像左上角起,横向和纵向每隔N/4个像素取N×N大小的图像块B,作为样本输入深度卷积神经网络模型,若深度卷积神经网络模型计算出B是目标的概率大于P,则标记出B的位置为目标;
步骤5-3:第二帧及后续的每一帧中,以上一帧目标的位置为中心,选取Mc个候选样本
Figure FDA0002796817550000022
作为输入,深度卷积神经网络模型输出各个候选样本的正分类得分f+(xi)以及边界框偏移量;通过找到最大得分对应的候选样本x*及其边界框偏移量得到当前帧的最优目标位置;x*计算公式如下:
Figure FDA0002796817550000021
2.根据权利要求1所述的一种基于跨域深度卷积神经网络的视觉目标跟踪方法,其特征在于,所述a1=107,a2=107,a3=3。
3.根据权利要求1所述的一种基于跨域深度卷积神经网络的视觉目标跟踪方法,其特征在于,所述b1=0,b2=1。
CN202011334712.9A 2020-11-24 2020-11-24 一种基于跨域深度卷积神经网络的视觉目标跟踪方法 Active CN112465862B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011334712.9A CN112465862B (zh) 2020-11-24 2020-11-24 一种基于跨域深度卷积神经网络的视觉目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011334712.9A CN112465862B (zh) 2020-11-24 2020-11-24 一种基于跨域深度卷积神经网络的视觉目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112465862A true CN112465862A (zh) 2021-03-09
CN112465862B CN112465862B (zh) 2024-05-24

Family

ID=74798947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011334712.9A Active CN112465862B (zh) 2020-11-24 2020-11-24 一种基于跨域深度卷积神经网络的视觉目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112465862B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846364A (zh) * 2016-12-30 2017-06-13 明见(厦门)技术有限公司 一种基于卷积神经网络的目标跟踪方法及装置
CN107945210A (zh) * 2017-11-30 2018-04-20 天津大学 基于深度学习和环境自适应的目标跟踪算法
CN109508679A (zh) * 2018-11-19 2019-03-22 广东工业大学 实现眼球三维视线跟踪的方法、装置、设备及存储介质
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
WO2020215984A1 (zh) * 2019-04-22 2020-10-29 腾讯科技(深圳)有限公司 基于深度学习的医学图像检测方法及相关设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846364A (zh) * 2016-12-30 2017-06-13 明见(厦门)技术有限公司 一种基于卷积神经网络的目标跟踪方法及装置
CN107945210A (zh) * 2017-11-30 2018-04-20 天津大学 基于深度学习和环境自适应的目标跟踪算法
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN109508679A (zh) * 2018-11-19 2019-03-22 广东工业大学 实现眼球三维视线跟踪的方法、装置、设备及存储介质
WO2020215984A1 (zh) * 2019-04-22 2020-10-29 腾讯科技(深圳)有限公司 基于深度学习的医学图像检测方法及相关设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
卢宏涛;张秦川: "深度卷积神经网络在计算机视觉中的应用研究综述", 数据采集与处理, vol. 31, no. 1, 15 January 2016 (2016-01-15) *
张科;苏雨;王靖宇;王霰宇;张彦华;: "基于融合特征以及卷积神经网络的环境声音分类系统研究", 西北工业大学学报, no. 01, 15 February 2020 (2020-02-15) *

Also Published As

Publication number Publication date
CN112465862B (zh) 2024-05-24

Similar Documents

Publication Publication Date Title
CN111563473B (zh) 基于密集特征融合和像素级注意力的遥感舰船识别方法
CN109543606B (zh) 一种加入注意力机制的人脸识别方法
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN109785385B (zh) 视觉目标跟踪方法及系统
CN109816689A (zh) 一种多层卷积特征自适应融合的运动目标跟踪方法
CN108090919A (zh) 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
US20080201282A1 (en) System and Method for Locating Points of Interest in an Object Image Implementing a Neural Network
CN113706581B (zh) 基于残差通道注意与多层次分类回归的目标跟踪方法
CN112651998B (zh) 基于注意力机制和双流多域卷积神经网络的人体跟踪算法
CN114742799B (zh) 基于自监督异构网络的工业场景未知类型缺陷分割方法
CN110555868A (zh) 一种复杂地面背景下运动小目标检测方法
CN110569706A (zh) 一种基于时间和空间网络的深度集成目标跟踪算法
CN113065431B (zh) 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法
CN111222519A (zh) 一种层次化彩绘文物线稿提取模型构建、方法及装置
CN111626090A (zh) 一种基于深度帧差卷积神经网络的运动目标检测方法
CN111310609A (zh) 基于时序信息和局部特征相似性的视频目标检测方法
CN111192294A (zh) 一种基于目标检测的目标跟踪方法及系统
CN110310305A (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN111340842A (zh) 一种基于联合模型的相关滤波目标跟踪算法
CN110544267B (zh) 一种自适应选择特征的相关滤波跟踪方法
CN115471525A (zh) 基于融合孪生网络与卡尔曼滤波的目标跟踪方法及系统
CN113128518B (zh) 基于孪生卷积网络和特征混合的sift误匹配检测方法
CN117576149A (zh) 一种基于注意力机制的单目标跟踪方法
CN113763417A (zh) 一种基于孪生网络和残差结构的目标跟踪方法
CN116777956A (zh) 基于多尺度航迹管理的运动目标筛选方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant