CN112818787B - 融合卷积神经网络和特征相似度学习的多目标跟踪方法 - Google Patents

融合卷积神经网络和特征相似度学习的多目标跟踪方法 Download PDF

Info

Publication number
CN112818787B
CN112818787B CN202110091451.0A CN202110091451A CN112818787B CN 112818787 B CN112818787 B CN 112818787B CN 202110091451 A CN202110091451 A CN 202110091451A CN 112818787 B CN112818787 B CN 112818787B
Authority
CN
China
Prior art keywords
target
similarity
neural network
convolutional neural
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110091451.0A
Other languages
English (en)
Other versions
CN112818787A (zh
Inventor
罗智伟
吴林煌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou Ivisionic Technology Co ltd
Original Assignee
Fuzhou Ivisionic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou Ivisionic Technology Co ltd filed Critical Fuzhou Ivisionic Technology Co ltd
Priority to CN202110091451.0A priority Critical patent/CN112818787B/zh
Publication of CN112818787A publication Critical patent/CN112818787A/zh
Application granted granted Critical
Publication of CN112818787B publication Critical patent/CN112818787B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,包括以下步骤:步骤S1:获取含有多个目标的视频序列图像和每帧图像对应的标签,预处理后分成训练集和测试集;步骤S2:构建卷积神经网络并预训练;步骤S3:将训练集和测试集输入到卷积神经网络中,提取图像中目标的特征向量;步骤S4:根据得到的特征向量,采用相似度函数计算相似度,构建相似度矩阵;步骤S5:根据得到的相似度矩阵,并根据贪心算法实现跨帧匹配目标从而实现多目标跟踪。本发明有效提高匹配的准确率和跟踪的准确率。

Description

融合卷积神经网络和特征相似度学习的多目标跟踪方法
技术领域
本发明涉及计算机视觉领域,具体涉及一种融合卷积神经网络和特征相似度学习的多目标跟踪方法。
背景技术
多目标跟踪是一项计算机视觉任务,目的是为了跟踪视频序列中的前景目标,比如行人、汽车、动物等等。多目标跟踪关键是将视频序列中的同一目标关联起来,并赋予同一身份编号。现有的多目标跟踪方法通过计算相邻帧中目标之间的空间接近度来进行跨帧关联,从而实现跟踪。然而,当图像中目标数量多且拥挤的情况下,目标之间的空间接近度容易出现混淆等问题,从而降低跟踪的准确率。
发明内容
有鉴于此,本发明的目的在于提供一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,有效提高多目标跟踪准确率。
为实现上述目的,本发明采用如下技术方案:
一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,包括以下步骤:
步骤S1:获取含有多个目标的视频序列图像和每帧图像对应的标签,预处理后分成训练集和测试集;
步骤S2:构建卷积神经网络并预训练;
步骤S3:将训练集和测试集输入到卷积神经网络中,提取图像中目标的特征向量;
步骤S4:根据得到的特征向量,采用相似度函数计算相似度,构建相似度矩阵;
步骤S5:根据得到的相似度矩阵,并根据贪心算法实现跨帧匹配目标从而实现多目标跟踪。
进一步的,所述预处理具体为:将输入图像的大小统一为m×n,其中,m是输入图像的行数,n是输入图像的列数。
进一步的,所述步骤S2具体为:基于Pytorch或TensorFlow训练一个结构为卷积层1-池化层1-卷积层2-池化层2-……-卷积层x-池化层x-全连接层的前向传输的卷积神经网络作为主干网络;
输入层:由于输入的是一个m×n的彩色图像,其在二维空间上的维度是m×n;一个像素点相当于一个神经元,故输入层的维度就是三维[m×n,3];
卷积层1:若卷积层的尺寸是(2m1+1)×(2m1+1),卷积深度为n1,设定步长为s1;相当于用n1个(2m1+1)×(2m1+1)的滑动窗口以步长s1与输入图像在该窗口下的像素相卷积,得到的图像大小为[m,n,n1];
池化层1:设定池化步长为s1、池化尺寸为m2×m2、池化方式:最大池化或平均池化;若采用最大池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的最大值;若为平均池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的像素平均值;故该池化层池化后得到的图像大小为
进一步的,所述步骤S3具体为:
步骤S31:将输入的训练集输入到预训练好的卷积神经网络中进行检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量;
步骤S32:将步骤S24所述的特征向量以视频帧的序号划分,设定 表示第t帧中身份号为i的目标的特征向量;
步骤S33:使用聚焦三元组损失进一步训练预训练后的卷积神经网络;
步骤S34:保存该卷积神经网络的各项权重值;
步骤S35:将测试集的图像输入到步骤S34中得到的卷积神经网络,并输出网络最终检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量。
进一步的,所述聚焦三元组损失,具体为:
Ltra=Laff+Ltri
其中||·||2表示欧氏距离方程;D表示第t+1帧的目标ID合集,T表示第t+1帧的目标ID合集,表示第t时刻跟踪目标i的特征向量。i,j,q分别表示不同的目标的ID。
进一步的,所述步骤S4具体为:
步骤S41:设定相似度函数,使用欧式距离来计算特征间的差异,再利用负指数幂将差异值映射到[0,1]区间以获得特征间的相似度,或使用余弦相似度作为相似度函数,来计算特征间的相似度;
步骤S42:特征向量只与下一帧中的所有特征向量计算相似度;设定,第t帧中含有m个目标及其特征向量和第t+1帧中含有n个目标及其特征/>使用步骤S41计算Ft和Ft+1之间的相似度,得到相似度矩阵/>
进一步的,所述步骤S5具体包括以下步骤:
步骤S51:根据得到的相似度矩阵A,利用贪心匹配算法来跨帧匹配目标;
步骤S52:对于每个第t+1帧的目标,在目标对A矩阵中含有相似度大于阈值λtrk的前提下,匹配与其有最大相似度的第t帧的目标,两个被匹配的目标赋予相同的身份号,并作为一条轨迹;
步骤S53:对于没有步骤S52中匹配成功的第t+1帧的目标,若其检测置信度大于阈值λdet,将产生一个新的轨迹,即赋予目标新的身份号,否则删除该目标;
步骤S43:保存每个匹配成功的第t+1帧的目标的信息。
进一步的,所述目标的信息包括目标的经网络的检测结果,检测置信度和身份号。
本发明与现有技术相比具有以下有益效果:
本发明使用度量学习损失来训练卷积神经网络,以保证卷积神经网络所提取的同一身份的目标特征的相似度大于不同身份目标的特征相似度,从而提高匹配的准确率和跟踪的准确率。
附图说明
图1为本发明实施例的结构框图;
图2为本发明实施例中卷积神经网络训练与测试的流程图;
图3为本发明实施例中卷积神经网络的结构框图;
图4为本发明实施例中训练卷积神经网络的过程图
图5为本发明实施例中训练卷积神经网络目标检测结果和置信度图;
图6为本发明实施例中部分训练集图片及其标签效果图;
图7为本发明实施例中计算特征相似度矩阵的流程图
图8为本发明实施例中匹配流程图;
图9为本发明实施例中最后的输出结果效果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,包括以下步骤:
步骤S1:获取含有多个目标的视频序列图像和每帧图像对应的标签,将输入图像的大小统一为m×n,其中,m是输入图像的行数,n是输入图像的列后数,分成训练集和测试集;
步骤S2:构建卷积神经网络并预训练;
步骤S3:将训练集和测试集输入到卷积神经网络中,提取图像中目标的特征向量;
步骤S4:根据得到的特征向量,采用相似度函数计算相似度,构建相似度矩阵;
步骤S5:根据得到的相似度矩阵,并根据贪心算法实现跨帧匹配目标从而实现多目标跟踪。
如图6所示,在本实施例中,输入测试集图片和标签以及训练集图片和标签,其中标签标注了对应图像中目标的身份号,对于同一目标标注的是相同的身份号,而不同的目标所标注身份号亦不同;图中我们选取用于训练的视频序列的第0到5帧,以及每一帧所对应的标签情况。这些标签包括:标签所属的图像帧号;以及每个目标的身份号,注意到,对于同一目标使用相同的身份号,不同的目标身份号亦不相同;目标种类,其中DonCare类型是由于目标在中的尺寸过小,而可以忽略不跟踪的目标;目标边界框表示目标所在图像上的外接的矩形框。边界框的4列中,第一列表示矩形左上角点的在像素坐标系的横坐标,第二列表示矩形左上角点在像素坐标系的纵坐标,第三列表示矩形左下角点在像素坐标系的横坐标,第四列表示矩形左下角在点像素坐标系的纵坐标。
在本实施例中,所述卷积神经网络具体为:
基于Pytorch或TensorFlow训练一个结构为卷积层1-池化层1-卷积层2-池化层2-……-卷积层x-池化层x-全连接层的前向传输的卷积神经网络作为主干网络;
输入层:由于输入的是一个m×n的彩色图像,其在二维空间上的维度是m×n。一个像素点相当于一个神经元,故输入层的维度就是三维[m×n,3];
卷积层1:若卷积层的尺寸是(2m1+1)×(2m1+1),卷积深度为n1,设定步长为s1。(卷积前先将原始输入图像的上下左右m1以像素0填充)相当于用n1个(2m1+1)×(2m1+1)的滑动窗口以步长s1与输入图像在该窗口下的像素相卷积,得到的图像大小为[m,n,n1];
池化层1:设定池化步长为s1、池化尺寸为m2×m2、池化方式:最大池化或平均池化。若采用最大池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的最大值;若为平均池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的像素平均值;故该池化层池化后得到的图像大小为
优选的,本实施例中采用的学习率为0.001,丢弃率为0.5,训练过程如图4所示。
如图5所示,在本实施例中,所述步骤S23具体包括以下步骤:
步骤S23:将输入的训练集输入到预训练好的卷积神经网络中进行检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量。图中用红色虚线表示被检测到前景目标的边界框,左上角的数值为检测置信度,置信度的值域在0到1之间。
在本实施例中,步骤S3具体为:
步骤S31:将输入的训练集输入到预训练好的卷积神经网络中进行检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量;
步骤S32:将步骤S24所述的特征向量以视频帧的序号划分,设定 表示第t帧中身份号为i的目标的特征向量;
步骤S33:使用聚焦三元组损失进一步训练预训练后的卷积神经网络;
优选的,聚焦三元组损失,具体为:
Ltra=Laff+Ltri
其中||·||2表示欧氏距离方程;D表示第t+1帧的目标ID合集,T表示第t+1帧的目标ID合集,表示第t时刻跟踪目标i的特征向量。i,j,q分别表示不同的目标的ID。
步骤S34:保存该卷积神经网络的各项权重值;
步骤S35:将测试集的图像输入到步骤S34中得到的卷积神经网络,并输出网络最终检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量。
如图7所示,在本实施例中,步骤S4具体为:
步骤S41:设定相似度函数,使用欧式距离来计算特征间的差异,再利用负指数幂将差异值映射到[0,1]区间以获得特征间的相似度,或使用余弦相似度作为相似度函数,来计算特征间的相似度;
步骤S42:特征向量只与下一帧中的所有特征向量计算相似度;设定,第t帧中含有m个目标及其特征向量和第t+1帧中含有n个目标及其特征/>使用步骤S41计算Ft和Ft+1之间的相似度,得到相似度矩阵/>
如图8所示,在本实施例中,步骤S5具体包括以下步骤:
步骤S51:根据得到的相似度矩阵A,利用贪心匹配算法来跨帧匹配目标;
步骤S52:对于每个第t+1帧的目标,在目标对A矩阵中含有相似度大于阈值λtrk的前提下,匹配与其有最大相似度的第t帧的目标,两个被匹配的目标赋予相同的身份号,并作为一条轨迹;设定λtrk=0.4。
步骤S53:对于没有步骤S52中匹配成功的第t+1帧的目标,若其检测置信度大于阈值λdet,将产生一个新的轨迹,即赋予目标新的身份号,否则删除该目标;
步骤S43:保存每个匹配成功的第t+1帧的目标的信息。设定λdet=0.4。优选的,目标的信息包括目标的经网络的检测结果,检测置信度和身份号。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (6)

1.一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,包括以下步骤:
步骤S1:获取含有多个目标的视频序列图像和每帧图像对应的标签,预处理后分成训练集和测试集;
步骤S2:构建卷积神经网络并预训练;
步骤S3:将训练集和测试集输入到卷积神经网络中,提取图像中目标的特征向量;
步骤S4:根据得到的特征向量,采用相似度函数计算相似度,构建相似度矩阵;
步骤S5:根据得到的相似度矩阵,并根据贪心算法实现跨帧匹配目标从而实现多目标跟踪;
所述步骤S3具体为:
步骤S31:将输入的训练集输入到预训练好的卷积神经网络中进行检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量;
步骤S32:将特征向量以视频帧的序号划分,设定表示第t帧中身份号为i的目标的特征向量;
步骤S33:使用聚焦三元组损失进一步训练预训练后的卷积神经网络;
步骤S34:保存该卷积神经网络的各项权重值;
步骤S35:将测试集的图像输入到步骤S34中得到的卷积神经网络,并输出网络最终检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量;
所述聚焦三元组损失Ltra,由亲和度损失Laff和三元组损失Ltri构成,具体为:
Ltra=Laff+Ltri
其中,||·||2表示欧氏距离方程;D表示第t+1帧的目标ID合集,T表示第t+1帧的目标ID合集,f表示第t时刻跟踪目标i的特征向量;i,j,q分别表示不同的目标的ID。
2.根据权利要求1所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述预处理具体为:将输入图像的大小统一为m×n,其中,m是输入图像的行数,n是输入图像的列数。
3.根据权利要求2所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述步骤S2具体为:基于Pytorch或TensorFlow训练一个结构为卷积层1-池化层1-卷积层2-池化层2-……-卷积层x-池化层x-全连接层的前向传输的卷积神经网络作为主干网络;
输入层:由于输入的是一个m×n的彩色图像,其在二维空间上的维度是m×n;一个像素点相当于一个神经元,故输入层的维度就是三维[m×n,3];
卷积层1:若卷积层的尺寸是(2m1+1)×(2m1+1),卷积深度为n1,设定步长为s1;相当于用n1个(2m1+1)×(2m1+1)的滑动窗口以步长s1与输入图像在该窗口下的像素相卷积,得到的图像大小为[m,n,n1];
池化层1:设定池化步长为s1、池化尺寸为m2×m2、池化方式:最大池化或平均池化;若采用最大池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的最大值;若为平均池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的像素平均值;故该池化层池化后得到的图像大小为
4.根据权利要求1所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述步骤S4具体为:
步骤S41:设定相似度函数,使用欧式距离来计算特征间的差异,再利用负指数幂将差异值映射到[0,1]区间以获得特征间的相似度,或使用余弦相似度作为相似度函数,来计算特征间的相似度;
步骤S42:特征向量只与下一帧中的所有特征向量计算相似度;设定,第t帧中含有m个目标及其特征向量和第t+1帧中含有n个目标及其特征/>使用步骤S41计算Ft和Ft+1之间的相似度,得到相似度矩阵/>
5.根据权利要求1所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述步骤S5具体包括以下步骤:
步骤S51:根据得到的相似度矩阵A,利用贪心匹配算法来跨帧匹配目标;
步骤S52:对于每个第t+1帧的目标,在目标对A矩阵中含有相似度大于阈值λtrk的前提下,匹配与其有最大相似度的第t帧的目标,两个被匹配的目标赋予相同的身份号,并作为一条轨迹;
步骤S53:对于没有步骤S52中匹配成功的第t+1帧的目标,若其检测置信度大于阈值λdet,将产生一个新的轨迹,即赋予目标新的身份号,否则删除该目标;
步骤S43:保存每个匹配成功的第t+1帧的目标的信息。
6.根据权利要求1所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述目标的信息包括目标的经网络的检测结果,检测置信度和身份号。
CN202110091451.0A 2021-01-23 2021-01-23 融合卷积神经网络和特征相似度学习的多目标跟踪方法 Active CN112818787B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110091451.0A CN112818787B (zh) 2021-01-23 2021-01-23 融合卷积神经网络和特征相似度学习的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110091451.0A CN112818787B (zh) 2021-01-23 2021-01-23 融合卷积神经网络和特征相似度学习的多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112818787A CN112818787A (zh) 2021-05-18
CN112818787B true CN112818787B (zh) 2024-01-19

Family

ID=75859264

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110091451.0A Active CN112818787B (zh) 2021-01-23 2021-01-23 融合卷积神经网络和特征相似度学习的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112818787B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378281A (zh) * 2019-07-17 2019-10-25 青岛科技大学 基于伪3d卷积神经网络的组群行为识别方法
CN111310728A (zh) * 2020-03-16 2020-06-19 中国科学技术大学 基于监控相机和无线定位的行人重识别系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9418458B2 (en) * 2015-01-05 2016-08-16 Superfish Ltd. Graph image representation from convolutional neural networks
US11393088B2 (en) * 2019-06-27 2022-07-19 Nutech Ventures Animal detection based on detection and association of parts

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378281A (zh) * 2019-07-17 2019-10-25 青岛科技大学 基于伪3d卷积神经网络的组群行为识别方法
CN111310728A (zh) * 2020-03-16 2020-06-19 中国科学技术大学 基于监控相机和无线定位的行人重识别系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
近似最近邻大数据检索哈希散列方法综述;费伦科;秦建阳;滕少华;张巍;刘冬宁;侯艳;;广东工业大学学报(03);全文 *

Also Published As

Publication number Publication date
CN112818787A (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
CN109993160B (zh) 一种图像矫正及文本与位置识别方法及系统
CN109829398B (zh) 一种基于三维卷积网络的视频中的目标检测方法
CN109934117B (zh) 基于生成对抗网络的行人重识别检测方法
CN103530599B (zh) 一种真实人脸和图片人脸的区别方法和系统
CN110287826B (zh) 一种基于注意力机制的视频目标检测方法
CN114783003B (zh) 一种基于局部特征注意力的行人重识别方法和装置
CN113255659B (zh) 一种基于MSAFF-Yolov3的车牌校正检测识别方法
CN110853074B (zh) 一种利用光流增强目标的视频目标检测网络系统
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN109522883A (zh) 一种人脸检测方法、系统、装置及存储介质
CN114067444A (zh) 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统
CN113592911B (zh) 表观增强深度目标跟踪方法
CN112308883A (zh) 一种基于可见光和红外图像的多船舶融合跟踪方法
CN110659550A (zh) 交通标志牌识别方法、装置、计算机设备和存储介质
CN114693661A (zh) 一种基于深度学习的快速分拣方法
CN114399675A (zh) 一种基于机器视觉与激光雷达融合的目标检测方法和装置
CN111507416B (zh) 一种基于深度学习的吸烟行为实时检测方法
CN110969164A (zh) 基于深度学习端对端的低照度成像车牌识别方法及装置
Gao et al. DCT-based local descriptor for robust matching and feature tracking in wide area motion imagery
CN113762009B (zh) 一种基于多尺度特征融合及双注意力机制的人群计数方法
WO2022121021A1 (zh) 一种身份证号码检测方法、装置、可读存储介质和终端
CN113327269A (zh) 一种无标记颈椎运动检测方法
CN112396036A (zh) 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法
CN112818787B (zh) 融合卷积神经网络和特征相似度学习的多目标跟踪方法
CN115953744A (zh) 一种基于深度学习的车辆识别追踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant