CN112818787B - 融合卷积神经网络和特征相似度学习的多目标跟踪方法 - Google Patents
融合卷积神经网络和特征相似度学习的多目标跟踪方法 Download PDFInfo
- Publication number
- CN112818787B CN112818787B CN202110091451.0A CN202110091451A CN112818787B CN 112818787 B CN112818787 B CN 112818787B CN 202110091451 A CN202110091451 A CN 202110091451A CN 112818787 B CN112818787 B CN 112818787B
- Authority
- CN
- China
- Prior art keywords
- target
- similarity
- neural network
- convolutional neural
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 29
- 239000011159 matrix material Substances 0.000 claims abstract description 17
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims abstract description 10
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 238000011176 pooling Methods 0.000 claims description 36
- 238000001514 detection method Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,包括以下步骤:步骤S1:获取含有多个目标的视频序列图像和每帧图像对应的标签,预处理后分成训练集和测试集;步骤S2:构建卷积神经网络并预训练;步骤S3:将训练集和测试集输入到卷积神经网络中,提取图像中目标的特征向量;步骤S4:根据得到的特征向量,采用相似度函数计算相似度,构建相似度矩阵;步骤S5:根据得到的相似度矩阵,并根据贪心算法实现跨帧匹配目标从而实现多目标跟踪。本发明有效提高匹配的准确率和跟踪的准确率。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种融合卷积神经网络和特征相似度学习的多目标跟踪方法。
背景技术
多目标跟踪是一项计算机视觉任务,目的是为了跟踪视频序列中的前景目标,比如行人、汽车、动物等等。多目标跟踪关键是将视频序列中的同一目标关联起来,并赋予同一身份编号。现有的多目标跟踪方法通过计算相邻帧中目标之间的空间接近度来进行跨帧关联,从而实现跟踪。然而,当图像中目标数量多且拥挤的情况下,目标之间的空间接近度容易出现混淆等问题,从而降低跟踪的准确率。
发明内容
有鉴于此,本发明的目的在于提供一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,有效提高多目标跟踪准确率。
为实现上述目的,本发明采用如下技术方案:
一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,包括以下步骤:
步骤S1:获取含有多个目标的视频序列图像和每帧图像对应的标签,预处理后分成训练集和测试集;
步骤S2:构建卷积神经网络并预训练;
步骤S3:将训练集和测试集输入到卷积神经网络中,提取图像中目标的特征向量;
步骤S4:根据得到的特征向量,采用相似度函数计算相似度,构建相似度矩阵;
步骤S5:根据得到的相似度矩阵,并根据贪心算法实现跨帧匹配目标从而实现多目标跟踪。
进一步的,所述预处理具体为:将输入图像的大小统一为m×n,其中,m是输入图像的行数,n是输入图像的列数。
进一步的,所述步骤S2具体为:基于Pytorch或TensorFlow训练一个结构为卷积层1-池化层1-卷积层2-池化层2-……-卷积层x-池化层x-全连接层的前向传输的卷积神经网络作为主干网络;
输入层:由于输入的是一个m×n的彩色图像,其在二维空间上的维度是m×n;一个像素点相当于一个神经元,故输入层的维度就是三维[m×n,3];
卷积层1:若卷积层的尺寸是(2m1+1)×(2m1+1),卷积深度为n1,设定步长为s1;相当于用n1个(2m1+1)×(2m1+1)的滑动窗口以步长s1与输入图像在该窗口下的像素相卷积,得到的图像大小为[m,n,n1];
池化层1:设定池化步长为s1、池化尺寸为m2×m2、池化方式:最大池化或平均池化;若采用最大池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的最大值;若为平均池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的像素平均值;故该池化层池化后得到的图像大小为
进一步的,所述步骤S3具体为:
步骤S31:将输入的训练集输入到预训练好的卷积神经网络中进行检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量;
步骤S32:将步骤S24所述的特征向量以视频帧的序号划分,设定 表示第t帧中身份号为i的目标的特征向量;
步骤S33:使用聚焦三元组损失进一步训练预训练后的卷积神经网络;
步骤S34:保存该卷积神经网络的各项权重值;
步骤S35:将测试集的图像输入到步骤S34中得到的卷积神经网络,并输出网络最终检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量。
进一步的,所述聚焦三元组损失,具体为:
Ltra=Laff+Ltri
其中||·||2表示欧氏距离方程;D表示第t+1帧的目标ID合集,T表示第t+1帧的目标ID合集,表示第t时刻跟踪目标i的特征向量。i,j,q分别表示不同的目标的ID。
进一步的,所述步骤S4具体为:
步骤S41:设定相似度函数,使用欧式距离来计算特征间的差异,再利用负指数幂将差异值映射到[0,1]区间以获得特征间的相似度,或使用余弦相似度作为相似度函数,来计算特征间的相似度;
步骤S42:特征向量只与下一帧中的所有特征向量计算相似度;设定,第t帧中含有m个目标及其特征向量和第t+1帧中含有n个目标及其特征/>使用步骤S41计算Ft和Ft+1之间的相似度,得到相似度矩阵/>
进一步的,所述步骤S5具体包括以下步骤:
步骤S51:根据得到的相似度矩阵A,利用贪心匹配算法来跨帧匹配目标;
步骤S52:对于每个第t+1帧的目标,在目标对A矩阵中含有相似度大于阈值λtrk的前提下,匹配与其有最大相似度的第t帧的目标,两个被匹配的目标赋予相同的身份号,并作为一条轨迹;
步骤S53:对于没有步骤S52中匹配成功的第t+1帧的目标,若其检测置信度大于阈值λdet,将产生一个新的轨迹,即赋予目标新的身份号,否则删除该目标;
步骤S43:保存每个匹配成功的第t+1帧的目标的信息。
进一步的,所述目标的信息包括目标的经网络的检测结果,检测置信度和身份号。
本发明与现有技术相比具有以下有益效果:
本发明使用度量学习损失来训练卷积神经网络,以保证卷积神经网络所提取的同一身份的目标特征的相似度大于不同身份目标的特征相似度,从而提高匹配的准确率和跟踪的准确率。
附图说明
图1为本发明实施例的结构框图;
图2为本发明实施例中卷积神经网络训练与测试的流程图;
图3为本发明实施例中卷积神经网络的结构框图;
图4为本发明实施例中训练卷积神经网络的过程图
图5为本发明实施例中训练卷积神经网络目标检测结果和置信度图;
图6为本发明实施例中部分训练集图片及其标签效果图;
图7为本发明实施例中计算特征相似度矩阵的流程图
图8为本发明实施例中匹配流程图;
图9为本发明实施例中最后的输出结果效果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,包括以下步骤:
步骤S1:获取含有多个目标的视频序列图像和每帧图像对应的标签,将输入图像的大小统一为m×n,其中,m是输入图像的行数,n是输入图像的列后数,分成训练集和测试集;
步骤S2:构建卷积神经网络并预训练;
步骤S3:将训练集和测试集输入到卷积神经网络中,提取图像中目标的特征向量;
步骤S4:根据得到的特征向量,采用相似度函数计算相似度,构建相似度矩阵;
步骤S5:根据得到的相似度矩阵,并根据贪心算法实现跨帧匹配目标从而实现多目标跟踪。
如图6所示,在本实施例中,输入测试集图片和标签以及训练集图片和标签,其中标签标注了对应图像中目标的身份号,对于同一目标标注的是相同的身份号,而不同的目标所标注身份号亦不同;图中我们选取用于训练的视频序列的第0到5帧,以及每一帧所对应的标签情况。这些标签包括:标签所属的图像帧号;以及每个目标的身份号,注意到,对于同一目标使用相同的身份号,不同的目标身份号亦不相同;目标种类,其中DonCare类型是由于目标在中的尺寸过小,而可以忽略不跟踪的目标;目标边界框表示目标所在图像上的外接的矩形框。边界框的4列中,第一列表示矩形左上角点的在像素坐标系的横坐标,第二列表示矩形左上角点在像素坐标系的纵坐标,第三列表示矩形左下角点在像素坐标系的横坐标,第四列表示矩形左下角在点像素坐标系的纵坐标。
在本实施例中,所述卷积神经网络具体为:
基于Pytorch或TensorFlow训练一个结构为卷积层1-池化层1-卷积层2-池化层2-……-卷积层x-池化层x-全连接层的前向传输的卷积神经网络作为主干网络;
输入层:由于输入的是一个m×n的彩色图像,其在二维空间上的维度是m×n。一个像素点相当于一个神经元,故输入层的维度就是三维[m×n,3];
卷积层1:若卷积层的尺寸是(2m1+1)×(2m1+1),卷积深度为n1,设定步长为s1。(卷积前先将原始输入图像的上下左右m1以像素0填充)相当于用n1个(2m1+1)×(2m1+1)的滑动窗口以步长s1与输入图像在该窗口下的像素相卷积,得到的图像大小为[m,n,n1];
池化层1:设定池化步长为s1、池化尺寸为m2×m2、池化方式:最大池化或平均池化。若采用最大池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的最大值;若为平均池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的像素平均值;故该池化层池化后得到的图像大小为
优选的,本实施例中采用的学习率为0.001,丢弃率为0.5,训练过程如图4所示。
如图5所示,在本实施例中,所述步骤S23具体包括以下步骤:
步骤S23:将输入的训练集输入到预训练好的卷积神经网络中进行检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量。图中用红色虚线表示被检测到前景目标的边界框,左上角的数值为检测置信度,置信度的值域在0到1之间。
在本实施例中,步骤S3具体为:
步骤S31:将输入的训练集输入到预训练好的卷积神经网络中进行检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量;
步骤S32:将步骤S24所述的特征向量以视频帧的序号划分,设定 表示第t帧中身份号为i的目标的特征向量;
步骤S33:使用聚焦三元组损失进一步训练预训练后的卷积神经网络;
优选的,聚焦三元组损失,具体为:
Ltra=Laff+Ltri
其中||·||2表示欧氏距离方程;D表示第t+1帧的目标ID合集,T表示第t+1帧的目标ID合集,表示第t时刻跟踪目标i的特征向量。i,j,q分别表示不同的目标的ID。
步骤S34:保存该卷积神经网络的各项权重值;
步骤S35:将测试集的图像输入到步骤S34中得到的卷积神经网络,并输出网络最终检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量。
如图7所示,在本实施例中,步骤S4具体为:
步骤S41:设定相似度函数,使用欧式距离来计算特征间的差异,再利用负指数幂将差异值映射到[0,1]区间以获得特征间的相似度,或使用余弦相似度作为相似度函数,来计算特征间的相似度;
步骤S42:特征向量只与下一帧中的所有特征向量计算相似度;设定,第t帧中含有m个目标及其特征向量和第t+1帧中含有n个目标及其特征/>使用步骤S41计算Ft和Ft+1之间的相似度,得到相似度矩阵/>
如图8所示,在本实施例中,步骤S5具体包括以下步骤:
步骤S51:根据得到的相似度矩阵A,利用贪心匹配算法来跨帧匹配目标;
步骤S52:对于每个第t+1帧的目标,在目标对A矩阵中含有相似度大于阈值λtrk的前提下,匹配与其有最大相似度的第t帧的目标,两个被匹配的目标赋予相同的身份号,并作为一条轨迹;设定λtrk=0.4。
步骤S53:对于没有步骤S52中匹配成功的第t+1帧的目标,若其检测置信度大于阈值λdet,将产生一个新的轨迹,即赋予目标新的身份号,否则删除该目标;
步骤S43:保存每个匹配成功的第t+1帧的目标的信息。设定λdet=0.4。优选的,目标的信息包括目标的经网络的检测结果,检测置信度和身份号。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (6)
1.一种融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,包括以下步骤:
步骤S1:获取含有多个目标的视频序列图像和每帧图像对应的标签,预处理后分成训练集和测试集;
步骤S2:构建卷积神经网络并预训练;
步骤S3:将训练集和测试集输入到卷积神经网络中,提取图像中目标的特征向量;
步骤S4:根据得到的特征向量,采用相似度函数计算相似度,构建相似度矩阵;
步骤S5:根据得到的相似度矩阵,并根据贪心算法实现跨帧匹配目标从而实现多目标跟踪;
所述步骤S3具体为:
步骤S31:将输入的训练集输入到预训练好的卷积神经网络中进行检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量;
步骤S32:将特征向量以视频帧的序号划分,设定表示第t帧中身份号为i的目标的特征向量;
步骤S33:使用聚焦三元组损失进一步训练预训练后的卷积神经网络;
步骤S34:保存该卷积神经网络的各项权重值;
步骤S35:将测试集的图像输入到步骤S34中得到的卷积神经网络,并输出网络最终检测出图像中的目标,目标检测置信度和提取出目标对应的特征向量;
所述聚焦三元组损失Ltra,由亲和度损失Laff和三元组损失Ltri构成,具体为:
Ltra=Laff+Ltri
其中,||·||2表示欧氏距离方程;D表示第t+1帧的目标ID合集,T表示第t+1帧的目标ID合集,f表示第t时刻跟踪目标i的特征向量;i,j,q分别表示不同的目标的ID。
2.根据权利要求1所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述预处理具体为:将输入图像的大小统一为m×n,其中,m是输入图像的行数,n是输入图像的列数。
3.根据权利要求2所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述步骤S2具体为:基于Pytorch或TensorFlow训练一个结构为卷积层1-池化层1-卷积层2-池化层2-……-卷积层x-池化层x-全连接层的前向传输的卷积神经网络作为主干网络;
输入层:由于输入的是一个m×n的彩色图像,其在二维空间上的维度是m×n;一个像素点相当于一个神经元,故输入层的维度就是三维[m×n,3];
卷积层1:若卷积层的尺寸是(2m1+1)×(2m1+1),卷积深度为n1,设定步长为s1;相当于用n1个(2m1+1)×(2m1+1)的滑动窗口以步长s1与输入图像在该窗口下的像素相卷积,得到的图像大小为[m,n,n1];
池化层1:设定池化步长为s1、池化尺寸为m2×m2、池化方式:最大池化或平均池化;若采用最大池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的最大值;若为平均池化,则以步长s1在尺寸为m2×m2的滑动窗口扫描卷积层1得到的图像像素,存储该窗口下的像素平均值;故该池化层池化后得到的图像大小为
4.根据权利要求1所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述步骤S4具体为:
步骤S41:设定相似度函数,使用欧式距离来计算特征间的差异,再利用负指数幂将差异值映射到[0,1]区间以获得特征间的相似度,或使用余弦相似度作为相似度函数,来计算特征间的相似度;
步骤S42:特征向量只与下一帧中的所有特征向量计算相似度;设定,第t帧中含有m个目标及其特征向量和第t+1帧中含有n个目标及其特征/>使用步骤S41计算Ft和Ft+1之间的相似度,得到相似度矩阵/>
5.根据权利要求1所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述步骤S5具体包括以下步骤:
步骤S51:根据得到的相似度矩阵A,利用贪心匹配算法来跨帧匹配目标;
步骤S52:对于每个第t+1帧的目标,在目标对A矩阵中含有相似度大于阈值λtrk的前提下,匹配与其有最大相似度的第t帧的目标,两个被匹配的目标赋予相同的身份号,并作为一条轨迹;
步骤S53:对于没有步骤S52中匹配成功的第t+1帧的目标,若其检测置信度大于阈值λdet,将产生一个新的轨迹,即赋予目标新的身份号,否则删除该目标;
步骤S43:保存每个匹配成功的第t+1帧的目标的信息。
6.根据权利要求1所述的融合卷积神经网络和特征相似度学习的多目标跟踪方法,其特征在于,所述目标的信息包括目标的经网络的检测结果,检测置信度和身份号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110091451.0A CN112818787B (zh) | 2021-01-23 | 2021-01-23 | 融合卷积神经网络和特征相似度学习的多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110091451.0A CN112818787B (zh) | 2021-01-23 | 2021-01-23 | 融合卷积神经网络和特征相似度学习的多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112818787A CN112818787A (zh) | 2021-05-18 |
CN112818787B true CN112818787B (zh) | 2024-01-19 |
Family
ID=75859264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110091451.0A Active CN112818787B (zh) | 2021-01-23 | 2021-01-23 | 融合卷积神经网络和特征相似度学习的多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112818787B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378281A (zh) * | 2019-07-17 | 2019-10-25 | 青岛科技大学 | 基于伪3d卷积神经网络的组群行为识别方法 |
CN111310728A (zh) * | 2020-03-16 | 2020-06-19 | 中国科学技术大学 | 基于监控相机和无线定位的行人重识别系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9418458B2 (en) * | 2015-01-05 | 2016-08-16 | Superfish Ltd. | Graph image representation from convolutional neural networks |
US11393088B2 (en) * | 2019-06-27 | 2022-07-19 | Nutech Ventures | Animal detection based on detection and association of parts |
-
2021
- 2021-01-23 CN CN202110091451.0A patent/CN112818787B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378281A (zh) * | 2019-07-17 | 2019-10-25 | 青岛科技大学 | 基于伪3d卷积神经网络的组群行为识别方法 |
CN111310728A (zh) * | 2020-03-16 | 2020-06-19 | 中国科学技术大学 | 基于监控相机和无线定位的行人重识别系统 |
Non-Patent Citations (1)
Title |
---|
近似最近邻大数据检索哈希散列方法综述;费伦科;秦建阳;滕少华;张巍;刘冬宁;侯艳;;广东工业大学学报(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112818787A (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993160B (zh) | 一种图像矫正及文本与位置识别方法及系统 | |
CN109829398B (zh) | 一种基于三维卷积网络的视频中的目标检测方法 | |
CN109934117B (zh) | 基于生成对抗网络的行人重识别检测方法 | |
CN103530599B (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
CN110287826B (zh) | 一种基于注意力机制的视频目标检测方法 | |
CN114783003B (zh) | 一种基于局部特征注意力的行人重识别方法和装置 | |
CN113255659B (zh) | 一种基于MSAFF-Yolov3的车牌校正检测识别方法 | |
CN110853074B (zh) | 一种利用光流增强目标的视频目标检测网络系统 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN109522883A (zh) | 一种人脸检测方法、系统、装置及存储介质 | |
CN114067444A (zh) | 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统 | |
CN113592911B (zh) | 表观增强深度目标跟踪方法 | |
CN112308883A (zh) | 一种基于可见光和红外图像的多船舶融合跟踪方法 | |
CN110659550A (zh) | 交通标志牌识别方法、装置、计算机设备和存储介质 | |
CN114693661A (zh) | 一种基于深度学习的快速分拣方法 | |
CN114399675A (zh) | 一种基于机器视觉与激光雷达融合的目标检测方法和装置 | |
CN111507416B (zh) | 一种基于深度学习的吸烟行为实时检测方法 | |
CN110969164A (zh) | 基于深度学习端对端的低照度成像车牌识别方法及装置 | |
Gao et al. | DCT-based local descriptor for robust matching and feature tracking in wide area motion imagery | |
CN113762009B (zh) | 一种基于多尺度特征融合及双注意力机制的人群计数方法 | |
WO2022121021A1 (zh) | 一种身份证号码检测方法、装置、可读存储介质和终端 | |
CN113327269A (zh) | 一种无标记颈椎运动检测方法 | |
CN112396036A (zh) | 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法 | |
CN112818787B (zh) | 融合卷积神经网络和特征相似度学习的多目标跟踪方法 | |
CN115953744A (zh) | 一种基于深度学习的车辆识别追踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |