CN112598698A - 长时间单目标跟踪方法及系统 - Google Patents
长时间单目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN112598698A CN112598698A CN202110249398.2A CN202110249398A CN112598698A CN 112598698 A CN112598698 A CN 112598698A CN 202110249398 A CN202110249398 A CN 202110249398A CN 112598698 A CN112598698 A CN 112598698A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- tracking
- type
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种长时间单目标跟踪方法及系统,利用预先训练好的检测模型对移动端的待处理图像进行目标检测,能实时且高精度的提供初始化目标,获取下一帧图像的图像特征并以所初始化目标为基础进行实时高效率的跟踪,利用预先训练好的分类模型对跟踪目标区域进行分类,当跟踪目标区域不是指定类别时,立即进行跟踪初始化,重新获取初始化目标,保证目标跟踪的正确性及精度;并且分类模型是预先训练好的,可以进行离线分类,避免在线分类耗时的弊端。
Description
技术领域
本发明涉及计算机视觉跟踪领技术领域,尤其涉及一种长时间单目标跟踪方法及系统。
背景技术
无论在军用或者民用领域中,目标跟踪技术都有着广泛的应用。在战场侦查、低空防御、交通监控以及国土安全等方面全自动或者半自动的实现目标跟踪任务都可以大大减少工作人员和工作时间。然而,尽管人们已经提出了许多有效的视频目标跟踪算法,但在实际应用中仍然面临很多困难,例如环境中的光照变化、目标的非线性形变、摄像机的抖动,以及背景中的噪声干扰等因素,给目标跟踪带来了极大的挑战。
同时,现有的目标跟踪方法大多数只能够实现在较短的时间内对目标进行跟踪,相对于长时间跟踪方法则鲜有研究。然而,在实际工程应用中,对目标的长久稳定跟踪则更受关注。长时跟踪面临的难点有目标外观变形、光照变化、快速运动和运动模糊、背景相似干扰、平面外旋转、平面内旋转、尺度变化、遮挡和出视野等情况。如何高精度并高效的进行长时跟踪是实际应用场景中必须要解决的问题。
发明内容
本发明的目的在于提供一种长时间单目标跟踪方法及系统,以提高长时间单目标跟踪的精度和速度,避免跟踪目标漂移。
为了达到上述目的,本发明提供了一种长时间单目标跟踪方法,包括:
步骤S1:预先训练好指定类别的目标的分类模型及检测模型并部署至移动端,执行步骤S2;
步骤S2:利用所述检测模型对所述移动端的待处理图像进行目标检测,并选取检测到的所有所述指定类别的目标中置信度最高的目标作为初始化目标,执行步骤S3;
步骤S3:获取所述待处理图像的下一帧图像的图像特征,并以所述初始化目标为基础进行实时跟踪,得到所述下一帧图像中的跟踪目标区域,执行步骤S4;以及,
步骤S4:利用所述分类模型对所述跟踪目标区域进行分类,并在所述跟踪目标区域是所述指定类别时,返回步骤S3,在所述跟踪目标区域不是所述指定类别时,返回步骤S2。
可选的,预先训练所述分类模型的步骤包括:
提供第一样本图像,并标注出所述第一样本图像中的第一感兴趣区域;
提取所述第一感兴趣区域的灰度图像作为第一训练样本数据集;
判断所述第一训练样本数据集中的所述指定类型的目标的复杂性类型,并根据所述复杂性类型确定需要训练的分类模型的类型;以及,
利用所述第一训练样本数据集对已确定类型的分类模型进行训练。
可选的,在提取所述第一感兴趣区域的灰度图像之后,还对所述第一感兴趣区域的灰度图像进行数据增强操作,以得到所述第一训练样本数据集,所述数据增强操作包括:
以所述第一感兴趣区域的灰度图像的中心为原点,对所述第一感兴趣区域的灰度图像中的所述指定类别的目标进行预定角度的旋转、随机裁剪及镜像变换中的一种或多种操作。
可选的,判断所述第一训练样本数据集中的所述指定类型的目标的复杂性类型的步骤包括:
对所述第一训练样本数据集中的每个所述指定类型的目标进行实例分割标注,得到目标实例区域掩膜;
计算所述第一训练样本数据集中的每个所述指定类型的目标的纹理特征并进行归一化,得到纹理特征归一化值;
计算所述第一训练样本数据集中的每个所述指定类型的目标在所述目标实例区域掩膜内的纹理特征归一化值的均值,作为归一化平均值;以及,
获取所述第一训练样本数据集中的所有所述指定类型的目标的归一化平均值的均值,作为统计均值;以及,
当所述统计均值大于第一预定阈值时,判定所述指定类别的目标的复杂性类型为复杂类型,当所述统计均值小于或等于所述第一预定阈值时,判定所述指定类别的目标的复杂性类型为简单类型。
可选的,当所述指定类别目标的复杂性类型为复杂类型时,所述分类模型的类型为深度学习分类模型;当所述指定类别目标的复杂性类型为简单类型时,所述分类模型的类型为svm分类模型。
可选的,当所述指定类别的目标的复杂性类型为复杂类型时,所述图像特征为灰度特征及HOG特征;当所述指定类别的目标的复杂性类型为简单类型时,所述图像特征为灰度特征。
可选的,预先训练所述检测模型的步骤包括:
提供第二样本图像,并标注出所述第二样本图像中的第二感兴趣区域;
根据标注好的所述第二样本图像基于预先确定的深度学习框架制作第二训练样本数据集;以及,
利用所述第二训练样本数据集对所述检测模型进行训练。
可选的,在利用所述第二训练样本数据集对所述检测模型进行训练时,利用通用推理加速框架进行模型推理加速。
可选的,利用所述检测模型对所述移动端的待处理图像进行目标检测之前,还包括:
对所述待处理图像进行灰度处理,得到所述待处理图像的灰度图像;
对所述待处理图像的灰度图像的像素以及尺寸进行归一化。
可选的,利用所述检测模型对所述待处理图像进行目标检测之后,还包括:
遍历所有检测到的目标,并丢弃置信度小于第二预定阈值的目标;以及,
对剩余的所述目标应用非极大值抑制算法,得到所述指定类别的目标。
可选的,以所述初始化目标为基础利用相关滤波跟踪器进行实时跟踪,得到所述下一帧图像中的跟踪目标区域。
本发明还提供了一种长时间单目标跟踪系统,包括:
模型建立模块,用于预先训练好指定类别的目标的分类模型及检测模型并部署至移动端;
跟踪器初始化模块,用于利用所述检测模型对所述移动端的待处理图像进行目标检测,并选取检测到的所有所述指定类别的目标中置信度最高的目标作为初始化目标;
目标跟踪模块,用于获取所述待处理图像的下一帧图像的图像特征,并以所述初始化目标为基础进行实时跟踪,得到所述下一帧图像中的跟踪目标区域;以及,
跟踪漂移判断模块,用于利用所述分类模型对所述跟踪目标区域进行分类。
在本发明提供的长时间单目标跟踪方法及系统中,利用预先训练好的检测模型对移动端的待处理图像进行目标检测,能实时且高精度的提供初始化目标,获取下一帧图像的图像特征并以所初始化目标为基础进行实时高效率的跟踪,利用预先训练好的分类模型对跟踪目标区域进行分类,当跟踪目标区域不是指定类别时,立即进行跟踪初始化,重新获取初始化目标,保证目标跟踪的正确性及精度;并且分类模型是预先训练好的,可以进行离线分类,避免在线分类耗时的弊端。
附图说明
图1为本发明实施例提供的一种长时间单目标跟踪方法的流程图。
图2为本发明实施例提供的种长时间单目标跟踪系统的结构框图;
100-模型建立模块;200-跟踪器初始化模块;300-目标跟踪模块;400-跟踪漂移判断模块。
具体实施方式
下面将结合示意图对本发明的具体实施方式进行更详细的描述。根据下列描述,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
图1为本实施例提供的一种长时间单目标跟踪方法的流程图。如图1所示,本实施例提供了一种长时间单目标跟踪方法,包括步骤S1、步骤S2、步骤S3及步骤S4。
步骤S1:预先训练好指定类别的目标的分类模型及检测模型并部署至移动端,执行步骤S2。
本实施例首先预先训练所述分类模型。具体包括:提供第一样本图像,并在所述第一样本图像中标注出第一感兴趣区域,本实施例中,利用矩形标注框标注出所述第一感兴趣区域,但并不以此为限。
接着,提取所述第一感兴趣区域的灰度图像,然后对所述第一感兴趣区域的灰度图像进行数据增强操作,以得到所述第一训练样本数据集。所述数据增强操作包括:以所述第一感兴趣区域的灰度图像的中心为原点,对所述灰度图像中的所述指定类别的目标进行预定角度的旋转、随机裁剪及镜像变换中的一种或多种操作,对所述第一感兴趣区域的灰度图像进行数据增强,从而得到所述第一训练样本数据集。应理解,假设所述第一感兴趣区域的灰度图像的左上点的坐标为(x1,y1),右下点的坐标为(x2,y2),所述第一感兴趣区域的灰度图像的中心的坐标为[(x1+x2)/2,(y1+y2)/2]。
接下来,判断所述第一训练样本数据集中的所述指定类型的目标的复杂性类型,并根据所述复杂性类型确定需要训练的分类模型的类型。具体而言,首先对所述第一训练样本数据集中的每个所述指定类型的目标进行实例分割标注,得到目标实例区域掩膜。然后计算所述第一训练样本数据集中的每个所述指定类型的目标的纹理特征并进行归一化,得到纹理特征归一化值。本实施例中采用灰度共生矩阵计算所述纹理特征,但不应以此为限。
接下来,计算所述第一训练样本数据集中的每个所述指定类型的目标在所述目标实例区域掩膜内的纹理特征归一化值的均值,作为归一化平均值meani,其中,1≤i≤N,i为所述目标的编号,N为所述第一训练样本数据集中的所述指定类型的目标的总数。然后获取所述第一训练样本数据集中的所有所述指定类型的目标的归一化平均值的均值,作为统计均值ave,其中,ave=(1/N)*(mean1+mean2+…meanN)。
当所述统计均值ave大于第一预定阈值T1时,判定所述指定类别的目标的复杂性类型为复杂类型,当所述统计均值ave小于或等于所述第一预定阈值T1时,判定所述指定类别的目标的复杂性类型为简单类型。所述第一预定阈值T1可以通过统计多种类别的目标的统计均值ave得到经验值。
当所述指定类别目标的复杂性类型为复杂类型时,所述分类模型的类型为深度学习分类模型,例如是mobilenetV3;当所述指定类别目标的复杂性类型为简单类型时,所述分类模型的类型为svm分类模型,也即,采用将所述第一训练样本数据集的尺寸变换为m*m(如m=8),从上到下、从左到右遍历所述第一训练样本数据集的灰度值,形成图像特征向量,再利用所述svm分类模型进行分类。
最后,利用所述第一训练样本数据集对已确定类型的分类模型进行训练,从而得到训练好的所述分类模型,并将训练好的所述分类模型部署至所述移动端。
接下来,预先训练所述检测模型。首先提供第二样本图像,所述第二样本图像与所述第一样本图像相同或不同均可。在所述第二样本图像中标注出第二感兴趣区域,本实施例中,利用矩形标注框标注出所述第二感兴趣区域,但并不以此为限。
接着,根据标注好的所述第二样本图像基于预先确定的深度学习框架(如Tensorflow)制作第二训练样本数据集(Tensorflow框架下为tfrecord格式)。所述第二训练样本数据集由多个训练样本按深度学习框架要求的格式进行制作,每个所述训练样本由所述第二样本图像和目标标注信息组成。
接下来,利用所述第二训练样本数据集对所述检测模型(例如是mobilenetV3-SSD)进行训练,在利用所述第二训练样本数据集对所述检测模型进行训练时,利用通用推理加速框架(如Tensorflow Lite)进行模型推理加速,从而提高训练速度。
最后将训练好的所述检测模型部署至所述移动端。
步骤S2:利用所述检测模型对所述移动端的待处理图像进行目标检测,并选取检测到的所有所述指定类别的目标中置信度最高的目标作为初始化目标,执行步骤S3。
具体而言,获取所述移动端的待处理图像,对所述待处理图像进行灰度处理,得到所述待处理图像的灰度图像,然后对所述待处理图像的灰度图像的像素进行预处理,以使所述待处理图像的灰度图像的像素值的范围在[-1,1],然后使用opencv的resize函数将所述待处理图像的灰度图像的尺寸变换为320*320。
接着,利用所述检测模型对进行预处理后的待处理图像的灰度图像进行目标检测,当没有检测到目标时,可返回步骤S1;当检测到目标时,遍历所有检测到的目标,并丢弃置信度小于第二预定阈值T2(可取值为0.3)的目标,对剩余的所述目标应用非极大值抑制算法(非极大值抑制算法的IoU的第三预定阈值T3可设置为0.1),得到最终的检测结果,作为所述指定类别的目标。最后将检测到的所有所述指定类别的目标中置信度最高的目标作为初始化目标。
步骤S3:获取所述待处理图像的下一帧图像的图像特征,并以所述初始化目标为基础进行实时跟踪,得到所述下一帧图像中的跟踪目标区域,执行步骤S4。
具体而言,获取所述待处理图像的下一帧图像的图像特征时,当所述指定类别的目标的复杂性类型为复杂类型时,所述图像特征为灰度特征及HOG特征;当所述指定类别的目标的复杂性类型为简单类型时,所述图像特征为灰度特征。以所述初始化目标为基础利用相关滤波跟踪器KCF进行实时高效率的跟踪,得到所述下一帧图像中的跟踪目标区域。
步骤S4:利用所述分类模型对所述跟踪目标区域进行分类,并在所述跟踪目标区域是所述指定类别时,返回步骤S3,在所述跟踪目标区域不是所述指定类别时,返回步骤S2。
应理解,步骤S4中,利用预先训练好的分类模型对跟踪目标区域进行分类,当跟踪目标区域不是指定类别时,立即进行跟踪初始化,重新获取初始化目标,保证目标跟踪的正确性及精度;并且由于所述分类模型是预先训练好的,此步骤可以在离线下操作,进行离线分类可以避免在线分类耗时的弊端。
图2为本实施例提供的种长时间单目标跟踪系统的结构框图,如图2所示,本实施例提供了一种长时间单目标跟踪系统,包括:
模型建立模块100,用于预先训练好指定类别的目标的分类模型及检测模型并部署至移动端;
跟踪器初始化模块200,用于利用所述检测模型对所述移动端的待处理图像进行目标检测,并选取检测到的所有所述指定类别的目标中置信度最高的目标作为初始化目标;
目标跟踪模块300,用于获取所述待处理图像的下一帧图像的图像特征,并以所述初始化目标为基础进行实时跟踪,得到所述下一帧图像中的跟踪目标区域;以及,
跟踪漂移判断模块400,用于利用所述分类模型对所述跟踪目标区域进行分类。
综上,在本实施例提供的长时间单目标跟踪方法及系统中,利用预先训练好的检测模型对移动端的待处理图像进行目标检测,能实时且高精度的提供初始化目标,获取下一帧图像的图像特征并以所初始化目标为基础进行实时高效率的跟踪,利用预先训练好的分类模型对跟踪目标区域进行分类,当跟踪目标区域不是指定类别时,立即进行跟踪初始化,重新获取初始化目标,保证目标跟踪的正确性及精度;并且分类模型是预先训练好的,可以进行离线分类,避免在线分类耗时的弊端。
上述仅为本发明的优选实施例而已,并不对本发明起到任何限制作用。任何所属技术领域的技术人员,在不脱离本发明的技术方案的范围内,对本发明揭露的技术方案和技术内容做任何形式的等同替换或修改等变动,均属未脱离本发明的技术方案的内容,仍属于本发明的保护范围之内。
Claims (10)
1.一种长时间单目标跟踪方法,其特征在于,包括:
步骤S1:预先训练好指定类别的目标的分类模型及检测模型并部署至移动端,执行步骤S2;
步骤S2:利用所述检测模型对所述移动端的待处理图像进行目标检测,并选取检测到的所有所述指定类别的目标中置信度最高的目标作为初始化目标,执行步骤S3;
步骤S3:获取所述待处理图像的下一帧图像的图像特征,并以所述初始化目标为基础进行实时跟踪,得到所述下一帧图像中的跟踪目标区域,执行步骤S4;以及,
步骤S4:利用所述分类模型对所述跟踪目标区域进行分类,并在所述跟踪目标区域是所述指定类别时,返回步骤S3,在所述跟踪目标区域不是所述指定类别时,返回步骤S2。
2.如权利要求1所述的长时间单目标跟踪方法,其特征在于,预先训练所述分类模型的步骤包括:
提供第一样本图像,并标注出所述第一样本图像中的第一感兴趣区域;
提取所述第一感兴趣区域的灰度图像作为第一训练样本数据集;
判断所述第一训练样本数据集中的所述指定类型的目标的复杂性类型,并根据所述复杂性类型确定需要训练的分类模型的类型;以及,
利用所述第一训练样本数据集对已确定类型的分类模型进行训练。
3.如权利要求2所述的长时间单目标跟踪方法,其特征在于,在提取所述第一感兴趣区域的灰度图像之后,还对所述第一感兴趣区域的灰度图像进行数据增强操作,以得到所述第一训练样本数据集,所述数据增强操作包括:
以所述第一感兴趣区域的灰度图像的中心为原点,对所述第一感兴趣区域的灰度图像中的所述指定类别的目标进行预定角度的旋转、随机裁剪及镜像变换中的一种或多种操作;
判断所述第一训练样本数据集中的所述指定类型的目标的复杂性类型的步骤包括:
对所述第一训练样本数据集中的每个所述指定类型的目标进行实例分割标注,得到目标实例区域掩膜;
计算所述第一训练样本数据集中的每个所述指定类型的目标的纹理特征并进行归一化,得到纹理特征归一化值;
计算所述第一训练样本数据集中的每个所述指定类型的目标在所述目标实例区域掩膜内的纹理特征归一化值的均值,作为归一化平均值;以及,
获取所述第一训练样本数据集中的所有所述指定类型的目标的归一化平均值的均值,作为统计均值;以及,
当所述统计均值大于第一预定阈值时,判定所述指定类别的目标的复杂性类型为复杂类型,当所述统计均值小于或等于所述第一预定阈值时,判定所述指定类别的目标的复杂性类型为简单类型。
4.如权利要求3所述的长时间单目标跟踪方法,其特征在于,当所述指定类别目标的复杂性类型为复杂类型时,所述分类模型的类型为深度学习分类模型;当所述指定类别目标的复杂性类型为简单类型时,所述分类模型的类型为svm分类模型;以及,
当所述指定类别的目标的复杂性类型为复杂类型时,所述图像特征为灰度特征及HOG特征;当所述指定类别的目标的复杂性类型为简单类型时,所述图像特征为灰度特征。
5.如权利要求1所述的长时间单目标跟踪方法,其特征在于,预先训练所述检测模型的步骤包括:
提供第二样本图像,并标注出所述第二样本图像中的第二感兴趣区域;
根据标注好的所述第二样本图像基于预先确定的深度学习框架制作第二训练样本数据集;以及,
利用所述第二训练样本数据集对所述检测模型进行训练。
6.如权利要求5所述的长时间单目标跟踪方法,其特征在于,在利用所述第二训练样本数据集对所述检测模型进行训练时,利用通用推理加速框架进行模型推理加速。
7.如权利要求1所述的长时间单目标跟踪方法,其特征在于,利用所述检测模型对所述移动端的待处理图像进行目标检测之前,还包括:
对所述待处理图像进行灰度处理,得到所述待处理图像的灰度图像;
对所述待处理图像的灰度图像的像素以及尺寸进行归一化。
8.如权利要求1或7所述的长时间单目标跟踪方法,其特征在于,利用所述检测模型对所述待处理图像进行目标检测之后,还包括:
遍历所有检测到的目标,并丢弃置信度小于第二预定阈值的目标;以及,
对剩余的所述目标应用非极大值抑制算法,得到所述指定类别的目标。
9.如权利要求1所述的长时间单目标跟踪方法,其特征在于,以所述初始化目标为基础利用相关滤波跟踪器进行实时跟踪,得到所述下一帧图像中的跟踪目标区域。
10.一种长时间单目标跟踪系统,其特征在于,包括:
模型建立模块,用于预先训练好指定类别的目标的分类模型及检测模型并部署至移动端;
跟踪器初始化模块,用于利用所述检测模型对所述移动端的待处理图像进行目标检测,并选取检测到的所有所述指定类别的目标中置信度最高的目标作为初始化目标;
目标跟踪模块,用于获取所述待处理图像的下一帧图像的图像特征,并以所述初始化目标为基础进行实时跟踪,得到所述下一帧图像中的跟踪目标区域;以及,
跟踪漂移判断模块,用于利用所述分类模型对所述跟踪目标区域进行分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110249398.2A CN112598698B (zh) | 2021-03-08 | 2021-03-08 | 长时间单目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110249398.2A CN112598698B (zh) | 2021-03-08 | 2021-03-08 | 长时间单目标跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112598698A true CN112598698A (zh) | 2021-04-02 |
CN112598698B CN112598698B (zh) | 2021-05-18 |
Family
ID=75210175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110249398.2A Active CN112598698B (zh) | 2021-03-08 | 2021-03-08 | 长时间单目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112598698B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114155444A (zh) * | 2021-10-22 | 2022-03-08 | 中国科学院长春光学精密机械与物理研究所 | 一种基于航天摆扫成像系统的在轨目标检测方法 |
CN115249254A (zh) * | 2022-09-21 | 2022-10-28 | 江西财经大学 | 一种基于ar技术的目标跟踪方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739551A (zh) * | 2009-02-11 | 2010-06-16 | 北京智安邦科技有限公司 | 运动目标识别方法及系统 |
CN108427960A (zh) * | 2018-02-10 | 2018-08-21 | 南京航空航天大学 | 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法 |
CN108447079A (zh) * | 2018-03-12 | 2018-08-24 | 中国计量大学 | 一种基于tld算法框架的目标跟踪方法 |
CN108846850A (zh) * | 2018-05-24 | 2018-11-20 | 中国科学院光电技术研究所 | 一种基于tld算法的目标跟踪方法 |
CN109993770A (zh) * | 2019-04-09 | 2019-07-09 | 西南交通大学 | 一种自适应时空学习与状态识别的目标跟踪方法 |
CN110335293A (zh) * | 2019-07-12 | 2019-10-15 | 东北大学 | 一种基于tld框架的长时间目标跟踪方法 |
CN110634151A (zh) * | 2019-08-01 | 2019-12-31 | 西安电子科技大学 | 一种单目标跟踪方法 |
CN110660082A (zh) * | 2019-09-25 | 2020-01-07 | 西南交通大学 | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 |
CN111161321A (zh) * | 2019-12-31 | 2020-05-15 | 北京理工大学重庆创新中心 | 一种基于背景感知的相关滤波跟踪方法 |
CN111476814A (zh) * | 2020-03-25 | 2020-07-31 | 深圳大学 | 目标跟踪方法、装置、设备及存储介质 |
CN111602139A (zh) * | 2019-05-31 | 2020-08-28 | 深圳市大疆创新科技有限公司 | 图像处理方法、装置、控制终端及可移动设备 |
-
2021
- 2021-03-08 CN CN202110249398.2A patent/CN112598698B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739551A (zh) * | 2009-02-11 | 2010-06-16 | 北京智安邦科技有限公司 | 运动目标识别方法及系统 |
CN108427960A (zh) * | 2018-02-10 | 2018-08-21 | 南京航空航天大学 | 基于改进Online Boosting和卡尔曼滤波器改进的TLD跟踪方法 |
CN108447079A (zh) * | 2018-03-12 | 2018-08-24 | 中国计量大学 | 一种基于tld算法框架的目标跟踪方法 |
CN108846850A (zh) * | 2018-05-24 | 2018-11-20 | 中国科学院光电技术研究所 | 一种基于tld算法的目标跟踪方法 |
CN109993770A (zh) * | 2019-04-09 | 2019-07-09 | 西南交通大学 | 一种自适应时空学习与状态识别的目标跟踪方法 |
CN111602139A (zh) * | 2019-05-31 | 2020-08-28 | 深圳市大疆创新科技有限公司 | 图像处理方法、装置、控制终端及可移动设备 |
CN110335293A (zh) * | 2019-07-12 | 2019-10-15 | 东北大学 | 一种基于tld框架的长时间目标跟踪方法 |
CN110634151A (zh) * | 2019-08-01 | 2019-12-31 | 西安电子科技大学 | 一种单目标跟踪方法 |
CN110660082A (zh) * | 2019-09-25 | 2020-01-07 | 西南交通大学 | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 |
CN111161321A (zh) * | 2019-12-31 | 2020-05-15 | 北京理工大学重庆创新中心 | 一种基于背景感知的相关滤波跟踪方法 |
CN111476814A (zh) * | 2020-03-25 | 2020-07-31 | 深圳大学 | 目标跟踪方法、装置、设备及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114155444A (zh) * | 2021-10-22 | 2022-03-08 | 中国科学院长春光学精密机械与物理研究所 | 一种基于航天摆扫成像系统的在轨目标检测方法 |
CN114155444B (zh) * | 2021-10-22 | 2024-04-26 | 中国科学院长春光学精密机械与物理研究所 | 一种基于航天摆扫成像系统的在轨目标检测方法 |
CN115249254A (zh) * | 2022-09-21 | 2022-10-28 | 江西财经大学 | 一种基于ar技术的目标跟踪方法及系统 |
CN115249254B (zh) * | 2022-09-21 | 2022-12-30 | 江西财经大学 | 一种基于ar技术的目标跟踪方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112598698B (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN112598698B (zh) | 长时间单目标跟踪方法及系统 | |
CN107545263B (zh) | 一种物体检测方法及装置 | |
CN112613579A (zh) | 一种人脸或人头图像质量的模型训练方法、评估方法及高质量图像的选取方法 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
WO2021238586A1 (zh) | 一种训练方法、装置、设备以及计算机可读存储介质 | |
CN111008994A (zh) | 基于MPSoC的运动目标实时检测跟踪系统及方法 | |
CN111310609A (zh) | 基于时序信息和局部特征相似性的视频目标检测方法 | |
CN115375736A (zh) | 一种基于图像的行人轨迹跟踪方法和装置 | |
CN112347805A (zh) | 一种多目标二维码检测识别方法、系统、装置及存储介质 | |
CN112926595B (zh) | 深度学习神经网络模型的训练装置、目标检测系统及方法 | |
CN113963333A (zh) | 一种基于改进yolof模型的交通标志牌检测方法 | |
CN113989604A (zh) | 基于端到端深度学习的轮胎dot信息识别方法 | |
Lin et al. | A novel robust algorithm for position and orientation detection based on cascaded deep neural network | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN110111358B (zh) | 一种基于多层时序滤波的目标跟踪方法 | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
Wang | License plate recognition algorithm based on radial basis function neural networks | |
Fan et al. | Covered vehicle detection in autonomous driving based on faster rcnn | |
Bang et al. | An image augmentation method for detecting construction resources using convolutional neural network and UAV images | |
Xu et al. | Non-linear target trajectory prediction for robust visual tracking | |
Kumar et al. | Intelligent Transport System: Classification of Traffic Signs Using Deep Neural Networks in Real Time | |
Vaquero et al. | SiamMT: Real-time arbitrary multi-object tracking | |
Razzok et al. | Pedestrian detection under weather conditions using conditional generative adversarial network | |
CN117636482B (zh) | 用于城市道路人员行为的视觉检测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 1103, building C, Xingzhi science and Technology Park, Nanjing Economic and Technological Development Zone, Nanjing, Jiangsu Province 210038 Patentee after: Nanjing Qiyuan Technology Co.,Ltd. Address before: Room 1103, building C, Xingzhi science and Technology Park, Nanjing Economic and Technological Development Zone, Nanjing, Jiangsu Province 210038 Patentee before: Nanjing iqiyi Intelligent Technology Co.,Ltd. |