CN113052876B - 一种基于深度学习的视频接力跟踪方法及系统 - Google Patents
一种基于深度学习的视频接力跟踪方法及系统 Download PDFInfo
- Publication number
- CN113052876B CN113052876B CN202110448773.6A CN202110448773A CN113052876B CN 113052876 B CN113052876 B CN 113052876B CN 202110448773 A CN202110448773 A CN 202110448773A CN 113052876 B CN113052876 B CN 113052876B
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- similarity
- preset threshold
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Abstract
本发明公开了一种基于深度学习的视频接力跟踪方法及系统,属于视频追踪技术领域,包括以下步骤:S1:获得目标位置和目标深度特征;S2:进行IOU匹配;S3:进行特征相似性度量;S4:目标接力跟踪。本发明采用无锚框的目标检测算法作为变电监控环境中的检测算法,并针对变电场景选择合适主干网络并训练特定目标检测器,以适应不同硬件设备的部署;采用基于深度学习的特征提取网络提取的鲁棒特征用于跨摄像头目标关联匹配,可以提高变电站监控智能化水平,以应对无人值守环境下大场景或大范围内实现可疑目标检测和连续跟踪,值得被推广使用。
Description
技术领域
本发明涉及视频追踪技术领域,具体涉及一种基于深度学习的视频接力跟踪方法。
背景技术
随着电力工业的不断发展,电力部门网络的全面改造工程已经实施,各变电站、变电所、通讯站等要实现少人或无人值守,以提高生产效益。各地区电业局都设立了运行管理值班室及调度部门,由于不能全面掌握现场状况,给各部门的运行协调带来了一定的困难。
完整的多摄像头接力跟踪包括目标定位、单摄像头机内追踪和多摄像头间交接三个部分。传统基于先验信息的目标定位方法包括静态背景下的目标检测和复杂背景下的目标检测。静态背景下目标检测多采用差分法、模板匹配法、减除背景法。复杂背景下的目标检测包括运动背景下的目标检测和大场景下目标检测。无论是运动背景下的目标检测还是大场景下的目标检测,都需要利用一定的算法对背景进行估计和补偿,将一系列拍摄所得的背景图像拼接为完整的背景,然后再根据每一帧的像素锁定背景区域,实现目标的定位。一般情况下,多摄像头的交接跟踪分为有重叠视觉区域的多摄像机目标跟踪和无重叠视觉区域的多摄像机目标跟踪。有重叠视觉区域的多摄像机目标跟踪可以利用不同摄像机内的重叠区域进行标定,其核心思想是建立不同摄像机之间的三维拓扑关系。该方法通过摄像头获得其周围环境信息,通过映射函数将某一摄像机坐标下的目标信息映射到另一摄像机的坐标中。该算法只利用了摄像机间的位置信息,没有利用目标物体的特征模型,是一种计算复杂度相对较低的方法。无重叠视觉区域的多摄像机目标跟踪中存在视觉盲区,难度比有重叠视觉区域的追踪要大得多。由于摄像机间视野不重叠,多个摄像机的相对位置关系难以确定,无法在视觉交界处进行目标的传递。因此,在这种情况下,多采用基于目标特征匹配的算法。例如,可利用颜色直方图进行目标匹配,或是利用纹理和形状特征来建立模型,最大化概率关联融合(JPDAF)来进行跨越视野的追踪。
传统基于先验信息的目标定位方法依赖于环境信息和手工特征,目标定位的鲁棒性、准确性和环境适应性较低。多摄像头间交接依赖于多摄像头的拓扑信息以及手工特征,不同摄像机所处环境的不同导致了目标特征的选取存在一定困难,容易引起特征提取不准确、不完整。同时,同一目标特征模型的参数在不同摄像机下也不尽相同,进一步加大了多摄像机交接的困难,该类算法的计算复杂度相对较高。因此,提出一种基于深度学习的视频接力跟踪方法及系统。
发明内容
本发明所要解决的技术问题在于:如何解决当前变电站监控系统存在的需要人员在线干预、多个摄像头之间相互孤立缺乏联动、智能化水平低等问题,提供了一种基于深度学习的视频接力跟踪方法,用来提高变电站监控智能化水平,以应对无人值守环境下大场景或大范围内实现可疑目标检测和连续跟踪。
本发明是通过以下技术方案解决上述技术问题的,本发明包括以下步骤:
S1:获得目标位置和目标深度特征
每隔n个图像帧,输入视频流经过目标检测网络和特征提取网络分别获得目标位置和目标深度特征;
S2:进行IOU匹配
预测目标下一次可能的位置,并对检测结果和跟踪结果做IOU匹配;
S3:进行特征相似性度量
判断IoU是否大于预设阈值δ,如果大于预设阈值δ,则表示跟踪成功;如果小于预设阈值δ,则表示跟踪失败,进而计算当前跟踪失败目标与相邻所有相机目标做特征相似性度量;
S4:目标接力跟踪
计算跟踪失败目标与相邻所有相机中已存储的目标特征相似度,判断其中特征相似度最大值是否大于预设阈值γ,如果相似度大于预设阈值γ则进行相邻相机目标接力跟踪,将跟踪失败目标与相邻相机对应符合相似度预设阈值γ的目标关联;如果相似度小于预设阈值γ则判断当前跟踪失败目标为在所有相机中从未出现的新目标。
更进一步地,所述步骤S1中的具体过程如下:
更进一步地,在所述步骤S11中,目标检测网络是基于卷积神经网络的单阶段无锚框目标检测网络NanoDet训练而成的。
更进一步地,在所述步骤S12中,特征提取网络是基于卷积神经网络的行人重识别网络SCPNet训练而成的。
更进一步地,所述步骤S2的具体过程如下:
S23:对t+1时刻检测结果和t时刻预测结果做IoU匹配。
更进一步地,在所述步骤S3中,判断IoU是否大于预设阈值δ,如果大于预设阈值δ,表示t+1时刻的检测结果与t时刻的检测结果为同一个目标,跟踪成功;如果小于预设阈值δ,表示t+1时刻的检测结果不属于t时刻的检测结果,跟踪失败。
更进一步地,跟踪失败的原因为目标从其他相机观测区域进入当前相机区域,或者目标是一个新目标,之前未出现在任何相机观测区域。
本发明还提供了一种基于深度学习的视频接力跟踪系统,采用上述的视频接力跟踪方法对监控视频中的目标进行跟踪,包括:
位置和特征获取模块,用于每隔n个图像帧,输入视频流经过目标检测网络和特征提取网络分别获得目标位置和目标深度特征;
IOU匹配模块,用于预测目标下一次可能的位置,并对检测结果和跟踪结果做IOU匹配;
相似性度量模块,用于判断IoU是否大于预设阈值δ,如果大于预设阈值δ,则表示跟踪成功;如果小于预设阈值δ,则表示跟踪失败,进而计算当前跟踪失败目标与相邻所有相机目标做特征相似性度量;
接力跟踪模块,用于计算跟踪失败目标与相邻所有相机中已存储的目标特征相似度,判断其中特征相似度最大值是否大于预设阈值γ,如果相似度大于预设阈值γ则进行相邻相机目标接力跟踪,将跟踪失败目标与相邻相机对应符合相似度预设阈值γ的目标关联;如果相似度小于预设阈值γ则判断当前跟踪失败目标为在所有相机中从未出现的新目标;
中央处理模块,用于向其他模块发出指令,完成相关动作;
所述位置和特征获取模块、IOU匹配模块、相似性度量模块、接力跟踪模块均与所述中央处理模块电连接。
本发明相比现有技术具有以下优点:该基于深度学习的视频接力跟踪方法,采用无锚框的目标检测算法作为变电监控环境中的检测算法,并针对变电场景选择合适主干网络并训练特定目标检测器,以适应不同硬件设备的部署;采用基于深度学习的特征提取网络提取的鲁棒特征用于跨摄像头目标关联匹配,可以提高变电站监控智能化水平,以应对无人值守环境下大场景或大范围内实现可疑目标检测和连续跟踪,值得被推广使用。
附图说明
图1是本发明实施例一中基于深度学习的视频接力跟踪方法的流程示意图;
图2是本发明实施例一中IoU匹配示意图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例一
如图1所示,本实施例提供一种技术方案:一种基于深度学习的视频接力跟踪方法,包括以下步骤:
S1:每隔n个图像帧,输入视频流经过目标检测网络和特征提取网络分别获得目标位置和目标深度特征;
步骤S1的具体过程如下:
假设当前时刻为t,从视频流读取图像帧It,将It输入目标检测网络获得L个检测结果,检测结果在图像It中的坐标位置为其中i∈[0,L-1]。将检测结果根据坐标位置从图像It截取出来送入特征提取网络获得每个目标对应的深度特征向量为1×512维度的向量,是卷积神经网络提取的有利于区分不同行人的外观特征。目标检测网络使用了基于卷积神经网络的单阶段无锚框目标检测网络NanoDet,目标检测网络输出为目标在图像中的矩形框坐标位置表示矩形框的左上角,表示矩形框的右下角。特征提取网络采用了基于卷积神经网络的行人重识别(Person ReID)网络SCPNet,网络输出特征向量
NanoDet是基于无锚框单阶段检测算法FCOS改进的适用于移动端的轻量化检测算法,去掉了FCOS的centerness分支,引入了GFL解决了centerness分支在轻量级的模型上很难收敛的弊端,替换FCOS的FPN结构为PAN增强了特征融合,骨干网络从ResNet替换为更加轻量的ShuffleNet。在NVIDIA GPU上使用PyTorch深度学习框架实现,主干网络采用ShuffleNet,输入图像经过随机水平翻转、平移、旋转、裁剪等预处理操作,调整图像大小为320×320,经归一化处理后输入到网络中;使用SGD优化器,初始学习率设置为0.14,并在第130、160、175、185个epoch将学习率逐渐下降为上一次的0.1倍,总共训练190个epoch。
对SCPNet网络模型的特征提取模块进行改进,提出一种基于通道注意力机制的行人重识别方法,充分提取行人关键特征,提高识别精度。该方法以骨干网络ResNet50为基础,结合通道注意力机制SE模块对行人特征关键信息进行加权强化;采用动态激活函数作为网络激活层,提高网络模型对行人特征的非线性表示能力;在Adam优化器中加入梯度中心化算法,加快模型训练速度。在NVIDIA GPU上使用PyTorch深度学习框架实现,主干网络采用ResNet50,输入图像经过随机水平翻转、裁剪等预处理操作,调整图像大小为256×128,经归一化处理后输入到网络中;使用SGD优化器,初始学习率设置为2e-4,并在第80个epoch和第180个epoch将学习率分别降到1e-4和1e-5,总共训练200个epoch。
S2:采用跟踪算法预测目标下一次可能的位置,并对检测结果和跟踪结果做IOU匹配;
步骤S2的具体过程如下:
跟踪预测过程采用卡尔曼滤波算法预测图像帧It中检测目标在t+1时刻在图像It+1中可能的坐标位置,得到跟踪结果卡尔曼滤波算法分为预测和更新两个过程,该算法将目标的运动状态定义为边界框的中心位置、纵横比、高度、以及在图像坐标中对应的速度信息共8个正态分布的向量;预测指当目标经过移动,通过上一帧的目标框和速度等参数,预测出当前帧的目标框位置和速度等参数;更新指对预测值和观测值两个正态分布的状态进行线性加权,得到目前系统预测的状态;
S3:判断IoU是否大于预设阈值δ,如果小于阈值,计算当前目标与相邻所有相机目标做特征相似性度量;
步骤S3的具体过程如下:
判断IoU是否大于阈值δ,如果大于阈值δ,表示t+1时刻的检测结果与t时刻的检测结果为同一个目标,跟踪成功;如果小于阈值δ,表示t+1时刻的检测结果不属于t时刻的检测结果,跟踪失败,失败原因有两种可能情况,目标可能是从其他相机观测区域进入当前相机区域,或者目标是一个新目标,之前未出现在任何相机观测区域;因此将跟踪失败目标与相邻所有相机中保存的目标深度特征做相似性度量。在本实施例中,阈值δ为0.5。
S4:判断相似度是否大于预设阈值γ,如果大于阈值完成相邻相机目标接力跟踪,如果小于阈值为新目标;
步骤S4的具体过程如下:
t+1时刻跟踪失败目标的特征向量为相邻所有相机中保存的目标深度特征fk,其中k∈[0,N-1],N表示相邻所有相机保存的目标深度特征,相似度d用特征向量的欧式距离表示为判断相似度d是否大于阈值γ,如果d大于阈值γ完成相邻相机目标接力跟踪,失败目标是从其他相机观测区域进入当前相机区域;如果d小于阈值γ失败目标为新目标,阈值γ是通过测试集验证的统计值,可根据现场运行情况动态调整。
综上所述,上述实施例的基于深度学习的视频接力跟踪方法,采用无锚框的目标检测算法作为变电监控环境中的检测算法,并针对变电场景选择合适主干网络并训练特定目标检测器,以适应不同硬件设备的部署;采用基于深度学习的特征提取网络提取的鲁棒特征用于跨摄像头目标关联匹配,可以提高变电站监控智能化水平,以应对无人值守环境下大场景或大范围内实现可疑目标检测和连续跟踪,值得被推广使用。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (4)
1.一种基于深度学习的视频接力跟踪方法,其特征在于,包括以下步骤:
S1:获得目标位置和目标深度特征
每隔n个图像帧,输入视频流经过目标检测网络和特征提取网络分别获得目标位置和目标深度特征;
S2:进行IOU匹配
预测目标下一次可能的位置,并对检测结果和跟踪结果做IOU匹配;
S3:进行特征相似性度量
判断IoU是否大于预设阈值δ,如果大于预设阈值δ,则表示跟踪成功;如果小于预设阈值δ,则表示跟踪失败,进而计算当前跟踪失败目标与相邻所有相机目标做特征相似性度量;
S4:目标接力跟踪
计算跟踪失败目标与相邻所有相机中已存储的目标特征相似度,判断其中特征相似度最大值是否大于预设阈值γ,如果相似度大于预设阈值γ则进行相邻相机目标接力跟踪,将跟踪失败目标与相邻相机对应符合相似度预设阈值γ的目标关联;如果相似度小于预设阈值γ则判断当前跟踪失败目标为在所有相机中从未出现的新目标;
所述步骤S1中的具体过程如下:
S12:将检测结果根据坐标位置从图像It截取出来送入特征提取网络获得每个目标对应的深度特征fi t;
所述步骤S2的具体过程如下:
S23:对t+1时刻检测结果和t时刻预测结果做IoU匹配;
在所述步骤S3中,判断IoU是否大于预设阈值δ,如果大于预设阈值δ,表示t+1时刻的检测结果与t时刻的检测结果为同一个目标,跟踪成功;如果小于预设阈值δ,表示t+1时刻的检测结果不属于t时刻的检测结果,跟踪失败;
跟踪失败的原因为目标从其他相机观测区域进入当前相机区域,或者目标是一个新目标,之前未出现在任何相机观测区域;
2.根据权利要求1所述的一种基于深度学习的视频接力跟踪方法,其特征在于:在所述步骤S11中,目标检测网络是基于卷积神经网络的单阶段无锚框目标检测网络NanoDet训练而成的。
3.根据权利要求2所述的一种基于深度学习的视频接力跟踪方法,其特征在于:在所述步骤S12中,特征提取网络是基于卷积神经网络的行人重识别网络SCPNet训练而成的。
4.一种基于深度学习的视频接力跟踪系统,其特征在于,采用权利要求1~3任一项所述的视频接力跟踪方法对监控视频中的目标进行跟踪,包括:
位置和特征获取模块,用于每隔n个图像帧,输入视频流经过目标检测网络和特征提取网络分别获得目标位置和目标深度特征;
IOU匹配模块,用于预测目标下一次可能的位置,并对检测结果和跟踪结果做IOU匹配;
相似性度量模块,用于判断IoU是否大于预设阈值δ,如果大于预设阈值δ,则表示跟踪成功;如果小于预设阈值δ,则表示跟踪失败,进而计算当前跟踪失败目标与相邻所有相机目标做特征相似性度量;
接力跟踪模块,用于计算跟踪失败目标与相邻所有相机中已存储的目标特征相似度,判断其中特征相似度最大值是否大于预设阈值γ,如果相似度大于预设阈值γ则进行相邻相机目标接力跟踪,将跟踪失败目标与相邻相机对应符合相似度预设阈值γ的目标关联;如果相似度小于预设阈值γ则判断当前跟踪失败目标为在所有相机中从未出现的新目标;
中央处理模块,用于向其他模块发出指令,完成相关动作;
所述位置和特征获取模块、IOU匹配模块、相似性度量模块、接力跟踪模块均与所述中央处理模块电连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110448773.6A CN113052876B (zh) | 2021-04-25 | 2021-04-25 | 一种基于深度学习的视频接力跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110448773.6A CN113052876B (zh) | 2021-04-25 | 2021-04-25 | 一种基于深度学习的视频接力跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113052876A CN113052876A (zh) | 2021-06-29 |
CN113052876B true CN113052876B (zh) | 2022-09-02 |
Family
ID=76520431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110448773.6A Active CN113052876B (zh) | 2021-04-25 | 2021-04-25 | 一种基于深度学习的视频接力跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113052876B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114326765B (zh) * | 2021-12-01 | 2024-02-09 | 爱笛无人机技术(南京)有限责任公司 | 一种用于无人机视觉着陆的地标跟踪控制系统及方法 |
CN114169425B (zh) * | 2021-12-03 | 2023-02-03 | 北京百度网讯科技有限公司 | 训练目标跟踪模型和目标跟踪的方法和装置 |
CN114463681A (zh) * | 2022-02-10 | 2022-05-10 | 天津大学 | 一种基于视频监控平台的火灾检测方法 |
CN114648500B (zh) * | 2022-03-17 | 2023-04-07 | 江西科技师范大学 | 一种基于无人机和深度学习的农作物杂草检测方法及装置 |
CN115376372B (zh) * | 2022-08-26 | 2023-07-25 | 广东粤鹏科技有限公司 | 一种多媒体教学方法及教学系统 |
CN115407803A (zh) * | 2022-10-31 | 2022-11-29 | 北京闪马智建科技有限公司 | 一种基于无人机的目标监控方法及装置 |
CN116402857B (zh) * | 2023-04-14 | 2023-11-07 | 北京天睿空间科技股份有限公司 | 一种基于三维标定的运动目标跨镜头跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN110728702A (zh) * | 2019-08-30 | 2020-01-24 | 深圳大学 | 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 |
US10699563B1 (en) * | 2019-07-12 | 2020-06-30 | GM Global Technology Operations LLC | Multi-sensor multi-object tracking |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751674A (zh) * | 2018-07-24 | 2020-02-04 | 北京深鉴智能科技有限公司 | 多目标跟踪方法及相应视频分析系统 |
CN110378929B (zh) * | 2019-07-12 | 2023-03-24 | 易诚高科(大连)科技有限公司 | 一种商业场所跨摄像头行人轨迹跟踪方法 |
CN112381132A (zh) * | 2020-11-11 | 2021-02-19 | 上汽大众汽车有限公司 | 一种基于多个摄像头融合的目标物跟踪方法和系统 |
US20210112238A1 (en) * | 2020-12-22 | 2021-04-15 | Intel Corporation | Method and system of image processing with multi-object multi-view association |
-
2021
- 2021-04-25 CN CN202110448773.6A patent/CN113052876B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
US10699563B1 (en) * | 2019-07-12 | 2020-06-30 | GM Global Technology Operations LLC | Multi-sensor multi-object tracking |
CN110728702A (zh) * | 2019-08-30 | 2020-01-24 | 深圳大学 | 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 |
Non-Patent Citations (2)
Title |
---|
Multi-Camera Tracking of Vehicles based on Deep Features Re-ID and Trajectory-Based Camera Link Models;Hung-Min Hsu et al.;《Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR) Workshops》;20190630;第416-424页 * |
基于视频图像的轻量级客流统计算法研究;华昭杰;《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》;20210215(第2期);第C034-1139页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113052876A (zh) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113052876B (zh) | 一种基于深度学习的视频接力跟踪方法及系统 | |
CN107818571B (zh) | 基于深度学习网络和均值漂移的船只自动跟踪方法及系统 | |
US20210073573A1 (en) | Ship identity recognition method based on fusion of ais data and video data | |
CN105894702B (zh) | 一种基于多摄像机数据融合的入侵检测报警系统及其检测方法 | |
CN103425967B (zh) | 一种基于行人检测和跟踪的人流监控方法 | |
CN104966304B (zh) | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 | |
CN104601964A (zh) | 非重叠视域跨摄像机室内行人目标跟踪方法及系统 | |
CN109887040A (zh) | 面向视频监控的运动目标主动感知方法及系统 | |
CN112560741A (zh) | 一种基于人体关键点的安全穿戴检测方法 | |
CN110781964A (zh) | 一种基于视频图像的人体目标检测方法及系统 | |
CN103581614A (zh) | 基于ptz的视频中目标跟踪方法及系统 | |
CN111968046B (zh) | 一种基于拓扑结构的雷达光电传感器目标关联融合方法 | |
CN112381132A (zh) | 一种基于多个摄像头融合的目标物跟踪方法和系统 | |
CN112733914A (zh) | 一种基于支持向量机的水下目标视觉识别分类方法 | |
CN107045630B (zh) | 一种基于rgbd的行人检测和身份识别方法及系统 | |
CN114529583B (zh) | 基于残差回归网络的电力设备跟踪方法及跟踪系统 | |
CN115965578A (zh) | 一种基于通道注意力机制的双目立体匹配检测方法及装置 | |
CN115880231A (zh) | 一种基于深度学习的输电线路隐患检测方法和系统 | |
CN116824641B (zh) | 姿态分类方法、装置、设备和计算机存储介质 | |
CN113158963A (zh) | 一种高空抛物的检测方法及装置 | |
CN114708544A (zh) | 一种基于边缘计算的违规行为智能监测头盔及其监测方法 | |
CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 | |
CN114926456A (zh) | 一种半自动标注和改进深度学习的铁轨异物检测方法 | |
CN114494342A (zh) | 一种同步轨道卫星可见光序列图像海上目标检测跟踪方法 | |
CN114202587A (zh) | 基于船载单目相机的视觉特征提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |