CN114092515A - 用于障碍遮挡的目标跟踪检测方法、装置、设备及介质 - Google Patents
用于障碍遮挡的目标跟踪检测方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114092515A CN114092515A CN202111317981.9A CN202111317981A CN114092515A CN 114092515 A CN114092515 A CN 114092515A CN 202111317981 A CN202111317981 A CN 202111317981A CN 114092515 A CN114092515 A CN 114092515A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- video frame
- tracking target
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 183
- 230000000903 blocking effect Effects 0.000 title description 3
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 57
- 238000000034 method Methods 0.000 claims abstract description 55
- 230000008859 change Effects 0.000 claims abstract description 16
- 230000003287 optical effect Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 17
- 238000009432 framing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种用于障碍遮挡的目标跟踪检测方法、装置、设备及介质,其中方法包括:采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;判断下一帧中的跟踪目标是否被障碍物遮挡;若是,采用运动估计算法对当前视频帧对应的跟踪目标检测结果进行运动估计,得到下一视频帧中跟踪目标对应的运动估计结果;采用光流法根据帧间像素变化信息计算跟踪目标的运动速度,结合跟踪目标的运动估计结果确定跟踪目标的最终跟踪结果。本发明能够在跟踪目标被物体遮挡时根据当前跟踪检测结果预估跟踪目标在下一帧中的运动状态,提高目标跟踪的准确性,避免跟踪目标被物体遮挡时无法精准继续跟踪的情况。
Description
技术领域
本发明涉及人工智能技术领域,尤其是涉及一种用于障碍遮挡的目标跟踪检测方法、装置、设备及介质。
背景技术
目前,随着人工智能技术的不断发展,目标跟踪技术也越发普及,已经逐渐应用于监控安防和交通管理等各个不同领域中,更多研发人员和管理人员也越发重视目标跟踪技术的发展。
在现有技术中,一般通过提取监控图像中目标检测框,再利用卷积神经网络多假设方法、最小代价流方法和最小多割方法等传统方法提取各目标检测框的特征向量,最后基于每个目标检测框的特征向量对所有预设的样本框进行匹配,以获得跟踪对象的跟踪结果。然而,本发明的发明人发现,目前现有的目标跟踪技术在监控对象被其他物体遮挡时,容易出现提取特征向量无法与系统中已有的样本框匹配的情况,导致无法对被障碍物遮挡的目标进行跟踪检测,从而出现目标跟踪结果准确性低下的问题。
发明内容
本发明实施例所要解决的技术问题在于,提供一种用于障碍遮挡的目标跟踪检测方法、装置、设备及介质,能够解决现有目标跟踪技术在跟踪目标被其他物体遮挡时无法与已有的样本框匹配,导致无法继续精准跟踪和跟踪结果准确性较低的问题。
为解决上述问题,本申请实施例的第一方面提供了一种用于障碍遮挡的目标跟踪检测方法,至少包括如下步骤:
一种用于障碍遮挡的目标跟踪检测方法,至少包括如下步骤:
在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;其中,所述跟踪目标检测结果包括跟踪目标及其对应的目标框位置和目标类别;
计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;
当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;
采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;
根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果。
在第一方面的一种可能的实现方式中,所述计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡,具体包括:
对所述当前视频帧进行目标检测后提取目标特征信息,并在所述待检测视频的初始帧中以跟踪目标为中心选取候选区域,构建跟踪目标模型;
在下一视频帧中查找与所述跟踪目标模型相似度最高的区域,并计算所述相似度最高的区域的遮挡系数;
若所述遮挡系数大于第一阈值,则判定所述下一视频帧的跟踪目标被障碍物遮挡;
若所述遮挡系数小于第一阈值,则判定所述下一视频帧的跟踪目标没有被障碍物遮挡。
在第一方面的一种可能的实现方式中,在所述在下一视频帧中查找与所述跟踪目标模型相似度最高的区域步骤之后,还包括:
采用巴氏算法计算所述当前视频帧的跟踪目标模型的图像直方图和所述相似度最高的区域的图像直方图的巴氏系数;
实时计算所述巴氏系数,当判断所述巴氏系数的下降幅度大于预设范围时,根据上一视频帧的跟踪目标模型的源图像重新筛选出对应的图像相似度最高度最高的区域。
在第一方面的一种可能的实现方式中,所述在下一视频帧中查找与所述跟踪目标模型相似度最高的区域,具体为:
对所述当前视频帧的跟踪目标模型的源图像和所述下一视频中待筛选的区域图像进行直方图数据采集处理,对采集得到的图像直方图进行归一化处理后,采用巴氏算法对各个归一化处理后的图像直方图进行相似度计算,分别得到各个所述下一视频中待筛选的区域图像与当前视频帧的跟踪目标模型的源图像的图像相似度,选取得到图像相似度最高的区域。
在第一方面的一种可能的实现方式中,所述采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果,具体包括:
采集与跟踪目标所属同一类别的图像数据并进行图像预处理,分别构建得到YOLOv3目标检测模型的训练集、验证集和测试集;
通过所述训练集、验证集和测试集对预先构建的YOLOv3目标检测模型进行模型训练,得到训练后的YOLOv3目标检测模型;
根据所述训练后的YOLOv3目标检测模型对输入的当前视频帧进行跟踪目标检测,输出得到当前视频帧中跟踪目标及其对应的目标框位置和目标类别。
在第一方面的一种可能的实现方式中,所述采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果,具体为:
采用卡尔曼滤波算法对所述当前视频帧对应的任一跟踪目标的目标框位置和目标类别进行运动估计,得到在下一视频帧中的所述任一跟踪目标可能的目标框位置和运动状态。
在第一方面的一种可能的实现方式中,在所述根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果步骤之后,还包括:
采集用户对所述最终跟踪结果的反馈信息,根据反馈信息对跟踪目标的最终跟踪结果进行修正,并构建目标跟踪检测结果数据集作为YOLOv3目标检测算法的训练数据。
本申请实施例的第二方面提供了一种用于障碍遮挡的目标跟踪检测装置,包括:
目标检测模块,用于在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;其中,所述跟踪目标检测结果包括跟踪目标及其对应的目标框位置和目标类别;
遮挡判断模块,用于计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;
运动估计模块,仅用于当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;
速度计算模块,用于采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;
跟踪结果模块,用于根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果。
本申请实施例的第三方面还提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请实施例的第四方面还提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
实施本发明实施例,具有如下有益效果:
本发明实施例提供的一种用于障碍遮挡的目标跟踪检测方法、装置、设备及介质,其中方法包括:在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果,从而完成对跟踪目标的初步跟踪检测;计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;通过对跟踪目标进行遮挡检测,在判断跟踪目标被障碍物遮挡后,根据当前视频帧的跟踪检测结果估计跟踪目标在下一视频帧的运动状态和位置,有效提高目标跟踪的准确性,避免跟踪目标被物体遮挡时无法精准继续跟踪的情况;采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果,进一步提高跟踪目标检测的抗干扰能力和精准性。
附图说明
图1为本申请一实施例的用于障碍遮挡的目标跟踪检测方法的流程示意图;
图2为本申请一实施例的用于障碍遮挡的目标跟踪检测装置的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请的描述中,需要理解的是,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
本申请实施例可以应用于服务器中,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
首先介绍本发明可以提供的应用场景,如提供一种用于障碍遮挡的目标跟踪检测方法、装置、设备及介质,能够在跟踪目标被物体遮挡时根据当前跟踪检测结果预估跟踪目标在下一帧中的运动状态,继续精准地进行目标跟踪检测。
本发明第一实施例:
请参阅图1。
如图1所示,本实施例提供了一种用于障碍遮挡的目标跟踪检测方法,至少包括如下步骤:
S1、在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;其中,所述跟踪目标检测结果包括跟踪目标及其对应的目标框位置和目标类别;
S2、计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;
S3、当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;
S4、采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;
S5、根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果。
在现有技术中,现有目标追踪技术通常是提取监控图像中目标检测框,利用卷积神经网络多假设方法、最小代价流方法和最小多割方法等传统方法提取各目标检测框的特征向量,基于每个目标检测框的特征向量对所有预设的样本框进行匹配,以获得跟踪对象的跟踪结果。但是,当现有技术在监控对象被其他物体遮挡时,容易出现提取特征向量无法与系统中已有的样本框匹配的情况,导致无法对被障碍物遮挡的目标进行跟踪检测,从而出现目标跟踪结果准确性低下的问题。而本实施例为了解决上述技术问题,通过对跟踪目标进行目标检测和遮挡检测,当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对当前视频帧对应的跟踪目标检测结果进行运动估计,即使下一视频帧中不包含跟踪对象也能够根据当前检测结果,估计跟踪目标在下一帧中的运动状态和位置,抗干扰能力强,避免在跟踪目标被遮挡时无法准确追踪的问题;结合采用光流法计算得到的跟踪目标的运动速度,确定跟踪目标的最终跟踪结果,有效提高跟踪结果的准确性。
对于步骤S1,首先获取输入待检测视频,并按照预设规则对待检测视频进行分帧处理,分为若干帧视频帧,利用YOLOv3目标检测算法对输入的待检测视频帧进行跟踪目标检测,该步骤主要是检测当前视频帧中存在的跟踪目标对象和目标位置,从而输出当前视频帧对应的跟踪目标检测结果,包括跟踪目标以及标对应的目标框位置和目标类别,为后续运动估计提供目标跟踪检测的初始跟踪目标数据,提高后续对跟踪目标进行运动估计的准确性。
对于步骤S2,在对当前视频帧进行跟踪目标检测后,对当前视频帧的跟踪目标进行目标特征信息的提取,并在待检测视频的初始帧中以跟踪目标为中心选取候选区域,构建跟踪目标模型;在下一视频帧中查找与跟踪目标模型相似度最高的区域,并计算所述相似度最高的区域的遮挡系数;通过遮挡系数判断下一视频帧中的跟踪目标是否被障碍物遮挡,通过对下一视频帧的跟踪目标进行遮挡检测,从而根据遮挡检测结果提供不同的解决方案,提高抗干扰能力。
对于S3,当判定下一视频帧中的跟踪目标被障碍物遮挡无法进行跟踪后,采用运动估计算法,根据当前视频帧的跟踪目标检测结果进行运动估计,估计下一视频帧对应的运动估计结果,包括下一视频帧中各个跟踪目标可能的目标位置和运动状态,本步骤结合上一步骤S2,在判断跟踪目标被障碍物遮挡后,能够根据当前视频帧的跟踪检测结果估计跟踪目标在下一视频帧的运动状态和位置,有效提高目标跟踪的准确性,避免跟踪目标被物体遮挡时后续无法精准跟踪的问题。
对于步骤S4,采用光流法根据视频帧的帧间像素变化,确定在下一视频帧中跟踪目标的运动速度。
对于步骤S5,结合在下一视频帧中跟踪目标的运动速度和估计得到的在下一视频帧的目标位置和运动状态,确定跟踪目标的最终跟踪结果,完成目标跟踪检测,准确得到跟踪目标对应的跟踪检测结果,进一步提高跟踪目标检测的抗干扰能力和精准性。
在一种优选的实例中,所述计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡,具体包括:
对所述当前视频帧进行目标检测后提取目标特征信息,并在所述待检测视频的初始帧中以跟踪目标为中心选取候选区域,构建跟踪目标模型;
在下一视频帧中查找与所述跟踪目标模型相似度最高的区域,并计算所述相似度最高的区域的遮挡系数;
若所述遮挡系数大于第一阈值,则判定所述下一视频帧的跟踪目标被障碍物遮挡;
若所述遮挡系数小于第一阈值,则判定所述下一视频帧的跟踪目标没有被障碍物遮挡。
在具体的实施例中,在对当前视频帧的跟踪目标检测结果进行运动估计前,还包括遮挡检测,即判断下一帧的跟踪目标是否被障碍物遮挡,具体步骤包括:首先对当前视频帧进行目标检测,提取跟踪目标的目标特征信息,并且在待检测视频帧的初始帧以当前跟踪目标为中心选取对应的候选区域,构建生成当前跟踪目标对应的跟踪目标模型,构建跟踪目标模型完成后,在下一视频帧中查找与跟踪目标模型特征相似度最高的区域,作为下一视频帧中跟踪目标的所在区域,并计算该区域的遮挡系数;通过判断该区域的遮挡系数是否大于预设阈值,从而判定下一视频帧中的跟踪目标是否被障碍物遮挡,若判断小于预设阈值,则认为该跟踪良好,继续对目标进行跟踪;若判断大于预设阈值,则认为跟踪受到干扰,需要重新跟踪,通过对下一视频帧的跟踪目标进行遮挡检测,从而根据遮挡检测结果提供不同的解决方案,提高抗干扰能力,减少在跟踪目标检测过程中受到外界的影响,提高用于障碍遮挡的目标跟踪检测的准确性。
在一种优选的实例中,在所述在下一视频帧中查找与所述跟踪目标模型相似度最高的区域步骤之后,还包括:
采用巴氏算法计算所述当前视频帧的跟踪目标模型的图像直方图和所述相似度最高的区域的图像直方图的巴氏系数;
实时计算所述巴氏系数,当判断所述巴氏系数的下降幅度大于预设范围时,根据上一视频帧的跟踪目标模型的源图像重新筛选出对应的图像相似度最高度最高的区域。
在具体的实施例中,在下一视频帧中查找与所述跟踪目标模型相似度最高的区域步骤之后,采用巴氏算法计算当前视频帧的跟踪目标模型的图像直方图和所述相似度最高的区域的图像直方图的巴氏系数,通过计算得到的巴氏系数衡量图像直方图之间的相似度,从而根据巴氏系数判断与当前视频帧的跟踪目标模型相似度最高的区域在下一视频帧中的跟踪情况,当判断所述巴氏系数的下降幅度大于预设范围时,判定跟踪收到干扰,需要根据上一视频帧的跟踪目标模型的源图像重新筛选出对应的图像相似度最高度最高的区域,直至巴氏系数符合预设范围的变化幅度,判定跟踪良好,直到完成对目标的跟踪。通过对当前视频帧的跟踪目标模型的图像直方图和所述相似度最高的区域的图像直方图的巴氏系数的实时计算,更好地判断跟踪情形,并在跟踪受到干扰时重新选取新的跟踪目标在下一视频帧中的跟踪对象,提高当跟踪目标被遮挡时跟踪检测的抗干扰能力和准确性。
在一种优选的实例中,所述在下一视频帧中查找与所述跟踪目标模型相似度最高的区域,具体为:
对所述当前视频帧的跟踪目标模型的源图像和所述下一视频中待筛选的区域图像进行直方图数据采集处理,对采集得到的图像直方图进行归一化处理后,采用巴氏算法对各个归一化处理后的图像直方图进行相似度计算,分别得到各个所述下一视频中待筛选的区域图像与当前视频帧的跟踪目标模型的源图像的图像相似度,选取得到图像相似度最高的区域。
在具体的实施例中,在下一视频帧中查找与跟踪目标模型相似度最高的区域的步骤包括:首先对在当前视频帧中的跟踪模型的源图像和下一视频帧中所有待筛选的区域图像均进行直方图数据采集处理,得到各自的图像直方图后进行归一化处理,然后采用巴氏算法对各个归一化处理后的图像直方图进行相似度计算,从而得到下一视频帧中所有待筛选的区域图像分别与当前视频帧的跟踪目标模型的源图像的图像相似度,从中筛选出与跟踪目标模型图像相似度最高的区域图像,作为下一视频帧中跟踪目标的估计所在区域。
在一种优选的实例中,所述采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果,具体包括:
采集与跟踪目标所属同一类别的图像数据并进行图像预处理,分别构建得到YOLOv3目标检测模型的训练集、验证集和测试集;
通过所述训练集、验证集和测试集对预先构建的YOLOv3目标检测模型进行模型训练,得到训练后的YOLOv3目标检测模型;
根据所述训练后的YOLOv3目标检测模型对输入的当前视频帧进行跟踪目标检测,输出得到当前视频帧中跟踪目标及其对应的目标框位置和目标类别。
在具体的实施例中,采用YOLOv3目标检测算法对待检测视频帧进行跟踪目标检测的具体步骤如下,首先是采集与跟踪目标所属同一大类别的图像数据,例如跟踪目标为车辆时,则采集若干包含车辆的图片,并对每张图片进行图像预处理,包括归一化和二值化等等,并对每张图片进行人工标注,标注每张图片所包含的车辆类型以及将图片中的车辆用目标框框出,得到各个跟踪目标对应的目标框位置和目标类别,将所有完成图像预处理的图像数据按照比例划分为YOLOv3目标检测模型的训练集、验证集和测试集;再通过划分得到的训练集、验证集和测试集对预先构建的YOLOv3目标检测模型进行模型训练,得到训练后的YOLOv3目标检测模型,最后将待检测视频帧输入至训练优化后的YOLOv3目标检测模型中进行跟踪目标检测,从而输出得到当前视频帧中包含的若干个跟踪目标,以及各个跟踪目标对应的目标框位置和目标类别信息,完成初步的跟踪目标检测,提高用于障碍遮挡的目标跟踪检测的效率。
在一种优选的实例中,所述采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果,具体为:
采用卡尔曼滤波算法对所述当前视频帧对应的任一跟踪目标的目标框位置和目标类别进行运动估计,得到在下一视频帧中的所述任一跟踪目标可能的目标框位置和运动状态。
在具体的实施例中,采用运动估计算法对当前视频帧的跟踪目标检测结果进行运动估计的过程如下,采用卡尔曼波滤波算法对在当前视频帧中的各个跟踪目标的目标框位置和目标类别进行运动估计,从而估计得到在下一视频中的各个跟踪目标的目标框位置和运动状态,对跟踪目标进行运动状态和运动位置估计,提高目标跟踪检测的效率。需要说明的是,本实施例中虽然只提出采用了卡尔曼滤波算法进行运动估计,但其它常见的运动估计算法也能用于本申请中。
在一种优选的实例中,在所述根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果步骤之后,还包括:
采集用户对所述最终跟踪结果的反馈信息,根据反馈信息对跟踪目标的最终跟踪结果进行修正,并构建目标跟踪检测结果数据集作为YOLOv3目标检测算法的训练数据。
在具体的实施例中,在确定各个跟踪目标的最终跟踪结果之后,还包括跟踪最终结果进行修正优化,采集用户对各个目标最终跟踪结果的反馈信息,从而对各个跟踪目标的最终跟踪结果进行实时修正,同时,采集完成修正后的最终跟踪结果,构建目标跟踪检测数据集,作为对YOLOv3目标检测算法中的YOLOv3目标检测模型的训练数据,再次对模型进行训练优化,提高目标检测的准确性和可靠性。
本实施例提供的一种用于障碍遮挡的目标跟踪检测方法,包括:在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果,从而完成对跟踪目标的初步跟踪检测;计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;通过对跟踪目标进行遮挡检测,在判断跟踪目标被障碍物遮挡后,根据当前视频帧的跟踪检测结果估计跟踪目标在下一视频帧的运动状态和位置,有效提高目标跟踪的准确性,避免跟踪目标被物体遮挡时无法精准继续跟踪的情况;采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果,进一步提高跟踪目标检测的抗干扰能力和精准性。
本发明第二实施例:
请参阅图2。
如图2所示,本实施例提供了一种用于障碍遮挡的目标跟踪检测装置,包括:
目标检测模块100,用于在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;其中,所述跟踪目标检测结果包括跟踪目标及其对应的目标框位置和目标类别。
对于目标检测模块100,首先获取输入待检测视频,并按照预设规则对待检测视频进行分帧处理,分为若干帧视频帧,利用YOLOv3目标检测算法对输入的待检测视频帧进行跟踪目标检测,该步骤主要是检测当前视频帧中存在的跟踪目标对象和目标位置,从而输出当前视频帧对应的跟踪目标检测结果,包括跟踪目标以及标对应的目标框位置和目标类别,为后续运动估计提供目标跟踪检测的初始跟踪目标数据,提高后续对跟踪目标进行运动估计的准确性。
遮挡判断模块200,用于计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡。
对于遮挡判断模块200,在对当前视频帧进行跟踪目标检测后,对当前视频帧的跟踪目标进行目标特征信息的提取,并在待检测视频的初始帧中以跟踪目标为中心选取候选区域,构建跟踪目标模型;在下一视频帧中查找与跟踪目标模型相似度最高的区域,并计算所述相似度最高的区域的遮挡系数;通过遮挡系数判断下一视频帧中的跟踪目标是否被障碍物遮挡,通过对下一视频帧的跟踪目标进行遮挡检测,从而根据遮挡检测结果提供不同的解决方案,提高抗干扰能力。
运动估计模块300,仅用于当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果。
对于运动估计模块300,当判定下一视频帧中的跟踪目标被障碍物遮挡无法进行跟踪后,采用运动估计算法,根据当前视频帧的跟踪目标检测结果进行运动估计,估计下一视频帧对应的运动估计结果,包括下一视频帧中各个跟踪目标可能的目标位置和运动状态,在判断跟踪目标被障碍物遮挡后,能够根据当前视频帧的跟踪检测结果估计跟踪目标在下一视频帧的运动状态和位置,有效提高目标跟踪的准确性,避免跟踪目标被物体遮挡时后续无法精准跟踪的问题。
速度计算模块400,用于采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度。
对于速度计算模块400,采用光流法根据视频帧的帧间像素变化,确定在下一视频帧中跟踪目标的运动速度。
跟踪结果模块500,用于根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果。
对于跟踪结果模块500,用于结合在下一视频帧中跟踪目标的运动速度和估计得到的在下一视频帧的目标位置和运动状态,确定跟踪目标的最终跟踪结果,完成目标跟踪检测,准确得到跟踪目标对应的跟踪检测结果,进一步提高跟踪目标检测的抗干扰能力和精准性。
本实施例在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果,从而完成对跟踪目标的初步跟踪检测;计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;通过对跟踪目标进行遮挡检测,在判断跟踪目标被障碍物遮挡后,根据当前视频帧的跟踪检测结果估计跟踪目标在下一视频帧的运动状态和位置,有效提高目标跟踪的准确性,避免跟踪目标被物体遮挡时无法精准继续跟踪的情况;采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果,进一步提高跟踪目标检测的抗干扰能力和精准性。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于储存用于障碍遮挡的目标跟踪检测方法等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种用于障碍遮挡的目标跟踪检测方法。所述用于障碍遮挡的目标跟踪检测方法,包括:在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;其中,所述跟踪目标检测结果包括跟踪目标及其对应的目标框位置和目标类别;计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种用于障碍遮挡的目标跟踪检测方法,包括步骤:在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;其中,所述跟踪目标检测结果包括跟踪目标及其对应的目标框位置和目标类别;计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果。
上述执行的用于障碍遮挡的目标跟踪检测方法,在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果,从而完成对跟踪目标的初步跟踪检测;计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;通过对跟踪目标进行遮挡检测,在判断跟踪目标被障碍物遮挡后,根据当前视频帧的跟踪检测结果估计跟踪目标在下一视频帧的运动状态和位置,有效提高目标跟踪的准确性,避免跟踪目标被物体遮挡时无法精准继续跟踪的情况;采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果,进一步提高跟踪目标检测的抗干扰能力和精准性。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述模块的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变形,这些改进和变形也视为本发明的保护范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
Claims (10)
1.一种用于障碍遮挡的目标跟踪检测方法,其特征在于,至少包括如下步骤:
在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;其中,所述跟踪目标检测结果包括跟踪目标及其对应的目标框位置和目标类别;
计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;
当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;
采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;
根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果。
2.根据权利要求1所述的用于障碍遮挡的目标跟踪检测方法,其特征在于,所述计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡,具体包括:
对所述当前视频帧进行目标检测后提取目标特征信息,并在所述待检测视频的初始帧中以跟踪目标为中心选取候选区域,构建跟踪目标模型;
在下一视频帧中查找与所述跟踪目标模型相似度最高的区域,并计算所述相似度最高的区域的遮挡系数;
若所述遮挡系数大于第一阈值,则判定所述下一视频帧的跟踪目标被障碍物遮挡;
若所述遮挡系数小于第一阈值,则判定所述下一视频帧的跟踪目标没有被障碍物遮挡。
3.根据权利要求2所述的用于障碍遮挡的目标跟踪检测方法,其特征在于,在所述在下一视频帧中查找与所述跟踪目标模型相似度最高的区域步骤之后,还包括:
采用巴氏算法计算所述当前视频帧的跟踪目标模型的图像直方图和所述相似度最高的区域的图像直方图的巴氏系数;
实时计算所述巴氏系数,当判断所述巴氏系数的下降幅度大于预设范围时,根据上一视频帧的跟踪目标模型的源图像重新筛选出对应的图像相似度最高度最高的区域。
4.根据权利要求2所述的用于障碍遮挡的目标跟踪检测方法,其特征在于,所述在下一视频帧中查找与所述跟踪目标模型相似度最高的区域,具体为:
对所述当前视频帧的跟踪目标模型的源图像和所述下一视频中待筛选的区域图像进行直方图数据采集处理,对采集得到的图像直方图进行归一化处理后,采用巴氏算法对各个归一化处理后的图像直方图进行相似度计算,分别得到各个所述下一视频中待筛选的区域图像与当前视频帧的跟踪目标模型的源图像的图像相似度,选取得到图像相似度最高的区域。
5.根据权利要求1所述的用于障碍遮挡的目标跟踪检测方法,其特征在于,所述采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果,具体包括:
采集与跟踪目标所属同一类别的图像数据并进行图像预处理,分别构建得到YOLOv3目标检测模型的训练集、验证集和测试集;
通过所述训练集、验证集和测试集对预先构建的YOLOv3目标检测模型进行模型训练,得到训练后的YOLOv3目标检测模型;
根据所述训练后的YOLOv3目标检测模型对输入的当前视频帧进行跟踪目标检测,输出得到当前视频帧中跟踪目标及其对应的目标框位置和目标类别。
6.根据权利要求1所述的用于障碍遮挡的目标跟踪检测方法,其特征在于,所述采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果,具体为:
采用卡尔曼滤波算法对所述当前视频帧对应的任一跟踪目标的目标框位置和目标类别进行运动估计,得到在下一视频帧中的所述任一跟踪目标可能的目标框位置和运动状态。
7.根据权利要求1所述的用于障碍遮挡的目标跟踪检测方法,其特征在于,在所述根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果步骤之后,还包括:
采集用户对所述最终跟踪结果的反馈信息,根据反馈信息对跟踪目标的最终跟踪结果进行修正,并构建目标跟踪检测结果数据集作为YOLOv3目标检测算法的训练数据。
8.一种用于障碍遮挡的目标跟踪检测装置,其特征在于,包括:
目标检测模块,用于在对获取的待检测视频进行分帧处理后,采用YOLOv3目标检测算法对当前视频帧进行跟踪目标检测,得到当前视频帧对应的跟踪目标检测结果;其中,所述跟踪目标检测结果包括跟踪目标及其对应的目标框位置和目标类别;
遮挡判断模块,用于计算在下一视频帧中匹配得到的与跟踪目标相似度最高的区域的遮挡系数,根据所述遮挡系数判断下一帧中的跟踪目标是否被障碍物遮挡;
运动估计模块,仅用于当判定下一视频帧中的跟踪目标被障碍物遮挡时,采用运动估计算法对所述当前视频帧对应的跟踪目标检测结果进行运动估计,得到所述下一视频帧中跟踪目标对应的运动估计结果;
速度计算模块,用于采用光流法根据帧间像素变化信息计算所述跟踪目标的运动速度;
跟踪结果模块,用于根据所述跟踪目标的运动估计结果和运动速度,确定跟踪目标的最终跟踪结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111317981.9A CN114092515B (zh) | 2021-11-08 | 2021-11-08 | 用于障碍遮挡的目标跟踪检测方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111317981.9A CN114092515B (zh) | 2021-11-08 | 2021-11-08 | 用于障碍遮挡的目标跟踪检测方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114092515A true CN114092515A (zh) | 2022-02-25 |
CN114092515B CN114092515B (zh) | 2024-03-05 |
Family
ID=80299482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111317981.9A Active CN114092515B (zh) | 2021-11-08 | 2021-11-08 | 用于障碍遮挡的目标跟踪检测方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114092515B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399537A (zh) * | 2022-03-23 | 2022-04-26 | 东莞先知大数据有限公司 | 一种目标人员的车辆跟踪方法及系统 |
CN117152258A (zh) * | 2023-11-01 | 2023-12-01 | 中国电建集团山东电力管道工程有限公司 | 一种管道生产智慧车间的产品定位方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150130032A (ko) * | 2014-05-13 | 2015-11-23 | 국방과학연구소 | 상관 추적기의 성능향상을 위한 특징점 활용 방법 및 이를 구현하는 영상 추적 시스템 |
WO2018068718A1 (zh) * | 2016-10-13 | 2018-04-19 | 夏普株式会社 | 目标跟踪方法和目标跟踪设备 |
CN109446942A (zh) * | 2018-10-12 | 2019-03-08 | 北京旷视科技有限公司 | 目标跟踪方法、装置和系统 |
CN110084831A (zh) * | 2019-04-23 | 2019-08-02 | 江南大学 | 基于YOLOv3多伯努利视频多目标检测跟踪方法 |
CN111476814A (zh) * | 2020-03-25 | 2020-07-31 | 深圳大学 | 目标跟踪方法、装置、设备及存储介质 |
CN112633105A (zh) * | 2020-12-15 | 2021-04-09 | 重庆电子工程职业学院 | 一种目标跟踪、统计系统及方法 |
-
2021
- 2021-11-08 CN CN202111317981.9A patent/CN114092515B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150130032A (ko) * | 2014-05-13 | 2015-11-23 | 국방과학연구소 | 상관 추적기의 성능향상을 위한 특징점 활용 방법 및 이를 구현하는 영상 추적 시스템 |
WO2018068718A1 (zh) * | 2016-10-13 | 2018-04-19 | 夏普株式会社 | 目标跟踪方法和目标跟踪设备 |
CN109446942A (zh) * | 2018-10-12 | 2019-03-08 | 北京旷视科技有限公司 | 目标跟踪方法、装置和系统 |
CN110084831A (zh) * | 2019-04-23 | 2019-08-02 | 江南大学 | 基于YOLOv3多伯努利视频多目标检测跟踪方法 |
CN111476814A (zh) * | 2020-03-25 | 2020-07-31 | 深圳大学 | 目标跟踪方法、装置、设备及存储介质 |
CN112633105A (zh) * | 2020-12-15 | 2021-04-09 | 重庆电子工程职业学院 | 一种目标跟踪、统计系统及方法 |
Non-Patent Citations (2)
Title |
---|
赵春晖: "电子封装工艺与装备技术基础教程", 西安电子科技大学出版社, pages: 228 - 14 * |
邓杰: "基于改进YOLOv3的密集行人检测", 电子测量技术, pages 228 - 14 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399537A (zh) * | 2022-03-23 | 2022-04-26 | 东莞先知大数据有限公司 | 一种目标人员的车辆跟踪方法及系统 |
CN114399537B (zh) * | 2022-03-23 | 2022-07-01 | 东莞先知大数据有限公司 | 一种目标人员的车辆跟踪方法及系统 |
CN117152258A (zh) * | 2023-11-01 | 2023-12-01 | 中国电建集团山东电力管道工程有限公司 | 一种管道生产智慧车间的产品定位方法及系统 |
CN117152258B (zh) * | 2023-11-01 | 2024-01-30 | 中国电建集团山东电力管道工程有限公司 | 一种管道生产智慧车间的产品定位方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114092515B (zh) | 2024-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108470332B (zh) | 一种多目标跟踪方法及装置 | |
US10417503B2 (en) | Image processing apparatus and image processing method | |
CN111062239A (zh) | 人体目标检测方法、装置、计算机设备及存储介质 | |
CN110569721A (zh) | 识别模型训练方法、图像识别方法、装置、设备及介质 | |
CN111862044B (zh) | 超声图像处理方法、装置、计算机设备和存储介质 | |
US11093737B2 (en) | Gesture recognition method and apparatus, electronic device, and computer-readable storage medium | |
CN110706261A (zh) | 车辆违章检测方法、装置、计算机设备和存储介质 | |
CN111898486B (zh) | 监控画面异常的检测方法、装置及存储介质 | |
CN110782483A (zh) | 基于分布式相机网络的多视图多目标跟踪方法及系统 | |
CN114092515A (zh) | 用于障碍遮挡的目标跟踪检测方法、装置、设备及介质 | |
CN109035295B (zh) | 多目标跟踪方法、装置、计算机设备和存储介质 | |
CN111047088A (zh) | 预测图像获取方法、装置、计算机设备和存储介质 | |
CN110660102A (zh) | 基于人工智能的说话人识别方法及装置、系统 | |
CN114359787A (zh) | 目标属性识别方法、装置、计算机设备及存储介质 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN112884782A (zh) | 生物对象分割方法、装置、计算机设备和存储介质 | |
CN116645396A (zh) | 轨迹确定方法、装置、计算机可读存储介质及电子设备 | |
CN115049954A (zh) | 目标识别方法、装置、电子设备和介质 | |
CN111985340A (zh) | 基于神经网络模型的人脸识别方法、装置和计算机设备 | |
CN113902932A (zh) | 特征提取方法、视觉定位方法及装置、介质和电子设备 | |
CN113255549A (zh) | 一种狼群围猎行为状态智能识别方法及系统 | |
CN111563492B (zh) | 一种跌倒检测方法、跌倒检测装置及存储装置 | |
CN117593792A (zh) | 一种基于视频帧的异常姿态检测方法和装置 | |
CN112836682A (zh) | 视频中对象的识别方法、装置、计算机设备和存储介质 | |
CN111027434B (zh) | 一种行人识别模型的训练方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |