CN107705324A - 一种基于机器学习的视频目标检测方法 - Google Patents
一种基于机器学习的视频目标检测方法 Download PDFInfo
- Publication number
- CN107705324A CN107705324A CN201710985003.9A CN201710985003A CN107705324A CN 107705324 A CN107705324 A CN 107705324A CN 201710985003 A CN201710985003 A CN 201710985003A CN 107705324 A CN107705324 A CN 107705324A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- detection
- optical flow
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 60
- 238000010801 machine learning Methods 0.000 title claims abstract description 13
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 26
- 230000003287 optical effect Effects 0.000 claims abstract description 24
- 239000000284 extract Substances 0.000 claims abstract description 10
- 230000007935 neutral effect Effects 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 12
- 238000010276 construction Methods 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 8
- 230000004927 fusion Effects 0.000 abstract description 2
- 238000012706 support-vector machine Methods 0.000 abstract 2
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- NINIDFKCEFEMDL-UHFFFAOYSA-N Sulfur Chemical compound [S] NINIDFKCEFEMDL-UHFFFAOYSA-N 0.000 description 2
- 239000005864 Sulphur Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 102000000584 Calmodulin Human genes 0.000 description 1
- 108010041952 Calmodulin Proteins 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于机器学习的视频目标检测方法,包括,1)对输入的视频采用SSD目标检测算法,得到待跟踪的目标检测框,并在图像上标出bounding‑box,确定跟踪的目标。2)对输入视频每一帧采用两种跟踪方法,一是光流跟踪算法,利用概率预测下一帧的跟踪点,并通过欧氏距离和所设阈值精确确定下一帧跟踪点。二是采用全卷积神经网络,提取神经网络中高层和底层的特征进行分别卷积,最后通过分类器融合成特征图,从而精确确定下一帧跟踪点。3)对光流跟踪和全卷积神经网络跟踪的结果提取HOG特征,通过支持向量机(SVM)将两个结果进行有效性判别最终确定下一帧的目标位置。
Description
技术领域
本发明涉及计算机视觉领域,更具体地,涉及一种基于机器学习的视频目标检测方法。
背景技术
科技的发展使得摄像设备得到了普及,应运而生海量的图像数据、视频数据,其中视频数据也受到了广泛的关注,许多领域都需要用到目标的检测和追踪,例如监控视频,无人机追踪等。在这些应用中,通常是先给定一个目标候选框,然后进行追踪,并不能自动识别出需要跟踪的目标。特别地,如果目标出现在多个视频中,在海量视频中寻找目标并追踪对于人力来说是不适用的,这些跟踪系统也就不适用了。因此,解决跟踪目标的自动识别能够大大提升目标跟踪的应用领域,使其更广泛的为人类服务。
目标的检测和追踪是计算机视觉领域一直在探索的课题,很多学者在这方面做出过突出贡献,但是通常二者是两个独立的研究课题。当前主流的基于深度学习的目标检测方法主要分为两个部分,第一部分是R Girshick提出的以R-CNN为代表的结合区域管道和CNN分类的目标检测框架,其中CNN目标检测框架包括R-CNN,SPP-NET,Fast R-CNN,FasterR-CNN。第二部分是以YOLO为代表的将目标检测转换为回归问题的目标检测框架,与之不一样的SSD舍弃随机假设目标框、小管道候选、像素重采样、特征重采样等步骤。同时,目标检测算法的最新进展有基于多特征融合和使用循环神经网络的方法。当前基于深度学习的追踪方法主要有四个方面。一是利用辅助图片数据预训练深度模型,在线跟踪时微调,这方面的代表作品是王乃岩博士的DLT和SO-DLT。二是利用现有大规模分类数据集预训练的CNN分类网络提取特征,代表作品是利用VGG16和VGG19网络。三是利用跟踪序列预训练,在线跟踪时微调,代表作品是MDNet。四是利用递归神经网络进行目标跟踪的新思路,代表作品是RTT。
上述方法部分是进行静态图像的目标检测,部分是进行视频目标检测,并且视频目标追踪中用到的目标检测方法也是为了提高跟踪效果的,并没有实现自动识别并进行跟踪,因此无法应用到跟踪目标的自动识别和跟踪上。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于机器学习的视频目标检测方法,该方法基于机器学习和光流追踪的视频目标检测方法,本方法将待追踪的视频序列作为输入,先通过深度网络及检测框架进行单帧图片的目标检测,在使用基于融合了光流信息,深度特征和HOG描述符的追踪器,对已检测出的目标进行持续的追踪。
为了达到上述目的,本发明采用的技术方案是:
一种基于深度学习和目标检测的目标追踪算法,包括如下步骤:
(1)对于待跟踪的视频,利用SSD目标检测算法得到待跟踪的目标检测框,预设默认框的坐标,通过网络的学习训练,与真实框的损失计算,逐渐回归到接近真实尺度。对于每一张标记的图片分别利用光流跟踪和全卷积神经网络独立地进行追踪。
对于光流跟踪算法,对于给出检测框的目标,均匀采取一百个点作为追踪点,再将下一帧的点往后计算,得到原先帧的点,当如果该点的与原点的欧式距离小于一定阈值则保留下来,作为追踪点。通过获得的追踪点,计算标定框下一帧的位置。
同时,对于全连接神经网络,采用VGG16模型,13个卷积层,3个全连接层。使用主成分分析法提取其主要特征,分别提取卷积层高层和底层的特征,选出和当前跟踪目标最相关的特征图管道,分别输入到两个两层卷积的卷积网络SNet和GNet,得到两个预测的热图,并根据是否有错误选择决定使用哪个热图生成最终的跟踪结果。
(2)对光流算法检测出的结果,和FCNT检测的结果,提取其HOG特征,通过SVM将两个结果进行有效性的判断,最终选出跟踪目标的准确位置。
本发明基于机器学习和深度卷积神经网络方法,并且通过探索深度特征层的空间信息和光流预测的时间信息,提出了一种新的基于机器学习的视频目标检测方法,它能够有效地自动识别跟踪目标,显著提高了跟踪的准确率。
优选的,步骤(1)中,对于待跟踪的视频进行SSD目标检测,省略传统的一些列过程,时间上有了很大的提高并且准确率上也是有所提升。整合每一层卷积层输出的预测信息(包括类别和四个位置偏移量),没有丢掉细小的信息。
优选的,步骤(2)中,光流跟踪算法将一百个点计算前向光流预测下一帧的点,再将下一帧的点往后计算,得到原先帧的点,具体的判决方法是当如果该点的与原点的欧式距离小于一定阈值则保留下来,作为追踪点。通过获得的追踪点,计算标定框下一帧的位置。
优选的,步骤(2)中,提取卷积神经网络中的高层和底层特征,具体是Conv4-3(第10层)和Conv5-3(第13层),用它们的特征分别构建特征选择网络sel-CNN,选出和当前跟踪目标最相关的特征图管道。对筛选出的Conv5-3和Conv4-3特征分别构建捕捉类别信息的GNet和区分背景相似物体的SNet(都是两层卷积结构)。
在第一帧中使用给出的bounding-box生成热度图,回归训练sel-CNN,GNet和SNet。对于每一帧,以上一帧预测结果为中心选出一块区域,之后分别输入GNet和SNet,得到两个预测的热图,并根据是否有错误选择决定使用哪个热图生成最终的跟踪结果。
优选的,步骤(3)中,对光流算法检测出的结果,和全卷神经网络检测的结果,提取其HOG特征,通过SVM将两个结果进行有效性的判断,具体的判断方法是如果光硫算法判断为有效,FCNT结果判断为无效,则采用光流算法的检测框;如果FCNT检测结果有效,光流算法无效,则采用FCNT结果;如果两个模块都有效的话,则采用两个检测结果的平均值作为最终结果。如果两个模块都判断为无效的话,则说明追踪失败。对有效的检测结果,在靠近检测框的周围随机提取正样本和远离检测框的地方进行负样本的提取,如果正样本被SVM判断为负样本则加入到训练集中,如果负样本被SVM判断为正样本则加到训练集中。
本发明相对于现有技术具有如下的优点及效果:
1、本发明提出了一种新的基于机器学习的视频目标检测方法。
2、利用SSD和FCNT都存在VGG16的特点,本方法统一数据集为VOC2012,并使用同一个VGG16模型,使检测、追踪类别一致,模型统一,训练时长减短。
3、采用SSD作为检测器,时间更快、准确率更高。
4、本发明利用目标检测的算法实现自动识别跟踪对象。
5、本方法结合时空信息,深度特征和HOG特征使得检测结果更加准确。
3、本发明通过结合卷积神经网络的高低层效果实现更准确跟踪。
附图说明
图1为本发明的总体流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
附图给出了本发明的操作过程,如图1所示,一种基于机器学习的视频目标检测方法,包括以下步骤:
(1)对于待跟踪的视频,利用SSD目标检测算法得到待跟踪的目标检测框,预设默认框的坐标,通过网络的学习训练,与真实框的损失计算,逐渐回归到接近真实尺度。对于每一张标记的图片分别利用光流跟踪和全卷积神经网络独立地进行追踪。以下是SSD目标检测算法优于其他算法的比较:
(2)对于光流跟踪算法,对于给出检测框的目标,均匀采取一百个点作为追踪点,再将下一帧的点往后计算,得到原先帧的点,当如果该点的与原点的欧式距离小于一定阈值则保留下来,作为追踪点。通过获得的追踪点,计算标定框下一帧的位置。
(3)对于全连接神经网络,采用VGG16模型,13个卷积层,3个全连接层。使用主成分分析法提取其主要特征,分别提取卷积层高层和底层的特征,选出和当前跟踪目标最相关的特征图管道,分别输入到两个两层卷积的卷积网络SNet和GNet,得到两个预测的热图,并根据是否有错误选择决定使用哪个热图生成最终的跟踪结果。
(4)对光流算法检测出的结果,和FCNT检测的结果,提取其HOG特征,通过SVM将两个结果进行有效性的判断,最终选出跟踪目标的准确位置。
进一步地,步骤(1)中的具体过程如下,视频经过公共的VGG16之后,后面的全连接层用卷积层替代,实现更好的检测效果。对于待跟踪的视频进行SSD目标检测,有助于实现自动识别待跟踪目标,不需要手动标记跟踪目标。
步骤(2)中的具体过程如下,光流跟踪算法将一百个点计算前向光流预测下一帧的点,再将下一帧的点往后计算,得到原先帧的点,具体的判决方法是当如果该点的与原点的欧式距离小于一定阈值则保留下来,作为追踪点。通过获得的追踪点,计算标定框下一帧的位置。
步骤(3)中的具体过程如下,提取卷积神经网络中的高层和底层特征,具体是Conv4-3(第10层)和Conv5-3(第13层),用它们的特征分别构建特征选择网络sel-CNN,选出和当前跟踪目标最相关的特征图管道。对公共VGG16筛选出的Conv5-3和Conv4-3特征分别构建捕捉类别信息的GNet和区分背景相似物体的SNet(都是两层卷积结构)。在第一帧中使用给出的bounding-box生成热度图,回归训练sel-CNN,GNet和SNet。对于每一帧,以上一帧预测结果为中心选出一块区域,之后分别输入GNet和SNet,得到两个预测的热图,并根据是否有错误选择决定使用哪个热图生成最终的跟踪结果。
步骤(4)中的具体过程如下,对光流算法检测出的结果,和全卷神经网络检测的结果,提取其HOG特征,通过SVM将两个结果进行有效性的判断,具体的判断方法是如果光硫算法判断为有效,FCNT结果判断为无效,则采用光流算法的检测框;如果FCNT检测结果有效,光流算法无效,则采用FCNT结果;如果两个模块都有效的话,则采用两个检测结果的平均值作为最终结果。如果两个模块都判断为无效的话,则说明追踪失败。对有效的检测结果,在靠近检测框的周围随机提取正样本和远离检测框的地方进行负样本的提取,如果正样本被SVM判断为负样本则加入到训练集中,如果负样本被SVM判断为正样本则加到训练集中。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (3)
1.一种基于机器学习的视频目标检测方法,其特征在于,包括以下步骤:
(1)对于待跟踪的视频,利用SSD目标检测算法得到待跟踪的目标检测框,并在图像上标出bounding-box;对于每一张标记的图片分别利用光流跟踪法和全卷积神经网络独立地进行追踪;
其中光流跟踪法进行追踪的具体过程为:对于给出目标检测框的目标,均匀采集M个点作为跟踪点;根据两帧之间的光流来计算这M个点在下一帧的目标点;当目标点与当前帧中M个点所对应的点的欧氏距离小于设定的阈值则保留下来,作为跟踪点;基于所获得的下一帧中的跟踪点,计算下一帧的目标检测框的位置;
全卷积神经网络独立地进行追踪的具体过程为,采用VGG16模型,13个卷积层,3个全连接层,使用主成分分析法提取其主要特征,分别提取卷积神经网络中的高层和底层特征,选出和当前跟踪目标最相关的特征图管道,分别输入到两个两层卷积的卷积网络SNet和Gnet,得到两个预测的热图,并根据是否有错误选择决定使用哪个热图生成最终的跟踪结果;
(2)对于光流算法检测出的结果,和全卷积神经网络检测的结果,提取其HOG特征,通过SVM将两个结果进行有效性的判断,最终选出跟踪目标的准确位置。
2.根据权利要求1所述的一种基于机器学习的视频目标检测方法,其特征在于,其中提取卷积神经网络中的高层和底层特征具体为:是Conv4-3(第10层)和Conv5-3(第13层),用它们的特征分别构建特征选择网络sel-CNN,选出和当前跟踪目标最相关的特征图管道,对筛选出的Conv5-3和Conv4-3特征分别构建捕捉类别信息的GNet和区分背景相似物体的Snet;
在第一帧中使用给出的bounding-box生成热度图,回归训练sel-CNN,GNet和Snet;对于每一帧,以上一帧预测结果为中心选出一块区域,之后分别输入GNet和SNet,得到两个预测的热图;根据热图计算跟踪错误率,当错误率小于设定的阈值则选择GNet的结果,否则选择SNet的结果。
3.根据权利要求1所述的一种基于机器学习的视频目标检测方法,其特征在于,所述步骤(2)中,对光流算法检测出的结果和全卷神经网络检测的结果,提取其HOG特征,通过SVM将两个结果进行有效性的判断,具体的判断方法:
当光流算法判断为有效,全卷神经网络检测结果判断为无效,则采用光流算法的检测框;
当全卷神经网络检测检测结果有效,光流算法无效,则采用全卷神经网络检测结果;
当光流算法检测和全卷神经网络检测都有效的话,则采用两个检测结果的平均值作为最终结果;
当光流算法检测和全卷神经网络检测都无效的话,则说明追踪失败;
对有效的检测结果,以检测框为中心限定半径为R的圆;在检测框外部,圆的内部随机提取正样本,在圆的外部随机提取负样本,当正样本被SVM判断为负样本则加入到训练集中,当负样本被SVM判断为正样本则加到训练集中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710985003.9A CN107705324A (zh) | 2017-10-20 | 2017-10-20 | 一种基于机器学习的视频目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710985003.9A CN107705324A (zh) | 2017-10-20 | 2017-10-20 | 一种基于机器学习的视频目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107705324A true CN107705324A (zh) | 2018-02-16 |
Family
ID=61182005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710985003.9A Pending CN107705324A (zh) | 2017-10-20 | 2017-10-20 | 一种基于机器学习的视频目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107705324A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446634A (zh) * | 2018-03-20 | 2018-08-24 | 北京天睿空间科技股份有限公司 | 基于视频分析和定位信息结合的航空器持续跟踪方法 |
CN108520219A (zh) * | 2018-03-30 | 2018-09-11 | 台州智必安科技有限责任公司 | 一种卷积神经网络特征融合的多尺度快速人脸检测方法 |
CN109255351A (zh) * | 2018-09-05 | 2019-01-22 | 华南理工大学 | 基于三维卷积神经网络的边界框回归方法、系统、设备及介质 |
CN109448018A (zh) * | 2018-09-18 | 2019-03-08 | 平安科技(深圳)有限公司 | 跟踪目标的定位方法、装置、设备及存储介质 |
CN109583406A (zh) * | 2018-12-06 | 2019-04-05 | 中山大学 | 基于特征关注机制的人脸表情识别方法 |
CN109711261A (zh) * | 2018-11-28 | 2019-05-03 | 山东师范大学 | 一种室内人员定位方法及装置、建筑智能照明系统 |
CN109711338A (zh) * | 2018-12-26 | 2019-05-03 | 上海交通大学 | 利用光流指导特征融合的物体实例分割方法 |
CN109784183A (zh) * | 2018-12-17 | 2019-05-21 | 西北工业大学 | 基于级联卷积网络和光流的视频显著性目标检测方法 |
CN110223347A (zh) * | 2019-06-11 | 2019-09-10 | 张子頔 | 图像中目标物体的定位方法、电子设备和存储介质 |
CN110309843A (zh) * | 2019-02-02 | 2019-10-08 | 国网浙江省电力有限公司湖州供电公司 | 一种电力设备图像中多类部件的自动识别方法 |
CN110363171A (zh) * | 2019-07-22 | 2019-10-22 | 北京百度网讯科技有限公司 | 天空区域预测模型的训练方法和识别天空区域的方法 |
CN110533693A (zh) * | 2019-08-29 | 2019-12-03 | 北京精英路通科技有限公司 | 一种目标跟踪方法及目标跟踪装置 |
CN110706193A (zh) * | 2018-06-21 | 2020-01-17 | 北京京东尚科信息技术有限公司 | 图像处理方法和装置 |
CN110866428A (zh) * | 2018-08-28 | 2020-03-06 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN111027495A (zh) * | 2019-12-12 | 2020-04-17 | 京东数字科技控股有限公司 | 用于检测人体关键点的方法和装置 |
CN111652012A (zh) * | 2020-05-11 | 2020-09-11 | 中山大学 | 一种基于ssd网络模型的曲面qr码定位方法 |
CN112258552A (zh) * | 2020-09-15 | 2021-01-22 | 青岛邃智信息科技有限公司 | 一种社区监控场景下行人多目标跟踪方法 |
CN112949480A (zh) * | 2021-03-01 | 2021-06-11 | 浙江大学 | 一种基于yolov3算法的铁轨弹条检测方法 |
CN114255257A (zh) * | 2020-09-10 | 2022-03-29 | 北京达佳互联信息技术有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663714A (zh) * | 2012-03-28 | 2012-09-12 | 中国人民解放军国防科学技术大学 | 基于显著性的红外图像强固定模式噪声抑制方法 |
CN103149940A (zh) * | 2013-03-27 | 2013-06-12 | 清华大学 | 一种结合均值移动与粒子滤波的无人机目标跟踪方法 |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
CN104268520A (zh) * | 2014-09-22 | 2015-01-07 | 天津理工大学 | 一种基于深度运动轨迹的人体动作识别方法 |
CN105760831A (zh) * | 2015-12-07 | 2016-07-13 | 北京航空航天大学 | 一种基于低空航拍红外视频的行人跟踪方法 |
US20160239982A1 (en) * | 2014-08-22 | 2016-08-18 | Zhejiang Shenghui Lighting Co., Ltd | High-speed automatic multi-object tracking method and system with kernelized correlation filters |
CN105956517A (zh) * | 2016-04-20 | 2016-09-21 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于密集轨迹的动作识别方法 |
CN106354816A (zh) * | 2016-08-30 | 2017-01-25 | 东软集团股份有限公司 | 一种视频图像处理方法及装置 |
-
2017
- 2017-10-20 CN CN201710985003.9A patent/CN107705324A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663714A (zh) * | 2012-03-28 | 2012-09-12 | 中国人民解放军国防科学技术大学 | 基于显著性的红外图像强固定模式噪声抑制方法 |
CN103149940A (zh) * | 2013-03-27 | 2013-06-12 | 清华大学 | 一种结合均值移动与粒子滤波的无人机目标跟踪方法 |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
CN104008371B (zh) * | 2014-05-22 | 2017-02-15 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
US20160239982A1 (en) * | 2014-08-22 | 2016-08-18 | Zhejiang Shenghui Lighting Co., Ltd | High-speed automatic multi-object tracking method and system with kernelized correlation filters |
CN104268520A (zh) * | 2014-09-22 | 2015-01-07 | 天津理工大学 | 一种基于深度运动轨迹的人体动作识别方法 |
CN105760831A (zh) * | 2015-12-07 | 2016-07-13 | 北京航空航天大学 | 一种基于低空航拍红外视频的行人跟踪方法 |
CN105956517A (zh) * | 2016-04-20 | 2016-09-21 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于密集轨迹的动作识别方法 |
CN106354816A (zh) * | 2016-08-30 | 2017-01-25 | 东软集团股份有限公司 | 一种视频图像处理方法及装置 |
Non-Patent Citations (5)
Title |
---|
HAI-YAN ZHANG ET AL: "Multiple moving objects detection and tracking based on optical flow in polar-log images", 《2010 INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND CYBERNETICS》 * |
HUIEUN KIM ET AL: "On-road object detection using deep neural network", 《2016 IEEE INTERNATIONAL CONFERENCE ON CONSUMER ELECTRONICS-ASIA (ICCE-ASIA)》 * |
LIJUN WANG ET AL: "Visual Tracking with Fully Convolutional Networks", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
尹宏鹏等: "基于视觉的目标检测与跟踪综述", 《自动化学报》 * |
李大伟: "固定翼无人机地面车辆目标自动检测与跟踪", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446634A (zh) * | 2018-03-20 | 2018-08-24 | 北京天睿空间科技股份有限公司 | 基于视频分析和定位信息结合的航空器持续跟踪方法 |
CN108520219A (zh) * | 2018-03-30 | 2018-09-11 | 台州智必安科技有限责任公司 | 一种卷积神经网络特征融合的多尺度快速人脸检测方法 |
CN110706193A (zh) * | 2018-06-21 | 2020-01-17 | 北京京东尚科信息技术有限公司 | 图像处理方法和装置 |
CN110866428B (zh) * | 2018-08-28 | 2023-12-15 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN110866428A (zh) * | 2018-08-28 | 2020-03-06 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN109255351A (zh) * | 2018-09-05 | 2019-01-22 | 华南理工大学 | 基于三维卷积神经网络的边界框回归方法、系统、设备及介质 |
CN109255351B (zh) * | 2018-09-05 | 2020-08-18 | 华南理工大学 | 基于三维卷积神经网络的边界框回归方法、系统、设备及介质 |
CN109448018A (zh) * | 2018-09-18 | 2019-03-08 | 平安科技(深圳)有限公司 | 跟踪目标的定位方法、装置、设备及存储介质 |
CN109448018B (zh) * | 2018-09-18 | 2023-08-01 | 平安科技(深圳)有限公司 | 跟踪目标的定位方法、装置、设备及存储介质 |
CN109711261A (zh) * | 2018-11-28 | 2019-05-03 | 山东师范大学 | 一种室内人员定位方法及装置、建筑智能照明系统 |
CN109583406B (zh) * | 2018-12-06 | 2022-09-27 | 中山大学 | 基于特征关注机制的人脸表情识别方法 |
CN109583406A (zh) * | 2018-12-06 | 2019-04-05 | 中山大学 | 基于特征关注机制的人脸表情识别方法 |
CN109784183A (zh) * | 2018-12-17 | 2019-05-21 | 西北工业大学 | 基于级联卷积网络和光流的视频显著性目标检测方法 |
CN109784183B (zh) * | 2018-12-17 | 2022-07-19 | 西北工业大学 | 基于级联卷积网络和光流的视频显著性目标检测方法 |
CN109711338A (zh) * | 2018-12-26 | 2019-05-03 | 上海交通大学 | 利用光流指导特征融合的物体实例分割方法 |
CN110309843B (zh) * | 2019-02-02 | 2022-12-02 | 国网浙江省电力有限公司湖州供电公司 | 一种电力设备图像中多类部件的自动识别方法 |
CN110309843A (zh) * | 2019-02-02 | 2019-10-08 | 国网浙江省电力有限公司湖州供电公司 | 一种电力设备图像中多类部件的自动识别方法 |
CN110223347A (zh) * | 2019-06-11 | 2019-09-10 | 张子頔 | 图像中目标物体的定位方法、电子设备和存储介质 |
CN110363171A (zh) * | 2019-07-22 | 2019-10-22 | 北京百度网讯科技有限公司 | 天空区域预测模型的训练方法和识别天空区域的方法 |
CN110533693A (zh) * | 2019-08-29 | 2019-12-03 | 北京精英路通科技有限公司 | 一种目标跟踪方法及目标跟踪装置 |
CN110533693B (zh) * | 2019-08-29 | 2023-02-07 | 北京精英路通科技有限公司 | 一种目标跟踪方法及目标跟踪装置 |
CN111027495A (zh) * | 2019-12-12 | 2020-04-17 | 京东数字科技控股有限公司 | 用于检测人体关键点的方法和装置 |
CN111652012A (zh) * | 2020-05-11 | 2020-09-11 | 中山大学 | 一种基于ssd网络模型的曲面qr码定位方法 |
CN114255257A (zh) * | 2020-09-10 | 2022-03-29 | 北京达佳互联信息技术有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN114255257B (zh) * | 2020-09-10 | 2024-10-25 | 北京达佳互联信息技术有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN112258552A (zh) * | 2020-09-15 | 2021-01-22 | 青岛邃智信息科技有限公司 | 一种社区监控场景下行人多目标跟踪方法 |
CN112949480A (zh) * | 2021-03-01 | 2021-06-11 | 浙江大学 | 一种基于yolov3算法的铁轨弹条检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107705324A (zh) | 一种基于机器学习的视频目标检测方法 | |
CN109711320B (zh) | 一种值班人员违规行为检测方法及系统 | |
CN105405154B (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
CN103324937B (zh) | 标注目标的方法和装置 | |
CN105785411B (zh) | 一种基于区域划分的异常轨迹检测方法 | |
CN109816689A (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN106845385A (zh) | 视频目标跟踪的方法和装置 | |
CN107943837A (zh) | 一种前景目标关键帧化的视频摘要生成方法 | |
CN110400332A (zh) | 一种目标检测跟踪方法、装置及计算机设备 | |
Chen et al. | Learning-based spatio-temporal vehicle tracking and indexing for transportation multimedia database systems | |
CN106355604A (zh) | 图像目标跟踪方法与系统 | |
CN105243356B (zh) | 一种建立行人检测模型的方法及装置及行人检测方法 | |
Mei et al. | Hdinet: Hierarchical dual-sensor interaction network for rgbt tracking | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 | |
CN103413295A (zh) | 一种视频多目标长程跟踪方法 | |
JP2022082493A (ja) | ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法 | |
CN113129336A (zh) | 一种端到端多车辆跟踪方法、系统及计算机可读介质 | |
CN109375211A (zh) | 基于雷达和多光学设备的可移动无人平台目标搜索方法 | |
CN106558069A (zh) | 一种基于视频监控下的目标跟踪方法及系统 | |
CN115861738A (zh) | 一种类别语义信息引导的遥感目标检测主动采样方法 | |
Chen et al. | Human motion target posture detection algorithm using semi-supervised learning in internet of things | |
CN117541994A (zh) | 一种密集多人场景下的异常行为检测模型及检测方法 | |
CN114861761A (zh) | 一种基于孪生网络特征与几何验证的回环检测方法 | |
CN114332163B (zh) | 一种基于语义分割的高空抛物检测方法及系统 | |
CN110503663B (zh) | 一种基于抽帧检测的随机多目标自动检测跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180216 |