CN111862160A - 一种基于arm平台的目标跟踪方法、介质和系统 - Google Patents
一种基于arm平台的目标跟踪方法、介质和系统 Download PDFInfo
- Publication number
- CN111862160A CN111862160A CN202010728011.7A CN202010728011A CN111862160A CN 111862160 A CN111862160 A CN 111862160A CN 202010728011 A CN202010728011 A CN 202010728011A CN 111862160 A CN111862160 A CN 111862160A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- image
- features
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于ARM平台的目标跟踪方法、介质和系统,涉及图像处理领域,解决了已有可变尺度或多种特征的等方案不能满足于跟踪鲁棒性要求较高的工程的问题。本发明包括于嵌入式ARM平台,提取感兴趣区域(ROI)的深度学习特征、梯度直方图特征(HOG)、颜色命名(CN)特征和灰度特征(GRAY);组成128维特征向量进行目标跟踪,跟踪波门随跟踪目标的尺度变化自适应调整并叠加在输出视频中。本发明具有跟踪波门能够实时的跟随目标尺度变化而正相关变化,目标跟踪的准确度和置信度更高。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种基于ARM平台的目标跟踪方法、介质和系统。
背景技术
对于目标跟踪算法领域,目前共有两种方向——基于深度学习方法的目标跟踪和基于相关滤波的目标跟踪。前者在目标跟踪算法领域正在爬坡阶段,研究成果仅仅停留在少数科研技术上,在工程化平台实现上暂无有效的解决方案;后者技术发展时间更长,在工程化平台上已经有了较为成熟的解决方案,特别是在低功耗的嵌入式平台上,相比于前者,具有更优的跟踪性能,运行的硬件平台要求更低。
现有的相关滤波类目标跟踪算法虽已有可变尺度或多种特征的等方案的加入,但均是单一功能或性能的提高,远远不能满足于跟踪鲁棒性要求较高的工程项目,特别是对于嵌入式ARM等低功耗平台,如果算法没有针对平台进行算子加速,目标跟踪性能也会捉襟见肘。由此,在嵌入式工程化平台需要一种将多尺度,多特征,多跟踪策略融为一体的通用化目标跟踪算法。
发明内容
本发明所要解决的技术问题是:已有可变尺度或多种特征的等方案不能满足于跟踪鲁棒性要求较高的工程;算法没有针对平台进行算子加速,目标跟踪性能差,本发明的主要目的是提供一种基于ARM平台的多特征多策略多尺度通用目标跟踪算法解决方案,以在ARM等低功耗平台实现目标的稳定和实时跟踪,满足更多的工程项目应用,降低目标实时跟踪算法在具体工程项目中的部署难度。
本发明通过下述技术方案实现:
本发明的主要目的是提供一种基于ARM平台的多特征多策略多尺度通用目标跟踪算法解决方案,以在ARM等低功耗平台实现目标的稳定和实时跟踪,满足更多的工程项目应用,降低目标实时跟踪算法在具体工程项目中的部署难度。
所述目标跟踪算法,提取了感兴趣区域(ROI)的深度学习特征,梯度直方图特征(HOG),颜色命名(CN)特征,灰度特征(GRAY)组成128维特征向量进行跟踪,跟踪目标的自适应尺度跟踪波门叠加,在跟踪过程中具有多种策略保证目标跟踪稳定性能。
嵌入式ARM平台下,加入NEON指令集实现对ROI区域特征提取算子的加速,保证目标跟踪的实时性能。
该嵌入式多通道视频图像采集与并行处理系统工作执行如下步骤:
(1)采集视频原始数据,读入算法外部接口;
(2)在视频第一帧或指定的某帧中选取目标作为模板ROI区域;
(3)对ROI区域作一定的图像预处理;
(4)对预处理后的ROI区域图像进行特征提取,包括传统特征和深度学习特征,即提取HOG,CN,GRAY特征以及深度学习特征,生成高维特征向量;
(5)对高维特征向量进行互相关运算(若为第一帧图像,则进行自相关运算),得到响应矩阵,并得出最大响应值及其位置;
(6)对设定好的目标尺度,在每个尺度下进行步骤(5)中的计算,并选取最大响应值对应的尺度,作为该帧的跟踪尺度和跟踪目标位置;
(7)目标置信度判断,根据判断结果选取跟踪策略,并决定是否启用目标丢失预警机制;
(8)根据最大响应值位置更新ROI区域,获取新图像的特征;
(9)对新区域图像特征进行自相关运算,学习得到更新模板区域模型;
(10)获取下一帧图像,重复(3)及以后的步骤以循环处理整个视频帧图像,完成对整个视频的目标跟踪。
一种基于ARM平台的目标跟踪系统:
所述系统读入指定的本地视频文件或接入实时相机的视频流信息至算法外部接口;
所述系统基于嵌入式ARM平台,提取感兴趣区域(ROI)的深度学习特征、梯度直方图特征(HOG)、颜色命名(CN)特征和灰度特征(GRAY)并组成128维特征向量进行目标跟踪,对跟踪目标的自适应尺度跟踪波门叠加;
所述系统循环处理整个视频帧图像,用于对整个视频的目标跟踪。
系统工作流程:
1.采集视频原始数据,读入算法外部接口
主程序运行,读入指定的本地视频文件或接入实时相机的视频流信息至算法外部接口,数据被算法视频结构体所采集,形成视频原始数据。
2.在视频第一帧或指定的某帧中选取目标作为模板ROI区域
用户需要在本地视频文件的第一帧或实时相机视频流画面中选取需要跟踪的目标,该区域图像的特征将作为后续更新模板的起始模板。
3.对ROI区域作一定的图像预处理
对采集到的ROI区域进行一定的预处理,包括判断区域是否越界,边界填充,图像尺寸规整到指定尺寸等,形成可跟踪图像尺寸。
4.对预处理后的ROI区域图像进行特征提取,生成高维特征向量。
对已经过预处理的ROI图像进行特征提取,提取的特征包括深度学习特征,HOG特征,CN特征,GRAY特征,针对深度学习特征,通过预训练完成的深度神经网络判别式模型进行提取。经过特征尺寸的重组构造,最终形成128维特征向量。在提取特征的过程中,针对ARM平台的计算特性,加入了NEON指令集,提升了特征提取步骤的运算效率,保证了目标跟踪过程的实时性。
5.对特征向量进行互相关运算,得到响应矩阵
对高维特征向量进行互相关运算(在目标跟踪的第一帧初始化阶段,互相关计算为自相关计算),得到响应矩阵,并得出最大响应值及其位置;
6.跟踪目标的多尺度计算
首先在固定尺度上进行正常跟踪,找到一个响应最大的目标位置,随后在每个尺度下进行步骤(5)中的计算,通过调整跟踪框的比例,即N个尺度滤波器依次探测各个尺度的最大响应值,找到N个最大响应值中值最大的尺度,从而在小范围内实现尺度自适应,响应值中最大值的位置被认为是目标新位置的估计,作为该帧的跟踪目标位置及跟踪尺度;为了检测方便,上述尺度设置为线性关系,如果硬件平台够强,可以设置更为细致的滤波器,实现更为平滑的尺度自适应。
7.目标跟踪置信度判断及跟踪策略的选取
根据目标跟踪的历史统计数据,计算当前帧的跟踪置信度,由目标置信度判断目标跟踪过程是否正常。判断结果选取跟踪策略。在跟踪策略中加入了目标丢失预警机制,在跟踪过程中目标即将出现完全丢失的前几帧,算法将作出目标丢失预警。若出现目标短时丢失情况(短时遮挡),算法首先启用目标抗遮挡策略继续跟踪,待目标再次出现后符合一定的正常跟踪条件后,算法启用目标丢失找回策略,算法切回正常跟踪状态。若目标长时不再出现在视场中,则算法判断目标完全丢失,并切出目标跟踪状态。
8.更新ROI区域,获取新图像的特征
根据最大响应值位置更新ROI区域,在本帧图像中获取新位置区域的图像特征;
9.更新跟踪模板
对新区域图像特征进行自相关运算,学习得到更新模板,并用于下一帧图像跟踪过程。
10.获取下一帧图像,重复跟踪过程
从外部视频流中获取下一帧图像,重复(3)及以后的步骤以循环处理视频帧图像,完成对整个视频或实时相机视频流的目标跟踪。
进一步的,一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现本方法中的步骤。本方法的具体使用依赖大量计算,因此优选的通过计算机程序来实现上述计算过程,所以任何包含本方法中所保护的步骤的计算机程序及其存储介质也属于本申请的保护范围内。
本发明具有如下的优点和有益效果:
本发明相比于提取单一特征的目标跟踪算法,本方法提取了包涵深度学习特征在内的多种目标特征进行跟踪,可以保证目标跟踪过程更加稳定更加可靠;
本发明相比于单一尺度的目标跟踪算法,本方法在设计了多个尺度下的目标特征相关计算,当目标在视场内出现尺度变化时,跟踪波门能够实时的跟随目标尺度变化而正相关变化,目标跟踪的准确度和置信度更高;
本发明在跟踪过程中加入了目标丢失预警机制和多种跟踪策略,特别是针对目标短时丢失具有良好的找回策略应对,在目标永久丢失状态下,也可根据设定策略自动切出稳定跟踪状态,保证工程系统安全运行。
本发明在目标特征提取阶段,针对ARM平台加入了NEON指令集,有效的提升了特征提取的算子效率,保证了整个目标跟踪过程的实时性。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:
图1为本发明的工作流程图。
具体实施方式
在对本发明的任意实施例进行详细的描述之前,应该理解本发明的应用不局限于下面的说明或附图中所示的结构的细节。本发明可采用其它的实施例,并且可以以各种方式被实施或被执行。基于本发明中的实施例,本领域普通技术人员在没有做出创造性改进前提下所获得的所有其它实施例,均属于本发明保护的范围。
一种基于ARM平台的目标跟踪方法,如图1所示,基于嵌入式ARM平台,提取感兴趣区域(ROI)的深度学习特征、梯度直方图特征(HOG)、颜色命名(CN)特征和灰度特征(GRAY);
组成128维特征向量进行目标跟踪,跟踪波门随跟踪目标的尺度变化自适应调整并叠加在输出视频中。
进一步地,还包括在嵌入式ARM平台,加入NEON指令集实现对ROI区域特征提取算子的加速。
进一步地,包括如下步骤:
(1)采集视频原始数据,读入算法外部接口;
(2)在视频第一帧或指定的某帧中选取目标作为模板ROI区域;
(3)对ROI区域作一定的图像预处理;
(4)对预处理后的ROI区域图像进行特征提取,包括传统特征和深度学习特征,即提取HOG,CN,GRAY特征以及深度学习特征,生成高维特征向量;
(5)对高维特征向量进行互相关运算,得到响应矩阵,并得出最大响应值及最大响应值位置,若选取目标为视频第一帧图像,则对高维特征向量进行自相关运算;
(6)对预设的目标尺度,在每个尺度下进行步骤(5)中的计算,并选取最大响应值对应的尺度,得到帧的跟踪尺度和跟踪目标位置;
(7)目标置信度判断,根据判断结果选取跟踪策略,并决定是否启用目标丢失预警机制;
(8)根据最大响应值位置更新ROI区域,获取新图像的特征;
(9)对新区域图像特征进行自相关运算,学习得到更新模板区域模型;
(10)获取下一帧图像,重复(3)及以后的步骤以循环处理整个视频帧图像,完成对整个视频的目标跟踪。
一种基于ARM平台的目标跟踪系统:
所述系统读入指定的本地视频文件或接入实时相机的视频流信息至算法外部接口;
所述系统基于嵌入式ARM平台,提取感兴趣区域(ROI)的深度学习特征、梯度直方图特征(HOG)、颜色命名(CN)特征和灰度特征(GRAY)并组成128维特征向量进行目标跟踪,跟踪波门随跟踪目标的尺度变化自适应调整并叠加在输出视频中;
所述系统循环处理整个视频帧图像,用于对整个视频的目标跟踪。
所述系统的工作流程如下:
1)采集视频原始数据,读入算法外部接口:
主程序运行,读入指定的本地视频文件或接入实时相机的视频流信息至算法外部接口,数据被算法视频结构体所采集,形成视频原始数据;
2)在视频第一帧或指定的某帧中选取目标作为模板ROI区域:
用户需要在本地视频文件的第一帧或实时相机视频流画面中选取需要跟踪的目标,该区域图像的特征将作为后续更新模板的起始模板;
3)对ROI区域作一定的图像预处理:
对采集到的ROI区域进行一定的预处理,包括判断区域是否越界,边界填充,图像尺寸规整到指定尺寸,形成可跟踪图像尺寸;
4)对预处理后的ROI区域图像进行特征提取,生成高维特征向量:
对已经过预处理的ROI图像进行特征提取,提取的特征包括深度学习特征,HOG特征,CN特征,GRAY特征,针对深度学习特征,通过预训练完成的深度神经网络判别式模型进行提取;经过特征尺寸的重组构造,最终形成128维特征向量;在提取特征的过程中,针对ARM平台的计算特性,加入了NEON指令集;
5)对特征向量进行互相关运算,得到响应矩阵:
对高维特征向量进行互相关运算,得到响应矩阵,并得出最大响应值及其位置,若在目标跟踪的第一帧初始化阶段,互相关计算为自相关计算;
6)跟踪目标的多尺度计算:
首先在固定尺度上进行正常跟踪,找到一个响应最大的目标位置,随后在每个尺度下进行步骤5)中的计算,通过调整跟踪框的比例,即N个尺度滤波器依次探测各个尺度的最大响应值,找到N个最大响应值中值最大的尺度,尺度设置为线性关系;
7)目标跟踪置信度判断及跟踪策略的选取:
根据目标跟踪的历史统计数据,计算当前帧的跟踪置信度,由目标置信度判断目标跟踪过程是否正常;判断结果选取跟踪策略;
在跟踪策略中加入了目标丢失预警机制,在跟踪过程中目标即将出现完全丢失的前几帧,算法将做出目标丢失预警;若出现目标短时丢失情况(短时遮挡),算法首先启用目标抗遮挡策略继续跟踪,待目标再次出现后符合一定的正常跟踪条件后,算法启用目标丢失找回策略,算法切回正常跟踪状态;若目标长时不再出现在视场中,则算法判断目标完全丢失,并切出目标跟踪状态。
8)更新ROI区域,获取新图像的特征:
根据最大响应值位置更新ROI区域,在本帧图像中获取新位置区域的图像特征;
9)更新跟踪模板
对新区域图像特征进行自相关运算,学习得到更新模板,并用于下一帧图像跟踪过程;
10)获取下一帧图像,重复跟踪过程
从外部视频流中获取下一帧图像,重复3)及以后的步骤以循环处理视频帧图像,完成对整个视频或实时相机视频流的目标跟踪。
进一步的,一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现本方法中的步骤。本方法的具体使用依赖大量计算,因此优选的通过计算机程序来实现上述计算过程,所以任何包含本方法中所保护的步骤的计算机程序及其存储介质也属于本申请的保护范围内。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于ARM平台的目标跟踪方法,其特征在于,基于嵌入式ARM平台,提取感兴趣区域(ROI)的深度学习特征、梯度直方图特征(HOG)、颜色命名(CN)特征和灰度特征(GRAY);
组成128维特征向量进行目标跟踪,对跟踪目标的自适应尺度跟踪波门叠加。
2.根据权利要求1所述的一种基于ARM平台的目标跟踪方法,其特征在于,还包括在嵌入式ARM平台,加入NEON指令集实现对ROI区域特征提取算子的加速。
3.根据权利要求2所述的一种基于ARM平台的目标跟踪方法,其特征在于,包括如下步骤:
(1)采集视频原始数据,读入算法外部接口;
(2)在视频第一帧或指定的某帧中选取目标作为模板ROI区域;
(3)对ROI区域作一定的图像预处理;
(4)对预处理后的ROI区域图像进行特征提取,包括传统特征和深度学习特征,即提取HOG,CN,GRAY特征以及深度学习特征,生成高维特征向量;
(5)对高维特征向量进行互相关运算,得到响应矩阵,并得出最大响应值及最大响应值位置,若选取目标为视频第一帧图像,则对高维特征向量进行自相关运算;
(6)对预设的目标尺度,在每个尺度下进行步骤(5)中的计算,并选取最大响应值对应的尺度,得到帧的跟踪尺度和跟踪目标位置;
(7)目标置信度判断,根据判断结果选取跟踪策略,并决定是否启用目标丢失预警机制;
(8)根据最大响应值位置更新ROI区域,获取新图像的特征;
(9)对新区域图像特征进行自相关运算,学习得到更新模板区域模型;
(10)获取下一帧图像,重复(3)及以后的步骤以循环处理整个视频帧图像,完成对整个视频的目标跟踪。
4.一种基于ARM平台的目标跟踪系统,其特征在于:
所述系统读入指定的本地视频文件或接入实时相机的视频流信息至算法外部接口;
所述系统基于嵌入式ARM平台,提取感兴趣区域(ROI)的深度学习特征、梯度直方图特征(HOG)、颜色命名(CN)特征和灰度特征(GRAY)并组成128维特征向量进行目标跟踪,跟踪波门随跟踪目标的尺度变化自适应调整并叠加在输出视频中;
所述系统循环处理整个视频帧图像,用于对整个视频的目标跟踪。
5.根据权利要求4所述的一种基于ARM平台的目标跟踪系统,其特征在于,所述系统的工作流程如下:
1)采集视频原始数据,读入算法外部接口:
主程序运行,读入指定的本地视频文件或接入实时相机的视频流信息至算法外部接口,数据被算法视频结构体所采集,形成视频原始数据;
2)在视频第一帧或指定的某帧中选取目标作为模板ROI区域:
用户需要在本地视频文件的第一帧或实时相机视频流画面中选取需要跟踪的目标,该区域图像的特征将作为后续更新模板的起始模板;
3)对ROI区域作一定的图像预处理:
对采集到的ROI区域进行一定的预处理,包括判断区域是否越界,边界填充,图像尺寸规整到指定尺寸,形成可跟踪图像尺寸;
4)对预处理后的ROI区域图像进行特征提取,生成高维特征向量:
对已经过预处理的ROI图像进行特征提取,提取的特征包括深度学习特征,HOG特征,CN特征,GRAY特征,针对深度学习特征,通过预训练完成的深度神经网络判别式模型进行提取;经过特征尺寸的重组构造,最终形成128维特征向量;在提取特征的过程中,针对ARM平台的计算特性,加入了NEON指令集;
5)对特征向量进行互相关运算,得到响应矩阵:
对高维特征向量进行互相关运算,得到响应矩阵,并得出最大响应值及其位置,若在目标跟踪的第一帧初始化阶段,互相关计算为自相关计算;
6)跟踪目标的多尺度计算:
首先在固定尺度上进行正常跟踪,找到一个响应最大的目标位置,随后在每个尺度下进行步骤5)中的计算,通过调整跟踪框的比例,即N个尺度滤波器依次探测各个尺度的最大响应值,找到N个最大响应值中值最大的尺度,尺度设置为线性关系;
7)目标跟踪置信度判断及跟踪策略的选取:
根据目标跟踪的历史统计数据,计算当前帧的跟踪置信度,由目标置信度判断目标跟踪过程是否正常;判断结果选取跟踪策略;
8)更新ROI区域,获取新图像的特征:
根据最大响应值位置更新ROI区域,在本帧图像中获取新位置区域的图像特征;
9)更新跟踪模板
对新区域图像特征进行自相关运算,学习得到更新模板,并用于下一帧图像跟踪过程;
10)获取下一帧图像,重复跟踪过程
从外部视频流中获取下一帧图像,重复3)及以后的步骤以循环处理视频帧图像,完成对整个视频或实时相机视频流的目标跟踪。
6.根据权利要求5所述的一种基于ARM平台的目标跟踪系统,其特征在于,所述7)中还包括:在跟踪策略中加入了目标丢失预警机制,在跟踪过程中目标即将出现完全丢失的前几帧,算法将做出目标丢失预警;若出现目标短时丢失情况(短时遮挡),算法首先启用目标抗遮挡策略继续跟踪,待目标再次出现后符合一定的正常跟踪条件后,算法启用目标丢失找回策略,算法切回正常跟踪状态;若目标长时不再出现在视场中,则算法判断目标完全丢失,并切出目标跟踪状态。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3中任一所述所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010728011.7A CN111862160B (zh) | 2020-07-23 | 2020-07-23 | 一种基于arm平台的目标跟踪方法、介质和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010728011.7A CN111862160B (zh) | 2020-07-23 | 2020-07-23 | 一种基于arm平台的目标跟踪方法、介质和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111862160A true CN111862160A (zh) | 2020-10-30 |
CN111862160B CN111862160B (zh) | 2023-10-13 |
Family
ID=72950229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010728011.7A Active CN111862160B (zh) | 2020-07-23 | 2020-07-23 | 一种基于arm平台的目标跟踪方法、介质和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111862160B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561958A (zh) * | 2020-12-04 | 2021-03-26 | 武汉华中天经通视科技有限公司 | 一种相关滤波图像跟踪丢失判定方法 |
CN113436121A (zh) * | 2021-06-28 | 2021-09-24 | 西安电子科技大学 | 基于arm-neon扩展指令集的图像直方图统计方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106991689A (zh) * | 2017-04-05 | 2017-07-28 | 西安电子科技大学 | 基于fhog和颜色特征的目标跟踪方法及gpu加速 |
WO2018121286A1 (zh) * | 2016-12-30 | 2018-07-05 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN108596951A (zh) * | 2018-03-30 | 2018-09-28 | 西安电子科技大学 | 一种融合特征的目标跟踪方法 |
CN108664935A (zh) * | 2018-05-14 | 2018-10-16 | 中山大学新华学院 | 基于cuda的深度时空信息融合的目标跟踪方法及系统 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN108961312A (zh) * | 2018-04-03 | 2018-12-07 | 奥瞳系统科技有限公司 | 用于嵌入式视觉系统的高性能视觉对象跟踪方法及系统 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
CN110211153A (zh) * | 2019-05-28 | 2019-09-06 | 浙江大华技术股份有限公司 | 目标跟踪方法、目标跟踪装置以及计算机存储介质 |
CN110348492A (zh) * | 2019-06-24 | 2019-10-18 | 昆明理工大学 | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 |
CN110796676A (zh) * | 2019-10-10 | 2020-02-14 | 太原理工大学 | 高置信度更新策略结合svm再检测技术的目标跟踪方法 |
CN111091582A (zh) * | 2019-12-31 | 2020-05-01 | 北京理工大学重庆创新中心 | 一种基于深度神经网络的单视觉目标跟踪算法及系统 |
-
2020
- 2020-07-23 CN CN202010728011.7A patent/CN111862160B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018121286A1 (zh) * | 2016-12-30 | 2018-07-05 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN106991689A (zh) * | 2017-04-05 | 2017-07-28 | 西安电子科技大学 | 基于fhog和颜色特征的目标跟踪方法及gpu加速 |
CN108596951A (zh) * | 2018-03-30 | 2018-09-28 | 西安电子科技大学 | 一种融合特征的目标跟踪方法 |
CN108961312A (zh) * | 2018-04-03 | 2018-12-07 | 奥瞳系统科技有限公司 | 用于嵌入式视觉系统的高性能视觉对象跟踪方法及系统 |
CN108664935A (zh) * | 2018-05-14 | 2018-10-16 | 中山大学新华学院 | 基于cuda的深度时空信息融合的目标跟踪方法及系统 |
CN108846358A (zh) * | 2018-06-13 | 2018-11-20 | 浙江工业大学 | 一种基于孪生网络进行特征融合的目标跟踪方法 |
CN109584271A (zh) * | 2018-11-15 | 2019-04-05 | 西北工业大学 | 基于高置信度更新策略的高速相关滤波跟踪方法 |
CN110211153A (zh) * | 2019-05-28 | 2019-09-06 | 浙江大华技术股份有限公司 | 目标跟踪方法、目标跟踪装置以及计算机存储介质 |
CN110348492A (zh) * | 2019-06-24 | 2019-10-18 | 昆明理工大学 | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 |
CN110796676A (zh) * | 2019-10-10 | 2020-02-14 | 太原理工大学 | 高置信度更新策略结合svm再检测技术的目标跟踪方法 |
CN111091582A (zh) * | 2019-12-31 | 2020-05-01 | 北京理工大学重庆创新中心 | 一种基于深度神经网络的单视觉目标跟踪算法及系统 |
Non-Patent Citations (4)
Title |
---|
DAVID S. BOLME等: "Visual object tracking using adaptive correlation filters", 《2010 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
YANG LI 等: "A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration", 《 COMPUTER VISION - ECCV 2014 WORKSHOPS》 * |
李星星: "基于相关滤波的目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
谢勤岚;陈红;: "基于多CPU的目标识别与跟踪系统设计", 计算机测量与控制 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561958A (zh) * | 2020-12-04 | 2021-03-26 | 武汉华中天经通视科技有限公司 | 一种相关滤波图像跟踪丢失判定方法 |
CN113436121A (zh) * | 2021-06-28 | 2021-09-24 | 西安电子科技大学 | 基于arm-neon扩展指令集的图像直方图统计方法 |
CN113436121B (zh) * | 2021-06-28 | 2022-12-02 | 西安电子科技大学 | 基于arm-neon扩展指令集的图像直方图统计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111862160B (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11908244B2 (en) | Human posture detection utilizing posture reference maps | |
CN109472198B (zh) | 一种姿态鲁棒的视频笑脸识别方法 | |
CN112418216B (zh) | 一种复杂自然场景图像中的文字检测方法 | |
CN109685037B (zh) | 一种实时动作识别方法、装置及电子设备 | |
CN107122788A (zh) | 一种基于心电信号的身份识别方法及装置 | |
CN113239907B (zh) | 一种人脸识别的检测方法、装置、电子设备及存储介质 | |
CN107610177B (zh) | 一种同步定位与地图构建中确定特征点的方法和设备 | |
CN108875586B (zh) | 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN111862160A (zh) | 一种基于arm平台的目标跟踪方法、介质和系统 | |
CN113763424B (zh) | 基于嵌入式平台的实时智能目标检测方法及系统 | |
CN113298047B (zh) | 基于时空关联图像的3d形态和姿态估计方法和装置 | |
CN116665095B (zh) | 一种运动舰船检测方法、系统、存储介质和电子设备 | |
Yu et al. | Improvement of face recognition algorithm based on neural network | |
CN111640138A (zh) | 一种目标跟踪方法、装置、设备及存储介质 | |
CN111340758A (zh) | 一种基于深度神经网络的高效虹膜图像质量评价新方法 | |
CN111507184B (zh) | 基于并联空洞卷积和身体结构约束的人体姿态检测方法 | |
CN111126515A (zh) | 基于人工智能的模型训练方法和相关装置 | |
CN110633631A (zh) | 一种基于部件幂集和多尺度特征的行人重识别方法 | |
CN116631068B (zh) | 一种基于深度学习特征融合的掌静脉活体检测方法 | |
CN112801009A (zh) | 基于双流网络的面部情感识别方法、装置、介质及设备 | |
CN104616323A (zh) | 一种基于慢特征分析的时空显著性检测方法 | |
CN111428609A (zh) | 一种基于深度学习的人体姿态识别方法及系统 | |
CN108108648A (zh) | 一种新型的手势识别系统装置及方法 | |
CN112053384B (zh) | 基于边界框回归模型的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230907 Address after: 621000 Mianyang province Sichuan City Youxian District Road No. 7 two immortals Applicant after: China Ordnance Equipment Group Automation Research Institute Co.,Ltd. Address before: 621000 Mianyang province Sichuan City Youxian District Road No. 7 two immortals Applicant before: China Ordnance Equipment Group Automation Research Institute Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |