CN114627339A - 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 - Google Patents
茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 Download PDFInfo
- Publication number
- CN114627339A CN114627339A CN202111317119.8A CN202111317119A CN114627339A CN 114627339 A CN114627339 A CN 114627339A CN 202111317119 A CN202111317119 A CN 202111317119A CN 114627339 A CN114627339 A CN 114627339A
- Authority
- CN
- China
- Prior art keywords
- frame
- target
- tracking
- identification
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 48
- 239000011159 matrix material Substances 0.000 claims description 24
- 239000013598 vector Substances 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 12
- 238000012706 support-vector machine Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 8
- 238000000513 principal component analysis Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 claims description 6
- 230000003595 spectral effect Effects 0.000 claims description 6
- 230000006399 behavior Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 claims description 2
- 230000009194 climbing Effects 0.000 claims description 2
- 230000009193 crawling Effects 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 230000009183 running Effects 0.000 claims description 2
- 230000004083 survival effect Effects 0.000 claims description 2
- 206010000117 Abnormal behaviour Diseases 0.000 abstract description 5
- 238000004458 analytical method Methods 0.000 abstract description 4
- 238000010801 machine learning Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000005693 optoelectronics Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种茂密丛林区域对越境人员的智能识别跟踪方法及存储介质,采用红外多光谱图像数据,利用动植物和人物之间红外多光谱特征显著不同的特点,图像数据经过降维处理并结合Single Shot MultiBox Detector神经网络模型后,能同时保证了人物识别的速度和精度。由于边境区域有正常生活的居民,本发明采用机器学习算法对人物进行多目标跟踪并进行异常行为分析,能够有效区分非法越境人员和正常生活的居民,提高了边防人员对边境区域中人物甄别的效率。
Description
技术领域
本发明属于红外多目标智能识别跟踪技术领域,涉及一种茂密丛林区域对越境人员的 智能识别跟踪方法及存储介质,具体涉及一种基于深度学习的针对边境茂密丛林区域越境 人员的红外多光谱智能识别跟踪方法及系统。
背景技术
红外多目标识别与跟踪是计算机视觉领域的热点问题,由于红外图像的特殊性,其也 广泛应用于全天候视频监控、夜间无人驾驶等领域,红外目标识别部分主要是从红外视频 图像中确定目标的类别、位置和大小,红外目标跟踪主要是基于目标的初始状态,准确预 测目标在后续视频帧中的位置和大小。随着深度学习相关技术的不断发展,巻积神经网络 也被人们广泛的应用于红外目标识别与跟踪技术领域,并在该领域取得了极大的成功。
目前主流的目标识别算法主要包括one-stage和tow-stage两类方法。其中one-stage 目标检测算法(也称one-shot object detectors),其特点是一步到位,均匀的在图片的 各个位置进行密集抽样,速度相对较快。另外一类目标检测算法是two-stage的,如Faster R-CNN算法首先生成候选框(region proposals,可能包含目标的区域),然后再 对每个候选框进行分类以及修正位置,这类算法相对较慢,因为它需要多次运行检测和分 类流程。而one-stage检测方法,仅仅需要送入网络一次就可以预测出所有的边界框,因 而速度较快,非常适合边缘计算的移动端。最典型的one-stage检测算法包括YOLO、SSD、SqueezeDet以及DetectNet等,其中SSD算法同时对浅层和深层特征进行识别,并减少了RPN层,相对于其它算法,其在算法速度和识别准确度上有更大的优势。
目前的目标跟踪算法主要分为两类:Detection Free Tracking(DFT,无检测跟踪) 和Detection Based Tracking(DBT,基于检测跟踪)。DFT算法需要人工标注第一帧图像 中的目标,之后则目标检测和跟踪同时进行,相比于DBT算法,DFT算法需要事先人工标注目标的类型和位置,并且对于不是在第一帧中出现的目标或者在后续帧中消失的目标,DFT算法将无法处理。对于DBT算法则在多目标跟踪过程中包含了一个独立的检测过程, 也就是说在跟踪之前每一幅图像中的目标都是已经检测出来的,因此这类算法的跟踪性能较大程度依赖于检测器目标识别能力的强弱,随着目标跟踪算法的发展,该类算法也成为了多目标跟踪算法的主流。
在红外多目标的识别与跟踪算法中,红外目标识别起到极其重要的作用,由于帧差法 和背景差法的局限性,当光线较差以及目标发生遮挡时,相应算法的的识别效果极大的下 降,从而极大的影响后续目标编号的确定和目标轨迹的跟踪,因此对红外目标识别算法的 识别精度提出了极高的要求,不能出现误、漏检的情况,并且在红外多目标跟踪过程中, 基于ARM架构的嵌入式终端设备对多目标跟踪算法的实时性提出了极高的要求,同时运动 目标速度较大、运动目标短时遮挡等也是目前多目标跟踪的重难点。
现有的目标检测使用方法通常为背景差法,即从静止的背景中分离出运动的目标,通 常利用背景建模方式结合帧差法,检测出前景目标,从而实现目标的检测,但是由于背景 差法的局限性,在光线较差以及目标发生遮挡时检测的效果较差,从而为后续跟踪效果带 来较大影响,并且现有检测算法无法针对检测结果中的人物进行进一步的行为分析,针对 人物的异常行为给出报警提示。
因此,研制一种针对边境茂密丛林区域越境人员的智能识别跟踪方法,将有利于边防 人员及时发现追踪非法越境人员。
发明内容
本发明要解决的技术问题在于针对边境茂密丛林区域的越境人员所具有的隐蔽性强的 特点,解决传统方法较难准确、快速地发现和跟踪越境人员问题。
本发明的总体构思是采用红外多光谱图像数据,利用动植物和人物之间红外多光谱特 征显著不同的特点,图像数据经过降维处理并结合Single Shot MultiBox Detector神经 网络模型后,能同时保证了人物识别的速度和精度。由于边境区域有正常生活的居民,本 发明采用机器学习算法对人物进行多目标跟踪并进行异常行为分析,能够有效区分非法越 境人员和正常生活的居民,提高了边防人员对边境区域中人物甄别的效率。整个算法架构 采用GPU/CPU异构并行的方式,人物识别、跟踪、行为分析等多个线程同时运行,能够满 足嵌入式系统实时性的要求。
本发明解决上述技术问题所采用的技术方案为:
一种茂密丛林区域对越境人员的智能识别跟踪方法,包括:针对多目标识别,采用基 于深度学习的目标识别算法SSD。为了提高识别准确度和识别速度,输入采用多光谱图像 并经过PCA进行特征降维,采用TensorRT对模型进行加速推理,同时将算法移植到基于ARM架构的linux系统,更便于实际嵌入式设备的推广应用。
针对多目标跟踪,采用金字塔LK光流法和卡尔曼滤波相结合的算法,依据上一帧的目 标跟踪框对当前帧的目标进行预测,通过计算匹配分数对前后两帧的目标框进行配对,根 据配对结果对当前帧的目标框进行更新,删除不满足判定条件的目标框以及添加新增的目 标框,同时在跟踪过程中利用多目标识别器的识别结果对跟踪结果进行校正。
针对行人异常检测,采用时空Haar特征提取和SVM支持向量机分类的方法,有效的对 越境人员的异常行为进行识别,支持向量机SVM是基于最大超平面间隔原则,是一个二次 优化的问题,使最终的超平面是全局最优解;SVM在解决非线性样本数据时,通过将非线性变换到高维特征空间,在此空间构建核函数实现原空间的非线性判别函数,使学习机器有较好的推广能力,同时解决了维数问题,其算法的复杂度与维数无关。
采用上述的识别跟踪方法,在整个过程中采用CPU/GPU异构并行处理策略,视频流接 收显示、多目标识别、多目标跟踪、人物异常行为识别等多个线程同时进行,从而实现多目标的实时跟踪。
该方法及系统对各种复杂场景、目标运动速度较大和目标遮挡等实现了实时的红外多 目标识别与跟踪,具有较高的识别速度、识别准确度和鲁棒性。
具体的,本发明的一种茂密丛林区域对越境人员的智能识别跟踪方法,包括以下步骤:
1)读取红外多光谱图像
2)利用主成分分析技术(PCA)对红外多光谱图像进行降维处理,保留特征值较大的前5 个光谱特征,去掉冗余的光谱特征信息。
3)调用SSD目标识别算法对经PCA降维后的光谱图像特征进行多目标识别,包括的子 步骤如下:
3.1)基于深度学习框架训练SSD目标识别算法模型,该模型可以用于识别复杂背景下 的人物。模型训练集使用的图像宽高尺寸为640x512像素,训练的迭代步数为100000步。
3.2)将目标识别的SSD代码转换为C++语言,并与训练后的模型一起移植到基于ARM 架构的linux系统,系统环境配置为:ubuntu18.04系统、opencv3.4.6、cuda10.2、cudnn8.0、TensorRT7.1。
3.3)利用TensorRT对模型进行序列化,并加速模型推理过程,序列化后的模型对输入 的红外多光谱图像进行目标识别,其中目标识别的置信度阈值为0.5,当识别框的置信度 得分大于等于置信度阈值时,则会在视频帧上显示该识别框,同时输出结果还包含了识别 框中目标的类别以及识别框的位置和大小和编号(x,y,w,h,id),其中x、y为该识别框的左上角坐标,w、h为该识别框的宽度和高度尺寸,id为该识别框的编号。
4)在第一次对红外视频进行多目标识别并得到识别结果后,对多目标跟踪器进行初始 化针对每个目标识别框建立一个跟踪器,同时使用FAST特征点检测器检测每个目标识别框 的特征点信息,并存储相应目标识别框的位置、大小、目标类型、目标编号和特征点信息, 其中目标编号为0-19的20个号码,同一帧图像中的目标编号没有重复,并且同一个目标 在前后帧中的编号保持不变。
5)在接收到新的一帧视频图像后,如果此时另外一个线程中的目标识别器没有产生新 的识别结果,包括的子步骤如下:
5.1)基于卡尔曼滤波算法的公式(1)和前一帧的目标识别框结果进行预测,得到对应 目标框在当前帧中位置和大小的预测结果。其中卡尔曼滤波算法的状态方程和观测方程分 别为:
Xk=AXk-1+Wk (1)
Zk=HXk+Vk (2)
式中A是状态转移矩阵,Wk是均值为0,协方差矩阵为Q,且服从正态分布的过程噪声, H是测量矩阵,Vk是均值为0,协方差矩阵为R,且服从正态分布的测量噪声,且Wk和Vk互不相关。考虑需要得到目标框的位置和大小信息,因此描述目标运动状态的状态向量X 和观测向量Z分别为:
X=(cx,cy,vx,vy,h,w)T (3)
Z=(cx,cy,h,w)T (4)
式(3)和(4)中的cx、cy为目标框的中心点坐标值,vx、vy为目标框的沿x和y方向移动的速度大小,h、w为目标框的高度和宽度大小。
在确定状态向量X和观测向量Z后,则状态转移矩阵A和测量矩阵H分别为:
过程噪声的协方差矩阵Q和测量噪声的协方差矩阵R分别初始化为:
5.2)利用前一帧目标的特征点信息和金字塔LK光流法计算当前帧中与前一帧目标特 征点相对应的特征点位置信息,分别计算前一帧和当前帧中不同特征点之间的距离,这样 在前后两帧图像中便得到了相同数量的距离数据,接着计算相同两个特征点在前后两帧图 像中距离的比值d当前帧/d前一帧,计算距离比值的中位数(例如在前后两帧中分别有100个特 征点,则分别得到4950个距离数据,以及4950距离比值数据,并计算这4950个距离比值 的中位数),利用中位数更新当前帧中目标框的大小和目标框左上角坐标位置。具体计算公 式如下:
hk=hk-1*median (9)
wk=wk-1*median (10)
xk=xk-1+medianx-(wk-wk-1)/2 (11)
yk=yk-1+mediany-(hk-hk-1)/2 (12)
公式(9)-(12)hk、wk、xk、yk分别表示当前帧中目标框的高度、宽度、左上角横坐标、左上角纵坐标值。median为距离比值的中位数,median_x、median_y则分别为前后两 帧中对应特征点的横坐标和纵坐标差值的中位数。
5.3)基于步骤5.2得到当前帧中目标框位置和大小的观测值,利用卡尔曼观测方程 (2),在均方误差最小的情况下,对当前的状态进行修正,从而得到目标框位置和大小的最优估计值,并保证前后两帧中同一目标的编号不变。随后对当前帧中的目标框重新进行特征点检测,增加目标框的特征点数量以便在后续帧中更好的跟踪目标,同时对跟踪框进行筛选,剔除矩形框完全位于图像之外以及特征点数量过少的目标跟踪框(特征点个数小于2个),同时删除对应目标编号,在视频图像接收显示线程中将筛选后的跟踪框结果叠加到视频图像中。
6)在接收到新的一帧视频图像后,如果此时另外一个线程中的目标识别器产生了新的 识别结果,包括的子步骤如下:
6.1)计算前一帧每个目标框和目标识别器最新结果中各个目标框之间的匹配分数,得 到匹配分数矩阵,目标框之间的匹配分数计算中采用了目标不同方向上的相对位移比例和 目标框的交并比相结合的方式,具体公式如下:
score=(1-IOU)*(|xk-xk-1|/wk-1)*(|yk-yk-1|/hk-1)*100 (13)
式(13)中IOU为两个矩形框的交并比,xk、yk、xk-1、yk-1、hk-1、wk-1分别为当前帧中目标框 左上角坐标、前一帧目标框左上角坐标、前一帧目标框的高度和宽度信息。针对匹配分数 矩阵,利用Kuhn-Munkres匈牙利算法得到前后帧中目标框的最优匹配结果矩阵。
6.2)根据6.1得到的匹配结果对跟踪框进行更新,删除不满足条件的跟踪框以及添加 新识别出来的目标框。具体步骤如下:
6.2.1)如果当前帧的目标框能与前一帧的某个目标框能匹配上,则匹配计数器增加1, 如果匹配计数器累计增加到或超过阈值3时,则确认接受该跟踪框结果,并利用卡尔曼滤 波算法对该跟踪框位置和大小进行修正,得到最优的跟踪框估计结果,并在视频图像接收 显示线程中将跟踪框结果叠加到视频图像中。
6.2.2)如果当前帧的目标框不能与前一帧的任何目标框匹配上,则非匹配计数器增 加1,如果非匹配计数器累计增加到或超过阈值3时,则该目标跟踪框进入待删除状态。
6.2.3)针对6.2.2得到的待删除的跟踪框,将其分别与前一帧的所有目标框进行计算 交并比IOU,如果IOU的值均小于等于阈值0.8,则说明该待删除的跟踪框是新识别出来的 目标框,即识别出了新的目标,随后类似步骤3对该跟踪框建立一个新的目标跟踪器以及 存储相应信息,并对该跟踪框进行编号,编号原则是在当前正在使用的最大编号基础上递 增,递增后的编号如果超过了0-19的范围,则从0开始递增,使用当前所有目标框没有正 在使用的编号,最后在视频图像显示线程中将跟踪框结果叠加到视频图像中。
6.2.4)如果待删除的跟踪框与前一帧中某个目标框交并比IOU值大于0.8,则说明该 跟踪框是真实无法与任何目标框匹配的的而确认要删除的,随后删除该目标框的相关信息 和目标编号。
7)对已跟踪的人物目标进行提取运动人体行为的时空特征点,通过时空特征点映射信 息建立描述符,描述符的构建采用维度相对较少的时空Haar特征。以每个时空特征点为中 心选取一个时空立方体,计算立方体内各点的Haar特征,每个点均采用一个7维特征向量 来表示,将所有点的特征向量进行求和则得到该点的描述向量,如式(14)所示:
D=(∑Lx,∑Ly,∑Lt,∑Lxt,∑Lyt,∑Lxy,∑Lxyt) (14)
式中:Lx、Ly、Lt、Lxt、Lyt、Lxy、Lxyt为描述人物运动时空信息的7种时空Haar特征,能较 好的表示一定范围内人物运动变化信息
随后利用训练好的SVM支持向量机对提取的特征进行分类,判断人物行为是否存在异 常,如奔跑、爬行、跳跃、攀爬等,从而为初步区分越境人员和正常居民提供依据,其中SVM核函数采用径向基函数,如式(15)所示。
式中:x和x′为需要进行高维空间映射的两个特征向量,||x-x′||2为计算x和x′特征向量 之间的欧几里得距离,σ是一个自由设定的参数。
8)在接收到新的一帧多光谱图像后,根据目标识别器线程中是否产生新的结果重复执 行步骤5)、6)、7),直至视频最后一帧图像则结束程序。
本发明的有益效果:
(1)对边境茂密丛林区域的红外多光谱图像数据进行主成分分析降维处理,利用Single Shot MultiBox Detector神经网络模型对红外多光谱图像中的人物进行智能识别, 获得比传统方法更高的准确率。
(2)结合LK光流法和卡尔曼滤波算法对边境茂密丛林区域中出现的人物进行多目标跟 踪获取人物运动轨迹,采用支持向量机算法对人物进行异常行为分析,有效区分人物是否 是越境人员或境内正常生活的居民。
(3)算法采用GPU/CPU异构并行计算方式,能够达到嵌入式系统实时应用的速度要求。
附图说明
图1:本发明的方法使用的SSD网络结构示意图。
图2:本发明的方法的整体架构示意图。
图3:本发明的方法的具体流程图。
具体实施方式
按照如图3所示的方法流程图实现本发明的智能识别跟踪方法。
将本发明的智能识别跟踪方法编制成计算机程序存储在计算机可读存储介质,该计算 机程序被处理器执行实现本发明的智能识别跟踪方法。
本实施例中,红外搜索跟踪设备或光电吊舱中,其硬件架构为Xilinx FPGA+NVIDIA TX2异构模式,包括有本发明的计算机可读存储介质。FPGA完成图像读取,并将图像传输 给TX2的GPU模块完成SSD识别算法与基于TensorRT模型的加速算法。接着完成识别结果 判定,包括:
a)未成功识别结果
将卡尔曼滤波置于FPGA内通过并行处理进行加速,在对目标位置做出预测之后,快速 通过FPGA完成金字塔图像的重构,接下来将结果传输至TX2模块利用L-K光流法标定目标 具体位置与大小。在删除冗余跟踪框后,将结果图像传输给FPGA,再次硬件平台上利用卡 尔曼滤波来对目标位置做出预测并持续跟踪。
b)成功识别结果
继续在TX2模块内利用匈牙利算法识别结果并将跟踪框与目标配对;在完成对跟踪框 的进一步迭代更新后,将结果图像传输至FPGA,在该硬件平台上利用卡尔曼滤波来对目标 位置做出预测并持续跟踪。
以上a)或b)步骤完成后,继续依赖FPGA在并行处理方面的优势,开展时空Haar特征 提取和支持向量机来判别目标是否异常,最终将异常目标剔除。
Claims (10)
1.一种茂密丛林区域对越境人员的智能识别跟踪方法,其特征在于,包括以下步骤:
步骤1,读取红外多光谱图像;
步骤2,利用主成分分析PCA对红外多光谱图像进行降维处理,保留特征值较大的前5个光谱特征,去掉冗余的光谱特征信息;
步骤3,调用SSD目标识别算法对经PCA降维后的光谱图像特征进行多目标识别,包括:
步骤3.1,基于深度学习框架训练SSD目标识别算法模型;
步骤3.2,利用TensorRT对模型进行序列化;
步骤4,在第一次对红外视频进行多目标识别并得到识别结果后,对多目标跟踪器进行初始化针对每个目标识别框建立一个跟踪器,同时使用FAST特征点检测器检测每个目标识别框的特征点信息,并存储相应目标识别框的位置、大小、目标类型、目标编号和特征点信息,同一帧图像中的目标编号没有重复,并且同一个目标在前后帧中的编号保持不变;
步骤5,在接收到新的一帧视频图像后,如果此时另外一个线程中的目标识别器没有产生新的识别结果,则执行下列子步骤:
步骤5.1,基于卡尔曼滤波算法和前一帧的目标识别框结果进行预测,得到对应目标框在当前帧中位置和大小的预测结果;
步骤5.2,利用前一帧目标的特征点信息和金字塔LK光流法计算当前帧中与前一帧目标特征点相对应的特征点位置信息,分别计算前一帧和当前帧中不同特征点之间的距离,这样在前后两帧图像中便得到了相同数量的距离数据,接着计算相同两个特征点在前后两帧图像中距离的比值d当前帧/d前一帧,计算距离比值的中位数,利用中位数更新当前帧中目标框的大小和目标框左上角坐标位置;
步骤5.3,基于步骤5.2得到当前帧中目标框位置和大小的观测值,利用卡尔曼滤波算法,在均方误差最小的情况下,对当前的状态进行修正,从而得到目标框位置和大小的最优估计值,并保证前后两帧中同一目标的编号不变;随后对当前帧中的目标框重新进行特征点检测,增加目标框的特征点数量以便在后续帧中更好的跟踪目标,同时对跟踪框进行筛选,剔除矩形框完全位于图像之外以及特征点数量过少的目标跟踪框,同时删除对应目标编号,在视频图像接收显示线程中将筛选后的跟踪框结果叠加到视频图像中;
步骤6,接收到新的一帧视频图像后,此时另外一个线程中的目标识别器产生了新的识别结果,执行下列子步骤:
步骤6.1,计算前一帧每个目标框和目标识别器最新结果中各个目标框之间的匹配分数,得到匹配分数矩阵,目标框之间的匹配分数计算中采用了目标不同方向上的相对位移比例和目标框的交并比相结合的方式,具体公式如下:
score=(1-IOU)*(|xk-xk-1|/wk-1)*(|yk-yk-1|/hk-1)*100
式中:IOU为两个矩形框的交并比,xk、yk、xk-1、yk-1、hk-1、wk-1分别为当前帧中目标框左上角坐标、前一帧目标框左上角坐标、前一帧目标框的高度和宽度信息;针对匹配分数矩阵,利用Kuhn-Munkres匈牙利算法得到前后帧中目标框的最优匹配结果矩阵;
步骤6.2,根据步骤6.1得到的匹配结果对跟踪框进行更新,删除不满足条件的跟踪框以及添加新识别出来的目标框;具体步骤如下:
步骤6.2.1,如果当前帧的目标框能与前一帧的某个目标框能匹配上,则匹配计数器增加1,如果匹配计数器累计增加到或超过阈值3时,则确认接受该跟踪框结果,并利用卡尔曼滤波算法对该跟踪框位置和大小进行修正,得到最优的跟踪框估计结果,并在视频图像接收显示线程中将跟踪框结果叠加到视频图像中;
步骤6.2.2,如果当前帧的目标框不能与前一帧的任何目标框匹配上,则非匹配计数器增加1,如果非匹配计数器累计增加到或超过阈值3时,则该目标跟踪框进入待删除状态;
步骤6.2.3,针对步骤6.2.2得到的待删除的跟踪框,将其分别与前一帧的所有目标框进行计算交并比IOU,如果IOU的值均小于等于阈值0.8,则说明该待删除的跟踪框是新识别出来的目标框,即识别出了新的目标,随后按照步骤3对该跟踪框建立一个新的目标跟踪器以及存储相应信息,并对该跟踪框进行编号,编号原则是在当前正在使用的最大编号基础上递增,递增后的编号如果超过了0-19的范围,则从0开始递增,使用当前所有目标框没有正在使用的编号,最后在视频图像显示线程中将跟踪框结果叠加到视频图像中;
步骤6.2.4,如果待删除的跟踪框与前一帧中某个目标框交并比IOU值大于0.8,则说明该跟踪框是真实无法与任何目标框匹配的的而确认要删除的,随后删除该目标框的相关信息和目标编号;
步骤7,对已跟踪的人物目标进行提取运动人体行为的时空特征点,通过时空特征点映射信息建立描述符;以每个时空特征点为中心选取一个时空立方体,计算立方体内各点的Haar特征;
随后利用训练好的SVM支持向量机对提取的特征进行分类,判断人物行为是否存在异常,如奔跑、爬行、跳跃和/或攀爬,从而为初步区分越境人员和正常居民提供依据;
步骤8,在接收到新的一帧多光谱图像后,根据目标识别器线程中是否产生新的结果重复执行步骤5、步骤6和步骤7,直至视频最后一帧图像则结束。
2.根据权利要求1所述的智能识别跟踪方法,其特征在于,所述步骤3.1中还包括:
基于深度学习框架训练SSD目标识别算法模型,该模型可以用于识别复杂背景下的人物;模型训练集使用的图像宽高尺寸为640x512像素,训练的迭代步数为100000步。
3.根据权利要求1所述的智能识别跟踪方法,其特征在于,所述步骤3.2中还包括:
利用TensorRT对模型进行序列化,并加速模型推理过程,序列化后的模型对输入的红外多光谱图像进行目标识别,其中目标识别的置信度阈值为0.5,当识别框的置信度得分大于等于置信度阈值时,则会在视频帧上显示该识别框,同时输出结果还包含了识别框中目标的类别以及识别框的位置和大小和编号(x,y,w,h,id),其中x、y为该识别框的左上角坐标,w、h为该识别框的宽度和高度尺寸,id为该识别框的编号。
4.根据权利要求1所述的智能识别跟踪方法,其特征在于,所述步骤5.1中还包括:
所述卡尔曼滤波算法的状态方程和观测方程分别为:
Xk=AXk-1+Wk (1)
Zk=HXk+Vk (2)
式中A是状态转移矩阵,Wk是均值为0,协方差矩阵为Q,且服从正态分布的过程噪声,H是测量矩阵,Vk是均值为0,协方差矩阵为R,且服从正态分布的测量噪声,且Wk和Vk互不相关;考虑需要得到目标框的位置和大小信息,因此描述目标运动状态的状态向量X和观测向量Z分别为:
X=(cx,cy,vx,vy,h,w)T (3)
Z=(cx,cy,h,w)T (4)
式(3)和(4)中的cx、cy为目标框的中心点坐标值,vx、vy为目标框的沿x和y方向移动的速度大小,h、w为目标框的高度和宽度大小;
在确定状态向量X和观测向量Z后,则状态转移矩阵A和测量矩阵H分别为:
过程噪声的协方差矩阵Q和测量噪声的协方差矩阵R分别初始化为:
5.根据权利要求1所述的智能识别跟踪方法,其特征在于,所述步骤5.1中的计算公式如下:
hk=hk-1*median (9)
wk=wk-1*median (10)
xk=xk-1+medianx-(wk-wk-1)/2 (11)
yk=yk-1+mediany-(hk-hk-1)/2 (12)
公式(9)-(12)hk、wk、xk、yk分别表示当前帧中目标框的高度、宽度、左上角横坐标、左上角纵坐标值;median为距离比值的中位数,median_x、median_y则分别为前后两帧中对应特征点的横坐标和纵坐标差值的中位数。
6.根据权利要求1所述的智能识别跟踪方法,其特征在于,所述步骤6.1中的具体公式如下:
score=(1-IOU)*(|xk-xk-1|/wk-1)*(|yk-yk-1|/hk-1)*100 (13)
式(13)中IOU为两个矩形框的交并比,xk、yk、xk-1、yk-1、hk-1、wk-1分别为当前帧中目标框左上角坐标、前一帧目标框左上角坐标、前一帧目标框的高度和宽度信息;针对匹配分数矩阵,利用Kuhn-Munkres匈牙利算法得到前后帧中目标框的最优匹配结果矩阵。
7.根据权利要求1所述的智能识别跟踪方法,其特征在于,在步骤2中,所述目标编号为0-19的20个号码。
8.根据权利要求1所述的智能识别跟踪方法,其特征在于,在步骤7中,所述描述符的构建采用时空Haar特征,每个点均采用一个7维特征向量来表示,将所有点的特征向量进行求和则得到该点的描述向量,如下式所示:
D=(∑Lx,∑Ly,∑Lt,∑Lxt,∑Lyt,∑Lxy,∑Lxyt) (14)
式中:Lx、Ly、Lt、Lxt、Lyt、Lxy、Lxyt为描述人物运动时空信息的7种时空Haar特征,能较好的表示一定范围内人物运动变化信息。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行实现如权利要求1至9任一项所述的智能识别跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111317119.8A CN114627339B (zh) | 2021-11-09 | 2021-11-09 | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111317119.8A CN114627339B (zh) | 2021-11-09 | 2021-11-09 | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114627339A true CN114627339A (zh) | 2022-06-14 |
CN114627339B CN114627339B (zh) | 2024-03-29 |
Family
ID=81896736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111317119.8A Active CN114627339B (zh) | 2021-11-09 | 2021-11-09 | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114627339B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116958876A (zh) * | 2023-07-28 | 2023-10-27 | 郑州轻工业大学 | 一种基于多光谱双目立体视觉的视频异常行为检测方法和系统 |
CN117541625A (zh) * | 2024-01-05 | 2024-02-09 | 大连理工大学 | 一种基于域适应特征融合的视频多目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399808A (zh) * | 2019-07-05 | 2019-11-01 | 桂林安维科技有限公司 | 一种基于多目标跟踪的人体行为识别方法及系统 |
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN112381856A (zh) * | 2020-10-14 | 2021-02-19 | 中国科学院西安光学精密机械研究所 | 一种适应城市复杂背景的低慢小目标跟踪装置及方法 |
CN112380997A (zh) * | 2020-11-16 | 2021-02-19 | 武汉巨合科技有限公司 | 基于深度学习的机型识别和起落架收放检测方法 |
CN112597877A (zh) * | 2020-12-21 | 2021-04-02 | 中船重工(武汉)凌久高科有限公司 | 一种基于深度学习的厂区人员异常行为检测方法 |
-
2021
- 2021-11-09 CN CN202111317119.8A patent/CN114627339B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN110399808A (zh) * | 2019-07-05 | 2019-11-01 | 桂林安维科技有限公司 | 一种基于多目标跟踪的人体行为识别方法及系统 |
CN112381856A (zh) * | 2020-10-14 | 2021-02-19 | 中国科学院西安光学精密机械研究所 | 一种适应城市复杂背景的低慢小目标跟踪装置及方法 |
CN112380997A (zh) * | 2020-11-16 | 2021-02-19 | 武汉巨合科技有限公司 | 基于深度学习的机型识别和起落架收放检测方法 |
CN112597877A (zh) * | 2020-12-21 | 2021-04-02 | 中船重工(武汉)凌久高科有限公司 | 一种基于深度学习的厂区人员异常行为检测方法 |
Non-Patent Citations (1)
Title |
---|
沈茂东;高宏;付新阳;周伟;张俊岭;公凡奎;冯志珍;: "基于改进SSD的电力检修多目标人员追踪方法", 计算机系统应用, no. 08, 15 August 2020 (2020-08-15) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116958876A (zh) * | 2023-07-28 | 2023-10-27 | 郑州轻工业大学 | 一种基于多光谱双目立体视觉的视频异常行为检测方法和系统 |
CN117541625A (zh) * | 2024-01-05 | 2024-02-09 | 大连理工大学 | 一种基于域适应特征融合的视频多目标跟踪方法 |
CN117541625B (zh) * | 2024-01-05 | 2024-03-29 | 大连理工大学 | 一种基于域适应特征融合的视频多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114627339B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tang et al. | Fruit detection and positioning technology for a Camellia oleifera C. Abel orchard based on improved YOLOv4-tiny model and binocular stereo vision | |
US20210065384A1 (en) | Target tracking method, device, system and non-transitory computer readable storage medium | |
CN108875588B (zh) | 基于深度学习的跨摄像头行人检测跟踪方法 | |
US10929649B2 (en) | Multi-pose face feature point detection method based on cascade regression | |
CN108460356B (zh) | 一种基于监控系统的人脸图像自动处理系统 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
Yu et al. | Mature pomegranate fruit detection and location combining improved F-PointNet with 3D point cloud clustering in orchard | |
CN106952293B (zh) | 一种基于非参数在线聚类的目标跟踪方法 | |
CN110728252B (zh) | 一种应用于区域人员运动轨迹监控的人脸检测方法 | |
Wang et al. | An overview of 3d object detection | |
CN114627339B (zh) | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
CN114926859B (zh) | 一种结合头部跟踪的密集场景下行人多目标跟踪方法 | |
Bansal et al. | A real-time pedestrian detection system based on structure and appearance classification | |
CN117197676A (zh) | 一种基于特征融合的目标检测识别方法 | |
Qureshi et al. | Vehicle detection and tracking using kalman filter over aerial images | |
CN111291785A (zh) | 目标检测的方法、装置、设备及存储介质 | |
Algabri et al. | Robust person following under severe indoor illumination changes for mobile robots: online color-based identification update | |
Zhang et al. | An improved target detection method based on YOLOv5 in natural orchard environments | |
Lu et al. | Hybrid deep learning based moving object detection via motion prediction | |
CN116958657A (zh) | 融合rpca及深度学习的红外弱小目标检测方法及装置 | |
CN116912763A (zh) | 一种融合步态人脸模态的多行人重识别方法 | |
CN113723833B (zh) | 造林实绩质量评价方法、系统、终端设备及存储介质 | |
Mahboob et al. | YOLO v5, v7 and v8: A Performance Comparison for Tobacco Detection in Field | |
CN114694042A (zh) | 一种基于改进Scaled-YOLOv4的伪装人员目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |