CN110363140B - 一种基于红外图像的人体动作实时识别方法 - Google Patents
一种基于红外图像的人体动作实时识别方法 Download PDFInfo
- Publication number
- CN110363140B CN110363140B CN201910635697.2A CN201910635697A CN110363140B CN 110363140 B CN110363140 B CN 110363140B CN 201910635697 A CN201910635697 A CN 201910635697A CN 110363140 B CN110363140 B CN 110363140B
- Authority
- CN
- China
- Prior art keywords
- image
- infrared
- human body
- network
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种基于红外图像的人体动作实时识别方法,涉及人体动作识别技术领域,包括以下步骤:构建红外图像人体姿态提取网络与基于骨骼特征的动作识别网络;获取红外行人图像数据集并对其进行预处理,基于预处理后的红外行人图像数据集训练红外图像人体姿态提取网络,得到人体动态骨骼特征图像;分割人体动态骨骼特征图像的感兴趣区域序列,利用分割结果训练动作识别网络;获取待识别红外图像,基于红外图像人体姿态提取网络和动作识别网络对预处理后的待识别红外图像进行动作的分类与预测。本发明解决了现有的行为识别方法普遍针对可见光环境,在夜间无光或天气恶劣环境下通过红外图像进行人体行为动作识别存在实时性差、识别率低的问题。
Description
技术领域
本发明涉及人体动作识别技术领域,具体涉及一种基于红外图像的人体动作实时识别方法。
背景技术
红外热成像系统成像原理为红外光谱辐射成像,不依赖光源,受天气影响小,探测距离远,在夜间全黑环境下进行目标识别与探测、搜救、军事、行车辅助等领域具有很强应用价值。随着机器视觉与人工智能的快速发展,其运用于红外热成像图像中图像复原、目标跟踪、目标检测与识别、语义分割等方向已取得一定突破。而在夜间无光环境下或/和气候恶劣条件下使用红外热成像对人体行为、动作进行智能化识别与分析的研究还较少,现有的大量行为识别、动作识别技术均基于可见光环境,对于全黑无光及雨雾天气等环境下的动作识别方法缺乏研究与实践。
在可见光环境下,具有代表性的行为动作识别方法主要包括ChristophFeichtenhofer等人提出的卷积双光流网络融合视频动作识别方法,Ali Diba等人提出的深时线性编码网络,视频动作识别的时空残差网络等方法,上述方法基本思想均是使用多帧视频信息作为训练输入,使用深度卷积网络提取动作信息,在可见光人体行为公开数据集上取得了良好的识别分类效果。
而对于红外热成像视频图像,具有以下特点:(1)图像分辨率较低,目前普遍主流为384×288分辨率;(2)红外图像中目标边缘特征相对可见光图像细节模糊;(3)缺乏色彩特征,红外图像为单通道图像,输出类似于灰度图。因此,提取多帧红外图像信息难度较高,会造成特征难以捕获,连续性差,上述行为动作识别方法对于红外图像的运用效果并不理想。
Sijie Yan等人提出了一种基于动态骨骼的动作识别方法ST-GCN(时空图卷积网络模型),该方法提出动态人类骨骼通常能与其他模态相辅相成,传达重要信息,构造一个时空图。ST-GCN的输入是图节点的联合坐标向量,其中,人体关节对应图的节点,身体结构的连通性和时间上的连通性对应图的两类边,ST-GCN可被认为是一个基于图像的CNN模拟,输入由2D图像网格上的像素强度矢量形成。对输入数据应用多层的时空图卷积操作,可以生成更高级别的特征图,再通过标准的SoftMax分类器将其分类到相应的动作类别。整个模型用反向传播进行端对端方式的训练,方法的基本思想为使用姿态提取框架提取视频中人体动态骨骼特征输入后端卷积神经网络进行识别与分类,对于红外图像中人体动作识别具有很强的指导意义,但该方法依然建立于可见光环境下,提取多帧视频特征进行行为预测,且模型构架较为复杂,实时性有待提高。直接使用该方法进行红外图像中人体动作识别效果仍然存在不足。现有基于可见光环境的行为动作识别方法均不满足于实时红外图像人体动作识别需求,因此,设计一种实时的红外热成像人体动作识别方法意义重大。
发明内容
本发明的目的在于:为解决现有的通过红外图像进行人体行为动作识别方法识别出动作实时性差、识别率低的问题,提供了一种基于红外图像的人体动作实时识别方法。
本发明采用的技术方案如下:
一种基于红外图像的人体动作实时识别方法,包括以下步骤:
构建红外图像人体姿态提取网络与基于骨骼特征的动作识别网络SaNet;
获取红外行人图像数据集并对其进行预处理,基于预处理后的红外行人图像数据集训练红外图像人体姿态提取网络,得到人体动态骨骼特征图像;
分割提取出的人体动态骨骼特征图像的感兴趣区域序列,得到红外人体动态骨骼特征数据集,基于红外人体动态骨骼特征数据集训练动作识别网络SaNet;
获取待识别红外图像并对其进行预处理,基于红外图像人体姿态提取网络和动作识别网络SaNet对预处理后的待识别红外图像进行动作的分类与预测。
进一步地,红外图像人体姿态提取网络结构由基础网络MS-ResNet与CenterNet构架的检测网络构成。
进一步地,MS-ResNet的获取方式为:在ResNet101网络结构基础上,抽取卷积层3、卷积层4、卷积层5的特征图在三个尺度上的特征输出并融合,形成多尺度金字塔特征提取结构,再将首个卷积层内卷积核换为单通道卷积核,得到多尺度ResNet网络,即基础网络MS-ResNet。
进一步地,红外图像人体姿态提取网络训练过程的损失函数定义如下:
L=Ldet+Loff
上式中,Ldet表示中心点的散焦损失,用于训练检测目标边缘与中心点;Loff表示中心关键点偏移损失,用于预测偏移值。
进一步地,基于骨骼特征的动作识别网络SaNet由2个卷积层、2个最大池化层、2个全连接层、1个ReLU激活函数、1个平滑层和Softmax分类函数构成,用以识别包括行走、骑车、跑步、跳跃、攀爬、下蹲在内的6种动作。
进一步地,采用背景抑制方法对红外行人图像数据集和待识别红外图像进行预处理,对红外行人图像进行预处理的具体方法如下:
步骤A1:采用多尺度的图像细节提升方法提升红外行人图像中人体细节与背景的对比度,得到细节增强图像;细节增强图像的获取方式如下:
D=(1-0.5×sgn(D1))×D1+0.5×D2+0.25×D3
上式中,D表示处理后的细节增强图像,sgn()表示符号函数,D1、D2、D3分别表示三个尺度上的细节增强处理,D1、D2、D3的计算方法分别为:
D1=I-B1、D2=I-B2、D3=I-B3
其中,I表示原始图像,中间参数B1、B2、B3的计算方法分别为:
B1=G1*I、B2=G2*I、B3=G3*I
其中,G1、G2、G3分别表示方差为1、2、4的高斯核;
步骤A2:使用双边滤波抑制细节增强图像中对比度低的细节部分,得到滤波图像;滤波图像的获取方式如下:
上式中,p表示图像当前像素点,q表示图像空间邻域像素点,Ip表示处理后得到的滤波图像,“‖‖”表示求取两个值之间的欧式距离,Iq表示输入的细节增强图像;G表示高斯核,对于两个参数取值,δs表示原始图像斜对角线长度的2%的数值,δr表示原始图像梯度值的中值或者平均数;Wp表示权重,其计算方法如下:
上式中,S表示图像空间域(spatial domain)。
进一步地,得到人体动态骨骼特征图像的具体方法如下:
步骤B1:采用CVC-09红外数据集中包含行人的6500幅红外图像作为训练集A,以及实际通过红外热成像采集设备采集的红外视频中截取的包含行人的1500幅红外图像作为验证集,训练集A与验证集数量比例为5:1;
步骤B2:将红外行人图像数据集中的图像样本全部转换为512×512像素的图像并进行图像预处理,利用预处理后的训练集A训练红外图像人体姿态提取网络,选取精度最高的网络模型A,并基于该模型提取出人体动态骨骼特征图像。
进一步地,训练动作识别网络SaNet的具体操作如下:
步骤C1:剪裁提取出的每个人体动态骨骼特征图像的感兴趣区域,形成人体动态骨骼ROI图像序列,依次输入动作识别网络SaNet;
步骤C2:使用Labelimg工具对所有提取的人体动态骨骼ROI图像序列进行动作标注,区分需要识别的6类动作,得到红外人体动态骨骼特征数据集,并将红外人体动态骨骼特征数据集按5:1的比例划分成训练集B和测试集;
步骤C3:将红外人体动态骨骼特征数据集中所有图像样本转换为单通道28×28像素的图像,利用训练集B训练动作识别网络SaNet,选取精度最高的网络模型B,并基于该模型识别分类6种动作。
进一步地,识别待识别红外图像的具体方法如下:
步骤D1:获取待识别红外图像,先将该图像调整为512×512像素,再对调整大小后的待识别红外图像进行预处理,得到预处理图像;
步骤D2:利用红外图像人体姿态提取网络提取预处理图像的动态骨骼特征,得到待识别人体动态骨骼特征图;
步骤D3:截取待识别人体动态骨骼特征图的感兴趣区域,作为动作识别网络SaNet的输入序列,并将待识别人体动态骨骼特征图调整为28×28像素,利用动作识别网络SaNet对大小经调整后的待识别人体动态骨骼特征图进行动作的分类与预测。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明中,提出了一种针对红外热成像图像的人体姿态提取网络,该网络提出了一种有利于提取不同距离人体骨骼特征的多尺度ResNet网络,针对于红外图像单通道数据的特点,在主干网络首个卷积层采用单通道卷积核以降低运算量,提高实时性。并且,检测部分使用了基于CenterNet架构的高效实时性姿态提取检测方法,从而提高了在红外图像人体姿态提取环节上的提取准确度和提取实时性。
2、本发明中,对于提取出的红外图像中人体动态骨骼特征,将感兴趣区域剪裁为图像序列,在动作识别环节,考虑到骨骼特征相对动作的显著性,红外图像中存在的特征提取不连续性,使用了单帧图像动作识别方式并提出了一种基于精简型、轻量化动态骨骼图像对应动作识别的卷积神经网络SaNet,在准确识别骨骼特征对应的动作同时,减少运算量,提高了实时性。
3、本发明中,通过红外图像背景抑制的预处理方法突出了红外热成像图像中热源目标的显著性,抑制了背景噪声,提高了后续姿态检测、动作识别的精度。
4、本发明中,采集行人图像数据采用红外热成像仪,因此可以应用于夜间无光,存在雨雾等天气影响环境等可见光摄像头和普通数码夜视仪无法应对的探测环境,可在百米左右采集清晰的行人红外光谱成像,进行后期人体行为识别。
5、本发明中,运用深度学习技术提取红外图像中人体姿态骨架,通过卷积神经网络对骨架特征进行识别分类,高效实时完成红外热成像中人体动作的识别,对无光、天气较为恶劣环境下的搜救、安防、反恐等领域具备重大应用价值。本方法解决了现有的行为识别方法普遍针对可见光环境,在夜间无光或天气恶劣环境下通过红外图像进行人体行为动作识别存在实时性差、识别率低的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明的整体流程图;
图2为本发明的多尺度ResNet网络主体结构图;
图3为本发明的检测网络CenterNet结构图;
图4为本发明的SaNet网络构架图;
图5为本发明在全黑环境下使用红外热成像仪采集的红外行人图像;
图6为本发明实施例一的部分流程示意图;
图7为本发明实施例一实时红外热成像人体动作识别测试结果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,术语“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
下面结合实施例对本发明的特征和性能作进一步的详细描述。
实施例一
本发明的较佳实施例,提供了一种基于红外图像的人体动作实时识别方法,如图1所示,包括以下步骤:
步骤1:构建红外图像人体姿态提取网络与基于骨骼特征的动作识别网络。
红外图像人体姿态提取网络结构由基础网络MS-ResNet与CenterNet构架的检测网络构成。其中:
(1)多尺度ResNet网络—MS-ResNet
多尺度ResNet网络通过检测提取滤波图像(通过对图像预处理可得)中人体的动态骨骼特征,为后续的动作识别提供输入。目前,针对人体姿态提取的框架中,具有代表性的有OpenPose、DensePose、AlphaPose,上述框架均在可见光数据集上取得了良好的检测效果,而针对红外图像中人体动态骨骼提取的准确性与实时性方面,均不能满足需求。
为提高多个距离上红外图像中人体的检测与骨骼提取准确率,考虑实时性与检测准确性的均衡,本发明在ResNet101网络结构基础上,抽取卷积层3、卷积层4、卷积层5的特征图在三个尺度上的特征输出并融合,形成多尺度金字塔特征提取结构,以供后续检测部分进行多尺度分类预测,提高各个距离及尺度上检测红外人体和骨骼提取的精度。针对红外图像单通道16bit的图像格式,再将首个卷积层内卷积核换为单通道卷积核,从而减少首个卷积层2/3的运算量,并提高实时性,得到多尺度ResNet网络(MultScale-ResNet,简称MS-ResNet),如图2所示。
(2)多尺度ResNet网络提取多尺度特征后,在三个尺度上输入检测部分进行动态骨骼数据的检测提取。检测部分为进一步提高检测准确性与实时性,每一个预测尺度上均使用CenterNet结构。
检测网络CenterNet结构由2个卷积归一化残差融合层(Conv-BN-ReLU)、1个左池化层(Left Pooling)、1个右池化层(Right Pooling)、1个顶层池化层(Top Pooling)、1个底层池化层(Bottom Pooling)组成,作用在于预测中心关键点的分支,有利于中心获得更多目标物的中心区域,进而更易感知proposal的中心区域。通过取中心位置横向与纵向响应值的和的最大值实现快速准确地提取红外图像中人体姿态关节点热力图,形成人体动态骨骼图像。检测部分的网络结构如图3所示。
CenterNet与基于锚点的one-stage方法相近,中心点可看成形状未知的锚点,但其分配的锚点仅仅是放在位置上,没有尺寸框,没有手动设置的阈值做前后景分类。每个目标仅仅有一个正的锚点,因此不会用到NMS,提取关键点特征图上局部峰值点。CenterNet相比较传统目标检测(缩放16倍尺度)而言,使用更大分辨率的输出特征图(缩放了4倍),因此无需用到多重特征图锚点。使用CenterNet结构提取图像中多个人体的k个2D关节点位置,令中心点的姿态是kx2维的,然后将每个关键点(关节点对应的点)参数化为相对于中心点的偏移。只用对检测到的目标框中的关节点进行关联。综上,该结构能够在提升姿态检测准确率的同时,极大提高检测实时性。
红外图像人体姿态提取网络训练过程的损失函数定义如下:
L=Ldet+Loff
上式中,Ldet表示中心点的散焦损失,用于训练检测目标边缘与中心点;Loff表示中心关键点偏移损失,用于预测偏移值。
(3)基于骨骼特征的动作识别网络SaNet
本发明提出了一种动态骨骼到动作的精简型卷积神经网络(Skeleton-actionNet,简称SaNet),用以识别包括行走、骑车、跑步、跳跃、攀爬、下蹲在内的6种动作。SaNet网络构架如图4所示,由2个卷积层、2个最大池化层、2个全连接层、1个ReLU激活函数、1个平滑层和Softmax分类函数构成,网络结构精简,运算量小,可以准确识别骨骼特征对应的动作,满足识别精度与实时性要求。
步骤2:获取红外行人图像数据集,基于红外行人图像数据集训练红外图像人体姿态提取网络,得到人体动态骨骼特征图像。
步骤B1:本发明的红外行人图像数据集采用CVC-09红外数据集中包含行人的6500幅红外图像作为训练集A,以及通过红外热成像仪采集的红外视频中截取的包含行人的1500幅红外图像作为验证集,红外行人图像数据集总数为8000幅,训练集A与验证集数量比例为5:1。
步骤B2:将红外行人图像数据集中的图像样本全部转换为512×512像素的图像并进行图像预处理,利用预处理后的训练集A训练红外图像人体姿态提取网络。红外图像人体姿态提取网络训练过程中,利用验证集验证工作,以评价模型预测性能。训练红外图像人体姿态提取网络时,以100幅图像为一个批次进行小批量训练,每训练一批图像,权值更新一次。权值的衰减速率设为0.0005,动量设置为0.9,初始学习率设为0.001,对红外图像人体姿态提取网络进行20000次迭代,每间隔2000次迭代后保存一次模型,最终根据模型平均精度指标AP(average precision)选取精度最高的模型。经过训练后的模型平均损失(average loss)下降至0.2以下。基于选取出的模型提取出红外图像中的人体动态骨骼特征图像。
将红外热成像仪部署于夜间无路灯等光源的全黑环境下,通过红外热成像仪对人体的红外图像进行采集,得到红外行人图像,再对红外行人图像进行预处理,得到滤波图像。现有的通过红外图像进行人体行为动作识别方法需要基于可见光环境下才能实现,导致在无光环境或天气较为恶劣环境下无法对人体行为动作进行识别,本发明通过采用红外热成像仪对图像进行采集,在全黑无光环境甚至气候较为恶劣环境下(例如雨雾天气)情况下,其不依赖光源,受天气影响小,探测距离远,不影响探测效果。
本实施例采用目前主流的35镜头,机芯分辨率384×288的户外热像仪在全黑环境下对行人目标的检测距离可达500米,识别距离可达150米。在夜晚无光情况下,对行人目标的识别距离在100米左右,可以采集较为清晰的红外行人图像(即前文所述的红外行人图像),以便后期图像处理算法的实施。
由于红外热成像仪输出为AV格式的单通道信号,因此通过数据采集板卡对其进行格式转换,转换为单通道数字图像格式,便于后续对图像进行处理,本实施例的采集环境与采集到的红外行人图像如图5所示。
对红外行人图像进行预处理,其目的是抑制红外图像背景,突出人体等热源目标,本发明使用背景抑制法降低红外图像中背景对感兴趣人体目标的干扰,提高后续提取处理的准确性,对CVC-09红外数据集中包含的红外图像预处理操作与对红外行人图像预处理操作相同。背景抑制方法考虑抑制效果与实时性,采用两级结构,具体如下:
首先,使用多尺度的图像细节提升(multi-scale detail boosting)方法提升红外行人图像中人体细节与背景的对比度,其核心思想为:使用三个尺度的高斯模糊,再和原图做减法,获得不同程度的细节信息,然后通过一定的组合方式把这些细节信息融入到原图中,从而得到加强原图信息的能力,计算公式如下:
D=(1-0.5×sgn(D1))×D1+0.5×D2+0.25×D3
上式中,D表示处理后的细节增强图像,sgn()表示符号函数,D1、D2、D3分别表示三个尺度上的细节增强处理,D1、D2、D3的计算方法分别为:
D1=I-B1、D2=I-B2、D3=I-B3
其中,I表示原始图像,中间参数B1、B2、B3的计算方法分别为:
B1=G1*I、B2=G2*I、B3=G3*I
其中,G1、G2、G3分别表示方差为1、2、4的高斯核。
然后,使用双边滤波抑制细节增强图像中对比度低的细节部分,即抑制细节增强图像中热源以外的背景。双边滤波(Bilateral filter)是一种非线性的滤波方法,是结合图像的空间邻近度和像素值相似度的一种折中处理,同时考虑空域信息和灰度相似性,达到保边去噪的目的,其计算公式如下:
上式中,p表示图像当前像素点,q表示图像空间邻域像素点,Ip表示处理后得到的滤波图像,“‖‖”表示求取两个值之间的欧式距离,Iq表示输入的细节增强图像;G表示高斯核,对于两个参数取值,δs表示原始图像斜对角线长度的2%的数值,δr表示原始图像梯度值的中值或者平均数;Wp表示权重,其计算方法如下:
上式中,S表示图像空间域(spatial domain)。
步骤3:分割提取出的人体动态骨骼特征图像的感兴趣区域序列,得到红外人体动态骨骼特征数据集,通过红外人体动态骨骼特征数据集训练动作识别网络SaNet,具体操作如下:
步骤C1:利用步骤2提取出的多个人体动态骨骼特征图像,剪裁感兴趣区域(ROI),形成一个人体动态骨骼ROI图像序列,依次输入动作识别网络SaNet。
动作识别考虑到红外图像特征捕捉连续性较差,因此对红外视频中每一帧图像的骨骼特点进行动作识别分类,而非提取多帧图像进行行为预测。提取红外图像中人体动态骨骼姿态后,由于骨骼特征对应于动作较为明显,因此行为识别模块重点在于提高识别的实时性,算法的精简性。
步骤C2:使用Labelimg工具对红外图像人体姿态提取网络所提取的8000幅人体动态骨骼ROI图像序列进行动作标注,区分需要识别的6类动作,得到红外人体动态骨骼特征数据集,将红外人体动态骨骼特征数据集按5:1的比例划分成训练集B和测试集。
步骤C3:作为动作识别网络SaNet的输入,为减少计算量,将红外人体动态骨骼特征数据集中所有图像样本转换为单通道28×28像素的图像,利用训练集B训练动作识别网络SaNet。训练动作识别网络SaNet时,以100幅图像为一个批次进行小批量训练,每训练一批图像,权值更新一次。权值的衰减速率设为0.0005,动量设置为0.9,初始学习率设为0.0001,对动作识别网络SaNet进行20万次迭代,每间隔2万次迭代后保存一次模型,最终根据模型平均精度指标AP(average precision)选取精度最高的模型。经过训练后模型平均损失(average loss)下降至0.05以下。基于选取出的模型识别分类6种动作。
步骤4:
步骤D1:获取待识别红外图像,先将该图像调整为512×512像素,再对调整大小后的待识别红外图像进行预处理,得到预处理图像。
步骤D2:利用红外图像人体姿态提取网络提取预处理图像的动态骨骼特征,得到待识别人体动态骨骼特征图。
步骤D3:截取待识别人体动态骨骼特征图的感兴趣区域,作为动作识别网络SaNet的输入序列,将待识别人体动态骨骼特征图调整为28×28像素,利用动作识别网络SaNet对大小经调整后的待识别人体动态骨骼特征图进行动作的分类与预测。
采用平均准确率MP、平均误检率MF、平均漏检率MM、平均运算速度Mo几项指标对本发明方法进行评价,各项指标的计算如下式:
MP=TP/(TP+FP)、MF=FP/(TN+FP)、MM=FN/(TP+FN)
上式中,TP表示红外图像中正确检测出的动作数量,FN表示红外图像中没有检测出来的动作数量,FP表示红外图像中误检出来的动作数量,TN表示红外图像中没有误检的动作数量,Mo由实际测试及训练得到。
使用长度为500帧的红外行人视频进行实际测试,对识别的部分动作实际测试识别结果如图7所示。根据实际测试结果,对比目前具有代表性的行为识别框架,对上述指标进行测试,测试结果分析如下表所示:
由上述实际测试分析可以看出,基于光流法的行为识别方法在对红外热成像中人体动作识别方面各项指标均较低,不满足实时识别要求。ST-GCN网络在识别精度等方面稍好,而实时性较差,不能满足实时识别要求。而本发明通过红外图像背景抑制,改进的红外图像人体姿态提取网络,高效精简的动作识别网络SaNet三个阶段的处理,使红外热成像中人体动作识别的平均准确率达96%,平均错误率仅3%,平均漏检率仅5%,平均处理速度高达52FPS,各项指标对比均最为优良,满足红外热成像中准确实时识别人体动作要求。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于红外图像的人体动作实时识别方法,其特征在于,包括以下步骤:
构建红外图像人体姿态提取网络与基于骨骼特征的动作识别网络SaNet;
获取红外行人图像数据集并对其进行预处理,基于预处理后的红外行人图像数据集训练红外图像人体姿态提取网络,得到人体动态骨骼特征图像;
分割提取出的人体动态骨骼特征图像的感兴趣区域序列,得到红外人体动态骨骼特征数据集,基于红外人体动态骨骼特征数据集训练动作识别网络SaNet;
获取待识别红外图像并对其进行预处理,基于红外图像人体姿态提取网络和动作识别网络SaNet对预处理后的待识别红外图像进行动作的分类与预测;
红外图像人体姿态提取网络结构由基础网络MS-ResNet与CenterNet构架的检测网络构成;
MS-ResNet的获取方式为:在ResNet101网络结构基础上,抽取卷积层3、卷积层4、卷积层5的特征图在三个尺度上的特征输出并融合,形成多尺度金字塔特征提取结构,再将首个卷积层内卷积核换为单通道卷积核,得到多尺度ResNet网络,即基础网络MS-ResNet。
2.根据权利要求1所述的一种基于红外图像的人体动作实时识别方法,其特征在于,红外图像人体姿态提取网络训练过程的损失函数定义如下:
L=Ldet+Loff
上式中,Ldet表示中心点的散焦损失,用于训练检测目标边缘与中心点;Loff表示中心关键点偏移损失,用于预测偏移值。
3.根据权利要求1所述的一种基于红外图像的人体动作实时识别方法,其特征在于,基于骨骼特征的动作识别网络SaNet由2个卷积层、2个最大池化层、2个全连接层、1个ReLU激活函数、1个平滑层和Softmax分类函数构成,用以识别包括行走、骑车、跑步、跳跃、攀爬、下蹲在内的6种动作。
4.根据权利要求1所述的一种基于红外图像的人体动作实时识别方法,其特征在于,采用背景抑制方法对红外行人图像数据集和待识别红外图像进行预处理,对红外行人图像进行预处理的具体方法如下:
步骤A1:采用多尺度的图像细节提升方法提升红外行人图像中人体细节与背景的对比度,得到细节增强图像;细节增强图像的获取方式如下:
D=(1-0.5×sgn(D1))×D1+0.5×D2+0.25×D3
上式中,D表示处理后的细节增强图像,sgn()表示符号函数,D1、D2、D3分别表示三个尺度上的细节增强处理,D1、D2、D3的计算方法分别为:
D1=I-B1、D2=I-B2、D3=I-B3
其中,I表示原始图像,中间参数B1、B2、B3的计算方法分别为:
B1=G1*I、B2=G2*I、B3=G3*I
其中,G1、G2、G3分别表示方差为1、2、4的高斯核;
步骤A2:使用双边滤波抑制细节增强图像中对比度低的细节部分,得到滤波图像;滤波图像的获取方式如下:
上式中,p表示图像当前像素点,q表示图像空间邻域像素点,Ip表示处理后得到的滤波图像,“‖‖”表示求取两个值之间的欧式距离,Iq表示输入的细节增强图像;G表示高斯核,对于两个参数取值,δs表示原始图像斜对角线长度的2%的数值,δr表示原始图像梯度值的中值或者平均数;Wp表示权重,其计算方法如下:
上式中,S表示图像空间域。
5.根据权利要求1所述的一种基于红外图像的人体动作实时识别方法,其特征在于,得到人体动态骨骼特征图像的具体方法如下:
步骤B1:采用CVC-09红外数据集中包含行人的M幅红外图像作为训练集A,以及实际通过红外热成像采集设备采集的红外视频中截取的包含行人的N幅红外图像作为验证集,训练集A与验证集数量比例为5:1;其中,M、N均为常数;
步骤B2:将红外行人图像数据集中的图像样本全部转换为512×512像素的图像并进行图像预处理,利用预处理后的训练集A训练红外图像人体姿态提取网络,选取精度最高的网络模型A,并基于该模型提取出人体动态骨骼特征图像。
6.根据权利要求1所述的一种基于红外图像的人体动作实时识别方法,其特征在于,训练动作识别网络SaNet的具体操作如下:
步骤C1:剪裁提取出的每个人体动态骨骼特征图像的感兴趣区域,形成人体动态骨骼ROI图像序列,依次输入动作识别网络SaNet;
步骤C2:使用Labelimg工具对所有提取的人体动态骨骼ROI图像序列进行动作标注,区分需要识别的6类动作,得到红外人体动态骨骼特征数据集,并将红外人体动态骨骼特征数据集按5:1的比例划分成训练集B和测试集;
步骤C3:将红外人体动态骨骼特征数据集中所有图像样本转换为单通道28×28像素的图像,利用训练集B训练动作识别网络SaNet,选取精度最高的网络模型B,并基于该模型识别分类6种动作。
7.根据权利要求1所述的一种基于红外图像的人体动作实时识别方法,其特征在于,识别待识别红外图像的具体方法如下:
步骤D1:获取待识别红外图像,先将该图像调整为512×512像素,再对调整大小后的待识别红外图像进行预处理,得到预处理图像;
步骤D2:利用红外图像人体姿态提取网络提取预处理图像的动态骨骼特征,得到待识别人体动态骨骼特征图;
步骤D3:截取待识别人体动态骨骼特征图的感兴趣区域,作为动作识别网络SaNet的输入序列,并将待识别人体动态骨骼特征图调整为28×28像素,利用动作识别网络SaNet对大小经调整后的待识别人体动态骨骼特征图进行动作的分类与预测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910635697.2A CN110363140B (zh) | 2019-07-15 | 2019-07-15 | 一种基于红外图像的人体动作实时识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910635697.2A CN110363140B (zh) | 2019-07-15 | 2019-07-15 | 一种基于红外图像的人体动作实时识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110363140A CN110363140A (zh) | 2019-10-22 |
CN110363140B true CN110363140B (zh) | 2022-11-11 |
Family
ID=68219305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910635697.2A Active CN110363140B (zh) | 2019-07-15 | 2019-07-15 | 一种基于红外图像的人体动作实时识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110363140B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110969747A (zh) * | 2019-12-11 | 2020-04-07 | 盛视科技股份有限公司 | 一种防尾随门禁系统及防尾随方法 |
CN111104943B (zh) * | 2019-12-17 | 2022-05-17 | 西安电子科技大学 | 基于决策级融合的彩色图像感兴趣区域提取方法 |
CN111178208B (zh) * | 2019-12-20 | 2023-08-15 | 华瑞新智科技(北京)有限公司 | 基于深度学习的行人检测方法、装置及介质 |
CN111415384B (zh) * | 2020-02-19 | 2022-11-25 | 重庆大学 | 一种基于深度学习的工业图像组件精准定位系统 |
CN111462149B (zh) * | 2020-03-05 | 2023-06-06 | 中国地质大学(武汉) | 一种基于视觉显著性的实例人体解析方法 |
CN111444804A (zh) * | 2020-03-19 | 2020-07-24 | 盛视科技股份有限公司 | 一种基于步态识别的人体查验方法及系统 |
CN111274930B (zh) * | 2020-04-02 | 2022-09-06 | 成都鼎安华智慧物联网股份有限公司 | 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法 |
CN111553275A (zh) * | 2020-04-28 | 2020-08-18 | 厦门博海中天信息科技有限公司 | 基于ai及热成像的吸烟监测方法、模块、设备及介质 |
CN112184734B (zh) * | 2020-09-30 | 2024-06-07 | 南京景瑞康分子医药科技有限公司 | 一种基于红外图像和穿戴式光纤的动物长时间姿态识别系统 |
CN112560618B (zh) * | 2020-12-06 | 2022-09-16 | 复旦大学 | 基于骨架和视频特征融合的行为分类方法 |
CN112800834B (zh) * | 2020-12-25 | 2022-08-12 | 温州晶彩光电有限公司 | 一种基于跪拜行为识别来定位炫彩射灯的方法及系统 |
CN112733799B (zh) * | 2021-01-22 | 2024-09-06 | 珠海格力电器股份有限公司 | 一种姿势检测方法、装置、电子设备及存储介质 |
CN112907537A (zh) * | 2021-02-20 | 2021-06-04 | 司法鉴定科学研究院 | 基于深度学习和现场虚拟仿真技术的骨骼性别鉴别方法 |
CN113112583B (zh) * | 2021-03-22 | 2023-06-20 | 成都理工大学 | 基于红外热成像的3d人体重构方法 |
CN112906662B (zh) * | 2021-04-02 | 2022-07-19 | 海南长光卫星信息技术有限公司 | 一种遥感图像变化检测方法、装置、设备及存储介质 |
CN113940642B (zh) * | 2021-05-27 | 2023-08-29 | 数智引力(厦门)运动科技有限公司 | 动作捕捉方法、系统、终端设备及存储介质 |
CN113313078B (zh) * | 2021-07-02 | 2022-07-08 | 昆明理工大学 | 一种基于模型优化的轻量化夜间红外图像行人检测方法及系统 |
CN113609993B (zh) * | 2021-08-06 | 2024-10-18 | 烟台艾睿光电科技有限公司 | 一种姿态估计方法、装置、设备及计算机可读存储介质 |
CN113657349B (zh) * | 2021-09-01 | 2023-09-15 | 重庆邮电大学 | 一种基于多尺度时空图卷积神经网络的人体行为识别方法 |
JP7042956B1 (ja) | 2021-09-10 | 2022-03-28 | 株式会社エクサウィザーズ | 情報処理方法、情報処理装置、及びプログラム |
CN113936038B (zh) * | 2021-10-13 | 2024-09-13 | 支付宝(杭州)信息技术有限公司 | 骨骼检测装置及其使用方法、训练方法和训练装置 |
CN114140877B (zh) * | 2021-11-26 | 2024-07-23 | 北京比特易湃信息技术有限公司 | 一种带红外热成像辅助的人体运动姿态与运动意图的预测方法 |
CN114359328B (zh) * | 2021-12-28 | 2022-08-12 | 山东省人工智能研究院 | 一种利用单深度相机和人体约束的运动参数测量方法 |
CN114333134B (zh) * | 2022-03-10 | 2022-05-31 | 深圳灏鹏科技有限公司 | 舱房管理方法、装置、设备及存储介质 |
CN114627560A (zh) * | 2022-05-13 | 2022-06-14 | 浙江大华技术股份有限公司 | 一种动作识别方法、动作识别模型训练方法及相关装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6571193B1 (en) * | 1996-07-03 | 2003-05-27 | Hitachi, Ltd. | Method, apparatus and system for recognizing actions |
CN104463146A (zh) * | 2014-12-30 | 2015-03-25 | 华南师范大学 | 基于近红外tof相机深度信息的姿势识别方法和装置 |
CN105003301A (zh) * | 2015-06-04 | 2015-10-28 | 中国矿业大学 | 一种综采工作面工作人员危险姿态检测装置及检测系统 |
CN108021889A (zh) * | 2017-12-05 | 2018-05-11 | 重庆邮电大学 | 一种基于姿态外形和运动信息的双通道红外行为识别方法 |
CN108549893A (zh) * | 2018-04-04 | 2018-09-18 | 华中科技大学 | 一种任意形状的场景文本端到端识别方法 |
CN109086754A (zh) * | 2018-10-11 | 2018-12-25 | 天津科技大学 | 一种基于深度学习的人体姿态识别方法 |
CN109446906A (zh) * | 2018-09-26 | 2019-03-08 | 深圳市中视典数字科技有限公司 | 一种动作捕捉系统和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451568A (zh) * | 2017-08-03 | 2017-12-08 | 重庆邮电大学 | 使用深度卷积神经网络的姿态检测方法及设备 |
-
2019
- 2019-07-15 CN CN201910635697.2A patent/CN110363140B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6571193B1 (en) * | 1996-07-03 | 2003-05-27 | Hitachi, Ltd. | Method, apparatus and system for recognizing actions |
CN104463146A (zh) * | 2014-12-30 | 2015-03-25 | 华南师范大学 | 基于近红外tof相机深度信息的姿势识别方法和装置 |
CN105003301A (zh) * | 2015-06-04 | 2015-10-28 | 中国矿业大学 | 一种综采工作面工作人员危险姿态检测装置及检测系统 |
CN108021889A (zh) * | 2017-12-05 | 2018-05-11 | 重庆邮电大学 | 一种基于姿态外形和运动信息的双通道红外行为识别方法 |
CN108549893A (zh) * | 2018-04-04 | 2018-09-18 | 华中科技大学 | 一种任意形状的场景文本端到端识别方法 |
CN109446906A (zh) * | 2018-09-26 | 2019-03-08 | 深圳市中视典数字科技有限公司 | 一种动作捕捉系统和方法 |
CN109086754A (zh) * | 2018-10-11 | 2018-12-25 | 天津科技大学 | 一种基于深度学习的人体姿态识别方法 |
Non-Patent Citations (4)
Title |
---|
CNN-based Action Recognition and Supervised Domain Aaptation on 3D Body Skeletons via Kernel Feature Maps;Yusuf Tas;《arxiv》;20180624;第1-10页 * |
Skeleton-Based Action Recognition With Gated Convolutional Neural Networks;Congqi Cao;《IEEE》;20181109;3247-3257 * |
基于深度神经网络的小目标语义分割算法研究;胡太;《中国优秀硕士学位论文》;20190115(第2019年01期);I138-4514 * |
红外图像中快速运动目标的检测与跟踪方法;易诗;《红外技术》;20190320(第2019年03期);268-272 * |
Also Published As
Publication number | Publication date |
---|---|
CN110363140A (zh) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363140B (zh) | 一种基于红外图像的人体动作实时识别方法 | |
CN110956094B (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
CN109344701B (zh) | 一种基于Kinect的动态手势识别方法 | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN113420607A (zh) | 无人机多尺度目标检测识别方法 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN113887472B (zh) | 基于级联颜色及纹理特征注意力的遥感图像云检测方法 | |
Cho et al. | Semantic segmentation with low light images by modified CycleGAN-based image enhancement | |
CN108734200B (zh) | 基于bing特征的人体目标视觉检测方法和装置 | |
CN109492700A (zh) | 一种基于多维信息融合的复杂背景目标识别方法 | |
CN111444801A (zh) | 一种无人机红外目标实时检测方法 | |
CN110599463A (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN112132157B (zh) | 一种基于树莓派的步态人脸融合识别方法 | |
CN114332911A (zh) | 一种头部姿态检测方法、装置及计算机设备 | |
CN115620090A (zh) | 模型训练方法、低照度目标重识别方法和装置、终端设备 | |
CN109919223A (zh) | 基于深度神经网络的目标检测方法及装置 | |
CN106056078A (zh) | 一种基于多特征回归式集成学习的人群密度估计方法 | |
CN108932474A (zh) | 一种基于全卷积神经网络复合特征的遥感影像云判方法 | |
CN113920354A (zh) | 一种基于事件相机的动作识别方法 | |
CN117994573A (zh) | 一种基于超像素和可形变卷积的红外弱小目标检测方法 | |
Deepan et al. | Road recognition from remote sensing imagery using machine learning | |
CN110046601B (zh) | 针对十字路口场景的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |