CN110929687B - 一种基于关键点检测的多人行为识别系统及工作方法 - Google Patents

一种基于关键点检测的多人行为识别系统及工作方法 Download PDF

Info

Publication number
CN110929687B
CN110929687B CN201911257342.0A CN201911257342A CN110929687B CN 110929687 B CN110929687 B CN 110929687B CN 201911257342 A CN201911257342 A CN 201911257342A CN 110929687 B CN110929687 B CN 110929687B
Authority
CN
China
Prior art keywords
key point
matrix
key points
image
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911257342.0A
Other languages
English (en)
Other versions
CN110929687A (zh
Inventor
许宏吉
李梦荷
赵文杰
张贝贝
石磊鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201911257342.0A priority Critical patent/CN110929687B/zh
Publication of CN110929687A publication Critical patent/CN110929687A/zh
Application granted granted Critical
Publication of CN110929687B publication Critical patent/CN110929687B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于关键点检测的多人行为识别系统及工作方法,包括:图像预处理模块,被配置为对采集到的图像进行预处理;关键点检测模块,被配置为提取每帧图像的关键点特征;通过人体关键点预测矩阵,判断图像中包含人体的个数以及每个人包含的关节点数;检测两相邻关节点是否在同一肢体上,对同一个人任意相邻的两个关节点间进行连接获取方向向量,依次连接同一肢体上的关节点,得到关节点向量矩阵;姿态估计模块,被配置为用于根据关节点向量矩阵进行姿态判断。本发明通过对输入原始图像中的多人行为信息进行分析处理,实现对多人的姿态估计和当前行为的分类识别,弥补了现有的单人行为识别方法对实际场景中多人的行为无法检测的缺陷。

Description

一种基于关键点检测的多人行为识别系统及工作方法
技术领域
本发明涉及计算机视觉与模式识别技术领域,尤其涉及一种基于关键点检测的多人行为识别系统及工作方法。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
计算机视觉是研究计算机如何能像人类的视觉系统一样对外界获取信息进行感知的一门学科,即让计算机看懂世界,而基于图像的人体行为识别是计算机视觉领域的一个研究热点。图像检测和识别是计算机视觉中的基本任务,图像识别是让计算机对图像进行一系列处理、分析,然后再识别各种不同情境下目标和对象的一门技术。图像识别技术从早期对文字进行识别、对数字进行识别逐渐发展到对物体进行识别、对场景进行识别、对人脸进行识别和对人的各种行为进行识别等日常生活的方方面面。
当一个人说谎时,我们很难通过语言判断他当前的情绪状态,但是一个人的肢体语言却很难说谎,往往会表达出他们最真实的情感信息。通过检测一个人的行为动作,可以推断出他的情绪变化,并且通过不同场景的分析,比如运动场上运动员的当前动作判断出此时他参赛的项目,学生当前的动作,判断出他当时是否在认真学习。通过对人体的动作进行判断识别,可以得到很多有用的信息,例如当前肢体的行为信息,当前动作的姿态信息等,在人工智能、智能家居、智慧课堂等很多方面都有极大用处。
人体行为识别是基于图像识别算法和计算机视觉原理进行实现的,目标是从一个获取的视频或图像序列中自动地分析其正在进行的行为,包括:提取其中的信息、将行为进行分类等。人体行为识别的应用十分广泛,比如公共智能视频监控区域、病人监护系统、人机交互及虚拟现实、智慧家居系统、智能安防、运动员辅助训练等场景。目前,存在较多的行为识别研究大多集中在对单人行为的识别,而在实际生活场景中,单人的场景很少,大部分的公共场合人群较多,对多人的行为识别在公共安全、智能安防、重大活动场所等方面有广泛实际应用需求,包括大型聚会事件、群体暴力、恐怖活动等进行监控,通过判断当前多人行为的种类和数量,从而避免重大事故的发生。
目前,多人行为姿态估计与识别系统及方法基本上都是采用自上而下的方法,即先对视野范围内有几个人进行检测,然后根据边缘检测等方法,对检测到的多个人进行分割,分别提取不同检测框内人员的行为信息,再做分类识别。而随着视野范围内人数的增多,该方法的计算量会呈指数式递增,大大降低了识别的效率。并且会存在检测遗漏的问题,即没有检测到视野范围内有这个人,这就会直接造成后面分类识别的失败。由此可见,这种自上而下的识别方法,虽然可以检测到多人的姿态并进行行为分类,但是识别效果并不理想。
发明内容
为了解决上述问题,本发明提出了一种基于关键点检测的多人行为识别系统及工作方法,用于实时检测当前多人行为并对当前多人行为进行识别;基于二次特征提取和姿态估计的方案,用于提高多人行为识别的准确率。
在一些实施方式中,采用如下技术方案:
一种基于关键点检测的多人行为识别系统,主要包括:图像预处理模块、关键点检测模块、姿态估计模块、二次特征提取模块、行为估计与应用模块;
所述图像预处理模块,用于调整输入图像帧的格式、对输入图像进行滤波和去噪处理。调整输入图像帧的格式包括调整输入图像的尺寸大小、调整输入图像的灰度值、调整输入图像的存储格式;对输入图像通过滤波器降噪处理,再通过平滑去噪操作消除图像中无关信息对后续结果的影响;
所述关键点检测模块,包括依次相连的关键点特征提取单元、关键点匹配单元、骨骼关键点向量检测单元,用于检测图像中多个人的关键点,并做出判断;
所述关键点特征提取单元,包括对每帧图像进行SIFT(Scale-Invariant FeatureTransform,尺度不变特征变换)和SURF(Speeded Up Robust Features,加速鲁棒特征)关键点的特征提取,得到关键点特征矩阵;
所述关键点匹配单元,通过预测关键点矩阵S,判断得出每帧图像中不同关键点属于哪个人的骨骼关键点,并通过计算损失函数判断关键点的匹配程度;
所述骨骼关键点向量检测单元,用于对同一个人的任意两个骨骼关键点间进行连接并获取方向向量,对方向向量进行检测,做出判断;
所述姿态估计模块,用于根据骨骼关键点向量矩阵进行姿态判断。
作为进一步的改进方案,还包括:
二次特征提取模块,被配置为用于对预处理后的图像进行二次特征提取,得到行为特征矩阵;
行为估计与应用模块,被配置为根据关键点预测矩阵、骨骼关键点向量矩阵以及行为特征矩阵,利用神经网络模型进行预测,得到图像中每个人的行为以及所述行为的识别率。
在另一些实施方式中,采用如下技术方案:
一种基于关键点检测的多人行为识别工作方法,包括:
对预处理后的每帧图像进行SIFT和SURF关键点的特征提取;
求取关键点预测矩阵,判断图像中包含人体的个数以及每个人包含的骨骼关键点数;
检测两相邻骨骼关键点是否在同一肢体上,对同一个人任意相邻的两个骨骼关键点间进行连接获取方向向量,依次连接同一肢体上的骨骼关键点,得到骨骼关键点向量矩阵;
根据骨骼关键点向量矩阵的方向和角度判断当前图像帧中不同人的姿态。
作为进一步的改进方案,在根据骨骼关键点向量矩阵的方向和角度判断当前图像帧中不同人的姿态之后,还包括:对预处理后的图像进行二次特征提取,得到行为特征矩阵;
根据关键点预测矩阵、骨骼关键点向量矩阵以及行为特征矩阵,利用神经网络模型进行预测,得到图像中每个人的行为以及所述行为的识别率。
在另一些实施方式中,采用如下技术方案:
一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行上述的基于关键点检测的多人行为识别工作方法。
在另一些实施方式中,采用如下技术方案:
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行上述的基于关键点检测的多人行为识别工作方法。
与现有技术相比,本发明的有益效果是:
1、本发明提出了一种基于关键点检测的多人行为识别系统及工作方法,通过对输入原始图像中的多人行为信息进行分析处理,实现对多人的姿态估计和当前行为的分类识别,弥补了现有的单人行为识别方法对实际场景中多人的行为无法检测的缺陷。
2、本发明主要在关键点检测模块,提出了一种多人关键点特征提取、检测及骨骼关键点向量连接的新方法。通过提取的关键点与标注的骨骼关键点计算,得出骨骼关键点预测矩阵;并通过连接两骨骼关键点之间的向量判断是否在某肢体上,更好的区分不同人的不同骨骼关键点和肢体,有效的对多人姿态进行估计并提高多人行为识别的准确率。
附图说明
图1是本发明提出的一种基于关键点检测的多人行为识别系统结构示意图;
图2是本发明提出的一种基于关键点检测的多人行为识别工作方法流程图;
图3是本发明提出的一种基于关键点检测的多人行为识别系统中关键点检测模块的原理示意图。
具体实施方式
应该指出,以下详细说明都是实例性的,旨在对本申请提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式。此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例一
在一个或多个实施方式中,公开了一种基于关键点检测的多人行为识别系统,如图1所示,包括:
(1)原始图像预处理模块,用于调整输入图像帧的格式、对输入图像进行滤波处理及去噪处理。调整输入图像帧的格式包括调整输入图像的尺寸大小、调整输入图像的灰度值、调整输入图像的存储格式;对输入图像通过滤波器降噪处理,再通过平滑去噪操作消除图像中无关信息对后续结果的影响;
(2)关键点检测模块,参照图3,具体包括:
①关键点特征提取单元,对每帧图像进行SIFT和SURF关键点的特征提取,得到关键点特征矩阵;
具体地,对每帧图像通过高斯函数建立尺度空间,在不同尺度空间上寻找关键点(x,y),利用图像的局部特征为每一个关键点分配一个方向,然后给每一个关键点建立一个描述符,再生成图像的SIFT特征,得到SIFT特征矩阵;将得到的SIFT特征矩阵构建了一个Hessian矩阵,重复以上步骤,提取SURF特征,得到最终的关键点特征矩阵。
②关键点匹配单元,通过预测关键点预测矩阵S,判断得出每帧图像中不同关键点属于哪个人的哪个骨骼关键点,并通过计算损失函数判断匹配的程度;
具体地,根据得到的关键点特征矩阵,将每个关键点依次与标注的2D图像骨骼关键点比较,求解关键点的预测值,即预测哪些关键点是骨骼关键点,并判断出当前图像帧中的人数和每个人的重要骨骼关键点,得到关键点预测矩阵;
2D图像骨骼关键点表示人工预先标注的二维骨骼关键点;关键点是①中提取的关键点特征,骨骼关键点是指人体主要的骨骼关键点。通过预测哪些关键点属于人体的骨骼关键点,即确定图像中包含人体的个数以及每个人包含的骨骼关键点数。
③骨骼关键点向量检测单元,用于对同一个人的任意两个骨骼关键点间进行连接并获取方向向量,对方向向量进行检测,做出判断;
具体地,连接同一个人的任意两相邻骨骼关键点,求解两相邻骨骼关键点的方向向量,对得到的所有方向向量进行判断,看是否存在某肢体上,依次连接同一肢体上的骨骼关键点,得到骨骼关键点向量矩阵。
(3)姿态估计模块,用于根据得到的骨骼关键点向量进行人体的姿态判断。
(4)二次特征提取模块,用于对输入图像进行二次特征提取,得到行为信息特征矩阵。
具体地,二次特征提取包括VGG-16提取的原始图像的行为信息特征,VGG-16提取的关键点特征矩阵的骨骼关键点特征,VGG-16提取的关键点向量矩阵的方向特征,得到最终的特征矩阵,作为SVM(Support Vector Machine,支持向量机)分类器的输入。
(5)行为识别与应用模块,用于根据上述特征信息进行分类识别,对得到的分类识别结果进行统计并输出到可视化应用界面进行显示。
具体地,行为识别与应用模块包括:分类器单元、分类结果统计单元、可视化应用界面单元;
将关键点预测矩阵、骨骼关键点向量矩阵、行为信息特征矩阵集合,作为分类器单元的输入,得到第n个人的行为和该行为的识别率;
分类结果统计单元统计图像帧中一共有多少人,每个人的动作以及该动作的识别率;
可视化应用界面单元,用于实时对多人姿态进行估计并对行为分类进行可视化输出,通过一段时间的分析统计,可得出该段时间内人员的变动及行为动作的变化情况。
实施例二
在一个或多个实施方式中,公开了一种基于关键点检测的多人行为识别工作方法,如图2所示,包括步骤如下:
步骤S01:原始图像预处理操作
分别输入MPII Human Pose Dataset和MSCOCO Dataset两个多人行为数据集,共25k张图像帧,其中包括几张已标记的图像帧,对数据集的图像帧分别进行滤波和去噪操作。并将数据集中图像帧进行灰度处理,并适当调整网络输入的格式。
本实施例中,原始图像选取MPII Human Pose Dataset和MSCOCO Dataset数据集的目的是为了便于对本实施例方法进行说明,实际应用过程中,原始图像为采集到的待分类识别的图像。
步骤S02:提取图像帧的SIFT和SURF特征
先将数据集作为输入,提取SIFT特征,具体步骤如下:
1)采用高斯函数G(x,y,σ)建立尺度空间σ,高斯函数计算公式如(Ι)所示:
Figure BDA0002310647830000081
其中,G(x,y,σ)表示高斯函数,(x,y)是空间坐标,σ是尺度坐标或尺度空间因子。
通过高斯函数得到原始图像的尺度空间L(x,y,σ),公式如(ΙΙ)所示:
L(x,y,σ)=G(x,y,σ)*I(x,y) (ΙΙ)
其中,G(x,y,σ)表示高斯函数,I(x,y)表示原始图像。
2)在不同的尺度空间σ上寻找关键点(x,y);
3)利用图像的局部特征为每一个关键点分配一个方向θ(x,y),方向θ(x,y)的公式如(ΙΙΙ)所示:
Figure BDA0002310647830000091
4)给每一个关键点建立一个描述符;
5)生成图像的SIFT特征,得到SIFT特征矩阵;
在SIFT特征矩阵的基础上提取SURF特征,SURF特征提取与SIFT特征提取步骤类似,只是在第一步建立尺度空间之前构建了一个Hessian矩阵,Hessian矩阵公式如(ΙV)所示,最后得到关键点特征矩阵。
Figure BDA0002310647830000092
步骤S03:关键点特征矩阵比较
通过图像中标注的2D点Xk,n,求关键点预测矩阵S,其中,Xk,n表示第n个人的第k个骨骼关键点,预测矩阵S的计算公式如(V)所示:
Figure BDA0002310647830000093
其中,k=1,2,……m,表示一个人身上标注的m个骨骼关键点,n表示第n个人,p表示关键点特征矩阵中的(x,y),σ2表示常数,本实施例中取1。
步骤S03具体包括如下步骤:
1)判断标注的2D图像中n的值,若n=0,则说明当前图像帧中没有检测到人的关键节点,舍弃当前帧,重复步骤S01;
2)当n>=1时,由步骤S02得到大小为w×h的关键点矩阵,取点p=(xi,yj),(i=1,2,……w;j=1,2,……,h),计算第1个人的第1个骨骼关键点
Figure BDA0002310647830000101
3)当S=min(S1,1(p))<ε,(0<ε<1)时,点p(xi,yj)属于第1个人的第1个骨骼关键点,以此类推;
4)若不存在S=min(Sk,n(p))<ε,(0<ε<1),则说明当前图像帧未检测到第n个人的第k个骨骼关键点,该骨骼关键点位置补0。重复步骤S03,直到找到所有n个人的k个骨骼关键点;
5)完成后,得到的关键点预测矩阵S,可以明确当前图像帧中有n个人,每个人有k个骨骼关键点。
步骤S04:计算损失函数
损失函数指的是预测值与实际值的差值大小,表示预测是否合理,损失函数0<f<ε,ε为任意小的数。若损失函数过大,说明当前预测值与实际值不符,则舍弃,回到步骤S03;当预测值与实际值相等,即损失函数f=0时,说明当前预测值为实际值。损失函数的计算公式如(VΙ)所示:
Figure BDA0002310647830000102
其中,
Figure BDA0002310647830000103
表示求得的关键点预测矩阵,
Figure BDA0002310647830000104
表示标注的2D点矩阵。
步骤S05:骨骼关键点连接
取当前图像帧中关键点预测矩阵S中的第n个人的任意两个关键点xk1,n,xk1,n,连接两个关键点并取关键点xk1,n指向关键点xk2,n的方向向量v,方向向量v的计算公式如(VΙΙ)所示:
Figure BDA0002310647830000111
步骤S06:判断方向向量位置
检测这两个骨骼关键点方向向量是否在某肢体上,若v在c上则说明这两个骨骼关键点在同一肢体上,可进行连接,若不在则舍弃,检测两骨骼关键点方向向量是否在某肢体上的公式如(VΙΙΙ)所示:
Figure BDA0002310647830000112
其中,c表示第n个人的第c种肢体。
重复步骤S04和步骤S05,直到所有两两骨骼关键点都检测完成。
步骤S07:姿态估计
两两骨骼关键点之间的方向向量检测完成后,满足条件的两骨骼关键点之间可进行连接,形成完整的人体骨架结构,并得到骨骼关键点向量矩阵L,由向量矩阵的方向和角度可判断当前图像帧中不同人的姿态。
步骤S08:二次特征提取
将原始图像数据集经过滤波去噪等预处理后输入到VGG-16的前10层的卷积层中进行特征提取(VGG-16的初始权重和参数已经在ImageNet上通过大量真实图像训练得到),输入的是n层色值通道(红、绿、蓝),每层m个(3,3)的卷积核,所以参数个数是n×m×3×3,经过10层卷积提取训练数据集中图像帧的行为信息特征,得到行为特征矩阵F。
步骤S09:特征矩阵集合
经过步骤S03得到关键点预测矩阵S、经过步骤S04和步骤S05得到骨骼关键点向量矩阵L、经过步骤S07得到行为特征矩阵F,将三类矩阵集合,作为分类器的输入。
步骤S10:分类器分类
将三类特征矩阵调整输入格式和矩阵大小,每类随机70%作为训练集,30%作为测试集,将训练集数据输入到VGG-16的全连接层进行训练,30%测试集输入到VGG-16的全连接层进行测试得到多人行为的分类结果。
步骤S11:分类结果分析
分类结果显示第n个人的行为和该行为的识别率,统计图像帧中一共有多少人,每个人的动作以及该动作的识别率。
步骤S12:将MSCOCO Dataset数据集作为输入,重复步骤S02-S10。
实施例三
本实施方式以实时的课堂学生上课行为为例,教室摄像头设备采集当前教室内的学生上课情况,并实时分析该段时间内学生的上课状态,包括步骤如下:
步骤S01:采集的图像预处理操作
教室内摄像头设备每秒上传一帧图像到上位机,对采集到的图像进行预处理操作;
步骤S02:提取图像帧的SIFT和SURF特征
将采集到的图像作为输入,提取SIFT特征,具体步骤如下:
1)采用高斯函数G(x,y,σ)建立尺度空间σ,高斯函数计算公式如(Ι)所示:
Figure BDA0002310647830000121
其中,G(x,y,σ)表示高斯函数,(x,y)是空间坐标,σ是尺度坐标或尺度空间因子。
通过高斯函数得到原始图像的尺度空间L(x,y,σ),公式如(ΙΙ)所示:
L(x,y,σ)=G(x,y,σ)*I(x,y) (ΙΙ)
其中,G(x,y,σ)傲视高斯函数,I(x,y)表示原始图像。
2)在不同的尺度空间σ上寻找关键点(x,y);
3)利用图像的局部特征为每一个关键点分配一个方向θ(x,y),方向θ(x,y)的公式如(ΙΙΙ)所示:
Figure BDA0002310647830000131
4)给每一个关键点建立一个描述符;
5)生成图像的SIFT特征,得到SIFT特征矩阵;
在SIFT特征矩阵的基础上提取SURF特征,SURF特征提取与SIFT特征提取步骤类似,只是在第一步建立尺度空间之前构建了一个Hessian矩阵,Hessian矩阵公式如(ΙV)所示,最后得到关键点特征矩阵。
Figure BDA0002310647830000132
步骤S03:关键点特征矩阵比较
通过与训练得到的标注的人体2D点Xk,n,求关键点的预测矩阵S,其中,Xk,n表示第n个人的第k个骨骼关键点,预测矩阵S的计算公式如(V)所示:
Figure BDA0002310647830000133
其中,k=1,2,……m,表示一个人身上标注的m个骨骼关键点,n表示第n个人,p表示关键点特征矩阵中的(x,y),σ2表示常数,这里取1。
根据本发明优选的,所述步骤S03,具体步骤包括如下:
1)判断标注的2D图像中n的值,若n=0,则说明当前图像帧中没有检测到人的关键节点,舍弃当前帧,重复步骤S01;
2)当n>=1时,由步骤S02得到大小为w×h的关键点矩阵,取点p=(xi,yj),(i=1,2,……w;j=1,2,……,h),计算第1个人的第1个骨骼关键点
Figure BDA0002310647830000141
3)当S=min(S1,1(p))<ε,(0<ε<1)时,点p(xi,yj)属于第1个人的第1个骨骼关键点,以此类推;
4)若不存在S=min(Sk,n(p))<ε,(0<ε<1),则说明当前图像帧未检测到第n个人的第k个骨骼关键点,该骨骼关键点位置补0。重复步骤S03,直到找到所有n个人的k个骨骼关键点;
5)完成后,得到的预测矩阵S,可以明确当前图像帧中有n个人,每个人有k个骨骼关键点。
步骤S04:计算损失函数
损失函数的计算公式如(VΙ)所示:
Figure BDA0002310647830000142
其中,
Figure BDA0002310647830000143
表示求得的预测矩阵,
Figure BDA0002310647830000144
表示标注的2D点矩阵。
步骤S05:骨骼关键点连接
取当前图像帧中预测矩阵S中的第n个人的任意两个关键点xk1,n,xk2,n,连接两个关键点并取关键点xk1,n指向关键点xk2,n的方向向量v,方向向量v的计算公式如(VΙΙ)所示:
Figure BDA0002310647830000151
步骤S06:判断方向向量位置
检测这两个骨骼关键点方向向量是否在某肢体上,若v在c上则说明这两个骨骼关键点在同一肢体上,可进行连接,若不在则舍弃,检测两骨骼关键点方向向量是否在某肢体上的公式如(VΙΙΙ)所示:
Figure BDA0002310647830000152
其中,c表示第n个人的第c种肢体。
重复步骤S04和步骤S05,直到所有两两骨骼关键点都检测完成。
步骤S07:姿态估计
两两骨骼关键点之间的方向向量检测完成后,满足条件的两骨骼关键点之间可进行连接,形成完整的人体骨架结构,并得到向量矩阵L,由向量矩阵的方向和角度可判断当前图像帧中不同人的姿态。
步骤S08:二次特征提取
将原始图像数据集经过滤波去噪等预处理后输入到VGG-16的前10层的卷积层中进行特征提取(VGG-16的初始权重和参数已经在ImageNet上通过大量真实图像训练得到),输入的是n层色值通道(红、绿、蓝),每层m个(3,3)的卷积核,所以参数个数是n×m×3×3,经过10层卷积提取训练数据集中图像帧的行为信息特征,得到行为特征矩阵F。
步骤S09:特征矩阵集合
经过步骤S03得到关键点特征矩阵S、经过步骤S04和步骤S05得到向量特征矩阵L、经过步骤S07得到行为信息特征矩阵F,将三类矩阵集合,作为SVM分类器的输入。
步骤S10:分类器分类
将三类特征矩阵调整输入格式和矩阵大小,每类随机取70%作为训练集,30%作为测试集,将训练集数据输入到VGG-16的全连接层进行训练,30%测试集输入到VGG-16的全连接层进行测试得到多人行为的分类结果。
步骤S11:分类结果统计分析
通过一节课的分类结果统计,得出该节课内学生课堂状态的结果。
实施例四
在一个或多个实施方式中,公开了一种终端设备,包括服务器,所述服务器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现实施例二中的基于关键点检测和二次特征提取的多人姿态估计及行为识别方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的基于关键点检测的多人行为识别系统可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (8)

1.一种基于关键点检测的多人行为识别系统,其特征在于,包括:
图像预处理模块,被配置为对采集到的图像进行预处理;
关键点检测模块,被配置为提取每帧图像的关键点特征;通过关键点预测矩阵,判断图像中包含人体的个数以及每个人包含的骨骼关键点数;
检测两相邻骨骼关键点是否在同一肢体上,对同一个人任意相邻的两个骨骼关键点间进行连接获取方向向量,依次连接同一肢体上的骨骼关键点,得到骨骼关键点向量矩阵;
姿态估计模块,被配置为用于根据骨骼关键点向量矩阵进行姿态判断;二次特征提取模块,被配置为用于对预处理后的图像进行二次特征提取,得到行为特征矩阵;
所述关键点检测模块具体包括:
关键点特征提取单元,被配置为提取每帧图像的关键点特征;具体地,对每帧图像进行SIFT和SURF关键点的特征提取,得到关键点特征矩阵;
所述骨骼关键点向量矩阵的构建具体包括;取当前图像帧中关键点预测矩阵中的第n个人的任意两个关键点Xk1,n,xk2,n,连接两个关键点并取关键点xk1,n指向关键点xk2,n的方向向量v;
检测这两个骨骼关键点方向向量是否在某肢体上,若v在c上说明这两个骨骼关键点在同一肢体上,可进行连接,若不在则舍弃,c表示第n个人的第c种肢体;
两两骨骼关键点之间的方向向量检测完成后,满足条件的两骨骼关键点之间可进行连接,形成完整的人体骨架结构,并得到骨骼关键点向量矩阵。
2.如权利要求1所述的一种基于关键点检测的多人行为识别系统,其特征在于,还包括:
行为估计与应用模块,被配置为根据关键点预测矩阵、骨骼关键点向量矩阵以及行为特征矩阵,利用神经网络模型进行预测,得到图像中每个人的行为以及所述行为的识别率。
3.如权利要求1所述的一种基于关键点检测的多人行为识别系统,其特征在于,所述关键点检测模块还包括:
关键点匹配单元,被配置为通过关键点预测矩阵,判断图像中包含人体的个数以及每个人包含的骨骼关键点数;
骨骼关键点向量检测单元,被配置为检测两相邻骨骼关键点是否在同一肢体上,对同一个人任意相邻的两个骨骼关键点间进行连接获取方向向量,依次连接同一肢体上的骨骼关键点,得到骨骼关键点向量矩阵。
4.一种基于关键点检测的多人行为识别工作方法,其特征在于,包括:
对预处理后的每帧图像进行SIFT和SURF关键点的特征提取,得到关键点特征矩阵;
求取关键点预测矩阵,判断图像中包含人体的个数以及每个人包含的骨骼关键点数;
检测两相邻骨骼关键点是否在同一肢体上,对同一个人任意相邻的两个骨骼关键点间进行连接获取方向向量,依次连接同一肢体上的骨骼关键点,得到骨骼关键点向量矩阵;
根据骨骼关键点向量矩阵的方向和角度判断当前图像帧中不同人的姿态;
对预处理后的图像进行二次特征提取,得到行为特征矩阵;
所述骨骼关键点向量矩阵的构建具体包括;取当前图像帧中关键点预测矩阵中的第n个人的任意两个关键点xk1,n,xk2,n,连接两个关键点并取关键点xk1,n指向关键点xk2,n的方向向量v;
检测这两个骨骼关键点方向向量是否在某肢体上,若v在c上说明这两个骨骼关键点在同一肢体上,可进行连接,若不在则舍弃,c表示第n个人的第c种肢体;
两两骨骼关键点之间的方向向量检测完成后,满足条件的两骨骼关键点之间可进行连接,形成完整的人体骨架结构,并得到骨骼关键点向量矩阵。
5.如权利要求4所述的一种基于关键点检测的多人行为识别工作方法,其特征在于,在对预处理后的图像进行二次特征提取,得到行为特征矩阵之后,还包括:
根据关键点预测矩阵、骨骼关键点向量矩阵以及行为特征矩阵,利用神经网络模型进行预测,得到图像中每个人的行为以及所述行为的识别率。
6.如权利要求5所述的一种基于关键点检测的多人行为识别工作方法,其特征在于,求取关键点预测矩阵,具体为:
Figure FDA0004109586030000041
其中,k=1,2,……m,表示一个人身上标注的m个骨骼关键点;n表示第n个人;p表示关键点特征矩阵中的(x,y);σ2表示常数;Xk,n表示第n个人的第k个骨骼关键点;Sk,n(p)表示关键点的预测值矩阵。
7.一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行权利要求4-6任一项所述的一种基于关键点检测的多人行为识别工作方法。
8.一种计算机可读存储介质,其中存储有多条指令,其特征在于,所述指令适于由终端设备的处理器加载并执行权利要求4-6任一项所述的一种基于关键点检测的多人行为识别工作方法。
CN201911257342.0A 2019-12-10 2019-12-10 一种基于关键点检测的多人行为识别系统及工作方法 Active CN110929687B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911257342.0A CN110929687B (zh) 2019-12-10 2019-12-10 一种基于关键点检测的多人行为识别系统及工作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911257342.0A CN110929687B (zh) 2019-12-10 2019-12-10 一种基于关键点检测的多人行为识别系统及工作方法

Publications (2)

Publication Number Publication Date
CN110929687A CN110929687A (zh) 2020-03-27
CN110929687B true CN110929687B (zh) 2023-04-18

Family

ID=69859393

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911257342.0A Active CN110929687B (zh) 2019-12-10 2019-12-10 一种基于关键点检测的多人行为识别系统及工作方法

Country Status (1)

Country Link
CN (1) CN110929687B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680562A (zh) * 2020-05-09 2020-09-18 北京中广上洋科技股份有限公司 一种基于骨骼关键点的人体姿态识别方法、装置、存储介质及终端
CN111985339A (zh) * 2020-07-22 2020-11-24 深圳市自行科技有限公司 基于姿态估计的行人交通行为识别系统和方法
CN112232325B (zh) * 2020-12-15 2021-03-30 浙江大华技术股份有限公司 样本数据处理方法和装置、存储介质及电子设备
CN113420604B (zh) * 2021-05-28 2023-04-18 沈春华 多人姿态估计方法、装置和电子设备
CN113516734B (zh) * 2021-07-05 2024-09-06 西湖大学 一种基于自上而下深度学习架构的昆虫关键点自动标注方法及应用
CN113822202A (zh) * 2021-09-24 2021-12-21 河南理工大学 一种基于OpenPose和PyQt的太极拳姿态检测系统
WO2023195305A1 (ja) * 2022-04-08 2023-10-12 コニカミノルタ株式会社 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647639A (zh) * 2018-05-10 2018-10-12 电子科技大学 实时人体骨骼关节点检测方法
CN110210323A (zh) * 2019-05-09 2019-09-06 浙江大学 一种基于机器视觉的溺水行为在线识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295567B (zh) * 2016-08-10 2019-04-12 腾讯科技(深圳)有限公司 一种关键点的定位方法及终端

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647639A (zh) * 2018-05-10 2018-10-12 电子科技大学 实时人体骨骼关节点检测方法
CN110210323A (zh) * 2019-05-09 2019-09-06 浙江大学 一种基于机器视觉的溺水行为在线识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields;Zhe Cao;《IEEE Conference on Computer Vision and Pattern Recognition》;20171109;2-5,7,图6,图9 *
Video-based Fall Detection for Seniors with Human;Zhanyuan Huang;《IEEE 4th International Conference on Universal Village》;20190214;2-4 *

Also Published As

Publication number Publication date
CN110929687A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
CN110929687B (zh) 一种基于关键点检测的多人行为识别系统及工作方法
Ale et al. Deep learning based plant disease detection for smart agriculture
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
CN104933414B (zh) 一种基于wld-top的活体人脸检测方法
EP3333768A1 (en) Method and apparatus for detecting target
CN109543526B (zh) 基于深度差异性特征的真假面瘫识别系统
JP6192271B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN109934195A (zh) 一种基于信息融合的反欺骗三维人脸识别方法
CN107085716A (zh) 基于多任务生成对抗网络的跨视角步态识别方法
CN101794372B (zh) 基于频域分析的步态特征表示及识别方法
CN109117897A (zh) 基于卷积神经网络的图像处理方法、装置及可读存储介质
CN104598871B (zh) 一种基于相关回归的面部年龄计算方法
CN107798279B (zh) 一种人脸活体检测方法及装置
CN106204779A (zh) 基于多人脸数据采集策略和深度学习的课堂考勤方法
CN111935479B (zh) 一种目标图像确定方法、装置、计算机设备及存储介质
CN105825228B (zh) 图像识别方法及装置
CN110163103B (zh) 一种基于视频图像的生猪行为识别方法和装置
CN114239754B (zh) 基于属性特征学习解耦的行人属性识别方法及系统
Sakthimohan et al. Detection and Recognition of Face Using Deep Learning
CN114299279A (zh) 基于脸部检测和识别的无标记群体恒河猴运动量估计方法
CN111626212B (zh) 图片中对象的识别方法和装置、存储介质及电子装置
Varga et al. Person re-identification based on deep multi-instance learning
CN116959113A (zh) 步态识别方法及装置
CN113657315A (zh) 人脸图像的质量筛选方法、装置、设备及存储介质
CN106803080B (zh) 一种基于形状玻尔兹曼机的补全式行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant