CN111444812A - 一种用于公安日常训练的人体姿态评估方法及系统 - Google Patents

一种用于公安日常训练的人体姿态评估方法及系统 Download PDF

Info

Publication number
CN111444812A
CN111444812A CN202010209115.7A CN202010209115A CN111444812A CN 111444812 A CN111444812 A CN 111444812A CN 202010209115 A CN202010209115 A CN 202010209115A CN 111444812 A CN111444812 A CN 111444812A
Authority
CN
China
Prior art keywords
human body
key point
body posture
network model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010209115.7A
Other languages
English (en)
Inventor
李伟
涂磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinghan Intelligent Technology Co ltd
Original Assignee
Xinghan Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinghan Intelligent Technology Co ltd filed Critical Xinghan Intelligent Technology Co ltd
Priority to CN202010209115.7A priority Critical patent/CN111444812A/zh
Publication of CN111444812A publication Critical patent/CN111444812A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种用于公安日常训练的人体姿态评估方法,包括:S1.实时采集人体动作姿态图片;S2.标注关键点,得到训练样本;S3.生成关键点坐标信息、关键点连接信息的文档;S4.单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;S5.信息对比,得到对比误差;S6.将对比误差反向传播,反复训练单阶段人体姿态估计网络模型,更新模型参数;S7.判断模型是否训练完成,若是,输出单阶段人体姿态估计网络模型提取的关键点连接信息,执行S8,否则,返回S4;S8.判断是否符合标准,若是,人体姿态动作合格,否则,人体姿态动作不合格。本发明还提出一种用于公安日常训练的人体姿态评估系统,召回率实时性高且复杂度低。

Description

一种用于公安日常训练的人体姿态评估方法及系统
技术领域
本发明涉及人体姿态识别的技术领域,更具体地,涉及一种用于公安日常训练的人体姿态评估方法及系统。
背景技术
公安在日常训练中的打拳、射击等各种姿态动作是否标准关系到公安动作训练的效果,而利用专门的工作人员直接监督公安训练,具有浪费人力成本,且训练效率低的弊端,人体姿态评估技术在人体行为识别、人机交互等领域有着广阔的应用前景,是计算机视觉领域中比较热门的研究课题。
现有的人体姿态评估方法如OpenCV中的人体骨骼图绘制法,在运用过程中具有准确率低,实时性差的缺点,且在多人的骨骼绘制图中容易出现连接出错的问题,因此,在人体姿态评估运用中效果表现不佳;利用深度学习实现人体姿态评估的方法则在很大程度上克服了这些问题,如公开号为CN110084138A、公开日为2019年8月2日的中国专利申请中提出了一种2D多人姿态评估方法,通过多阶段的全卷积神经网络进行顺序化学习训练,不断提高人体姿态评估模型预测输出人体姿态的准确度,也不需要过精准的图像采集设备,算法速度快,实时性高,但全卷积神经网络模型采用多阶段且层次多,复杂度高。
综上所述,提出一种召回率高、实时性高且复杂度低的人体姿态评估方法十分有必要。
发明内容
为克服在现有利用深度学习实现人体姿态评估的方法中,采用的多阶段全卷积神经网络模型具有层次多、复杂度高的缺陷,本发明提出一种用于公安日常训练的人体姿态评估方法及系统,提高了人体姿态评估的召回率和实时性,且复杂度低。
本发明旨在至少在一定程度上解决上述技术问题。
为了达到上述技术效果,本发明的技术方案如下:
一种用于公安日常训练的人体姿态评估方法,包括:
S1.实时采集人体动作姿态图片;
S2.对人体动作姿态图片中的关键点进行标注,得到训练样本;
S3.生成包含关键点坐标信息、关键点连接信息的文档;
S4.将训练样本输入到单阶段人体姿态估计网络模型中,单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;
S5.将单阶段人体姿态估计网络模型提取的信息与文档中的关键点坐标信息进行对比,得到对比误差;
S6.将对比误差反向传播到单阶段人体姿态估计网络模型中,反复训练单阶段人体姿态估计网络模型,更新单阶段人体姿态估计网络模型参数;
S7.判断单阶段人体姿态估计网络模型是否训练完成,若是,输出单阶段人体姿态估计网络模型提取的关键点连接信息,并执行步骤S8,否则,返回步骤S4;
S8.判断提取的关键点连接信息是否符合标准,若是,人体姿态动作合格,否则,人体姿态动作不合格。
在此,实时采集的人体工作姿态图片是通过动作图片采集器完成的,对人体动作姿态图片中的关键点进行标注可以采用专门的标注工具进行,标注工具对人体动作姿态图片中的关键点进行标注后生成包含关键点坐标信息、关键点连接信息的文档。
优选地,步骤S2所述的关键点至少包括:左右耳、左右眼、鼻子、胸腔点、左右肩点、左右手肘点、左右手腕点、左右胯点、左右膝盖点及左右脚踝点,步骤S2所述的关键点为能反映人体姿态的最重要的节点。
优选地,所述单阶段人体姿态估计网络模型为VGG卷积神经网络模型,包括第一结构块、第二结构块、第三结构块、第四结构块、第五结构块、用于预测人体姿态关键点连接信息的第一卷积层分支及用于输出人体姿态关键点连接2D矢量信息的第二卷积层分支,所述第一结构块~第五结构块依次首尾相连,第五结构块的尾端分别连接第一卷积层分支的首端及第二卷积层分支的首端。
优选地,第一结构块~第五结构块中的每一个结构块均包括若干个卷积层及池化层,所述若干个卷积层、池化层依次首尾相连。
在此,单阶段人体姿态估计网络模型为仅为五个结构块的首尾相连的组合,输出有两个分支,克服了多阶段全卷积神经网络模型每阶段都有多层次的卷积结构块,且阶段都有分支,具有层次多、复杂度高的缺陷。
优选地,步骤S4所述的输入人体姿态估计网络模型的训练样本的图片像素为128*96或256*192或384*288。
优选地,步骤S6所述的反复训练单阶段人体姿态估计网络模型的方法为梯度训练法。
优选地,步骤S7所述的单阶段人体姿态估计网络模型训练完成的标准为:单阶段人体姿态估计网络模型提取的信息与文档中的关键点坐标信息、关键点连接信息的对比误差小于误差允许裕度ε。
在此,利用随机梯度法反复训练单阶段人体姿态估计网络模型,减少单阶段人体姿态估计网络模型提取的信息与文档中的关键点坐标信息的对比误差,更新单阶段人体姿态估计网络模型参数,在对比误差小于误差允许裕度ε时,可以认为单阶段人体姿态估计网络模型更加准确的提取到了关键点坐标信息,单阶段人体姿态估计网络模型训练完成。
优选地,单阶段人体姿态估计网络模型提取的第i个关键点与其相邻的第i+1个关键点之间的连接线为A,第i-1个关键点与其相邻的第i个关键点之间的连接线为B,人体标准动作姿态的第i个关键点与其相邻的第i+1个关键点之间的连接线为A′,第i-1个关键点与其相邻的第i个关键点之间的连接线为B′,步骤S8所述的标准为单阶段人体姿态估计网络模型提取的关键点连接线A、关键点连接线B之间的夹角α与连接线A′、连接线B′之间的夹角β的角度误差不超过γ度,i为大于1的正整数,第i个关键点属于步骤S2所述的关键点中的一个。
在此,将单阶段人体姿态估计网络模型提取的关键点之间的连接线与人体动作姿态中的关键点之间连接线夹角的角度误差控制在一定度数γ以内,作为单阶段人体姿态估计网络模型提取的关键点连接信息符合标准的依据,可以保证本申请提出的人体姿态评估方法的严谨性。
本申请还提出一种用于公安日常训练的人体姿态评估系统,所述方法用于实现所述用于公安日常训练的人体姿态评估方法,包括:
动作图片采集器,用于实时采集人体动作姿态图片;
关键点标注器,用于接收动作图片采集器传输的人体动作姿态图片,标注人体动作姿态图片中的关键点,形成训练样本,并生成包含关键点坐标信息、关键点连接信息的文档;
计算分析设备,内部设有单阶段人体姿态估计网络模型,用于接收关键点标注器传输的训练样本,实时分析计算并提取关键点坐标信息、关键点连接信息;
终端提示设备,判断人体姿态动作是否合格,并将判断结果向工作人员做出提示。
与现有技术相比,本发明技术方案的有益效果是:
(1)本发明提出一种用于公安日常训练的人体姿态评估方法,利用单阶段人体姿态估计网络模型提取人体动作姿态图片中的关键点坐标信息及关键点连接信息,并利用对比误差反向传播到单阶段人体姿态估计网络模型中反复训练,更新单阶段人体姿态估计网络模型参数,从而减小误差,使单阶段人体姿态估计网络模型提取到的关键点坐标信息、关键点连接信息更加准确,不需要多阶段的训练,克服现有人体姿态评估方法采用的多阶段全卷积神经网络模型层次多、复杂度高的缺陷。
(2)本发明还提出一种用于公安日常训练的人体姿态评估系统,采用终端提示设备判断人体姿态动作是否合格,并将判断结果向工作人员做出提示,提高公安日常训练中人体姿态评估的效率。
附图说明
图1为本发明提出的用于公安日常训练的人体姿态估计方法的流程图。
图2为本发明提出的人体动作姿态图片中的关键点示意图。
图3为本发明提出的人体姿态网络估计模型的框架示意图。
图4为本发明实施例中提出的标准人体姿态动作关键点连接线角度的示意图。
图5为本发明实施例中提出的待评估人体姿态动作关键点连接线角度的示意图。图6为本发明提出的用于公安日常训练的人体姿态估计方法的系统框图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好地说明本实施例,附图某些部位会有省略、放大或缩小,并不代表实际尺寸;
对于本领域技术人员来说,附图中某些公知内容说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示的用于公安日常训练的人体姿态评估方法的流程图,包括:
S1.实时采集人体动作姿态图片,在本实施例中,通过动作图片采集器完成人体动作图片的采集;
S2.对人体动作姿态图片中的关键点进行标注,得到训练样本;在本实施例中,对人体动作姿态图片中的关键点进行标注采用的标注工具为基于OpenCV/cvat的关键点标注器;
S3.生成包含关键点坐标信息、关键点连接信息的文档;参见图2,所述的关键点包括参与训练的公安的左右耳、左右眼、鼻子、胸腔点、左右肩点、左右手肘点、左右手腕点、左右胯点、左右膝盖点及左右脚踝点,这些关键点为能反映公安训练人体姿态的最重要的节点;
S4.将训练样本输入到单阶段人体姿态估计网络模型中,单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;在本实施例中,单阶段人体姿态估计网络模型为图3所示的VGG卷积神经网络模型,包括第一结构块、第二结构块、第三结构块、第四结构块、第五结构块、用于预测人体姿态关键点连接信息的第一卷积层分支1-cov及用于输出人体姿态关键点连接2D矢量信息的第二卷积层分支2-cov,第一结构块~第五结构块依次首尾相连,第五结构块的尾端分别连接第一卷积层分支1-cov的首端及第二卷积层分支的首端2-cov,训练样本的像素可以为128*96或256*192或384*288中的一种,在本实施例中,训练样本的像素选取为128*96,在具体实施时,本申请提出的方法也能适用于其它两种像素的训练样本。
参见图3,第一结构块~第五结构块中的每一个结构块均包括若干个卷积层及池化层,其中第一结构块包括卷积层cov1-1、卷积层cov1-2及池化层maxpool,卷积层cov1-1、卷积层cov1-2及池化层maxpool依次首尾相连;第二结构块包括卷积层cov2-1、卷积层cov2-2及池化层maxpool,卷积层cov2-1、卷积层cov2-2及池化层maxpool依次首尾相连;第三结构块包括卷积层cov3-1、卷积层cov3-2、卷积层3-3及池化层maxpool,卷积层cov3-1、卷积层cov3-2、卷积层3-3及池化层maxpool依次首尾相连;第四结构块包括卷积层cov4-1、卷积层cov4-2、卷积层cov4-3及池化层maxpool,卷积层cov4-1、卷积层cov4-2、卷积层cov4-3及池化层maxpool依次首尾相连;第五结构块包括卷积层cov5-1、卷积层cov5-2、卷积层cov5-3及池化层maxpool,卷积层cov5-1、卷积层cov5-2、卷积层cov5-3及池化层maxpool依次首尾相连,单阶段人体姿态估计网络模型为仅为五个结构块的首尾相连的组合,输出有两个分支,克服了多阶段全卷积神经网络模型每阶段都有多层次的卷积结构块,且阶段都有分支,具有层次多、复杂度高的缺陷;
S5.将单阶段人体姿态估计网络模型提取的信息与文档中的关键点坐标信息进行对比,得到对比误差;
S6.将对比误差反向传播到单阶段人体姿态估计网络模型中,反复训练单阶段人体姿态估计网络模型,更新单阶段人体姿态估计网络模型参数;
S7.判断单阶段人体姿态估计网络模型是否训练完成,若是,输出单阶段人体姿态估计网络模型提取的关键点连接信息,并执行步骤S8,否则,返回步骤S4;在本实施例中,单阶段人体姿态估计网络模型训练完成的标准为:单阶段人体姿态估计网络模型提取的信息与文档中的关键点坐标信息、关键点连接信息的对比误差小于误差允许裕度ε,在本实施例中,误差允许裕度ε取0.1。
利用随机梯度法反复训练单阶段人体姿态估计网络模型,减少单阶段人体姿态估计网络模型提取的信息与文档中的关键点坐标信息、关键点连接信息的对比误差,更新单阶段人体姿态估计网络模型参数,在对比误差小于误差允许裕度ε时,可以认为单阶段人体姿态估计网络模型更加准确的提取到了关键点坐标信息、关键点连接信息,单阶段人体姿态估计网络模型训练完成。
S8.判断提取的关键点连接信息是否符合标准,若是,人体姿态动作合格,否则,人体姿态动作不合格;
在本实施例中,单阶段人体姿态估计网络模型提取的第i个关键点与其相邻的第i+1个关键点之间的连接线为A,第i-1个关键点与其相邻的第i个关键点之间的连接线为B,人体标准动作姿态的第i个关键点与其相邻的第i+1个关键点之间的连接线为A′,第i-1个关键点与其相邻的第i个关键点之间的连接线为B′,步骤S8所述的标准为单阶段人体姿态估计网络模型提取的关键点连接线A、关键点连接线B之间的夹角α与连接线A′、连接线B′之间的夹角β的角度误差不超过γ度,γ取3,i为大于1的正整数,第i个关键点属于步骤S2所述的关键点中的一个。将单阶段人体姿态估计网络模型提取的关键点之间的连接线与人体动作姿态中的关键点之间连接线夹角的角度误差控制在3°以内,作为单阶段人体姿态估计网络模型提取的关键点连接信息符合标准的依据,可以保证本申请提出的人体姿态评估方法的严谨性。
在进入训练就绪状态时,单阶段人体姿态估计网络模型根据动作图片采集器实时采集传输的标注后的训练样本,计算当前帧的人体姿态关键点连接信息是否符合标准,如图4所示的人体姿态标准动作时关键点连接线角度的示意图,关键点a为左胯点、关键点b为左膝盖点,连接线为ab,关键点c为左脚踝点,关键点b与关键点c的连接线为bc,以关键点连接线bc为标准,关键点连接线ab与关键点连接线bc的夹角为170°,在图5所示的当前帧待评估的人体姿态动作关键点连接线角度的示意图,与关键点a左胯点、关键点b左膝盖点及关键点c左脚踝点分别对应的关键点d、关键点e及关键点f中,关键点d与关键点e的连接线为de,关键点e与关键点f的连接线为ef,以关键点连接线ef标准,关键点连接线de与关键点连接线ef的夹角为190°,则图5所示的人体姿态动作不合格。如图6所示,本申请还提出一种用于公安日常训练的人体姿态评估系统,所述方法用于实现所述的人体姿态评估方法,包括:
动作图片采集器,用于实时采集人体动作姿态图片;
关键点标注器,用于接收动作图片采集器传输的人体动作姿态图片,标注人体动作姿态图片中的关键点,形成训练样本,实时分析计算并提取关键点坐标信息、关键点连接信息;
计算分析设备,内部设有单阶段人体姿态估计网络模型,用于接收关键点标注器传输的训练样本,实时计算分析并提取关键点坐标信息、关键点连接信息;
终端提示设备,判断人体姿态动作是否合格,并将判断结果向工作人员做出提示。
在具体实施例中,动作图片采集器可以为网络摄像头或USB摄像头,在本实施例中,动作图片采集器采用网络摄像头,计算分析设备采用GPU计算设备,能得到更快的计算速度,使用小型嵌入式NVIDIA TX2开发板进行计算,网络摄像头捕获特定的人体姿态动作,通过OpenCV获取人体动作姿态训练样本,再将训练样本输入到GPU计算设备中,GPU计算设备内部设有单阶段人体姿态估计网络模型,利用表1中不同的人体姿态估计网络模型结构和相同的人体姿态动作图片分别进行训练,从而验证这些模型结构有效性,表1是实验数据的比较,数据集是coco2016,mAP表示召回率,即准确率,结果对比显示本申请设计的单阶段人体姿态估计模型处理人体姿态动作图片的速度和动作评估准确率比与其它模型结构表现更好。
表1
计算一帧图片的时间/ms mPA
本申请模型 43 79.7
6层VGG模型 46 73.4
10层VGG模型 47 71.2
残差网络模型 53 78.6
与本申请类似模型 45 79.1
缩小的层次输入可以减少更多的人体姿态网络估计模型的参数,从而提高人体姿态网络估计模型的计算速度,且GPU计算设备可以快速的处理图像,经测试得到本申请设计的模型在NVIDIA TX2开发板上处理一帧人体姿态动作图片的时间大约是30-50毫秒,基本达到了实时和无延时的效果,且本申请使用的人体姿态估计网络模型的召回率mPA相对其他模型结构的召回率mPA更高,使用GPU计算设备也节省了更多的硬件资源。
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (9)

1.一种用于公安日常训练的人体姿态评估方法,其特征在于,至少包括:
S1.实时采集人体动作姿态图片;
S2.对人体动作姿态图片中的关键点进行标注,得到训练样本;
S3.生成包含关键点坐标信息、关键点连接信息的文档;
S4.将训练样本输入到单阶段人体姿态估计网络模型中,单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;
S5.将单阶段人体姿态估计网络模型提取的信息与文档中的关键点坐标信息进行对比,得到对比误差;
S6.将对比误差反向传播到单阶段人体姿态估计网络模型中,反复训练单阶段人体姿态估计网络模型,更新单阶段人体姿态估计网络模型参数;
S7.判断单阶段人体姿态估计网络模型是否训练完成,若是,输出单阶段人体姿态估计网络模型提取的关键点连接信息,并执行步骤S8,否则,返回步骤S4;
S8.判断提取的关键点连接信息是否符合标准,若是,人体姿态动作合格,否则,人体姿态动作不合格。
2.根据权利要求1所述的用于公安日常训练的人体姿态评估方法,其特征在于,步骤S2所述的关键点至少包括:左右耳、左右眼、鼻子、胸腔点、左右肩点、左右手肘点、左右手腕点、左右胯点、左右膝盖点及左右脚踝点。
3.根据权利要求1所述的用于公安日常训练的人体姿态评估方法,其特征在于,所述单阶段人体姿态估计网络模型为VGG卷积神经网络模型,包括第一结构块、第二结构块、第三结构块、第四结构块、第五结构块、用于预测人体姿态关键点连接信息的第一卷积层分支及用于输出人体姿态关键点连接2D矢量信息的第二卷积层分支,所述第一结构块~第五结构块依次首尾相连,第五结构块的尾端分别连接第一卷积层分支的首端及第二卷积层分支的首端。
4.根据权利要求3所述的用于公安日常训练的人体姿态评估方法,其特征在于,第一结构块~第五结构块中的每一个结构块均包括若干个卷积层及池化层,所述若干个卷积层、池化层依次首尾相连。
5.根据权利要求1所述的用于公安日常训练的人体姿态评估方法,其特征在于,步骤S4所述的输入人体姿态估计网络模型的训练样本的图片像素为128*96或256*192或384*288。
6.根据权利要求1所述的用于公安日常训练的人体姿态评估方法,其特征在于,步骤S6所述的反复训练单阶段人体姿态估计网络模型的方法为梯度训练法。
7.根据权利要求2所述的用于公安日常训练的人体姿态评估方法,其特征在于,步骤S7所述的单阶段人体姿态估计网络模型训练完成的标准为:单阶段人体姿态估计网络模型提取的信息与文档中的关键点坐标信息的对比误差小于误差允许裕度ε。
8.根据权利要求2所述的用于公安日常训练的人体姿态评估方法,其特征在于,单阶段人体姿态估计网络模型提取的第i个关键点与其相邻的第i+1个关键点之间的连接线为A,第i-1个关键点与其相邻的第i个关键点之间的连接线为B;人体标准动作姿态中的第i个关键点与其相邻的第i+1个关键点之间的连接线为A′,第i-1个关键点与其相邻的第i个关键点之间的连接线为B′,步骤S8所述的标准为单阶段人体姿态估计网络模型提取的关键点连接线A、关键点连接线B之间的夹角α与关键点连接线A′、关键点连接线B′之间的夹角β的角度误差不超过γ度,i为大于1的正整数,第i个关键点属于步骤S2所述的关键点中的一个。
9.一种用于公安日常训练的人体姿态评估系统,所述方法用于实现权利要求1-8任意一项所述的用于公安日常训练的人体姿态评估方法,包括:
动作图片采集器,用于实时采集人体动作姿态图片;
关键点标注器,用于接收动作图片采集器传输的人体动作姿态图片,标注人体动作姿态图片中的关键点,形成训练样本,并生成包含关键点坐标信息、关键点连接信息的文档;
计算分析设备,内部设有单阶段人体姿态估计网络模型,用于接收关键点标注器传输的训练样本,实时分析计算并提取关键点坐标信息、关键点连接信息;
终端提示设备,判断人体姿态动作是否合格,并将判断结果向工作人员做出提示。
CN202010209115.7A 2020-03-23 2020-03-23 一种用于公安日常训练的人体姿态评估方法及系统 Pending CN111444812A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010209115.7A CN111444812A (zh) 2020-03-23 2020-03-23 一种用于公安日常训练的人体姿态评估方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010209115.7A CN111444812A (zh) 2020-03-23 2020-03-23 一种用于公安日常训练的人体姿态评估方法及系统

Publications (1)

Publication Number Publication Date
CN111444812A true CN111444812A (zh) 2020-07-24

Family

ID=71629551

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010209115.7A Pending CN111444812A (zh) 2020-03-23 2020-03-23 一种用于公安日常训练的人体姿态评估方法及系统

Country Status (1)

Country Link
CN (1) CN111444812A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011341A (zh) * 2021-03-22 2021-06-22 平安科技(深圳)有限公司 佛经抄写辅助方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110066383A1 (en) * 2009-09-15 2011-03-17 Wellcore Corporation Indentifying One or More Activities of an Animate or Inanimate Object
CN106710351A (zh) * 2016-12-28 2017-05-24 新支点数字科技(宜昌)有限公司 虚拟实境警务培训装置及方法
CN108960056A (zh) * 2018-05-30 2018-12-07 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法
CN110084138A (zh) * 2019-04-04 2019-08-02 高新兴科技集团股份有限公司 一种2d多人姿态估计方法
CN110119703A (zh) * 2019-05-07 2019-08-13 福州大学 一种安防场景下融合注意力机制和时空图卷积神经网络的人体动作识别方法
CN110163127A (zh) * 2019-05-07 2019-08-23 国网江西省电力有限公司检修分公司 一种由粗到细的视频目标行为识别方法
CN110287923A (zh) * 2019-06-29 2019-09-27 腾讯科技(深圳)有限公司 人体姿态获取方法、装置、计算机设备及存储介质
CN110414453A (zh) * 2019-07-31 2019-11-05 电子科技大学成都学院 一种基于机器视觉的多重视角下人体动作状态监测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110066383A1 (en) * 2009-09-15 2011-03-17 Wellcore Corporation Indentifying One or More Activities of an Animate or Inanimate Object
CN106710351A (zh) * 2016-12-28 2017-05-24 新支点数字科技(宜昌)有限公司 虚拟实境警务培训装置及方法
CN108960056A (zh) * 2018-05-30 2018-12-07 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法
CN110084138A (zh) * 2019-04-04 2019-08-02 高新兴科技集团股份有限公司 一种2d多人姿态估计方法
CN110119703A (zh) * 2019-05-07 2019-08-13 福州大学 一种安防场景下融合注意力机制和时空图卷积神经网络的人体动作识别方法
CN110163127A (zh) * 2019-05-07 2019-08-23 国网江西省电力有限公司检修分公司 一种由粗到细的视频目标行为识别方法
CN110287923A (zh) * 2019-06-29 2019-09-27 腾讯科技(深圳)有限公司 人体姿态获取方法、装置、计算机设备及存储介质
CN110414453A (zh) * 2019-07-31 2019-11-05 电子科技大学成都学院 一种基于机器视觉的多重视角下人体动作状态监测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DANIIL OSOKIN: "Real-time 2D Multi-Person Pose Estimation on CPU: Lightweight OpenPose", 《ARXIV.ORG》 *
XUECHENG NIE 等: "Single-Stage Multi-Person Pose Machines", 《ARXIV.ORG》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011341A (zh) * 2021-03-22 2021-06-22 平安科技(深圳)有限公司 佛经抄写辅助方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110516620A (zh) 目标跟踪方法、装置、存储介质及电子设备
CN108875708A (zh) 基于视频的行为分析方法、装置、设备、系统及存储介质
CN112131985B (zh) 一种基于OpenPose改进的实时轻量人体姿态估计方法
CN106909938B (zh) 基于深度学习网络的视角无关性行为识别方法
CN103729614A (zh) 基于视频图像的人物识别方法及人物识别装置
CN114821640B (zh) 基于多流多尺度膨胀时空图卷积网络的骨架动作识别方法
CN111160294B (zh) 基于图卷积网络的步态识别方法
Singh et al. Human pose estimation using convolutional neural networks
CN111209811B (zh) 一种实时检测眼球注意力位置的方法及系统
CN110135277B (zh) 一种基于卷积神经网络的人体行为识别方法
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置
CN111178288A (zh) 基于局部误差逐层训练的人体姿态识别方法和装置
CN116778527A (zh) 人体模型构建方法、装置、设备及存储介质
CN113516232B (zh) 一种基于自注意力机制的穿墙雷达人体姿态重构方法
CN105654061A (zh) 基于估计补偿的三维人脸动态重建方法
CN111444812A (zh) 一种用于公安日常训练的人体姿态评估方法及系统
CN113705445A (zh) 一种基于事件相机的人体姿态识别的方法及设备
CN116403286A (zh) 一种面向大场景视频的社交分组方法
CN111310655A (zh) 基于关键帧和组合注意力模型的人体动作识别方法和系统
CN112101094B (zh) 一种基于肢体语言的自杀风险评估方法
CN114022956A (zh) 一种多维度智能研判健身动作运动效果的方法
CN112560848A (zh) 兴趣点poi预训练模型的训练方法、装置及电子设备
CN113673411B (zh) 一种基于注意力机制的轻量级移位图卷积行为识别方法
Feng et al. An Analysis System of Students' Attendence State in Classroom Based on Human Posture Recognition
Sun et al. TriGait: Aligning and Fusing Skeleton and Silhouette Gait Data via a Tri-Branch Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200724