CN110321795B - 用户姿态识别方法、装置、计算机装置及计算机存储介质 - Google Patents

用户姿态识别方法、装置、计算机装置及计算机存储介质 Download PDF

Info

Publication number
CN110321795B
CN110321795B CN201910441733.1A CN201910441733A CN110321795B CN 110321795 B CN110321795 B CN 110321795B CN 201910441733 A CN201910441733 A CN 201910441733A CN 110321795 B CN110321795 B CN 110321795B
Authority
CN
China
Prior art keywords
human body
identified
image
network
key points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910441733.1A
Other languages
English (en)
Other versions
CN110321795A (zh
Inventor
吴侠宝
徐国强
邱寒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910441733.1A priority Critical patent/CN110321795B/zh
Publication of CN110321795A publication Critical patent/CN110321795A/zh
Application granted granted Critical
Publication of CN110321795B publication Critical patent/CN110321795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种用户姿态识别方法、装置、计算机装置及存储介质。所述用户姿态识别方法包括:获取待识别人体图像;检测所述待识别人体图像中的人体关键点;根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。本发明解决了现有方案中姿态识别不佳的问题,提高了姿态识别的准确性。

Description

用户姿态识别方法、装置、计算机装置及计算机存储介质
技术领域
本发明涉及图像识别技术领域,具体涉及一种用户姿态识别方法、装置、计算机装置及计算机存储介质。
背景技术
目前的姿态识别方法主要是基于四维图像(即RGB-D图像,包含深度信息),该图像的获取成本较高,且深度信息获取的准确率不高。此外,在使用深度图像分析法进行姿态识别时,肢体(如手臂)通常较细,深度图像中的肢体信息不明显;并且,当手臂靠近头部时,手臂和头部的深度差异不明显,无法判断出深度信息差异,导致肢体姿态识别失败。
可见,现有技术中缺少一种能够准确有效地进行姿态识别的方法。
发明内容
鉴于以上内容,有必要提出一种用户姿态识别方法、装置、计算机装置及计算机存储介质,其可以解决现有方案中姿态识别不佳的问题,提高了姿态识别的准确性。
本申请的第一方面提供一种用户姿态识别方法,所述方法包括:
获取待识别人体图像;
检测所述待识别人体图像中的人体关键点;
根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;
将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
另一种可能的实现方式中,所述待识别人体图像是二维图像。
另一种可能的实现方式中,所述检测所述待识别人体图像中的人体关键点包括:
使用包括骨干网络、关键点检测子网络、人体区域检测子网络、姿态残差网络的网络模型检测所述待识别人体图像中的人体关键点。
另一种可能的实现方式中,所述检测所述待识别人体图像中的人体关键点包括:
所述骨干网络从所述待识别人体图像提取特征,所述骨干网络包括第一特征金字塔网络与第二特征金字塔网络;
所述关键点检测子网络将来自于所述第一特征金字塔网络的特征作为输入,输出所述待识别人体图像中的所有人体关键点;
所述人体区域检测子网络根据来自于所述第二特征金字塔网络的特征检测所述待识别人体图像中的人体区域;
所述姿态残差网络将所述所有人体关键点中的每个人体关键点映射到所述人体区域,得到每个人体区域中的人体关键点。
另一种可能的实现方式中,所述人体不同部位的夹角包括左手臂与身体的夹角、右手臂与身体的夹角、左大臂与左小臂的夹角、右大臂与右小臂的夹角、左右大腿的夹角。
另一种可能的实现方式中,所述方法还包括:
对所述待识别人体图像进行预处理。
另一种可能的实现方式中,所述方法还包括:
根据所述人体姿态进行预设操作。
本申请的第二方面提供一种用户姿态识别装置,所述装置包括:
获取模块,用于获取待识别人体图像;
检测模块,用于检测所述待识别人体图像中的人体关键点;
计算模块,用于根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;
识别模块,用于将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
另一种可能的实现方式中,所述待识别人体图像是二维图像。
另一种可能的实现方式中,所述检测所述待识别人体图像中的人体关键点包括:
使用包括骨干网络、关键点检测子网络、人体区域检测子网络、姿态残差网络的网络模型检测所述待识别人体图像中的人体关键点。
另一种可能的实现方式中,所述检测所述待识别人体图像中的人体关键点包括:
所述骨干网络从所述待识别人体图像提取特征,所述骨干网络包括第一特征金字塔网络与第二特征金字塔网络;
所述关键点检测子网络将来自于所述第一特征金字塔网络的特征作为输入,输出所述待识别人体图像中的所有人体关键点;
所述人体区域检测子网络根据来自于所述第二特征金字塔网络的特征检测所述待识别人体图像中的人体区域;
所述姿态残差网络将所述所有人体关键点中的每个人体关键点映射到所述人体区域,得到每个人体区域中的人体关键点。
另一种可能的实现方式中,所述人体不同部位的夹角包括左手臂与身体的夹角、右手臂与身体的夹角、左大臂与左小臂的夹角、右大臂与右小臂的夹角、左右大腿的夹角。
另一种可能的实现方式中,所述装置还包括:
预处理模块,用于对所述待识别人体图像进行预处理。
另一种可能的实现方式中,所述装置还包括:
操作模块,用于根据所述人体姿态进行预设操作。
本申请的第三方面提供一种计算机装置,所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现所述用户姿态识别方法。
本申请的第四方面提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述用户姿态识别方法。
本发明获取待识别人体图像;检测所述待识别人体图像中的人体关键点;根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。本发明解决了现有方案中姿态识别不佳的问题,提高了姿态识别的准确性。
附图说明
图1是本发明实施例提供的用户姿态识别方法的流程图。
图2是本发明实施例提供的用户姿态识别装置的结构图。
图3是本发明实施例提供的计算机装置的示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
优选地,本发明的用户姿态识别方法应用在一个或者多个计算机装置中。所述计算机装置是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机装置可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机装置可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
实施例一
图1是本发明实施例一提供的用户姿态识别方法的流程图。所述用户姿态识别方法应用于计算机装置。
本发明姿态识别方法对人体图像中人体姿态进行识别,得到人体姿态类型。所述用户姿态识别方法可以解决现有方案中姿态识别不佳的问题,提高姿态识别的准确性。
如图1所示,所述用户姿态识别方法包括:
步骤101,获取待识别人体图像。
所述待识别人体图像可以包含一个人体,也可以包含多个人体。
在本实施例中,所述待识别人体图像可以是二维图像。
可以获取预先存储的待识别人体图像。例如,可以预先建立图像数据库,从所述图像数据库中获取待识别人体图像。
或者,可以接收用户上传的图像,将该图像作为待识别人体图像。例如,可以生成姿态识别界面,接收用户从所述姿态识别界面上传的图像,将该图像作为待识别人体图像。
或者,可以从视频中截取图像,得到待识别人体图像。例如,从监控视频中截取图像,得到待识别人体图像。可以通过间隔截图、关键帧截图等方式从视频中截取图像。
或者,可以控制相机、摄像头等设备进行拍摄,得到待识别人体图像。例如,所述计算机装置包括摄像头,控制所述摄像头对人体进行拍摄,得到待识别人体图像。
所述待识别人体图像可以是不同格式的图像,例如jpg格式的图像、PNG格式的图像、TIF格式的图像、BMP格式的图像等。
所述待识别人体图像可以是灰度图像,也可以是彩色图像,例如RGB图像、YUV图像或HSV图像。
步骤102,检测所述待识别人体图像中的人体关键点。
在本实施例中,可以采用OpenPose算法检测所述待识别人体图像中的人体关键点。
Openpose是一种基于深度学习的人体关键点检测算法,使用自下而上(Bottom-Up)方法,使用深度学习模型获取图像中所有人体的人体关键点,再使用非极大值抑制等算法将人体关键点连接起来,获取每个人体的人体关键点。
在其他的实施例中,可以采用其他的算法,例如采用派系过滤算法(CliquePercolation Method,CPM)检测所述待识别人体图像中的人体关键点。
在一具体实施例中,检测所述待识别人体图像中的人体关键点的网络模型可以包括骨干网络、关键点检测子网络、人体区域检测子网络、姿态残差网络。所述骨干网络用于从所述待识别人体图像提取特征。所述骨干网络可以使用带有第一特征金字塔网络(Feature Pyramid Network,FPN)与第二特征金字塔网络的残差网络。第一特征金字塔网络输出特征到所述关键点检测子网络,第二特征金字塔网络输出特征到所述人体区域检测子网络。
所述关键点检测子网络将来自于第一特征金字塔网络的特征作为输入,输出所述待识别人体图像中的所有人体关键点。
所述人体区域检测子网络根据来自于第二特征金字塔网络的特征检测所述待识别人体图像中的人体区域。若所述待识别人体图像包括多个人体,则所述人体区域检测子网络检测得到多个人体区域。
所述姿态残差网络将关键点检测子网络检测得到的每个人体关键点映射到所述人体区域,得到每个人体区域中的人体关键点。所述姿态残差网络就是将每个人体关键点分配到对应的人体区域。所述姿态残差网络可以使用残差多层感知机(residualmultilayer perceptron)来将人体关键点映射到人体区域。
人体关键点可以包括人体上有一定自由度的关节,例如颈(脖子)、肩、肘、腕、膝、踝等。人体关键点还可以包括人体的五官。在本实施例中,所述用户姿态识别方法用于识别用户身体姿态,所述人体关键点可以包括鼻子、左眼、右眼、左耳、右耳、左肩、右肩、脖子、左肘、左肘、左手腕、右手腕、左跨、右跨、左膝盖、右膝盖、左脚踝、右脚踝共18个关键点。
在另一实施例中,所述用户姿态识别方法用于识别用户手势,所述人体关键点为手部关键点,包括每个手指的指尖、指关节(每个手指有3个指关节),以及手腕中点共21个关键点。
步骤103,根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角。
在本实施例中,所述人体不同部位的夹角可以包括左手臂与身体的夹角、右手臂与身体的夹角、左大臂与左小臂的夹角、右大臂与右小臂的夹角、左右大腿的夹角。
可以按照下述方法计算人体不同部位的夹角:
(1)确定构成夹角的两个向量。例如,两个向量为A和B,A=ax+by,B=cx+dy。
(2)计算所述两个向量的数量积(即点积):两个向量A=ax+by与B=cx+dy的数量积AB=a*c+b*d。
(3)计算两个向量的模|A|、|B|,
(4)计算两个向量的夹角余弦cosθ,cosθ=AB/(|A||B|)。
(5)对所述夹角余弦求反余弦,得到所述两个向量的夹角。
步骤104,将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
所述深度神经网络模型预先使用标注有真实的姿态类型的样本集进行训练。样本集中的每个人体样本图像包括人体关键点、人体不同部位的夹角。将每个人体样本图像的人体关键点、人体不同部位的夹角输入所述深度神经网络模型,根据所述深度神经网络模型输出的姿态类型和真实的姿态类型调整所述深度神经网络模型的网络参数,使损失函数最小化。
若所述待识别人体图像中包括多个人体,则本步骤是将每个人体的人体关键点和人体不同部位的夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中每个人体的人体姿态。
在利用所述用户姿态识别方法识别用户身体姿态的实施例中,姿态类型可以包括站立、坐下、举手等。
在利用所述用户姿态识别方法识别用户手势的实施例中,姿态类型(即手势类型)可以包括伸出不同手指形成的手形。例如,姿态类型可以包括1种握拳手形、3种单手指手形(伸大拇指、伸食指、伸小拇指)、2种两手指手形(伸中指与食指、伸大拇指与食指)、2种三手指手形(伸中指与无名指与小拇指、伸大拇指与食指与中指)、1种四手指手形(伸食指与中指与无名指与小拇指)和1种手指全伸出的手形。
综上所述,根据上述用户姿态识别方法,获取待识别人体图像;检测所述待识别人体图像中的人体关键点;根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。本发明将人体不同部位的夹角作为附加特征与人体关键点一同输入深度神经网络模型进行姿态识别,提高了用户姿态识别的准确度。
在另一实施例中,在检测所述待识别人体图像中的人体关键点之前,所述方法还可以包括:对所述待识别人体图像进行预处理。
预处理是对待识别人体图像的大小、方向、颜色等进行转换,获得更多样性的图像,以提高待识别人体图像的识别正确率。
对待识别人体图像进行预处理可以包括对待识别人体图像进行缩放。可以对待识别人体图像进行任意比例的缩放(可以放大也可以缩小)。例如,对待识别人体图像进行0.5倍缩放。又如,对待识别人体图像进行0.75倍缩放。再如,对待识别人体图像进行1.5倍缩放。
对待识别人体图像进行预处理还可以包括对待识别人体图像进行裁剪。可以对待识别人体图像进行随机裁剪。
对待识别人体图像进行预处理还可以包括对待识别人体图像进行平移。可以将待识别人体图像沿水平方向(即x轴)平移。或者,可以将待识别人体图像沿垂直方向(即y轴)平移。或者,可以将待识别人体图像沿水平方向和垂直方向平移。
对待识别人体图像进行预处理还可以包括对待识别人体图像进行旋转和/或翻转。可以对待识别人体图像进行任意角度和方向(顺时针或逆时针)的旋转。例如,将待识别人体图像逆时针旋转90度。又如,将待识别人体图像顺时针旋转180度。再如,将待识别人体图像顺时针旋转270度。可以对待识别人体图像进行水平翻转或垂直翻转。
对待识别人体图像进行预处理还可以包括对待识别人体图像进行颜色转换。例如,将待处理图像由彩色图像转换为灰度图像。又如,将待处理图像由RBG图像转换为YUV图像。
可以理解,可以对待识别人体图像进行一种或多种预处理。例如,对待识别人体图像进行0.75倍缩放得到缩放后的图像,再对缩放后的图像进行裁剪。又如,对待识别人体图像进行颜色转换,从彩色图像转换为灰度图像,再对灰度图像顺时针旋转90度。
在另一实施例中,所述方法还可以包括:根据所述人体姿态进行预设操作。例如,在利用所述用户姿态识别方法识别用户手势的例子中,不同的手势对应不同的操作指令,可以根据识别得到的手势执行对应的操作指令。
实施例二
图2是本发明实施例二提供的用户姿态识别装置的结构图。所述用户姿态识别装置20应用于计算机装置。所述用户姿态识别装置20对人体图像中人体姿态进行识别,得到人体姿态类型。所述用户姿态识别装置20可以解决现有方案中姿态识别不佳的问题,提高姿态识别的准确性。
如图2所示,所述用户姿态识别装置20可以包括获取模块201、检测模块202、计算模块203、识别模块204。
获取模块201,用于获取待识别人体图像。
所述待识别人体图像可以包含一个人体,也可以包含多个人体。
在本实施例中,所述待识别人体图像可以是二维图像。
可以获取预先存储的待识别人体图像。例如,可以预先建立图像数据库,从所述图像数据库中获取待识别人体图像。
或者,可以接收用户上传的图像,将该图像作为待识别人体图像。例如,可以生成姿态识别界面,接收用户从所述姿态识别界面上传的图像,将该图像作为待识别人体图像。
或者,可以从视频中截取图像,得到待识别人体图像。例如,从监控视频中截取图像,得到待识别人体图像。可以通过间隔截图、关键帧截图等方式从视频中截取图像。
或者,可以控制相机、摄像头等设备进行拍摄,得到待识别人体图像。例如,所述计算机装置包括摄像头,控制所述摄像头对人体进行拍摄,得到待识别人体图像。
所述待识别人体图像可以是不同格式的图像,例如jpg格式的图像、PNG格式的图像、TIF格式的图像、BMP格式的图像等。
所述待识别人体图像可以是灰度图像,也可以是彩色图像,例如RGB图像、YUV图像或HSV图像。
检测模块202,用于检测所述待识别人体图像中的人体关键点。
在本实施例中,可以采用OpenPose算法检测所述待识别人体图像中的人体关键点。
Openpose是一种基于深度学习的人体关键点检测算法,使用自下而上(Bottom-Up)方法,使用深度学习模型获取图像中所有人体的人体关键点,再使用非极大值抑制等算法将人体关键点连接起来,获取每个人体的人体关键点。
在其他的实施例中,可以采用其他的算法,例如采用派系过滤算法(CliquePercolation Method,CPM)检测所述待识别人体图像中的人体关键点。
在一具体实施例中,检测所述待识别人体图像中的人体关键点的网络模型可以包括骨干网络、关键点检测子网络、人体区域检测子网络、姿态残差网络。所述骨干网络用于从所述待识别人体图像提取特征。所述骨干网络可以使用带有第一特征金字塔网络(Feature Pyramid Network,FPN)与第二特征金字塔网络的残差网络。第一特征金字塔网络输出特征到所述关键点检测子网络,第二特征金字塔网络输出特征到所述人体区域检测子网络。
所述关键点检测子网络将来自于第一特征金字塔网络的特征作为输入,输出所述待识别人体图像中的所有人体关键点。
所述人体区域检测子网络根据来自于第二特征金字塔网络的特征检测所述待识别人体图像中的人体区域。若所述待识别人体图像包括多个人体,则所述人体区域检测子网络检测得到多个人体区域。
所述姿态残差网络将关键点检测子网络检测得到的每个人体关键点映射到所述人体区域,得到每个人体区域中的人体关键点。所述姿态残差网络就是将每个人体关键点分配到对应的人体区域。所述姿态残差网络可以使用残差多层感知机(residualmultilayer perceptron)来将人体关键点映射到人体区域。
人体关键点可以包括人体上有一定自由度的关节,例如颈(脖子)、肩、肘、腕、膝、踝等。人体关键点还可以包括人体的五官。在本实施例中,所述用户姿态识别方法用于识别用户身体姿态,所述人体关键点可以包括鼻子、左眼、右眼、左耳、右耳、左肩、右肩、脖子、左肘、左肘、左手腕、右手腕、左跨、右跨、左膝盖、右膝盖、左脚踝、右脚踝共18个关键点。
在另一实施例中,所述用户姿态识别方法用于识别用户手势,所述人体关键点为手部关键点,包括每个手指的指尖、指关节(每个手指有3个指关节),以及手腕中点共21个关键点。
计算模块203,用于根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角。
在本实施例中,所述人体不同部位的夹角可以包括左手臂与身体的夹角、右手臂与身体的夹角、左大臂与左小臂的夹角、右大臂与右小臂的夹角、左右大腿的夹角。
可以按照下述方法计算人体不同部位的夹角:
(1)确定构成夹角的两个向量。例如,两个向量为A和B,A=ax+by,B=cx+dy。
(2)计算所述两个向量的数量积(即点积):两个向量A=ax+by与B=cx+dy的数量积AB=a*c+b*d。
(3)计算两个向量的模|A|、|B|,
(4)计算两个向量的夹角余弦cosθ,cosθ=AB/(|A||B|)。
(5)对所述夹角余弦求反余弦,得到所述两个向量的夹角。
识别模块204,用于将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
所述深度神经网络模型预先使用标注有真实的姿态类型的样本集进行训练。样本集中的每个人体样本图像包括人体关键点、人体不同部位的夹角。将每个人体样本图像的人体关键点、人体不同部位的夹角输入所述深度神经网络模型,根据所述深度神经网络模型输出的姿态类型和真实的姿态类型调整所述深度神经网络模型的网络参数,使损失函数最小化。
若所述待识别人体图像中包括多个人体,则本步骤是将每个人体的人体关键点和人体不同部位的夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中每个人体的人体姿态。
在利用所述用户姿态识别方法识别用户身体姿态的实施例中,姿态类型可以包括站立、坐下、举手等。
在利用所述用户姿态识别方法识别用户手势的实施例中,姿态类型(即手势类型)可以包括伸出不同手指形成的手形。例如,姿态类型可以包括1种握拳手形、3种单手指手形(伸大拇指、伸食指、伸小拇指)、2种两手指手形(伸中指与食指、伸大拇指与食指)、2种三手指手形(伸中指与无名指与小拇指、伸大拇指与食指与中指)、1种四手指手形(伸食指与中指与无名指与小拇指)和1种手指全伸出的手形。
实施例二的用户姿态识别装置20获取待识别人体图像;检测所述待识别人体图像中的人体关键点;根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。实施例二将人体不同部位的夹角作为附加特征与人体关键点一同输入深度神经网络模型进行姿态识别,提高了用户姿态识别的准确度。
在另一实施例中,所述用户姿态识别装置20还可以包括:预处理模块,用于在检测待识别人体图像中的人体关键点之前,对待识别人体图像进行预处理。
预处理是对待识别人体图像的大小、方向、颜色等进行转换,获得更多样性的图像,以提高待识别人体图像的识别正确率。
对待识别人体图像进行预处理可以包括对待识别人体图像进行缩放。可以对待识别人体图像进行任意比例的缩放(可以放大也可以缩小)。例如,对待识别人体图像进行0.5倍缩放。又如,对待识别人体图像进行0.75倍缩放。再如,对待识别人体图像进行1.5倍缩放。
对待识别人体图像进行预处理还可以包括对待识别人体图像进行裁剪。可以对待识别人体图像进行随机裁剪。
对待识别人体图像进行预处理还可以包括对待识别人体图像进行平移。可以将待识别人体图像沿水平方向(即x轴)平移。或者,可以将待识别人体图像沿垂直方向(即y轴)平移。或者,可以将待识别人体图像沿水平方向和垂直方向平移。
对待识别人体图像进行预处理还可以包括对待识别人体图像进行旋转和/或翻转。可以对待识别人体图像进行任意角度和方向(顺时针或逆时针)的旋转。例如,将待识别人体图像逆时针旋转90度。又如,将待识别人体图像顺时针旋转180度。再如,将待识别人体图像顺时针旋转270度。可以对待识别人体图像进行水平翻转或垂直翻转。
对待识别人体图像进行预处理还可以包括对待识别人体图像进行颜色转换。例如,将待处理图像由彩色图像转换为灰度图像。又如,将待处理图像由RBG图像转换为YUV图像。
可以理解,可以对待识别人体图像进行一种或多种预处理。例如,对待识别人体图像进行0.75倍缩放得到缩放后的图像,再对缩放后的图像进行裁剪。又如,对待识别人体图像进行颜色转换,从彩色图像转换为灰度图像,再对灰度图像顺时针旋转90度。
在另一实施例中,所述用户姿态识别装置20还可以包括:操作模块,用于根据所述人体姿态进行预设操作。例如,在利用所述用户姿态识别方法识别用户手势的例子中,不同的手势对应不同的操作指令,可以根据识别得到的手势执行对应的操作指令。
实施例三
本实施例提供一种计算机存储介质,该计算机存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述用户姿态识别方法实施例中的步骤,例如图1所示的步骤101-104:
步骤101,获取待识别人体图像;
步骤102,检测所述待识别人体图像中的人体关键点;
步骤103,根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;
步骤104,将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态;
或者,该计算机程序被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-204:
获取模块201,用于获取待识别人体图像;
检测模块202,用于检测所述待识别人体图像中的人体关键点;
计算模块203,用于根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;
识别模块204,用于将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
实施例四
图3为本发明实施例四提供的计算机装置的示意图。所述计算机装置30包括存储器301、处理器302以及存储在所述存储器301中并可在所述处理器302上运行的计算机程序303,例如用户姿态识别程序。所述处理器302执行所述计算机程序303时实现上述用户姿态识别方法实施例中的步骤,例如图1所示的步骤101-104:
步骤101,获取待识别人体图像;
步骤102,检测所述待识别人体图像中的人体关键点;
步骤103,根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;
步骤104,将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
或者,该计算机程序被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-204:
获取模块201,用于获取待识别人体图像;
检测模块202,用于检测所述待识别人体图像中的人体关键点;
计算模块203,用于根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;
识别模块204,用于将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
示例性的,所述计算机程序303可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器301中,并由所述处理器302执行,以完成本方法。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序303在所述计算机装置30中的执行过程。例如,所述计算机程序303可以被分割成图2中的获取模块201、检测模块202、计算模块203、识别模块204,各模块具体功能参见实施例二。
所述计算机装置30可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图3仅仅是计算机装置30的示例,并不构成对计算机装置30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机装置30还可以包括输入输出设备、网络接入设备、总线等。
所称处理器302可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器302也可以是任何常规的处理器等,所述处理器302是所述计算机装置30的控制中心,利用各种接口和线路连接整个计算机装置30的各个部分。
所述存储器301可用于存储所述计算机程序303,所述处理器302通过运行或执行存储在所述存储器301内的计算机程序或模块,以及调用存储在存储器301内的数据,实现所述计算机装置30的各种功能。所述存储器301可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机装置30的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器301可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述计算机装置30集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他模块或步骤,单数不排除复数。系统权利要求中陈述的多个模块或装置也可以由一个模块或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (8)

1.一种用户姿态识别方法,其特征在于,所述方法包括:
获取待识别人体图像;
检测所述待识别人体图像中的人体关键点,包括:使用包括骨干网络、关键点检测子网络、人体区域检测子网络、姿态残差网络的网络模型检测所述待识别人体图像中的人体关键点,包括:所述骨干网络从所述待识别人体图像提取特征,所述骨干网络包括第一特征金字塔网络与第二特征金字塔网络;所述关键点检测子网络将来自于所述第一特征金字塔网络的特征作为输入,输出所述待识别人体图像中的所有人体关键点;所述人体区域检测子网络根据来自于所述第二特征金字塔网络的特征检测所述待识别人体图像中的人体区域,所述待识别人体图像包括多个人体,所述人体区域检测子网络检测得到多个人体区域;所述姿态残差网络将所述所有人体关键点中的每个人体关键点映射到多个所述人体区域,得到每个所述人体区域中的人体关键点;
根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;
将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
2.如权利要求1所述的方法,其特征在于,所述待识别人体图像是二维图像。
3.如权利要求1所述的方法,其特征在于,所述人体不同部位的夹角包括左手臂与身体的夹角、右手臂与身体的夹角、左大臂与左小臂的夹角、右大臂与右小臂的夹角、左右大腿的夹角。
4.如权利要求1-3中任一项所述的方法,其特征在于,所述方法还包括:
对所述待识别人体图像进行预处理。
5.如权利要求1-3中任一项所述的方法,其特征在于,所述方法还包括:
根据所述人体姿态进行预设操作。
6.一种用户姿态识别装置,其特征在于,所述装置包括:
获取模块,用于获取待识别人体图像;
检测模块,用于检测所述待识别人体图像中的人体关键点,包括:使用包括骨干网络、关键点检测子网络、人体区域检测子网络、姿态残差网络的网络模型检测所述待识别人体图像中的人体关键点,包括:所述骨干网络从所述待识别人体图像提取特征,所述骨干网络包括第一特征金字塔网络与第二特征金字塔网络;所述关键点检测子网络将来自于所述第一特征金字塔网络的特征作为输入,输出所述待识别人体图像中的所有人体关键点;所述人体区域检测子网络根据来自于所述第二特征金字塔网络的特征检测所述待识别人体图像中的人体区域,所述待识别人体图像包括多个人体,所述人体区域检测子网络检测得到多个人体区域;所述姿态残差网络将所述所有人体关键点中的每个人体关键点映射到多个所述人体区域,得到每个所述人体区域中的人体关键点;
计算模块,用于根据所述人体关键点计算所述待识别人体图像中人体不同部位的夹角;
识别模块,用于将所述人体关键点和所述夹角输入训练好的深度神经网络模型进行识别,得到所述待识别人体图像中的人体姿态。
7.一种计算机装置,其特征在于:所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序以实现如权利要求1-5中任一项所述用户姿态识别方法。
8.一种计算机存储介质,所述计算机存储介质上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-5中任一项所述用户姿态识别方法。
CN201910441733.1A 2019-05-24 2019-05-24 用户姿态识别方法、装置、计算机装置及计算机存储介质 Active CN110321795B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910441733.1A CN110321795B (zh) 2019-05-24 2019-05-24 用户姿态识别方法、装置、计算机装置及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910441733.1A CN110321795B (zh) 2019-05-24 2019-05-24 用户姿态识别方法、装置、计算机装置及计算机存储介质

Publications (2)

Publication Number Publication Date
CN110321795A CN110321795A (zh) 2019-10-11
CN110321795B true CN110321795B (zh) 2024-02-23

Family

ID=68119085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910441733.1A Active CN110321795B (zh) 2019-05-24 2019-05-24 用户姿态识别方法、装置、计算机装置及计算机存储介质

Country Status (1)

Country Link
CN (1) CN110321795B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021097750A1 (zh) * 2019-11-21 2021-05-27 深圳市欢太科技有限公司 人体姿态的识别方法、装置、存储介质及电子设备
CN110991293A (zh) * 2019-11-26 2020-04-10 爱菲力斯(深圳)科技有限公司 姿态识别方法、装置、计算机设备和存储介质
CN111191599B (zh) * 2019-12-27 2023-05-30 平安国际智慧城市科技股份有限公司 姿态识别方法、装置、设备及存储介质
CN111178280A (zh) * 2019-12-31 2020-05-19 北京儒博科技有限公司 一种人体坐姿识别方法、装置、设备及存储介质
CN111513745B (zh) * 2020-04-21 2021-10-26 南通大学 一种用于高危环境下的智能化无接触ct体位识别装置
CN113971501A (zh) * 2020-07-23 2022-01-25 易程融创信息科技有限公司 一种基于行为分析的绩效考核方法及系统
CN112053505B (zh) * 2020-08-21 2022-07-01 杭州小电科技股份有限公司 移动电源租借方法、装置、系统、电子装置和存储介质
CN112036307A (zh) * 2020-08-31 2020-12-04 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN112163531A (zh) * 2020-09-30 2021-01-01 四川弘和通讯有限公司 一种基于行人手臂角度分析的加油员手势识别的方法
CN112299172A (zh) * 2020-10-31 2021-02-02 成都新潮传媒集团有限公司 手势求救的识别方法、装置及存储介质
CN114492668B (zh) * 2022-02-16 2024-05-14 平安科技(深圳)有限公司 姿态相似度的判断方法、数据处理装置、存储介质
CN115331304A (zh) * 2022-08-05 2022-11-11 盛视科技股份有限公司 一种跑步识别方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113398A (ja) * 2009-11-27 2011-06-09 Secom Co Ltd 姿勢推定装置
CN104360743A (zh) * 2014-11-20 2015-02-18 姚尧 人体姿态数据的获取方法、系统以及数据处理装置
CN108229445A (zh) * 2018-02-09 2018-06-29 深圳市唯特视科技有限公司 一种基于级联金字塔网络的多人姿态估计方法
CN108875523A (zh) * 2017-12-28 2018-11-23 北京旷视科技有限公司 人体关节点检测方法、装置、系统和存储介质
CN108960036A (zh) * 2018-04-27 2018-12-07 北京市商汤科技开发有限公司 三维人体姿态预测方法、装置、介质及设备
CN109117803A (zh) * 2018-08-21 2019-01-01 腾讯科技(深圳)有限公司 人脸图像的聚类方法、装置、服务器及存储介质
CN109299659A (zh) * 2018-08-21 2019-02-01 中国农业大学 一种基于rgb相机和深度学习的人体姿态识别方法与系统
CN109635783A (zh) * 2019-01-02 2019-04-16 上海数迹智能科技有限公司 视频监控方法、装置、终端和介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113398A (ja) * 2009-11-27 2011-06-09 Secom Co Ltd 姿勢推定装置
CN104360743A (zh) * 2014-11-20 2015-02-18 姚尧 人体姿态数据的获取方法、系统以及数据处理装置
CN108875523A (zh) * 2017-12-28 2018-11-23 北京旷视科技有限公司 人体关节点检测方法、装置、系统和存储介质
CN108229445A (zh) * 2018-02-09 2018-06-29 深圳市唯特视科技有限公司 一种基于级联金字塔网络的多人姿态估计方法
CN108960036A (zh) * 2018-04-27 2018-12-07 北京市商汤科技开发有限公司 三维人体姿态预测方法、装置、介质及设备
CN109117803A (zh) * 2018-08-21 2019-01-01 腾讯科技(深圳)有限公司 人脸图像的聚类方法、装置、服务器及存储介质
CN109299659A (zh) * 2018-08-21 2019-02-01 中国农业大学 一种基于rgb相机和深度学习的人体姿态识别方法与系统
CN109635783A (zh) * 2019-01-02 2019-04-16 上海数迹智能科技有限公司 视频监控方法、装置、终端和介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的无人机遥感影像船只检测方法;罗巍;陈曙东;龚立晨;李伟炜;;船舶物资与市场;20190425(第04期);全文 *

Also Published As

Publication number Publication date
CN110321795A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
CN110321795B (zh) 用户姿态识别方法、装置、计算机装置及计算机存储介质
Qi et al. Computer vision-based hand gesture recognition for human-robot interaction: a review
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
Gad et al. Iris recognition using multi-algorithmic approaches for cognitive internet of things (CIoT) framework
Gangrade et al. Vision-based hand gesture recognition for Indian sign language using convolution neural network
CN108595008B (zh) 基于眼动控制的人机交互方法
Pan et al. Real-time sign language recognition in complex background scene based on a hierarchical clustering classification method
JP2018508888A (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
WO2016089529A1 (en) Technologies for learning body part geometry for use in biometric authentication
Miah et al. Rotation, Translation and Scale Invariant Sign Word Recognition Using Deep Learning.
KR20110127270A (ko) 포인트 매칭 알고리즘을 사용한 지문 템플릿 합성 및 지문 모자이킹을 위한 방법
Vretos et al. 3D facial expression recognition using Zernike moments on depth images
CN110163111A (zh) 基于人脸识别的叫号方法、装置、电子设备及存储介质
CN102542242B (zh) 非接触式采集图像的生物特征区域定位方法和装置
CN111091075A (zh) 人脸识别方法、装置、电子设备及存储介质
CN110232318A (zh) 穴位识别方法、装置、电子设备及存储介质
CN112287865B (zh) 一种人体姿态识别的方法及装置
Raees et al. Image based recognition of Pakistan sign language
CN111149104A (zh) 用于生物特征识别的装置、方法和计算机程序产品
Aziz et al. Bengali Sign Language Recognition using dynamic skin calibration and geometric hashing
CN110610131B (zh) 人脸运动单元的检测方法、装置、电子设备及存储介质
Salim et al. A review on hand gesture and sign language techniques for hearing impaired person
Lahiani et al. Real Time Static Hand Gesture Recognition System for Mobile Devices.
CN116543452A (zh) 手势识别、手势交互方法及装置
Adithya et al. An efficient method for hand posture recognition using spatial histogram coding of nct coefficients

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant