CN111667510A - 一种基于深度学习和姿态估计的攀岩动作评价系统 - Google Patents

一种基于深度学习和姿态估计的攀岩动作评价系统 Download PDF

Info

Publication number
CN111667510A
CN111667510A CN202010553038.7A CN202010553038A CN111667510A CN 111667510 A CN111667510 A CN 111667510A CN 202010553038 A CN202010553038 A CN 202010553038A CN 111667510 A CN111667510 A CN 111667510A
Authority
CN
China
Prior art keywords
layer
neural network
rock
target
rock climbing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010553038.7A
Other languages
English (en)
Inventor
张宜添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Zhonghuan Internet Information Technology Co ltd
Original Assignee
Changzhou Zhonghuan Internet Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Zhonghuan Internet Information Technology Co ltd filed Critical Changzhou Zhonghuan Internet Information Technology Co ltd
Priority to CN202010553038.7A priority Critical patent/CN111667510A/zh
Publication of CN111667510A publication Critical patent/CN111667510A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习和姿态估计的攀岩动作评价系统,涉及计算机处理技术领域;包括数据采集模块、目标追踪模块、AlphaPose和神经网络算法,其评价步骤为:通过数据采集模块采集攀岩者的图片,并将其输入目标追踪模块;目标追踪模块利用YOLO进行目标在图像中进行追踪;追踪到的目标信息会经过AlphaPose的处理从而形成人体骨架图以及人体关节的坐标数据;采用神经网络算法,输入骨架坐标数据进行训练,从而得出正确的评判。本发明通过AlphaPose和神经网络算法,可对攀岩者的攀岩姿势进行教学、矫正等,避免攀岩者因攀岩姿势错误而导致攀岩事故的发生,可提高了攀岩者攀岩的安全性。

Description

一种基于深度学习和姿态估计的攀岩动作评价系统
技术领域
本发明涉及计算机处理技术领域,尤其涉及一种基于深度学习和姿态估计的攀岩动作评价系统。
背景技术
攀岩在生活中正在变得越来越普遍,更多的人开始接触并爱上这项运动,对于那些刚刚开始这项运动的人来说,如何开始这项运动并进步会成为最大的问题。因为攀岩存在着一定的危险系数,特别是当人们在室外的无防护山壁上进行徒手攀岩时(平均死亡率高达50%),所以正确且省力的动作技巧必不可少。
攀岩动作评价系统可以帮助攀岩运动者(特别是新手)了解正确的攀岩动作并且针对他们的动作进行矫正与改进,从而避免在这项运动中因动作的失误而受伤甚至死亡,例如:2014年8月,36岁的BradParker尝试无辅助、无保护、单人徒手攀爬位于美国加州的YosemiteNationalPark(优胜美地国家公园)的MatthesCrestTraverse,失误跌落,导致死亡,2011年9月13日,27岁的AkihiraTAWAra尝试无辅助、无保护、单人徒手攀爬位于加拿大的JohnLaurie山,失误跌落,导致死亡,类似的例子在全球还有很多,攀岩这项运动从古至今都是在死亡的边缘徘徊,所以一个能改进动作技巧的训练是很有必要的。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的一种基于深度学习和姿态估计的攀岩动作评价系统。
为了实现上述目的,本发明采用了如下技术方案:
一种基于深度学习和姿态估计的攀岩动作评价系统,包括数据采集模块、目标追踪模块、AlphaPose和神经网络算法,其评价步骤为:
S1:通过数据采集模块采集攀岩者的图片,并将其输入目标追踪模块;
S2:目标追踪模块利用YOLO进行目标(攀岩者)在图像中进行追踪;
S3:追踪到的目标信息会经过AlphaPose的处理从而形成人体骨架图以及人体关节的坐标数据;
S4:采用神经网络算法,输入骨架坐标数据进行训练,从而得出正确的评判。
优选地:所述数据采集模块为摄像头。
优选地:所述S2中,YOLO采用卷积神经网络为主体,目标追踪的方法为:
A1:YOLO首先将图像分为S×S的格子,如果一个目标的中心落入格子,该格子就负责检测该目标,每一个网格中预测B个Boundingbox和置信值,这些置信度分数反映了该模型对盒子是否包含目标的信心,以及它预测盒子的准确程度,然后,我们定义置信值为:
Figure BDA0002543276050000031
A2:如果没有目标,置信值为零,每一个boundingbox包含5个值:x,y,w,h和confidence。(x,y)坐标表示边界框相对于网格单元边界框的中心,宽度和高度是相对于整张图像预测的,confidence表示预测的box与实际边界框之间的IOU,每个网格单元还预测C个条件类别概率:PR(Classi丨Object)。
A3:这些概率是以网格包含目标为条件的,每个网格单元我们只预测的一组类别概率,而不管边界框的的数量B是多少。
优选地:所述S2中,卷积神经网络包括输入层、隐含层和输出层。
优选地:所述S2中,输入层用于处理多维数据,数据采集模块将像素输入时,将分布于[0,255]的原始像素值归一化至[0,1]区间。
优选地:所述S2中,隐含层包括卷积层、池化层和全连接层,其顺序依次为输入-卷积层-池化层-全连接层-输出。
优选地:所述S2中,输出层使用逻辑函数或归一化指数函数输出分类标签,输出层直接输出每个像素的分类结果。
优选地:所述S3中,AlphaPose是一个实时多人姿态估计系统,其支持支持Linux与Windows系统使用,并且支撑图片、视频、摄像头输入,实时在线计算出多人的姿态结果。
优选地:所述S3中,神经网络算法包括前向传播和反向传播,其中前向传播本质上是线性变换与非线性变换的交替复合,其采用RelU函数作为激活函数,其数学表示为:
Figure BDA0002543276050000041
其矩阵表示为:∫(X)=ReLU(WTX+b),将人体关节坐标数据的W和b输入上述式中,即可得到正确的评判。
优选地:所述S3中,神经网络算法中后向传播过程则是对网络参数,也就是前向船舶中的W和b的纠正过程,选择交叉熵作为误差函数,其指标为:
Figure BDA0002543276050000042
其中M为类别数量,yc是指标变量,Pc是对于观测样本属于类别公式的预测概率,对于二次分类表达式为:L=-[y·log(P)+(1-y)·log(1-P)],对于反向传播,每个参数的误差为:
Figure BDA0002543276050000043
C为任一误差函数,则计算最后一层神经网络产生的误差与此之前的每一层的误差为:
Figure BDA0002543276050000044
随后利用此误差公式进行数据修正。
本发明的有益效果为:
1.本发明,先利用摄像头采集攀岩者的攀岩姿态,随后利用AlphaPose分别计算人体骨架图和关节坐标数据,随后利用神经网络算法中的前项传播,将AlphaPose计算的关节坐标数据进行输入计算,得到正确的评价,可对攀岩者的攀岩姿势进行教学、矫正等,避免攀岩者因攀岩姿势错误而导致攀岩事故的发生,可提高了攀岩者攀岩的安全性。
2.本发明,在神经网络算法中加入了反向传播,而反向传播可计算出最后一层神经网络缠身给的误差与之前的每一层的误差,随后可利用误差进行数据修正,极大程度的保证了攀岩者姿势评价的准确性。
附图说明
图1为本发明提出的一种基于深度学习和姿态估计的攀岩动作评价系统中的流程示意图;
图2为本发明提出的一种基于深度学习和姿态估计的攀岩动作评价系统中的YOLO网络整体框架示意图;
图3为本发明提出的一种基于深度学习和姿态估计的攀岩动作评价系统中的目标追踪流程示意图;
具体实施方式
下面结合具体实施方式对本专利的技术方案作进一步详细地说明。
在本专利的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“设置”应做广义理解,例如,可以是固定相连、设置,也可以是可拆卸连接、设置,或一体地连接、设置。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本专利中的具体含义。
实施例1:
一种基于深度学习和姿态估计的攀岩动作评价系统,包括数据采集模块、目标追踪模块、AlphaPose和神经网络算法,其评价步骤为:
S1:通过数据采集模块采集攀岩者的图片,并将其输入目标追踪模块;
S2:目标追踪模块利用YOLO进行目标(攀岩者)在图像中进行追踪;
S3:追踪到的目标信息会经过AlphaPose的处理从而形成人体骨架图以及人体关节的坐标数据;
S4:采用神经网络算法,输入骨架坐标数据进行训练,从而得出正确的评判。
所述数据采集模块为摄像头。
所述S2中,YOLO采用卷积神经网络为主体,目标追踪的方法为:
A1:YOLO首先将图像分为S×S的格子,如果一个目标的中心落入格子,该格子就负责检测该目标,每一个网格中预测B个Boundingbox和置信值,这些置信度分数反映了该模型对盒子是否包含目标的信心,以及它预测盒子的准确程度,然后,我们定义置信值为:
Figure BDA0002543276050000061
A2:如果没有目标,置信值为零,每一个boundingbox包含5个值:x,y,w,h和confidence。(x,y)坐标表示边界框相对于网格单元边界框的中心,宽度和高度是相对于整张图像预测的,confidence表示预测的box与实际边界框之间的IOU,每个网格单元还预测C个条件类别概率:PR(Classi丨Object)。
A3:这些概率是以网格包含目标为条件的,每个网格单元我们只预测的一组类别概率,而不管边界框的的数量B是多少。
所述S2中,卷积神经网络包括输入层、隐含层和输出层。
所述S2中,输入层用于处理多维数据,数据采集模块将像素输入时,将分布于[0,255]的原始像素值归一化至[0,1]区间。
所述S2中,隐含层包括卷积层、池化层和全连接层,其顺序依次为输入-卷积层-池化层-全连接层-输出。
所述S2中,输出层使用逻辑函数或归一化指数函数输出分类标签,输出层直接输出每个像素的分类结果。
所述S3中,AlphaPose是一个实时多人姿态估计系统,其支持支持Linux与Windows系统使用,并且支撑图片、视频、摄像头输入,实时在线计算出多人的姿态结果。
所述S3中,神经网络算法包括前向传播,前向传播本质上是线性变换与非线性变换的交替复合,其采用RelU函数作为激活函数,其数学表示为:
Figure BDA0002543276050000071
其矩阵表示为:∫(X)=ReLU(WTX+b),将人体关节坐标数据的W和b输入上述式中,即可得到正确的评判。
本实施例中,先利用摄像头采集攀岩者的攀岩姿态,随后利用AlphaPose分别计算人体骨架图和关节坐标数据,随后利用神经网络算法中的前项传播,将AlphaPose计算的关节坐标数据进行输入计算,得到正确的评价,可对攀岩者的进行攀岩姿势的教学、矫正等,避免攀岩者因攀岩姿势错误而导致攀岩事故的发生,可提高了攀岩者攀岩的安全性。
实施例2:
一种基于深度学习和姿态估计的攀岩动作评价系统,包括数据采集模块、目标追踪模块、AlphaPose和神经网络算法,其评价步骤为:
S1:通过数据采集模块采集攀岩者的图片,并将其输入目标追踪模块;
S2:目标追踪模块利用YOLO进行目标(攀岩者)在图像中进行追踪;
S3:追踪到的目标信息会经过AlphaPose的处理从而形成人体骨架图以及人体关节的坐标数据;
S4:采用神经网络算法,输入骨架坐标数据进行训练,从而得出正确的评判。
所述数据采集模块为摄像头。
所述S2中,YOLO采用卷积神经网络为主体,目标追踪的方法为:
A1:YOLO首先将图像分为S×S的格子,如果一个目标的中心落入格子,该格子就负责检测该目标,每一个网格中预测B个Boundingbox和置信值,这些置信度分数反映了该模型对盒子是否包含目标的信心,以及它预测盒子的准确程度,然后,我们定义置信值为:
Figure BDA0002543276050000091
A2:如果没有目标,置信值为零,每一个boundingbox包含5个值:x,y,w,h和confidence。(x,y)坐标表示边界框相对于网格单元边界框的中心,宽度和高度是相对于整张图像预测的,confidence表示预测的box与实际边界框之间的IOU,每个网格单元还预测C个条件类别概率:PR(Classi丨Object)。
A3:这些概率是以网格包含目标为条件的,每个网格单元我们只预测的一组类别概率,而不管边界框的的数量B是多少。
所述S2中,卷积神经网络包括输入层、隐含层和输出层。
所述S2中,输入层用于处理多维数据,数据采集模块将像素输入时,将分布于[0,255]的原始像素值归一化至[0,1]区间。
所述S2中,隐含层包括卷积层、池化层和全连接层,其顺序依次为输入-卷积层-池化层-全连接层-输出。
所述S2中,输出层使用逻辑函数或归一化指数函数输出分类标签,输出层直接输出每个像素的分类结果。
所述S3中,AlphaPose是一个实时多人姿态估计系统,其支持支持Linux与Windows系统使用,并且支撑图片、视频、摄像头输入,实时在线计算出多人的姿态结果。
所述S3中,神经网络算法包括前向传播和反向传播,其中前向传播本质上是线性变换与非线性变换的交替复合,其采用RelU函数作为激活函数,其数学表示为:
Figure BDA0002543276050000101
其矩阵表示为:∫(X)=ReLU(WTX+b),将人体关节坐标数据的W和b输入上述式中,即可得到正确的评判。
所述S3中,神经网络算法中后向传播过程则是对网络参数,也就是前向船舶中的W和b的纠正过程,选择交叉熵作为误差函数,其指标为:
Figure BDA0002543276050000102
其中M为类别数量,yc是指标变量,Pc是对于观测样本属于类别公式的预测概率,对于二次分类表达式为:L=-[y·log(P)+(1-y)·log(1-P)],对于反向传播,每个参数的误差为:
Figure BDA0002543276050000103
C为任一误差函数,则计算最后一层神经网络产生的误差与此之前的每一层的误差为:
Figure BDA0002543276050000104
随后利用此误差公式进行数据修正。
本实施例中,在实施例1的基础上,在神经网络算法中加入了反向传播,而反向传播可计算出最后一层神经网络缠身给的误差与之前的每一层的误差,随后可利用误差进行数据修正,极大程度的保证了攀岩者姿势评价的准确性。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,包括数据采集模块、目标追踪模块、AlphaPose和神经网络算法,其评价步骤为:
S1:通过数据采集模块采集攀岩者的图片,并将其输入目标追踪模块;
S2:目标追踪模块利用YOLO进行目标(攀岩者)在图像中进行追踪;
S3:追踪到的目标信息会经过AlphaPose的处理从而形成人体骨架图以及人体关节的坐标数据;
S4:采用神经网络算法,输入骨架坐标数据进行训练,从而得出正确的评判。
2.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述数据采集模块为摄像头。
3.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述S2中,YOLO采用卷积神经网络为主体,目标追踪的方法为:
A1:YOLO首先将图像分为S×S的格子,如果一个目标的中心落入格子,该格子就负责检测该目标,每一个网格中预测B个Boundingbox和置信值,这些置信度分数反映了该模型对盒子是否包含目标的信心,以及它预测盒子的准确程度,然后,我们定义置信值为:
Figure FDA0002543276040000021
A2:如果没有目标,置信值为零,每一个boundingbox包含5个值:x,y,w,h和confidence。(x,y)坐标表示边界框相对于网格单元边界框的中心,宽度和高度是相对于整张图像预测的,confidence表示预测的box与实际边界框之间的IOU,每个网格单元还预测C个条件类别概率:PR(Classi丨Object)。
A3:这些概率是以网格包含目标为条件的,每个网格单元我们只预测的一组类别概率,而不管边界框的的数量B是多少。
4.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述S2中,卷积神经网络包括输入层、隐含层和输出层。
5.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述S2中,输入层用于处理多维数据,数据采集模块将像素输入时,将分布于[0,255]的原始像素值归一化至[0,1]区间。
6.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述S2中,隐含层包括卷积层、池化层和全连接层,其顺序依次为输入-卷积层-池化层-全连接层-输出。
7.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述S2中,输出层使用逻辑函数或归一化指数函数输出分类标签,输出层直接输出每个像素的分类结果。
8.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述S3中,AlphaPose是一个实时多人姿态估计系统,其支持支持Linux与Windows系统使用,并且支撑图片、视频、摄像头输入,实时在线计算出多人的姿态结果。
9.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述S3中,神经网络算法包括前向传播和反向传播,其中前向传播本质上是线性变换与非线性变换的交替复合,其采用RelU函数作为激活函数,其数学表示为:
Figure FDA0002543276040000031
其矩阵表示为:∫(X)=ReLU(WTX+b),将人体关节坐标数据的W和b输入上述式中,即可得到正确的评判。
10.根据权利要求1所述的一种基于深度学习和姿态估计的攀岩动作评价系统,其特征在于,所述S3中,神经网络算法中后向传播过程则是对网络参数,也就是前向船舶中的W和b的纠正过程,选择交叉熵作为误差函数,其指标为:
Figure FDA0002543276040000032
其中M为类别数量,yc是指标变量,Pc是对于观测样本属于类别公式的预测概率,对于二次分类表达式为:L=-[y·log(P)+(1-y)·log(1-P)],对于反向传播,每个参数的误差为:
Figure FDA0002543276040000033
C为任一误差函数,则计算最后一层神经网络产生的误差与此之前的每一层的误差为:
Figure FDA0002543276040000034
随后利用此误差公式进行数据修正。
CN202010553038.7A 2020-06-17 2020-06-17 一种基于深度学习和姿态估计的攀岩动作评价系统 Pending CN111667510A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010553038.7A CN111667510A (zh) 2020-06-17 2020-06-17 一种基于深度学习和姿态估计的攀岩动作评价系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010553038.7A CN111667510A (zh) 2020-06-17 2020-06-17 一种基于深度学习和姿态估计的攀岩动作评价系统

Publications (1)

Publication Number Publication Date
CN111667510A true CN111667510A (zh) 2020-09-15

Family

ID=72387790

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010553038.7A Pending CN111667510A (zh) 2020-06-17 2020-06-17 一种基于深度学习和姿态估计的攀岩动作评价系统

Country Status (1)

Country Link
CN (1) CN111667510A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052097A (zh) * 2021-03-31 2021-06-29 开放智能机器(上海)有限公司 一种人体坐姿实时监测系统以及监测方法
CN113516005A (zh) * 2021-03-30 2021-10-19 杭州电子科技大学 一种基于深度学习和姿态估计的舞蹈动作评价系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN109101966A (zh) * 2018-06-08 2018-12-28 中国科学院宁波材料技术与工程研究所 基于深度学习的工件识别定位和姿态估计系统和方法
CN111144263A (zh) * 2019-12-20 2020-05-12 山东大学 一种建筑工人高坠事故预警方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133009A1 (zh) * 2016-02-04 2017-08-10 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN109101966A (zh) * 2018-06-08 2018-12-28 中国科学院宁波材料技术与工程研究所 基于深度学习的工件识别定位和姿态估计系统和方法
CN111144263A (zh) * 2019-12-20 2020-05-12 山东大学 一种建筑工人高坠事故预警方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOSEPH REDMON等: "You Only Look Once:Unified, Real-Time Object Detection", 《CVPR》 *
刘至家: "神经网络规模自适应技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
孙宝聪: "基于图像检测的机场人员异常行为分析技术研究", 《数字通信世界》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516005A (zh) * 2021-03-30 2021-10-19 杭州电子科技大学 一种基于深度学习和姿态估计的舞蹈动作评价系统
CN113516005B (zh) * 2021-03-30 2024-02-09 杭州电子科技大学 一种基于深度学习和姿态估计的舞蹈动作评价系统
CN113052097A (zh) * 2021-03-31 2021-06-29 开放智能机器(上海)有限公司 一种人体坐姿实时监测系统以及监测方法

Similar Documents

Publication Publication Date Title
CN107392097B (zh) 一种单目彩色视频的三维人体关节点定位方法
CN107492121B (zh) 一种单目深度视频的二维人体骨骼点定位方法
Park et al. A depth camera-based human activity recognition via deep learning recurrent neural network for health and social care services
CN108647663B (zh) 基于深度学习和多层次图结构模型的人体姿态估计方法
US11138416B2 (en) Method and apparatus for recognizing an organism action, server, and storage medium
CN110605724A (zh) 一种智能养老陪伴机器人
CN107229920B (zh) 基于整合深度典型时间规整及相关修正的行为识别方法
CN111199207B (zh) 基于深度残差神经网络的二维多人体姿态估计方法
CN111667510A (zh) 一种基于深度学习和姿态估计的攀岩动作评价系统
CN116012950B (zh) 一种基于多重心时空注意图卷积网络的骨架动作识别方法
CN108875586B (zh) 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法
CN106548194B (zh) 二维图像人体关节点定位模型的构建方法及定位方法
CN110555975A (zh) 一种防溺水的监控方法及系统
Iosifidis et al. Neural representation and learning for multi-view human action recognition
CN112381045A (zh) 一种面向物联网移动端设备的轻量级人体姿态识别方法
CN110956141A (zh) 一种基于局部识别的人体连续动作快速分析方法
CN102156994B (zh) 一种单视角无标记人体运动跟踪的关节定位方法
CN114724251A (zh) 一种在红外视频下基于骨架序列的老人行为识别方法
Agarwal et al. FitMe: a fitness application for accurate pose estimation using deep learning
CN113139432A (zh) 基于人体骨架和局部图像的工业包装行为识别方法
CN113408435B (zh) 一种安全监控方法、装置、设备和存储介质
CN116453058A (zh) 基于深度学习和数字分身的居家老人行为监测方法及系统
Hernandez-Mendez et al. Detecting falling people by autonomous service robots: A ROS module integration approach
CN115188074A (zh) 一种互动式体育训练测评方法、装置、系统及计算机设备
CN111242982A (zh) 一种基于渐进卡尔曼滤波的人体目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200915

RJ01 Rejection of invention patent application after publication