CN111347438A - 一种学习式机器人及基于其的学习矫正方法 - Google Patents
一种学习式机器人及基于其的学习矫正方法 Download PDFInfo
- Publication number
- CN111347438A CN111347438A CN202010112173.8A CN202010112173A CN111347438A CN 111347438 A CN111347438 A CN 111347438A CN 202010112173 A CN202010112173 A CN 202010112173A CN 111347438 A CN111347438 A CN 111347438A
- Authority
- CN
- China
- Prior art keywords
- learner
- key points
- learning
- standard
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000009471 action Effects 0.000 claims abstract description 37
- 208000009144 Pure autonomic failure Diseases 0.000 claims description 11
- 239000013312 porous aromatic framework Substances 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 14
- 238000013461 design Methods 0.000 abstract description 4
- 230000003993 interaction Effects 0.000 abstract description 4
- 210000003414 extremity Anatomy 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种学习式机器人及基于其的学习矫正方法,通过屏幕、摄像装置和机械臂的配合,方便学习者通过视频方式直观地进行学习,相比于传统只传弟子的情况,可以适用更多人进行学习,同时基于上位机的统筹控制,能够准确获取学习者的动作姿态并对其不标准的姿势进行实时矫正,大大提高了学习效果;尤其是,所采用的自下而上的人体姿态估计算法,能够依次获取学习者姿势中的人体关键点,并将其与标准技艺视频中的标准关键点进行比较,保证不会出现遗漏矫正的姿势,矫正效果较为全面有效,提高了学习者的学习效果。因此,本发明设计合理,可达到良好的人机交互效果,适用人群较为广泛,提供了稳定可靠的技艺传承模式。
Description
技术领域
本发明涉及机器人控制领域,尤其是一种学习式机器人及基于其的学习矫正方法。
背景技术
随着生活水平的不断提高,非物质文化越来越受到人们所重视,文化传承成为人们所追求的目标,一些传统技艺,比如粤港澳地区的荷塘纱龙文化、蔡李佛拳等这些由民间老艺人靠传帮带传承的文化,只能单方面地向其弟子进行灌输,但实际上,随着民间艺人的老去,文化存在着失传的危险,对于地区人民而言,这是不可估量的损失。
发明内容
为了解决上述问题,本发明的目的是提供一种学习式机器人及基于其的学习矫正方法,可达到人机交互效果,适用人群较为广泛,提供了稳定可靠的技艺传承模式。
为了弥补现有技术的不足,本发明实施例采用的技术方案是:
一种学习式机器人,包括主体,所述主体包括:
屏幕,能够播放标准技艺视频;
摄像装置,能够获取学习者的动作姿态;
机械臂,能够矫正所述学习者的动作姿态;
上位机,与所述机械臂相连接,能够比较所述学习者的动作姿态与所述标准技艺视频的差别,从而控制所述机械臂实现矫正。
基于学习式机器人的学习矫正方法,包括以下步骤:
利用PAFs的自下而上的人体姿态估计算法检测学习者的动作姿态,从而获取所述学习者的动作姿态中的人体关键点;
将所述学习者的动作姿态中的人体关键点与所述标准技艺视频中的标准关键点进行比较,选择出具有差别的标准关键点,控制所述机械臂根据所述标准关键点相应地矫正所述学习者的动作姿态。
本发明实施例中提供的一个或多个技术方案,至少具有如下有益效果:通过屏幕、摄像装置和机械臂的配合,方便学习者通过视频方式直观地进行学习,相比于传统只传弟子的情况,可以适用更多人进行学习,同时基于上位机的统筹控制,能够准确获取学习者的动作姿态并对其不标准的姿势进行实时矫正,大大提高了学习效果;尤其是,所采用的自下而上的人体姿态估计算法,能够依次获取学习者姿势中的人体关键点,并将其与标准技艺视频中的标准关键点进行比较,保证不会出现遗漏矫正的姿势,矫正效果较为全面有效,提高了学习者的学习效果。因此,本发明设计合理,可达到良好的人机交互效果,适用人群较为广泛,提供了稳定可靠的技艺传承模式。
进一步地,利用PAFs的自下而上的人体姿态估计算法检测学习者的动作姿态,从而获取所述学习者的动作姿态中的人体关键点,包括:
分析所述学习者的动作姿态中像素点的骨架整体走向;
匹配计算得到所述学习者的动作姿态中像素点的骨架;
从所述像素点的骨架提取人体关键点。
进一步地,将所述学习者的动作姿态中的人体关键点与所述标准技艺视频中的标准关键点进行比较,选择出具有差别的标准关键点,控制所述机械臂根据所述标准关键点相应地矫正所述学习者的动作姿态,包括:
S1、提取所述标准技艺视频的照片,从所述照片中提取出标准关键点;
S2、逐个判断所述人体关键点与所述标准关键点是否吻合,若是,则转至步骤S3,否则控制所述机械臂根据相应的标准关键点矫正所述学习者的动作姿态;
S3、从上至下判断比对的是否为最后的人体关键点,若是,则转至步骤S4,否则转至步骤S2;
S4、根据所述机械臂的矫正情况得到所述学习者的技艺综合评分。
进一步地,所述机械臂的矫正基于P I D算法进行控制。
进一步地,所述机械臂针对任一人体关键点的矫正时间为T,当所述机械臂的矫正用时超过所述T时,标记并停止矫正该人体关键点,并控制所述机械臂执行对下一人体关键点的矫正。
进一步地,所述T为30-60s。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
下面结合附图给出本发明较佳实施例,以详细说明本发明的实施方案。
图1是本发明实施例的基于学习式机器人的学习矫正方法的步骤示意图;
图2是本发明实施例的基于学习式机器人的学习矫正方法的实施流程示意图。
具体实施方式
本部分将详细描述本发明的具体实施例,本发明之较佳实施例在附图中示出,附图的作用在于用图形补充说明书文字部分的描述,使人能够直观地、形象地理解本发明的每个技术特征和整体技术方案,但其不能理解为对本发明保护范围的限制。
在本发明的描述中,需要理解的是,涉及到方位描述,例如上、下、前、后、左、右等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
本发明的描述中,除非另有明确的限定,设置、安装、连接等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
下面结合附图,对本发明实施例作进一步阐述。
一种学习式机器人,包括主体,所述主体包括:
屏幕,能够播放标准技艺视频;
摄像装置,能够获取学习者的动作姿态;
机械臂,能够矫正所述学习者的动作姿态;
上位机,与所述机械臂相连接,能够比较所述学习者的动作姿态与所述标准技艺视频的差别,从而控制所述机械臂实现矫正。
参照图1,基于学习式机器人的学习矫正方法,包括以下步骤:
S100、利用PAFs的自下而上的人体姿态估计算法检测学习者的动作姿态,从而获取所述学习者的动作姿态中的人体关键点;
S200、将所述学习者的动作姿态中的人体关键点与所述标准技艺视频中的标准关键点进行比较,选择出具有差别的标准关键点,控制所述机械臂根据所述标准关键点相应地矫正所述学习者的动作姿态。
在本实施例中,通过屏幕、摄像装置和机械臂的配合,方便学习者通过视频方式直观地进行学习,相比于传统只传弟子的情况,可以适用更多人进行学习,同时基于上位机的统筹控制,能够准确获取学习者的动作姿态并对其不标准的姿势进行实时矫正,大大提高了学习效果;尤其是,所采用的自下而上的人体姿态估计算法,能够依次获取学习者姿势中的人体关键点,并将其与标准技艺视频中的标准关键点进行比较,保证不会出现遗漏矫正的姿势,矫正效果较为全面有效,提高了学习者的学习效果。因此,本发明设计合理,可达到良好的人机交互效果,适用人群较为广泛,提供了稳定可靠的技艺传承模式。
更进一步地,利用PAFs的自下而上的人体姿态估计算法检测学习者的动作姿态,从而获取所述学习者的动作姿态中的人体关键点,包括:
分析所述学习者的动作姿态中像素点的骨架整体走向;
匹配计算得到所述学习者的动作姿态中像素点的骨架;
从所述像素点的骨架提取人体关键点。
更进一步地,参照图2,将所述学习者的动作姿态中的人体关键点与所述标准技艺视频中的标准关键点进行比较,选择出具有差别的标准关键点,控制所述机械臂根据所述标准关键点相应地矫正所述学习者的动作姿态,包括:
S1、提取所述标准技艺视频的照片,从所述照片中提取出标准关键点;
S2、逐个判断所述人体关键点与所述标准关键点是否吻合,若是,则转至步骤S3,否则控制所述机械臂根据相应的标准关键点矫正所述学习者的动作姿态;
S3、从上至下判断比对的是否为最后的人体关键点,若是,则转至步骤S4,否则转至步骤S2;
S4、根据所述机械臂的矫正情况得到所述学习者的技艺综合评分。
具体地,采用自下而上的算法是因为自上而下算法的运算时间会随着图像中人的个数而显著增加,而自下而上所需计算时间基本不变,对于一些多人的技艺学习者而言,自下而上的计算方法更加合适。
其中,PAFs中用来描述像素点在骨架中的走向,用L(p)表示,人体关键点的响应用S(p)表示。在主体网络结构中,采用VGG pre-trainnetwork作为骨架,其有两个分支分别回归L(p)和S(p)。每一次迭代计算一次loss,之后把L(p)和S(p)代入以及原始输入concatenate函数,则继续下一次迭代的训练。随着迭代次数的增加,S(p)能够一定程度上区分结构的左右,loss用的为L2范数,L(p)和S(p)的校正数据需要从标注的人体关键点中生成,如果某个人体关键点在标注中有缺失则不计算该点。
对于S(p),每一类关键点有一个层值,生成校正数据的时候是按照多个高斯分布取max的方法来保留各个点的响应峰值。
对于L(p),看准确定义,对于第k个person的第c个肢干上的PAFs:
v=(xj2,k-xj1,k/||xj2,k-xj1,k|2
xj,k表示第k个person第j个关键点的位置,而像素点p是否落在limb(肢干)则设了一个阈值范围:
0≤v·(p-xj1,k≤lc,kand|v⊥·(p-xj1,k)|≤σl
其中lc,k和σl分别表示limb长度和宽度,最后对所有person相同类别肢干进行平均,使得L(p)输出的层值与肢干种数相等,即:
那么,在知道PAFs和人体关键点位置之后,则需要评估关键点之间的相关性,计算这两个关键点连线上各像素点PAF向量与连线向量的点积的积分:
p(u)=(1-u)dj1+udj2
在得到关键节点位置(dj1、dj2)以及边权之后,此时计算姿态骨架已经完全转化成了一个图问题。然后,利用匈牙利算法对相邻节点进行了最优匹配(比如一堆左手腕节点和一堆左手肘节点,则利用小臂的PAF计算边权,再进行最优匹配),最后则能够获得整个的人形姿态骨架。
下一步,提取标准技艺视频中的图片,得到标准技艺视频中的教学舞蹈图片,将用PAFs算法得到的骨架所提取的人体关键点与教学舞蹈图片中的标准关键点进行一一比较,同时提取学习者的人脸关键点,与标准技艺视频中的第t帧学习者学习图片以及位于[t-t’,t+t’]帧内的教学技艺图片进行比较,利用表情分析算法得到第t帧学习者学习的节奏合拍分数和姿态标准分数,从而更好地评价学习者的学习情况,其中,t和t’均为整数。
最终,将得到的人体关键点与标准技艺视频中图片的标准关键点比较后得到结果,利用上位机控制机械臂对学习者的姿势与动作进行矫正。
可见,通过上述步骤,能够完成学习者的稳定矫正,同时能够为学习者进行评价打分,使其直观地了解到自身的学习情况,这是有利于自身学习帮助的。
进一步地,所述机械臂的矫正基于PID算法进行控制。在本实施例中,PID算法控制响应速度快,及时性强,对于学习者而言,矫正效果更加突出有效。
进一步地,所述机械臂针对任一人体关键点的矫正时间为T,当所述机械臂的矫正用时超过所述T时,标记并停止矫正该人体关键点,并控制所述机械臂执行对下一人体关键点的矫正。
具体地,一般而言,首先对摄像装置识别的人体关键点与标准技艺视频中的人体标准关键点的不同处分别由上到下进行矫正,首先对头部进行矫正,准确控制机械臂对头部进行适当力度的牵引,若机械臂长时间对某一个人体关键点矫正不成功,则会对下一个关键点进行矫正,同时对未成功矫正的关键点进行标记,这样设计的好处在于:防止矫正资源的浪费,有效地提高了机械臂的矫正效率,并且通过标记的方式,也能够突出可能出现故障或问题的矫正部分,这是具有实际意义的。
进一步地,所述T为30-60s。具体地,这是发明人根据实验得出的结果,能够基本适配于学习者的学习情况。
以上内容对本发明的较佳实施例和基本原理作了详细论述,但本发明并不局限于上述实施方式,熟悉本领域的技术人员应该了解在不违背本发明精神的前提下还会有各种等同变形和替换,这些等同变形和替换都落入要求保护的本发明范围内。
Claims (7)
1.一种学习式机器人,其特征在于,包括主体,所述主体包括:
屏幕,能够播放标准技艺视频;
摄像装置,能够获取学习者的动作姿态;
机械臂,能够矫正所述学习者的动作姿态;
上位机,与所述机械臂相连接,能够比较所述学习者的动作姿态与所述标准技艺视频的差别,从而控制所述机械臂实现矫正。
2.基于权利要求1所述学习式机器人的学习矫正方法,其特征在于,包括以下步骤:
利用PAFs的自下而上的人体姿态估计算法检测学习者的动作姿态,从而获取所述学习者的动作姿态中的人体关键点;
将所述学习者的动作姿态中的人体关键点与所述标准技艺视频中的标准关键点进行比较,选择出具有差别的标准关键点,控制所述机械臂根据所述标准关键点相应地矫正所述学习者的动作姿态。
3.根据权利要求2所述的基于学习式机器人的学习矫正方法,其特征在于,利用PAFs的自下而上的人体姿态估计算法检测学习者的动作姿态,从而获取所述学习者的动作姿态中的人体关键点,包括:
分析所述学习者的动作姿态中像素点的骨架整体走向;
匹配计算得到所述学习者的动作姿态中像素点的骨架;
从所述像素点的骨架提取人体关键点。
4.根据权利要求2所述的基于学习式机器人的学习矫正方法,其特征在于,将所述学习者的动作姿态中的人体关键点与所述标准技艺视频中的标准关键点进行比较,选择出具有差别的标准关键点,控制所述机械臂根据所述标准关键点相应地矫正所述学习者的动作姿态,包括:
S1、提取所述标准技艺视频的照片,从所述照片中提取出标准关键点;
S2、逐个判断所述人体关键点与所述标准关键点是否吻合,若是,则转至步骤S3,否则控制所述机械臂根据相应的标准关键点矫正所述学习者的动作姿态;
S3、从上至下判断比对的是否为最后的人体关键点,若是,则转至步骤S4,否则转至步骤S2;
S4、根据所述机械臂的矫正情况得到所述学习者的技艺综合评分。
5.根据权利要求2或4所述的基于学习式机器人的学习矫正方法,其特征在于:所述机械臂的矫正基于PID算法进行控制。
6.根据权利要求2或4所述的基于学习式机器人的学习矫正方法,其特征在于:所述机械臂针对任一人体关键点的矫正时间为T,当所述机械臂的矫正用时超过所述T时,标记并停止矫正该人体关键点,并控制所述机械臂执行对下一人体关键点的矫正。
7.根据权利要求6所述的基于学习式机器人的学习矫正方法,其特征在于:所述T为30-60s。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010112173.8A CN111347438A (zh) | 2020-02-24 | 2020-02-24 | 一种学习式机器人及基于其的学习矫正方法 |
PCT/CN2020/112553 WO2021169223A1 (zh) | 2020-02-24 | 2020-08-31 | 一种学习式机器人及基于其的学习矫正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010112173.8A CN111347438A (zh) | 2020-02-24 | 2020-02-24 | 一种学习式机器人及基于其的学习矫正方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111347438A true CN111347438A (zh) | 2020-06-30 |
Family
ID=71194070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010112173.8A Pending CN111347438A (zh) | 2020-02-24 | 2020-02-24 | 一种学习式机器人及基于其的学习矫正方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111347438A (zh) |
WO (1) | WO2021169223A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949587A (zh) * | 2021-03-31 | 2021-06-11 | 上海电机学院 | 基于关键点的手部握姿矫正方法、系统及计算机可读介质 |
CN113197572A (zh) * | 2021-05-08 | 2021-08-03 | 解辉 | 一种基于视觉的人体工作矫正系统 |
WO2021169223A1 (zh) * | 2020-02-24 | 2021-09-02 | 五邑大学 | 一种学习式机器人及基于其的学习矫正方法 |
CN114470719A (zh) * | 2022-03-22 | 2022-05-13 | 北京蓝田医疗设备有限公司 | 一种全自动姿态矫正训练方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103753570A (zh) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 舞蹈教学服务机器人 |
CN108256433A (zh) * | 2017-12-22 | 2018-07-06 | 银河水滴科技(北京)有限公司 | 一种运动姿态评估方法及系统 |
CN207745494U (zh) * | 2018-01-09 | 2018-08-21 | 莫季平 | 一种用于击剑训练的机器人 |
CN108789414A (zh) * | 2018-07-17 | 2018-11-13 | 五邑大学 | 基于三维机器视觉的智能机械臂系统及其控制方法 |
CN109522793A (zh) * | 2018-10-10 | 2019-03-26 | 华南理工大学 | 基于机器视觉的多人异常行为检测与识别方法 |
US20190248017A1 (en) * | 2011-07-25 | 2019-08-15 | Sony Corporation | Robot device, method of controlling the same, computer program, and robot system |
CN110427834A (zh) * | 2019-07-10 | 2019-11-08 | 上海工程技术大学 | 一种基于骨架数据的行为识别系统及方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4247041B2 (ja) * | 2003-04-01 | 2009-04-02 | 本田技研工業株式会社 | 顔識別システム |
CN104200491A (zh) * | 2014-08-15 | 2014-12-10 | 浙江省新华医院 | 一种人体运动姿态校正系统 |
CN109432753B (zh) * | 2018-09-26 | 2020-12-29 | Oppo广东移动通信有限公司 | 动作矫正方法、装置、存储介质及电子设备 |
CN110796077A (zh) * | 2019-10-29 | 2020-02-14 | 湖北民族大学 | 姿态动作实时检测校正方法 |
CN111347438A (zh) * | 2020-02-24 | 2020-06-30 | 五邑大学 | 一种学习式机器人及基于其的学习矫正方法 |
-
2020
- 2020-02-24 CN CN202010112173.8A patent/CN111347438A/zh active Pending
- 2020-08-31 WO PCT/CN2020/112553 patent/WO2021169223A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190248017A1 (en) * | 2011-07-25 | 2019-08-15 | Sony Corporation | Robot device, method of controlling the same, computer program, and robot system |
CN103753570A (zh) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 舞蹈教学服务机器人 |
CN108256433A (zh) * | 2017-12-22 | 2018-07-06 | 银河水滴科技(北京)有限公司 | 一种运动姿态评估方法及系统 |
CN207745494U (zh) * | 2018-01-09 | 2018-08-21 | 莫季平 | 一种用于击剑训练的机器人 |
CN108789414A (zh) * | 2018-07-17 | 2018-11-13 | 五邑大学 | 基于三维机器视觉的智能机械臂系统及其控制方法 |
CN109522793A (zh) * | 2018-10-10 | 2019-03-26 | 华南理工大学 | 基于机器视觉的多人异常行为检测与识别方法 |
CN110427834A (zh) * | 2019-07-10 | 2019-11-08 | 上海工程技术大学 | 一种基于骨架数据的行为识别系统及方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021169223A1 (zh) * | 2020-02-24 | 2021-09-02 | 五邑大学 | 一种学习式机器人及基于其的学习矫正方法 |
CN112949587A (zh) * | 2021-03-31 | 2021-06-11 | 上海电机学院 | 基于关键点的手部握姿矫正方法、系统及计算机可读介质 |
CN113197572A (zh) * | 2021-05-08 | 2021-08-03 | 解辉 | 一种基于视觉的人体工作矫正系统 |
CN114470719A (zh) * | 2022-03-22 | 2022-05-13 | 北京蓝田医疗设备有限公司 | 一种全自动姿态矫正训练方法及系统 |
CN114470719B (zh) * | 2022-03-22 | 2022-12-20 | 北京蓝田医疗设备有限公司 | 一种全自动姿态矫正训练方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2021169223A1 (zh) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111347438A (zh) | 一种学习式机器人及基于其的学习矫正方法 | |
CN110021051B (zh) | 一种基于生成对抗网络通过文本指导的人物图像生成方法 | |
Lv et al. | A deep regression architecture with two-stage re-initialization for high performance facial landmark detection | |
CN109325398B (zh) | 一种基于迁移学习的人脸属性分析方法 | |
CN110852347B (zh) | 采用改进YOLO v3的火灾检测方法 | |
CN101393599B (zh) | 一种基于人脸表情的游戏角色控制方法 | |
WO2017133009A1 (zh) | 一种基于卷积神经网络的深度图像人体关节定位方法 | |
US8311954B2 (en) | Recovery of 3D human pose by jointly learning metrics and mixtures of experts | |
CN109753891A (zh) | 基于人体关键点检测的足球运动员姿势校准方法及系统 | |
Tang et al. | Facial landmark detection by semi-supervised deep learning | |
CN105069413A (zh) | 一种基于深度卷积神经网络的人体姿势识别方法 | |
WO2019114726A1 (zh) | 图像识别方法、装置、电子设备以及可读存储介质 | |
CN112926475B (zh) | 一种人体三维关键点提取方法 | |
CN111460976B (zh) | 一种数据驱动的基于rgb视频的实时手部动作评估方法 | |
CN106980365A (zh) | 基于深度卷积神经网络框架的第一视角动态手势识别方法 | |
CN112163479B (zh) | 动作检测方法、装置、计算机设备和计算机可读存储介质 | |
CN112749684A (zh) | 心肺复苏术训练和评估的方法及装置、设备、存储介质 | |
WO2022127494A1 (zh) | 位姿识别模型训练方法、装置、位姿识别方法和终端设备 | |
CN109241881A (zh) | 一种人体姿态估计方法 | |
CN114170672A (zh) | 一种基于计算机视觉的课堂学生行为识别的方法 | |
CN112446313A (zh) | 一种基于改进动态时间规整算法的排球动作识别方法 | |
CN114445853A (zh) | 一种视觉手势识别系统识别方法 | |
CN106022211B (zh) | 一种利用手势控制多媒体设备的方法 | |
CN116524586A (zh) | 基于cnn与gcn姿态估计与相似度匹配的舞蹈评分算法 | |
CN111898566A (zh) | 姿态估计方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200630 |