CN114393575A - 基于用户姿势高效能识别的机器人控制方法和系统 - Google Patents
基于用户姿势高效能识别的机器人控制方法和系统 Download PDFInfo
- Publication number
- CN114393575A CN114393575A CN202111556629.0A CN202111556629A CN114393575A CN 114393575 A CN114393575 A CN 114393575A CN 202111556629 A CN202111556629 A CN 202111556629A CN 114393575 A CN114393575 A CN 114393575A
- Authority
- CN
- China
- Prior art keywords
- body posture
- posture
- instruction
- dimensional space
- key node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 230000002159 abnormal effect Effects 0.000 claims abstract description 63
- 230000007704 transition Effects 0.000 claims description 105
- 238000005070 sampling Methods 0.000 claims description 103
- 230000011218 segmentation Effects 0.000 claims description 67
- 239000013598 vector Substances 0.000 claims description 56
- 239000011159 matrix material Substances 0.000 claims description 41
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000000638 solvent extraction Methods 0.000 claims description 2
- 230000036544 posture Effects 0.000 abstract description 368
- 239000000284 extract Substances 0.000 abstract description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于用户姿势高效能识别的机器人控制方法和系统,该方法针对机器人捕获的连续、平滑的身体姿态数据提取身体姿态关键节点,将身体姿态的帧序列划分为三维空间网格,确定身体姿态关键节点所分布的三维空间网格,保证了对身体姿态关键部位所处空间的准确性,并对帧序列进行动态分段,实现了对身体姿态数据的聚类,并基于身体姿态分段,利用第一预设比例与常态模板对身体姿态分段是否处于常态进行判断,将非常态的身体姿态分段进一步地基于第二预设比例与指令模板进行比较判断,保证了对非常态身体姿态的有效识别与非常态身体姿态的完整性,并准确提取非常态的身体姿态向机器人下达相应指令,提高了对用户姿态识别的准确度。
Description
技术领域
本发明涉及机器人控制技术领域,具体是基于用户姿势高效能识别的机器人控制方法和系统。
背景技术
机器人利用摄像头或者雷达点云数据,在一定距离以外,捕获用户的身体姿态数据用户通过特定的身体姿态,向机器人下达指令,从而控制机器人执行特定行进动作和功能。这种控制方式相比传统的通过机器人的触摸屏、按钮、手机、遥控器等方式控制机器人,或者通过语音来控制机器人来说,不必用户打断正在进行的事情专门前往机器人处操控,因此更为自然快捷;受周围环境干扰(例如噪声干扰)小;对指令识别误判概率低;能够支持的指令类型和数量更为多样;用户不必携带和依赖手机、遥控器等特定的设备。
但是,存在的问题在于:用户一般是从自然状态或者其他活动下的身体姿态过渡到下达指令的特定身体姿态,然后再过渡回到自然状态或者其他活动下的身体姿态;这期间的过渡是连续和平滑的,而且自然状态或者其他活动状态是常态性的,面向机器人下达指令是偶发性的。如何有效地将下达指令的特定身体姿态,从一系列连续、平滑的身体姿态数据的帧序列(机器人的摄像头或者雷达在每个采样时间点捕获的身体姿态数据作为一个数据帧,依照采样时间点时序排列,形成身体姿态数据的帧序列)中提取出来,然后发给模式识别过程,将特定身体姿态转化为对机器人的指令,这是本项技术的一个难点;如果把自然状态或者其他活动下的身体姿态数据也都发给模式识别过程,一方面容易造成机器人把这些也识别为指令,从而产生误判和误操作,另一方面这种无效的识别计算对于机器人的算力和电能也是一大浪费;反之,如果提取出来特定身体姿态不完整,也会造成机器人的误判或者无法响应。
发明内容
鉴于上述问题,本发明的目的是为了解决不能准确提取磁流变抛光去除函数的有效数据、进而降低磁流变加工的精度的问题。
本发明实施例提供基于用户姿势高效能识别的机器人控制方法,包括:
获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段;
基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
在一个实施例中,所述获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段,包括:
采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格;
基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格;
定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值;
基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述基于所述相同身体姿态关键节点与所述三维空间网格,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段,包括:
定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组;
基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率;
将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点分布网络与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态,包括:
基于所述身体姿态分段,按照第一预设比例抽取状态采样帧;
将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度;
基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
在一个实施例中,所述若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点分布网络与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人,包括:
若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧;
将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度;
基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令;
若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
第二方面,本发明还提供基于用户姿势高效能识别的机器人控制系统,包括:
身体姿态分段计算模块,用于获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段;
身体姿态分段状态判断模块,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
用户姿态指令识别模块,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
在一个实施例中,所述身体姿态分段计算模块,包括:
三维空间网格划分子模块,用于采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格;
身体姿态关键节点提取子模块,用于基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格;
姿态转移矩阵赋值子模块,用于定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值;
身体姿态分段生成子模块,用于基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述身体姿态分段生成子模块,包括:
转移概率矢量组构建单元,用于定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组;
姿态转移概率生成单元,用于基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率;
动态分界帧生成单元,用于将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述身体姿态分段状态判断模块,具体包括:
状态采样帧抽取子模块,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧;
采样帧偏离度生成子模块,用于将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度;
比较判断子模块,用于基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
在一个实施例中,所述用户姿态指令识别模块,包括:
非常态采样帧抽取子模块,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧;
指令模板符合度生成子模块,用于将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度;
用户姿态指令判断子模块,用于基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令;
控制子模块,用于若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
本发明实施例提供的上述技术方案的有益效果至少包括:
本发明实施例提供的基于用户姿势高效能识别的机器人控制方法,本方法针对机器人捕获的连续、平滑的身体姿态数据提取身体姿态关键节点,将身体姿态的帧序列划分为三维空间网格,确定身体姿态关键节点所分布的三维空间网格,保证了对身体姿态关键部位所处空间的准确性,其次,通过赋值后的姿态转移矩阵与同一身体姿态关键节点在三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,实现了对同一身体姿态关键部位所处三维空间网格进行转移的精准掌握,最后对帧序列进行动态分段,实现了对身体姿态数据的聚类,并基于身体姿态分段,利用第一预设比例与常态模板对身体姿态分段是否处于常态进行判断,将非常态的身体姿态分段进一步地基于第二预设比例与指令模板进行比较判断,保证了对非常态身体姿态的有效识别与非常态身体姿态的完整性,并准确提取非常态的身体姿态向机器人下达相应指令,提高了对用户姿态识别的准确度,降低了机器人对用户姿态的误判。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步地详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例提供的基于用户姿势高效能识别的机器人控制方法的流程图;
图2为本发明实施例提供的步骤S101流程图;
图3为本发明实施例提供的步骤S1014流程图;
图4为本发明实施例提供的步骤S102流程图;
图5为本发明实施例提供的步骤S104流程图;
图6为本发明实施例提供的基于用户姿势高效能识别的机器人控制系统的框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
参照图1所示,本发明实施例提供的基于用户姿势高效能识别的机器人控制方法,该方法包括:步骤S101~S105;
S101、获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段。
具体的,身体姿态数据的帧序列为连续、平滑的身体姿态数据的帧序列,身体姿态关键节点包括分布在手部、肘关节、肩关节、脚部、膝关节、腰部、头部等身体表现姿态的关键部位的节点。
S102、基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态。
S103、若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
本实施例中,针对机器人捕获的连续、平滑的身体姿态数据提取身体姿态关键节点,将身体姿态的帧序列划分为三维空间网格,确定身体姿态关键节点所分布的三维空间网格,保证了对身体姿态关键部位所处空间的准确性,并对帧序列进行动态分段,实现了对身体姿态数据的聚类,并基于身体姿态分段,利用第一预设比例与常态模板对身体姿态分段是否处于常态进行判断,将非常态的身体姿态分段进一步地基于第二预设比例与指令模板进行比较判断,保证了对非常态身体姿态的有效识别与非常态身体姿态的完整性,并准确提取非常态的身体姿态向机器人下达相应指令,提高了对用户姿态识别的准确度,降低了机器人对用户姿态的误判。
在一个实施例中,参照图2所示,上述步骤S101中所述获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段,包括:
S1011、采集身体姿态数据分布空间(即用户的身体分布空间),将所述身体姿态数据分布空间划分为三维空间网格。
具体的,将所述三维空间网格集合为V={V1,V2,…,Vi,…,Vj,…,Vn}。
S1012、基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格。
具体的,将所述身体姿态关键节点集合为B={B1,B2,…,BM}。
进一步地,确定每一帧中每个身体姿态关键节点分布的三维空间网格;例如,身体姿态关键节点B2位于三维空间网格V5的空间范围以内,则记为B2∈V5。
S1013、定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值。
具体的,定义所述三维空间网格之间的姿态转移矩阵W,该姿态转移矩阵W是一个n*n维矩阵,表示为
其中,矩阵的元素Wij(i,j∈[1,2…n])表示三维空间网格Vi和Vj之间姿态转移关联权重。
进一步地,根据身体姿态数据的整个帧序列当中,身体姿态关键节点的节点的集合B={B1,B2,…,BM}在三维空间网格中的转移分布,对所述姿态转移矩阵W的元素wij进行赋值,其赋值表达式如下:
wij=cij*kij
其中,ci表示在身体姿态数据的全部帧中出现在三维空间网格Vi内的身体姿态关键节点类型的集合,cj表示身体姿态数据的全部帧中出现在三维空间网格Vj内的身体姿态关键节点类型的集合,ci∩cj表示二者的交集,ci∪cj表示二者的并集,N∪M(*)表示集合中元素的数量;
其中,其中表示集合cj中的身体姿态关键节点在三维空间网格Vi内出现的总次数计数值,表示集合cj中的身体姿态关键节点在三维空间网格Vj内出现的总次数计数值,表示集合ci∩cj中的身体姿态关键节点在三维空间网格Vi、Vj内出现的总次数计数值。
例如,针对身体姿态数据的全部帧进行统计,确定身体姿态关键节点的集合为B={B1,B2,B3,B4,B5,B6,B7,B8,B9},其中,身体姿态关键节点B2,B4,B5,B8,B2,B4,B5,B8∈V5,B2,B4,B5,B8在三维空间网格V5中分别出现了3、3、4、6次,则c5={B2,B4,B5,B8},nc5为16;身体姿态关键节点B1,B3,B4,B5,B7,B9,B1,B3,B4,B5,B7,B9∈V7,B1,B3,B4,B5,B7,B9在三维空间网格V7中分别出现了1、2、5、3、2、4次,则c7={B1,B3,B4,B5,B7,B9},nc7为17;c5∩c7={B4,B5},N∪M(c5∩c7)=2,c5∩c7={B1,B2,B3,B4,B5,B7,B8,B9},N∪M(c5∪c7)=8;nc5∩c7为15,则c57=1/4,k57=15/33,则w57=c57*k57=15/132。
进一步地,根据对姿态转移矩阵W的元素wij的赋值,当i=j时,wij=1;如果三维空间网格Vi和Vj中没有出现过相同的身体姿态关键节点类型,则wij=0。
S1014、基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,参照图3所示,上述步骤S1014中所述基于所述相同身体姿态关键节点与所述三维空间网格,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段,包括:
S10141、定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组。
具体的,对于三维空间网格集合V={V1,V2,…,Vi…Vj…Vn},构造转移概率矢量组P={P1,P2,…,Pi…Pj…Pn}。
其中,定义转移概率矢量组中矢量Pi是一个n*1维的转移概率矢量,具体表示如下:
其中,矢量Pi的每个元素表示同一个身体姿态关键节点从三维空间网格Vi出发分别到达其它三维空间网格的概率(例如,pij表示同一个身体姿态关键节点从三维空间网格Vi出发到达三维空间网格Vi的概率);
进一步地,按照如下公式对矢量Pi进行迭代:
其中,为矢量pi的初始赋值,该矢量的每个元素初始赋值为1/n,c为同一个身体姿态关键节点从三维空间网格出发进入与之相邻的任一三维空间网格的概率,而(1-c)则表示从三维空间网格出发下一个帧仍保留在该出发的三维空间网格的概率,W表示姿态转移矩阵;和分别表示矢量pi在第l轮迭代和第i+1轮迭代的取值;经过一定轮次的迭代,能够进入一个稳定状态,即和的取值差小于预设的门限值;对于稳定后的矢量pi,即可以表示同一个身体姿态关键节点从三维空间网格Vi出发到达其它三维空间网格的稳定概率。
进一步地,由迭代后的所述稳定概率构成转移概率矢量组P={P1,P2,…,Pi…Pj…Pn}。
S10142、基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率。
具体的,对于身体姿态数据的帧序列,相邻的2个帧中各自提取的身体姿态关键节点的集合为B={B1,B2,…,BM},参照转移概率矢量组P={P1,P2,…,Pi…Pj…Pn},确定每个节点上一个帧所在的三维空间网格和当前帧所在的三维空间网格之间对于的上述稳定概率;例如,上一个帧中在当前帧则参照稳定概率构成的转移概率矢量组P当中的矢量pi的元素pij,作为当前帧中身体姿态关键节点BM的节点转移概率
进一步地,针对当前帧,将全部身体姿态关键节点集B中的节点的节点转移概率累加,作为当前帧的姿态转移概率pt:
或者,针对不同的身体姿态关键节点赋予不同的累加权重系数,由累加权重系数于节点转移概率计算当前帧的姿态转移概率pt,具体公式如下:
S10143、将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
具体的,如果当前帧的姿态转移概率pr小于等于一个姿态转移判定阈值,则将当前帧作为一个动态分界帧。
进一步地,从帧序列中,获得一系列的动态分界帧,将相邻2个动态分界帧二者之间的各个帧的身体姿态数据帧序列,归为同一个身体姿态分段。
在一个实施例中,参照图4所示,上述步骤S102中所述基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点分布网络与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态,包括:
S1021、基于所述身体姿态分段,按照第一预设比例(一个相对较小的比例)抽取状态采样帧。
S1022、将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度。
具体的,针对每个状态采样帧,提取其中身体姿态关键节点的集合B中的节点,并确定身体姿态关键节点所分布的三维空间网格;进而,定义用户身体姿态的常态模板,所述常态模板描述了用户处于自然状态或者进行其他常态活动下,其身体姿态关键节点集中节点所分布的三维空间网格。
进一步地,根据机器人的工作场景,定义所述常态模板;例如,对于物流送货机器人来说,可以将人体的正常坐姿、站姿、行走姿态、跑步姿态均定义为常态,分别定义其常态模板,每个常态模板均包括身体姿态关键节点集中节点B={B1,B2,…,BM}所分布的三维空间网格(例如,B1∈V1,V3或V6,B2∈V2,V3或V5,……直至BM)。
进一步地,根据采样帧身体姿态关键节点所分布的三维空间网格(即身体姿态关键节点分布网格),与所述常态模板进行比对,如果采样帧的某一身体姿态关键节点集中节点没有处于常态模板中该节点位于的三维空间网格,则对常态模板的偏离度+1,从而统计整个状态采样帧的偏离度。
S1023、基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
具体的,对身体姿态分段中全部状态采样帧计算偏离度平均值,进而判断该偏离度平均值是否大于等于预设的偏离阈值,如果大于等于偏离阈值,则说明用户未处于常态。
在一个实施例中,参照图5所示,上述步骤S103中所述若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点分布网络与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人,包括:
S1031、若所述身体姿态分段处于非常态,则按照第二预设比例(一个相对更高的比例)抽取非常态采样帧。
S1032、将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度。
具体的,针对每个非常态采样帧,提取身体姿态关键节点的集合B中的节点,并确定身体姿态关键节点所分布的三维空间网格,进而定义机器人指令模板,该指令模板描述了用户对机器人下达指令的状态下,其身体姿态关键节点集中节点所分布的三维空间网格(即身体姿态关键节点分布网格)。
进一步地,根据非常态采样帧身体姿态关键节点所分布的三维空间网格,与指令模板进行比对,如果采样帧的某一身体姿态关键节点集中节点处于指令模板中该节点位于的三维空间网格,则指令模板符合度+1,从而统计整个采样帧的指令模板符合度。
S1033、基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令。
具体的,对身体姿态分段中全部非常态采样帧的指令模板计算符合度平均值,判断符合度平均值是否大于等于预设的指令阈值,如果大于等于指令阈值,则认为该段身体姿态分段属于用户利用身体姿态向机器人下达指令(例如,在物料机器人的应用场合下,用户通过向机器人点头、摇头、挥手、伸腿等下达指令)。
S1034、若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
具体的,将符合的身体姿态分段提供给机器人的模式识别程序,模式识别程序具体判断其指令类型并给与必要的响应。
基于同一发明构思,本发明实施例还提供了基于用户姿势高效能识别的机器人控制系统,由于该系统所解决问题的原理与前述基于用户姿势高效能识别的机器人控制方法相似,因此该系统的实施可以参见前述方法的实施,重复之处不再赘述。
本发明实施例提供的基于用户姿势高效能识别的机器人控制系统,参照图6所示,包括:
身体姿态分段计算模块61,用于获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段。
具体的,身体姿态数据的帧序列为连续、平滑的身体姿态数据的帧序列,身体姿态关键节点包括分布在手部、肘关节、肩关节、脚部、膝关节、腰部、头部等身体表现姿态的关键部位的节点。
身体姿态分段状态判断模块62,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
用户姿态指令识别模块63,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
在一个实施例中,所述身体姿态分段计算模块61,包括:
三维空间网格划分子模块611,用于采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格。
具体的,将所述三维空间网格集合为V={V1,V2,…,Vi…Vj…Vn}。
身体姿态关键节点提取子模块612,用于基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格。
具体的,将所述身体姿态关键节点集合为B={B1,B2,…,BM}。
姿态转移矩阵赋值子模块613,用于定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值。
具体的,定义所述三维空间网格之间的姿态转移矩阵W,该姿态转移矩阵W是一个n*n维矩阵,表示为
其中,矩阵的元素Wij(i,j∈[1,2…n])表示三维空间网格Vi和Vj之间姿态转移关联权重。
进一步地,根据身体姿态数据的整个帧序列当中,身体姿态关键节点的节点的集合B={B1,B2,…,BM}在三维空间网格中的转移分布,对所述姿态转移矩阵W的元素wij进行赋值,其赋值表达式如下:
wij=cij*kij
其中,ci表示在身体姿态数据的全部帧中出现在三维空间网格Vi内的身体姿态关键节点类型的集合,cj表示身体姿态数据的全部帧中出现在三维空间网格Vj内的身体姿态关键节点类型的集合,ci∩cj表示二者的交集,ci∩cj表示二者的并集,N∪M(*)表示集合中元素的数量;
其中,其中表示集合cj中的身体姿态关键节点在三维空间网格Vi内出现的总次数计数值,表示集合cj中的身体姿态关键节点在三维空间网格Vj内出现的总次数计数值,表示集合ci∩cj中的身体姿态关键节点在三维空间网格Vi、Vj内出现的总次数计数值。
进一步地,根据对姿态转移矩阵W的元素wij的赋值,当i=j时,wij=1;如果三维空间网格Vi和Vj中没有出现过相同的身体姿态关键节点类型,则wij=0。
身体姿态分段生成子模块614,用于基于所述相同身体姿态关键节点与所述三维空间网格,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述身体姿态分段生成子模块614,包括:
转移概率矢量组构建单元6141,用于定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组。
具体的,对于三维空间网格集合V={V1,V2,…,Vi…Vj…Vn},构造转移概率矢量组P={P1,P2,…,Pi…Pj…Pn}。
其中,定义转移概率矢量组中矢量Pi是一个n*1维的转移概率矢量,具体表示如下:
其中,矢量Pi的每个元素表示同一个身体姿态关键节点从三维空间网格Vi出发分别到达其它三维空间网格的概率(例如,pij表示同一个身体姿态关键节点从三维空间网格Vi出发到达三维空间网格Vi的概率);
进一步地,按照如下公式对矢量Pi进行迭代:
其中,为矢量pi的初始赋值,该矢量的每个元素初始赋值为1/n,c为同一个身体姿态关键节点从三维空间网格出发进入与之相邻的任一三维空间网格的概率,而(1-c)则表示从三维空间网格出发下一个帧仍保留在该出发的三维空间网格的概率,W表示姿态转移矩阵;和分别表示矢量pi在第l轮迭代和第i+1轮迭代的取值;经过一定轮次的迭代,能够进入一个稳定状态,即和的取值差小于预设的门限值;对于稳定后的矢量pi,即可以表示同一个身体姿态关键节点从三维空间网格Vi出发到达其它三维空间网格的稳定概率。
进一步地,由迭代后的所述稳定概率构成转移概率矢量组P={P1,P2,…,Pi…Pj…Pn}。
姿态转移概率生成单元6142,用于基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率。
具体的,对于身体姿态数据的帧序列,相邻的2个帧中各自提取的身体姿态关键节点的集合为B={B1,B2,…,BM},参照转移概率矢量组P={P1,P2,…,Pi…Pj…Pn},确定每个节点上一个帧所在的三维空间网格和当前帧所在的三维空间网格之间对于的上述稳定概率;例如,上一个帧中在当前帧则参照稳定概率构成的转移概率矢量组P当中的矢量pi的元素pij,作为当前帧中身体姿态关键节点BM的节点转移概率
进一步地,针对当前帧,将全部身体姿态关键节点集B中的节点的节点转移概率累加,作为当前帧的姿态转移概率pt:
或者,针对不同的身体姿态关键节点赋予不同的累加权重系数,由累加权重系数于节点转移概率计算当前帧的姿态转移概率pt,具体公式如下:
动态分界帧生成单元6143,用于将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
具体的,如果当前帧的姿态转移概率pr小于等于一个姿态转移判定阈值,则将当前帧作为一个动态分界帧。
进一步地,从帧序列中,获得一系列的动态分界帧,将相邻2个动态分界帧二者之间的各个帧的身体姿态数据帧序列,归为同一个身体姿态分段。
在一个实施例中,所述身体姿态分段状态判断模块62,包括:
状态采样帧抽取子模块621,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧。
采样帧偏离度生成子模块622,用于将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度。
具体的,针对每个状态采样帧,提取其中身体姿态关键节点的集合B中的节点,并确定身体姿态关键节点所分布的三维空间网格;进而,定义用户身体姿态的常态模板,所述常态模板描述了用户处于自然状态或者进行其他常态活动下,其身体姿态关键节点集中节点所分布的三维空间网格。
进一步地,根据机器人的工作场景,定义所述常态模板;例如,对于物流送货机器人来说,可以将人体的正常坐姿、站姿、行走姿态、跑步姿态均定义为常态,分别定义其常态模板,每个常态模板均包括身体姿态关键节点集中节点B={B1,B2,…,BM}所分布的三维空间网格(例如,B1∈V1,V3或V6,B2∈V2,V3或V5,……直至BM)。
进一步地,根据采样帧身体姿态关键节点所分布的三维空间网格(即身体姿态关键节点分布网格),与所述常态模板进行比对,如果采样帧的某一身体姿态关键节点集中节点没有处于常态模板中该节点位于的三维空间网格,则对常态模板的偏离度+1,从而统计整个状态采样帧的偏离度。
比较判断子模块623,用于基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
具体的,对身体姿态分段中全部状态采样帧计算偏离度平均值,进而判断该偏离度平均值是否大于等于预设的偏离阈值,如果大于等于偏离阈值,则说明用户未处于常态。
在一个实施例中,所述用户姿态指令识别模块63,包括:
非常态采样帧抽取子模块631,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧。
指令模板符合度生成子模块632,用于将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度。
具体的,针对每个非常态采样帧,提取身体姿态关键节点的集合B中的节点,并确定身体姿态关键节点所分布的三维空间网格,进而定义机器人指令模板,该指令模板描述了用户对机器人下达指令的状态下,其身体姿态关键节点集中节点所分布的三维空间网格(即身体姿态关键节点分布网格)。
进一步地,根据非常态采样帧身体姿态关键节点所分布的三维空间网格,与指令模板进行比对,如果采样帧的某一身体姿态关键节点集中节点处于指令模板中该节点位于的三维空间网格,则指令模板符合度+1,从而统计整个采样帧的指令模板符合度。
用户姿态指令判断子模块633,用于基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令。
具体的,对身体姿态分段中全部非常态采样帧的指令模板计算符合度平均值,判断符合度平均值是否大于等于预设的指令阈值,如果大于等于指令阈值,则认为该段身体姿态分段属于用户利用身体姿态向机器人下达指令(例如,在物料机器人的应用场合下,用户通过向机器人点头、摇头、挥手、伸腿等下达指令)。
控制子模块634,用于若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
具体的,将符合的身体姿态分段提供给机器人的模式识别程序,模式识别程序具体判断其指令类型并给与必要的响应。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.基于用户姿势高效能识别的机器人控制方法,其特征在于,包括:
获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段;
基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
2.如权利要求1所述的方法,其特征在于,所述获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段,包括:
采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格;
基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格;
定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值;
基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
3.如权利要求2所述的方法,其特征在于,所述基于所述相同身体姿态关键节点与所述三维空间网格,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段,包括:
定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组;
基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率;
将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
4.如权利要求2所述的方法,其特征在于,所述基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点分布网络与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态,包括:
基于所述身体姿态分段,按照第一预设比例抽取状态采样帧;
将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度;
基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
5.如权利要求4所述的方法,其特征在于,所述若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点分布网络与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人,包括:
若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧;
将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度;
基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令;
若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
6.基于用户姿势高效能识别的机器人控制系统,其特征在于,包括:
身体姿态分段计算模块,用于获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段;
身体姿态分段状态判断模块,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
用户姿态指令识别模块,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
7.如权利要求6所述的系统,其特征在于,所述身体姿态分段计算模块,包括:
三维空间网格划分子模块,用于采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格;
身体姿态关键节点提取子模块,用于基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格;
姿态转移矩阵赋值子模块,用于定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值;
身体姿态分段生成子模块,用于基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
8.如权利要求7所述的系统,其特征在于,所述身体姿态分段生成子模块,包括:
转移概率矢量组构建单元,用于定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组;
姿态转移概率生成单元,用于基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率;
动态分界帧生成单元,用于将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
9.如权利要求7所述的系统,其特征在于,所述身体姿态分段状态判断模块,具体包括:
状态采样帧抽取子模块,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧;
采样帧偏离度生成子模块,用于将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度;
比较判断子模块,用于基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
10.如权利要求9所述的系统,其特征在于,所述用户姿态指令识别模块,包括:
非常态采样帧抽取子模块,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧;
指令模板符合度生成子模块,用于将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度;
用户姿态指令判断子模块,用于基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令;
控制子模块,用于若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111556629.0A CN114393575B (zh) | 2021-12-17 | 2021-12-17 | 基于用户姿势高效能识别的机器人控制方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111556629.0A CN114393575B (zh) | 2021-12-17 | 2021-12-17 | 基于用户姿势高效能识别的机器人控制方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114393575A true CN114393575A (zh) | 2022-04-26 |
CN114393575B CN114393575B (zh) | 2024-04-02 |
Family
ID=81226972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111556629.0A Active CN114393575B (zh) | 2021-12-17 | 2021-12-17 | 基于用户姿势高效能识别的机器人控制方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114393575B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101276370A (zh) * | 2008-01-14 | 2008-10-01 | 浙江大学 | 基于关键帧的三维人体运动数据检索方法 |
CN103150752A (zh) * | 2013-02-02 | 2013-06-12 | 浙江大学 | 一种基于关键标记点的人体姿态稀疏重建方法 |
CN103679747A (zh) * | 2013-11-15 | 2014-03-26 | 南昌大学 | 一种运动捕捉数据关键帧提取方法 |
CN110609554A (zh) * | 2019-09-17 | 2019-12-24 | 重庆特斯联智慧科技股份有限公司 | 一种机器人移动控制方法及装置 |
CN110858277A (zh) * | 2018-08-22 | 2020-03-03 | 阿里巴巴集团控股有限公司 | 一种获得姿态分类模型的方法以及装置 |
CN112101243A (zh) * | 2020-09-17 | 2020-12-18 | 四川轻化工大学 | 一种基于关键姿势和dtw的人体动作识别方法 |
US20210049356A1 (en) * | 2018-11-07 | 2021-02-18 | Beijing Dajia Internet Information Technology Co., Ltd. | Method for Detecting Key Points in Skeleton, Apparatus, Electronic Device and Storage Medium |
JP6852936B1 (ja) * | 2019-11-15 | 2021-03-31 | 広東工業大学Guangdong University Of Technology | 深度点線特徴に基づくドローン視覚走行距離計方法 |
US20210110599A1 (en) * | 2018-03-05 | 2021-04-15 | Tsinghua University | Depth camera-based three-dimensional reconstruction method and apparatus, device, and storage medium |
-
2021
- 2021-12-17 CN CN202111556629.0A patent/CN114393575B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101276370A (zh) * | 2008-01-14 | 2008-10-01 | 浙江大学 | 基于关键帧的三维人体运动数据检索方法 |
CN103150752A (zh) * | 2013-02-02 | 2013-06-12 | 浙江大学 | 一种基于关键标记点的人体姿态稀疏重建方法 |
CN103679747A (zh) * | 2013-11-15 | 2014-03-26 | 南昌大学 | 一种运动捕捉数据关键帧提取方法 |
US20210110599A1 (en) * | 2018-03-05 | 2021-04-15 | Tsinghua University | Depth camera-based three-dimensional reconstruction method and apparatus, device, and storage medium |
CN110858277A (zh) * | 2018-08-22 | 2020-03-03 | 阿里巴巴集团控股有限公司 | 一种获得姿态分类模型的方法以及装置 |
US20210049356A1 (en) * | 2018-11-07 | 2021-02-18 | Beijing Dajia Internet Information Technology Co., Ltd. | Method for Detecting Key Points in Skeleton, Apparatus, Electronic Device and Storage Medium |
CN110609554A (zh) * | 2019-09-17 | 2019-12-24 | 重庆特斯联智慧科技股份有限公司 | 一种机器人移动控制方法及装置 |
JP6852936B1 (ja) * | 2019-11-15 | 2021-03-31 | 広東工業大学Guangdong University Of Technology | 深度点線特徴に基づくドローン視覚走行距離計方法 |
CN112101243A (zh) * | 2020-09-17 | 2020-12-18 | 四川轻化工大学 | 一种基于关键姿势和dtw的人体动作识别方法 |
Non-Patent Citations (2)
Title |
---|
GAO, Z: "Key-frame selection for automatic summarization of surveillance videos: a method of multiple change-point detection", MACHINE VISION AND APPLICATIONS, vol. 29, no. 7, 31 October 2018 (2018-10-31), pages 1101 - 1117, XP036603089, DOI: 10.1007/s00138-018-0954-7 * |
王肖: "典型异常驾驶行为识别与预警方法研究", 中国优秀硕士学位论文全文数据库, no. 2, 15 February 2021 (2021-02-15), pages 035 - 491 * |
Also Published As
Publication number | Publication date |
---|---|
CN114393575B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106650687B (zh) | 一种基于深度信息和骨骼信息的姿势矫正方法 | |
CN103984416A (zh) | 一种基于加速度传感器的手势识别方法 | |
CN102508867B (zh) | 一种人体运动的运动图检索方法 | |
CN110458235B (zh) | 一种视频中运动姿势相似度比对方法 | |
CN110751039A (zh) | 多视图3d人体姿态估计方法及相关装置 | |
Fang et al. | Dynamic gesture recognition using inertial sensors-based data gloves | |
CN109032337A (zh) | 一种基于数据手套的kem手势识别算法 | |
Xu et al. | Robust hand gesture recognition based on RGB-D Data for natural human–computer interaction | |
CN112800990B (zh) | 一种实时人体动作识别和计数方法 | |
CN112036261A (zh) | 手势识别方法、装置、存储介质、电子装置 | |
CN109598250A (zh) | 特征提取方法、装置、电子设备和计算机可读介质 | |
CN112507880A (zh) | 模型训练方法、洗手行为检测方法、装置、设备及介质 | |
CN115083015A (zh) | 一种3d人体姿态估计数据标注方式和对应的模型构建方法 | |
CN112101242A (zh) | 一种基于姿势序列状态链的肢体动作识别方法 | |
CN109635706B (zh) | 基于神经网络的手势识别方法、设备、存储介质及装置 | |
Naik et al. | Development of an Automated Hand Gesture Software to Control Volume for Computer | |
Niranjani et al. | System application control based on Hand gesture using Deep learning | |
CN114393575B (zh) | 基于用户姿势高效能识别的机器人控制方法和系统 | |
CN211293894U (zh) | 一种凌空手写交互装置 | |
CN109409236B (zh) | 三维静态手势识别方法和装置 | |
KR102079380B1 (ko) | 시간적 및 공간적 정규화를 통한 딥 러닝 기반의 실시간 3차원 제스처 인식 시스템 및 방법 | |
CN111665934A (zh) | 一种基于zynq软硬件协同处理的手势识别系统及方法 | |
CN116229556A (zh) | 人脸识别方法及装置、嵌入式设备及计算机可读存储介质 | |
CN110097008A (zh) | 一种人体动作识别方法 | |
CN115471918A (zh) | 手势识别的方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |