CN114393575B - 基于用户姿势高效能识别的机器人控制方法和系统 - Google Patents

基于用户姿势高效能识别的机器人控制方法和系统 Download PDF

Info

Publication number
CN114393575B
CN114393575B CN202111556629.0A CN202111556629A CN114393575B CN 114393575 B CN114393575 B CN 114393575B CN 202111556629 A CN202111556629 A CN 202111556629A CN 114393575 B CN114393575 B CN 114393575B
Authority
CN
China
Prior art keywords
body posture
gesture
dimensional space
frame
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111556629.0A
Other languages
English (en)
Other versions
CN114393575A (zh
Inventor
姚郁巍
苏瑞
衡进
孙贇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Terminus Technology Co Ltd
Original Assignee
Chongqing Terminus Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Terminus Technology Co Ltd filed Critical Chongqing Terminus Technology Co Ltd
Priority to CN202111556629.0A priority Critical patent/CN114393575B/zh
Publication of CN114393575A publication Critical patent/CN114393575A/zh
Application granted granted Critical
Publication of CN114393575B publication Critical patent/CN114393575B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于用户姿势高效能识别的机器人控制方法和系统,该方法针对机器人捕获的连续、平滑的身体姿态数据提取身体姿态关键节点,将身体姿态的帧序列划分为三维空间网格,确定身体姿态关键节点所分布的三维空间网格,保证了对身体姿态关键部位所处空间的准确性,并对帧序列进行动态分段,实现了对身体姿态数据的聚类,并基于身体姿态分段,利用第一预设比例与常态模板对身体姿态分段是否处于常态进行判断,将非常态的身体姿态分段进一步地基于第二预设比例与指令模板进行比较判断,保证了对非常态身体姿态的有效识别与非常态身体姿态的完整性,并准确提取非常态的身体姿态向机器人下达相应指令,提高了对用户姿态识别的准确度。

Description

基于用户姿势高效能识别的机器人控制方法和系统
技术领域
本发明涉及机器人控制技术领域,具体是基于用户姿势高效能识别的机器人控制方法和系统。
背景技术
机器人利用摄像头或者雷达点云数据,在一定距离以外,捕获用户的身体姿态数据用户通过特定的身体姿态,向机器人下达指令,从而控制机器人执行特定行进动作和功能。这种控制方式相比传统的通过机器人的触摸屏、按钮、手机、遥控器等方式控制机器人,或者通过语音来控制机器人来说,不必用户打断正在进行的事情专门前往机器人处操控,因此更为自然快捷;受周围环境干扰(例如噪声干扰)小;对指令识别误判概率低;能够支持的指令类型和数量更为多样;用户不必携带和依赖手机、遥控器等特定的设备。
但是,存在的问题在于:用户一般是从自然状态或者其他活动下的身体姿态过渡到下达指令的特定身体姿态,然后再过渡回到自然状态或者其他活动下的身体姿态;这期间的过渡是连续和平滑的,而且自然状态或者其他活动状态是常态性的,面向机器人下达指令是偶发性的。如何有效地将下达指令的特定身体姿态,从一系列连续、平滑的身体姿态数据的帧序列(机器人的摄像头或者雷达在每个采样时间点捕获的身体姿态数据作为一个数据帧,依照采样时间点时序排列,形成身体姿态数据的帧序列)中提取出来,然后发给模式识别过程,将特定身体姿态转化为对机器人的指令,这是本项技术的一个难点;如果把自然状态或者其他活动下的身体姿态数据也都发给模式识别过程,一方面容易造成机器人把这些也识别为指令,从而产生误判和误操作,另一方面这种无效的识别计算对于机器人的算力和电能也是一大浪费;反之,如果提取出来特定身体姿态不完整,也会造成机器人的误判或者无法响应。
发明内容
鉴于上述问题,本发明的目的是为了解决不能准确提取磁流变抛光去除函数的有效数据、进而降低磁流变加工的精度的问题。
本发明实施例提供基于用户姿势高效能识别的机器人控制方法,包括:
获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段;
基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
在一个实施例中,所述获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段,包括:
采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格;
基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格;
定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值;
基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述基于所述相同身体姿态关键节点与所述三维空间网格,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段,包括:
定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组;
基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率;
将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点分布网络与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态,包括:
基于所述身体姿态分段,按照第一预设比例抽取状态采样帧;
将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度;
基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
在一个实施例中,所述若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点分布网络与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人,包括:
若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧;
将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度;
基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令;
若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
第二方面,本发明还提供基于用户姿势高效能识别的机器人控制系统,包括:
身体姿态分段计算模块,用于获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段;
身体姿态分段状态判断模块,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
用户姿态指令识别模块,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
在一个实施例中,所述身体姿态分段计算模块,包括:
三维空间网格划分子模块,用于采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格;
身体姿态关键节点提取子模块,用于基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格;
姿态转移矩阵赋值子模块,用于定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值;
身体姿态分段生成子模块,用于基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述身体姿态分段生成子模块,包括:
转移概率矢量组构建单元,用于定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组;
姿态转移概率生成单元,用于基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率;
动态分界帧生成单元,用于将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述身体姿态分段状态判断模块,具体包括:
状态采样帧抽取子模块,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧;
采样帧偏离度生成子模块,用于将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度;
比较判断子模块,用于基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
在一个实施例中,所述用户姿态指令识别模块,包括:
非常态采样帧抽取子模块,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧;
指令模板符合度生成子模块,用于将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度;
用户姿态指令判断子模块,用于基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令;
控制子模块,用于若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
本发明实施例提供的上述技术方案的有益效果至少包括:
本发明实施例提供的基于用户姿势高效能识别的机器人控制方法,本方法针对机器人捕获的连续、平滑的身体姿态数据提取身体姿态关键节点,将身体姿态的帧序列划分为三维空间网格,确定身体姿态关键节点所分布的三维空间网格,保证了对身体姿态关键部位所处空间的准确性,其次,通过赋值后的姿态转移矩阵与同一身体姿态关键节点在三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,实现了对同一身体姿态关键部位所处三维空间网格进行转移的精准掌握,最后对帧序列进行动态分段,实现了对身体姿态数据的聚类,并基于身体姿态分段,利用第一预设比例与常态模板对身体姿态分段是否处于常态进行判断,将非常态的身体姿态分段进一步地基于第二预设比例与指令模板进行比较判断,保证了对非常态身体姿态的有效识别与非常态身体姿态的完整性,并准确提取非常态的身体姿态向机器人下达相应指令,提高了对用户姿态识别的准确度,降低了机器人对用户姿态的误判。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步地详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例提供的基于用户姿势高效能识别的机器人控制方法的流程图;
图2为本发明实施例提供的步骤S101流程图;
图3为本发明实施例提供的步骤S1014流程图;
图4为本发明实施例提供的步骤S102流程图;
图5为本发明实施例提供的步骤S104流程图;
图6为本发明实施例提供的基于用户姿势高效能识别的机器人控制系统的框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
参照图1所示,本发明实施例提供的基于用户姿势高效能识别的机器人控制方法,该方法包括:步骤S101~S105;
S101、获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段。
具体的,身体姿态数据的帧序列为连续、平滑的身体姿态数据的帧序列,身体姿态关键节点包括分布在手部、肘关节、肩关节、脚部、膝关节、腰部、头部等身体表现姿态的关键部位的节点。
S102、基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态。
S103、若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
本实施例中,针对机器人捕获的连续、平滑的身体姿态数据提取身体姿态关键节点,将身体姿态的帧序列划分为三维空间网格,确定身体姿态关键节点所分布的三维空间网格,保证了对身体姿态关键部位所处空间的准确性,并对帧序列进行动态分段,实现了对身体姿态数据的聚类,并基于身体姿态分段,利用第一预设比例与常态模板对身体姿态分段是否处于常态进行判断,将非常态的身体姿态分段进一步地基于第二预设比例与指令模板进行比较判断,保证了对非常态身体姿态的有效识别与非常态身体姿态的完整性,并准确提取非常态的身体姿态向机器人下达相应指令,提高了对用户姿态识别的准确度,降低了机器人对用户姿态的误判。
在一个实施例中,参照图2所示,上述步骤S101中所述获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段,包括:
S1011、采集身体姿态数据分布空间(即用户的身体分布空间),将所述身体姿态数据分布空间划分为三维空间网格。
具体的,将所述三维空间网格集合为V={V1,V2,…,Vi,…,Vj,…,Vn}。
S1012、基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格。
具体的,将所述身体姿态关键节点集合为B={B1,B2,…,BM}。
进一步地,确定每一帧中每个身体姿态关键节点分布的三维空间网格;例如,身体姿态关键节点B2位于三维空间网格V5的空间范围以内,则记为B2∈V5
S1013、定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值。
具体的,定义所述三维空间网格之间的姿态转移矩阵W,该姿态转移矩阵W是一个n*n维矩阵,表示为
其中,矩阵的元素Wij(i,j∈[1,2…n])表示三维空间网格Vi和Vj之间姿态转移关联权重。
进一步地,根据身体姿态数据的整个帧序列当中,身体姿态关键节点的节点的集合B={B1,B2,…,BM}在三维空间网格中的转移分布,对所述姿态转移矩阵W的元素wij进行赋值,其赋值表达式如下:
wij=cij*kij
其中,ci表示在身体姿态数据的全部帧中出现在三维空间网格Vi内的身体姿态关键节点类型的集合,cj表示身体姿态数据的全部帧中出现在三维空间网格Vj内的身体姿态关键节点类型的集合,ci∩cj表示二者的交集,ci∪cj表示二者的并集,N∪M(*)表示集合中元素的数量;
其中,其中/>表示集合cj中的身体姿态关键节点在三维空间网格Vi内出现的总次数计数值,/>表示集合cj中的身体姿态关键节点在三维空间网格Vj内出现的总次数计数值,/>表示集合ci∩cj中的身体姿态关键节点在三维空间网格Vi、Vj内出现的总次数计数值。
例如,针对身体姿态数据的全部帧进行统计,确定身体姿态关键节点的集合为B={B1,B2,B3,B4,B5,B6,B7,B8,B9},其中,身体姿态关键节点B2,B4,B5,B8,B2,B4,B5,B8∈V5,B2,B4,B5,B8在三维空间网格V5中分别出现了3、3、4、6次,则c5={B2,B4,B5,B8},nc5为16;身体姿态关键节点B1,B3,B4,B5,B7,B9,B1,B3,B4,B5,B7,B9∈V7,B1,B3,B4,B5,B7,B9在三维空间网格V7中分别出现了1、2、5、3、2、4次,则c7={B1,B3,B4,B5,B7,B9},nc7为17;c5∩c7={B4,B5},N∪M(c5∩c7)=2,c5∩c7={B1,B2,B3,B4,B5,B7,B8,B9},N∪M(c5∪c7)=8;nc5∩c7为15,则c57=1/4,k57=15/33,则w57=c57*k57=15/132。
进一步地,根据对姿态转移矩阵W的元素wij的赋值,当i=j时,wij=1;如果三维空间网格Vi和Vj中没有出现过相同的身体姿态关键节点类型,则wij=0。
S1014、基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,参照图3所示,上述步骤S1014中所述基于所述相同身体姿态关键节点与所述三维空间网格,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段,包括:
S10141、定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组。
具体的,对于三维空间网格集合V={V1,V2,…,Vi…Vj…Vn},构造转移概率矢量组P={P1,P2,…,Pi…Pj…Pn}。
其中,定义转移概率矢量组中矢量Pi是一个n*1维的转移概率矢量,具体表示如下:
其中,矢量Pi的每个元素表示同一个身体姿态关键节点从三维空间网格Vi出发分别到达其它三维空间网格的概率(例如,pij表示同一个身体姿态关键节点从三维空间网格Vi出发到达三维空间网格Vi的概率);
进一步地,按照如下公式对矢量Pi进行迭代:
其中,为矢量pi的初始赋值,该矢量的每个元素初始赋值为1/n,c为同一个身体姿态关键节点从三维空间网格出发进入与之相邻的任一三维空间网格的概率,而(1-c)则表示从三维空间网格出发下一个帧仍保留在该出发的三维空间网格的概率,W表示姿态转移矩阵;/>和/>分别表示矢量pi在第l轮迭代和第i+1轮迭代的取值;经过一定轮次的迭代,能够进入一个稳定状态,即/>和/>的取值差小于预设的门限值;对于稳定后的矢量pi,即可以表示同一个身体姿态关键节点从三维空间网格Vi出发到达其它三维空间网格的稳定概率。
进一步地,由迭代后的所述稳定概率构成转移概率矢量组P={P1,P2,…,Pi…Pj…Pn}。
S10142、基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率。
具体的,对于身体姿态数据的帧序列,相邻的2个帧中各自提取的身体姿态关键节点的集合为B={B1,B2,…,BM},参照转移概率矢量组P={P1,P2,…,Pi…Pj…Pn},确定每个节点上一个帧所在的三维空间网格和当前帧所在的三维空间网格之间对于的上述稳定概率;例如,上一个帧中在当前帧/>则参照稳定概率构成的转移概率矢量组P当中的矢量pi的元素pij,作为当前帧中身体姿态关键节点BM的节点转移概率/>
进一步地,针对当前帧,将全部身体姿态关键节点集B中的节点的节点转移概率累加,作为当前帧的姿态转移概率pt
或者,针对不同的身体姿态关键节点赋予不同的累加权重系数,由累加权重系数于节点转移概率计算当前帧的姿态转移概率pt,具体公式如下:
其中,分别表示身体姿态关键节点{B1,B2,…,BM}的累加权重系数。
S10143、将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
具体的,如果当前帧的姿态转移概率pr小于等于一个姿态转移判定阈值,则将当前帧作为一个动态分界帧。
进一步地,从帧序列中,获得一系列的动态分界帧,将相邻2个动态分界帧二者之间的各个帧的身体姿态数据帧序列,归为同一个身体姿态分段。
在一个实施例中,参照图4所示,上述步骤S102中所述基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点分布网络与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态,包括:
S1021、基于所述身体姿态分段,按照第一预设比例(一个相对较小的比例)抽取状态采样帧。
S1022、将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度。
具体的,针对每个状态采样帧,提取其中身体姿态关键节点的集合B中的节点,并确定身体姿态关键节点所分布的三维空间网格;进而,定义用户身体姿态的常态模板,所述常态模板描述了用户处于自然状态或者进行其他常态活动下,其身体姿态关键节点集中节点所分布的三维空间网格。
进一步地,根据机器人的工作场景,定义所述常态模板;例如,对于物流送货机器人来说,可以将人体的正常坐姿、站姿、行走姿态、跑步姿态均定义为常态,分别定义其常态模板,每个常态模板均包括身体姿态关键节点集中节点B={B1,B2,…,BM}所分布的三维空间网格(例如,B1∈V1,V3或V6,B2∈V2,V3或V5,……直至BM)。
进一步地,根据采样帧身体姿态关键节点所分布的三维空间网格(即身体姿态关键节点分布网格),与所述常态模板进行比对,如果采样帧的某一身体姿态关键节点集中节点没有处于常态模板中该节点位于的三维空间网格,则对常态模板的偏离度+1,从而统计整个状态采样帧的偏离度。
S1023、基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
具体的,对身体姿态分段中全部状态采样帧计算偏离度平均值,进而判断该偏离度平均值是否大于等于预设的偏离阈值,如果大于等于偏离阈值,则说明用户未处于常态。
在一个实施例中,参照图5所示,上述步骤S103中所述若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点分布网络与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人,包括:
S1031、若所述身体姿态分段处于非常态,则按照第二预设比例(一个相对更高的比例)抽取非常态采样帧。
S1032、将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度。
具体的,针对每个非常态采样帧,提取身体姿态关键节点的集合B中的节点,并确定身体姿态关键节点所分布的三维空间网格,进而定义机器人指令模板,该指令模板描述了用户对机器人下达指令的状态下,其身体姿态关键节点集中节点所分布的三维空间网格(即身体姿态关键节点分布网格)。
进一步地,根据非常态采样帧身体姿态关键节点所分布的三维空间网格,与指令模板进行比对,如果采样帧的某一身体姿态关键节点集中节点处于指令模板中该节点位于的三维空间网格,则指令模板符合度+1,从而统计整个采样帧的指令模板符合度。
S1033、基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令。
具体的,对身体姿态分段中全部非常态采样帧的指令模板计算符合度平均值,判断符合度平均值是否大于等于预设的指令阈值,如果大于等于指令阈值,则认为该段身体姿态分段属于用户利用身体姿态向机器人下达指令(例如,在物料机器人的应用场合下,用户通过向机器人点头、摇头、挥手、伸腿等下达指令)。
S1034、若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
具体的,将符合的身体姿态分段提供给机器人的模式识别程序,模式识别程序具体判断其指令类型并给与必要的响应。
基于同一发明构思,本发明实施例还提供了基于用户姿势高效能识别的机器人控制系统,由于该系统所解决问题的原理与前述基于用户姿势高效能识别的机器人控制方法相似,因此该系统的实施可以参见前述方法的实施,重复之处不再赘述。
本发明实施例提供的基于用户姿势高效能识别的机器人控制系统,参照图6所示,包括:
身体姿态分段计算模块61,用于获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段。
具体的,身体姿态数据的帧序列为连续、平滑的身体姿态数据的帧序列,身体姿态关键节点包括分布在手部、肘关节、肩关节、脚部、膝关节、腰部、头部等身体表现姿态的关键部位的节点。
身体姿态分段状态判断模块62,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
用户姿态指令识别模块63,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人。
在一个实施例中,所述身体姿态分段计算模块61,包括:
三维空间网格划分子模块611,用于采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格。
具体的,将所述三维空间网格集合为V={V1,V2,…,Vi…Vj…Vn}。
身体姿态关键节点提取子模块612,用于基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格。
具体的,将所述身体姿态关键节点集合为B={B1,B2,…,BM}。
姿态转移矩阵赋值子模块613,用于定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值。
具体的,定义所述三维空间网格之间的姿态转移矩阵W,该姿态转移矩阵W是一个n*n维矩阵,表示为
其中,矩阵的元素Wij(i,j∈[1,2…n])表示三维空间网格Vi和Vj之间姿态转移关联权重。
进一步地,根据身体姿态数据的整个帧序列当中,身体姿态关键节点的节点的集合B={B1,B2,…,BM}在三维空间网格中的转移分布,对所述姿态转移矩阵W的元素wij进行赋值,其赋值表达式如下:
wij=cij*kij
其中,ci表示在身体姿态数据的全部帧中出现在三维空间网格Vi内的身体姿态关键节点类型的集合,cj表示身体姿态数据的全部帧中出现在三维空间网格Vj内的身体姿态关键节点类型的集合,ci∩cj表示二者的交集,ci∩cj表示二者的并集,N∪M(*)表示集合中元素的数量;
其中,其中/>表示集合cj中的身体姿态关键节点在三维空间网格Vi内出现的总次数计数值,/>表示集合cj中的身体姿态关键节点在三维空间网格Vj内出现的总次数计数值,/>表示集合ci∩cj中的身体姿态关键节点在三维空间网格Vi、Vj内出现的总次数计数值。
进一步地,根据对姿态转移矩阵W的元素wij的赋值,当i=j时,wij=1;如果三维空间网格Vi和Vj中没有出现过相同的身体姿态关键节点类型,则wij=0。
身体姿态分段生成子模块614,用于基于所述相同身体姿态关键节点与所述三维空间网格,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
在一个实施例中,所述身体姿态分段生成子模块614,包括:
转移概率矢量组构建单元6141,用于定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组。
具体的,对于三维空间网格集合V={V1,V2,…,Vi…Vj…Vn},构造转移概率矢量组P={P1,P2,…,Pi…Pj…Pn}。
其中,定义转移概率矢量组中矢量Pi是一个n*1维的转移概率矢量,具体表示如下:
其中,矢量Pi的每个元素表示同一个身体姿态关键节点从三维空间网格Vi出发分别到达其它三维空间网格的概率(例如,pij表示同一个身体姿态关键节点从三维空间网格Vi出发到达三维空间网格Vi的概率);
进一步地,按照如下公式对矢量Pi进行迭代:
其中,为矢量pi的初始赋值,该矢量的每个元素初始赋值为1/n,c为同一个身体姿态关键节点从三维空间网格出发进入与之相邻的任一三维空间网格的概率,而(1-c)则表示从三维空间网格出发下一个帧仍保留在该出发的三维空间网格的概率,W表示姿态转移矩阵;/>和/>分别表示矢量pi在第l轮迭代和第i+1轮迭代的取值;经过一定轮次的迭代,能够进入一个稳定状态,即/>和/>的取值差小于预设的门限值;对于稳定后的矢量pi,即可以表示同一个身体姿态关键节点从三维空间网格Vi出发到达其它三维空间网格的稳定概率。
进一步地,由迭代后的所述稳定概率构成转移概率矢量组P={P1,P2,…,Pi…Pj…Pn}。
姿态转移概率生成单元6142,用于基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率。
具体的,对于身体姿态数据的帧序列,相邻的2个帧中各自提取的身体姿态关键节点的集合为B={B1,B2,…,BM},参照转移概率矢量组P={P1,P2,…,Pi…Pj…Pn},确定每个节点上一个帧所在的三维空间网格和当前帧所在的三维空间网格之间对于的上述稳定概率;例如,上一个帧中在当前帧/>则参照稳定概率构成的转移概率矢量组P当中的矢量pi的元素pij,作为当前帧中身体姿态关键节点BM的节点转移概率/>
进一步地,针对当前帧,将全部身体姿态关键节点集B中的节点的节点转移概率累加,作为当前帧的姿态转移概率pt
或者,针对不同的身体姿态关键节点赋予不同的累加权重系数,由累加权重系数于节点转移概率计算当前帧的姿态转移概率pt,具体公式如下:
其中,分别表示身体姿态关键节点{B1,B2,…,BM}的累加权重系数。
动态分界帧生成单元6143,用于将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
具体的,如果当前帧的姿态转移概率pr小于等于一个姿态转移判定阈值,则将当前帧作为一个动态分界帧。
进一步地,从帧序列中,获得一系列的动态分界帧,将相邻2个动态分界帧二者之间的各个帧的身体姿态数据帧序列,归为同一个身体姿态分段。
在一个实施例中,所述身体姿态分段状态判断模块62,包括:
状态采样帧抽取子模块621,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧。
采样帧偏离度生成子模块622,用于将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成所述采样帧偏离度。
具体的,针对每个状态采样帧,提取其中身体姿态关键节点的集合B中的节点,并确定身体姿态关键节点所分布的三维空间网格;进而,定义用户身体姿态的常态模板,所述常态模板描述了用户处于自然状态或者进行其他常态活动下,其身体姿态关键节点集中节点所分布的三维空间网格。
进一步地,根据机器人的工作场景,定义所述常态模板;例如,对于物流送货机器人来说,可以将人体的正常坐姿、站姿、行走姿态、跑步姿态均定义为常态,分别定义其常态模板,每个常态模板均包括身体姿态关键节点集中节点B={B1,B2,…,BM}所分布的三维空间网格(例如,B1∈V1,V3或V6,B2∈V2,V3或V5,……直至BM)。
进一步地,根据采样帧身体姿态关键节点所分布的三维空间网格(即身体姿态关键节点分布网格),与所述常态模板进行比对,如果采样帧的某一身体姿态关键节点集中节点没有处于常态模板中该节点位于的三维空间网格,则对常态模板的偏离度+1,从而统计整个状态采样帧的偏离度。
比较判断子模块623,用于基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态。
具体的,对身体姿态分段中全部状态采样帧计算偏离度平均值,进而判断该偏离度平均值是否大于等于预设的偏离阈值,如果大于等于偏离阈值,则说明用户未处于常态。
在一个实施例中,所述用户姿态指令识别模块63,包括:
非常态采样帧抽取子模块631,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧。
指令模板符合度生成子模块632,用于将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度。
具体的,针对每个非常态采样帧,提取身体姿态关键节点的集合B中的节点,并确定身体姿态关键节点所分布的三维空间网格,进而定义机器人指令模板,该指令模板描述了用户对机器人下达指令的状态下,其身体姿态关键节点集中节点所分布的三维空间网格(即身体姿态关键节点分布网格)。
进一步地,根据非常态采样帧身体姿态关键节点所分布的三维空间网格,与指令模板进行比对,如果采样帧的某一身体姿态关键节点集中节点处于指令模板中该节点位于的三维空间网格,则指令模板符合度+1,从而统计整个采样帧的指令模板符合度。
用户姿态指令判断子模块633,用于基于所述指令模板符合度计算符合度平均值,将所述符合平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令。
具体的,对身体姿态分段中全部非常态采样帧的指令模板计算符合度平均值,判断符合度平均值是否大于等于预设的指令阈值,如果大于等于指令阈值,则认为该段身体姿态分段属于用户利用身体姿态向机器人下达指令(例如,在物料机器人的应用场合下,用户通过向机器人点头、摇头、挥手、伸腿等下达指令)。
控制子模块634,用于若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
具体的,将符合的身体姿态分段提供给机器人的模式识别程序,模式识别程序具体判断其指令类型并给与必要的响应。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (6)

1.基于用户姿势高效能识别的机器人控制方法,其特征在于,包括:
获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段;
基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人;
所述基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点分布网络与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态,包括:
基于所述身体姿态分段,按照第一预设比例抽取状态采样帧;
将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成采样帧偏离度;
基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态;
所述若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点分布网络与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人,包括:
若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧;
将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度;
基于所述指令模板符合度计算符合度平均值,将所述符合度平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令;
若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
2.如权利要求1所述的方法,其特征在于,所述获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段,包括:
采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格;
基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格;
定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值;
基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
3.如权利要求2所述的方法,其特征在于,所述基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段,包括:
定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组;
基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率;
将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
4.基于用户姿势高效能识别的机器人控制系统,其特征在于,包括:
身体姿态分段计算模块,用于获取身体姿态数据的帧序列,基于所述身体姿态数据的帧序列提取身体姿态关键节点与身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格,基于所述身体姿态关键节点与所述三维空间网格计算身体姿态分段;
身体姿态分段状态判断模块,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧,将所述状态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与预设常态模板进行对比,基于对比结果判断身体姿态分段是否处于常态;
用户姿态指令识别模块,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧,将所述非常态采样帧对应的所述身体姿态关键节点所分布的所述三维空间网格与指令模板进行对比,基于比较结果对所述身体姿态分段进行用户姿态指令识别,基于所述用户姿态指令控制机器人;
所述身体姿态分段状态判断模块,具体包括:
状态采样帧抽取子模块,用于基于所述身体姿态分段,按照第一预设比例抽取状态采样帧;
采样帧偏离度生成子模块,用于将所述状态采样帧对应的所述身体姿态关键节点分布网格与预设常态模板进行对比,生成采样帧偏离度;
比较判断子模块,用于基于所述采样帧偏离度计算偏离度平均值,将所述偏离度平均值与偏离阈值进行比较,基于比较结果判断所述身体姿态分段是否处于常态;
所述用户姿态指令识别模块,包括:
非常态采样帧抽取子模块,用于若所述身体姿态分段处于非常态,则按照第二预设比例抽取非常态采样帧;
指令模板符合度生成子模块,用于将所述非常态采样帧对应的所述身体姿态关键节点分布网格与指令模板进行对比,生成指令模板符合度;
用户姿态指令判断子模块,用于基于所述指令模板符合度计算符合度平均值,将所述符合度平均值与指令阈值进行比较,基于比较结果判断所述身体姿态分段是否属于所述用户姿态指令;
控制子模块,用于若所述身体姿态分段的属于所述用户姿态指令,则基于所述用户姿态指令控制所述机器人。
5.如权利要求4所述的系统,其特征在于,所述身体姿态分段计算模块,包括:
三维空间网格划分子模块,用于采集身体姿态数据分布空间,将所述身体姿态数据分布空间划分为三维空间网格;
身体姿态关键节点提取子模块,用于基于所述身体姿态数据提取所述身体姿态关键节点,确定所述身体姿态关键节点分布的所述三维空间网格,生成身体姿态关键节点分布网格;
姿态转移矩阵赋值子模块,用于定义所述三维空间网格之间的姿态转移矩阵,并基于所述身体姿态关键节点分布网格对所述姿态转移矩阵进行赋值;
身体姿态分段生成子模块,用于基于赋值后的所述姿态转移矩阵与同一身体姿态关键节点在所述三维空间网格之间进行转移的概率,利用预设算法生成动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
6.如权利要求5所述的系统,其特征在于,所述身体姿态分段生成子模块,包括:
转移概率矢量组构建单元,用于定义转移概率矢量,基于赋值后的所述姿态转移矩阵与所述同一身体姿态关键节点在所述三维空间网格之间进行转移的概率对转移概率矢量进行迭代,生成稳定概率,基于所述稳定概率构建转移概率矢量组;
姿态转移概率生成单元,用于基于所述转移概率矢量组确定所述身体姿态关键节点的节点转移概率,将所述节点转移概率累加,生成姿态转移概率;
动态分界帧生成单元,用于将所述姿态转移概率与姿态转移判定阈值进行比较,生成所述动态分界帧,基于所述动态分界帧生成所述身体姿态分段。
CN202111556629.0A 2021-12-17 2021-12-17 基于用户姿势高效能识别的机器人控制方法和系统 Active CN114393575B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111556629.0A CN114393575B (zh) 2021-12-17 2021-12-17 基于用户姿势高效能识别的机器人控制方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111556629.0A CN114393575B (zh) 2021-12-17 2021-12-17 基于用户姿势高效能识别的机器人控制方法和系统

Publications (2)

Publication Number Publication Date
CN114393575A CN114393575A (zh) 2022-04-26
CN114393575B true CN114393575B (zh) 2024-04-02

Family

ID=81226972

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111556629.0A Active CN114393575B (zh) 2021-12-17 2021-12-17 基于用户姿势高效能识别的机器人控制方法和系统

Country Status (1)

Country Link
CN (1) CN114393575B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101276370A (zh) * 2008-01-14 2008-10-01 浙江大学 基于关键帧的三维人体运动数据检索方法
CN103150752A (zh) * 2013-02-02 2013-06-12 浙江大学 一种基于关键标记点的人体姿态稀疏重建方法
CN103679747A (zh) * 2013-11-15 2014-03-26 南昌大学 一种运动捕捉数据关键帧提取方法
CN110609554A (zh) * 2019-09-17 2019-12-24 重庆特斯联智慧科技股份有限公司 一种机器人移动控制方法及装置
CN110858277A (zh) * 2018-08-22 2020-03-03 阿里巴巴集团控股有限公司 一种获得姿态分类模型的方法以及装置
CN112101243A (zh) * 2020-09-17 2020-12-18 四川轻化工大学 一种基于关键姿势和dtw的人体动作识别方法
JP6852936B1 (ja) * 2019-11-15 2021-03-31 広東工業大学Guangdong University Of Technology 深度点線特徴に基づくドローン視覚走行距離計方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537876B (zh) * 2018-03-05 2020-10-16 清华-伯克利深圳学院筹备办公室 三维重建方法、装置、设备及存储介质
CN109670397B (zh) * 2018-11-07 2020-10-30 北京达佳互联信息技术有限公司 人体骨骼关键点的检测方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101276370A (zh) * 2008-01-14 2008-10-01 浙江大学 基于关键帧的三维人体运动数据检索方法
CN103150752A (zh) * 2013-02-02 2013-06-12 浙江大学 一种基于关键标记点的人体姿态稀疏重建方法
CN103679747A (zh) * 2013-11-15 2014-03-26 南昌大学 一种运动捕捉数据关键帧提取方法
CN110858277A (zh) * 2018-08-22 2020-03-03 阿里巴巴集团控股有限公司 一种获得姿态分类模型的方法以及装置
CN110609554A (zh) * 2019-09-17 2019-12-24 重庆特斯联智慧科技股份有限公司 一种机器人移动控制方法及装置
JP6852936B1 (ja) * 2019-11-15 2021-03-31 広東工業大学Guangdong University Of Technology 深度点線特徴に基づくドローン視覚走行距離計方法
CN112101243A (zh) * 2020-09-17 2020-12-18 四川轻化工大学 一种基于关键姿势和dtw的人体动作识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Key-frame selection for automatic summarization of surveillance videos: a method of multiple change-point detection;Gao, Z;MACHINE VISION AND APPLICATIONS;20181031;第29卷(第7期);1101-1117 *
典型异常驾驶行为识别与预警方法研究;王肖;中国优秀硕士学位论文全文数据库;20210215(第2(2021)期);C035-491 *

Also Published As

Publication number Publication date
CN114393575A (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
CN104123007B (zh) 一种多维加权的3d动态手势识别方法
CN105353634B (zh) 利用手势识别控制操作的家电设备与方法
CN112148128B (zh) 一种实时手势识别方法、装置及人机交互系统
CN108986801A (zh) 一种人机交互方法、装置及人机交互终端
CN106569613A (zh) 一种多模态人机交互系统及其控制方法
WO2018153294A1 (zh) 人脸跟踪方法、存储介质及终端设备
Ren et al. A novel squeeze YOLO-based real-time people counting approach
CN111797288B (zh) 数据筛选方法、装置、存储介质及电子设备
CN112036261A (zh) 手势识别方法、装置、存储介质、电子装置
CN112101243A (zh) 一种基于关键姿势和dtw的人体动作识别方法
CN109598250A (zh) 特征提取方法、装置、电子设备和计算机可读介质
CN112800990A (zh) 一种实时人体动作识别和计数方法
CN109635706B (zh) 基于神经网络的手势识别方法、设备、存储介质及装置
CN113771027B (zh) 一种基于深度学习的双臂协作抓取方法
CN117475518B (zh) 一种同步人体运动识别与预测方法及系统
Zhu et al. Tri-HGNN: Learning triple policies fused hierarchical graph neural networks for pedestrian trajectory prediction
CN114393575B (zh) 基于用户姿势高效能识别的机器人控制方法和系统
CN112069979B (zh) 一种实时动作识别人机交互系统
Niranjani et al. System application control based on Hand gesture using Deep learning
CN117133277A (zh) 用于人机交互的虚拟人物表情控制方法及系统
CN112507880A (zh) 模型训练方法、洗手行为检测方法、装置、设备及介质
CN107194176A (zh) 一种残疾人智能操作的数据填补与行为预测的方法
CN111571567A (zh) 机器人转译技能训练方法、装置及电子设备和存储介质
CN113822172B (zh) 一种视频时空行为检测方法
CN116252302A (zh) 一种基于肢体动作预测的动态人机协作装配方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant