CN116079718A - 动作模仿方法、装置、计算机可读存储介质及机器人 - Google Patents
动作模仿方法、装置、计算机可读存储介质及机器人 Download PDFInfo
- Publication number
- CN116079718A CN116079718A CN202211615479.0A CN202211615479A CN116079718A CN 116079718 A CN116079718 A CN 116079718A CN 202211615479 A CN202211615479 A CN 202211615479A CN 116079718 A CN116079718 A CN 116079718A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- robot
- pose
- skeleton structure
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本申请属于机器人技术领域,尤其涉及一种动作模仿方法、装置、计算机可读存储介质及机器人。所述方法包括:采集被模仿对象的动作图像;对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态;对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态;根据所述三维姿态计算机器人的世界位姿;根据所述世界位姿控制所述机器人进行运动。通过上述方法,可以首先对动作图像进行二维姿态估计,再根据二维姿态估计结果进行三维姿态估计,使姿态估计结果更平滑稳定,减少机器人动作的逻辑错误,具有较强的易用性与实用性。
Description
技术领域
本申请属于机器人技术领域,尤其涉及一种动作模仿方法、装置、计算机可读存储介质及机器人。
背景技术
目前,人形机器人已经可以在一定程度上仿照人类的运动方式进行运动。然而,人形机器人在对人类动作的模仿过程中,容易受到多种因素影响,例如目标图像背景色彩复杂、动作图像模糊或者目标人物被遮挡等,从而导致姿态估计结果存在跳变,造成机器人的动作出现逻辑错误。
发明内容
有鉴于此,本申请实施例提供了一种动作模仿方法、装置、计算机可读存储介质及机器人,以解决现有技术中姿态估计结果存在跳变,造成机器人的动作出现逻辑错误的问题。
本申请实施例的第一方面提供了一种动作模仿方法,可以包括:
采集被模仿对象的动作图像;
对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态;
对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态;
根据所述三维姿态计算机器人的世界位姿;
根据所述世界位姿控制所述机器人进行运动。
在第一方面的一种具体实现方式中,所述对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态,可以包括:
使用预先训练好的目标检测模型对所述动作图像进行目标检测,得到目标图像;
使用预先训练好的关键点检测模型对所述目标图像进行关键点检测,得到所述二维姿态。
在第一方面的一种具体实现方式中,所述对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态,可以包括:
对所述二维姿态进行特征提取,得到多个初始特征;
对所述多个初始特征进行特征融合,得到第一融合特征;
根据所述第一融合特征的时域信息,生成所述三维姿态。
在第一方面的一种具体实现方式中,所述对所述二维姿态进行特征提取,得到多个初始特征,可以包括:
根据所述二维姿态中的关键点,生成多个假设姿态;
对所述多个假设姿态进行特征提取,得到所述多个初始特征。
在第一方面的一种具体实现方式中,所述根据所述第一融合特征的时域信息,生成所述三维估计姿态,可以包括:
获取与所述动作图像相邻的前一帧图像与后一帧图像,得到所述前一帧图像的第二融合特征和所述后一帧图像的第三融合特征;
根据所述第一融合特征、所述第二融合特征和所述第三融合特征,生成所述三维姿态。
在第一方面的一种具体实现方式中,所述根据所述三维姿态计算机器人的世界位姿,可以包括:
计算所述三维姿态中的各个关节长度与关节姿态角,得到初始骨架结构;
根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿。
在第一方面的一种具体实现方式中,所述根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿,可以包括:
若所述机器人的骨架结构与所述初始骨架结构相同,则根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿;
若所述机器人的骨架结构与所述初始骨架结构不同,则修改所述初始骨架结构,得到修改骨架结构;
根据所述修改骨架结构与所述机器人的连杆长度,得到所述世界位姿。
本申请实施例的第二方面提供了一种动作模仿装置,可以包括:
动作图像采集模块,用于采集被模仿对象的动作图像;
二维姿态估计模块,用于对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态;
三维姿态估计模块,用于对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态
世界位姿计算模块,用于根据所述三维姿态计算机器人的世界位姿;
运动控制模块,用于根据所述世界位姿控制所述机器人进行运动。
在第二方面的一种具体实现方式中,所述二维姿态估计模块可以包括:
目标检测单元,用于使用预先训练好的目标检测模型对所述动作图像进行目标检测,得到目标图像;
关键点检测单元,用于使用预先训练好的关键点检测模型对所述目标图像进行关键点检测,得到所述二维姿态。
在第二方面的一种具体实现方式中,所述三维姿态估计模块可以包括:
特征提取单元,用于对所述二维姿态进行特征提取,得到多个初始特征;
特征融合单元,用于对所述多个初始特征进行特征融合,得到第一融合特征;
三维姿态生成单元,用于根据所述第一融合特征的时域信息,生成所述三维姿态。
在第二方面的一种具体实现方式中,所述特征提取单元可以包括:
假设姿态生成子单元,用于根据所述二维姿态中的关键点,生成多个假设姿态;
特征提取子单元,用于对所述多个假设姿态进行特征提取,得到所述多个初始特征。
在第二方面的一种具体实现方式中,所述三维姿态生成单元可以包括:
图像获取子单元,用于获取与所述动作图像相邻的前一帧图像与后一帧图像,得到所述前一帧图像的第二融合特征和所述后一帧图像的第三融合特征;
三维姿态生成子单元,用于根据所述第一融合特征、所述第二融合特征和所述第三融合特征,生成所述三维姿态。
在第二方面的一种具体实现方式中,所述世界位姿计算单元可以包括:
关节计算子单元,用于计算所述三维姿态中的各个关节长度与关节姿态角,得到初始骨架结构;
世界位姿获取子单元,用于根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿。
在第二方面的一种具体实现方式中,所述世界位姿获取子单元可以包括:
世界位姿第一获取子单元,用于若所述机器人的骨架结构与所述初始骨架结构相同,则根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿;
骨架修改子单元,用于若所述机器人的骨架结构与所述初始骨架结构不同,则修改所述初始骨架结构,得到修改骨架结构;
世界位姿第二获取子单元,用于根据所述修改骨架结构与所述机器人的连杆长度,得到所述世界位姿。
本申请实施例的第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种动作模仿方法的步骤。
本申请实施例的第四方面提供了一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一种动作模仿方法的步骤。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在机器人上运行时,使得机器人执行上述任一种动作模仿方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例采集被模仿对象的动作图像;对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态;对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态;根据所述三维姿态计算机器人的世界位姿;根据所述世界位姿控制所述机器人进行运动。通过本申请实施例,可以首先对动作图像进行二维姿态估计,再根据二维姿态估计结果进行三维姿态估计,使姿态估计结果更平滑稳定,减少机器人动作的逻辑错误,具有较强的易用性与实用性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例中一种动作模仿方法的一个实施例流程图;
图2为对动作图像进行二维姿态估计的示意流程图;
图3为二维姿态中关键点的示意图;
图4为对二维姿态进行三维姿态估计的示意流程图;
图5为二维姿态的初始特征生成的示意流程图;
图6为三维姿态生成的示意流程图;
图7为三维姿态生成的示意图;
图8为世界位姿计算过程的示意流程图;
图9为BVH树生成的示意图;
图10为世界位姿生成的示意流程图;
图11为初始骨架结构和机器人骨架结构的示意图;
图12为本申请实施例中一种动作模仿装置的一个实施例结构图;
图13为本申请实施例中一种机器人的示意框图。
具体实施方式
为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本申请一部分实施例,而非全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
目前的人形机器人进行人类动作模仿的过程中,容易受到诸如目标图像背景色彩复杂、动作图像模糊或者目标人物被遮挡等多种因素的影响,从而导致姿态估计结果存在跳变,造成机器人的动作出现逻辑错误。
有鉴于此,本申请实施例提供一种动作模仿方法、装置、计算机可读存储介质及机器人。通过本申请实施例,可以使姿态估计结果更平滑稳定,减少机器人动作的逻辑错误。
请参阅图1,本申请实施例中一种动作模仿方法的一个实施例可以包括:
步骤S101、采集被模仿对象的动作图像。
上述动作图像为被模仿对象在运动时采集的动作视频序列中的任意一帧。可以理解的是,动作视频序列中可以有多帧动作图像,为了便于叙述,以下将以一帧动作图像为例进行说明。
具体地,可以使用机器人自身携带的相机或者安装在预设位置的相机采集被模仿对象的动作视频序列,并获得动作图像。本申请实施例中的相机可以优选为RGB相机,所采集到的动作图像为二维的RGB图像,即由红(R)、绿(G)、蓝(B)三个颜色通道组成的图像。所述动作图像的尺寸可以根据实际情况进行设置,本申请实施例对此不作具体限定。
步骤S102、对动作图像进行二维姿态估计,得到被模仿对象的二维姿态。
请参阅图2,步骤S102可以包括具体如下过程:
步骤S1021、使用预先训练好的目标检测模型对动作图像进行目标检测,得到目标图像。
可以理解的是,动作图像中的背景色彩可能非常复杂,若将动作图像直接用于关键点检测,可能会降低关键点检测的准确率。为了提升关键点检测的准确率,可以首先检测出动作图像中的感兴趣区域(Region of Interest,ROI),即目标人物所在区域。在本申请实施例中,可以首先对动作图像进行目标检测,并得到只包含被模仿对象的目标图像。具体地,可以使用训练好的目标检测模型对动作图像进行目标检测,可以检测出动作图像中是否存在人物,若存在人物,则可以进一步检测出人物在动作图像中的具体位置,并可以根据该具体位置的范围对动作图像进行裁剪,得到只包含目标人物(即被模仿对象)的目标图像。
其中,上述预先训练好的目标检测模型可以是现有技术中常用的用于目标检测的人工智能模型,包括但不限于卷积神经网络(Convolutional Neural Networks,CNN)、基于区域的卷积神经网络(Region Convolutional Neural Networks,R-CNN)、前馈神经网络(Feedforward Neural network,FNN)、径向基网络(Radial Basis Network,RBN)、循环神经网络(Recurrent Neural Network,RNN)等常见的人工智能模型,在本申请实施例中,目标检测模型可以优选为用于二维目标检测的轻量级卷积神经网络。
在本申请实施例中,可以预先对目标检测模型进行训练。具体地,可以以预设数量的动作图像样本集作为输入,以动作图像中标记好的目标人物位置和范围作为预期输出,对目标模型进行训练,并得到本申请实施例中的目标检测模型。
需要说明的是,若使用上述方法未检测出目标人物,则无需执行步骤S1022及其后续步骤。
步骤S1022、使用预先训练好的关键点检测模型对目标图像进行关键点检测,得到二维姿态。
上述关键点为目标人物的多个关节。
需要说明的是,现有技术中普遍采用COCO数据集中的17个关键点作为关键点检测的参考关键点。然而,17个关键点难以表示末端关节如手腕和脚踝等关节的姿态。因此,为了避免单个末端关节二维姿态估计错误,导致后续该末端关节的姿态角计算不正确的情况,在本申请实施例中,将17个关键点拓展到25个关键点,能够获得手腕和脚踝的末端关节,使得机器人的动作更具备完整性。
可以理解的是,目标人物的关节位置可以表示目标人物动作的关节姿态,因此检测出目标人物的25个关节位置后,容易实现对目标人物的动作模仿。
具体地,可以使用预先训练好的关键点检测模型对目标图像进行关键点检测,得到二维姿态。其中,上述预先训练好的关键点检测模型可以是现有技术中常用的用于关键点检测的人工智能模型,在本申请实施例中,关键点检测模型可以优选地包括轻量级的骨干网络及特征金字塔网络(Feature Pyramid Networks,FPN)。其中,骨干网络可以为仅保留卷积层的轻量级网络,例如MobileNet或者ShuffleNet等现有的轻量级网络;FPN可以为对骨干网络进行上采样的网络。
可以理解的是,在使用关键点检测模型进行关键点检测之前,可以预先对关键点检测模型进行训练。具体地,可以以预设数量的目标图像样本集作为输入,以目标图像中标记好的25个关键点作为预期输出,对关键点检测模型进行训练,并得到本申请实施例中的关键点检测模型。
本申请实施例检测出的关键点可以参阅图3,其对应的编号及名称为:{0-鼻子(Nose),1-右眼(REye),2-左眼(LEye),3-右耳(REar),4-左耳(LEar),5-右肩(RShoulder),6-左肩(LShoulder),7-右手肘(RElbow),8-左手肘(LElbow),9-右手腕(RWrist),10-左手腕(LWrist),11-右拇指(RThumb),12-左拇指(LThumb),13-右中指(RMiddle),14-左中指(LMiddle),15-右臀(RHip),16-左臀(LHip),17-右膝盖(RKnee),18-左膝盖(LKnee),19-右脚踝(RAnkle),20-左脚踝(LAnkle),21-右脚跟(RHeel),22-左脚跟(LHeel),23-右拇指(RToe),24-左拇指(LToe)}。可见,本申请实施例检测25个关键点,可以更为准确地获得目标人物手腕和脚踝的末端关节姿态结果,得到二维姿态。
步骤S103、对二维姿态进行三维姿态估计,得到被模仿对象的三维姿态。
可以理解的是,进行三维姿态估计时有可能会存在多种可能的三维姿态,且动作图像的前后帧图像的运动趋势等时域信息均可能对三维姿态产生影响,为了使得三维姿态估计结果更符合被模仿对象的实际运动状态,减少动作的跳变,本申请实施例采用基于多假设的Transformer模型进行三维姿态估计。
请参阅图4,步骤S103可以包括具体如下过程:
步骤S1031、对二维姿态进行特征提取,得到多个初始特征。
请参阅图5,步骤S1031可以包括具体如下过程:
步骤S1031a、根据二维姿态中的关键点,生成多个假设姿态。
具体地,可以利用Transformer模型中的多假设生成模块,基于二维姿态中的关键点(即关节位置),生成多个假设姿态,其中,每个假设姿态中至少有一个关键点的位置不同。
可以理解的是,关键点的不同位置可以表示不同的动作,即不同的姿态。
在一种可能的实施例中,可以通过对关键点的平移和旋转生成多个不同的假设姿态。
步骤S1031b、对多个假设姿态进行特征提取,得到多个初始特征。
对于生成的每个假设姿态,可以进行特征提取,得到多个初始特征。具体地,可以使用现有技术中任意一种特征提取方法进行特征提取,本申请实施例对此不作具体限定。
在一种可能的实施例中,可以对多个假设姿态进行建模,将多个假设姿态映射到空域上,并生成多个多级特征(multi-level feature)。这些特征包含从浅到深不同深度的语义信息,因此可被视为多个假设的初始特征。
步骤S1032、对多个初始特征进行特征融合,得到第一融合特征。
得到多个初始特征后,可以对多个初始特征进行特征融合,实现跨假设交换彼此信息。具体地,可以将一帧动作图像的多个初始特征输入多层感知器,进行同一帧图像内的多个假设之间的通信,将多个假设合并成一个收敛的表征融合结果,得到第一融合特征。
步骤S1033、根据第一融合特征的时域信息,生成三维姿态。
可以理解的是,在实际应用中,当前帧的动作图像的三维姿态估计与上一帧动作图像相比,可能存在关键点跳变的问题。为了减少出现关键点跳变的情况,在本申请实施例中,可以结合第一融合特征的时域信息进行三维姿态估计。
请参阅图6,步骤S1033可以包括具体如下过程:
步骤S1033a、获取与动作图像相邻的前一帧图像与后一帧图像,得到前一帧图像的第二融合特征和后一帧图像的第三融合特征。
在本申请实施例中,第一融合特征的时域信息可以通过当前帧动作图像的前一帧图像与后一帧图像来获取。
具体地,可以首先获取当前帧动作图像的前一帧图像与后一帧图像,并按照上述方法生成前一帧特征的第二融合特征和后一帧图像的第三融合特征。
可以理解的是,在多数情况下,会对动作视频序列的每一帧图像按照顺序进行三维姿态估计,所以对当前帧动作图像进行三维姿态估计时,前一帧图像的融合特征(记为第二融合特征)已经在对前一帧图像进行三维姿态估计时按照上述方法获得,因此可以直接获取第二融合特征,而无需重复生成第二融合特征。
步骤S1033b、根据第一融合特征、第二融合特征和第三融合特征,生成三维姿态。
可以理解的是,三维姿态估计是在二维姿态估计全流程结束之后才进行的,所以在进行三维姿态估计时,图像前后帧图像的所有二维姿态均为已知。因此,可以通过使用当前帧动作图像的前后帧图像的融合特征,进行跨不同帧图像多假设间的信息交互。
具体地,在获取到第二融合特征和第三融合特征之后,可以将第一融合特征、第二融合特征和第三融合特征输入多层感知器,以实现跨不同帧图像多假设间的信息交互。
整体过程可以参阅图7所示的示意图,可以以动作视频序列中的第i帧图像为当前帧动作图像,则第i-1帧图像为前一帧图像,第i+1帧为后一帧图像。每一帧图像的二维姿态都可以生成多个假设姿态,并得到该帧图像的多假设融合特征。将当前帧图像的第一融合特征(图示的第i帧融合特征)、前一帧图像的第二融合特征(图示的第i-1帧融合特征)和后一帧图像的第三融合特征(图示的第i+1帧融合特征)输入多层感知器,即可以实现跨不同帧图像多假设间的信息交互,最终得到当前帧的三维姿态(图示的第i帧三维姿态)。
步骤S104、根据三维姿态计算机器人的世界位姿。
请参阅图8,步骤S104可以包括具体如下过程:
步骤S1041、计算三维姿态中的各个关节长度与关节姿态角,得到初始骨架结构。
根据得出的三维姿态,可以计算三维姿态中各个关节的长度与关节姿态角,得到初始骨架结构。
具体地,可以根据三维姿态中各个关键点来计算关节的长度与姿态角,得到初始骨架结构。
请参阅图9,在本申请实施例中,得到三维姿态后,可以获取到三维姿态中各个关键点(即各个关节)的坐标,根据关键点的坐标容易计算得到各个关键点的距离,该距离即为关节的长度。通过肩部、肘部、手部、髋部等关键点的位置信息,建立坐标向量并采用几何分析方法可以求解得到各个关节的姿态角。
在计算出三维姿态的各个关节长度和关节姿态角后,可以据此建立层次包围体(Bounding Volume Hierarchy,BVH)树,得到初始骨架结构。其中,BVH树中的每个节点都可以存储该节点的名称和该节点到其父节点的距离;BVH树中各个节点的逻辑关系可以用于表示初始骨架结构中各个关节之间的连接关系;BVH树中的各节点与其父节点之间的距离为初始骨架结构的默认骨长。
可以理解的是,对动作视频序列的每帧动作图像都进行上述计算过程后,即可得到动作视频序列的完整动作轨迹,并可以将建立的BVH树、关节长度、关节姿态角存储在后缀为.bvh的文件中。
步骤S1042、根据初始骨架结构与机器人的连杆长度,得到世界位姿。
可以理解的是,不同的机器人可能拥有不同的关节数目,即意味着拥有不同的骨架结构,若对所有的机器人都直接应用同种世界位姿计算方法,则有可能导致机器人出现逻辑错误。为了增加机器人的鲁棒性,在本申请实施例中,可以根据初始骨架结构和机器人的连杆长度确定世界位姿。
请参阅图10,步骤S1042可以包括具体如下过程:
步骤S1042a、判断机器人的骨架结构与初始骨架结构是否相同。
在本申请实施例中,可以判断机器人的骨架结构与初始骨架结构是否相同,根据判断结果得到世界位姿。具体地,可以判断两种骨架结构的关节数目和关节连接关系是否相同,若两种骨架结构的关节数目和关节连接关系均相同,则可以认为两种骨架结构相同;反之,则可以认为两种骨架结构不同。
若机器人的骨架结构与初始骨架结构相同,则执行步骤S1042b;若机器人的骨架结构与初始骨架结构不同,则执行步骤S1042c至步骤S1042d。
步骤S1042b、根据初始骨架与机器人的连杆长度,得到世界位姿。
若机器人的骨架结构与初始骨架结构相同,则可以直接读取.bvh文件中存储的BVH树等信息,并可以用机器人的实际连杆长度代替初始骨架结构中的默认骨长以计算机器人各个关节在世界坐标系下的三维坐标,得到世界位姿。
具体地,可以通过计算各个关节与其父节点关节之间的骨长,并以此代替该关节对应节点的初始骨长,再根据.bvh文件中存储的各个关节姿态角得到各个关节在世界坐标系下的三维坐标,得到世界位姿。
步骤S1042c、修改初始骨架结构,得到修改骨架结构。
若机器人的骨架结构与初始骨架结构不同,则可以根据机器人的骨架结构对初始骨架结构进行修改,得到修改骨架结构。具体地,可以通过对BVH树中关节数目和关节连接关系进行修改,得到修改骨架结构。
在一种可能的实施例中,建立的初始骨架结构可以参考图11(a),机器人的骨架结构可以参考图11(b)。容易看出,初始骨架结构与机器人的骨架结构相比,初始骨架结构在胸口和胯关节之间多了一个脊柱关节,则可以将初始骨架结构中的脊柱关节去除,将胸口和胯关节直接相连,并据此修改BVH树,得到与机器人骨架结构相同的修改骨架结构。
步骤S1042d、根据修改骨架结构与机器人的连杆长度,得到世界位姿。
世界位姿的计算过程可以参考步骤S1042b,可以用机器人的连杆长度代替修改骨架结构中的默认骨长以计算各个关节在世界坐标系下的三维坐标,得到世界位姿。
步骤S105、根据世界位姿控制机器人进行运动。
在一种可能的实施例中,为了使动作模仿的轨迹更符合机器人运动的规律,还可以通过输入关键的关节位置,使用逆运动学求解的方法得到中间关节的位置。例如,可以通过输入手腕和脚踝等较末端的关节位置,使用逆运动学求解的方法求出手肘和膝盖等中间节点应该达到的位置。
可以理解的是,在实际应用中,还可以通过仿真来实现动作模仿。具体地,可以通过得到的世界位姿转换为仿真环境下需要的关节信息,再通过仿真执行动作模仿的运动轨迹。
综上所述,本申请实施例可以首先对动作图像进行二维姿态估计,再根据二维姿态估计结果进行三维姿态估计,使姿态估计结果更平滑稳定,减少机器人动作的逻辑错误,具有较强的易用性与实用性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的一种动作模仿方法,图12示出了本申请实施例提供的一种动作模仿装置的一个实施例结构图。
本实施例中,一种动作模仿装置可以包括:
动作图像采集模块1201,用于采集被模仿对象的动作图像;
二维姿态估计模块1202,用于对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态;
三维姿态估计模块1203,用于对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态
世界位姿计算模块1204,用于根据所述三维姿态计算机器人的世界位姿;
运动控制模块1205,用于根据所述世界位姿控制所述机器人进行运动。
在本申请实施例的一种具体实现方式中,二维姿态估计模块可以包括:
目标检测单元,用于使用预先训练好的目标检测模型对所述动作图像进行目标检测,得到目标图像;
关键点检测单元,用于使用预先训练好的关键点检测模型对所述目标图像进行关键点检测,得到所述二维姿态。
在本申请实施例的一种具体实现方式中,三维姿态估计模块可以包括:
特征提取单元,用于对所述二维姿态进行特征提取,得到多个初始特征;
特征融合单元,用于对所述多个初始特征进行特征融合,得到第一融合特征;
三维姿态生成单元,用于根据所述第一融合特征的时域信息,生成所述三维姿态。
在本申请实施例的一种具体实现方式中,所述特征提取单元可以包括:
假设姿态生成子单元,用于根据所述二维姿态中的关键点,生成多个假设姿态;
特征提取子单元,用于对所述多个假设姿态进行特征提取,得到所述多个初始特征。
在本申请实施例的一种具体实现方式中,所述三维姿态生成单元可以包括:
图像获取子单元,用于获取与所述动作图像相邻的前一帧图像与后一帧图像,得到所述前一帧图像的第二融合特征和所述后一帧图像的第三融合特征;
三维姿态生成子单元,用于根据所述第一融合特征、所述第二融合特征和所述第三融合特征,生成所述三维姿态。
在本申请实施例的一种具体实现方式中,所述世界位姿计算单元可以包括:
关节计算子单元,用于计算所述三维姿态中的各个关节长度与关节姿态角,得到初始骨架结构;
世界位姿获取子单元,用于根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿。
在本申请实施例的一种具体实现方式中,所述世界位姿获取子单元可以包括:
世界位姿第一获取子单元,用于若所述机器人的骨架结构与所述初始骨架结构相同,则根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿;
骨架修改子单元,用于若所述机器人的骨架结构与所述初始骨架结构不同,则修改所述初始骨架结构,得到修改骨架结构;
世界位姿第二获取子单元,用于根据所述修改骨架结构与所述机器人的连杆长度,得到所述世界位姿。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置,模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
图13示出了本申请实施例提供的一种机器人的示意框图,为了便于说明,仅示出了与本申请实施例相关的部分。
如图13所示,该实施例的机器人13包括:处理器130、存储器131以及存储在所述存储器131中并可在所述处理器130上运行的计算机程序132。所述处理器130执行所述计算机程序132时实现上述各个动作模仿方法实施例中的步骤,例如图1所示的步骤S101至步骤S105。或者,所述处理器130执行所述计算机程序132时实现上述各装置实施例中各模块/单元的功能,例如图12所示模块1201至模块1205的功能。
示例性的,所述计算机程序132可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器131中,并由所述处理器130执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序132在所述机器人13中的执行过程。
本领域技术人员可以理解,图13仅仅是机器人13的示例,并不构成对机器人13的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述机器人13还可以包括输入输出设备、网络接入设备、总线等。
所述处理器130可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器131可以是所述机器人13的内部存储单元,例如机器人13的硬盘或内存。所述存储器131也可以是所述机器人13的外部存储设备,例如所述机器人13上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器131还可以既包括所述机器人13的内部存储单元也包括外部存储设备。所述存储器131用于存储所述计算机程序以及所述机器人13所需的其它程序和数据。所述存储器131还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/机器人和方法,可以通过其它的方式实现。例如,以上所描述的装置/机器人实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种动作模仿方法,其特征在于,包括:
采集被模仿对象的动作图像;
对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态;
对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态;
根据所述三维姿态计算机器人的世界位姿;
根据所述世界位姿控制所述机器人进行运动。
2.根据权利要求1所述的动作模仿方法,其特征在于,所述对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态,包括:
使用预先训练好的目标检测模型对所述动作图像进行目标检测,得到目标图像;
使用预先训练好的关键点检测模型对所述目标图像进行关键点检测,得到所述二维姿态。
3.根据权利要求1所述的动作模仿方法,其特征在于,所述对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态,包括:
对所述二维姿态进行特征提取,得到多个初始特征;
对所述多个初始特征进行特征融合,得到第一融合特征;
根据所述第一融合特征的时域信息,生成所述三维姿态。
4.根据权利要求3所述的动作模仿方法,其特征在于,所述对所述二维姿态进行特征提取,得到多个初始特征,包括:
根据所述二维姿态中的关键点,生成多个假设姿态;
对所述多个假设姿态进行特征提取,得到所述多个初始特征。
5.根据权利要求3所述的动作模仿方法,其特征在于,所述根据所述第一融合特征的时域信息,生成所述三维估计姿态,包括:
获取与所述动作图像相邻的前一帧图像与后一帧图像,得到所述前一帧图像的第二融合特征和所述后一帧图像的第三融合特征;
根据所述第一融合特征、所述第二融合特征和所述第三融合特征,生成所述三维姿态。
6.根据权利要求1所述的动作模仿方法,其特征在于,所述根据所述三维姿态计算机器人的世界位姿,包括:
计算所述三维姿态中的各个关节长度与关节姿态角,得到初始骨架结构;
根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿。
7.根据权利要求6所述的动作模仿方法,其特征在于,所述根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿,包括:
若所述机器人的骨架结构与所述初始骨架结构相同,则根据所述初始骨架结构与所述机器人的连杆长度,得到所述世界位姿;
若所述机器人的骨架结构与所述初始骨架结构不同,则修改所述初始骨架结构,得到修改骨架结构;
根据所述修改骨架结构与所述机器人的连杆长度,得到所述世界位姿。
8.一种动作模仿装置,其特征在于,包括:
动作图像采集模块,用于采集被模仿对象的动作图像;
二维姿态估计模块,用于对所述动作图像进行二维姿态估计,得到所述被模仿对象的二维姿态;
三维姿态估计模块,用于对所述二维姿态进行三维姿态估计,得到所述被模仿对象的三维姿态
世界位姿计算模块,用于根据所述三维姿态计算机器人的世界位姿;
运动控制模块,用于根据所述世界位姿控制所述机器人进行运动。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的动作模仿方法的步骤。
10.一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的动作模仿方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211615479.0A CN116079718A (zh) | 2022-12-15 | 2022-12-15 | 动作模仿方法、装置、计算机可读存储介质及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211615479.0A CN116079718A (zh) | 2022-12-15 | 2022-12-15 | 动作模仿方法、装置、计算机可读存储介质及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116079718A true CN116079718A (zh) | 2023-05-09 |
Family
ID=86207308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211615479.0A Pending CN116079718A (zh) | 2022-12-15 | 2022-12-15 | 动作模仿方法、装置、计算机可读存储介质及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116079718A (zh) |
-
2022
- 2022-12-15 CN CN202211615479.0A patent/CN116079718A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109636831B (zh) | 一种估计三维人体姿态及手部信息的方法 | |
Stoll et al. | Fast articulated motion tracking using a sums of gaussians body model | |
WO2021169839A1 (zh) | 一种基于骨骼关键点的动作还原方法以及装置 | |
Zhao et al. | Combining marker-based mocap and rgb-d camera for acquiring high-fidelity hand motion data | |
KR101616926B1 (ko) | 영상 처리 장치 및 방법 | |
KR101711736B1 (ko) | 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 | |
WO2018162929A1 (en) | Image analysis using neural networks for pose and action identification | |
Mall et al. | A deep recurrent framework for cleaning motion capture data | |
CN112083800B (zh) | 基于自适应手指关节规则滤波的手势识别方法及系统 | |
WO2008007471A1 (fr) | Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur | |
CN109829972B (zh) | 一种面向连续帧点云的三维人体标准骨架提取方法 | |
CN113658211B (zh) | 一种用户姿态的评估方法、装置以及处理设备 | |
US10970849B2 (en) | Pose estimation and body tracking using an artificial neural network | |
CN114641799A (zh) | 对象检测设备、方法和系统 | |
WO2024094227A1 (zh) | 一种基于卡尔曼滤波和深度学习的手势姿态估计方法 | |
CN113780197A (zh) | 动作姿态信息补全方法、电子设备及计算机可读存储介质 | |
Fisch et al. | Orientation keypoints for 6D human pose estimation | |
Hachaj et al. | Real-time recognition of selected karate techniques using GDL approach | |
Jiang et al. | independent hand gesture recognition with Kinect | |
CN113592898A (zh) | 一种动作捕捉中缺失标记重建方法 | |
KR20200057572A (ko) | 딥러닝 기반 손 인식 증강현실 상호 작용 장치 및 방법 | |
CN116079718A (zh) | 动作模仿方法、装置、计算机可读存储介质及机器人 | |
US11887257B2 (en) | Method and apparatus for virtual training based on tangible interaction | |
CN113724176A (zh) | 一种多摄像头动作捕捉无缝衔接方法、装置、终端及介质 | |
CN113160295A (zh) | 一种关节点位置修正方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |