CN114939874B - 一种机械手臂沿人体表面移动的姿态规划方法 - Google Patents
一种机械手臂沿人体表面移动的姿态规划方法 Download PDFInfo
- Publication number
- CN114939874B CN114939874B CN202210761253.5A CN202210761253A CN114939874B CN 114939874 B CN114939874 B CN 114939874B CN 202210761253 A CN202210761253 A CN 202210761253A CN 114939874 B CN114939874 B CN 114939874B
- Authority
- CN
- China
- Prior art keywords
- coordinate
- human body
- point
- mechanical arm
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种机械手臂沿人体表面移动的姿态规划方法,包括如下步骤:获取人体表面图像,生成人体表面的关键坐标点;获取人体表面点云数据,生成人体表面深度图;在人体表面图像中选取邻域;从人体表面深度图取得对应位置的深度坐标信息,将2D邻域点集转换成3D点集;形成3D点云矩阵;对每一个3D点云矩阵通过求协方差矩阵,得到3D点云矩阵的特征值λ和特征向量x,y,z;在人体表面建立起一个物体坐标系;求得欧拉角R,对机械手臂的姿态进行调整。本发明,可对机械手臂的姿态精确的进行控制,满足沿人体表面移动的需要,适用于人脸部位的机械手臂移动中的姿态控制,可模拟人工操作中的移动姿态,避免意外情况及错误操作情况的出现。
Description
技术领域
本发明涉及美容护理自动化技术领域,具体说是一种机械手臂沿人体表面移动的姿态规划方法。
背景技术
在美容护理领域,针对人体例如脸部的美容操作,大都依赖于人工操作,对操作者的熟练度要求较高,对操作者的经验、习惯依赖性强,劳动强度大,重复性动作较多,美容操作难以标准化、规范化、自动化。
人工智能的研发不断发展,机器视觉方面的研究也越来越成熟,现有的机器视觉技术,更多的应用在工业上,例如:用于抓取工件,用于零部件焊接等自动化处理任务。
机器视觉技术与机械手臂技术结合并应用于美容领域,缺乏成熟的技术方案,有必要进一步研究优化。
中国专利201810202033.2公开了机械手臂姿态规划与作业方法、装置以及计算机设备,通过面部的点云信息,使得到的面部数据更为精准,并对面部点云信息进行进一步处理,得到面部中需要进行待处理的部位,确保对面部这一特殊部位,在对其作业处理过程中的作业部位的准确性,依据机械手臂上工具头的参数信息,可以及时了解工具头以及机械手臂的作业过程,合理进行调整,通过规划机械手臂的工作路径与获取工具头的参数信息来进行作业处理,实现了自动化的作业处理过程。
该技术方案存在以下不足:对机械手臂的位姿调整依赖于压力参数信息,当工具头的压力参数信息难以获取时,例如当工具头未与人体接触时,工具头的压力参数信息不存在,又例如当工具头不适合安装压力传感器,无法采集工具头的压力参数信息;再例如:因传感器问题,导致工具头的压力参数信息失真,都会导致无法准确的对机械手臂的位姿进行调整。
公开于该背景技术部分的信息仅仅旨在加深对本发明的总体背景技术的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域技术人员所公知的现有技术。
发明内容
针对现有技术中存在的缺陷,本发明的目的在于提供一种机械手臂沿人体表面移动的姿态规划方法,可对机械手臂的姿态精确的进行控制,满足沿人体表面移动的需要,适用于人脸部位的机械手臂移动中的姿态控制,可模拟人工操作中的移动姿态,避免意外情况及错误操作情况的出现。
为达到以上目的,本发明采取的技术方案是:
一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,包括如下步骤:
步骤一,获取人体表面图像,生成人体表面的关键坐标点,基于关键坐标点的二维坐标信息形成关键坐标点集;
步骤二,获取人体表面点云数据,生成人体表面深度图;
步骤三,以各关键坐标点的二维坐标信息为中心,按邻域的预设尺寸,在人体表面图像中选取邻域,形成2D邻域点集;
步骤四,用2D邻域点集中的每个平面点,从人体表面深度图取得对应位置的深度坐标信息,所述深度坐标信息指深度值Z,然后通过3D投影变换将2D邻域点集转换成3D点集;
步骤五,对3D点集分组,分组原则为:以关键坐标点及其邻域为划分单位,将一个划分单位内涵盖的、3D点集中的3D点,划分为一组;
步骤六;按分组形成若干3D点云矩阵;
步骤七,对每一个3D点云矩阵通过求协方差矩阵,得到3D点云矩阵的特征值λ和特征向量x,y,z;
通过求协方差矩阵,以每一个3D点为中心,在人体表面建立起一个物体坐标系,所述物体坐标系由坐标原点和x,y,z坐标轴组成;
步骤八,根据前一步骤中得到的各个3D点云矩阵的特征值和特征向量,求得欧拉角R,对机械手臂的姿态进行调整。
在上述技术方案的基础上,步骤一中,所述人体表面图像是指人体2D红外图;
步骤一的具体步骤如下:
基于opencv官方库进行人脸位置检测;
通过Dlib数据库实现人脸区域的68个关键坐标点的提取;
基于68个关键坐标点扩展生成额头区域的10个关键坐标点,合计实现78个关键坐标点的提取;
所述扩展生成额头区域的10个关键坐标点采用如下计算推理公式:
x1=x2 (1)
式中:
x1、y1为新的额头关键坐标点的X、Y坐标;
x2、y2为68个关键坐标点中参与计算的关键坐标点的X、Y坐标;
a为68个关键坐标点中第33号关键坐标点与第27号关键坐标点的Y坐标差值;
b为68个关键坐标点中第0号关键坐标点的X坐标;
c为68个关键坐标点中第16号关键坐标点的X坐标。
在上述技术方案的基础上,步骤二中,所述人体表面点云数据通过3D相机获取。
在上述技术方案的基础上,步骤三中,邻域的预设尺寸为长14像素、宽8像素的矩形;
步骤三的具体步骤如下:
以各关键坐标点为中心,以一个像素为扩展幅度,每次在宽方向增加或者减少扩展幅度,在高方向增加或减少扩展幅度,在人体表面图像中选取邻域。
在上述技术方案的基础上,步骤四中,通过3D投影变换将2D邻域点集转换成3D点集的具体步骤如下:
设camera_fx,camera_fy分别为镜头x,y方向的焦距,即成像平面到镜头的距离;
设camera_cx,camera_cy分别为光轴对于投影平面坐标中心的x,y偏移量,投影平面坐标系的原点位于图像左上角,水平为x,垂直为y;
设人体表面图像中的像素点的X、Y坐标记为x0,y0,则通过式(3)-式(5)将2D邻域点集转换成3D点集:
式中:
d为深度坐标信息,即深度值Z;
x,y,z为3D点的X、Y、Z坐标;
camera_factor为缩放比例。
在上述技术方案的基础上,步骤七中,由特征向量x,y,z表达为x,y,z坐标轴的具体步骤如下:
取最大的特征值λ,将其对应的特征向量x标记为物体坐标系的x轴;
取最小的特征值λ,将其对应的特征向量z标记为物体坐标系的z轴;
基于矢量叉乘的方法求解物体坐标系的y轴。
在上述技术方案的基础上,步骤八中,将前一步骤中的x,y,z坐标轴拼成一个旋转矩阵R,
在旋转矩阵R中:每一列对应一组x,y,z坐标轴;
通过式(10)-式(12)求得欧拉角R,欧拉角R包括欧拉角三分量(θx,θy,θz),
θx=a tan2(r32,r33)
θz=a tan2(r21,r11) (10-12)。
在上述技术方案的基础上,对机械手臂的姿态进行调整的方式如下:
在求得欧拉角R后,根据前后两个3D点的欧拉角三分量(θx,θy,θz)进行对应分量的差值计算,三个分量中如果任意一个差值大于预设的安全角度值,则在后的3D点舍弃,并按如下原则更新在后的3D点:
保持θx,θy不变,θz加30度,中心点位置不变。
在上述技术方案的基础上,当在后的3D点可用时,进一步包括如下步骤:
将物体坐标系的x轴依次变换为相机坐标系的x轴、机械手臂坐标系的x轴,将所述机械手臂坐标系的x轴输出给机械手臂作为运动时姿态信息中的x轴姿态信息;
将物体坐标系的z轴直接输出给机械手臂作为自动作业的操作方向;例如:机械手臂的作业头为喷雾头,则喷雾头的喷雾方向应为物体坐标系的z轴;
将物体坐标系的y轴依次变换为相机坐标系的y轴、机械手臂坐标系的y轴,将所述机械手臂坐标系的y轴输出给机械手臂作为运动时姿态信息中的y轴姿态信息。
在上述技术方案的基础上,在选取邻域前,预先完成对机械手臂的移动路径的规划。
本发明所述的一种机械手臂沿人体表面移动的姿态规划方法,具有以下有益效果:
1、可对机械手臂的姿态精确的进行控制,满足沿人体表面移动的需要,适用于人脸部位的机械手臂移动中的姿态控制,可模拟人工操作中的移动姿态,避免意外情况及错误操作情况的出现。
2、机器视觉技术与机械手臂技术结合,可针对实时采集的人体表面曲线完成姿态规划,以使用不同用户的情况。
3、对机械手臂的位姿调整不再依赖压力参数信息,避免传感器失真时无法准确的对机械手臂的位姿进行调整。
附图说明
本发明有如下附图:
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1本发明所述一种机械手臂沿人体表面移动的姿态规划方法的流程图。
图2人脸区域的68个关键坐标点位置及编号示意图。
具体实施方式
以下结合附图对本发明作进一步详细说明。所述详细说明,为结合本发明的示范性实施例做出的说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本发明给出了一种机械手臂沿人体表面移动的姿态规划方法,包括如下步骤:
步骤一,获取人体表面图像,生成人体表面的关键坐标点,基于关键坐标点的二维坐标信息形成关键坐标点集;
作为可选择的实施方案之一,所述人体表面图像是指人体2D红外图,例如通过3D相机采集的人脸2D红外图;
选取红外图是因为其与深度图的像素值是一一对应的,便于3D点的计算;
作为可选择的实施方案之一,步骤一的具体步骤如下:
基于opencv官方库进行人脸位置检测;
通过Dlib数据库实现人脸区域的68个关键坐标点的提取,参见图2;
基于68个关键坐标点扩展生成额头区域的10个关键坐标点,合计实现78个关键坐标点的提取;
所述扩展生成额头区域的10个关键坐标点采用如下计算推理公式:
x1=x2 (I)
式中:
x1、y1为新的额头关键坐标点的X、Y坐标;
x2、y2为68个关键坐标点中参与计算的关键坐标点的X、Y坐标,例如:为了扩展生成额头区域的10个关键坐标点,x2、y2依次取值为68个关键坐标点中第17-26号关键坐标点的X、Y坐标;
a为68个关键坐标点中第33号关键坐标点与第27号关键坐标点的Y坐标差值;
b为68个关键坐标点中第0号关键坐标点的X坐标;
c为68个关键坐标点中第16号关键坐标点的X坐标;
求取的主要思想是:
首先,以眉毛附近第17-26号关键坐标点的X坐标作为基础,再以靠近左右太阳穴的第0号关键坐标点和第16号关键坐标点作为X坐标宽度基础比值,以鼻尖的第33号关键坐标点和第27号关键坐标点的Y坐标差值组成一个抛物线,抛物线符合面部的特征,呈现弧形;
然后,计算第0号关键坐标点和第16号关键坐标点的X坐标的差值,记为坐标差值;
再后,计算每个眉毛关键坐标点的X坐标与第27号关键坐标点的X坐标的差值,求得的差值与前述坐标差值的二分之一做比值,再乘以前述坐标差值,得到一个应占值;
最后,再用每个眉毛关键坐标点的Y坐标减去每个眉毛关键点的应占值,每个关键坐标点的X坐标不变,就得到了额头区域的10个关键坐标点;
本发明给出的扩展生成额头区域的10个关键坐标点的算法,计算效率高,X坐标以眉毛附近各关键坐标点为基准,仅需对Y坐标依次计算即可,可根据需要增减额头区域的关键坐标点的生成数量,例如:扩展生成额头区域的9个关键坐标点、扩展生成额头区域的12个关键坐标点,算法无需改动,只需调整参与计算的眉毛附近关键坐标点的数量即可;
步骤二,获取人体表面点云数据,生成人体表面深度图;
作为可选择的实施方案之一,所述人体表面点云数据通过3D相机获取,例如通过3D相机获取人脸表面点云数据,并基于点云数据进一步生成人脸3D深度图;
点云数据转换为3D深度图涉及到机内参矩阵,具体生成算法采用现有技术实施,不再详述;
步骤三,以各关键坐标点的二维坐标信息为中心,按邻域的预设尺寸,在人体表面图像中选取邻域,形成2D邻域点集;
所述邻域的预设尺寸为经验值,例如:邻域的预设尺寸为长14像素、宽8像素的矩形;
作为可选择的实施方案之一,步骤三的具体步骤如下:
以各关键坐标点为中心,以一个像素为扩展幅度,每次在宽方向增加或者减少扩展幅度,在高方向增加或减少扩展幅度,在人体表面图像中选取邻域;根据关键坐标点的位置不同,以及宽方向或者高方向的扩展幅度不同,最终选取邻域形成的矩形2D邻域点集,宽高比例是5:3或者3:5,选取邻域的目的是为下一步在3D点云中确定主方向X轴做铺垫;
步骤四,用2D邻域点集中的每个平面点,从人体表面深度图取得对应位置的深度坐标信息,所述深度坐标信息指深度值Z,然后通过3D投影变换将2D邻域点集转换成3D点集;
作为可选择的实施方案之一,通过3D投影变换将2D邻域点集转换成3D点集的具体步骤如下:
设camera_fx,camera_fy分别为镜头x,y方向的焦距,即成像平面到镜头的距离;
设camera_cx,camera_cy分别为光轴对于投影平面坐标中心的x,y偏移量,投影平面坐标系的原点位于图像左上角,水平为x,垂直为y;
设人体表面图像中的像素点的X、Y坐标记为x0,y0,则通过式(3)-式(5)将2D邻域点集转换成3D点集:
式中:
d为深度坐标信息,即深度值Z;
x,y,z为3D点的X、Y、Z坐标;
camera_factor为缩放比例;
步骤五,对3D点集分组,分组原则为:以关键坐标点及其邻域为划分单位,将一个划分单位内涵盖的、3D点集中的3D点,划分为一组;
分组后,每一组3D点对应于关键坐标点及其邻域的曲面坐标;
步骤六;按分组形成若干3D点云矩阵;
所述3D点云矩阵为3*n的矩阵;形成3D点云矩阵目的在于便于后续的计算协方差;
步骤七,对每一个3D点云矩阵通过求协方差矩阵,得到3D点云矩阵的特征值λ和特征向量x,y,z;
通过求协方差矩阵,以每一个3D点(指3D点集中的3D点)为中心,在人体表面建立起一个物体坐标系,所述物体坐标系由坐标原点和x,y,z坐标轴组成;
通过式(6)-式(8)求协方差矩阵,式(6)-式(8)为公知公式,不再详述:
|λE-A|=0 (8)
式中:
x为3*n的矩阵;
i为列数;
A为协方差矩阵;
m为矩阵的列数;
式(7)中X为特征向量;
λ为特征值;
协方差矩阵:表示样本集在原n维空间中各个方向上的能量分布,通过对协方差矩阵求特征向量,实际上找到的是在原n维空间中的一些特定的方向,样本集的能量集中分布在这些方向上,而特征值的大小就反映了样本集在该方向上的能量大小;
步骤七中,把3D点云矩阵代入到公式(6)中运算,就可以得到协方差矩阵.接下来就是对协方差矩阵A求取特征值和特征向量,对一个矩阵求取特征值特征向量的话,就需要将矩阵进行数学表达(见公式(7));这个表达式方程(λE-A)x=0)有非零解的充分必要条件是系数行列式=0(即公式(8)所表达);然后对公式(8)所表达的特征方程就行求解,选择的是Eigen库的函数进行求取特征值和特征向量;Eigen是一个高层次的C++库,有效支持线性代数,矩阵和矢量运算,数值分析及其相关的算法;
作为可选择的实施方案之一,由特征向量x,y,z表达为x,y,z坐标轴的具体步骤如下:
取最大的特征值λ,将其对应的特征向量x标记为物体坐标系的x轴;
取最小的特征值λ,将其对应的特征向量z标记为物体坐标系的z轴;
基于矢量叉乘的方法求解物体坐标系的y轴。
步骤八,根据前一步骤中得到的各个3D点云矩阵的特征值和特征向量,求得欧拉角R,对机械手臂的姿态进行调整;
作为可选择的实施方案之一,将前一步骤中的x,y,z坐标轴拼成一个旋转矩阵R,
在旋转矩阵R中:每一列对应一组x,y,z坐标轴;
通过式(10)-式(12)求得欧拉角R,欧拉角R包括欧拉角三分量(θx,θy,θz),
θx=a tan2(r32,r33)
θz=a tan2(r21,r11) (10-12);
作为可选择的实施方案之一,对机械手臂的姿态进行调整的方式如下:
在求得欧拉角R后,根据前后两个3D点的欧拉角三分量(θx,θy,θz)进行对应分量的差值计算,三个分量中如果任意一个差值大于预设的安全角度值,则在后的3D点舍弃,并按如下原则更新在后的3D点:
保持θx,θy不变,θz加30度,中心点位置不变;
所述安全角度值根据实际的操作情况定制,取值非固定,例如设定安全角度值为70度,则:
前后两个3D点的欧拉角三分量(θx,θy,θz)进行对应分量的差值计算,三个分量中如果任意一个差值大于70度这个安全数值,则认为在后的3D点处机械手臂的姿态不可取,我们将在后的3D点舍弃,再进行在后的3D点的重新赋值。
多个前后两个3D点依次连接,构成了机械手臂移动路径,以及移动路径上的一系列运动点位。
在上述技术方案的基础上,当在后的3D点可用时,进一步包括如下步骤:
将物体坐标系的x轴依次变换为相机坐标系的x轴、机械手臂坐标系的x轴,将所述机械手臂坐标系的x轴输出给机械手臂作为运动时姿态信息中的x轴姿态信息;
将物体坐标系的z轴直接输出给机械手臂作为自动作业的操作方向;例如:机械手臂的作业头为喷雾头,则喷雾头的喷雾方向应为物体坐标系的z轴;
将物体坐标系的y轴依次变换为相机坐标系的y轴、机械手臂坐标系的y轴,将所述机械手臂坐标系的y轴输出给机械手臂作为运动时姿态信息中的y轴姿态信息。
在上述技术方案的基础上,在选取邻域前,预先完成对机械手臂的移动路径的规划。
对机械手臂的移动路径的规划,需要在选取邻域之前做,以为人脸进行喷射美容任务为例,不同的喷射美容任务,设计不同的3D点移动顺序,形成点位路径,即对机械手臂的移动路径的规划;
喷射美容任务根据喷射部位的不同,会选取喷射部位处的关键坐标点进行移动路径的规划,步骤三所述宽高比例是5:3或者3:5,就是为了在移动路径上机械手臂能够以正确的姿态的移动,不会出现意外运动卡死的状态。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。
Claims (9)
1.一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,包括如下步骤:
步骤一,获取人体表面图像,生成人体表面的关键坐标点,基于关键坐标点的二维坐标信息形成关键坐标点集;
步骤一中,所述人体表面图像是指人体2D红外图;
步骤一的具体步骤如下:
基于opencv官方库进行人脸位置检测;
通过Dlib数据库实现人脸区域的68个关键坐标点的提取;
基于68个关键坐标点扩展生成额头区域的10个关键坐标点,合计实现78个关键坐标点的提取;
所述扩展生成额头区域的10个关键坐标点采用如下计算推理公式:
x1=x2 (1)
式中:
x1、y1为新的额头关键坐标点的X、Y坐标;
x2、y2为68个关键坐标点中参与计算的关键坐标点的X、Y坐标;
a为68个关键坐标点中第33号关键坐标点与第27号关键坐标点的Y坐标差值;
b为68个关键坐标点中第0号关键坐标点的X坐标;
c为68个关键坐标点中第16号关键坐标点的X坐标;
步骤二,获取人体表面点云数据,生成人体表面深度图;
步骤三,以各关键坐标点的二维坐标信息为中心,按邻域的预设尺寸,在人体表面图像中选取邻域,形成2D邻域点集;
步骤四,用2D邻域点集中的每个平面点,从人体表面深度图取得对应位置的深度坐标信息,所述深度坐标信息指深度值Z,然后通过3D投影变换将2D邻域点集转换成3D点集;
步骤五,对3D点集分组,分组原则为:以关键坐标点及其邻域为划分单位,将一个划分单位内涵盖的、3D点集中的3D点,划分为一组;
步骤六;按分组形成若干3D点云矩阵;
步骤七,对每一个3D点云矩阵通过求协方差矩阵,得到3D点云矩阵的特征值λ和特征向量x,y,z;
通过求协方差矩阵,以每一个3D点为中心,在人体表面建立起一个物体坐标系,所述物体坐标系由坐标原点和x,y,z坐标轴组成;
步骤八,根据前一步骤中得到的各个3D点云矩阵的特征值和特征向量,求得欧拉角R,对机械手臂的姿态进行调整。
2.如权利要求1所述的一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,步骤二中,所述人体表面点云数据通过3D相机获取。
3.如权利要求1所述的一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,步骤三中,邻域的预设尺寸为长14像素、宽8像素的矩形;
步骤三的具体步骤如下:
以各关键坐标点为中心,以一个像素为扩展幅度,每次在宽方向增加或者减少扩展幅度,在高方向增加或减少扩展幅度,在人体表面图像中选取邻域。
4.如权利要求1所述的一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,步骤四中,通过3D投影变换将2D邻域点集转换成3D点集的具体步骤如下:
设camera_fx,camera_fy分别为镜头x,y方向的焦距,即成像平面到镜头的距离;
设camera_cx,camera_cy分别为光轴对于投影平面坐标中心的x,y偏移量,投影平面坐标系的原点位于图像左上角,水平为x,垂直为y;
设人体表面图像中的像素点的X、Y坐标记为x0,y0,则通过式(3)-式(5)将2D邻域点集转换成3D点集:
式中:
d为深度坐标信息,即深度值Z;
x,y,z为3D点的X、Y、Z坐标;
camera_factor为缩放比例。
5.如权利要求1所述的一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,步骤七中,由特征向量x,y,z表达为x,y,z坐标轴的具体步骤如下:
取最大的特征值λ,将其对应的特征向量x标记为物体坐标系的x轴;
取最小的特征值λ,将其对应的特征向量z标记为物体坐标系的z轴;
基于矢量叉乘的方法求解物体坐标系的y轴。
6.如权利要求1所述的一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,步骤八中,将前一步骤中的x,y,z坐标轴拼成一个旋转矩阵R,
在旋转矩阵R中:每一列对应一组x,y,z坐标轴;
通过式(10)-式(12)求得欧拉角R,欧拉角R包括欧拉角三分量(θx,θy,θz),
θx=atan2(r32,r33)
θz=atan2(r21,r11) (10-12)。
7.如权利要求6所述的一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,对机械手臂的姿态进行调整的方式如下:
在求得欧拉角R后,根据前后两个3D点的欧拉角三分量(θx,θy,θz)进行对应分量的差值计算,三个分量中如果任意一个差值大于预设的安全角度值,则在后的3D点舍弃,并按如下原则更新在后的3D点:
保持θx,θy不变,θz加30度,中心点位置不变。
8.如权利要求7所述的一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,当在后的3D点可用时,进一步包括如下步骤:
将物体坐标系的x轴依次变换为相机坐标系的x轴、机械手臂坐标系的x轴,将所述机械手臂坐标系的x轴输出给机械手臂作为运动时姿态信息中的x轴姿态信息;
将物体坐标系的z轴直接输出给机械手臂作为自动作业的操作方向;
将物体坐标系的y轴依次变换为相机坐标系的y轴、机械手臂坐标系的y轴,将所述机械手臂坐标系的y轴输出给机械手臂作为运动时姿态信息中的y轴姿态信息。
9.如权利要求1所述的一种机械手臂沿人体表面移动的姿态规划方法,其特征在于,在选取邻域前,预先完成对机械手臂的移动路径的规划。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210761253.5A CN114939874B (zh) | 2022-06-29 | 2022-06-29 | 一种机械手臂沿人体表面移动的姿态规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210761253.5A CN114939874B (zh) | 2022-06-29 | 2022-06-29 | 一种机械手臂沿人体表面移动的姿态规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114939874A CN114939874A (zh) | 2022-08-26 |
CN114939874B true CN114939874B (zh) | 2023-08-01 |
Family
ID=82911475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210761253.5A Active CN114939874B (zh) | 2022-06-29 | 2022-06-29 | 一种机械手臂沿人体表面移动的姿态规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114939874B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188728A (zh) * | 2019-06-06 | 2019-08-30 | 四川长虹电器股份有限公司 | 一种头部姿态估计的方法及系统 |
CN110751719A (zh) * | 2019-10-22 | 2020-02-04 | 深圳瀚维智能医疗科技有限公司 | 乳房三维点云重建方法、装置、存储介质及计算机设备 |
CN114310887A (zh) * | 2021-12-28 | 2022-04-12 | 深圳中智永浩机器人有限公司 | 3d人腿识别方法、装置、计算机设备及存储介质 |
WO2022128896A1 (en) * | 2020-12-15 | 2022-06-23 | Interdigital Ce Patent Holdings, Sas | Method and apparatus for multiple robotic devices in an environment |
-
2022
- 2022-06-29 CN CN202210761253.5A patent/CN114939874B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188728A (zh) * | 2019-06-06 | 2019-08-30 | 四川长虹电器股份有限公司 | 一种头部姿态估计的方法及系统 |
CN110751719A (zh) * | 2019-10-22 | 2020-02-04 | 深圳瀚维智能医疗科技有限公司 | 乳房三维点云重建方法、装置、存储介质及计算机设备 |
WO2022128896A1 (en) * | 2020-12-15 | 2022-06-23 | Interdigital Ce Patent Holdings, Sas | Method and apparatus for multiple robotic devices in an environment |
CN114310887A (zh) * | 2021-12-28 | 2022-04-12 | 深圳中智永浩机器人有限公司 | 3d人腿识别方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114939874A (zh) | 2022-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344882B (zh) | 基于卷积神经网络的机器人控制目标位姿识别方法 | |
WO2019192149A1 (zh) | 一种基于机器视觉的绘图方法及系统 | |
CN105930767B (zh) | 一种基于人体骨架的动作识别方法 | |
CN111710036B (zh) | 三维人脸模型的构建方法、装置、设备及存储介质 | |
CN111414798A (zh) | 基于rgb-d图像的头部姿态检测方法及系统 | |
CN113065546B (zh) | 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统 | |
CN109940626B (zh) | 一种基于机器人视觉的画眉机器人系统的控制方法 | |
KR101333836B1 (ko) | 에이에이엠 및 추정된 깊이 정보를 이용하는 3차원 얼굴 포즈 및 표정 변화 추정 방법 | |
JP2023545200A (ja) | パラメータ推定モデルの訓練方法、パラメータ推定モデルの訓練装置、デバイスおよび記憶媒体 | |
Kong et al. | Head pose estimation from a 2D face image using 3D face morphing with depth parameters | |
CN110355464A (zh) | 激光加工的视觉匹配方法、系统及介质 | |
Schröder et al. | Real-time hand tracking using synergistic inverse kinematics | |
CN107730449A (zh) | 一种人脸五官美化处理的方法及系统 | |
CN108466265B (zh) | 机械手臂路径规划与作业方法、装置以及计算机设备 | |
CN106652015B (zh) | 一种虚拟人物头像生成方法及装置 | |
CN108044625B (zh) | 一种基于多Leapmotion虚拟手势融合的机器人机械臂操控方法 | |
CN110065068A (zh) | 一种基于逆向工程的机器人装配作业演示编程方法及装置 | |
CN113927597A (zh) | 基于深度学习的机器人连接件六自由度位姿估计系统 | |
Leizea et al. | Real-time deformation, registration and tracking of solids based on physical simulation | |
CN108073855A (zh) | 一种人脸表情的识别方法及系统 | |
KR20160144699A (ko) | 2d 얼굴 이미지로부터 3d 모델을 자동 생성하는 방법 | |
CN109900251A (zh) | 一种基于视觉技术的机器人定位装置及方法 | |
Zou et al. | A calibration optimization method for a welding robot laser vision system based on generative adversarial network | |
CN115861547A (zh) | 一种基于投影的模型表面样条线生成方法 | |
JP2010211732A (ja) | 物体認識装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |