CN114310872A - 一种基于dgg点云分割网络的机械臂自动打菜方法 - Google Patents
一种基于dgg点云分割网络的机械臂自动打菜方法 Download PDFInfo
- Publication number
- CN114310872A CN114310872A CN202111427395.XA CN202111427395A CN114310872A CN 114310872 A CN114310872 A CN 114310872A CN 202111427395 A CN202111427395 A CN 202111427395A CN 114310872 A CN114310872 A CN 114310872A
- Authority
- CN
- China
- Prior art keywords
- point
- spoon
- dish
- mechanical arm
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种基于DGG点云分割网络的机械臂自动打菜方法。实现自动打菜首先需要对打菜点位姿进行估计,根据不同的菜品种类和菜品量选择不同的打菜动作,再对六轴机械臂的路径和轨迹进行规划,最后实现菜品的挖取。目前餐厅内主要通过人工实现打菜工作,具有效率低、劳动力成本高等缺点。本发明通过深度相机采集菜品表面的点云数据,提出一种基于图卷积的点云分割网络DGG实现对打菜点的预测,根据具体的打菜动作计算得到打菜点的姿态信息,再通过三次B样条插值和Squad插值算法对机械臂末端的轨迹进行规划,最后控制机械臂完成打菜任务。
Description
技术领域
本发明属于机器视觉领域,具体涉及一种基于DGG点云分割网络的机械臂自动打菜方法。
背景技术
针对在餐厅、食堂内使用的自动打菜机器人,其使用的打菜算法一般通过分析菜品表面深度信息特征进行计算,然而在多种多样的菜品面前,传统的算法难以得到理想的结果,缺乏一定的灵活性和通用性,而且在噪声面前也缺少一定的稳定性;随着深度学习在3D检测方面的应用不断深入,对3D数据的检测和分割准确率有着比较满意的结果,且能应对各种复杂多变的数据,因此采用深度学习的方法对菜品数据进行处理能够大幅度增加打菜的成功率。
发明内容
鉴于上述的问题,本发明通过深度相机实时采集菜品表面的点云数据,同时提出一种基于图卷积的点云分割网络DGG,对菜品点云数据进行处理并预测得到打菜点的位置信息,再根据打菜点之间菜品量的分布情况选择对应的打菜动作,根据3D空间旋转原理计算得到各个打菜点的姿态信息,再通过三次B样条插值和Squad插值算法对机械臂末端轨迹进行规划,并通过逆运动学得到关节空间内的运动信息,最后控制机械臂完成打菜动作。
本发明提供一种基于DGG点云分割网络的机械臂自动打菜方法,方法具体为:
步骤一:搭建DGG点云分割网络;首先构建局部点云的特征提取模块,定义一个有向图G=(v,ε)来表征局部点云的几何结构,其中v,ε分别表示顶点和边;从输入的点云中随机选取一个点作为图G的中心,记为pi,通过K近邻算法从R3×3空间得到k个最近邻点{pi1,pi2,...,pik},把局部点云的位置特征定义为
Pi,m={pi1,m-pi,m,pi2,m-pi,m,...,pik,m-pi}
其中pik,m代表邻域里第k个点的第m维特征;
把局部点云的密集程度定义为
其中k代表邻域点数,Fm(j)代表点pi的第m维特征,并把ρi,m作为位置特征Pi,m的权重函数;同时把局部点云的形状特征定义为
接着把局部点云的整体特征输入到具有残差连接的三层MLP网络中,接着提升特征维度至1024;为了能够同时训练多种菜品数据,添加一维的菜品种类向量,经过最大池化函数后通过普通的三层MLP,最后一层的卷积输出通道数为分割标签的总数。DGG网络中所有卷积操作的步长为1,激活函数使用Leaky Relu,同时为避免训练过程中出现过拟合,在输出层前添加Dropout,其失活率设置为0.5。
步骤二:利用深度相机采集各种菜品表面的点云数据,其中相机固定在机械臂末端,采取“眼在手上”的标定方式;利用Semantic-Segmentation-Editor工具对数据进行标记,共分为三个标签:入勺区域、出勺区域和无关区域;分为训练集和测试集输入到步骤一中构建的DGG点云分割模型中,设置训练参数:迭代次数300,批次大小32,初始学习率0.001,使用SGD优化器对网络模型权重参数进行调整;保存损失值最低时的网络权重参数。
步骤三:将步骤一搭建的分割模型移植到ROS开发平台上,并加载步骤二中保存的网络权重参数,对ROS中实时采集的菜品点云数据进行目标点的预测,同时对网络的预测结果进行筛选;对预测结果区域点数较少或存在区域分离的情况进行剔除。通过ROS消息机制把预测结果发布出去。
步骤四:机械臂订阅步骤三中发布的话题得到预测结果,结合菜品表面深度信息计算得到末端执行器挖取的最大深度,得到机械臂末端执行器在笛卡尔空间下的姿态信息;具体计算过程如下:
a)设机械臂末端执行器为市场上通用的打菜勺,规定勺口中心为末端坐标系的原点,垂直勺面向上为Z轴方向,指向勺柄方向作为Y轴,X轴方向可根据右手定则确定;
b)将网络的预测区域的中心点作为入勺点(xs,ys,zs)和出勺点(xe,ye,ze),如果入勺点或出勺点距离菜盆边界的距离小于打菜勺半径rspoon,则执行步骤三,再次对点云进行预测;入勺点作为打菜勺的起点,出勺点作为打菜勺的前进方向,前进距离通过不同种类的菜品密度来决定;设满勺的菜品质量为Gdish,根据菜品密度ρdish得到菜品的体积结合点云深度信息,以入勺点为起点、出勺点为前进方向,使用凸包近似算法计算并分割出体积为2Vdish的点云区域作为打菜区域,并把打菜区域的结尾坐标作为新的出勺点在2D平面上选取(xs,ys,zs)和的中间位置作为过渡点(xi,yi),其深度值zi的计算公式如下:
其中n1是打菜区域内介于入勺点和过渡点之间的点数,n2是介于过渡点和出勺点之间的点数;如果计算得到深度值超过菜盆的深度,则返回步骤三,利用DGG网络重新进行预测。
c)得到打菜勺路点的空间位置后,还需要计算每个点的姿态;根据a)中的坐标系设置,z轴的正方向代表勺子的前进方向;对于菜品量的多少,设计两种不同的打菜动作,第一种是边旋转边前进,第二种是在前进的过程,既存在推也存在旋转的动作,其区别在于路点的姿态变化;第一种,设置入勺点的z轴指向过渡点,而过渡点z轴指向出勺点,出勺点的z轴垂直向上;第二种的入勺点z轴与世界坐标系平行并指向出勺点方向,过渡点的姿态与入勺点相同,代表从入勺点到过渡点之间是推的动作,出勺点的z轴同样垂直向上;所有的姿态都是基于相机基坐标系旋转而来,如第一种情况中入勺点的姿态,欧拉角为:
其中θz用于调整勺柄与大地之间的角度,一般控制在35°至50°之间;其他点的姿态计算方法类似。
由于相机固定在机械臂的末端,其坐标系会随着机械臂的移动而改变,所有将所有路点的位姿信息转换到世界坐标系下;假设在相机坐标系中某路点的空间位置为(x0,y0,z0),欧拉角为(θx,θy,θz);相机在世界坐标系中位置为(xc,yc,zc),旋转矩阵为首先把欧拉角转换为旋转矩阵形式公式为
进而得到世界坐标系下的位姿信息为
步骤五:根据步骤四中得到基于世界坐标系的位姿信息,结合三次B样条插值和Squad插值算法得到机械臂末端执行器的轨迹信息;具体计算过程如下:
使用三次B样条对机械臂末端空间位置进行插值,其定义公式如下:
S(u)=∑PiNi,k(u)
其中Pi是样条曲线的控制点,此处把入勺点、过渡点、出勺点作为控制点,Ni,k是样条曲线的基函数,k是曲线的次数,此处设置k=3;样条基函数方程可通过递推公式进行求解:
使用Squad算法对机械臂末端四元素信息进行插值,首先需要把步骤四中计算得到旋转矩阵转换为四元素,转换公式为:
其中T为旋转矩阵,q为转换得到的四元素;假设入勺点、过渡点和出勺点的四元素为qs,qi,qe,持续时间为t,Squad插值公式如下:
最后以时间节点为参考,把空间位置和四元素结合在一起得到机械臂末端完整的轨迹信息;通过逆运动学转换到关节空间下的运动信息,并发送给机械臂控制模块完成打菜任务。
本发明的有益效果:本发明利用传感器采集菜品表面的深度数据,通过DGG点云分割网络对打菜点进行识别,再根据菜品量多少选择不同的打菜动作并估计出打菜点的位姿信息,最后利用轨迹规划算法得到机械臂的运行轨迹。本方法能够准确估计出合适的打菜点,快速规划出对应的打菜轨迹,完成打菜任务。
附图说明
图1:为本发明的局部点云特征提取模块;
图2:为本发明的DGG点云分割网络结构。
具体实施步骤下面通过具体实施例,并结合附图,对本发明的技术方案作进一步的具体说明。
实施例1:
步骤一:搭建如图二所示的DGG点云分割网络;首先构建如图一所示的局部点云特征提取模块,定义一个有向图G=(v,ε)来表征局部点云的几何结构,其中v,ε分别表示顶点和边。从输入的点云中随机选取一个点作为图G的中心,记为pi,通过K近邻算法从R3×3空间得到k=40个最近邻点{pi1,pi2,...,pik},把局部点云的位置特征定义为
Pi,m={pi1,m-pi,m,pi2,m-pi,m,...,pik,m-pi}
其中pik,m代表邻域里第k个点的第m维特征;
把局部点云的密集程度定义为
其中k代表邻域点数,Fm(j)代表点pi的第m维特征,此处m={1,2,3};并把ρi,m作为位置特征Pi,m的权重函数;同时把局部点云的形状特征定义为
其中代表两个向量之间的内积计算,为图G内的边;把Pi,m和Si,m分别经过两层的MLP(64,128)结构实现进一步的特征提取,再通过最大池化层解决点云无序性问题,最后进行特征聚合后作为局部点云的整体特征。
接着把局部点云的特征输入到具有残差连接的三层MLP(128,256,256)网络中,接着提升特征维度至1024;为了能够同时训练多种菜品数据,添加一维的菜品种类向量,经过最大池化函数后通过普通的三层MLP(1024,512,num),最后一层的卷积输出通道数num为分割标签的总数。DGG网络中所有卷积操作的步长为1,激活函数使用Leaky Relu,同时为避免训练过程中出现过拟合,在输出层前添加Dropout,其失活率设置为0.5。
步骤二:利用深度相机采集各种菜品表面的点云数据,其中相机固定在机械臂末端,采取“眼在手上”的标定方式;利用Semantic-Segmentation-Editor工具对数据进行标记,共分为三个标签:入勺区域、出勺区域和无关区域;按照9:1比例分为训练集和测试集输入到步骤一中构建的DGG点云分割模型中,设置训练参数:迭代次数300,批次大小32,初始学习率0.001,使用SGD优化器对网络模型权重参数进行调整;保存损失值最低时的网络权重参数。
步骤三:将步骤一搭建的分割模型移植到ROS开发平台上,并加载步骤二中保存的网络权重参数,对ROS中实时采集的菜品点云数据进行目标点的预测,同时对网络的预测结果进行筛选;对预测结果区域点数较少或存在区域分离的情况进行剔除。通过ROS消息机制把预测结果发布出去。
步骤四:机械臂订阅步骤三中发布的话题得到预测结果,结合菜品表面深度信息计算得到末端执行器挖取的最大深度,得到机械臂末端执行器在笛卡尔空间下的姿态信息;具体计算过程如下:
a)假定机械臂末端执行器为市场上通用的打菜勺,规定勺口中心为末端坐标系的原点,垂直勺面向上为Z轴方向,指向勺柄方向作为Y轴,X轴方向可根据右手定则确定;
b)将网络的预测区域的中心点作为入勺点(xs,ys,zs)和出勺点(xe,ye,ze),如果入勺点或出勺点距离菜盆边界的距离小于打菜勺半径rspoon=0.05m,则执行步骤三,再次对点云进行预测;入勺点作为打菜勺的起点,出勺点作为打菜勺的前进方向,前进距离通过不同种类的菜品密度来决定;假定满勺的菜品质量为Gdish,根据菜品密度ρdish得到菜品的体积结合点云深度信息,以入勺点为起点、出勺点为前进方向,使用凸包近似算法计算并分割出体积为2Vdish的点云区域作为打菜区域,并把打菜区域的结尾坐标作为新的出勺点在2D平面上选取(xs,ys,zs)和的中间位置作为过渡点(xi,yi),其深度值zi的计算公式如下:
其中n1是打菜区域内介于入勺点和过渡点之间的点数,n2是介于过渡点和出勺点之间的点数;如果计算得到深度值超过菜盆的深度,则返回步骤三,利用DGG网络重新进行预测。
c)得到打菜勺路点的空间位置后,还需要计算每个点的姿态;根据a)中的坐标系设置,z轴的正方向代表勺子的前进方向;对于菜品量的多少,设计两种不同的打菜动作,一种是边旋转边前进,另一种是在前进的过程,既存在推也存在旋转的动作,其区别在于路点的姿态变化;对于第一种,设置入勺点的z轴指向过渡点,而过渡点z轴指向出勺点,出勺点的z轴垂直向上;第二种的入勺点z轴与世界坐标系平行并指向出勺点方向,过渡点的姿态与入勺点相同,代表从入勺点到过渡点之间是推的动作,出勺点的z轴同样垂直向上;所有的姿态都是基于相机基坐标系旋转而来,例如第一种情况中入勺点的姿态,欧拉角为:
其中θz用于调整勺柄与大地之间的角度,一般控制在35°至50°之间;其他点的姿态计算方法类似。
由于相机固定在机械臂的末端,其坐标系会随着机械臂的移动而改变,所有将所有路点的位姿信息转换到世界坐标系下;假设在相机坐标系中某路点的空间位置为(x0,y0,z0),欧拉角为(θx,θy,θz);相机在世界坐标系中位置为(xc,yc,zc),旋转矩阵为首先把欧拉角转换为旋转矩阵形式公式为
进而得到世界坐标系下的位姿信息为
步骤五:根据步骤四中得到基于世界坐标系的位姿信息,结合三次B样条插值和Squad插值算法得到机械臂末端执行器的轨迹信息;具体计算过程如下:
使用三次B样条对机械臂末端空间位置进行插值,其定义公式如下:
S(u)=∑PiNi,k(u)
其中Pi是样条曲线的控制点,此处把入勺点、过渡点、出勺点作为控制点,Ni,k是样条曲线的基函数,k是曲线的次数,此处设置k=3;样条基函数方程可通过递推公式进行求解:
使用Squad算法对机械臂末端四元素信息进行插值,首先需要把步骤四中计算得到旋转矩阵转换为四元素,转换公式为:
其中T为旋转矩阵,q为转换得到的四元素;假设入勺点、过渡点和出勺点的四元素为qs,qi,qe,持续时间为t,Squad插值公式如下:
最后以时间节点为参考,把空间位置和四元素结合在一起得到机械臂末端完整的轨迹信息;最后通过逆运动学转换到关节空间下的运动信息,并发送给机械臂控制模块完成打菜任务。
Claims (1)
1.一种基于DGG点云分割网络的机械臂自动打菜方法,其特征在于:该方法包括以下步骤:
步骤一:搭建DGG点云分割网络;构建局部点云的特征提取模块,定义一个有向图G=(v,ε)来表征局部点云的几何结构,其中v,ε分别表示顶点和边;从输入的点云中随机选取一个点作为图G的中心,记为pi,通过K近邻算法从R3×3空间得到k个最近邻点{pi1,pi2,...,pik},把局部点云的位置特征定义为:
Pi,m={pi1,m-pi,m,pi2,m-pi,m,...,pik,m-pi}
其中pik,m代表邻域里第k个点的第m维特征;
把局部点云的密集程度定义为:
其中k代表邻域点数,Fm(j)代表点pi的第m维特征,并把ρi,m作为位置特征Pi,m的权重函数;
把局部点云的形状特征定义为:
把局部点云的整体特征输入到具有残差连接的三层MLP网络中,提升特征维度至1024;为了能够同时训练多种菜品数据,添加一维的菜品种类向量,经过最大池化函数后通过普通的三层MLP,最后一层的卷积输出通道数num为分割标签的总数;DGG网络中所有卷积操作的步长为1,激活函数使用Leaky Relu,同时为避免训练过程中出现过拟合,在输出层前添加Dropout,其失活率设置为0.5;
步骤二:利用深度相机采集菜品表面的点云数据,其中相机固定在机械臂末端;利用Semantic-Segmentation-Editor工具对数据进行标记,分为三个标签:入勺区域、出勺区域和无关区域;分为训练集和测试集输入到步骤一中构建的DGG点云分割模型中,设置训练参数:迭代次数300,批次大小32,初始学习率0.001,使用SGD优化器对网络模型权重参数进行调整;保存损失值最低时的网络权重参数;
步骤三:将步骤一搭建的分割模型移植到ROS开发平台上,并加载步骤二中保存的网络权重参数,对ROS中实时采集的菜品点云数据进行目标点的预测,同时对网络的预测结果进行筛选;对预测结果区域点数较少或存在区域分离的情况进行剔除;通过ROS消息机制把预测结果发布出去;
步骤四:机械臂订阅步骤三中发布的话题得到预测结果,结合菜品表面深度信息计算得到末端执行器挖取的最大深度,得到机械臂末端执行器在笛卡尔空间下的姿态信息;计算过程如下:
a)设机械臂末端执行器为市场上通用的打菜勺,规定勺口中心为末端坐标系的原点,垂直勺面向上为Z轴方向,指向勺柄方向作为Y轴,X轴方向可根据右手定则确定;
b)将网络的预测区域的中心点作为入勺点(xs,ys,zs)和出勺点(xe,ye,ze),如果入勺点或出勺点距离菜盆边界的距离小于打菜勺半径rspoon,则执行步骤三,再次对点云进行预测;入勺点作为打菜勺的起点,出勺点作为打菜勺的前进方向,前进距离通过不同种类的菜品密度来决定;设满勺的菜品质量为Gdish,根据菜品密度ρdish得到菜品的体积结合点云深度信息,以入勺点为起点、出勺点为前进方向,使用凸包近似算法计算并分割出体积为2Vdish的点云区域作为打菜区域,并把打菜区域的结尾坐标作为新的出勺点在2D平面上选取(xs,ys,zs)和的中间位置作为过渡点(xi,yi),其深度值zi的计算公式如下:
其中n1是打菜区域内介于入勺点和过渡点之间的点数,n2是介于过渡点和出勺点之间的点数;如果计算得到深度值超过菜盆的深度,则返回步骤三,利用DGG网络重新进行预测;
c)得到打菜勺路点的空间位置后,还需要计算每个点的姿态;根据a)中的坐标系设置,z轴的正方向代表勺子的前进方向;对于菜品量的多少,设计两种不同的打菜动作,第一种是边旋转边前进,第二种是在前进的过程,既存在推也存在旋转的动作,其区别在于路点的姿态变化;
第一种,设置入勺点的z轴指向过渡点,而过渡点z轴指向出勺点,出勺点的z轴垂直向上;
第二种的入勺点z轴与世界坐标系平行并指向出勺点方向,过渡点的姿态与入勺点相同,代表从入勺点到过渡点之间是推的动作,出勺点的z轴同样垂直向上;所有的姿态都是基于相机基坐标系旋转而来,其中第一种情况中入勺点的姿态,欧拉角为:
其中θz用于调整勺柄与大地之间的角度,控制在35°至50°之间;
由于相机固定在机械臂的末端,其坐标系会随着机械臂的移动而改变,所有将所有路点的位姿信息转换到世界坐标系下;假设在相机坐标系中某路点的空间位置为(x0,y0,z0),欧拉角为(θx,θy,θz);相机在世界坐标系中位置为(xc,yc,zc),旋转矩阵为首先把欧拉角转换为旋转矩阵形式公式为:
进而得到世界坐标系下的位姿信息为:
步骤五:根据步骤四中得到基于世界坐标系的位姿信息,结合三次B样条插值和Squad插值算法得到机械臂末端执行器的轨迹信息;计算过程如下:
使用三次B样条对机械臂末端空间位置进行插值,其定义公式如下:
S(u)=∑PiNi,k(u)
其中Pi是样条曲线的控制点,此处把入勺点、过渡点、出勺点作为控制点,Ni,k是样条曲线的基函数,k是曲线的次数,设置k=3;样条基函数方程可通过递推公式进行求解:
使用Squad算法对机械臂末端四元素信息进行插值,把步骤四中计算得到旋转矩阵转换为四元素,转换公式为:
其中T为旋转矩阵,q为转换得到的四元素;设入勺点、过渡点和出勺点的四元素为qs,qi,qe,持续时间为t,Squad插值公式如下:
最后以时间节点为参考,把空间位置和四元素结合在一起得到机械臂末端完整的轨迹信息;通过逆运动学转换到关节空间下的运动信息,并发送给机械臂控制模块完成打菜任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111427395.XA CN114310872B (zh) | 2021-11-29 | 2021-11-29 | 一种基于dgg点云分割网络的机械臂自动打菜方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111427395.XA CN114310872B (zh) | 2021-11-29 | 2021-11-29 | 一种基于dgg点云分割网络的机械臂自动打菜方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114310872A true CN114310872A (zh) | 2022-04-12 |
CN114310872B CN114310872B (zh) | 2023-08-22 |
Family
ID=81047623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111427395.XA Active CN114310872B (zh) | 2021-11-29 | 2021-11-29 | 一种基于dgg点云分割网络的机械臂自动打菜方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114310872B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115424701A (zh) * | 2022-11-07 | 2022-12-02 | 杭州柳叶刀机器人有限公司 | 一种关于最优路径规划的骨表面随动技术 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102713671A (zh) * | 2009-12-11 | 2012-10-03 | 株式会社拓普康 | 点群数据处理装置、点群数据处理方法和点群数据处理程序 |
CN110428506A (zh) * | 2019-08-09 | 2019-11-08 | 成都景中教育软件有限公司 | 一种基于参数的动态几何三维图形切割实现方法 |
US20210042929A1 (en) * | 2019-01-22 | 2021-02-11 | Institute Of Automation, Chinese Academy Of Sciences | Three-dimensional object detection method and system based on weighted channel features of a point cloud |
CN112560918A (zh) * | 2020-12-07 | 2021-03-26 | 杭州电子科技大学 | 一种基于改进YOLO v3的菜品识别方法 |
CN112809679A (zh) * | 2021-01-25 | 2021-05-18 | 清华大学深圳国际研究生院 | 可形变物体抓取的方法、装置及计算机可读存储介质 |
CN113066016A (zh) * | 2021-02-18 | 2021-07-02 | 北京大学 | 一种基于图信号处理的三维动态点云修复方法 |
CN113449736A (zh) * | 2021-01-14 | 2021-09-28 | 浙江工业大学 | 一种基于深度学习的摄影测量点云语义分割方法 |
-
2021
- 2021-11-29 CN CN202111427395.XA patent/CN114310872B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102713671A (zh) * | 2009-12-11 | 2012-10-03 | 株式会社拓普康 | 点群数据处理装置、点群数据处理方法和点群数据处理程序 |
US20210042929A1 (en) * | 2019-01-22 | 2021-02-11 | Institute Of Automation, Chinese Academy Of Sciences | Three-dimensional object detection method and system based on weighted channel features of a point cloud |
CN110428506A (zh) * | 2019-08-09 | 2019-11-08 | 成都景中教育软件有限公司 | 一种基于参数的动态几何三维图形切割实现方法 |
CN112560918A (zh) * | 2020-12-07 | 2021-03-26 | 杭州电子科技大学 | 一种基于改进YOLO v3的菜品识别方法 |
CN113449736A (zh) * | 2021-01-14 | 2021-09-28 | 浙江工业大学 | 一种基于深度学习的摄影测量点云语义分割方法 |
CN112809679A (zh) * | 2021-01-25 | 2021-05-18 | 清华大学深圳国际研究生院 | 可形变物体抓取的方法、装置及计算机可读存储介质 |
CN113066016A (zh) * | 2021-02-18 | 2021-07-02 | 北京大学 | 一种基于图信号处理的三维动态点云修复方法 |
Non-Patent Citations (1)
Title |
---|
YUE WANG ET AL: "dynamic graph cnn for learning on point clouds", 《ACM TRANS. GRAPH》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115424701A (zh) * | 2022-11-07 | 2022-12-02 | 杭州柳叶刀机器人有限公司 | 一种关于最优路径规划的骨表面随动技术 |
Also Published As
Publication number | Publication date |
---|---|
CN114310872B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110703747B (zh) | 一种基于简化广义Voronoi图的机器人自主探索方法 | |
CN111079561B (zh) | 一种基于虚拟训练的机器人智能抓取方法 | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
CN111240319B (zh) | 室外多机器人协同作业系统及其方法 | |
CN109782779B (zh) | 基于种群超启发式算法的洋流环境下auv路径规划方法 | |
Mainprice et al. | Human-robot collaborative manipulation planning using early prediction of human motion | |
CN108196453B (zh) | 一种机械臂运动规划群体智能计算方法 | |
Cao et al. | Target search control of AUV in underwater environment with deep reinforcement learning | |
CN110298886B (zh) | 一种基于四级卷积神经网络的灵巧手抓取规划方法 | |
Wang et al. | Modeling motion patterns of dynamic objects by IOHMM | |
CN110118560A (zh) | 一种基于lstm和多传感器融合的室内定位方法 | |
CN111260649B (zh) | 一种近距离机械臂感知与校准方法 | |
CN109300144A (zh) | 一种融合社会力模型和卡尔曼滤波的行人轨迹预测方法 | |
Tang et al. | Learning collaborative pushing and grasping policies in dense clutter | |
US11235466B2 (en) | Setup planning and parameter selection for robotic finishing | |
Hueser et al. | Learning of demonstrated grasping skills by stereoscopic tracking of human head configuration | |
CN113752255B (zh) | 一种基于深度强化学习的机械臂六自由度实时抓取方法 | |
CN111552300A (zh) | 一种基于实例分割和路径规划的农作物采摘系统 | |
Zhou et al. | Adaptive leader-follower formation control and obstacle avoidance via deep reinforcement learning | |
Breitenmoser et al. | Distributed coverage control on surfaces in 3d space | |
CN114387513A (zh) | 机器人抓取方法、装置、电子设备及存储介质 | |
CN114310872A (zh) | 一种基于dgg点云分割网络的机械臂自动打菜方法 | |
Menon et al. | NBV-SC: Next best view planning based on shape completion for fruit mapping and reconstruction | |
Belavadi et al. | Frontier exploration technique for 3d autonomous slam using k-means based divisive clustering | |
KR101107735B1 (ko) | 카메라 포즈 결정 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |