CN109521774B - 一种基于强化学习的喷涂机器人轨迹优化方法 - Google Patents

一种基于强化学习的喷涂机器人轨迹优化方法 Download PDF

Info

Publication number
CN109521774B
CN109521774B CN201811608181.0A CN201811608181A CN109521774B CN 109521774 B CN109521774 B CN 109521774B CN 201811608181 A CN201811608181 A CN 201811608181A CN 109521774 B CN109521774 B CN 109521774B
Authority
CN
China
Prior art keywords
target
image
dimensional
spraying
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811608181.0A
Other languages
English (en)
Other versions
CN109521774A (zh
Inventor
宦键
王馨馨
陈伟
王伟然
智鹏飞
刘俊杰
刘浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Qianyue Robot Technology Co ltd
Original Assignee
Nanjing Qianyue Robot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Qianyue Robot Technology Co ltd filed Critical Nanjing Qianyue Robot Technology Co ltd
Priority to CN201811608181.0A priority Critical patent/CN109521774B/zh
Publication of CN109521774A publication Critical patent/CN109521774A/zh
Priority to PCT/CN2019/108333 priority patent/WO2020134254A1/zh
Application granted granted Critical
Publication of CN109521774B publication Critical patent/CN109521774B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Application Of Or Painting With Fluid Materials (AREA)

Abstract

本发明涉及一种基于强化学习的喷涂机器人轨迹优化方法,所述轨迹优化方法通过图像获取、图像处理、图形三维重建、图形离散化、选取初始点和选择最优轨迹策略,从而确定出最优喷涂轨迹,其中,所述图像处理包括摄像机标定、图像校正和立体匹配。本发明的优点在于:本发明基于强化学习的喷涂机器人轨迹优化方法,该方法能够在不同的环境中根据不同的状态规划出可行路径,并且决策时间短、成功率高,能够满足在线规划的实时性要求,从而克服了传统机械臂路径规划方法实时性差、计算量大的缺点。

Description

一种基于强化学习的喷涂机器人轨迹优化方法
技术领域
本发明属于智能算法控制领域,特别涉及一种基于强化学习的喷涂机器人轨迹优化方法。
背景技术
大部分喷涂机器人采用示教喷涂,根据技术员工预先设定好的轨迹进行喷涂,这种喷涂方法根据前人喷涂的经验进行有效的喷涂,但是前期编程工作较大,而且轨迹优化不明显,效率较低,涂料浪费相对较大。
基于强化学习的轨迹优化利用强化学习通过机器人对环境进行建模,在机器内部模拟出与环境相同或类似的状况,进行喷涂轨迹优化。在已有的轨迹优化算法中,通常都是概率路图法、快速搜索树法及人工势场法等。此类方法在将对环境建模或者模拟空间时,需要对机械臂的多种姿态进行采样,并通过运动学方程判断当前动作是否合理,计算量大;当环境中的障碍物和目标位置发生改变时,需要对新的环境重新计算构型空间的映射,难以达到动态实时规划的目的。另外,此类方法需要事先对机械臂构建精确的物理模型,建模的偏差会直接影响机械臂控制的效果。
针对目前强化学习的方法,强化学习方法以马尔科夫决策过程来描述问题,通过智能体与环境的互动积累经验,并且不断更新智能体的策略,使它做出的决策能够获得更高的奖励。相比于传统方法,该方法不需要对机械臂构建物理模型,在训练完成后,策略能够直接根据当前环境状态输出下一步的决策,由于网络进行一次前向计算的计算量很少,因此能够实现喷枪的在线规划与实时控制。
发明内容
本发明要解决的技术问题是提供一种基于强化学习的喷涂机器人轨迹优化方法,解决了喷枪在喷涂过程中,能够实现有效的在线规划与实时控制。
为解决上述技术问题,本发明的技术方案为:一种基于强化学习的喷涂机器人轨迹优化方法,其创新点在于:所述轨迹优化方法通过图像获取、图像处理、图形三维重建、图形离散化、选取初始点和选择最优轨迹策略,从而确定出最优喷涂轨迹,其中,所述图像处理包括摄像机标定、图像校正和立体匹配;具体步骤如下:
步骤1:图像获取:采用双目视觉系统中的两台相同的相机同时获取同一个场景中的目标物体图像,然后,对获取的图像进行预处理;
步骤2:摄像机标定:对于获取的畸变向量,消除它的径向和切线方向上的镜头畸变,获得无畸变图像,同时建立摄像机的成像模型,确定目标点与像素点之间的对应关系;
步骤3:图像校正:通过线性变换使处理后的无畸变图像中的共轭极线位于同一水平线上,把二维空间的匹配问题化简为一维空间的求解问题;
步骤4:立体匹配:采用立体匹配算法得到校准后的图像与原图像的视差值,然后利用这个视差值得到每两幅图像之间的稀疏匹配,再通过优化算法,获得稠密匹配;
步骤5:三维重建:采用三角测量原理计算获取的立体匹配图像的深度值,得到稠密的三维空间点云,再对获取的三维空间点云进行网格化和差值计算,得到物体的三维结构模型;
步骤6:图形离散化:通过双目视觉系统对目标物体进行目标获取,对空间进行离散化,即将目标转化为点的集合;
步骤7:选取初始点;
步骤8:选择最优轨迹策略:将决策策略π定义为一个函数,它将一个状态映射到一个动作s→a,即当前状态s执行动作a;强化学习的目标函数为:
Qπ(s,a)=E(R(s0)+γR(s1)+γ2R(s2)+...|s0=s,a0=a,π)   (1)
Qπ(s,a)表示当前初始状态s下,采取动作a之后依照策略π的决策运动所能获得期望收益,即找到最优策略π*,使得
π*=argmaxQπ(s,a)。
进一步地,所述步骤2中的摄像机标定,假设目标点P的三维坐标为(Xw,Yw,Zw),左摄像机的坐标系为O1-X1Y1Z1,图像坐标系为o1-x1y1;右摄像机的坐标系为O2-X2Y2Z2,图像坐标系为o2-x2y2;原点O1,O2分别为左右摄像机的光心;左右摄像机的焦距分别设为f1,f2
进一步地,所述步骤5中得到物体的三维结构模型
Figure BDA0001924077240000041
其中,r1,r2……r9为旋转分量;tx,ty,tz为平移分量,式中Xw、Yw和Zw为三维结构模型中三维坐标的解。
进一步地,所述步骤8中,在Q学习的基础上,深度Q学习,以神经网络来拟合Q函数(s,a),其输入状态s可以是连续变量;学习算法如下:
(1)初始化经验回放存储区D;
(2)初始化Q网络、目标Q网络(Q′),其网络权值为随机值;
(3)开始新的一轮,随机生成环境、喷涂目标,目标点随机出现在空间一定范围内的任意位置,喷枪重置为初试姿态;
(4)以ε的概率选择随机动作at,1-ε的概率选择最优动作at=max(st,a),其中st为当前状态;
(5)执行动作at,得到当前奖励rt,下一时刻状态st+1,将(st,at,rt,st+1)存入D;
(6)从D中随机采样一批数据,即一批(sj,aj,rj,sj+1)四元组,令
Figure BDA0001924077240000042
其中sT为喷枪达到的目标位置;
(7)若st+1不是最终状态sT则返回步骤(4),若st+1是最终状态,sT则更新目标网络Q′,令Q′的网络参数等于Q的网络参数,并返回步骤(3)。
进一步地,奖励函数rt分为三个部分,第一部分对重复喷涂进行惩罚,即静止不动,第二部分对喷枪到达目标位置进行奖励,第三部分,对喷枪与目标距离进行奖励或者惩罚,奖励函数为:
Figure BDA0001924077240000051
式中,xd为当前点坐标,xe为目标点坐标。
本发明的优点在于:
(1)本发明基于强化学习的喷涂机器人轨迹优化方法,采用双目视觉获取目标的位置空间信息,精确度较高,对于一些喷涂工件的大曲率或者凹点凸点能够很好的识别,效率较高;
(2)本发明基于强化学习的喷涂机器人轨迹优化方法,该方法能够在不同的环境中根据不同的状态规划出可行路径,并且决策时间短、成功率高,能够满足在线规划的实时性要求,从而克服了传统机械臂路径规划方法实时性差、计算量大的缺点;
(3)本发明基于强化学习的喷涂机器人轨迹优化方法,强化学习不需要大量的训练数据,且能够生成决定性策略,抗干扰能力强,能够有效地进行轨迹优化。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明基于强化学习的喷涂机器人轨迹优化方法的流程图。
图2是双目视觉系统图。
图3是汇聚式双目视觉理论模型图。
图4是双目视觉三维重建系统组成图。
图5是强化学习模型示意图。
具体实施方式
下面的实施例可以使本专业的技术人员更全面地理解本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例
本实施例中基于强化学习的喷涂机器人轨迹优化方法中的双目视觉系统,如图2所示,左右相机能够平行放置,并且要保证基线不能太长,将平行式光轴双目视觉系统中的左右相机分别绕光心顺时针和逆时针旋转一定角度,从而形成汇聚式双目视觉系统;此系统的优点是能够获得更大的视场,大视场的好处就是能够提高计算视差的精度,从而可以提高三维重建的精度。
本实施例中基于强化学习的喷涂机器人轨迹优化方法,如图1所示,通过图像获取、图像处理、图形三维重建、图形离散化、选取初始点和选择最优轨迹策略,从而确定出最优喷涂轨迹,其中,所述图像处理,如图4所示,包括摄像机标定、图像校正和立体匹配;具体步骤如下:
步骤1:图像获取:采用双目视觉系统中的两台相同的相机同时获取同一个场景中的目标物体图像,然后,对获取的图像进行预处理;
步骤2:摄像机标定:对于获取的畸变向量,消除它的径向和切线方向上的镜头畸变,获得无畸变图像,同时建立摄像机的成像模型,确定目标点与像素点之间的对应关系;如图3所示,假设目标点P的三维坐标为(Xw,Yw,Zw),左摄像机的坐标系为O1-X1Y1Z1,图像坐标系为o1-x1y1;右摄像机的坐标系为O2-X2Y2Z2,图像坐标系为o2-x2y2;原点O1,O2分别为左右摄像机的光心;左右摄像机的焦距分别设为f1,f2
步骤3:图像校正:通过线性变换使处理后的无畸变图像中的共轭极线位于同一水平线上,把二维空间的匹配问题化简为一维空间的求解问题;
步骤4:立体匹配:采用立体匹配算法得到校准后的图像与原图像的视差值,然后利用这个视差值得到每两幅图像之间的稀疏匹配,再通过优化算法,获得稠密匹配;
步骤5:三维重建:采用三角测量原理计算获取的立体匹配图像的深度值,得到稠密的三维空间点云,再对获取的三维空间点云进行网格化和差值计算,得到物体的三维结构模型;得到物体的三维结构模型为
Figure BDA0001924077240000071
其中,r1,r2……r9为旋转分量;tx,ty,tz为平移分量,式中Xw、Yw和Zw为三维结构模型中三维坐标的解;
步骤6:图形离散化:通过双目视觉系统对目标物体进行目标获取,对空间进行离散化,即将目标转化为点的集合;
步骤7:选取初始点;
步骤8:选择最优轨迹策略:将决策策略π定义为一个函数,它将一个状态映射到一个动作s→a,即当前状态s执行动作a;强化学习的目标函数为:
Qπ(s,a)=E(R(s0)+γR(s1)+γ2R(s2)+...|s0=s,a0=a,π)   (1)
Qπ(s,a)表示当前初始状态s下,采取动作a之后依照策略π的决策运动所能获得期望收益,即找到最优策略π*,使得
π*=argmaxQπ(s,a);在Q学习的基础上,深度Q学习,以神经网络来拟合Q函数(s,a),其输入状态s可以是连续变量;学习算法如下:
(1)初始化经验回放存储区D;
(2)初始化Q网络、目标Q网络(Q′),其网络权值为随机值;
(3)开始新的一轮,随机生成环境、喷涂目标,目标点随机出现在空间一定范围内的任意位置,喷枪重置为初试姿态;
(4)以ε的概率选择随机动作at,1-ε的概率选择最优动作at=max(st,a),其中st为当前状态;
(5)执行动作at,得到当前奖励rt,下一时刻状态st+1,将(st,at,rt,st+1)存入D;
(6)从D中随机采样一批数据,即一批(sj,aj,rj,sj+1)四元组,令
Figure BDA0001924077240000091
其中sT为喷枪达到的目标位置;
(7)若st+1不是最终状态sT则返回步骤(4),若st+1是最终状态,sT则更新目标网络Q′,令Q′的网络参数等于Q的网络参数,并返回步骤(3)。
其中,(5)中的奖励函数rt分为三个部分,第一部分对重复喷涂进行惩罚,即静止不动,第二部分对喷枪到达目标位置进行奖励,第三部分,对喷枪与目标距离进行奖励或者惩罚,奖励函数为:
Figure BDA0001924077240000092
式中,xd为当前点坐标,xe为目标点坐标。
以上显示和描述了本发明的基本原理和主要特征以及本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (3)

1.一种基于强化学习的喷涂机器人轨迹优化方法,其特征在于:所述轨迹优化方法通过图像获取、图像处理、图形三维重建、图形离散化、选取初始点和选择最优轨迹策略,从而确定出最优喷涂轨迹,其中,所述图像处理包括摄像机标定、图像校正和立体匹配;具体步骤如下:
步骤1:图像获取:采用双目视觉系统中的两台相同的相机同时获取同一个场景中的目标物体图像,然后,对获取的图像进行预处理;
步骤2:摄像机标定:对于获取的畸变向量,消除它的径向和切线方向上的镜头畸变,获得无畸变图像,同时建立摄像机的成像模型,确定目标点与像素点之间的对应关系;
步骤3:图像校正:通过线性变换使处理后的无畸变图像中的共轭极线位于同一水平线上,把二维空间的匹配问题化简为一维空间的求解问题;
步骤4:立体匹配:采用立体匹配算法得到校准后的图像与原图像的视差值,然后利用这个视差值得到每两幅图像之间的稀疏匹配,再通过优化算法,获得稠密匹配;
步骤5:三维重建:采用三角测量原理计算获取的立体匹配图像的深度值,得到稠密的三维空间点云,再对获取的三维空间点云进行网格化和差值计算,得到物体的三维结构模型;
步骤6:图形离散化:通过双目视觉系统对目标物体进行目标获取,对空间进行离散化,即将目标转化为点的集合;
步骤7:选取初始点;
步骤8:选择最优轨迹策略:将决策策略π定义为一个函数,它将一个状态映射到一个动作s→a,即当前状态s执行动作a;强化学习的目标函数为:
Qπ(s,a)=E(R(s0)+γR(s1)+γ2R(s2)+...|s0=s,a0=a,π)(1)
Qπ(s,a)表示当前初始状态s下,采取动作a之后依照策略π的决策运动所能获得期望收益,即找到最优策略π*,使得π*=argmaxQπ(s,a);
步骤2中的摄像机标定,假设目标点P的三维坐标为(Xw,Yw,Zw),左摄像机的坐标系为O1-X1Y1Z1,图像坐标系为o1-x1y1;右摄像机的坐标系为O2-X2Y2Z2,图像坐标系为o2-x2y2;原点O1,O2分别为左右摄像机的光心;左右摄像机的焦距分别设为f1,f2
步骤5中得到物体的三维结构模型
Figure FDA0004039857710000021
其中,r1,r2……r9为旋转分量;tx,ty,tz为平移分量,式中Xw、Yw和Zw为三维结构模型中三维坐标的解。
2.根据权利要求1所述的基于强化学习的喷涂机器人轨迹优化方法,其特征在于:所述步骤8中,在Q学习的基础上,深度Q学习,以神经网络来拟合Q函数(s,a),其输入状态s可以是连续变量;学习算法如下:
(1)初始化经验回放存储区D;
(2)初始化Q网络、目标Q网络(Q′),其网络权值为随机值;
(3)开始新的一轮,随机生成环境、喷涂目标,目标点随机出现在空间一定范围内的任意位置,喷枪重置为初试姿态;
(4)以ε的概率选择随机动作at,1-ε的概率选择最优动作at=max(st,a),其中st为当前状态;
(5)执行动作at,得到当前奖励rt,下一时刻状态st+1,将
Figure FDA0004039857710000023
存入D;
(6)从D中随机采样一批数据,即一批(sj,aj,rj,sj+1)四元组,令
Figure FDA0004039857710000022
其中sT为喷枪达到的目标位置;
(7)若st+1不是最终状态sT则返回步骤(4),若st+1是最终状态,sT则更新目标网络Q′,令Q′的网络参数等于Q的网络参数,并返回步骤(3)。
3.根据权利要求2所述的基于强化学习的喷涂机器人轨迹优化方法,其特征在于:奖励函数rt分为三个部分,第一部分对重复喷涂进行惩罚,即静止不动,第二部分对喷枪到达目标位置进行奖励,第三部分,对喷枪与目标距离进行奖励或者惩罚,奖励函数为:
Figure FDA0004039857710000031
式中,xd为当前点坐标,xe为目标点坐标。
CN201811608181.0A 2018-12-27 2018-12-27 一种基于强化学习的喷涂机器人轨迹优化方法 Active CN109521774B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811608181.0A CN109521774B (zh) 2018-12-27 2018-12-27 一种基于强化学习的喷涂机器人轨迹优化方法
PCT/CN2019/108333 WO2020134254A1 (zh) 2018-12-27 2019-09-27 一种基于强化学习的喷涂机器人轨迹优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811608181.0A CN109521774B (zh) 2018-12-27 2018-12-27 一种基于强化学习的喷涂机器人轨迹优化方法

Publications (2)

Publication Number Publication Date
CN109521774A CN109521774A (zh) 2019-03-26
CN109521774B true CN109521774B (zh) 2023-04-07

Family

ID=65796865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811608181.0A Active CN109521774B (zh) 2018-12-27 2018-12-27 一种基于强化学习的喷涂机器人轨迹优化方法

Country Status (2)

Country Link
CN (1) CN109521774B (zh)
WO (1) WO2020134254A1 (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109521774B (zh) * 2018-12-27 2023-04-07 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法
CN109976347B (zh) * 2019-04-11 2023-10-13 中南大学 一种基于快速扩展随机树和势场法的视觉伺服路径规划方法
CN110176032B (zh) * 2019-04-28 2021-02-26 暗物智能科技(广州)有限公司 一种三维重建方法及装置
CN111352419B (zh) * 2020-02-25 2021-06-04 山东大学 基于时序差分更新经验回放缓存的路径规划方法及系统
CN111415389B (zh) * 2020-03-18 2023-08-29 清华大学 基于强化学习的无标签六维物体姿态预测方法及装置
CN111413974B (zh) * 2020-03-30 2021-03-30 清华大学 一种基于学习采样式的汽车自动驾驶运动规划方法及系统
CN111602517B (zh) * 2020-05-28 2021-09-24 华南农业大学 一种串型水果分布式视觉主动感知方法及其应用
CN111915632B (zh) * 2020-07-26 2024-04-26 同济大学 一种基于机器学习的贫纹理目标物体真值数据库构建方法
CN111906765B (zh) * 2020-07-31 2022-07-12 平安科技(深圳)有限公司 应用于路径规划的空间采样方法、装置、设备及介质
CN112809678B (zh) * 2021-01-15 2023-07-18 合肥工业大学 一种多机器人工作站生产线系统的协同控制方法
CN112802091B (zh) * 2021-01-28 2023-08-29 北京理工大学 一种增强现实条件下基于dqn的智能体对抗行为实现方法
CN113232016A (zh) * 2021-04-13 2021-08-10 哈尔滨工业大学(威海) 一种强化学习与模糊避障融合的机械臂路径规划方法
CN113232019A (zh) * 2021-05-13 2021-08-10 中国联合网络通信集团有限公司 机械臂控制方法、装置、电子设备及存储介质
CN113393495B (zh) * 2021-06-21 2022-02-01 暨南大学 基于强化学习的高空抛物轨迹识别方法
CN113379751A (zh) * 2021-06-23 2021-09-10 苏州紫金港智能制造装备有限公司 基于二维目标检测的最适合抓取工件点云识别分割方法、装置及系统
CN115222808B (zh) * 2021-06-30 2023-10-20 达闼机器人股份有限公司 基于无人机的定位方法、装置、存储介质和电子设备
CN114022414B (zh) * 2021-10-15 2024-03-15 北方工业大学 一种基于双目感知学习的加油加电智能动作的执行方法
CN114011608B (zh) * 2021-11-26 2023-04-18 航天科工深圳(集团)有限公司 基于数字孪生的喷涂工艺优化系统及其喷涂优化方法
CN114359388A (zh) * 2022-01-06 2022-04-15 闽都创新实验室 一种基于dnn立体匹配模块的双目视觉slam稠密建图方法
CN114535738B (zh) * 2022-02-23 2023-11-07 大连爱智控制系统有限公司 一种基于模型及数控钻孔文件的自动焊锡机示教编程方法
CN115047875B (zh) * 2022-06-07 2024-05-14 中国北方车辆研究所 任务驱动的四足机器人粗粒度迭代模型
CN115283172B (zh) * 2022-07-22 2024-05-17 颖态智能技术(上海)有限公司 一种基于点云处理的机器人自动喷涂方法
CN115430588A (zh) * 2022-08-13 2022-12-06 粉饰科技(广东)有限公司 一种基于燃气催化红外技术的低温粉末喷涂方法
CN115319759A (zh) * 2022-09-21 2022-11-11 上海摩马智能科技有限公司 机械臂末端控制轨迹智能规划算法
CN115829963B (zh) * 2022-11-28 2023-11-03 江苏凯威特斯半导体科技有限公司 一种等离子喷涂图像数据识别分析方法和系统
CN116861175A (zh) * 2023-06-16 2023-10-10 云浮市赢石网络科技有限公司 一种基于神经网络的运行轨迹校正方法
CN116852374B (zh) * 2023-08-08 2024-04-26 深圳创劲鑫科技有限公司 一种基于机器视觉的智能机器人控制系统
CN116834037B (zh) * 2023-09-01 2023-10-31 广东技术师范大学 基于动态多目标优化的采摘机械臂轨迹规划方法及装置
CN117250868B (zh) * 2023-11-14 2024-03-01 泉州装备制造研究所 基于多目标粒子群算法的分流控制方法、系统及存储介质
CN117694841B (zh) * 2024-02-06 2024-04-30 成都中医药大学 一种重心轨迹数据获取方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106423656A (zh) * 2016-08-11 2017-02-22 重庆大学 基于点云与图像匹配的自动喷涂系统及方法
CN107450593A (zh) * 2017-08-30 2017-12-08 清华大学 一种无人机自主导航方法和系统
CN107450555A (zh) * 2017-08-30 2017-12-08 唐开强 一种基于深度强化学习的六足机器人实时步态规划方法
CN107756408A (zh) * 2017-11-22 2018-03-06 浙江优迈德智能装备有限公司 一种基于主动红外双目视觉的机器人轨迹示教装置及方法
CN108256504A (zh) * 2018-02-11 2018-07-06 苏州笛卡测试技术有限公司 一种基于深度学习的三维动态手势识别方法
CN108335350A (zh) * 2018-02-06 2018-07-27 聊城大学 双目立体视觉的三维重建方法
CN109048926A (zh) * 2018-10-24 2018-12-21 河北工业大学 一种基于立体视觉的机器人智能避障系统及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040138780A1 (en) * 2002-11-15 2004-07-15 Lewis Murray Anthony Certain principles of biomorphic robots
CN102981406B (zh) * 2012-11-26 2016-02-24 浙江工业大学 一种基于双目视觉的鞋底喷胶厚度控制方法
CN104759379B (zh) * 2015-04-15 2017-05-03 重庆大学 基于喷涂目标三维成像技术的全流程闭环智能喷涂机器人
US20170106542A1 (en) * 2015-10-16 2017-04-20 Amit Wolf Robot and method of controlling thereof
CN106094516A (zh) * 2016-06-08 2016-11-09 南京大学 一种基于深度强化学习的机器人自适应抓取方法
CN106228605A (zh) * 2016-07-29 2016-12-14 东南大学 一种基于动态规划的立体匹配三维重建方法
CN106327561A (zh) * 2016-08-31 2017-01-11 武汉湾流科技股份有限公司 一种基于机器视觉技术的智能喷涂方法及系统
CN107908152A (zh) * 2017-12-26 2018-04-13 苏州瀚华智造智能技术有限公司 一种活动式机器人自动喷涂装置、控制系统及方法
CN109521774B (zh) * 2018-12-27 2023-04-07 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106423656A (zh) * 2016-08-11 2017-02-22 重庆大学 基于点云与图像匹配的自动喷涂系统及方法
CN107450593A (zh) * 2017-08-30 2017-12-08 清华大学 一种无人机自主导航方法和系统
CN107450555A (zh) * 2017-08-30 2017-12-08 唐开强 一种基于深度强化学习的六足机器人实时步态规划方法
CN107756408A (zh) * 2017-11-22 2018-03-06 浙江优迈德智能装备有限公司 一种基于主动红外双目视觉的机器人轨迹示教装置及方法
CN108335350A (zh) * 2018-02-06 2018-07-27 聊城大学 双目立体视觉的三维重建方法
CN108256504A (zh) * 2018-02-11 2018-07-06 苏州笛卡测试技术有限公司 一种基于深度学习的三维动态手势识别方法
CN109048926A (zh) * 2018-10-24 2018-12-21 河北工业大学 一种基于立体视觉的机器人智能避障系统及方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
双目立体视觉在人形机器人三维重建中的应用;孙新领等;《现代电子技术》;20160415;第39卷(第08期);第80-84、87页 *
双目视觉快速匹配在喷涂机器人中的应用;崔线线等;《科技传播》;中国科技新闻学会;20150430;第129、139页 *
基于双目摄像头的机械臂目标抓取;林森阳等;《农业装备与车辆工程》;20180510;第56卷(第05期);第72-76页 *
基于双目立体相机的室外场景三维重建系统设计;汪神岳等;《计算机测量与控制》;20171125;第25卷(第11期);第137-140、145页 *
基于机器视觉和深度学习的空间结构球节点位移测量方法;王一江;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;中国学术期刊(光盘版)电子杂志社;20181215(第12期);第1-71页 *

Also Published As

Publication number Publication date
WO2020134254A1 (zh) 2020-07-02
CN109521774A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN109521774B (zh) 一种基于强化学习的喷涂机器人轨迹优化方法
CN106845515B (zh) 基于虚拟样本深度学习的机器人目标识别和位姿重构方法
CN108230247B (zh) 基于云端的三维地图的生成方法、装置、设备及计算机可读的存储介质
Ye et al. Collision-free motion planning for the litchi-picking robot
CN109976347B (zh) 一种基于快速扩展随机树和势场法的视觉伺服路径规划方法
CN112179357B (zh) 基于单目相机的平面运动目标视觉导航方法及系统
CN110433467B (zh) 基于双目视觉和蚁群算法的捡乒乓球机器人运行方法及设备
CN112045655B (zh) 用于大尺度多站点场景的移动机器人位姿测量方法及系统
CN113119112A (zh) 适用于六自由度机器人视觉测量的运动规划方法及系统
CN114758011B (zh) 融合离线标定结果的变焦相机在线标定方法
Quan et al. AGV localization based on odometry and LiDAR
CN113681559B (zh) 一种基于标准圆柱的线激光扫描机器人手眼标定方法
CN115546289A (zh) 一种基于机器人的复杂结构件三维形貌测量方法
CN112700505B (zh) 一种基于双目三维跟踪的手眼标定方法、设备及存储介质
CN107123135B (zh) 一种无序三维点云的无畸变成像方法
Wu et al. Correspondence matching and time delay estimation for hand-eye calibration
Bao et al. 3D perception-based collision-free robotic leaf probing for automated indoor plant phenotyping
CN111198563B (zh) 一种用于足式机器人动态运动的地形识别方法及系统
CN113030960A (zh) 一种基于单目视觉slam的车辆定位方法
CN115556120B (zh) 一种基于随机自适应的焊缝路径规划无示教方法
Buck et al. Capturing uncertainty in monocular depth estimation: Towards fuzzy voxel maps
Xue et al. Real-time 3D grid map building for autonomous driving in dynamic environment
CN115950414A (zh) 一种不同传感器数据的自适应多重融合slam方法
CN109343074A (zh) 移动型机器人及其地图构建方法、装置及可读存储介质
CN114463495A (zh) 一种基于机器视觉技术的智能喷涂方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant