CN109521774A - 一种基于强化学习的喷涂机器人轨迹优化方法 - Google Patents
一种基于强化学习的喷涂机器人轨迹优化方法 Download PDFInfo
- Publication number
- CN109521774A CN109521774A CN201811608181.0A CN201811608181A CN109521774A CN 109521774 A CN109521774 A CN 109521774A CN 201811608181 A CN201811608181 A CN 201811608181A CN 109521774 A CN109521774 A CN 109521774A
- Authority
- CN
- China
- Prior art keywords
- image
- intensified learning
- target
- track optimizing
- optimizing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 239000007921 spray Substances 0.000 title claims abstract description 33
- 238000005507 spraying Methods 0.000 claims abstract description 11
- 230000008901 benefit Effects 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims abstract description 3
- 230000006870 function Effects 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 239000011248 coating agent Substances 0.000 claims description 3
- 238000000576 coating method Methods 0.000 claims description 3
- 230000021615 conjugation Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004387 environmental modeling Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Application Of Or Painting With Fluid Materials (AREA)
Abstract
本发明涉及一种基于强化学习的喷涂机器人轨迹优化方法,所述轨迹优化方法通过图像获取、图像处理、图形三维重建、图形离散化、选取初始点和选择最优轨迹策略,从而确定出最优喷涂轨迹,其中,所述图像处理包括摄像机标定、图像校正和立体匹配。本发明的优点在于:本发明基于强化学习的喷涂机器人轨迹优化方法,该方法能够在不同的环境中根据不同的状态规划出可行路径,并且决策时间短、成功率高,能够满足在线规划的实时性要求,从而克服了传统机械臂路径规划方法实时性差、计算量大的缺点。
Description
技术领域
本发明属于智能算法控制领域,特别涉及一种基于强化学习的喷涂机器人轨迹优化方法。
背景技术
大部分喷涂机器人采用示教喷涂,根据技术员工预先设定好的轨迹进行喷涂,这种喷涂方法根据前人喷涂的经验进行有效的喷涂,但是前期编程工作较大,而且轨迹优化不明显,效率较低,涂料浪费相对较大。
基于强化学习的轨迹优化利用强化学习通过机器人对环境进行建模,在机器内部模拟出与环境相同或类似的状况,进行喷涂轨迹优化。在已有的轨迹优化算法中,通常都是概率路图法、快速搜索树法及人工势场法等。此类方法在将对环境建模或者模拟空间时,需要对机械臂的多种姿态进行采样,并通过运动学方程判断当前动作是否合理,计算量大;当环境中的障碍物和目标位置发生改变时,需要对新的环境重新计算构型空间的映射,难以达到动态实时规划的目的。另外,此类方法需要事先对机械臂构建精确的物理模型,建模的偏差会直接影响机械臂控制的效果。
针对目前强化学习的方法,强化学习方法以马尔科夫决策过程来描述问题,通过智能体与环境的互动积累经验,并且不断更新智能体的策略,使它做出的决策能够获得更高的奖励。相比于传统方法,该方法不需要对机械臂构建物理模型,在训练完成后,策略能够直接根据当前环境状态输出下一步的决策,由于网络进行一次前向计算的计算量很少,因此能够实现喷枪的在线规划与实时控制。
发明内容
本发明要解决的技术问题是提供一种基于强化学习的喷涂机器人轨迹优化方法,解决了喷枪在喷涂过程中,能够实现有效的在线规划与实时控制。
为解决上述技术问题,本发明的技术方案为:一种基于强化学习的喷涂机器人轨迹优化方法,其创新点在于:所述轨迹优化方法通过图像获取、图像处理、图形三维重建、图形离散化、选取初始点和选择最优轨迹策略,从而确定出最优喷涂轨迹,其中,所述图像处理包括摄像机标定、图像校正和立体匹配;具体步骤如下:
步骤1:图像获取:采用双目视觉系统中的两台相同的相机同时获取同一个场景中的目标物体图像,然后,对获取的图像进行预处理;
步骤2:摄像机标定:对于获取的畸变向量,消除它的径向和切线方向上的镜头畸变,获得无畸变图像,同时建立摄像机的成像模型,确定目标点与像素点之间的对应关系;
步骤3:图像校正:通过线性变换使处理后的无畸变图像中的共轭极线位于同一水平线上,把二维空间的匹配问题化简为一维空间的求解问题;
步骤4:立体匹配:采用立体匹配算法得到校准后的图像与原图像的视差值,然后利用这个视差值得到每两幅图像之间的稀疏匹配,再通过优化算法,获得稠密匹配;
步骤5:三维重建:采用三角测量原理计算获取的立体匹配图像的深度值,得到稠密的三维空间点云,再对获取的三维空间点云进行网格化和差值计算,得到物体的三维结构模型;
步骤6:图形离散化:通过双目视觉系统对目标物体进行目标获取,对空间进行离散化,即将目标转化为点的集合;
步骤7:选取初始点;
步骤8:选择最优轨迹策略:将决策策略π定义为一个函数,它将一个状态映射到一个动作s→a,即当前状态s执行动作a;强化学习的目标函数为:
Qπ(s,a)=E(R(s0)+γR(s1)+γ2R(s2)+...|s0=s,a0=a,π) (1)
Qπ(s,a)表示当前初始状态s下,采取动作a之后依照策略π的决策运动所能获得期望收益,即找到最优策略π*,使得
π*=argmaxQπ(s,a)。
进一步地,所述步骤2中的摄像机标定,假设目标点P的三维坐标为(Xw,Yw,Zw),左摄像机的坐标系为O1-X1Y1Z1,图像坐标系为o1-x1y1;右摄像机的坐标系为O2-X2Y2Z2,图像坐标系为o2-x2y2;原点O1,O2分别为左右摄像机的光心;左右摄像机的焦距分别设为f1,f2。
进一步地,所述步骤5中得到物体的三维结构模型
其中,r1,r2……r9为旋转分量;tx,ty,tz为平移分量,式中Xw、Yw和Zw为三维结构模型中三维坐标的解。
进一步地,所述步骤8中,在Q学习的基础上,深度Q学习,以神经网络来拟合Q函数(s,a),其输入状态s可以是连续变量;学习算法如下:
(1)初始化经验回放存储区D;
(2)初始化Q网络、目标Q网络(Q′),其网络权值为随机值;
(3)开始新的一轮,随机生成环境、喷涂目标,目标点随机出现在空间一定范围内的任意位置,喷枪重置为初试姿态;
(4)以ε的概率选择随机动作at,1-ε的概率选择最优动作at=max(st,a),其中st为当前状态;
(5)执行动作at,得到当前奖励rt,下一时刻状态st+1,将(st,at,rt,st+1)存入D;
(6)从D中随机采样一批数据,即一批(sj,aj,rj,sj+1)四元组,令其中sT为喷枪达到的目标位置;
(7)若st+1不是最终状态sT则返回步骤(4),若st+1是最终状态,sT则更新目标网络Q′,令Q′的网络参数等于Q的网络参数,并返回步骤(3)。
进一步地,奖励函数rt分为三个部分,第一部分对重复喷涂进行惩罚,即静止不动,第二部分对喷枪到达目标位置进行奖励,第三部分,对喷枪与目标距离进行奖励或者惩罚,奖励函数为:
式中,xd为当前点坐标,xe为目标点坐标。
本发明的优点在于:
(1)本发明基于强化学习的喷涂机器人轨迹优化方法,采用双目视觉获取目标的位置空间信息,精确度较高,对于一些喷涂工件的大曲率或者凹点凸点能够很好的识别,效率较高;
(2)本发明基于强化学习的喷涂机器人轨迹优化方法,该方法能够在不同的环境中根据不同的状态规划出可行路径,并且决策时间短、成功率高,能够满足在线规划的实时性要求,从而克服了传统机械臂路径规划方法实时性差、计算量大的缺点;
(3)本发明基于强化学习的喷涂机器人轨迹优化方法,强化学习不需要大量的训练数据,且能够生成决定性策略,抗干扰能力强,能够有效地进行轨迹优化。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明基于强化学习的喷涂机器人轨迹优化方法的流程图。
图2是双目视觉系统图。
图3是汇聚式双目视觉理论模型图。
图4是双目视觉三维重建系统组成图。
图5是强化学习模型示意图。
具体实施方式
下面的实施例可以使本专业的技术人员更全面地理解本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例
本实施例中基于强化学习的喷涂机器人轨迹优化方法中的双目视觉系统,如图2所示,左右相机能够平行放置,并且要保证基线不能太长,将平行式光轴双目视觉系统中的左右相机分别绕光心顺时针和逆时针旋转一定角度,从而形成汇聚式双目视觉系统;此系统的优点是能够获得更大的视场,大视场的好处就是能够提高计算视差的精度,从而可以提高三维重建的精度。
本实施例中基于强化学习的喷涂机器人轨迹优化方法,如图1所示,通过图像获取、图像处理、图形三维重建、图形离散化、选取初始点和选择最优轨迹策略,从而确定出最优喷涂轨迹,其中,所述图像处理,如图4所示,包括摄像机标定、图像校正和立体匹配;具体步骤如下:
步骤1:图像获取:采用双目视觉系统中的两台相同的相机同时获取同一个场景中的目标物体图像,然后,对获取的图像进行预处理;
步骤2:摄像机标定:对于获取的畸变向量,消除它的径向和切线方向上的镜头畸变,获得无畸变图像,同时建立摄像机的成像模型,确定目标点与像素点之间的对应关系;如图3所示,假设目标点P的三维坐标为(Xw,Yw,Zw),左摄像机的坐标系为O1-X1Y1Z1,图像坐标系为o1-x1y1;右摄像机的坐标系为O2-X2Y2Z2,图像坐标系为o2-x2y2;原点O1,O2分别为左右摄像机的光心;左右摄像机的焦距分别设为f1,f2;
步骤3:图像校正:通过线性变换使处理后的无畸变图像中的共轭极线位于同一水平线上,把二维空间的匹配问题化简为一维空间的求解问题;
步骤4:立体匹配:采用立体匹配算法得到校准后的图像与原图像的视差值,然后利用这个视差值得到每两幅图像之间的稀疏匹配,再通过优化算法,获得稠密匹配;
步骤5:三维重建:采用三角测量原理计算获取的立体匹配图像的深度值,得到稠密的三维空间点云,再对获取的三维空间点云进行网格化和差值计算,得到物体的三维结构模型;得到物体的三维结构模型为
其中,r1,r2……r9为旋转分量;tx,ty,tz为平移分量,式中Xw、Yw和Zw为三维结构模型中三维坐标的解;
步骤6:图形离散化:通过双目视觉系统对目标物体进行目标获取,对空间进行离散化,即将目标转化为点的集合;
步骤7:选取初始点;
步骤8:选择最优轨迹策略:将决策策略π定义为一个函数,它将一个状态映射到一个动作s→a,即当前状态s执行动作a;强化学习的目标函数为:
Qπ(s,a)=E(R(s0)+γR(s1)+γ2R(s2)+...|s0=s,a0=a,π) (1)
Qπ(s,a)表示当前初始状态s下,采取动作a之后依照策略π的决策运动所能获得期望收益,即找到最优策略π*,使得
π*=argmaxQπ(s,a);在Q学习的基础上,深度Q学习,以神经网络来拟合Q函数(s,a),其输入状态s可以是连续变量;学习算法如下:
(1)初始化经验回放存储区D;
(2)初始化Q网络、目标Q网络(Q′),其网络权值为随机值;
(3)开始新的一轮,随机生成环境、喷涂目标,目标点随机出现在空间一定范围内的任意位置,喷枪重置为初试姿态;
(4)以ε的概率选择随机动作at,1-ε的概率选择最优动作at=max(st,a),其中st为当前状态;
(5)执行动作at,得到当前奖励rt,下一时刻状态st+1,将(st,at,rt,st+1)存入D;
(6)从D中随机采样一批数据,即一批(sj,aj,rj,sj+1)四元组,令其中sT为喷枪达到的目标位置;
(7)若st+1不是最终状态sT则返回步骤(4),若st+1是最终状态,sT则更新目标网络Q′,令Q′的网络参数等于Q的网络参数,并返回步骤(3)。
其中,(5)中的奖励函数rt分为三个部分,第一部分对重复喷涂进行惩罚,即静止不动,第二部分对喷枪到达目标位置进行奖励,第三部分,对喷枪与目标距离进行奖励或者惩罚,奖励函数为:
式中,xd为当前点坐标,xe为目标点坐标。
以上显示和描述了本发明的基本原理和主要特征以及本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (5)
1.一种基于强化学习的喷涂机器人轨迹优化方法,其特征在于:所述轨迹优化方法通过图像获取、图像处理、图形三维重建、图形离散化、选取初始点和选择最优轨迹策略,从而确定出最优喷涂轨迹,其中,所述图像处理包括摄像机标定、图像校正和立体匹配;具体步骤如下:
步骤1:图像获取:采用双目视觉系统中的两台相同的相机同时获取同一个场景中的目标物体图像,然后,对获取的图像进行预处理;
步骤2:摄像机标定:对于获取的畸变向量,消除它的径向和切线方向上的镜头畸变,获得无畸变图像,同时建立摄像机的成像模型,确定目标点与像素点之间的对应关系;
步骤3:图像校正:通过线性变换使处理后的无畸变图像中的共轭极线位于同一水平线上,把二维空间的匹配问题化简为一维空间的求解问题;
步骤4:立体匹配:采用立体匹配算法得到校准后的图像与原图像的视差值,然后利用这个视差值得到每两幅图像之间的稀疏匹配,再通过优化算法,获得稠密匹配;
步骤5:三维重建:采用三角测量原理计算获取的立体匹配图像的深度值,得到稠密的三维空间点云,再对获取的三维空间点云进行网格化和差值计算,得到物体的三维结构模型;
步骤6:图形离散化:通过双目视觉系统对目标物体进行目标获取,对空间进行离散化,即将目标转化为点的集合;
步骤7:选取初始点;
步骤8:选择最优轨迹策略:将决策策略π定义为一个函数,它将一个状态映射到一个动作s→a,即当前状态s执行动作a;强化学习的目标函数为:
Qπ(s,a)=E(R(s0)+γR(s1)+γ2R(s2)+...|s0=s,a0=a,π) (1)
Qπ(s,a)表示当前初始状态s下,采取动作a之后依照策略π的决策运动所能获得期望收益,即找到最优策略π*,使得π*=arg maxQπ(s,a)。
2.根据权利要求1所述的基于强化学习的喷涂机器人轨迹优化方法,其特征在于:所述步骤2中的摄像机标定,假设目标点P的三维坐标为(Xw,Yw,Zw),左摄像机的坐标系为O1-X1Y1Z1,图像坐标系为o1-x1y1;右摄像机的坐标系为O2-X2Y2Z2,图像坐标系为o2-x2y2;原点O1,O2分别为左右摄像机的光心;左右摄像机的焦距分别设为f1,f2。
3.根据权利要求2所述的基于强化学习的喷涂机器人轨迹优化方法,其特征在于:所述步骤5中得到物体的三维结构模型
其中,r1,r2……r9为旋转分量;tx,ty,tz为平移分量,式中Xw、Yw和Zw为三维结构模型中三维坐标的解。
4.根据权利要求1所述的基于强化学习的喷涂机器人轨迹优化方法,其特征在于:所述步骤8中,在Q学习的基础上,深度Q学习,以神经网络来拟合Q函数(s,a),其输入状态s可以是连续变量;学习算法如下:
(1)初始化经验回放存储区D;
(2)初始化Q网络、目标Q网络(Q′),其网络权值为随机值;
(3)开始新的一轮,随机生成环境、喷涂目标,目标点随机出现在空间一定范围内的任意位置,喷枪重置为初试姿态;
(4)以ε的概率选择随机动作at,1-ε的概率选择最优动作at=max(st,a),其中st为当前状态;
(5)执行动作at,得到当前奖励rt,下一时刻状态st+1,将存入D;
(6)从D中随机采样一批数据,即一批(sj,aj,rj,sj+1)四元组,令其中sT为喷枪达到的目标位置;
(7)若st+1不是最终状态sT则返回步骤(4),若st+1是最终状态,sT则更新目标网络Q′,令Q′的网络参数等于Q的网络参数,并返回步骤(3)。
5.根据权利要求4所述的基于强化学习的喷涂机器人轨迹优化方法,其特征在于:奖励函数rt分为三个部分,第一部分对重复喷涂进行惩罚,即静止不动,第二部分对喷枪到达目标位置进行奖励,第三部分,对喷枪与目标距离进行奖励或者惩罚,奖励函数为:
式中,xd为当前点坐标,xe为目标点坐标。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811608181.0A CN109521774B (zh) | 2018-12-27 | 2018-12-27 | 一种基于强化学习的喷涂机器人轨迹优化方法 |
PCT/CN2019/108333 WO2020134254A1 (zh) | 2018-12-27 | 2019-09-27 | 一种基于强化学习的喷涂机器人轨迹优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811608181.0A CN109521774B (zh) | 2018-12-27 | 2018-12-27 | 一种基于强化学习的喷涂机器人轨迹优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109521774A true CN109521774A (zh) | 2019-03-26 |
CN109521774B CN109521774B (zh) | 2023-04-07 |
Family
ID=65796865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811608181.0A Active CN109521774B (zh) | 2018-12-27 | 2018-12-27 | 一种基于强化学习的喷涂机器人轨迹优化方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109521774B (zh) |
WO (1) | WO2020134254A1 (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109976347A (zh) * | 2019-04-11 | 2019-07-05 | 中南大学 | 一种基于快速扩展随机树和势场法的视觉伺服路径规划方法 |
CN110176032A (zh) * | 2019-04-28 | 2019-08-27 | 暗物智能科技(广州)有限公司 | 一种三维重建方法及装置 |
CN111352419A (zh) * | 2020-02-25 | 2020-06-30 | 山东大学 | 基于时序差分更新经验回放缓存的路径规划方法及系统 |
WO2020134254A1 (zh) * | 2018-12-27 | 2020-07-02 | 南京芊玥机器人科技有限公司 | 一种基于强化学习的喷涂机器人轨迹优化方法 |
CN111413974A (zh) * | 2020-03-30 | 2020-07-14 | 清华大学 | 一种基于学习采样式的汽车自动驾驶运动规划方法及系统 |
CN111602517A (zh) * | 2020-05-28 | 2020-09-01 | 华南农业大学 | 一种串型水果分布式视觉主动感知方法及其应用 |
CN111906765A (zh) * | 2020-07-31 | 2020-11-10 | 平安科技(深圳)有限公司 | 应用于路径规划的空间采样方法、装置、设备及介质 |
CN113232016A (zh) * | 2021-04-13 | 2021-08-10 | 哈尔滨工业大学(威海) | 一种强化学习与模糊避障融合的机械臂路径规划方法 |
CN113232019A (zh) * | 2021-05-13 | 2021-08-10 | 中国联合网络通信集团有限公司 | 机械臂控制方法、装置、电子设备及存储介质 |
CN113393495A (zh) * | 2021-06-21 | 2021-09-14 | 暨南大学 | 基于强化学习的高空抛物轨迹识别方法 |
WO2021184530A1 (zh) * | 2020-03-18 | 2021-09-23 | 清华大学 | 基于强化学习的无标签六维物体姿态预测方法及装置 |
CN114011608A (zh) * | 2021-11-26 | 2022-02-08 | 航天科工深圳(集团)有限公司 | 基于数字孪生的喷涂工艺优化系统及其喷涂优化方法 |
CN115430588A (zh) * | 2022-08-13 | 2022-12-06 | 粉饰科技(广东)有限公司 | 一种基于燃气催化红外技术的低温粉末喷涂方法 |
CN116852374A (zh) * | 2023-08-08 | 2023-10-10 | 荆州双金再生资源有限公司 | 一种基于机器视觉的智能机器人控制系统 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915632B (zh) * | 2020-07-26 | 2024-04-26 | 同济大学 | 一种基于机器学习的贫纹理目标物体真值数据库构建方法 |
CN112809678B (zh) * | 2021-01-15 | 2023-07-18 | 合肥工业大学 | 一种多机器人工作站生产线系统的协同控制方法 |
CN112802091B (zh) * | 2021-01-28 | 2023-08-29 | 北京理工大学 | 一种增强现实条件下基于dqn的智能体对抗行为实现方法 |
CN113379751A (zh) * | 2021-06-23 | 2021-09-10 | 苏州紫金港智能制造装备有限公司 | 基于二维目标检测的最适合抓取工件点云识别分割方法、装置及系统 |
CN115222808B (zh) * | 2021-06-30 | 2023-10-20 | 达闼机器人股份有限公司 | 基于无人机的定位方法、装置、存储介质和电子设备 |
CN114022414B (zh) * | 2021-10-15 | 2024-03-15 | 北方工业大学 | 一种基于双目感知学习的加油加电智能动作的执行方法 |
CN114359388A (zh) * | 2022-01-06 | 2022-04-15 | 闽都创新实验室 | 一种基于dnn立体匹配模块的双目视觉slam稠密建图方法 |
CN114535738B (zh) * | 2022-02-23 | 2023-11-07 | 大连爱智控制系统有限公司 | 一种基于模型及数控钻孔文件的自动焊锡机示教编程方法 |
CN115047875B (zh) * | 2022-06-07 | 2024-05-14 | 中国北方车辆研究所 | 任务驱动的四足机器人粗粒度迭代模型 |
CN115283172B (zh) * | 2022-07-22 | 2024-05-17 | 颖态智能技术(上海)有限公司 | 一种基于点云处理的机器人自动喷涂方法 |
CN115319759A (zh) * | 2022-09-21 | 2022-11-11 | 上海摩马智能科技有限公司 | 机械臂末端控制轨迹智能规划算法 |
CN115829963B (zh) * | 2022-11-28 | 2023-11-03 | 江苏凯威特斯半导体科技有限公司 | 一种等离子喷涂图像数据识别分析方法和系统 |
CN116861175A (zh) * | 2023-06-16 | 2023-10-10 | 云浮市赢石网络科技有限公司 | 一种基于神经网络的运行轨迹校正方法 |
CN116834037B (zh) * | 2023-09-01 | 2023-10-31 | 广东技术师范大学 | 基于动态多目标优化的采摘机械臂轨迹规划方法及装置 |
CN117250868B (zh) * | 2023-11-14 | 2024-03-01 | 泉州装备制造研究所 | 基于多目标粒子群算法的分流控制方法、系统及存储介质 |
CN117694841B (zh) * | 2024-02-06 | 2024-04-30 | 成都中医药大学 | 一种重心轨迹数据获取方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040138780A1 (en) * | 2002-11-15 | 2004-07-15 | Lewis Murray Anthony | Certain principles of biomorphic robots |
CN106423656A (zh) * | 2016-08-11 | 2017-02-22 | 重庆大学 | 基于点云与图像匹配的自动喷涂系统及方法 |
CN107450593A (zh) * | 2017-08-30 | 2017-12-08 | 清华大学 | 一种无人机自主导航方法和系统 |
CN107450555A (zh) * | 2017-08-30 | 2017-12-08 | 唐开强 | 一种基于深度强化学习的六足机器人实时步态规划方法 |
CN107756408A (zh) * | 2017-11-22 | 2018-03-06 | 浙江优迈德智能装备有限公司 | 一种基于主动红外双目视觉的机器人轨迹示教装置及方法 |
CN108256504A (zh) * | 2018-02-11 | 2018-07-06 | 苏州笛卡测试技术有限公司 | 一种基于深度学习的三维动态手势识别方法 |
CN108335350A (zh) * | 2018-02-06 | 2018-07-27 | 聊城大学 | 双目立体视觉的三维重建方法 |
CN109048926A (zh) * | 2018-10-24 | 2018-12-21 | 河北工业大学 | 一种基于立体视觉的机器人智能避障系统及方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102981406B (zh) * | 2012-11-26 | 2016-02-24 | 浙江工业大学 | 一种基于双目视觉的鞋底喷胶厚度控制方法 |
CN104759379B (zh) * | 2015-04-15 | 2017-05-03 | 重庆大学 | 基于喷涂目标三维成像技术的全流程闭环智能喷涂机器人 |
US20170106542A1 (en) * | 2015-10-16 | 2017-04-20 | Amit Wolf | Robot and method of controlling thereof |
CN106094516A (zh) * | 2016-06-08 | 2016-11-09 | 南京大学 | 一种基于深度强化学习的机器人自适应抓取方法 |
CN106228605A (zh) * | 2016-07-29 | 2016-12-14 | 东南大学 | 一种基于动态规划的立体匹配三维重建方法 |
CN106327561A (zh) * | 2016-08-31 | 2017-01-11 | 武汉湾流科技股份有限公司 | 一种基于机器视觉技术的智能喷涂方法及系统 |
CN107908152A (zh) * | 2017-12-26 | 2018-04-13 | 苏州瀚华智造智能技术有限公司 | 一种活动式机器人自动喷涂装置、控制系统及方法 |
CN109521774B (zh) * | 2018-12-27 | 2023-04-07 | 南京芊玥机器人科技有限公司 | 一种基于强化学习的喷涂机器人轨迹优化方法 |
-
2018
- 2018-12-27 CN CN201811608181.0A patent/CN109521774B/zh active Active
-
2019
- 2019-09-27 WO PCT/CN2019/108333 patent/WO2020134254A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040138780A1 (en) * | 2002-11-15 | 2004-07-15 | Lewis Murray Anthony | Certain principles of biomorphic robots |
CN106423656A (zh) * | 2016-08-11 | 2017-02-22 | 重庆大学 | 基于点云与图像匹配的自动喷涂系统及方法 |
CN107450593A (zh) * | 2017-08-30 | 2017-12-08 | 清华大学 | 一种无人机自主导航方法和系统 |
CN107450555A (zh) * | 2017-08-30 | 2017-12-08 | 唐开强 | 一种基于深度强化学习的六足机器人实时步态规划方法 |
CN107756408A (zh) * | 2017-11-22 | 2018-03-06 | 浙江优迈德智能装备有限公司 | 一种基于主动红外双目视觉的机器人轨迹示教装置及方法 |
CN108335350A (zh) * | 2018-02-06 | 2018-07-27 | 聊城大学 | 双目立体视觉的三维重建方法 |
CN108256504A (zh) * | 2018-02-11 | 2018-07-06 | 苏州笛卡测试技术有限公司 | 一种基于深度学习的三维动态手势识别方法 |
CN109048926A (zh) * | 2018-10-24 | 2018-12-21 | 河北工业大学 | 一种基于立体视觉的机器人智能避障系统及方法 |
Non-Patent Citations (5)
Title |
---|
孙新领等: "双目立体视觉在人形机器人三维重建中的应用", 《现代电子技术》 * |
崔线线等: "双目视觉快速匹配在喷涂机器人中的应用", 《科技传播》 * |
林森阳等: "基于双目摄像头的机械臂目标抓取", 《农业装备与车辆工程》 * |
汪神岳等: "基于双目立体相机的室外场景三维重建系统设计", 《计算机测量与控制》 * |
王一江: "基于机器视觉和深度学习的空间结构球节点位移测量方法", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020134254A1 (zh) * | 2018-12-27 | 2020-07-02 | 南京芊玥机器人科技有限公司 | 一种基于强化学习的喷涂机器人轨迹优化方法 |
CN109976347A (zh) * | 2019-04-11 | 2019-07-05 | 中南大学 | 一种基于快速扩展随机树和势场法的视觉伺服路径规划方法 |
CN109976347B (zh) * | 2019-04-11 | 2023-10-13 | 中南大学 | 一种基于快速扩展随机树和势场法的视觉伺服路径规划方法 |
CN110176032B (zh) * | 2019-04-28 | 2021-02-26 | 暗物智能科技(广州)有限公司 | 一种三维重建方法及装置 |
CN110176032A (zh) * | 2019-04-28 | 2019-08-27 | 暗物智能科技(广州)有限公司 | 一种三维重建方法及装置 |
CN111352419A (zh) * | 2020-02-25 | 2020-06-30 | 山东大学 | 基于时序差分更新经验回放缓存的路径规划方法及系统 |
WO2021184530A1 (zh) * | 2020-03-18 | 2021-09-23 | 清华大学 | 基于强化学习的无标签六维物体姿态预测方法及装置 |
CN111413974A (zh) * | 2020-03-30 | 2020-07-14 | 清华大学 | 一种基于学习采样式的汽车自动驾驶运动规划方法及系统 |
CN111413974B (zh) * | 2020-03-30 | 2021-03-30 | 清华大学 | 一种基于学习采样式的汽车自动驾驶运动规划方法及系统 |
CN111602517A (zh) * | 2020-05-28 | 2020-09-01 | 华南农业大学 | 一种串型水果分布式视觉主动感知方法及其应用 |
CN111906765A (zh) * | 2020-07-31 | 2020-11-10 | 平安科技(深圳)有限公司 | 应用于路径规划的空间采样方法、装置、设备及介质 |
CN111906765B (zh) * | 2020-07-31 | 2022-07-12 | 平安科技(深圳)有限公司 | 应用于路径规划的空间采样方法、装置、设备及介质 |
CN113232016A (zh) * | 2021-04-13 | 2021-08-10 | 哈尔滨工业大学(威海) | 一种强化学习与模糊避障融合的机械臂路径规划方法 |
CN113232019A (zh) * | 2021-05-13 | 2021-08-10 | 中国联合网络通信集团有限公司 | 机械臂控制方法、装置、电子设备及存储介质 |
CN113393495A (zh) * | 2021-06-21 | 2021-09-14 | 暨南大学 | 基于强化学习的高空抛物轨迹识别方法 |
CN114011608A (zh) * | 2021-11-26 | 2022-02-08 | 航天科工深圳(集团)有限公司 | 基于数字孪生的喷涂工艺优化系统及其喷涂优化方法 |
CN115430588A (zh) * | 2022-08-13 | 2022-12-06 | 粉饰科技(广东)有限公司 | 一种基于燃气催化红外技术的低温粉末喷涂方法 |
CN116852374A (zh) * | 2023-08-08 | 2023-10-10 | 荆州双金再生资源有限公司 | 一种基于机器视觉的智能机器人控制系统 |
CN116852374B (zh) * | 2023-08-08 | 2024-04-26 | 深圳创劲鑫科技有限公司 | 一种基于机器视觉的智能机器人控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109521774B (zh) | 2023-04-07 |
WO2020134254A1 (zh) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109521774A (zh) | 一种基于强化学习的喷涂机器人轨迹优化方法 | |
CN104484648B (zh) | 基于轮廓识别的机器人可变视角障碍物检测方法 | |
CN107392964B (zh) | 基于室内特征点和结构线结合的室内slam方法 | |
CN112505065B (zh) | 一种实现室内无人机对大部件表面缺陷进行检测的方法 | |
CN107945265A (zh) | 基于在线学习深度预测网络的实时稠密单目slam方法与系统 | |
CN106845515A (zh) | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 | |
CN106934827A (zh) | 三维场景的重建方法和装置 | |
CN106780601A (zh) | 一种空间位置追踪方法、装置及智能设备 | |
CN106826833A (zh) | 基于3d立体感知技术的自主导航机器人系统 | |
CN106423656A (zh) | 基于点云与图像匹配的自动喷涂系统及方法 | |
CN110544296A (zh) | 一种敌方威胁不确定环境下无人机三维全局航迹智能规划方法 | |
CN106780592A (zh) | 基于相机运动和图像明暗的Kinect深度重建算法 | |
CN103170973A (zh) | 基于Kinect摄像机的人机协作装置及方法 | |
CN107253192A (zh) | 一种基于Kinect的无标定人机交互控制系统及方法 | |
CN106142092A (zh) | 一种基于立体视觉技术对机器人进行示教的方法 | |
CN104463859B (zh) | 一种基于跟踪指定点的实时视频拼接方法 | |
CN106846417A (zh) | 基于视觉里程计的单目红外视频三维重建方法 | |
CN107945217B (zh) | 一种适用于自动装配的图像特征点对快速筛选方法及系统 | |
CN109102525A (zh) | 一种基于自适应位姿估计的移动机器人跟随控制方法 | |
CN110223351B (zh) | 一种基于卷积神经网络的深度相机定位方法 | |
CN110146099A (zh) | 一种基于深度学习的同步定位与地图构建方法 | |
CN107564065B (zh) | 一种协作环境下人机最小距离的测算方法 | |
CN108362284A (zh) | 一种基于仿生海马认知地图的导航方法 | |
CN110433467A (zh) | 基于双目视觉和蚁群算法的捡乒乓球机器人运行方法及设备 | |
Yan et al. | Active Implicit Object Reconstruction using Uncertainty-guided Next-Best-View Optimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |