CN111283683B - 一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法 - Google Patents

一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法 Download PDF

Info

Publication number
CN111283683B
CN111283683B CN202010143125.5A CN202010143125A CN111283683B CN 111283683 B CN111283683 B CN 111283683B CN 202010143125 A CN202010143125 A CN 202010143125A CN 111283683 B CN111283683 B CN 111283683B
Authority
CN
China
Prior art keywords
tracking
camera
value
servo
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010143125.5A
Other languages
English (en)
Other versions
CN111283683A (zh
Inventor
沈添天
阳春华
徐德刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Normal University
Original Assignee
Hunan Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Normal University filed Critical Hunan Normal University
Priority to CN202010143125.5A priority Critical patent/CN111283683B/zh
Publication of CN111283683A publication Critical patent/CN111283683A/zh
Application granted granted Critical
Publication of CN111283683B publication Critical patent/CN111283683B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Abstract

本发明公开了一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法,包括以下步骤:S101,建立视觉特征轨迹规划模型,获得特定规划轨迹;S102,均匀分割参变量,进行分段视觉伺服跟踪;S103,定义跟踪产生的最大位移误差与最大旋转误差;S104,最大位移误差约束下,最小化跟踪收敛总时长。本发明通过定义跟踪误差,设置轨迹插值,进行多参数优化,达到紧密跟踪获得全局收敛的同时,尽可能地缩减跟踪收敛时长,提升视觉伺服系统面对动态目标与环境的自适应能力。

Description

一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法
技术领域
本发明涉及一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法,属于机器人传感与伺服控制领域。
背景技术
机器人视觉伺服控制系统利用视觉感知信息建立视觉特征误差与机器人末端相机运动速率间的转换关系,用于指导机器人的运动,逐步减少视觉特征误差收敛于期望特征值的同时,亦收敛于机器人末端相机的期望位姿。
当距离期望位姿的旋转量较大时,作为控制输入的特征向量构成及其相应转换矩阵极有可能引致特征局部收敛问题,也即特征值收敛时,相机位姿尚未收敛。当位移量较大时,可能导致伺服过程中失去重要视觉信息,致使控制中断。基于优化的离线路径规划技术可生成满足多个空间约束的相机运动路径,通过对相应特征规划轨迹的伺服跟踪,达成全局收敛。该规划技术的模型和原理相对简单,在图像噪声与模型误差的影响下,通过对特征规划轨迹的跟踪亦可获得较为平滑和安全的相机运动。全局收敛的跟踪耗时及其运动误差,都将极大程度的受到期望规划值的选择,为不断缩小当前特征值与期望规划值之间误差而生成相机运动速率的作用时长与输出更新次数等因素的影响。在不造成过大运动误差的同时,亟待实现快速跟踪,以满足现代复杂动态工业过程对机器人视觉伺服控制提出的需求。
发明内容
针对现有技术中存在的问题,本发明提供了一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法,使得视觉伺服系统可自任意位姿尽可能快速地跟随特征规划轨迹收敛到期望特征值与期望相机位姿。
为达到上述目的,本发明的技术方案如下:
一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法,优化视觉伺服跟踪的相关参数,确保不超过限定跟踪误差的同时,尽可能地缩减跟踪收敛至最终特征期望值的总步进/迭代次数,包括以下步骤:
S101,建立视觉特征轨迹规划模型,获得特定规划轨迹;
S102,均匀分割参变量,进行分段视觉伺服跟踪;
S103,定义跟踪产生的最大位移误差与最大旋转误差;
S104,最大位移误差约束下,最小化跟踪收敛总时长。
优选的,所述步骤S101包括建立机器人末端相机运动路径,并沿路投射目标物获得目标视觉特征的规划轨迹,具体包括如下步骤:
S201,设置一个描述多条路径/轨迹的统一参变量ω∈R,R为实数集;依据相机的起始位姿和期望位姿建立相机运动的笛卡尔路径模型为统一参变量ω的多项式模型{r(ω,M),d(ω,N)},其中r(ω,M)∈R3包含了相机绕x、y和z轴的旋转量,d(ω,N)∈R3包含了相机沿x、y和z轴的位移量,M、N为路径模型中的系数变量;
S202,根据目标物的位置信息Op、模型参数Om及其所选视觉特征,将目标物沿S201中的相机运动的笛卡尔路径投射到内部参数为K的相机中,获得以ω为参变量的多个视觉特征组合向量轨迹模型:
s(ω,M,N)=f(K,Op,Om,r(ω,M),d(ω,N),ω)
S203,优化模型变量M、N,得到可满足工作空间和成像面约束条件的相机规划轨迹的位姿{rp(ω),dp(ω)}及其相应特征规划轨迹sp(ω)。
优选的,所述步骤S102包括均匀分割上述参变量ω,获得规划轨迹的中间插入值,进行分段视觉伺服跟踪,具体包括如下步骤:
S301,设置分割段数λsection≥1,λsection∈N,N为自然数集;取轨迹规划参变量ω以1/λsection为间隔,从ω1=1/λsection
Figure GDA0003260315130000021
均匀取值,获得λsection组特征向量
Figure GDA0003260315130000022
其中包括了规划轨迹最末端的期望特征值;
S302,将S301中间插入值得到的特征向量
Figure GDA0003260315130000023
作为轨迹跟踪的中间期望特征值,利用视觉伺服控制器对这些中间期望特征值进行分段跟踪:
Figure GDA0003260315130000024
当t=0时,s(t)为规划轨迹起始端的特征向量值,以缩小实时特征向量值s(t)与中间期望特征值
Figure GDA0003260315130000025
的误差为目标,通过与特征组合相关的转换矩阵L与伺服跟踪增益λibvs>0生成相机的运动速率向量Tc
Figure GDA0003260315130000031
表示对L的估计值求违逆,并按照单位时间计算相机运动的步进位移和旋转角,指导相机从起始位姿沿规划轨迹逐步趋近中间期望特征值
Figure GDA0003260315130000032
最大特征误差值
Figure GDA0003260315130000033
逐步缩小至特征误差收敛阈值ethreshold以下,并循环往复直至最终趋近于最后一个期望特征值;
S303,记跟踪收敛总时长为time,它与伺服控制的步进次数成正比;当Δt=1s时,将跟踪收敛总时长time视同于视觉伺服控制器的总迭代次数;记录伺服控制每经过单位时间引导相机运动到达的位姿为{ribvs_k,dibvs_k},k=1,...,time。
优选的,所述步骤S103包括依据跟踪收敛总时长,计算每次步进或每经过单位时间对应的相机运动的笛卡尔路径规划值,并据此定义伺服跟踪误差,具体包括如下步骤:
S401,根据S303中统计的跟踪收敛总时长,将轨迹规划参变量ω,按照1/time等间隔分割,得到ωk,k=1,...,time,其中ω1=1/time;计算对应的规划相机位姿{rpk),dpk)};
S402,根据规划相机位姿和S303中记录的伺服跟踪经过的相机位姿{ribvs_k,dibvs_k},定义最大伺服跟踪误差为:
Figure GDA0003260315130000034
Figure GDA0003260315130000035
其中,dnorm为最大位移误差,rnorm为最大旋转角误差。
优选的,所述步骤S104包括在最大位移误差的上限约束值约束下,分割段数、伺服跟踪增益与特征误差收敛阈值为变量,最小化跟踪整条规划轨迹的步进次数,具体包括如下步骤:
S501,设置伺服跟踪误差约束为dnorm≤dlimit,rnorm≤rlimit;将S301中设置的分割段数λsection、S302中设置的伺服跟踪增益λibvs、特征误差收敛阈值ethreshold作为统一变量v,代入跟踪收敛总时长time的最小化计算中:
Figure GDA0003260315130000036
Figure GDA0003260315130000041
S502,将得到的变量解拆分为
Figure GDA0003260315130000042
Figure GDA0003260315130000043
代入视觉伺服控制器中,并根据机器人视觉伺服系统实际应用中实时读取的瞬时特征向量值s(t),指导机器人末端相机的运动。
通过上述技术方案,本发明提供的一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法,生成可满足多个空间约束条件的机器人末端相机运动,确保运动的全局收敛;通过对规划特征轨迹的紧密跟踪避免过大运动误差的同时,尽可能地缩减伺服跟踪全局收敛的步进次数或总体耗时,提高视觉伺服系统面对动态环境与操作目标的自适应能力,满足现代复杂动态工业过程对机器人操作系统提出的高要求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明的优化可影响视觉伺服跟踪时长与笛卡尔跟踪误差的参数流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本实施例中,如图1所示,一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法,包括规划特征轨迹、优化轨迹跟踪相关参数,确保不超过限定跟踪误差的同时,尽可能地缩减跟踪收敛至最终特征期望值的伺服迭代/步进次数,包括以下步骤:
S101,建立视觉特征轨迹规划模型,获得特定规划轨迹;
该步骤包括建立机器人末端相机运动路径,并沿路投射目标物获得目标视觉特征的规划轨迹,具体包括如下步骤:
S201,设置一个描述多条路径/轨迹的统一参变量ω∈R,R为实数集;依据相机的起始位姿{ro,do}和期望位姿{r*,d*}建立相机运动的笛卡尔路径{r(ω,M),d(ω,N)}模型为统一参变量ω的二次多项式模型{r(ω,M),d(ω,N)}:
Figure GDA0003260315130000051
M=[m1,m2,m3]T、N=[n1,n2,n3]T为上述多项式模型中的系数变量,r=[r1,r2,r3]T包含相机姿态分别绕x、y和z轴的旋转角,对应旋转矩阵为
Figure GDA0003260315130000052
[r]×为向量r构成的反对称矩阵;当r为零向量时,对应旋转矩阵R为单位矩阵;上述多项式模型中,r(ω,M)由r1(ω,m1)、r2(ω,m2)与r3(ω,m3)三个关于ω的多项式组成,M∈R3是多项式里面的系数变量,有以下公式更能清晰的表达多项式的关系:
Figure GDA0003260315130000053
r1、r2、r3分别表示绕x\y\z的旋转角,如果模型化了,就是把它们的取值变化规律用ω的函数(多项式)来描述,
Figure GDA0003260315130000054
表示旋转角变化的起始值,也就是相机的起始姿态;
Figure GDA0003260315130000055
表示期望值,也就是相机的期望姿态。起始值与期望值之间的变化路径参数化了,统一参数为ω,ω=0表示起始端、ω=1表示终止端,也即期望端。上述m1、m2、m3是变量,没有定值的,它们共同组成了M,通过改变这些变量值,可以改变旋转角的变化规律,或者说路径。
S202,根据目标物的位置信息Op、模型参数Om及其所选视觉特征,从相机位姿转换到视觉特征,需要比如相机内参、目标物模型和相对于相机的位置等参数,多个视觉特征组合,指的是s是个向量,不是一个常量。要能完成笛卡尔空间到视觉二维空间的转变,至少需要六个视觉特征,特征误差通过一个转换矩阵
Figure GDA0003260315130000056
转化到笛卡尔空间的六个方向的速率:沿x\y\z方向的位移速率和绕x\y\z的旋转角速率。比如,如果定准一个目标为球体,就可以给出具体的视觉特征,将目标物沿S201中的相机运动的笛卡尔路径把球体(Op包含了以期望相机位姿为参考的球心坐标,Om包含了球体的半径)投射到内部参数为K的相机中,获得以ω为参变量的多个视觉特征组合向量轨迹模型:
s(ω,M,N)=f(K,Op,Om,r(ω,M),d(ω,N),ω)
其中,s(ω,M,N)为多个视觉特征组合成的特征向量;上述轨迹模型中,目标物模型参数Om信息为已知量;目标位置信息Op,尤其相对期望相机位姿的目标深度信息,其估计值为已知;相机内部参数矩阵K∈R3×3是一个实数矩阵,包含相机焦距和成像大小等信息,可通过相机标定获得其估计值。
S203,根据工作空间和成像面对视觉特征的约束条件,该约束条件包括但不限于现有技术中公开的防障碍物碰撞、确保视觉特征始终保持在相机视角范围内、目标始终位于相机前方、全局收敛(相机位姿与视觉特征同时达到期望值)等。通过优化模型变量M、N,得到可满足工作空间和成像面约束条件的相机规划轨迹的位姿{rp(ω),dp(ω)}及其相应特征规划轨迹sp(ω)。
S102,均匀分割上述参变量,进行分段视觉伺服跟踪;
该步骤包括均匀分割S202中的参变量ω,获得规划轨迹的中间插入值,进行分段视觉伺服跟踪,具体包括如下步骤:
S301,设置分割段数λsection≥1,λsection∈N,N为自然数集;取轨迹规划参变量ω以1/λsection为间隔,从ω1=1/λsection
Figure GDA00032603151300000611
均匀取值,获得λsection组特征向量
Figure GDA0003260315130000061
其中包括了规划轨迹最末端的期望特征值,当ω0=0时,和期望相机姿态下获得的期望特征值,当
Figure GDA0003260315130000062
时;
S302,将S301中间插入值得到的特征向量
Figure GDA0003260315130000063
去除初始特征值,得到λsection组特征值作为分段跟踪的期望特征值,记作
Figure GDA0003260315130000064
Figure GDA0003260315130000065
利用视觉伺服控制器对这些中间插值进行跟踪:
Figure GDA0003260315130000066
当t=0时,s(t)为特征轨迹起始端的特征向量值sp(ω=0),以缩小实时特征向量值与轨迹分割的第一个期望值
Figure GDA0003260315130000067
之间的误差
Figure GDA0003260315130000068
ω1=1/λsection为目标,通过与特征组合相关的转换矩阵L与伺服控制增益λibvs>0生成相机的运动朝向与速率Tc
Figure GDA0003260315130000069
表示对L的估计值求违逆,并按照单位时间Δt=1s计算相机运动的步进位移和旋转角TcΔt,指导机器人末端相机从起始位姿沿规划轨迹逐步趋近特征期望值
Figure GDA00032603151300000610
直到最大特征误差
Figure GDA0003260315130000071
达到设定阈值ethreshold;更替
Figure GDA0003260315130000072
Figure GDA0003260315130000073
重复以上伺服跟踪步骤;逐步更替
Figure GDA0003260315130000074
直至达到最终的期望特征值
Figure GDA0003260315130000075
S303,跟踪收敛总时长t随着相机位姿的步进而逐步递增t=t+Δt,它与伺服迭代/步进次数成正比;记总时长为time,记伺服跟踪过程中每经过单位时间相机运动到达的位姿为{ribvs_k,dibvs_k},k=1,...,time;当Δt=1s时,总时长time等同于S302中视觉伺服控制器的伺服迭代/步进次数;
S103,定义跟踪产生的最大位移误差与最大旋转误差;
该步骤包括依据跟踪收敛总时长,计算每次步进或每经过单位时间对应的相机运动的笛卡尔路径规划值,并据此定义伺服跟踪误差,具体包括如下步骤:
S401,根据S303中统计的跟踪收敛总时长/步进次数time,将规划轨迹与特征轨迹进行分割,以1/time为间隔等分规划参变量ω,获得time个参变量值,记作ωk,k=1,...,time,其中ω1=1/time和ωtime=1;计算这些参变量对应的规划轨迹值{rpk),dpk)},k=1,...,time;
S402,根据S303中记录的伺服跟踪过程所经过的相机位姿{ribvs_k,dibvs_k},k=1,...,time和S401中计算得到的规划值,定义最大伺服跟踪误差为:
Figure GDA0003260315130000076
Figure GDA0003260315130000077
其中,dnorm为最大位移误差,rnorm为最大旋转角误差;
S104,最大位移误差约束下,最小化跟踪收敛总时长,
该步骤包括在最大位移误差的上限约束值约束下,分割段数、伺服跟踪增益与特征误差收敛阈值为变量,最小化跟踪整条规划轨迹的步进次数,具体包括如下步骤:
S501,设置伺服跟踪误差约束为dnorm≤dlimit,rnorm≤rlimit;将S301中设置的分割段数λsection、S302中设置的伺服跟踪增益λibvs与特征误差收敛阈值ethreshold统一为一个变量v,代入伺服跟踪时长的最小化计算中:
Figure GDA0003260315130000078
Figure GDA0003260315130000081
S502,将S502与S501中得到的变量解拆分为
Figure GDA0003260315130000082
Figure GDA0003260315130000083
并根据机器人视觉伺服系统实际应用中实时读取的瞬时特征向量值s(t),代入S302中的视觉伺服控制器中,指导机器人末端相机的运动。
本发明通过定义跟踪误差,设置轨迹插值,进行多参数优化,达到紧密跟踪获得全局收敛的同时,尽可能地缩减跟踪收敛时长,提升视觉伺服系统面对动态目标与环境的自适应能力,通过对特征规划轨迹的插值与分段跟踪,减小轨迹跟踪中可能产生的较大笛卡尔空间误差;在不突破跟踪误差限制的前提下,加速伺服跟踪的进程,使得视觉伺服系统得以快速收敛到期望特征值与期望相机位姿,为视觉伺服轨迹规划技术提供了后续快速跟踪支撑,有利于视觉伺服轨迹规划技术面向动态环境的应用。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (1)

1.一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法,其特征在于,包括以下步骤:
S101,建立视觉特征轨迹规划模型,获得特定规划轨迹;
包括建立机器人末端相机运动的笛卡尔路径,并沿相机运动的笛卡尔路径投射目标物获得目标视觉特征的规划轨迹,具体包括如下步骤:
S201,设置一个描述多条路径/轨迹的统一参变量ω∈R,R为实数集;依据相机的起始位姿和期望位姿建立相机运动的笛卡尔路径为统一参变量ω的多项式模型{r(ω,M),d(ω,N)},其中r(ω,M)∈R3包含了相机绕x、y和z轴的旋转量,d(ω,N)∈R3包含了相机沿x、y和z轴的位移量,M、N为相机运动的笛卡尔路径中的系数变量;
S202,根据目标物的位置信息Op、模型参数Om及其所选视觉特征,将目标物沿S201中的相机运动的笛卡尔路径投射到内部参数为K的相机中,获得以ω为参变量的多个视觉特征组合向量轨迹模型:
s(ω,M,N)=f(K,Op,Om,r(ω,M),d(ω,N),ω)
S203,优化模型变量M、N,得到可满足工作空间和成像面对视觉特征的约束条件的相机规划轨迹的位姿{rp(ω),dp(ω)}及其相应特征规划轨迹sp(ω);
S102,均匀分割上述参变量,进行分段视觉伺服跟踪;
包括均匀分割S202中的参变量ω,获得规划轨迹的中间插入值,进行分段视觉伺服跟踪,具体包括如下步骤:
S301,设置分割段数λsection≥1,λsection∈N,N为自然数集;取轨迹规划参变量ω以1/λsection为间隔,从ω1=1/λsection
Figure FDA0003260315120000014
均匀取值,获得λsection组特征向量
Figure FDA0003260315120000011
其中包括了规划轨迹最末端的期望特征值;
S302,将S301中间插入值得到的特征向量
Figure FDA0003260315120000012
作为轨迹跟踪的中间期望特征值,利用视觉伺服控制器对这些中间期望特征值进行分段跟踪:
Figure FDA0003260315120000013
当t=0时,s(t)为规划轨迹起始端的特征向量值,以缩小实时特征向量值s(t)与中间期望特征值
Figure FDA0003260315120000021
的误差为目标,通过与特征组合相关的转换矩阵L与伺服跟踪增益λibvs>0生成相机的运动速率向量Tc
Figure FDA0003260315120000022
表示对L的估计值求违逆,并按照单位时间计算相机运动的步进位移量和旋转角,指导相机从起始位姿沿规划轨迹逐步趋近中间期望特征值
Figure FDA0003260315120000023
最大特征误差值
Figure FDA0003260315120000024
逐步缩小至特征误差收敛阈值ethreshold以下,并循环往复直至最终趋近于最后一个期望特征值;
S303,记跟踪收敛总时长为time,它与伺服控制的步进次数成正比;当Δt=1s时,将跟踪收敛总时长time视同于视觉伺服控制器的总迭代次数;记录伺服控制每经过单位时间引导相机运动到达的位姿为{ribvs_k,dibvs_k},k=1,…,time;
S103,定义跟踪产生的最大位移误差与最大旋转误差;
包括依据跟踪收敛总时长,计算每次步进或每经过单位时间对应的相机运动的笛卡尔路径规划值,并据此定义伺服跟踪误差,具体包括如下步骤:
S401,根据S303中统计的跟踪收敛总时长,将轨迹规划参变量ω,按照1/time等间隔分割,得到ωk,k=1,…,time,其中ω1=1/time;计算对应的规划相机位姿{rpk),dpk)};
S402,根据规划相机位姿和S303中记录的伺服跟踪经过的相机位姿{ribvs_k,dibvs_k},定义最大伺服跟踪误差的计算方法为:
Figure FDA0003260315120000025
Figure FDA0003260315120000026
其中,dnorm为最大位移误差,rnorm为最大旋转角误差;
S104,最大位移误差约束下,最小化跟踪收敛总时长;
包括在最大位移误差的上限约束值约束下,分割段数、伺服跟踪增益与特征误差收敛阈值为变量,最小化跟踪整条规划轨迹的步进次数,具体包括如下步骤:
S501,设置伺服跟踪误差约束为dnorm≤dlimit,rnorm≤rlimit;将S301中设置的分割段数λsection、S302中设置的伺服跟踪增益λibvs、特征误差收敛阈值ethreshold作为统一变量v,代入跟踪收敛总时长time的最小化计算中:
Figure FDA0003260315120000031
Figure FDA0003260315120000032
S502,将得到的变量解拆分为
Figure FDA0003260315120000033
Figure FDA0003260315120000034
代入视觉伺服控制器中,并根据机器人视觉伺服系统实际应用中实时读取的瞬时特征向量值s(t),指导机器人末端相机的运动。
CN202010143125.5A 2020-03-04 2020-03-04 一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法 Active CN111283683B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010143125.5A CN111283683B (zh) 2020-03-04 2020-03-04 一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010143125.5A CN111283683B (zh) 2020-03-04 2020-03-04 一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法

Publications (2)

Publication Number Publication Date
CN111283683A CN111283683A (zh) 2020-06-16
CN111283683B true CN111283683B (zh) 2022-02-01

Family

ID=71020306

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010143125.5A Active CN111283683B (zh) 2020-03-04 2020-03-04 一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法

Country Status (1)

Country Link
CN (1) CN111283683B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931387B (zh) * 2020-09-23 2020-12-22 湖南师范大学 一种面向移动柱状组合体的视觉伺服趋近方法
CN112887595B (zh) * 2021-01-20 2022-03-04 厦门大学 一种针对动态多目标的相机即时自动规划方法
CN115633122B (zh) * 2022-12-07 2023-03-28 广州市影擎电子科技有限公司 基于手机的伺服运动轨迹录制方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816687A (zh) * 2017-11-20 2019-05-28 天津工业大学 轮式移动机器人视觉伺服轨迹跟踪并发深度辨识
CN109960145B (zh) * 2017-12-22 2022-06-14 天津工业大学 移动机器人混合视觉轨迹跟踪策略
CN110722533B (zh) * 2018-07-17 2022-12-06 天津工业大学 轮式移动机器人外参数无标定视觉伺服跟踪
CN109213175A (zh) * 2018-10-31 2019-01-15 浙江工业大学 一种基于原对偶神经网络的移动机器人视觉伺服轨迹跟踪预测控制方法
CN110125455B (zh) * 2019-05-27 2020-06-02 清华大学 一种用于机器人钻孔中优化钻头位姿的方法

Also Published As

Publication number Publication date
CN111283683A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
CN111283683B (zh) 一种机器人视觉特征规划轨迹的伺服跟踪加速收敛方法
CN111791236B (zh) 一种工业机器人笛卡尔空间轨迹过渡方法
CN109765887B (zh) 一种自动驾驶控制方法
TWI604287B (zh) 用於控制加工機之操作的方法及控制系統,以及加工機
CN109664303B (zh) 一种误差可控的四轴工业机器人b样条过渡式平顺轨迹生成方法
CN112975992B (zh) 一种误差可控的机器人轨迹同步优化方法
CN112757306A (zh) 一种机械臂逆解多解选择和时间最优轨迹规划算法
CN112605996B (zh) 一种面向冗余机械臂的无模型碰撞避免控制方法
CN112417755A (zh) 一种主从式手术机器人轨迹预测控制方法
CN114721275B (zh) 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法
CN116117796B (zh) 一种工业机器人姿态轨迹过渡与速度规划方法及系统
CN115202293B (zh) 一种工业机器人两段式速度规划方法
CN116690557A (zh) 基于点云的仿人三维扫描运动控制方法及装置
CN113618728A (zh) 机器人运动轨迹的补偿方法、装置及计算机存储介质
CN113608496B (zh) 空间路径g2转接光顺方法、设备及计算机可读存储介质
CN115488881A (zh) 基于多运动技能先验的人机共享自治遥操作方法及系统
CN109807893B (zh) 一种焊接机器人运动模型光滑化方法
CN113787525A (zh) 一种基于关节性能限制的机械臂运动时间优化方法
CN111975777A (zh) 一种基于Radau伪谱的机器人关节空间自适应轨迹规划方法
CN117182932B (zh) 机械臂避障动作规划方法、装置和计算机设备
CN116810802B (zh) 偏置机械臂离散点轨迹平滑规划方法、系统及存储介质
JP7088318B2 (ja) 制御装置
CN116909154B (zh) 一种通过特征查表进行前馈补偿的机器人轨迹优化方法
CN117601136B (zh) 一种自动焊接机器人路径规划方法及系统
CN117075617B (zh) 机器人轨迹规划方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant