CN113848908B - 一种全方位移动机器人视觉伺服系统的建模与控制方法 - Google Patents

一种全方位移动机器人视觉伺服系统的建模与控制方法 Download PDF

Info

Publication number
CN113848908B
CN113848908B CN202111134638.0A CN202111134638A CN113848908B CN 113848908 B CN113848908 B CN 113848908B CN 202111134638 A CN202111134638 A CN 202111134638A CN 113848908 B CN113848908 B CN 113848908B
Authority
CN
China
Prior art keywords
mobile robot
omnibearing
visual
robot
omnibearing mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111134638.0A
Other languages
English (en)
Other versions
CN113848908A (zh
Inventor
林叶贵
邢科新
何德峰
张文安
倪伟琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202111134638.0A priority Critical patent/CN113848908B/zh
Publication of CN113848908A publication Critical patent/CN113848908A/zh
Application granted granted Critical
Publication of CN113848908B publication Critical patent/CN113848908B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Abstract

一种全方位移动机器人视觉伺服系统的建模与控制方法,考虑非完整性移动机器人存在不可积分的速度约束问题,本发明研究由三个主动偏心轮组成的全方位移动机器人视觉伺服系统;针对视觉伺服系统具有视觉可见性约束和执行器约束,本发明提出了一种基于模型预测控制策略的视觉伺服控制器;首先,基于主动偏心轮全方位移动机器人的运动学方程和视觉伺服系统误差模型,对全方位移动机器人偏心方向轮滚动角速度和偏转角速度的视觉伺服误差系统进行建模;在此基础上,结合模型预测控制策略,建立全方位移动机器人的视觉伺服预测模型,进而设计了视觉伺服预测控制策略;所设计的控制器不仅可以驱动移动机器人到达目标点,而且可以较好地处理约束条件。

Description

一种全方位移动机器人视觉伺服系统的建模与控制方法
技术领域
本发明涉及机器人视觉伺服控制技术领域,具体涉及一种全方位移动机器人视觉伺服系统的建模与控制方法。
背景技术
传统移动机器人在实际应用过程中有着各种移动限制,如移动方向固定,不能原地旋转等等,全方位移动机器人的出现突破了这种限制,克服了不能横向移动、原地旋转移动等问题,已经成为新型移动机器人的研究方向与热点,有着广阔的发展前景。
视觉伺服控制法是目前常用的一种全方位移动机器人驱动与控制方法,而目前的视觉伺服控制研究中往往不能满足视觉可见性约束和执行器约束,不能很好的处理约束条件。
发明内容
针对现有技术中存在的问题,且考虑非完整性移动机器人存在不可积分的速度约束问题,本发明研究由三个主动偏心轮组成的全方位移动机器人视觉伺服系统。针对视觉伺服系统具有视觉可见性约束和执行器约束,本发明提出了一种基于模型预测控制策略的视觉伺服控制器。
本发明的技术方案如下:
一种全方位移动机器人视觉伺服系统的建模与控制方法,包括如下步骤:
1)全方位移动机器人描述:
在平面内设置一个全方位移动机器人,该机器人由三个偏心轮独立驱动,且在该机器人上方搭载一个单目相机;全方移动机器人在平面内运动时,全方位移动机器人的运动学方程为:
其中(x,y)表示全方位移动机器人质心在世界坐标系Xw-Yw平面的坐标,θ表示世界坐标系到机器人坐标系的夹角,逆时针为正,vx和vy表示全方位移动机器人的纵向线速度和横向线速度,ω表示全方位移动机器人的角速度,令q=[xyθ]T表示全方位移动机器人的位姿,νr=[vxvyω]T表示全方位移动机器人的速度;
2)建立视觉伺服误差模型:
假设特征点P在图像坐标系投影点p的图像坐标为(xp,yp),在像素坐标系中的坐标为(up,vp),图像平面中心为(u0,v0),相机的焦距为f,根据图像投影模型,可得到归一化图像坐标:
其中dx,dy表示感光芯片每单位像素的实际大小;
为了完成视觉伺服控制任务,控制器需要通过移动机器人的位置误差调整移动机器人的速度,从而使移动机器人到达期望位姿,因此引入机器人当前位姿变量ρ1,ρ2
定义全方位移动机器人的误差模型:
其中θ*为期望角度,ρ1 *,ρ2 *为期望位姿变量;
对式(4)求导可得全方位移动机器人视觉伺服误差模型为:
3)建立全方位移动机器人运动学模型:
全方位移动机器人在运动时由三个偏心方向轮驱动,其中点M表示全方位移动机器人的质心,点A、B、C分别表示三个偏心方向轮在运动过程中,相对于机器人本体的不动点,位于相应各个偏心方向轮竖直转向轴的中心轴上;MA、MB、MC之间的夹角均为2π/3,r表示偏心方向轮的半径,l为偏心方向轮竖直轴中心到M点的距离,即MA=MB=MC=l;d表示偏心方向轮的偏心距,α表示机器人坐标系Xr轴到直线MA的角度,逆时针为正,恒为常数;β表示偏心方向轮的转向角,从直线MA到偏心方向轮轴线方向的角度,逆时针为正,表示偏心方向轮行走时的滚动角;
当全方位移动机器人由三个偏心方向轮驱动时,可得轮子的转动速度及偏转速度/>与移动机器人速度vr之间的转换关系为:
其中分别表示三个偏心方向轮的转动速度,/>分别表示三个偏心方向轮的偏转速度,雅克比矩阵J(βi,θ)表示如下:
结合式(5)可以得到关于轮子转动速度和偏转速度的移动机器人视觉伺服误差系统,即
其中
式(8)中为矩阵,J1i)的伪逆矩阵,/>
为保证视觉伺服任务的有效执行,在全方位移动机器人执行视觉伺服任务中需要满足误差约束和速度约束条件;
e1min≤e1≤e1max,e2min≤e2≤e2max (9)
其中,下标min表示对应变量的取值下界,下标max表示对应变量的取值上界;
4)视觉伺服预测控制器设计:
考虑全方位移动机器人视觉伺服误差系统(7),取采样时间为Ts,采用欧拉离散化,可得到对应的离散时间视觉伺服误差系统:
e(k+1)=e(k)+B(k)u(k) (11)
其中:
由于zc是相机坐标系原点到特征点P的高度信息,因此zc是一个常数,i=1,2,3是控制输入;
式(11)可以写成更紧凑的形式:
e(k+1)=f(e(k),u(k)) (12)
其中e(k+1)是误差状态,u(k)是控制输入,f(·)代表对应的映射关系;
考虑全方位移动机器人视觉伺服误差系统(11),采用序列二次规划来最小化二次目标函数的控制输入,定义全方位移动机器人视觉伺服误差模型的目标函数为:
其中Q和R分别为状态和控制的正定加权矩阵,目标函数中的第1项表示了系统镇定到期望点的能力,第2项说明了它约束控制输入的能力;其中Np为预测时域,Nc为控制时域,Np和Nc会影响迭代步长,Np值和Nc值越小,控制响应越快;e(k+i|k)表示状态量在k时刻对k+i时刻的预测值,u(k+i-1|k)表示控制输入在k时刻对k+i-1时刻的预测值;定义k时刻Nc步预测控制序列u(k)={u(k|k),u(k+1|k),…,u(k+Nc-1|k)},Np步预测状态序列为e(k)={e(k+1|k),e(k+2|k),…,e(k+Np|k)};
通过全方位移动机器人的二次目标函数(13)可以得到全方位移动机器人视觉伺服的预测模型为:
e(k+i|k)=f(e(k+i-1|k),u(k+i-1|k)) (14)
考虑视觉可见性约束(9)和执行器约束(10),全方位移动机器人预测镇定控制器为:
其中e0表示在初始时刻获取的误差值,u*(k)表示优化问题的最优解;
5)全方位移动机器人向目标点行进移动,全方位移动机器人最终到达目标点。
本发明的有益效果如下:本发明基于主动偏心轮全方位移动机器人的运动学方程和视觉伺服系统误差模型,对全方位移动机器人偏心方向轮滚动角速度和偏转角速度的视觉伺服误差系统进行建模,在此基础上,结合模型预测控制策略,建立全方位移动机器人的视觉伺服预测模型,进而设计了视觉伺服预测控制策略。所设计的控制器不仅可以驱动移动机器人到达目标点,而且可以较好地处理约束条件。
附图说明
图1本发明全方位移动机器人视觉伺服模型;
图2本发明全方位移动机器人俯视图;
图3本发明全方位移动机器人运动轨迹图。
具体实施方式
以下结合说明书附图,对本发明作进一步描述。
全方位移动机器人视觉伺服系统的建模与控制方法,具体步骤如下:
1)全方位移动机器人描述:
如图1所示,在平面内有一个全方位移动机器人,该机器人由三个偏心轮独立驱动,且在移动机器人上方搭载一个单目相机。其中Ow-XwYwZw为世界坐标系,Or-XrYrZr为机器人坐标系,原点Or位于移动机器人的质心处,Oc-XcYcZc为相机坐标系,原点Oc位于机器人坐标系的Zr轴上,Xc,Yc轴与Xr,Yr轴方向相同,其中Yc轴与相机的光轴方向一致。
移动机器人在平面内运动时,那么全方位移动机器人的运动学方程为:
其中(x,y)表示全方位移动机器人质心在世界坐标系Xw-Yw平面的坐标,θ表示世界坐标系到机器人坐标系的夹角,逆时针为正,vx和vy表示全方位移动机器人的纵向线速度和横向线速度,ω表示全方位移动机器人的角速度。令q=[xyθ]T表示全方位移动机器人的位姿,νr=[vxvyω]T表示全方位移动机器人的速度。
2)误差模型的建立:
如图1所示,假设特征点P在图像坐标系投影点p的图像坐标为(xp,yp),在像素坐标系中的坐标为(up,vp),图像平面中心为(u0,v0),相机的焦距为f,根据图像投影模型,可得到归一化图像坐标:
其中dx,dy表示感光芯片每单位像素的实际大小,这些参数可以通过对摄像机离线标定获得。
为了完成视觉伺服控制任务,控制器需要通过移动机器人的位置误差调整移动机器人的速度,从而使移动机器人到达期望位姿,因此引入机器人当前位姿变量ρ1,ρ2
定义移动机器人的误差模型:
其中θ*为期望角度,ρ1 *,ρ2 *为期望位姿变量。
对式(4)求导可得移动机器人视觉伺服误差模型为
3)全方位移动机器人运动学模型的建立:
全方位移动机器人在运动时由三个偏心方向轮驱动,俯视图如图2所示。其中点M表示全方位移动机器人的质心,点A、B、C分别表示三个偏心方向轮在运动过程中,相对于机器人本体的不动点,位于相应各个偏心方向轮竖直转向轴的中心轴上。MA、MB、MC之间的夹角均为2π/3,r表示偏心方向轮的半径,l为偏心方向轮竖直轴中心到M点的距离,即MA=MB=MC=l。d表示偏心方向轮的偏心距,α表示机器人坐标系Xr轴到直线MA的角度,逆时针为正,恒为常数。β表示偏心方向轮的转向角,从直线MA到偏心方向轮轴线方向的角度,逆时针为正,表示偏心方向轮行走时的滚动角。
当全方位移动机器人由三个偏心方向轮驱动时,可得轮子的转动速度及偏转速度/>和移动机器人速度vr之间的转换关系为:
其中分别表示三个偏心方向轮的转动速度,/>分别表示三个偏心方向轮的偏转速度,雅克比矩阵J(βi,θ)表示如下:
结合式(5)可以得到关于轮子转动速度和偏转速度的移动机器人视觉伺服误差系统,即
其中
式(8)中J-1 1i)为矩阵J1i)的伪逆矩阵,
为保证视觉伺服任务的有效执行,在全方位移动机器人执行视觉伺服任务中需要满足误差约束和速度约束条件。
e1min≤e1≤e1max,e2min≤e2≤e2max (9)
其中,下标min表示对应变量的取值下界,下标max表示对应变量的取值上界。
本设计的目标是在满足约束条件(9)和(10)的情况下,全方位移动机器人能到达目标位置,并且在设计过程中误差e和速度vr最终都趋向于零。
4)控制器设计:
全方位移动机器人在执行视觉伺服任务过程中,应确保它在运动过程中满足视觉可见性约束和执行器物理约束条件,模型预测控制作为一种最优控制策略,具有对约束的处理能力,因此设计视觉伺服预测控制器。
模型预测控制是以被控对象的当前状态作为初始状态,在每个采样瞬间求解有限时域开环最优控制问题,从而获得当前控制动作的一种控制形式;在每个时刻,该优化产生一个最优控制序列,并将序列中的第一个控制应用于模型。由于模型预测控制在处理系统约束和平衡多个控制目标方面的优势,因此在越来越多的实用移动机器人中得到了应用。
考虑全方位移动机器人视觉伺服误差系统(7),取采样时间为Ts,采用欧拉离散化,可得到对应的离散时间视觉伺服误差系统:
e(k+1)=e(k)+B(k)u(k) (11)
其中:
由于zc是相机坐标系原点到特征点P的高度信息,因此zc是一个常数,i=1,2,3是控制输入。
式(11)可以写成更紧凑的形式:
e(k+1)=f(e(k),u(k)) (12)
其中e(k+1)是误差状态,u(k)是控制输入,f(·)代表对应的映射关系。
考虑全方位移动机器人视觉伺服误差系统(11),采用序列二次规划来最小化二次目标函数的控制输入,定义全方位移动机器人视觉伺服误差模型的目标函数为:
其中Q和R分别为状态和控制的正定加权矩阵。目标函数中的第1项表示了系统镇定到期望点的能力,第2项说明了它约束控制输入的能力。其中Np为预测时域,Nc为控制时域,Np和Nc会影响迭代步长,Np值和Nc值越小,控制响应越快。e(k+i|k)表示状态量在k时刻对k+i时刻的预测值,u(k+i-1|k)表示控制输入在k时刻对k+i-1时刻的预测值。定义k时刻Nc步预测控制序列u(k)={u(k|k),u(k+1|k),…,u(k+Nc-1|k)},Np步预测状态序列为e(k)={e(k+1|k),e(k+2|k),…,e(k+Np|k)}。
通过全方位移动机器人的二次目标函数(13)可以得到全方位移动机器人视觉伺服的预测模型为
e(k+i|k)=f(e(k+i-1|k),u(k+i-1|k)) (14)
考虑视觉可见性约束(9)和执行器约束(10),全方位移动机器人预测镇定控制器为:
其中e0表示在初始时刻获取的误差值,u*(k)表示优化问题(15)的最优解。
实施例:
1)实物选取,选取的全方位移动机器人的偏心方向轮半径r=0.1m,偏心方向轮竖直轴中心到M点的距离l=0.8m,偏心方向轮的偏心距d=0.2m。机器人坐标系Xr轴到直线MA、MB、MC的角度分别为α1=π/3,α2=π,α3=-π/3。选取相机的焦距f=6mm,图像分辨率为640×480pixels,相机坐标系原点到特征点P的高度zc=0.4m。
2)通讯建立,PC端采用MATLAB控制,控制器选择STM32单片机,型号为STM32F103RCT6,PC与单片机实现串口通信,单片机与驱动器实现CAN通信。建立通讯使用MATLAB发送速度等指令,控制全方位移动机器人的初始零点调整以及移动行走。
3)采样时间Ts=0.2s,加权矩阵Q={0.3,0.5,5},R={0.01,0.01,0.01,4,4,4},预测时域Np=4,控制时域Nc=4。
4)测得全方位移动机器人的三个偏心方向轮的初始转向角分别为β1=-3π/2,β2=3π/2,β3=2π/3,在世界坐标系下全方位移动机器人的初始位姿为(1.6,-5,0),期望位姿为(0,0,0)。偏差初始值为e0=(-4,-12.5,0)。
全方位移动机器人视觉可见性约束和系统约束为:
[-4-12.50]≤e(k)≤[220.4]
[-50-50-50-30-30-30]T
≤u(k)≤[505050303030]T
5)将实际数据带回模型,进行预测控制,具体算法为:
a.令k=0,根据预测时域Np和控制时域Nc以及初始状态e0,求解优化问题(15),得到最优化控制序列u*(k)。
b.将最优控制序列u*(k)的第一个分量用于全方位移动机器人视觉伺服误差系统(7),测量k时刻状态ek
c.令k=k+1,返回执行b,不断循坏,使全方位移动机器人向目标点行进移动。
6)全方位移动机器人最终到达目标点,而且较好地处理了约束条件。具体运动轨迹如图3。

Claims (1)

1.一种全方位移动机器人视觉伺服系统的建模与控制方法,其特征在于,包括如下步骤:
1)全方位移动机器人描述:
在平面内设置一个全方位移动机器人,该机器人由三个偏心轮独立驱动,且在该机器人上方搭载一个单目相机;全方移动机器人在平面内运动时,全方位移动机器人的运动学方程为:
其中(x,y)表示全方位移动机器人质心在世界坐标系Xw-Yw平面的坐标,θ表示世界坐标系到机器人坐标系的夹角,逆时针为正,vx和vy表示全方位移动机器人的纵向线速度和横向线速度,ω表示全方位移动机器人的角速度,令q=[xyθ]T表示全方位移动机器人的位姿,νr=[vxvyω]T表示全方位移动机器人的速度;
2)建立视觉伺服误差模型:
假设特征点P在图像坐标系投影点p的图像坐标为(xp,yp),在像素坐标系中的坐标为(up,vp),图像平面中心为(u0,v0),相机的焦距为f,根据图像投影模型,可得到归一化图像坐标:
其中dx,dy表示感光芯片每单位像素的实际大小;
为了完成视觉伺服控制任务,控制器需要通过移动机器人的位置误差调整移动机器人的速度,从而使移动机器人到达期望位姿,因此引入机器人当前位姿变量ρ1,ρ2
定义全方位移动机器人的误差模型:
其中θ*为期望角度,ρ1 *,ρ2 *为期望位姿变量;
对式(4)求导可得全方位移动机器人视觉伺服误差模型为:
3)建立全方位移动机器人运动学模型:
全方位移动机器人在运动时由三个偏心方向轮驱动,其中点M表示全方位移动机器人的质心,点A、B、C分别表示三个偏心方向轮在运动过程中,相对于机器人本体的不动点,位于相应各个偏心方向轮竖直转向轴的中心轴上;MA、MB、MC之间的夹角均为2π/3,r表示偏心方向轮的半径,l为偏心方向轮竖直轴中心到M点的距离,即MA=MB=MC=l;d表示偏心方向轮的偏心距,α表示机器人坐标系Xr轴到直线MA的角度,逆时针为正,恒为常数;β表示偏心方向轮的转向角,从直线MA到偏心方向轮轴线方向的角度,逆时针为正,表示偏心方向轮行走时的滚动角;
当全方位移动机器人由三个偏心方向轮驱动时,可得轮子的转动速度及偏转速度/>与移动机器人速度vr之间的转换关系为:
其中分别表示三个偏心方向轮的转动速度,/>分别表示三个偏心方向轮的偏转速度,雅克比矩阵J(βi,θ)表示如下:
结合式(5)可以得到关于轮子转动速度和偏转速度的移动机器人视觉伺服误差系统,即
其中:
式(8)中为矩阵,J1i)的伪逆矩阵,/>
为保证视觉伺服任务的有效执行,在全方位移动机器人执行视觉伺服任务中需要满足误差约束和速度约束条件;
e1min≤e1≤e1max, e2min≤e2≤e2max (9)
其中,下标min表示对应变量的取值下界,下标max表示对应变量的取值上界;
4)视觉伺服预测控制器设计:
考虑全方位移动机器人视觉伺服误差系统(7),取采样时间为Ts,采用欧拉离散化,可得到对应的离散时间视觉伺服误差系统:
e(k+1)=e(k)+B(k)u(k) (11)
其中:
由于zc是相机坐标系原点到特征点P的高度信息,因此zc是一个常数,i=1,2,3是控制输入;
式(11)可以写成更紧凑的形式:
e(k+1)=f(e(k),u(k)) (12)
其中e(k+1)是误差状态,u(k)是控制输入,f(·)代表对应的映射关系;
考虑全方位移动机器人视觉伺服误差系统(11),采用序列二次规划来最小化二次目标函数的控制输入,定义全方位移动机器人视觉伺服误差模型的目标函数为:
其中Q和R分别为状态和控制的正定加权矩阵,目标函数中的第1项表示了系统镇定到期望点的能力,第2项说明了它约束控制输入的能力;其中Np为预测时域,Nc为控制时域,Np和Nc会影响迭代步长,Np值和Nc值越小,控制响应越快;e(k+i|k)表示状态量在k时刻对k+i时刻的预测值,u(k+i-1|k)表示控制输入在k时刻对k+i-1时刻的预测值;定义k时刻Nc步预测控制序列u(k)={u(k|k),u(k+1|k),…,u(k+Nc-1|k)},Np步预测状态序列为e(k)={e(k+1|k),e(k+2|k),…,e(k+Np|k)};
通过全方位移动机器人的二次目标函数(13)可以得到全方位移动机器人视觉伺服的预测模型为:
e(k+i|k)=f(e(k+i-1|k),u(k+i-1|k)) (14)
考虑视觉可见性约束(9)和执行器约束(10),全方位移动机器人预测镇定控制器为:
s.t.e(k|k)=e0
e(k+i|k)=f(e(k+i-1|k),
u(k+i-1|k)),i∈[1,Np](15b)
emin≤e(k+i|k)≤emax,i∈[0,Np]
umin≤u(k+i|k)≤umax,i∈[0,Np]
其中e0表示在初始时刻获取的误差值,u*(k)表示优化问题的最优解;
5)全方位移动机器人向目标点行进移动,全方位移动机器人最终到达目标点。
CN202111134638.0A 2021-09-27 2021-09-27 一种全方位移动机器人视觉伺服系统的建模与控制方法 Active CN113848908B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111134638.0A CN113848908B (zh) 2021-09-27 2021-09-27 一种全方位移动机器人视觉伺服系统的建模与控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111134638.0A CN113848908B (zh) 2021-09-27 2021-09-27 一种全方位移动机器人视觉伺服系统的建模与控制方法

Publications (2)

Publication Number Publication Date
CN113848908A CN113848908A (zh) 2021-12-28
CN113848908B true CN113848908B (zh) 2024-04-05

Family

ID=78980560

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111134638.0A Active CN113848908B (zh) 2021-09-27 2021-09-27 一种全方位移动机器人视觉伺服系统的建模与控制方法

Country Status (1)

Country Link
CN (1) CN113848908B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115175119A (zh) * 2022-07-12 2022-10-11 燕山大学 一种适应于移动机器人的vr随动控制系统
CN115056230B (zh) * 2022-07-15 2024-04-09 海南大学 一种基于伪逆的三轮全向移动机械臂重复运动规划方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108839026A (zh) * 2018-07-19 2018-11-20 浙江工业大学 一种移动机器人视觉伺服跟踪预测控制方法
CN109760047A (zh) * 2018-12-28 2019-05-17 浙江工业大学 一种基于视觉传感器的舞台机器人预测控制方法
WO2020259185A1 (zh) * 2019-06-25 2020-12-30 京东方科技集团股份有限公司 视觉里程计的实现方法和实现装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011083374A1 (en) * 2010-01-08 2011-07-14 Koninklijke Philips Electronics N.V. Uncalibrated visual servoing using real-time velocity optimization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108839026A (zh) * 2018-07-19 2018-11-20 浙江工业大学 一种移动机器人视觉伺服跟踪预测控制方法
CN109760047A (zh) * 2018-12-28 2019-05-17 浙江工业大学 一种基于视觉传感器的舞台机器人预测控制方法
WO2020259185A1 (zh) * 2019-06-25 2020-12-30 京东方科技集团股份有限公司 视觉里程计的实现方法和实现装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
全方位移动机器人视觉伺服系统的建模与控制;林叶贵,邢科新,何德峰,倪伟琦;高技术通讯;20230430;第33卷(第4期);全文 *

Also Published As

Publication number Publication date
CN113848908A (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
CN113848908B (zh) 一种全方位移动机器人视觉伺服系统的建模与控制方法
CN110039542B (zh) 具有速度方向控制的视觉伺服跟踪控制方法及机器人系统
CN109397249B (zh) 基于视觉识别的二维码定位抓取机器人系统的方法
US9862090B2 (en) Surrogate: a body-dexterous mobile manipulation robot with a tracked base
JP5114019B2 (ja) エフェクタの軌道を制御するための方法
EP3837641A1 (en) Deep reinforcement learning-based techniques for end to end robot navigation
Sun et al. A review of robot control with visual servoing
CN110815180A (zh) 六自由度并联机器人运动分析建模及快速求解方法
CN105437232A (zh) 一种控制多关节移动机器人避障的方法及装置
CN107505941B (zh) 四轮独立驱动独立转向电动车的集中-分布式控制系统
Oftadeh et al. A novel time optimal path following controller with bounded velocities for mobile robots with independently steerable wheels
CN104298244A (zh) 一种工业机器人三维实时高精度定位装置及方法
CN114721275B (zh) 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法
CN111309002A (zh) 一种基于矢量的轮式移动机器人避障方法及系统
CN114378827B (zh) 一种基于移动机械臂整体控制的动态目标跟踪抓取方法
Markdahl et al. Distributed cooperative object attitude manipulation
CN108427429B (zh) 一种考虑动态指向约束的航天器视轴机动控制方法
Souères et al. Dynamical sequence of multi-sensor based tasks for mobile robots navigation
CN114378830B (zh) 一种机器人腕关节奇异规避方法及系统
CN111531532A (zh) 一种基于旋量理论的机器人攀爬运动速度建模方法
CN112428262B (zh) 基于超椭球映射解析算法并联冗余柔索机构伺服控制方法
CN107272725B (zh) 具有视觉反馈的球形机器人运动控制系统及运动控制方法
CN117055361B (zh) 基于滑模模型预测控制的移动机器人控制方法
CN112684793A (zh) 一种离散系统中的机器人零半径过弯的轨迹跟踪控制方法
CN117075525B (zh) 基于约束型模型预测控制的移动机器人控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant