CN102880062B - 基于非线性模型预测的智能小车2.5维视觉伺服控制方法 - Google Patents

基于非线性模型预测的智能小车2.5维视觉伺服控制方法 Download PDF

Info

Publication number
CN102880062B
CN102880062B CN201210324636.2A CN201210324636A CN102880062B CN 102880062 B CN102880062 B CN 102880062B CN 201210324636 A CN201210324636 A CN 201210324636A CN 102880062 B CN102880062 B CN 102880062B
Authority
CN
China
Prior art keywords
controller
dolly
control method
model
theta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210324636.2A
Other languages
English (en)
Other versions
CN102880062A (zh
Inventor
曹政才
殷龙杰
付宜利
王永吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Chemical Technology
Original Assignee
Beijing University of Chemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Chemical Technology filed Critical Beijing University of Chemical Technology
Priority to CN201210324636.2A priority Critical patent/CN102880062B/zh
Publication of CN102880062A publication Critical patent/CN102880062A/zh
Application granted granted Critical
Publication of CN102880062B publication Critical patent/CN102880062B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

本发明公开一种基于非线性模型预测的智能小车2.5维视觉伺服控制方法,首先在当前位姿和期望位姿处通过摄像机分别获取参考目标的当前图像和期望图像;然后从获取的图像中提取参考目标的特征点以及小车的姿态信息,通过坐标变换将二维图像信号与三维姿态信号进行有机结合,建立2.5维视觉误差模型;最后针对2.5维视觉误差模型,利用非线性模型预测控制方法设计一种多级视觉预测控制器。本发明解决现有2.5维视觉伺服控制方法不能处理运动执行系统存在的速度和力矩约束以及摄像机的可见性约束问题,能够确保参考目标在伺服过程中始终保持可见,大大提高视觉伺服系统的可靠性和安全性。

Description

基于非线性模型预测的智能小车2.5维视觉伺服控制方法
技术领域
本发明涉及智能机器人技术领域,具体地说是指一种基于非线性模型预测的智能小车2.5维视觉伺服控制方法。
技术背景
智能小车视觉伺服是指利用视觉传感器获取的视觉信息对小车位置和方向进行精确控制。视觉伺服对于提高小车的智能化水平与工作能力具有非常重要的意义,可以提高小车对外界环境的学习和适应能力。按照反馈信息类型的差别,视觉伺服可以分为三维视觉伺服、二维视觉伺服以及2.5维视觉伺服,其中2.5维视觉伺服是一种将二维信息与三维信息有机结合的混合伺服方法,可以在一定程度上解决三维和二维视觉伺服存在的鲁棒性、奇异性、局部极小等问题。因此,智能小车2.5维视觉伺服越来越受到广泛关注。
近年来,国内外许多研究学者对2.5维视觉伺服控制方法做了大量的研究。FangYongchun等人在2005年IEEE Transactions on Systems,Man,and Cybernetics,Part B:Cybernetics,35(5)期刊上设计了一种基于单应矩阵的2.5维视觉伺服控制策略,这种方法在深度信息未知的情况下仍然能够使移动机器人渐近运动到由一副参考图像定义的期望位姿。Wang Chaoli在2011年IEEE International Conference on Robotics andAutomation会议上采用两阶段技术设计了一种鲁棒视觉控制器,在缺乏深度信息和精确的视觉参数情况下实现了对移动机器人图像位置和三维姿态的控制。针对系统模型参数的不确定性及外界干扰,Yang Fang等人在2011年Acta Automatica Sinica,37(7)期刊上采用自适应控制和滑模控制技术来设计视觉控制器。
以上方法对于实现智能小车2.5维视觉伺服控制具有重要的借鉴作用,但并未考虑运动执行系统存在的速度和力矩约束及摄像机的可见性约束,在伺服过程中参考目标可能偏离于摄像机的视野之外,从而致使伺服失败。
发明内容
本发明的目的在于提供一种基于非线性模型预测的智能小车2.5维视觉伺服控制方法,以解决现有2.5维视觉伺服控制方法在设计视觉控制器时未考虑运动执行系统存在的控制约束和摄像机的可见性约束问题。本发明方法利用非线性模型预测控制设计一种多级视觉预测控制器,控制小车从初始位姿运动到期望位姿同时使参考目标始终处于摄像机视野之内。
本发明方法采用的技术方案如下:
1)在当前位姿和期望位姿处通过摄像机分别获取参考目标的当前图像和期望图像;
2)从获取的当前图像和期望图像中提取参考目标的特征点及小车的姿态信号,建立2.5维视觉误差模型;
设目标特征点在当前图像中的位置为p=[px,py]T,在期望图像中的位置为pd=[pxd,pyd]T,θ和θd分别为智能小车的当前方向角和期望方向角,通过坐标变换将二维图像信号与三维姿态信号进行有机结合,构造一种2.5维视觉误差信号,其中s1,s1d,s2,s2d为经过坐标变换的二维图像信号,θed为三维姿态误差信号;
3)根据步骤2)中的2.5维视觉误差模型,利用非线性模型预测控制方法设计一种多级视觉预测控制器,使2.5维视觉误差信号渐近收敛,进而完成小车视觉伺服任务。
步骤3)中设计的多级视觉预测控制器至少由两个子控制器组成,一个为运动学控制器,另一个为动力学控制器,其中运动学控制器的输出作为动力学控制器的输入。
运动学控制器的控制包含以下步骤:
首先,采用欧拉近似法对2.5维视觉误差模型进行离散化处理,获得视觉误差预测模型e(k+j|k),其中,T为采样周期,v(k)和ω(k)分别为小车在k时刻的线速度和角速度,符号(k+j|k)表示在k时刻向前预测j步得到的预测值;
其次,将小车速度ν=[v,ω]T作为控制输入,构造一个由2.5维视觉误差预测信号和控制输入表示的二次目标函数J(k),其中Np为预测时域,Nc为控制时域,Q和R为正定的斜对称加权矩阵;
最后,加入可见性约束(umin,,umax),(υmin,,υmax)和速度约束(vmin,,vmax),其中(u,υ)为目标特征点在图像平面上的像素坐标,通过求解带有约束的二次目标函数J(k)的优化问题来获得最优控制序列v*,取其第一项v(k|k)作为运动学控制器的输出,使得视觉误差信号渐近收敛,即limt→∞e=0;
动力学控制器的控制包含以下步骤:
首先,利用欧拉近似法对小车动力学模型进行离散化处理,获得小车实际速度预测模型v(k+j|k),其中τ(k)=[τ1(k),τ2(k)]T分别为小车在k时刻的驱动力矩和转动力矩;
其次,将运动学控制器的输出作为动力学控制器的参考输入,定义δ为小车实际速度与参考输入速度之间的速度误差,构造一个由预测的速度误差信号和力矩表示的二次目标函数其中为预测时域,为控制时域,为正定的斜对称加权矩阵;
最后,加入力矩约束(τmin,,τmax),最小化二次目标函数获得最优控制序列τ*,取其第一项τ(k|k)作为动力学控制器的输出,控制小车速度,使得速度误差渐近收敛,即limt→∞δ=0,从而使得limt→∞e=0。
与现有技术相比,本发明具有以下优点及有益效果:
本发明利用非线性模型预测控制技术将2.5维视觉伺服任务转化为非线性优化问题,在设计视觉控制器时能够方便处理系统中存在的约束。本发明解决现有2.5维视觉伺服控制方法不能处理运动执行系统存在的速度和力矩约束以及摄像机的可见性约束问题,能够确保参考目标在伺服过程中始终保持可见,大大提高视觉伺服系统的可靠性和安全性。本发明实现简单,鲁棒性强,不需要精确的过程模型。
附图说明
图1是本发明中的一个两轮智能小车系统模型示意图;
图2是本发明中的智能小车2.5维视觉伺服控制方法结构示意图;
图3~8是本发明中的未考虑可见性约束时智能小车2.5维视觉伺服控制仿真结果图;其中:
图3为智能小车在XY平面上的运动轨迹仿真图;
图4为特征点在图像平面上的运动轨迹仿真图;
图5为2.5维视觉误差曲线图;
图6为智能小车实际线速度和期望线速度曲线图;
图7为智能小车实际角速度和期望角速度曲线图;
图8为智能小车驱动力矩和转动力矩曲线图;
图9~14是本发明中的考虑可见性约束时智能小车2.5维视觉伺服控制仿真结果图;其中:
图9为智能小车在XY平面上的运动轨迹仿真图;
图10为特征点在图像平面上的运动轨迹仿真图;
图11为2.5维视觉误差曲线图;
图12为智能小车实际线速度和期望线速度曲线图;
图13为智能小车实际角速度和期望角速度曲线图;
图14为智能小车驱动力矩和转动力矩曲线图。
具体实施方式
为了更好地理解本发明的技术方案,下面结合实施例和附图对本发明的实施方式做进一步的介绍。
实施例:
如图1所示为两轮智能小车系统,左右轮独立驱动,摄像机固定安装在小车上。O-XYZ、o-xryr、C-xcyczc分别为世界坐标系、机器人坐标系和摄像机坐标系,小车质心o位于两驱动轮的中心,摄像机原点C与质心o的距离为l,r为轮子半径,L为轮子到质心的距离。视觉伺服的任务是:利用摄像机获取的视觉信息控制小车从初始位姿运动到期望位姿,并保证目标在运动过程中始终可见。
实施步骤如下:
1)在当前位姿和期望位姿处通过摄像机分别获取参考目标的当前图像和期望图像;
2)从获取的当前图像和期望图像中提取参考目标的特征点及小车的姿态信号,建立2.5维视觉误差模型;
设所提取的目标特征点在当前图像中的位置为p=[px,py]T,在期望图像中的位置为pd=[pxd,pyd]T,θ和θd分别为移动小车的当前方向角和期望方向角,为了便于后续控制器的设计,对二维图像坐标进行如下坐标变换:
s = s 1 s 2 = p x p y - f p y , s d = s 1 d s 2 d = p xd p y d - f p yd . - - - ( 1 )
其中f为摄像机的焦距。
将二维图像信号与三维姿态信号有机结合,构造如下2.5维视觉误差信号:
e = e 1 e 2 e 3 = s 1 s 2 θ - cos θ e - sin θ 2 0 sin θ e cos θ e 0 0 0 1 s 1 d s 2 d θ d , - - - ( 2 )
其中θe=θ-θd为三维姿态误差信号,可以利用匹配的特征点采用运动估计技术直接估计得到。
从式(2)可以看出,当误差e →0时,可以得到:
s1→s1d,s2→s2d,θ→θd             (3)
根据式(1)和式(3)可以得到:px→pxd,py→pyd,θe→0,也就是说当前图像与期望图像重合,小车运动到期望位姿。
因此,2.5维视觉伺服的控制目标是设计一个控制器τ=[τ12]T,使得limt→∞e=0且limt→∞τ=0。
为了建立2.5维视觉误差信号(2)式的动态模型,还需进行以下步骤:
首先,建立智能小车运动学模型:根据图1所定义的坐标系,在不考虑轮子侧滑等因素时,智能小车的运动学模型可表示为:
q . = x . y . θ . = - sin θ 0 cos θ 0 0 1 v ω , - - - ( 4 )
其中q=[x,y,θ]T为小车的位姿,(x,y)为小车质心o的坐标,θ为小车方向角,v、ω分别为小车的线速度和角速度。
其次,构建摄像机投影模型:如图1所示,在场景中考虑四个静态点作为参考目标的特征点,根据透视原理可以得到如下摄像机投影模型:
u = fk u x c z c + u 0 , υ = fk υ y c z c + υ 0 , - - - ( 5 )
其中(xc,yc,zc)T为特征点P在摄像机坐标系下的坐标,(u,υ)T为相应的图像像素坐标,ku、kυ为图像坐标中单位距离的像素数量,(u00)T为图像坐标中心点的位置。
根据式(5)可计算得到特征点在图像平面上的位置:
p x p y = f x c z c f y c z c = u - u 0 k u υ - υ 0 k υ . - - - ( 6 )
最后,通过几何分析法构建参考目标的特征点在摄像机坐标系下的运动学模型:通过几何分析法对图1所示坐标系统的相对位置关系进行分析,可以得到如下方程:
a = x r cos θ - y r sin θ + x , b = x r sin θ + y r cos θ + y x r = x c , y r = z c + l , - - - ( 7 )
其中(a,b)、(xr,yr)分别为特征点P在世界坐标系和机器人坐标系下的坐标。
对式(7)进行求导,并考虑式(4)可得特征点在摄像机坐标系下的运动学模型:
x . c = z c ω + lω , z . c = - v - x c ω . - - - ( 8 )
在以上模型的基础上,对式(2)进行求导,并考虑式(1)、(6)、(8),可得到2.5维视觉误差模型如下:
e . = e . 1 e . 2 e . 3 = - ω e 2 + ωlα vα + ω e 1 ω , - - - ( 9 )
其中由于小车做平面运动,因此α是个常数,这里我们假设特征点在摄像机坐标系下的高度信息yc≠0。
3)根据步骤2)中的2.5维视觉误差模型,利用非线性模型预测控制方法设计一种多级视觉预测控制器,使2.5维视觉误差信号渐近收敛,进而完成小车视觉伺服任务。
多级视觉预测控制器至少由两个子控制器组成,一个为运动学控制器,另一个为动力学控制器,其中运动学控制器的输出作为动力学控制器的输入。
运动学控制器的设计包含以下步骤:
首先,采用欧拉近似法对2.5维视觉误差模型(9)进行离散化处理,获得如下离散时间误差模型:
e ( k + 1 ) = e 1 ( k + 1 ) e 2 ( k + 1 ) e 3 ( k + 1 ) = e 1 ( k ) - Tω ( k ) e 2 ( k ) + Tω ( k ) lα e 2 ( k ) + Tv ( k ) α + ω ( k ) e 1 ( k ) e 3 ( k ) + Tω ( k ) , - - - ( 10 )
其中T是采样周期。
式(10)可以写成以下简洁形式:
e(k+1)=f(e(k),v(k)).             (11)
因此,考虑式(11)可以得到2.5维视觉误差预测模型:
e(k+j|k)=f(e(k+j-1|k),v(k+j-1|k)),j∈[1,Np].     (12)
其中符号(k+j|k)表示在k时刻向前预测j步得到的预测值。
其次,将小车速度v=[v,ω]T作为控制输入,构造一个由2.5维视觉误差预测信号和控制输入表示的二次目标函数J(k):
J ( k ) = Σ j = 1 N p e T ( k + j | k ) Qe ( k + j | k ) + (13)
Σ j = 1 N c v T ( k + j - 1 | k ) Rv ( k + j - 1 | k ) ,
其中Np为预测时域,Nc为控制时域,Q和R为正定的斜对称加权矩阵。
最后,为了确保目标特征点在伺服过程中始终处于摄像机视野范围内及小车在高速度下能够安全行驶,考虑如下可见性约束和速度约束:
可见性约束,即将特征点在图像平面上的运动轨迹限制在一个定义的窗口区域内:
u min ≤ u ≤ u max υ min ≤ υ ≤ υ max . - - - ( 14 )
速度约束,即将小车速度限制在一个有界区域内:
vmax≤v≤vmin              (15)
因此,运动学预测控制器的设计转换为求解如下优化问题:
v * = arg min v J ( k ) , - - - ( 16 )
受限于
e ( k | k ) = e 0 , e ( k + j | k ) = f ( e ( k + j - 1 | k ) , v ( k + j - 1 | k ) ) , j ∈ [ 1 , N p ] , u min ≤ u ( k + j | k ) ≤ u max , υ min ≤ υ ( k + j | k ) ≤ υ max , j ∈ [ 0 , N p ] , v min ≤ v ( k + j | k ) ≤ v max , j ∈ [ 0 , N p - 1 ] - - - ( 17 )
其中e0为初始条件,可通过式(1)、(2)和(6)计算得到:
e ( k | k ) = e 1 ( k | k ) e 2 ( k | k ) e 3 ( k | k ) =
k u ( u ( k | k ) - u 0 ) k υ ( υ ( k | k ) - υ 0 ) - s 1 d cos ( θ e ( k | k ) ) + s 2 d sin ( θ e ( k | k ) ) - fk υ υ ( k | k ) - υ 0 - s 1 d sin ( θ e ( k | k ) ) - s 2 d ( θ e ( k | k ) ) θ e ( k | k ) - - - ( 18 )
在每一次采样时间,通过求解式(16)可以获得小车速度的最优控制序列v*={v(k|k),v(k+1|k),…,v(k+Nc|k),…,v(k+Np-1|k)}.,从v(k+Nc+1|k)到v(k+Np-1|k),控制输入的值保持不变且等于v(k+Nc|k)。将最优控制序列的第一项v(k|k)作为运动学控制器的输出,并作用于小车运动学模型,使得2.5维视觉误差信号渐近收敛,即limt→∞e=0。
动力学控制器是针对小车动力学模型来设计的,假设外界干扰为零,由于小车质心和两轮轴线中心重合,智能小车的动力学模型可表示为:
v . = τ 1 m , ω . = τ 2 I . - - - ( 19 )
其中m是小车质量,I是转动惯量,τ1、τ2分别为小车的驱动力矩和转动力矩。
动力学控制器的设计是为了产生力矩τ=[τ12]T来控制小车实际速度,使小车实际速度渐近逼近期望速度,从而使2.5维视觉误差信号渐近收敛,其设计过程包含以下步骤:
首先,采用欧拉近似法对小车动力学模型式(21)进行离散化处理,得到如下离散时间动力学模型:
v ( k + 1 ) = v ( k ) + T τ 1 ( k ) m , ω ( k + 1 ) = ω ( k ) + T τ 2 ( k ) I . - - - ( 20 )
式(20)可以写成如下简化形式:
v(k+1)=f(v(k),τ(k)).            (21)
根据式(21)可得小车实际速度预测模型:
v ( k + j | k ) = f ( v ( k + j - 1 | k ) , τ ( k + j - 1 | k ) ) , j ∈ [ 1 , N ‾ p ] . - - - ( 22 )
其次,将运动学控制器的输出vc=[vcc]T作为动力学预测控制器的参考输入,定义速度误差δ=vc-v,构造一个由预测的速度误差信号和力矩表示的二次目标函数
(23)
其中为预测时域,为控制时域,为正定的斜对称加权矩阵。
最后,考虑力矩约束:τmax≤τ≤τmin,动力学控制器的设计转化为求解如下优化问题:
受限于
v ( k | k ) = v 0 , v ( k + j | k ) = f ( v ( k + j - 1 | k ) , v ( k + j - 1 | k ) ) , j ∈ [ 1 , N ‾ p ] , δ ( k + j | k ) = v c ( k ) - v ( k + j | k ) , j ∈ [ 1 , N ‾ p ] , τ min ≤ τ ( k + j | k ) ≤ τ max , j ∈ [ 0 , N ‾ p - 1 ] , - - - ( 25 )
其中v0为小车实际速度对应于时刻k的初始值,我们设小车实际速度初始值为零,即v(0)=0。
在每次采样时刻最小化二次目标函数获得最优控制序列 τ * = { τ ( k | k ) , τ ( k + 1 | k ) , · · · , τ ( k + N ‾ c | k ) , · · · , τ ( k + N ‾ p - 1 | k ) } · , 并取其第一项τ(k|k)作为动力学控制器的输出,作用于小车动力学模型,控制小车速度,使得速度误差渐近收敛,即limt→∞δ=0,从而使得limt→∞e=0。
为了验证所设计控制器的有效性,在MATLAB平台上进行两种情形的仿真,一种是不考虑可见性约束,另一种是考虑可见性约束:
设小车质量m=4kg,转动惯量I=2.5kg·m2,小车初始位姿q0=[1.5,-5,0]T,期望位姿为qd=[0,0,0]T,使用一个虚拟摄像机来获取仿真图像,虚拟摄像机的焦距f=6mm,拍摄到的虚拟图像的大小为640×480像素,虚拟摄像机的位置到小车质心的距离为l=0.1m,参数α=5m-1,采样时间T=100ms,预测时域控制时域加权矩阵选择如下:
Q = 100 0 0 0 100 0 0 0 50 , Q ‾ = 120 0 0 120 , R = R ‾ = 0.1 0 0 0.1 ,
可见性约束选择如下:
u min = - 240 pixels υ min = - 200 pixels ≤ u υ ≤ u max = 240 pixels υ max = 200 pixels .
在两种情形的仿真中均考虑如下控制约束:
- 3 m / s - 1.5 rad / s ≤ v ≤ 3 m / s 1.5 rad / s , - 50 N · m - 50 N · m ≤ τ ≤ 50 N · m 50 N · m
仿真结果如图3~14所示。
说明:图3~8,图9~14分别为未考虑可见性约束和考虑可见性约束时的仿真结果图,其中图3、图9为小车在XY平面上的运动轨迹,图4、图10为特征点在图像平面上的运动轨迹,图5、图11为2.5维视觉误差变化曲线,图6、图12为小车实际线速度v和期望线速度vc变化曲线,图7、图13为小车实际角速度ω和期望角速度ωc变化曲线,图8、图14为小车驱动力矩τ1和转动力矩τ2变化曲线。
从以上仿真结果图3~14可以看出,小车能够到达期望的位姿,速度和力矩的变化均在所定义的约束范围内,且2.5维视觉误差收敛到零,加入可见性约束后,特征点的运动轨迹被限制在所定义的窗口区域内,因此可以证实所设计的视觉预测控制器能够处理系统中存在的可见性约束和控制约束,使小车安全快速运动到期望位姿且使目标始终处于摄像机的视野内。

Claims (1)

1.一种基于非线性模型预测的智能小车2.5维视觉伺服控制方法,其特征在于:包含以下步骤:
1.1.在当前位姿和期望位姿处通过摄像机分别获取参考目标的当前图像和期望图像;
1.2.从获取的当前图像和期望图像中提取参考目标的特征点及小车的姿态信号,建立2.5维视觉误差模型,该模型由如下公式确定:
e = e 1 e 2 e 3 = s 1 s 2 θ - cos θ e - sin θ e 0 sin θ e cos θ e 0 0 0 1 s 1 d s 2 d θ d ,
其中,θ和θd分别为移动小车的当前方向角和期望方向角,s1,s1d,s2,s2d为经过坐标变换的二维图像信号,θe=θ-θd为三维姿态误差信号;
1.3.根据步骤1.2中的2.5维视觉误差模型,利用非线性模型预测控制方法设计一种多级视觉预测控制器,使2.5维视觉误差信号渐近收敛;该多级视觉预测控制器由至少两个子控制器组成,一个为运动学控制器,另一个为动力学控制器,其中运动学控制器的输出作为动力学控制器的输入;其具体操作包括:
1.3.1.运动学控制器的设计:
首先,采用欧拉近似法对视觉误差模型进行离散化处理,获得视觉误差预测模型e(k+j|k),其中,T为采样周期,v(k)和ω(k)分别为小车在k时刻的线速度和角速度,符号(k+j|k)表示在k时刻向前预测j步得到的预测值;
其次,将小车速度ν=[ν,ω]T作为控制输入,构造一个由2.5维视觉误差预测信号和控制输入表示的二次目标函数J(k),该目标函数由如下公式确定:
J ( k ) = Σ j = 1 N p e T ( k + j | k ) Qe ( k + j | k ) + Σ j = 1 N c v T ( k + j - 1 | k ) Rv ( k + j - 1 | k ) ,
其中Np为预测时域,Nc为控制时域,Q和R为正定的斜对称加权矩阵;
最后,加入可见性约束(umin,,umax),(υmin,max)和速度约束(νmin,max),其中(u,υ)为目标特征点在图像平面上的像素坐标,通过求解带有约束的二次目标函数J(k)的优化问题来获得最优控制序列v*,取其第一项ν(k|k)作为运动学控制器的输出,使得视觉误差信号渐近收敛,即limt→∞e=0;
1.3.2.动力学控制器的设计:
首先,利用欧拉近似法对小车动力学模型进行离散化处理,获得小车实际速度预测模型v(k+j|k),其中τ(k)=[τ1(k),τ2(k)]T分别为小车在k时刻的驱动力矩和转动力矩;
其次,将运动学控制器的输出作为动力学预测控制器的参考输入,定义δ为小车实际速度与参考输入速度之间的速度误差,构造一个由预测的速度误差信号和力矩表示的二次目标函数,该目标函数由如下公式确定:
其中为预测时域,为控制时域,为正定的斜对称加权矩阵;
最后,加入力矩约束(τmin,max),最小化二次目标函数获得最优控制序列τw,取其第一项τ(k|k)作为动力学控制器的输出,控制小车速度,使得速度误差渐近收敛,即limt→∞δ=0,从而使得limt→∞e=0。
CN201210324636.2A 2012-09-04 2012-09-04 基于非线性模型预测的智能小车2.5维视觉伺服控制方法 Expired - Fee Related CN102880062B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210324636.2A CN102880062B (zh) 2012-09-04 2012-09-04 基于非线性模型预测的智能小车2.5维视觉伺服控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210324636.2A CN102880062B (zh) 2012-09-04 2012-09-04 基于非线性模型预测的智能小车2.5维视觉伺服控制方法

Publications (2)

Publication Number Publication Date
CN102880062A CN102880062A (zh) 2013-01-16
CN102880062B true CN102880062B (zh) 2014-12-31

Family

ID=47481435

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210324636.2A Expired - Fee Related CN102880062B (zh) 2012-09-04 2012-09-04 基于非线性模型预测的智能小车2.5维视觉伺服控制方法

Country Status (1)

Country Link
CN (1) CN102880062B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104808590B (zh) * 2015-02-14 2017-01-25 浙江大学 一种基于关键帧策略的移动机器人视觉伺服控制方法
CN108839026B (zh) * 2018-07-19 2021-04-06 浙江工业大学 一种移动机器人视觉伺服跟踪预测控制方法
CN111624875A (zh) * 2019-02-27 2020-09-04 北京京东尚科信息技术有限公司 视觉伺服控制方法、装置和无人设备
CN112286197B (zh) * 2020-11-03 2024-02-13 交通运输部公路科学研究所 一种基于离散时空的车辆纵向运动速度优化方法
CN112835327A (zh) * 2020-12-17 2021-05-25 中国化学工程第六建设有限公司 化工管道工厂化加工系统
US11429112B2 (en) * 2020-12-31 2022-08-30 Ubtech North America Research And Development Center Corp Mobile robot control method, computer-implemented storage medium and mobile robot
CN114371702B (zh) * 2021-12-17 2023-11-10 华南理工大学 一种应用于视觉伺服的非线性模型预测控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102049779A (zh) * 2009-10-30 2011-05-11 本田技研工业株式会社 信息处理方法和装置
CN102059703A (zh) * 2010-11-22 2011-05-18 北京理工大学 基于自适应粒子滤波的机器人视觉伺服控制方法
CN102477396A (zh) * 2010-11-22 2012-05-30 大连创达技术交易市场有限公司 一种显微视觉伺服控制的微操作机器人系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5448069B2 (ja) * 2009-12-25 2014-03-19 株式会社Ihi ロボット制御装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102049779A (zh) * 2009-10-30 2011-05-11 本田技研工业株式会社 信息处理方法和装置
CN102059703A (zh) * 2010-11-22 2011-05-18 北京理工大学 基于自适应粒子滤波的机器人视觉伺服控制方法
CN102477396A (zh) * 2010-11-22 2012-05-30 大连创达技术交易市场有限公司 一种显微视觉伺服控制的微操作机器人系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP特开2011-136377A 2011.07.14 *

Also Published As

Publication number Publication date
CN102880062A (zh) 2013-01-16

Similar Documents

Publication Publication Date Title
CN102880062B (zh) 基于非线性模型预测的智能小车2.5维视觉伺服控制方法
Wu et al. Path following control of autonomous ground vehicle based on nonsingular terminal sliding mode and active disturbance rejection control
Petrov et al. Modeling and nonlinear adaptive control for autonomous vehicle overtaking
CN108089578B (zh) 一种用于双足步行机器人的步行运动规划方法
CN106125728B (zh) 一种四驱轮式移动机器人轨迹跟踪控制方法
CN107168369B (zh) 一种欠驱动无人车的编队控制方法及系统
Dong et al. Formation control strategy for nonholonomic intelligent vehicles based on virtual structure and consensus approach
Lapierre et al. Nonsingular path following control of a unicycle in the presence of parametric modelling uncertainties
WO2018131090A1 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
CN103240739B (zh) 一种移动机械臂分散集中自主切换控制方法
CN102736626B (zh) 基于视觉的移动小车位姿镇定控制方法
CN104932506A (zh) 基于快速终端滑模的轮式移动机器人轨迹跟踪方法
Li et al. A practical trajectory planning framework for autonomous ground vehicles driving in urban environments
CN104808590A (zh) 一种基于关键帧策略的移动机器人视觉伺服控制方法
CN110162046A (zh) 基于事件触发型模型预测控制的无人车路径跟随方法
CN104118430A (zh) 一种基于滑模自抗扰控制的平行泊车系统及泊车方法
Yang et al. Smooth trajectory planning along Bezier curve for mobile robots with velocity constraints
CN107031741B (zh) 车体位姿校正方法及装置
CN111506063A (zh) 一种基于分层强化学习框架的移动机器人无图导航方法
CN114442630B (zh) 一种基于强化学习和模型预测的智能车规划控制方法
Xie et al. Turning circle based trajectory planning method of an underactuated AUV for the mobile docking mission
Hongbo et al. Autonomous parking control for intelligent vehicles based on a novel algorithm
CN113589685B (zh) 一种基于深度神经网络的挪车机器人控制系统及其方法
Yang et al. A trajectory planning and fuzzy control for autonomous intelligent parking system
Kim et al. Shared teleoperation of a vehicle with a virtual driving interface

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141231

Termination date: 20150904

EXPY Termination of patent right or utility model