CN110470298B - 一种基于滚动时域的机器人视觉伺服位姿估计方法 - Google Patents
一种基于滚动时域的机器人视觉伺服位姿估计方法 Download PDFInfo
- Publication number
- CN110470298B CN110470298B CN201910597156.5A CN201910597156A CN110470298B CN 110470298 B CN110470298 B CN 110470298B CN 201910597156 A CN201910597156 A CN 201910597156A CN 110470298 B CN110470298 B CN 110470298B
- Authority
- CN
- China
- Prior art keywords
- vector
- time domain
- time
- equation
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
一种基于滚动时域的机器人视觉伺服位姿估计方法,包括以下步骤:1)利用相机投影模型进行特征点变换;2)建立离散时间模型;3)根据离散时间模型以及滚动时域策略,定义代价函数;4)确保代价函数达到最小,从而设计最优滚动时域估计器。本发明提供了一种基于滚动时域的机器人视觉伺服位姿估计方法,通过引入滚动时域目标函数来最小化代价函数,并确定最优预测方程的设计方案。
Description
技术领域
本发明涉及机器人视觉伺服系统,尤其涉及的是基于滚动时域的位姿估计方法。
背景技术
随着科学技术和控制技术的发展,计算机视觉在各个领域已有广泛的运用,其中,机器人视觉伺服(RVS)系统的位姿估计问题一直备受广泛关注。位姿估计是指使用图像信息来确定相机相对于物体坐标系的位置和姿态,机器人系统能利用位置和姿态进行机器人运动的实时控制。针对机器人视觉伺服系统位姿估计的研究,不仅可以丰富机器人位姿估计的理论成果,还可以满足多领域对位姿估计技术越来越高的要求,具有实际的理论和工程意义。
然而在实际环境中,RVS系统的位姿估计有两个主要困难,分别是位姿估计的效率以及其鲁棒性。同时机器人在运动过程中总是存在噪声干扰,机器人的位姿估计问题实际上就成为一个带有噪声干扰的状态估计问题。目前主要是应用卡尔曼滤波方法来解决这些困难。对于线性系统的状态估计卡尔曼滤波已经能够很好地解决,但是在非线性系统中就不那么容易.目前已有的解决非线性问题的方法也都是线性系统卡尔曼滤波方法的扩展,如最常用的扩展卡尔曼滤波(extended Kalman filter,EKF),无迹卡尔曼滤波(unscentedKalman filter,UKF)等。Wang等在论文(3D relative position and orientationestimation using Kalman filtering for robot control)中,针对机器人位姿估计问题,提出了一种扩展卡尔曼滤波(EKF)方法。Shademan等在论文(Sensitivity analysis ofEKF and Iterated EKF for position-based visual servoing)中,主要是采用了迭代卡尔曼滤波(I-EKF)算法并与扩展卡尔曼滤波(EKF)算法进行对比。Ficocelli等在论文(Adaptive filtering for pose estimation in visual servoing)中,利用自适应卡尔曼滤波(A-EKF)算法来实现机器人位姿估计,但是,上述这些方法都没有完全解决RVS位姿估计的效率以及鲁棒性问题。因此,针对基于滚动时域的机器人视觉伺服系统位姿估计方法的研究很有必要。
发明内容
为了克服现有技术无法解决机器人视觉伺服位姿估计问题的不足,本发明提供一种基于滚动时域的机器人视觉伺服位姿估计方法,通过引入滚动时域目标函数来最小化代价函数,并确定最优预测方程的设计方案。
本发明解决其技术问题所采用的技术方案是:
一种基于滚动时域的机器人视觉伺服位姿估计方法,所述方法包括以下步骤:
1)特征点变换;
定义物体相对于相机的相对位姿为W=[X,Y,Z,φ,α,ψ]T,相机坐标系中第j个特征点的坐标向量为物体坐标系中第j个特征点的坐标向量为图像平面上第j个特征点的投影坐标为其中,j∈{1,2,…,5},X,Y,Z表示物体坐标系相对于相机坐标系的相对位置,φ,α,ψ表示滚动,俯仰和偏航参数的相对姿态,则第j个特征点在物体坐标系与相机坐标系之间关系为
其中,PX和PY分别为图像平面Xi和Yi轴上的像素间隔,F为焦距;
2)建立离散时间模型;
对于位姿估计,定义k时刻的状态向量为如下包含位姿和速度参数的形式
定义yk是k时刻的量测向量,初始状态x0为未知常数,uk为k时刻的控制向量,ξk为k时刻的系统噪声向量,ηk为k时刻的量测噪声向量,由此得离散时间状态方程:
xk+1=Axk+Buk+ξk (4)
yk=Cxk+ηk (5)
3)定义代价函数;
根据滚动时域估计将式(4)转化为如下方程:
4)设计滚动时域估计器;
定义如下向量
min Λk (8)
并满足约束
根据一阶KKT条件,对式(7)进行求导得
进一步由式(10)得最优估计器为
本发明的技术构思为:首先,利用相机投影模型进行特征点变换,并考虑系统过程噪声及量测噪声,从而建立离散时间模型;然后,引入并最小化代价函数,得到最优预测;最后,结合给定的先验预测,得到最终的最优预测更新方程。
本发明的有益效果主要表现在:引入并最小化代价函数,得到最优预测,有利于更好地估计离散时间模型的状态;通过选择合适的自由参数u可以保证滚动时域估计器即使在高噪声影响下也能执行估计。
附图说明
图1是物体特征点在图像平面上的投影示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1,一种基于滚动时域的机器人视觉伺服位姿估计方法,包括以下步骤:
1)特征点变换;
定义物体相对于相机的相对位姿为W=[X,Y,Z,φ,α,ψ]T,相机坐标系中第j个特征点的坐标向量为物体坐标系中第j个特征点的坐标向量为图像平面上第j个特征点的投影坐标为其中,j∈{1,2,…,5},X,Y,Z表示物体坐标系相对于相机坐标系的相对位置,φ,α,ψ表示滚动,俯仰和偏航参数的相对姿态,则第j个特征点在物体坐标系与相机坐标系之间关系为
其中,PX和PY分别为图像平面Xi和Yi轴上的像素间隔,F为焦距;
2)建立离散时间模型;
对于位姿估计,定义k时刻的状态向量为如下包含位姿和速度参数的形式
定义yk是k时刻的量测向量,初始状态x0为未知常数,uk为k时刻的控制向量,ξk为k时刻的系统噪声向量,ηk为k时刻的量测噪声向量,由此得离散时间状态方程:
xk+1=Axk+Buk+ξk (4)
yk=Cxk+ηk (5)
3)定义代价函数;
根据滚动时域估计将式(4)转化为如下方程:
4)设计滚动时域估计器;
定义如下向量
min Λk (8)
并满足约束
根据一阶KKT条件,对式(7)进行求导得
进一步由式(10)得最优估计器为
Claims (1)
1.一种基于滚动时域的机器人视觉伺服位姿估计方法,所述方法包括以下步骤:
1)特征点变换;
定义物体相对于相机的相对位姿为W=[X,Y,Z,φ,α,ψ]T,相机坐标系中第j个特征点的坐标向量为物体坐标系中第j个特征点的坐标向量为图像平面上第j个特征点的投影坐标为其中,j∈{1,2,…,5},X,Y,Z表示物体坐标系相对于相机坐标系的相对位置,φ,α,ψ表示滚动,俯仰和偏航参数的相对姿态,则第j个特征点在物体坐标系与相机坐标系之间关系为
其中,PX和PY分别为图像平面Xi和Yi轴上的像素间隔,F为焦距;
2)建立离散时间模型;
对于位姿估计,定义k时刻的状态向量为如下包含位姿和速度参数的形式
定义yk是k时刻的量测向量,初始状态x0为未知常数,uk为k时刻的控制向量,ξk为k时刻的系统噪声向量,ηk为k时刻的量测噪声向量,由此得离散时间状态方程:
xk+1=Axk+Buk+ξk (4)
yk=Cxk+ηk (5)
3)定义代价函数;
根据滚动时域估计将式(4)转化为如下方程:
4)设计滚动时域估计器;
定义如下向量
minΛk (8)
并满足约束
根据一阶KKT条件,对式(7)进行求导得
进一步由式(10)得最优估计器为
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910597156.5A CN110470298B (zh) | 2019-07-04 | 2019-07-04 | 一种基于滚动时域的机器人视觉伺服位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910597156.5A CN110470298B (zh) | 2019-07-04 | 2019-07-04 | 一种基于滚动时域的机器人视觉伺服位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110470298A CN110470298A (zh) | 2019-11-19 |
CN110470298B true CN110470298B (zh) | 2021-02-26 |
Family
ID=68506780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910597156.5A Active CN110470298B (zh) | 2019-07-04 | 2019-07-04 | 一种基于滚动时域的机器人视觉伺服位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110470298B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113822996B (zh) * | 2021-11-22 | 2022-02-22 | 之江实验室 | 机器人的位姿估计方法及装置、电子设备、存储介质 |
CN117506937B (zh) * | 2024-01-04 | 2024-03-12 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106525049A (zh) * | 2016-11-08 | 2017-03-22 | 山东大学 | 一种基于计算机视觉的四足机器人本体位姿跟踪方法 |
CN108711166A (zh) * | 2018-04-12 | 2018-10-26 | 浙江工业大学 | 一种基于四旋翼无人机的单目相机尺度估计方法 |
CN109102525A (zh) * | 2018-07-19 | 2018-12-28 | 浙江工业大学 | 一种基于自适应位姿估计的移动机器人跟随控制方法 |
CN109213175A (zh) * | 2018-10-31 | 2019-01-15 | 浙江工业大学 | 一种基于原对偶神经网络的移动机器人视觉伺服轨迹跟踪预测控制方法 |
CN109509230A (zh) * | 2018-11-13 | 2019-03-22 | 武汉大学 | 一种应用于多镜头组合式全景相机的slam方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9691163B2 (en) * | 2013-01-07 | 2017-06-27 | Wexenergy Innovations Llc | System and method of measuring distances related to an object utilizing ancillary objects |
CN109712172A (zh) * | 2018-12-28 | 2019-05-03 | 哈尔滨工业大学 | 一种初始位姿测量结合目标追踪的位姿测量方法 |
CN109495654B (zh) * | 2018-12-29 | 2021-08-03 | 武汉大学 | 一种基于智能手机感知行人安全方法 |
-
2019
- 2019-07-04 CN CN201910597156.5A patent/CN110470298B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106525049A (zh) * | 2016-11-08 | 2017-03-22 | 山东大学 | 一种基于计算机视觉的四足机器人本体位姿跟踪方法 |
CN108711166A (zh) * | 2018-04-12 | 2018-10-26 | 浙江工业大学 | 一种基于四旋翼无人机的单目相机尺度估计方法 |
CN109102525A (zh) * | 2018-07-19 | 2018-12-28 | 浙江工业大学 | 一种基于自适应位姿估计的移动机器人跟随控制方法 |
CN109213175A (zh) * | 2018-10-31 | 2019-01-15 | 浙江工业大学 | 一种基于原对偶神经网络的移动机器人视觉伺服轨迹跟踪预测控制方法 |
CN109509230A (zh) * | 2018-11-13 | 2019-03-22 | 武汉大学 | 一种应用于多镜头组合式全景相机的slam方法 |
Non-Patent Citations (1)
Title |
---|
一种新的惯性_视觉组合系统初始对准的时域约束方法;杨东方 等;《仪 器 仪 表 学 报》;20140430;第35卷(第4期);第788-793页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110470298A (zh) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Adaptive trajectory tracking of nonholonomic mobile robots using vision-based position and velocity estimation | |
CN108416840B (zh) | 一种基于单目相机的三维场景稠密重建方法 | |
CN109102525B (zh) | 一种基于自适应位姿估计的移动机器人跟随控制方法 | |
Lamraoui et al. | Path following control of fully-actuated autonomous underwater vehicle in presence of fast-varying disturbances | |
Kosmopoulos | Robust Jacobian matrix estimation for image-based visual servoing | |
Qiu et al. | Visual servo tracking of wheeled mobile robots with unknown extrinsic parameters | |
CN110470298B (zh) | 一种基于滚动时域的机器人视觉伺服位姿估计方法 | |
Qiu et al. | Concurrent-learning-based visual servo tracking and scene identification of mobile robots | |
CN112734823B (zh) | 一种基于图像的视觉伺服的雅可比矩阵深度估计方法 | |
Kuleshov et al. | Machine learning in appearance-based robot self-localization | |
CN111709095A (zh) | 一种面向复杂曲面6d虚拟夹具构造方法 | |
Demim et al. | Visual SVSF-SLAM algorithm based on adaptive boundary layer width | |
CN108469729B (zh) | 一种基于rgb-d信息的人体目标识别与跟随方法 | |
CN115219492B (zh) | 一种三维物体的外观图像采集方法及装置 | |
CN109542094B (zh) | 无期望图像的移动机器人视觉镇定控制 | |
Briales et al. | Initialization of 3d pose graph optimization using lagrangian duality | |
Ji et al. | Adaptive correction of landmark for visual homing in mobile vehicles | |
CN112330698B (zh) | 一种改进的几何活动轮廓的图像分割方法 | |
Wu et al. | Monocular vision SLAM based on key feature points selection | |
CN114434441A (zh) | 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 | |
CN114519813A (zh) | 一种机械臂目标抓取方法及系统 | |
Kiddee et al. | A real-time and robust feature detection method using hierarchical strategy and modified Kalman filter for thick plate seam tracking | |
CN113359626A (zh) | 一种多机器人系统的有限时间分层控制的方法 | |
LIU et al. | Robot intelligence for real world applications | |
Zhang et al. | Research on Moving Arm Grasping Based on Computer Vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |