CN112101145B - 基于svm分类器的移动机器人位姿估计方法 - Google Patents
基于svm分类器的移动机器人位姿估计方法 Download PDFInfo
- Publication number
- CN112101145B CN112101145B CN202010883282.XA CN202010883282A CN112101145B CN 112101145 B CN112101145 B CN 112101145B CN 202010883282 A CN202010883282 A CN 202010883282A CN 112101145 B CN112101145 B CN 112101145B
- Authority
- CN
- China
- Prior art keywords
- pose
- pose estimation
- robot
- previous frame
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于SVM分类器的移动机器人位姿估计方法,属于移动机器人自主导航和计算机视觉交叉领域。包括以下步骤:移动机器人分别在静态与动态环境下采集图像数据,利用特征点提取与匹配和位姿估计算法得到机器人的位姿,将这些特征点与位姿作为样本集训练SVM分类器,使其具有判断位姿估计结果是否被动态物体干扰的能力。如果位姿估计结果被动态物体干扰,重新选定特征点进行位姿估计,如果按照此规则选取的特征点超过60%,那么直接舍弃该帧,以此方法来筛选出不含动态因素的机器人位姿估计结果。本发明使机器人通过SVM分类器来判断图像中是否有动态物体,减少了环境中动态因素对机器人自身定位的影响,提高了机器人的位姿估计精度。
Description
技术领域
本发明涉及移动机器人自主导航和计算机视觉交叉领域,尤其涉及到一种动态环境下基于SVM分类器的移动机器人位姿估计方法。
背景技术
SLAM全称为即时定位与地图构建,其问题可以描述为:机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置估计和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航。而位姿估计方法是整个SLAM建图的基础。一个好的位姿估计方法可以得到机器人精确的运动轨迹,使地图构建更加准确。
现阶段在静态环境中已有多种方式可使得位姿估计得到一个较好结果,如对极约束,PNP,ICP(迭代最近点)算法等。但对于动态环境,这些方法有其局限性。例如对极约束算法,通过机器人运动的前后帧图像特征点变化求取机器人位姿信息,动态物体的引入也会导致图像特征点的变化,输入中掺杂了更多的噪声,机器人会误以为是自身发生移动,造成位姿估计结果较差或不稳定,使得机器人运动轨迹受到干扰。
发明内容
要解决的技术问题
针对动态环境对视觉机器人的位姿估计干扰问题,本发明提出一种使用SVM分类器对机器人运动过程中的位姿估计优化方法,使得机器人的运动轨迹不受动态物体影响,提升机器人运动过程的鲁棒性。
技术方案
一种基于SVM分类器的移动机器人位姿估计方法,其特征在于步骤如下:
步骤1:针对样本容量为S的数据,分别在静态与动态环境下采集它们,对数据进行预处理,其中输入的训练样本分为两类:第一类静态样本S1与第二类动态样本S2;
步骤2:对支持向量机模型设定参数,设置完毕后将样本输入SVM网络进行训练;
步骤3:求解两幅图像之间的位姿估计:通过前一帧的特征点对应的3D点云,投影到当前帧,此时当前帧对应的也有一个特征点,两个特征点之间具有误差;由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么可以求解相机位姿的最小二乘问题,求解得到前一帧到当前帧的姿态变换矩阵;
步骤4:将训练好的SVM分类器加入机器人位姿优化环节,将四个特征点的投影点与观测点输入SVM中,开始预测;
步骤5:SVM分类器预测出的结果若为第二类,则说明前一帧中存在动态物体,此时需要更换前一帧中的四个特征点,若选取的特征点数目超过60%仍无法预测出第一类结果,说明前一帧中大部分特征点由动态物体产生,舍弃前一帧,选择参考帧作为前一帧来计算位姿矩阵;
步骤6:重复步骤3~步骤5,得到最后时刻的位姿估计状态量,即移动机器人的位姿信息,实现移动机器人对自身的定位。
在步骤S1中,采集的样本中每组具有9个参数,分别为前一帧四个特征点的三维点投影到该图像上的二维坐标,记为N1,N2,N3,N4;而该图像中观测到的这四个三维点的二维像素坐标,记为M1,M2,M3,M4,以及由位姿估计算法生成的位姿信息H;该数据分为两类,第一类样本记为S11,S12,S13,S14……,第二类样本记为S21,S22,S23,S24。
在步骤S3中,具体的位姿估计方法为:设前一帧的特征点在图像中的二维坐标为p1=[u1,v1]T,产生的三维点为P,该点投影到当前帧的二维像素坐标为p′2=[u′2,v′2]T,而当前帧本身也会观测到三维点P,使得观测点为p2=[u2,v2]T,两个特征点之间存在误差e=p2-p′2;位姿估计采用的计算公式为:
d2u2=Kexp(ξ^)P
其中d2表示空间点P在当前帧所在相机坐标系的深度;K表示相机内参数,exp(ξ^)表示相机从前一帧到当前帧的姿态变换矩阵,ξ表示姿态变换矩阵对应的李代数;
然而现实情况中重投影通常与真实值存在一定的误差,误差定义为:
由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么构造出求解相机位姿的最小二乘问题如下:
对该函数进行求解,得到前一帧到当前帧的姿态变换矩阵。
有益效果
本发明针对在动态环境下视觉机器人的位姿估计鲁棒性不高的问题,提出的一种基于SVM分类器的移动机器人位姿估计方法。通过支持向量机SVM对计算得到的位姿矩阵的预测,判定当前帧中是否存在动态物体与当前帧的特征点是否在动态物体中。该方法具有以下优点:数据分类正确率高,能有效提高机器人本身的位姿估计精度,减少动态物体影响,提高SLAM鲁棒性。
附图说明
图1为支持向量机的数据训练过程;
图2为位姿估计算法通过计算特征点变化的示意图;
图3为机器人通过SVM对位姿计算结果进行筛选的原理图。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明提供了一种动态环境下基于SVM的机器人位姿估计方法,针对样本容量为S的数据,每组具有9个参数,分别为前一帧四个特征点的三维点投影到该图像上的二维坐标,记为N1,N2,N3,N4;而该图像中观测到的这四个三维点的二维像素坐标,记为M1,M2,M3,M4,以及由位姿估计算法生成的位姿信息H。该数据分为两类,第一类样本记为S11,S12,S13,S14……,第二类样本记为S21,S22,S23,S24……。采用特定的SVM模型优化位姿估计的方法具体步骤如下:
步骤1:对支持向量机模型设定参数。主要是对惩罚系数C与核函数参数G进行优化,选取最好的参数,C越小,拟合程度越低,C过大容易造成过拟合。由于位姿估计算法本质上是一个对二维特征点最小化误差的求解过程,在此过程中有样本会带有线性不可分的性质。在这里选择RBF核函数(高斯核函数),原因是RBF参数较少,可以降低模型的复杂程度;在计算过程中,高斯核不存在无穷大与奇异值的问题,对于此核函数还需要选择合适的参数G,G越小,支持向量越多。
步骤2:对数据进行预处理,其中输入的训练样本分为两类:S1与S2,对SVM网络进行训练;
步骤3:求解两幅图像之间的位姿估计。设前一帧的特征点在图像中的二维坐标为p1=[u1,v1]T,产生的三维点为P,该点投影到当前帧的二维像素坐标为p′2=[u′2,v′2]T,而当前帧本身也会观测到三维点P,使得观测点为p2=[u2,v2]T,两个特征点之间存在误差e=p2-p′2。理想的重投影公式为:
d2u2=Kexp(ξ^)P
其中d2表示空间点P在当前帧所在相机坐标系的深度。K表示相机内参数,exp(ξ^)表示相机从前一帧到当前帧的姿态变换矩阵,ξ表示姿态变换矩阵对应的李代数。
然而现实情况中重投影通常与真实值存在一定的误差,误差可以定义为:
由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么可以构造出求解相机位姿的最小二乘问题如下:
对该函数进行求解,得到前一帧到当前帧的姿态变换矩阵。
步骤4:将训练好的SVM分类器加入机器人位姿优化环节,将四个特征点的投影点与观测点输入SVM中,开始预测。
步骤5:SVM分类器预测出的结果若为第二类,则说明前一帧中存在动态物体,此时需要更换前一帧中的四个特征点,若选取的特征点数目超过60%仍无法预测出第一类结果,说明前一帧中大部分特征点由动态物体产生,舍弃前一帧,选择参考帧作为前一帧来计算位姿矩阵。
步骤S6:重复步骤3~步骤5,得到最后时刻的位姿估计状态量,即移动机器人的位姿信息,实现移动机器人对自身的定位。
Claims (3)
1.一种基于SVM分类器的移动机器人位姿估计方法,其特征在于步骤如下:
步骤1:针对样本容量为S的数据,分别在静态与动态环境下采集它们,对数据进行预处理,其中输入的训练样本分为两类:第一类静态样本S1与第二类动态样本S2;
步骤2:对支持向量机模型设定参数,设置完毕后将样本输入SVM网络进行训练;
步骤3:求解两幅图像之间的位姿估计:通过前一帧的特征点对应的3D点云,投影到当前帧,此时当前帧对应的也有一个特征点,两个特征点之间具有误差;由于每一帧观测到的特征点不止一个,假设有N个特征点,那么可以求解相机位姿的最小二乘问题,求解得到前一帧到当前帧的姿态变换矩阵;
步骤4:将训练好的SVM分类器加入机器人位姿优化环节,将四个特征点的投影点与观测点输入SVM中,开始预测;
步骤5:SVM分类器预测出的结果若为第二类,则说明前一帧中存在动态物体,此时需要更换前一帧中的四个特征点;若选取的特征点数目超过60%仍无法预测出第一类结果,说明前一帧中大部分特征点由动态物体产生,舍弃前一帧,选择参考帧作为前一帧来计算位姿矩阵;
步骤6:重复步骤3~步骤5,得到最后时刻的位姿估计状态量,即移动机器人的位姿信息,实现移动机器人对自身的定位。
2.根据权利要求1所述的一种基于SVM分类器的移动机器人位姿估计方法,其特征在于在步骤S1中,采集的样本中每组具有9个参数,分别为前一帧四个特征点的三维点投影到该图像上的二维坐标,记为N1,N2,N3,N4;而该图像中观测到的这四个三维点的二维像素坐标,记为M1,M2,M3,M4,以及由位姿估计算法生成的位姿信息H;该数据分为两类,第一类样本记为S11,S12,S13,S14……,第二类样本记为S21,S22,S23,S24。
3.根据权利要求1所述的一种基于SVM分类器的移动机器人位姿估计方法,其特征在于在步骤S3中,具体的位姿估计方法为:设前一帧的特征点在图像中的二维坐标为p1=[u1,v1]T,产生的三维点为P,该点投影到当前帧的二维像素坐标为p′2=[u′2,v′2]T,而当前帧本身也会观测到三维点P,使得观测点为p2=[u2,v2]T,两个特征点之间存在误差e=p2-p′2;位姿估计采用的计算公式为:
d2u2=K exp(ξ^)P
其中d2表示空间点P在当前帧所在相机坐标系的深度;K表示相机内参数,exp(ξ^)表示相机从前一帧到当前帧的姿态变换矩阵,ξ表示姿态变换矩阵对应的李代数;
然而现实情况中重投影通常与真实值存在一定的误差,误差定义为:
由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么构造出求解相机位姿的最小二乘问题如下:
对该函数进行求解,得到前一帧到当前帧的姿态变换矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010883282.XA CN112101145B (zh) | 2020-08-28 | 2020-08-28 | 基于svm分类器的移动机器人位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010883282.XA CN112101145B (zh) | 2020-08-28 | 2020-08-28 | 基于svm分类器的移动机器人位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112101145A CN112101145A (zh) | 2020-12-18 |
CN112101145B true CN112101145B (zh) | 2022-05-17 |
Family
ID=73758141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010883282.XA Active CN112101145B (zh) | 2020-08-28 | 2020-08-28 | 基于svm分类器的移动机器人位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101145B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112907610B (zh) * | 2021-03-25 | 2022-04-29 | 东南大学 | 一种基于LeGO-LOAM的分步式帧间位姿估计算法 |
CN117351306B (zh) * | 2023-12-04 | 2024-03-22 | 齐鲁空天信息研究院 | 三维点云投影位姿求解器训练方法、确定方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984315A (zh) * | 2014-05-15 | 2014-08-13 | 成都百威讯科技有限责任公司 | 一种家用多功能智能机器人 |
CN109048924A (zh) * | 2018-10-22 | 2018-12-21 | 深圳控石智能系统有限公司 | 一种基于机器学习的智能机器人柔性作业装置及其方法 |
CN110222581A (zh) * | 2019-05-13 | 2019-09-10 | 电子科技大学 | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 |
CN110533722A (zh) * | 2019-08-30 | 2019-12-03 | 的卢技术有限公司 | 一种基于视觉词典的机器人快速重定位方法及系统 |
CN110706248A (zh) * | 2019-08-20 | 2020-01-17 | 广东工业大学 | 一种基于slam的视觉感知建图算法及移动机器人 |
CN111310566A (zh) * | 2020-01-16 | 2020-06-19 | 国网山西省电力公司电力科学研究院 | 一种静动态多特征融合的山火检测方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345588B (zh) * | 2018-09-20 | 2021-10-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
US11398040B2 (en) * | 2018-10-08 | 2022-07-26 | Ulc Technologies, Llc | System and method for data acquisition |
-
2020
- 2020-08-28 CN CN202010883282.XA patent/CN112101145B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984315A (zh) * | 2014-05-15 | 2014-08-13 | 成都百威讯科技有限责任公司 | 一种家用多功能智能机器人 |
CN109048924A (zh) * | 2018-10-22 | 2018-12-21 | 深圳控石智能系统有限公司 | 一种基于机器学习的智能机器人柔性作业装置及其方法 |
CN110222581A (zh) * | 2019-05-13 | 2019-09-10 | 电子科技大学 | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 |
CN110706248A (zh) * | 2019-08-20 | 2020-01-17 | 广东工业大学 | 一种基于slam的视觉感知建图算法及移动机器人 |
CN110533722A (zh) * | 2019-08-30 | 2019-12-03 | 的卢技术有限公司 | 一种基于视觉词典的机器人快速重定位方法及系统 |
CN111310566A (zh) * | 2020-01-16 | 2020-06-19 | 国网山西省电力公司电力科学研究院 | 一种静动态多特征融合的山火检测方法及系统 |
Non-Patent Citations (3)
Title |
---|
A Solution to the Simultaneous Localisation and Map Building (SLAM) Problem;M.W.M.G. Dissanayake 等;《IEEE Transactions on Robotics & Automation》;20011231;第1-14页 * |
KUKA工业机器人位姿测量与在线误差补偿;史晓佳 等;《机械工程学报》;20170430;第53卷(第8期);第1-7页 * |
基于RGB-D数据的实时SLAM算法;付梦印 等;《机器人ROBOT》;20151130;第37卷(第6期);第683-692页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112101145A (zh) | 2020-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112785702B (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
RU2713611C2 (ru) | Способ моделирования трехмерного пространства | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US11941831B2 (en) | Depth estimation | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN114424250A (zh) | 结构建模 | |
KR101776620B1 (ko) | 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US20200012877A1 (en) | Information processing apparatus, information processing method, and storage medium | |
CN112435262A (zh) | 基于语义分割网络和多视图几何的动态环境信息检测方法 | |
US20030156189A1 (en) | Automatic camera calibration method | |
CN111667535B (zh) | 一种针对遮挡场景下的六自由度位姿估计方法 | |
CN112115980A (zh) | 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法 | |
CN112233177A (zh) | 一种无人机位姿估计方法及系统 | |
CN112083403B (zh) | 用于虚拟场景的定位追踪误差校正方法及系统 | |
CN110298884A (zh) | 一种适于动态环境中单目视觉相机的位姿估计方法 | |
CN112101145B (zh) | 基于svm分类器的移动机器人位姿估计方法 | |
CN112651944B (zh) | 基于cad模型的3c部件高精度六维位姿估计方法及系统 | |
Michot et al. | Bi-objective bundle adjustment with application to multi-sensor slam | |
CN110570474B (zh) | 一种深度相机的位姿估计方法及系统 | |
US11568598B2 (en) | Method and device for determining an environment map by a server using motion and orientation data | |
CN113052907B (zh) | 一种动态环境移动机器人的定位方法 | |
CN113570662B (zh) | 3d定位来自真实世界图像中地标的系统和方法 | |
JPS63213005A (ja) | 移動体誘導方法 | |
CN114708293A (zh) | 基于深度学习点线特征和imu紧耦合的机器人运动估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |