CN112101145A - 基于svm分类器的移动机器人位姿估计方法 - Google Patents

基于svm分类器的移动机器人位姿估计方法 Download PDF

Info

Publication number
CN112101145A
CN112101145A CN202010883282.XA CN202010883282A CN112101145A CN 112101145 A CN112101145 A CN 112101145A CN 202010883282 A CN202010883282 A CN 202010883282A CN 112101145 A CN112101145 A CN 112101145A
Authority
CN
China
Prior art keywords
pose
pose estimation
feature points
robot
previous frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010883282.XA
Other languages
English (en)
Other versions
CN112101145B (zh
Inventor
许斌
辛龙宇
程怡新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202010883282.XA priority Critical patent/CN112101145B/zh
Publication of CN112101145A publication Critical patent/CN112101145A/zh
Application granted granted Critical
Publication of CN112101145B publication Critical patent/CN112101145B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Abstract

本发明涉及一种基于SVM分类器的移动机器人位姿估计方法,属于移动机器人自主导航和计算机视觉交叉领域。包括以下步骤:移动机器人分别在静态与动态环境下采集图像数据,利用特征点提取与匹配和位姿估计算法得到机器人的位姿,将这些特征点与位姿作为样本集训练SVM分类器,使其具有判断位姿估计结果是否被动态物体干扰的能力。如果位姿估计结果被动态物体干扰,重新选定特征点进行位姿估计,如果按照此规则选取的特征点超过60%,那么直接舍弃该帧,以此方法来筛选出不含动态因素的机器人位姿估计结果。本发明使机器人通过SVM分类器来判断图像中是否有动态物体,减少了环境中动态因素对机器人自身定位的影响,提高了机器人的位姿估计精度。

Description

基于SVM分类器的移动机器人位姿估计方法
技术领域
本发明涉及移动机器人自主导航和计算机视觉交叉领域,尤其涉及到一种动态环境下基于SVM分类器的移动机器人位姿估计方法。
背景技术
SLAM全称为即时定位与地图构建,其问题可以描述为:机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置估计和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航。而位姿估计方法是整个SLAM建图的基础。一个好的位姿估计方法可以得到机器人精确的运动轨迹,使地图构建更加准确。
现阶段在静态环境中已有多种方式可使得位姿估计得到一个较好结果,如对极约束,PNP,ICP(迭代最近点)算法等。但对于动态环境,这些方法有其局限性。例如对极约束算法,通过机器人运动的前后帧图像特征点变化求取机器人位姿信息,动态物体的引入也会导致图像特征点的变化,输入中掺杂了更多的噪声,机器人会误以为是自身发生移动,造成位姿估计结果较差或不稳定,使得机器人运动轨迹受到干扰。
发明内容
要解决的技术问题
针对动态环境对视觉机器人的位姿估计干扰问题,本发明提出一种使用SVM分类器对机器人运动过程中的位姿估计优化方法,使得机器人的运动轨迹不受动态物体影响,提升机器人运动过程的鲁棒性。
技术方案
一种基于SVM分类器的移动机器人位姿估计方法,其特征在于步骤如下:
步骤1:针对样本容量为S的数据,分别在静态与动态环境下采集它们,对数据进行预处理,其中输入的训练样本分为两类:第一类静态样本S1与第二类动态样本S2
步骤2:对支持向量机模型设定参数,设置完毕后将样本输入SVM网络进行训练;
步骤3:求解两幅图像之间的位姿估计:通过前一帧的特征点对应的3D点云,投影到当前帧,此时当前帧对应的也有一个特征点,两个特征点之间具有误差;由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么可以求解相机位姿的最小二乘问题,求解得到前一帧到当前帧的姿态变换矩阵;
步骤4:将训练好的SVM分类器加入机器人位姿优化环节,将四个特征点的投影点与观测点输入SVM中,开始预测;
步骤5:SVM分类器预测出的结果若为第二类,则说明前一帧中存在动态物体,此时需要更换前一帧中的四个特征点,若选取的特征点数目超过60%仍无法预测出第一类结果,说明前一帧中大部分特征点由动态物体产生,舍弃前一帧,选择参考帧作为前一帧来计算位姿矩阵;
步骤6:重复步骤3~步骤5,得到最后时刻的位姿估计状态量,即移动机器人的位姿信息,实现移动机器人对自身的定位。
在步骤S1中,采集的样本中每组具有9个参数,分别为前一帧四个特征点的三维点投影到该图像上的二维坐标,记为N1,N2,N3,N4;而该图像中观测到的这四个三维点的二维像素坐标,记为M1,M2,M3,M4,以及由位姿估计算法生成的位姿信息H;该数据分为两类,第一类样本记为S11,S12,S13,S14……,第二类样本记为S21,S22,S23,S24
在步骤S3中,具体的位姿估计方法为:设前一帧的特征点在图像中的二维坐标为p1=[u1,v1]T,产生的三维点为P,该点投影到当前帧的二维像素坐标为p′2=[u′2,v′2]T,而当前帧本身也会观测到三维点P,使得观测点为p2=[u2,v2]T,两个特征点之间存在误差e=p2-p′2;位姿估计采用的计算公式为:
d2u2=Kexp(ξ^)P
其中d2表示空间点P在当前帧所在相机坐标系的深度;K表示相机内参数,exp(ξ^)表示相机从前一帧到当前帧的姿态变换矩阵,ξ表示姿态变换矩阵对应的李代数;
然而现实情况中重投影通常与真实值存在一定的误差,误差定义为:
Figure BDA0002654792910000031
由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么构造出求解相机位姿的最小二乘问题如下:
Figure BDA0002654792910000032
对该函数进行求解,得到前一帧到当前帧的姿态变换矩阵。
有益效果
本发明针对在动态环境下视觉机器人的位姿估计鲁棒性不高的问题,提出的一种基于SVM分类器的移动机器人位姿估计方法。通过支持向量机SVM对计算得到的位姿矩阵的预测,判定当前帧中是否存在动态物体与当前帧的特征点是否在动态物体中。该方法具有以下优点:数据分类正确率高,能有效提高机器人本身的位姿估计精度,减少动态物体影响,提高SLAM鲁棒性。
附图说明
图1为支持向量机的数据训练过程;
图2为位姿估计算法通过计算特征点变化的示意图;
图3为机器人通过SVM对位姿计算结果进行筛选的原理图。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明提供了一种动态环境下基于SVM的机器人位姿估计方法,针对样本容量为S的数据,每组具有9个参数,分别为前一帧四个特征点的三维点投影到该图像上的二维坐标,记为N1,N2,N3,N4;而该图像中观测到的这四个三维点的二维像素坐标,记为M1,M2,M3,M4,以及由位姿估计算法生成的位姿信息H。该数据分为两类,第一类样本记为S11,S12,S13,S14……,第二类样本记为S21,S22,S23,S24……。采用特定的SVM模型优化位姿估计的方法具体步骤如下:
步骤1:对支持向量机模型设定参数。主要是对惩罚系数C与核函数参数G进行优化,选取最好的参数,C越小,拟合程度越低,C过大容易造成过拟合。由于位姿估计算法本质上是一个对二维特征点最小化误差的求解过程,在此过程中有样本会带有线性不可分的性质。在这里选择RBF核函数(高斯核函数),原因是RBF参数较少,可以降低模型的复杂程度;在计算过程中,高斯核不存在无穷大与奇异值的问题,对于此核函数还需要选择合适的参数G,G越小,支持向量越多。
步骤2:对数据进行预处理,其中输入的训练样本分为两类:S1与S2,对SVM网络进行训练;
步骤3:求解两幅图像之间的位姿估计。设前一帧的特征点在图像中的二维坐标为p1=[u1,v1]T,产生的三维点为P,该点投影到当前帧的二维像素坐标为p′2=[u′2,v′2]T,而当前帧本身也会观测到三维点P,使得观测点为p2=[u2,v2]T,两个特征点之间存在误差e=p2-p′2。理想的重投影公式为:
d2u2=Kexp(ξ^)P
其中d2表示空间点P在当前帧所在相机坐标系的深度。K表示相机内参数,exp(ξ^)表示相机从前一帧到当前帧的姿态变换矩阵,ξ表示姿态变换矩阵对应的李代数。
然而现实情况中重投影通常与真实值存在一定的误差,误差可以定义为:
Figure BDA0002654792910000041
由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么可以构造出求解相机位姿的最小二乘问题如下:
Figure BDA0002654792910000051
对该函数进行求解,得到前一帧到当前帧的姿态变换矩阵。
步骤4:将训练好的SVM分类器加入机器人位姿优化环节,将四个特征点的投影点与观测点输入SVM中,开始预测。
步骤5:SVM分类器预测出的结果若为第二类,则说明前一帧中存在动态物体,此时需要更换前一帧中的四个特征点,若选取的特征点数目超过60%仍无法预测出第一类结果,说明前一帧中大部分特征点由动态物体产生,舍弃前一帧,选择参考帧作为前一帧来计算位姿矩阵。
步骤S6:重复步骤3~步骤5,得到最后时刻的位姿估计状态量,即移动机器人的位姿信息,实现移动机器人对自身的定位。

Claims (3)

1.一种基于SVM分类器的移动机器人位姿估计方法,其特征在于步骤如下:
步骤1:针对样本容量为S的数据,分别在静态与动态环境下采集它们,对数据进行预处理,其中输入的训练样本分为两类:第一类静态样本S1与第二类动态样本S2
步骤2:对支持向量机模型设定参数,设置完毕后将样本输入SVM网络进行训练;
步骤3:求解两幅图像之间的位姿估计:通过前一帧的特征点对应的3D点云,投影到当前帧,此时当前帧对应的也有一个特征点,两个特征点之间具有误差;由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么可以求解相机位姿的最小二乘问题,求解得到前一帧到当前帧的姿态变换矩阵;
步骤4:将训练好的SVM分类器加入机器人位姿优化环节,将四个特征点的投影点与观测点输入SVM中,开始预测;
步骤5:SVM分类器预测出的结果若为第二类,则说明前一帧中存在动态物体,此时需要更换前一帧中的四个特征点;若选取的特征点数目超过60%仍无法预测出第一类结果,说明前一帧中大部分特征点由动态物体产生,舍弃前一帧,选择参考帧作为前一帧来计算位姿矩阵;
步骤6:重复步骤3~步骤5,得到最后时刻的位姿估计状态量,即移动机器人的位姿信息,实现移动机器人对自身的定位。
2.根据权利要求1所述的一种基于SVM分类器的移动机器人位姿估计方法,其特征在于在步骤S1中,采集的样本中每组具有9个参数,分别为前一帧四个特征点的三维点投影到该图像上的二维坐标,记为N1,N2,N3,N4;而该图像中观测到的这四个三维点的二维像素坐标,记为M1,M2,M3,M4,以及由位姿估计算法生成的位姿信息H;该数据分为两类,第一类样本记为S11,S12,S13,S14……,第二类样本记为S21,S22,S23,S24
3.根据权利要求1所述的一种基于SVM分类器的移动机器人位姿估计方法,其特征在于在步骤S3中,具体的位姿估计方法为:设前一帧的特征点在图像中的二维坐标为p1=[u1,v1]T,产生的三维点为P,该点投影到当前帧的二维像素坐标为p′2=[u′2,v′2]T,而当前帧本身也会观测到三维点P,使得观测点为p2=[u2,v2]T,两个特征点之间存在误差e=p2-p′2;位姿估计采用的计算公式为:
d2u2=Kexp(ξ)P
其中d2表示空间点P在当前帧所在相机坐标系的深度;K表示相机内参数,exp(ξ^)表示相机从前一帧到当前帧的姿态变换矩阵,ξ表示姿态变换矩阵对应的李代数;
然而现实情况中重投影通常与真实值存在一定的误差,误差定义为:
Figure FDA0002654792900000021
由于每一帧观测到的特征点通常不止一个,假设有N个特征点,那么构造出求解相机位姿的最小二乘问题如下:
Figure FDA0002654792900000022
对该函数进行求解,得到前一帧到当前帧的姿态变换矩阵。
CN202010883282.XA 2020-08-28 2020-08-28 基于svm分类器的移动机器人位姿估计方法 Active CN112101145B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010883282.XA CN112101145B (zh) 2020-08-28 2020-08-28 基于svm分类器的移动机器人位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010883282.XA CN112101145B (zh) 2020-08-28 2020-08-28 基于svm分类器的移动机器人位姿估计方法

Publications (2)

Publication Number Publication Date
CN112101145A true CN112101145A (zh) 2020-12-18
CN112101145B CN112101145B (zh) 2022-05-17

Family

ID=73758141

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010883282.XA Active CN112101145B (zh) 2020-08-28 2020-08-28 基于svm分类器的移动机器人位姿估计方法

Country Status (1)

Country Link
CN (1) CN112101145B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907610A (zh) * 2021-03-25 2021-06-04 东南大学 一种基于LeGO-LOAM的分步式帧间位姿估计算法
CN117351306A (zh) * 2023-12-04 2024-01-05 齐鲁空天信息研究院 三维点云投影位姿求解器训练方法、确定方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984315A (zh) * 2014-05-15 2014-08-13 成都百威讯科技有限责任公司 一种家用多功能智能机器人
CN109048924A (zh) * 2018-10-22 2018-12-21 深圳控石智能系统有限公司 一种基于机器学习的智能机器人柔性作业装置及其方法
CN109345588A (zh) * 2018-09-20 2019-02-15 浙江工业大学 一种基于Tag的六自由度姿态估计方法
CN110222581A (zh) * 2019-05-13 2019-09-10 电子科技大学 一种基于双目相机的四旋翼无人机视觉目标跟踪方法
CN110533722A (zh) * 2019-08-30 2019-12-03 的卢技术有限公司 一种基于视觉词典的机器人快速重定位方法及系统
CN110706248A (zh) * 2019-08-20 2020-01-17 广东工业大学 一种基于slam的视觉感知建图算法及移动机器人
US20200111222A1 (en) * 2018-10-08 2020-04-09 Ulc Robotics, Inc. System and method for data acquisition
CN111310566A (zh) * 2020-01-16 2020-06-19 国网山西省电力公司电力科学研究院 一种静动态多特征融合的山火检测方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984315A (zh) * 2014-05-15 2014-08-13 成都百威讯科技有限责任公司 一种家用多功能智能机器人
CN109345588A (zh) * 2018-09-20 2019-02-15 浙江工业大学 一种基于Tag的六自由度姿态估计方法
US20200111222A1 (en) * 2018-10-08 2020-04-09 Ulc Robotics, Inc. System and method for data acquisition
CN109048924A (zh) * 2018-10-22 2018-12-21 深圳控石智能系统有限公司 一种基于机器学习的智能机器人柔性作业装置及其方法
CN110222581A (zh) * 2019-05-13 2019-09-10 电子科技大学 一种基于双目相机的四旋翼无人机视觉目标跟踪方法
CN110706248A (zh) * 2019-08-20 2020-01-17 广东工业大学 一种基于slam的视觉感知建图算法及移动机器人
CN110533722A (zh) * 2019-08-30 2019-12-03 的卢技术有限公司 一种基于视觉词典的机器人快速重定位方法及系统
CN111310566A (zh) * 2020-01-16 2020-06-19 国网山西省电力公司电力科学研究院 一种静动态多特征融合的山火检测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
M.W.M.G. DISSANAYAKE 等: "A Solution to the Simultaneous Localisation and Map Building (SLAM) Problem", 《IEEE TRANSACTIONS ON ROBOTICS & AUTOMATION》 *
付梦印 等: "基于RGB-D数据的实时SLAM算法", 《机器人ROBOT》 *
史晓佳 等: "KUKA工业机器人位姿测量与在线误差补偿", 《机械工程学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907610A (zh) * 2021-03-25 2021-06-04 东南大学 一种基于LeGO-LOAM的分步式帧间位姿估计算法
CN112907610B (zh) * 2021-03-25 2022-04-29 东南大学 一种基于LeGO-LOAM的分步式帧间位姿估计算法
CN117351306A (zh) * 2023-12-04 2024-01-05 齐鲁空天信息研究院 三维点云投影位姿求解器训练方法、确定方法及装置
CN117351306B (zh) * 2023-12-04 2024-03-22 齐鲁空天信息研究院 三维点云投影位姿求解器训练方法、确定方法及装置

Also Published As

Publication number Publication date
CN112101145B (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
RU2713611C2 (ru) Способ моделирования трехмерного пространства
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US20210232845A1 (en) Information processing apparatus, information processing method, and storage medium
CN111429574A (zh) 基于三维点云和视觉融合的移动机器人定位方法和系统
CN112233177B (zh) 一种无人机位姿估计方法及系统
CN112435262A (zh) 基于语义分割网络和多视图几何的动态环境信息检测方法
CN111667535B (zh) 一种针对遮挡场景下的六自由度位姿估计方法
CN104820996A (zh) 一种基于视频的自适应分块的目标跟踪方法
CN112115980A (zh) 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法
JP2022519194A (ja) 奥行き推定
JP2012128744A (ja) 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム
CN114365201A (zh) 结构注释
Michot et al. Bi-objective bundle adjustment with application to multi-sensor slam
CN112651944B (zh) 基于cad模型的3c部件高精度六维位姿估计方法及系统
CN112101145B (zh) 基于svm分类器的移动机器人位姿估计方法
US11568598B2 (en) Method and device for determining an environment map by a server using motion and orientation data
CN112083403B (zh) 用于虚拟场景的定位追踪误差校正方法及系统
JPS63213005A (ja) 移動体誘導方法
JP2006252275A (ja) カメラ運動及び物体形状の復元システム
CN114708293A (zh) 基于深度学习点线特征和imu紧耦合的机器人运动估计方法
CN113052907A (zh) 一种动态环境移动机器人的定位方法
CN112131991B (zh) 一种基于事件相机的数据关联方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant