CN109544632B - 一种基于层次主题模型的语义slam对象关联方法 - Google Patents

一种基于层次主题模型的语义slam对象关联方法 Download PDF

Info

Publication number
CN109544632B
CN109544632B CN201811306327.6A CN201811306327A CN109544632B CN 109544632 B CN109544632 B CN 109544632B CN 201811306327 A CN201811306327 A CN 201811306327A CN 109544632 B CN109544632 B CN 109544632B
Authority
CN
China
Prior art keywords
camera
key frame
pose
association
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811306327.6A
Other languages
English (en)
Other versions
CN109544632A (zh
Inventor
张剑华
贵梦萍
王其超
刘儒瑜
徐浚哲
陈胜勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201811306327.6A priority Critical patent/CN109544632B/zh
Publication of CN109544632A publication Critical patent/CN109544632A/zh
Application granted granted Critical
Publication of CN109544632B publication Critical patent/CN109544632B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于层次主题模型的语义SLAM对象关联的方法,利用深度学习模型检测关键帧中的物体并预测其位姿,在处理每一帧对象时,根据视角重叠的原则利用吉布斯采样方法采样具有潜在关联对象的真实环境对象集合,为当前帧的每一个物体根据物体关联方法进行计算,根据最大后验概率判断是否关联。对物体、相机和地图点构建因子图,它们之间的观测作为边,优化物体位姿、相机位姿和地图点位置。最后构建一个完整的包含物体信息和相机轨迹的语义地图。本发明能够高精度地实现物体关联,避免了冗余的物体关联;能够促进语义SLAM的相机位姿估计,而优化后的物体位姿能够使得物体关联更准确,从而构建更精确的语义地图。

Description

一种基于层次主题模型的语义SLAM对象关联方法
技术领域
本发明涉及机器人视觉、深度学习、统计学等技术领域,具体一种基于层次主题模型的语义SLAM对象关联方法。
背景技术
Simultaneous localization and mapping(SLAM)是机器人应用中的一个重要的问题,比如自动驾驶、自主导航等领域。构建精准的环境地图是SLAM的具体表现形式,传统的SLAM技术依赖于低级的几何特征,例如点、线、面,这种技术在空旷的或者由重复纹理的环境下容易失效。而语义SLAM利用环境中的高级语义信息,可以有效的弥补传统SLAM的不足,并且能够建立可读的,更具应用价值的语义地图。
物体关联和物体位姿优化是语义SLAM中两个至关重要的组成部分。要建立精确的语义地图,准确的物体关联是前提。准确的物体关联依赖于准确的物体测量,包括物体的类别和位姿。但是实际中,随着机器人的运动,传感器捕获的信息是带有噪声的,仅依靠传感器的信息估计机器人的运动是不可靠的,所以需要多种优化算法的辅助。优化算法是设计一般是基于获取的地标信息和相机之间的几何约束创造的,最大化合理高效的利用已有测量信息是评价优化算法的主要标准。
因此,如何设计一种稳定可靠的语义SLAM中的对象关联方法以及优化方法,使得语义SLAM算法能够构建一个准确的语义地图,是实现有效的语义SLAM需要解决的问题。
发明内容
本发明的目的是为语义SLAM设计一种稳定有效的语义对象关联和优化的方法,解决语义SLAM中的基本问题从而构建准确的语义地图。
为了解决上述技术问题,本发明提供如下的技术方案:
一种基于层次主题模型的语义SLAM对象关联方法,包括以下步骤:
1)对相机进行内参标定得到相机的畸变参数和内参矩阵
Figure BDA0001853709970000021
其中,[x,y]是归一化平面点的坐标,[xdistorted,ydistorted]是畸变后的坐标,k1,k2,k3,p1,p2是畸变项;
Figure BDA0001853709970000022
P为相机内参矩阵,其中f为相机焦距,[Ox,Oy]为主光轴点;
2)利用Single Shot MultiBox Detector(SSD)和Convolutional NeuralNetwork(CNN)构建深度学习网络,训练深度学习模型,完成物体识别和物体位姿预测任务;
3)基于层次主题模型的语义SLAM是在ORB-SLAM2的基础上改进的,机器人运动过程中,相机会捕捉到一系列的图像I1:T={I1,...,IT},对于每一帧图像It,计算相机的位姿xt以及地图点的三维位置,在此过程中,相机的运动方程表示如下:
xt=f(xt-1,μt)+ωt,ωt~N(0,Rt) (3.1)
其中,μt是运动测量,在视觉SLAM中没有该测量信息,ωt是服从均值为0,方差为Rt的高斯分布的噪声,相机的观测方程表示如下:
zt=h(xt,yt)+vt,vt~N(0,Qt) (3.2)
将第一帧图像作为关键帧D0,之后的图像以前一帧关键帧为参照,将图像信息变化明显的图像帧设为新的关键帧D1,并添加到关键帧队列,以此类推,假设整个过程中共抽取了k个关键帧,即D0:k={D0,...,Dk},D表示关键帧集合;
4)对每一个关键帧Di作如下操作,0≤i≤k:
a)利用步骤2)深度学习模型识别关键帧对应的图像上的目标物体,并估计其相对于相机的位姿,则得到该帧图像的对象测量
Figure BDA0001853709970000023
其中Mi表示在该帧图像中检测到的物体个数;
b)从之前的关键帧队列中筛选与关键帧Di有视角重合的n个关键帧集合,这些关键帧的对象测量的集合记为yc={yc1,...,ycn}.对每一个出现在关键帧Di的对象,将其与yc中所有同类别的对象测量利用层次主题模型Hierarchical Dirichlet Process计算关联概率,根据概率是否大于阈值来判断两个对象是否关联;
c)对当前系统中的每一个对象,构造其与相关的关键帧还有地图点的因子图,利用基于图优化的库g2o(general Graphic Optimization)对对象位姿、相机位姿和地图点位置进行捆集调整优化;
5)如果检测到关键帧回环,进行回环矫正,并更新相关物体位姿;
6)物体关联操作执行后,实时绘制带有三维位姿物体、相机运动轨迹的地图。
本发明的技术构思为:对关键帧图像利用事先训练好的深度学习模型进行物体类别和位姿检测,获得对象测量。利用层次主题模型Hierarchical Dirichlet Process对每一个关键帧中的物体对象测量建立模型,通过吉布斯采样方法采样获得当前关键帧视角范围内出现的真实环境对象的集合。通过基于层次主题模型的物体关联方法,给关键帧中的每一个物体测量分配唯一物体索引。此外,利用因子图优化物体位姿,相机位姿,地图点的位置。最后实时绘制带有物体位姿信息的语义地图。
本发明的有益效果主要表现在:引入层次主题模型HDP,能够高精度地实现物体关联,避免了冗余的物体关联(即在视角不重合的关键帧的物体地标之间作对象关联)。通过物体关联和物体优化后得到的物体位姿,能够促进语义SLAM的相机位姿估计,而优化后的物体位姿能够使得物体关联更准确,从而构建更精确的语义地图。
附图说明
图1是层次主题模型的产生式图模型。
图2是关键帧视角重合情况的例子。
图3是基于层次主题模型的语义SLAM对象关联方法的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图3,一种基于层次主题模型的语义SLAM对象关联方法,包括如下步骤:
1)对相机进行内参标定得到相机的畸变参数和内参矩阵
Figure BDA0001853709970000041
其中,[x,y]是归一化平面点的坐标,[xdistorted,ydistorted]是畸变后的坐标,k1,k2,k3,p1,p2是畸变项;
Figure BDA0001853709970000042
P为相机内参矩阵,其中f为相机焦距,[Ox,Oy]为主光轴点;
2)利用Single Shot MultiBox Detector(SSD)和Convolutional NeuralNetwork(CNN)构建深度学习网络,训练深度学习模型,完成物体识别和物体位姿预测任务;
3)基于层次主题模型的语义SLAM是在ORB-SLAM2的基础上改进的,机器人运动过程中,相机会捕捉到一系列的图像I1:T={I1,...,IT},对于每一帧图像,利用特征匹配计算相机的位姿xt以及地图点的三维位置,在此过程中,相机的运动方程表示如下:
xt=f(xt-1,μt)+ωt,ωt~N(0,Rt) (3.1)
其中,μt是运动测量,在视觉SLAM中没有该测量信息,ωt是服从均值为0,方差为Rt的高斯分布的噪声,相机的观测方程表示如下:
zt=h(xt,yt)+vt,vt~N(0,Qt) (3.2)
将第一帧图像作为关键帧D0,之后的图像以前一帧关键帧为参照,将图像信息变化明显的图像帧设为新的关键帧D1,并添加到关键帧队列,以此类推,假设整个过程中共抽取了k个关键帧,即D0:k={D0,...,Dk},D表示关键帧集合;
4)对每一个关键帧Di作如下操作,0≤i≤k:
a)利用深度学习模型识别关键帧对应的图像上的目标物体,并估计其相对于相机的位姿,则可得到该帧图像的对象测量
Figure BDA0001853709970000051
其中Mi表示在该帧图像中检测到的物体个数,每一个对象测量
Figure BDA0001853709970000052
m∈[0,Mi]都包括物体的类别信息
Figure BDA0001853709970000053
和位姿信息
Figure BDA0001853709970000054
b)从之前的关键帧队列中筛选与关键帧Di有视角重合的n个关键帧集合,这些关键帧的对象测量的集合记为yc={yc1,...,ycn}.对每一个出现在关键帧Di的对象,将其与yc中所有同类别的对象测量利用层次主题模型Hierarchical Dirichlet Process(HDP)计算关联概率,根据概率是否大于阈值来判断两个对象是否关联;以关键帧Di为例:
关键帧Di中有k个物体测量,根据图1的层次主题HDP的图模型,关键帧Di中的任一对象地标Ldi的条件概率分布如下,
Figure BDA0001853709970000055
Figure BDA0001853709970000056
其中α,γ是超参数,H是一个随机的初始基分布,以基分布H和超参数γ构成Dirichlet过程得到分布G0,即G0~DP(γ,H),m..表示目前环境中的实际物体的数目,m.r是表示与第r个物体关联的对象测量的个数,
Figure BDA0001853709970000057
表示关键帧d中在位置t观测到的物体测量。对于关键帧Di中的每一个对象,其潜在的关联对象只会是出现在与关键帧Di视角有重合的关键帧中的真实环境中的对象,设有Mj个,Mj≤K。每一个真实环境中的对象都有其唯一的索引s,s∈(1,Mj),示意图如图2所示,黄色圆角矩形代表关键帧,菱形表示关键帧中的对象测量,圆形表示每个对象测量和真实环境中的物体(正方形表示)的对应关系,即索引。而数据关联过程就是给每个对象测量分配索引的过程,表明每一个关键帧中的观测对象是对应与真实环境中的第几个实际对象,以概率模型的形式表示物体关联就是找到真实环境中的实际对象的分布
Figure BDA0001853709970000058
则任一对象测量的物体关联的条件概率如下:
Figure BDA0001853709970000059
其中
Figure BDA0001853709970000061
表示关键帧观测到的真实环境中的实例对象,nd,k表示第d个关键帧中出现对象k的次数,nk,t表示观测地图点被指定为对象k的数目,nk表示分配到主体k的所有地图点的数目,-(d,i)表示排除掉当前第d个关键帧中的第i个地图点,V表示地图点字典的大小。
c)对当前系统中的每一个对象,构造其与相关的关键帧还有地图点为节点的因子图,通过g2o库进行对象位姿、相机位姿和地图点位置的优化。优化是基于相机和地标的测量之间的几何约束设计的,特别的是在本语义SLAM系统中,采用物体作为地标之一,物体和相机的位姿约束是语义SLAM优化的主要特点。优化公式如下:
eoc=Two-Twc*Tco (4.4)
其中,Two表示世界坐标系下物体的位姿,Twc表示世界坐标系下相机的位姿,Tco表示相机坐标系下物体的位姿。此公式表示物体测量和相机位姿测量约束的误差。相机位姿测量和地图点测量约束的误差可视为重投影误差,表示如下:
ecp=z-P(RS+t) (4.5)
其中,z表示地图点S在图像上的观测,R,t表示当前相机的运动旋转矩阵和平移向量,P为步骤1)中的相机内参矩阵;
5)如果检测到关键帧回环,进行回环矫正,并更新相关物体位姿,点的位置和相机位姿;
6)随着物体关联操作和优化操作的执行,实时更新绘制带有三维位姿的物体、相机运动轨迹的地图。

Claims (2)

1.一种基于层次主题模型的语义SLAM对象关联方法,其特征在于,所述方法包括以下步骤:
1)对相机进行内参标定得到相机的畸变参数和内参矩阵
Figure FDA0003029465690000011
其中,[x,y]是归一化平面点的坐标,[xdistorted,ydistorted]是畸变后的坐标,k1,k2,k3,p1,p2是畸变项;
Figure FDA0003029465690000012
P为相机内参矩阵,其中f为相机焦距,[Ox,Oy]为主光轴点;
2)利用SSD和CNN构建深度学习网络,训练深度学习模型,完成物体识别和物体位姿预测任务;
3)基于层次主题模型的语义SLAM是在ORB-SLAM2的基础上改进得到的,机器人运动过程中,相机会捕捉到一系列的图像I1:T={I1,…,IT},对于每一帧图像,计算相机的位姿xt以及地图点的三维位置,在此过程中,相机的运动方程表示如下:
xt=f(xt-1t)+ωtt~N(0,Rt) (3.1)
其中,μt是运动测量,ωt是服从均值为0,方差为Rt的高斯分布的噪声,相机的观测方程表示如下:
zt=h(xt,yt)+vt,vt~N(0,Qt) (3.2)
将第一帧图像作为关键帧D0,之后的图像以前一帧关键帧为参照,将图像信息变化明显的图像帧设为新的关键帧D1,并添加到关键帧队列,以此类推,假设整个过程中共抽取了k个关键帧,即D0:k={D0,…,Dk},D表示关键帧集合;
4)对每一个关键帧Di作如下操作,0≤i≤k:
a)利用深度学习模型识别关键帧对应的图像上的目标物体,并估计其相对于相机的位姿,则得到该帧图像的对象测量
Figure FDA0003029465690000013
其中Mi表示在该帧图像中检测到的物体个数;
b)从之前的关键帧队列中筛选与关键帧Di有视角重合的n个关键帧集合,这些关键帧的对象测量的集合记为yc={yc1,…,ycn}.对每一个出现在关键帧Di的对象,将其与yc中所有同类别的对象测量利用层次主题模型计算关联概率,根据概率是否大于阈值来判断两个对象是否关联;
c)对当前系统中的每一个对象,构造其与相关的关键帧还有地图点的因子图,进行对象位姿、相机位姿和地图点位置的优化;
5)如果检测到关键帧回环,进行回环矫正,并更新相关物体位姿;
6)物体关联操作执行后,实时绘制带有三维位姿物体、相机运动轨迹的地图。
2.如权利要求1所述的一种基于层次主题模型的语义SLAM对象关联方法,其特征在于,所述步骤4)中,通过深度学习预测得到的对象测量,利用层次主题模型对对象测量进行建模,建模的过程设计到吉布斯采样方法,根据构造的HDP主题模型进行对象关联计算,并基于对象关联进行相机位姿优化。
CN201811306327.6A 2018-11-05 2018-11-05 一种基于层次主题模型的语义slam对象关联方法 Active CN109544632B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811306327.6A CN109544632B (zh) 2018-11-05 2018-11-05 一种基于层次主题模型的语义slam对象关联方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811306327.6A CN109544632B (zh) 2018-11-05 2018-11-05 一种基于层次主题模型的语义slam对象关联方法

Publications (2)

Publication Number Publication Date
CN109544632A CN109544632A (zh) 2019-03-29
CN109544632B true CN109544632B (zh) 2021-08-03

Family

ID=65846454

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811306327.6A Active CN109544632B (zh) 2018-11-05 2018-11-05 一种基于层次主题模型的语义slam对象关联方法

Country Status (1)

Country Link
CN (1) CN109544632B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163902B (zh) * 2019-05-10 2021-05-04 北京航空航天大学 一种基于因子图的逆深度估计方法
US20210103608A1 (en) * 2019-10-08 2021-04-08 International Business Machines Corporation Rare topic detection using hierarchical clustering
CN113793378B (zh) * 2021-06-21 2023-08-11 紫东信息科技(苏州)有限公司 基于层次分组的语义slam对象关联和位姿更新方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570913A (zh) * 2016-11-04 2017-04-19 上海玄彩美科网络科技有限公司 基于特征的单目slam快速初始化方法
CN107300917A (zh) * 2017-05-23 2017-10-27 北京理工大学 一种基于分层架构的视觉slam后端优化方法
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN108108764A (zh) * 2017-12-26 2018-06-01 东南大学 一种基于随机森林的视觉slam回环检测方法
CN108225327A (zh) * 2017-12-31 2018-06-29 芜湖哈特机器人产业技术研究院有限公司 一种顶标地图的构建与定位方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533763B (zh) * 2015-05-14 2021-09-28 索尼公司 图像处理装置、图像处理方法及程序

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570913A (zh) * 2016-11-04 2017-04-19 上海玄彩美科网络科技有限公司 基于特征的单目slam快速初始化方法
CN107300917A (zh) * 2017-05-23 2017-10-27 北京理工大学 一种基于分层架构的视觉slam后端优化方法
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN108108764A (zh) * 2017-12-26 2018-06-01 东南大学 一种基于随机森林的视觉slam回环检测方法
CN108225327A (zh) * 2017-12-31 2018-06-29 芜湖哈特机器人产业技术研究院有限公司 一种顶标地图的构建与定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hierarchical Topic Model Based Object Association for Semantic SLAM;Jianhua Zhang et al.;《IEEE》;20191117;全文 *
融合直接法与特征法的快速双目SLAM算法;张国良 等;《机器人》;20171115;全文 *

Also Published As

Publication number Publication date
CN109544632A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
Dai et al. Rgb-d slam in dynamic environments using point correlations
CN106679648B (zh) 一种基于遗传算法的视觉惯性组合的slam方法
CN111156984B (zh) 一种面向动态场景的单目视觉惯性slam方法
CN111199564B (zh) 智能移动终端的室内定位方法、装置与电子设备
CN109522832B (zh) 基于点云片段匹配约束和轨迹漂移优化的回环检测方法
CN112734841B (zh) 一种用轮式里程计-imu和单目相机实现定位的方法
CN112815939B (zh) 移动机器人的位姿估计方法及计算机可读存储介质
CN110717927A (zh) 基于深度学习和视惯融合的室内机器人运动估计方法
Yin et al. Dynam-SLAM: An accurate, robust stereo visual-inertial SLAM method in dynamic environments
CN109544632B (zh) 一种基于层次主题模型的语义slam对象关联方法
Peretroukhin et al. Reducing drift in visual odometry by inferring sun direction using a bayesian convolutional neural network
JP2016091108A (ja) 人体部位検出システムおよび人体部位検出方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
WO2023050634A1 (zh) 定位方法及装置、设备、存储介质及计算机程序产品
Yusefi et al. LSTM and filter based comparison analysis for indoor global localization in UAVs
CN108053445A (zh) 特征融合的rgb-d相机运动估计方法
CN110838145A (zh) 一种室内动态场景的视觉定位与建图方法
CN113781563B (zh) 一种基于深度学习的移动机器人回环检测方法
US10677881B2 (en) Map assisted inertial navigation
CN112907633B (zh) 动态特征点识别方法及其应用
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN116563341A (zh) 一种处理复杂环境下动态物体的视觉定位与建图方法
TWI812053B (zh) 定位方法、電子設備及電腦可讀儲存媒體
CN115950414A (zh) 一种不同传感器数据的自适应多重融合slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant