CN110260866A - 一种基于视觉传感器的机器人定位与避障方法 - Google Patents
一种基于视觉传感器的机器人定位与避障方法 Download PDFInfo
- Publication number
- CN110260866A CN110260866A CN201910652734.0A CN201910652734A CN110260866A CN 110260866 A CN110260866 A CN 110260866A CN 201910652734 A CN201910652734 A CN 201910652734A CN 110260866 A CN110260866 A CN 110260866A
- Authority
- CN
- China
- Prior art keywords
- robot
- feature
- data
- motion
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004807 localization Effects 0.000 title claims abstract description 16
- 230000008447 perception Effects 0.000 claims abstract description 30
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims abstract description 7
- 230000033001 locomotion Effects 0.000 claims description 46
- 230000008569 process Effects 0.000 claims description 15
- 238000005457 optimization Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 6
- 230000004888 barrier function Effects 0.000 claims description 3
- 210000004556 brain Anatomy 0.000 claims description 3
- 238000007476 Maximum Likelihood Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 4
- 230000035508 accumulation Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Abstract
本发明公开了一种基于视觉传感器的机器人定位与避障方法,通过深度感知模组获取深度图数据,把深度图数据转换成由像素组成的矩阵;在机器人运动过程中,进行构建地图与定位操作;优化深度感知模组数据,进行图像特征提取与匹配,保留关键特征和关键帧,重定位,完成局部空间全局图,并使用Floyd算法推荐局部最优路径。本发明为机器人在室内活动定位、避障提供有效的保障,不依赖特定环境,可以应用到基于视觉传感器的各种机器人。
Description
技术领域
本发明涉及一种基于视觉传感器的机器人定位与避障方法,适用于室内智能机器人。
背景技术
第一台真正意义上的智能机器人最早在1968年由美国斯坦福研究所研发出来,并配有视觉传感器。目前室内智能机器人定位与避障研究主要有以下几种方法。
基于指定路径的机器人导航方法,通过调度系统(手动或者预设)实现避障。这种方式依赖复杂的调度系统设计,调度系统通用性并不好。并且路径是预定的,需要借助其它辅助设备和传感器实现路径的识别,依赖的硬件设施较为复杂。这样确定了其比较适用于流程化的特定场景,或者特殊任务。
基于其它智能设备的机器人,依赖GPS导航定位、GPU硬件及相关算法、单目摄像机。这种方式实施成本高,不利于机器人的小型化,且受限于传感器的工作状态。数据优化方式采用是扩展卡尔曼滤波器(EKF),且求解结果并不是最优。
发明内容
发明目的:针对现有技术中存在的问题与不足,本发明提供一种基于视觉传感器的机器人定位与避障方法,这种方法为机器人在室内活动定位、避障提供有效的保障,不依赖特定环境,可以应用到基于视觉传感器的各种机器人。
技术方案:一种基于视觉传感器的机器人定位与避障方法,通过深度感知模组获取深度图数据,把深度图数据转换成由像素组成的矩阵;在机器人运动过程中,进行构建地图与定位操作;优化深度感知模组数据,进行图像特征提取与匹配,保留关键特征和关键帧,重定位,完成局部空间全局图,并使用Floyd算法推荐局部最优路径。
构建地图与定位包括如下步骤:
步骤10,通过深度感知模组获取图像,提供深度画面以及实时的图像信息;
步骤11,根据步骤10深度感知模组,获取到深度图数;通过深度感知模组的红外激光发射器的红外结构光来测量像素距离,像素距离指每个像素点离镜头的距离,即深度;同时获取图像的像素矩阵数据;
步骤12,驱动机器人运动,并在运动过程中构建地图和定位信息;根据运动过程中的连续姿态得到机器人的运动轨迹,用于定位机器人,根据机器人的位置计算像素对应的空间点位置构建场景地图;根据计算相邻时刻的两帧图像的运动变化确定相机的姿态。
优化深度感知模组数据,保存可用的地图和位置信息,包括如下步骤:
深度感知模组在各个时刻的位置和看到的“路标”,在优化的过程用形象的运动方程和观测方程表示;
运动方程:在计算机中位置标示为一个个离散的点x1,...,xK,这里k表示运动中的时刻,k-1表示上一帧的时刻;xk是k时刻机器人所处的位置;uk是深度感知模组检测到的数据,wk为噪声数据,运动方程函数用f表示,则
Xk=f(xk-1,uk,wk)
观测方程:指机器人在xk位置上看到路标点yj,得到一个观测数据zk,j,所述路标指图像提取的特征,观测方程函数用h表示,则
zk,j=h(yj,wk,uk,j)
把所有待估计的变量放在一个“状态变量”中:
X={x1,…,xN,y1,…,yM}
其中x1……xN指位置,y1……yM指地图,X指待估值即优化后的值;优化问题可以理解为:已知输入数据u和观测数据z的条件下,计算状态x的条件概率分布:P(x|z,u);最后可以看做是根据贝叶斯法则求解x的最大似然估计,最大似然值在这里指在x位置下,最可能观测到的数据:
X*MLE=argmaxP(z|x)。
“路标”的识别,即图像特征提取与匹配,用于机器人运动中两帧图像的比对;在机器人运动过程中,所看到的每个图像要转换成机器可以识别和计算的“路标”,就需要把每帧图像转换成可识别的特征,并用特征做匹配;这里特征指图像中有代表性的点,这些点在运动过程中不会改变;采用ORB特征提取算法;相邻运动图像特征匹配采用近邻算法。
在任意场景,用户可能不仅需要机器人可以像人一样边走边在脑海中规划整个局部空间的布局以及自身在局部空间的位置,还想知道这个局部空间中哪里有什么,这就需要保留关键特征和关键帧,通过比较特征的差异,把特征相似的帧去除,把差异大的特征保存下来,剩下的帧即整个局部空间路标。
重定位的过程为:
重定位指识别曾经走过的地方,用于对运动轨迹累积误差的修正;重定位通过比对两张图像的相似性,在局部空间内,特征数量是有限,通过词袋法Bag-of-Words检测相似性,利用K-means算法组件ORB特征词典,计算最相似的特征,最相似的特征表明之前运动过程中观测到过同一个路标。
完成局部空间全局图的过程为:
在得到修正后的轨迹和位置和每个路标点所处在三维空间的位置和深度信息基础上,需要绘制全局三维地图;将深度感知模组得到物体在图像中的深度数据和三维数据构建路标三维模型。根据估算的相机位姿,将路标三维模型数据化为点云,然后进行拼接,最后得到一个由离散的点组成的点放云地图,在此基础上,使用三角网格,面片进行建图模拟空间外观;将障碍物通过体素建立占据网格地图;使用八叉树地图实现局部空间的三维地图信息和障碍物信息。
有益效果:与现有技术相比,本发明提供的基于视觉传感器的机器人定位与避障方法为机器人在室内活动定位、避障提供有效的保障,不依赖特定环境,可以应用到基于视觉传感器的各种机器人。
附图说明
图1为本发明深度感知模组的结构示意图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
基于视觉传感器的机器人定位与避障方法,包括如下步骤:
步骤1,通过深度感知模组获取图像,如图1所示,深度感知模组由红外传感器、红外传感器3、红外激光发射器2、彩色相机4、摄像头和实时处理芯片组成,深度感知模组的摄像头和芯片可以提供高分辨率和频率的深度画面,以及实时的图像信息。
步骤2,获取深度图数据;根据步骤1深度感知模组,获取到深度图数;通过红外激光发射器2的红外结构光来测量像素距离,像素距离指每个像素点离镜头的距离,即深度。通过彩色相机4的镜头把三维世界中的信息转换成了一个由像素组成的数据来源。这些图像在计算机中用数值矩阵表示,并用矩阵做后续物体的旋转和平移的计算。
步骤3,构建局部地图与定位;驱动机器人运动,并在运动过程中构建地图和定位信息。根据运动过程中的姿态(指相机的朝向)并连续起来就可以拼成运动轨迹,就可以定位机器人,根据机器人的位置计算像素对应的空间点位置就可以构建场景地图。根据计算相邻时刻的两帧图像的运动变化可以确定相机的姿态。但深度传感器获取的位置和轨迹信息会有误差,需要修正这些数据。具体实现的优化算法在步骤4至步骤8。
步骤4,深度感知模组数据优化,保存可用的地图和位置信息。使用传感器(深度感知模组)不可避免的会有误差,这些误差累积变成不可忽视的影响因素,导致机器人不能准确定位。深度感知模组在各个时刻的位置和看到的“路标”,在优化的过程用形象的运动方程和观测方程表示。
运动方程。在计算机中位置标示为一个个离散的点x1,...,xK,这里k表示运动中的时刻,k-1表示上一帧的时刻。xk是k时刻机器人所处的位置。uk是深度感知模组检测到的数据,wk为噪声数据(噪声数据是指数据中存在着错误或异常(偏离期望值)的数据,这些数据对数据的分析造成了干扰),函数用f表示。函数f表示运动方程。
Xk=f(xk-1,uk,wk)
观测方程。这里指机器人在xk位置上看到路标(图像提取的特征)点yj,得到一个观测数据zk,j,uk,j指观测噪声(错误数据),函数用h表示。函数h表示观测方程.
zk,j=h(yj,wk,uk,j)
非线性优化方法比扩展卡尔曼滤波器(EKF)求解有更好的效果。我们把所有待估计的变量放在一个“状态变量”中:
X={x1,…,xN,y1,…,yM}
其中x1……xN指位置(同运动方程x),y1……yM指地图(同轨迹方程路标y),x指待估值即优化后的值。优化问题可以理解为:已知输入数据u和观测数据z的条件下,计算状态x的条件概率分布:P(x|z,u)。最后可以看做是根据贝叶斯法则求解x的最大似然估计(Maximize Likelihood Estimation,MLE),在输入观测数据的情况下,x最有可能处于什么位置:
X*MLE=argmaxP(z|x)
步骤5,“路标”的识别,即图像特征提取与匹配,用于机器人运动中两帧图像的比对。在机器人运动过程中,所看到的每个图像要转换成机器可以识别和计算的“路标”,就需要把每帧图像转换成可识别的特征,并用特征做匹配。这里特征指图像中有代表性的点,这些点在运动过程中不会改变。由于移动机器人计算能力和空间有限,本文采用ORB(Oriented FAST and Rotated BRIEF)特征提取算法。相对于SIFT(尺度不变特征变换,Scale Invariant Feature Transform)算法计算量大大下降并保持了特征的准确性。相邻运动图像特征匹配采用近邻(FLANN)算法,相对于暴力匹配算力明显减少适合实时计算的场景。
步骤6,保留关键特征和关键帧。在任意场景,用户可能不仅需要机器人可以像人一样边走边在脑海中规划整个局部空间的布局以及自身在局部空间的位置,还想知道这个局部空间中哪里有什么,比如客厅有个大电视等等。我们把这些关键特征和对应的帧(图像保存下来),通过比较特征的差异,把特征相似的帧去除,把差异大的特征保存下来,剩下的帧即整个局部空间路标。这些信息帮助用户在后续处理诸如识别、执行特定动作等,用户可以做目标识别进而做出用户需要的反应。
步骤7,重定位,指识别曾经走过的地方。此步骤是对前面运动轨迹(机器人在运动过程中每个时刻的点构成运动轨迹,步骤3,这些运动轨迹用数学表示为运动方程)累积误差的修正。重定位通过比对两张图像的相似性。在局部空间内,特征数量是有限的即词袋里词数量是固定的。本文通过词袋法Bag-of-Words(BoW)检测相似性,利用K-means(K均值)算法组件ORB特征词典,计算最相似的特征,最相似的特征表明之前运动过程中观测到过同一个路标(机器人需要知道又走到之前的位置了,但深度感知模组(传感器)由于误差的原因存在偏差,通过重定位修复这个偏差,这里解释具体用的哪种算法实现和优化)。
步骤8,完成局部空间全局图。在前面的步骤已经得到修正后的轨迹和位置,并且知道每个路标点所处在三维空间的位置和深度信息(即物体的三维数据),需要绘制全局三维地图。将深度感知模组得到物体在图像中的深度数据和三维数据构建路标的三维模型。根据估算的相机位姿,将三维模型转化为点云(Point Cloud),即将每个三维模型放到相应的地图位置上,然后进行拼接,最后得到一个由离散的点组成的点放云地图(Point CloudMap)。在此基础上,使用三角网格(Mesh),面片(Surfel)进行建图模拟空间外观。将障碍物通过体素(Voxel)建立占据网格地图(Occupancy Map)。使用八叉树地图实现局部空间的三维地图信息和障碍物信息。
步骤9,局部最优路径推荐。根据地图数据,使用Floyd算法实现点到点的局部最优路径规划。
步骤1到步骤3,深度传感器在机器人运动过程中就已经绘制了运动轨迹和地图,但深度传感器识别存在误差。需要用步骤4到步骤8的优化算法优化修正传感器的观测数据。步骤8的结果是经过优化过的地图信息。步骤9的局部最优路径推荐类似导航地图,已经有了地图和位置了,需要从定位点到指定点,用Floyd算法(已有的算法)规划这个路径。步骤6,特征提取过程中的有用特征保存,并不对优化器作用,只是保存数据,目标检测会用到,用户可选。
Claims (7)
1.一种基于视觉传感器的机器人定位与避障方法,其特征在于:通过深度感知模组获取深度图数据,把深度图数据转换成由像素组成的矩阵;在机器人运动过程中,进行构建地图与定位操作;优化深度感知模组数据,进行图像特征提取与匹配,保留关键特征和关键帧,重定位,完成局部空间全局图,并使用Floyd算法推荐局部最优路径。
2.如权利要求1所述的基于视觉传感器的机器人定位与避障方法,其特征在于:构建地图与定位包括如下步骤:
步骤10,通过深度感知模组获取图像,提供深度画面以及实时的图像信息;
步骤11,根据步骤10深度感知模组,获取到深度图数;通过深度感知模组的红外激光发射器的红外结构光来测量像素距离,像素距离指每个像素点离镜头的距离,即深度;同时获取图像的像素矩阵数据;
步骤12,驱动机器人运动,并在运动过程中构建地图和定位信息;根据运动过程中的连续姿态得到机器人的运动轨迹,用于定位机器人,根据机器人的位置计算像素对应的空间点位置构建场景地图;根据计算相邻时刻的两帧图像的运动变化确定相机的姿态。
3.如权利要求1所述的基于视觉传感器的机器人定位与避障方法,其特征在于:优化深度感知模组数据,保存可用的地图和位置信息,包括如下步骤:
深度感知模组在各个时刻的位置和看到的“路标”,在优化的过程用形象的运动方程和观测方程表示;
运动方程:在计算机中位置标示为一个个离散的点x1,...,xK,这里k表示运动中的时刻,k-1表示上一帧的时刻;xk是k时刻机器人所处的位置;uk是深度感知模组检测到的数据,wk为噪声数据,运动方程函数用f表示,则
Xk=f(xk-1,uk,wk)
观测方程:指机器人在xk位置上看到路标点yj,得到一个观测数据zk,j,所述路标指图像提取的特征,观测方程函数用h表示,则
zk,j=h(yj,wk,uk,j)
把所有待估计的变量放在一个“状态变量”中:
X={x1,…,xN,y1,…,yM}
其中x1……xN指位置,y1……yM指地图,X指待估值即优化后的值;优化问题可以理解为:已知输入数据u和观测数据z的条件下,计算状态x的条件概率分布:P(x|z,u);最后可以看做是根据贝叶斯法则求解x的最大似然估计,最大似然值在这里指在x位置下,最可能观测到的数据:
X*MLE=argmaxP(z|x)。
4.如权利要求1所述的基于视觉传感器的机器人定位与避障方法,其特征在于:“路标”的识别,即图像特征提取与匹配,用于机器人运动中两帧图像的比对;在机器人运动过程中,所看到的每个图像要转换成机器可以识别和计算的“路标”,就需要把每帧图像转换成可识别的特征,并用特征做匹配;这里特征指图像中有代表性的点,这些点在运动过程中不会改变;采用ORB特征提取算法;相邻运动图像特征匹配采用近邻算法。
5.如权利要求1所述的基于视觉传感器的机器人定位与避障方法,其特征在于:在任意场景,用户可能不仅需要机器人可以像人一样边走边在脑海中规划整个局部空间的布局以及自身在局部空间的位置,还想知道这个局部空间中哪里有什么,这就需要保留关键特征和关键帧,通过比较特征的差异,把特征相似的帧去除,把差异大的特征保存下来,剩下的帧即整个局部空间路标。
6.如权利要求1所述的基于视觉传感器的机器人定位与避障方法,其特征在于:重定位的过程为:
重定位指识别曾经走过的地方,用于对运动轨迹累积误差的修正;重定位通过比对两张图像的相似性,在局部空间内,特征数量是有限,通过词袋法Bag-of-Words检测相似性,利用K-means算法组件ORB特征词典,计算最相似的特征,最相似的特征表明之前运动过程中观测到过同一个路标。
7.如权利要求1所述的基于视觉传感器的机器人定位与避障方法,其特征在于:完成局部空间全局图的过程为:
在得到修正后的轨迹和位置和每个路标点所处在三维空间的位置和深度信息基础上,需要绘制全局三维地图;将深度感知模组得到物体在图像中的深度数据和三维数据构建路标三维模型,根据估算的相机位姿,将路标三维模型数据转化为点云,然后进行拼接,最后得到一个由离散的点组成的点放云地图,在此基础上,使用三角网格,面片进行建图模拟空间外观;将障碍物通过体素建立占据网格地图;使用八叉树地图实现局部空间的三维地图信息和障碍物信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910652734.0A CN110260866A (zh) | 2019-07-19 | 2019-07-19 | 一种基于视觉传感器的机器人定位与避障方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910652734.0A CN110260866A (zh) | 2019-07-19 | 2019-07-19 | 一种基于视觉传感器的机器人定位与避障方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110260866A true CN110260866A (zh) | 2019-09-20 |
Family
ID=67927161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910652734.0A Pending CN110260866A (zh) | 2019-07-19 | 2019-07-19 | 一种基于视觉传感器的机器人定位与避障方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110260866A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675457A (zh) * | 2019-09-27 | 2020-01-10 | Oppo广东移动通信有限公司 | 定位方法及装置、设备、存储介质 |
CN111583316A (zh) * | 2020-04-28 | 2020-08-25 | 清华大学 | 一种视觉自主定位系统实现方法 |
CN112017237A (zh) * | 2020-08-31 | 2020-12-01 | 北京轩宇智能科技有限公司 | 一种基于视场拼接和三维重建的操作辅助装置及方法 |
CN112868225A (zh) * | 2017-07-27 | 2021-05-28 | 阿里·埃布拉希米·阿夫鲁兹 | 结合数据以构建平面图的方法和装置 |
CN113375664A (zh) * | 2021-06-09 | 2021-09-10 | 成都信息工程大学 | 基于点云地图动态加载的自主移动装置定位方法 |
WO2022036792A1 (zh) * | 2020-08-21 | 2022-02-24 | 苏州三六零机器人科技有限公司 | 多数据源的slam方法、设备及计算机可读存储介质 |
CN114872054A (zh) * | 2022-07-11 | 2022-08-09 | 深圳市麦瑞包装制品有限公司 | 一种包装容器工业制造用机器手定位方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
CN105843223A (zh) * | 2016-03-23 | 2016-08-10 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
CN108242079A (zh) * | 2017-12-30 | 2018-07-03 | 北京工业大学 | 一种基于多特征视觉里程计和图优化模型的vslam方法 |
CN109579852A (zh) * | 2019-01-22 | 2019-04-05 | 杭州蓝芯科技有限公司 | 基于深度相机的机器人自主定位方法及装置 |
WO2019080229A1 (zh) * | 2017-10-25 | 2019-05-02 | 南京阿凡达机器人科技有限公司 | 基于机器视觉的棋子定位方法、系统、存储介质及机器人 |
-
2019
- 2019-07-19 CN CN201910652734.0A patent/CN110260866A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
CN105843223A (zh) * | 2016-03-23 | 2016-08-10 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
WO2019080229A1 (zh) * | 2017-10-25 | 2019-05-02 | 南京阿凡达机器人科技有限公司 | 基于机器视觉的棋子定位方法、系统、存储介质及机器人 |
CN108242079A (zh) * | 2017-12-30 | 2018-07-03 | 北京工业大学 | 一种基于多特征视觉里程计和图优化模型的vslam方法 |
CN109579852A (zh) * | 2019-01-22 | 2019-04-05 | 杭州蓝芯科技有限公司 | 基于深度相机的机器人自主定位方法及装置 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112868225A (zh) * | 2017-07-27 | 2021-05-28 | 阿里·埃布拉希米·阿夫鲁兹 | 结合数据以构建平面图的方法和装置 |
CN112868225B (zh) * | 2017-07-27 | 2024-03-15 | 阿里·埃布拉希米·阿夫鲁兹 | 结合数据以构建平面图的方法和装置 |
CN110675457A (zh) * | 2019-09-27 | 2020-01-10 | Oppo广东移动通信有限公司 | 定位方法及装置、设备、存储介质 |
CN110675457B (zh) * | 2019-09-27 | 2022-06-03 | Oppo广东移动通信有限公司 | 定位方法及装置、设备、存储介质 |
CN111583316A (zh) * | 2020-04-28 | 2020-08-25 | 清华大学 | 一种视觉自主定位系统实现方法 |
CN111583316B (zh) * | 2020-04-28 | 2022-08-23 | 清华大学 | 一种视觉自主定位系统实现方法 |
WO2022036792A1 (zh) * | 2020-08-21 | 2022-02-24 | 苏州三六零机器人科技有限公司 | 多数据源的slam方法、设备及计算机可读存储介质 |
CN112017237A (zh) * | 2020-08-31 | 2020-12-01 | 北京轩宇智能科技有限公司 | 一种基于视场拼接和三维重建的操作辅助装置及方法 |
CN112017237B (zh) * | 2020-08-31 | 2024-02-06 | 北京轩宇智能科技有限公司 | 一种基于视场拼接和三维重建的操作辅助装置及方法 |
CN113375664A (zh) * | 2021-06-09 | 2021-09-10 | 成都信息工程大学 | 基于点云地图动态加载的自主移动装置定位方法 |
CN113375664B (zh) * | 2021-06-09 | 2023-09-01 | 成都信息工程大学 | 基于点云地图动态加载的自主移动装置定位方法 |
CN114872054A (zh) * | 2022-07-11 | 2022-08-09 | 深圳市麦瑞包装制品有限公司 | 一种包装容器工业制造用机器手定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109211241B (zh) | 基于视觉slam的无人机自主定位方法 | |
CN109682381B (zh) | 基于全向视觉的大视场场景感知方法、系统、介质及设备 | |
CN110260866A (zh) | 一种基于视觉传感器的机器人定位与避障方法 | |
CN108051002B (zh) | 基于惯性测量辅助视觉的运输车空间定位方法及系统 | |
US11530924B2 (en) | Apparatus and method for updating high definition map for autonomous driving | |
JP6896077B2 (ja) | 車両自動パーキングシステム及び方法 | |
CN112197770B (zh) | 一种机器人的定位方法及其定位装置 | |
US11175146B2 (en) | Autonomously moving machine and method for operating an autonomously moving machine | |
WO2012043045A1 (ja) | 画像処理装置及びそれを用いた撮像装置 | |
Xiao et al. | 3D point cloud registration based on planar surfaces | |
Zhang et al. | Building a partial 3D line-based map using a monocular SLAM | |
Hertzberg et al. | Experiences in building a visual SLAM system from open source components | |
CN111812978B (zh) | 一种多无人机协作slam方法与系统 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN115900710A (zh) | 基于视觉信息的动态环境导航方法 | |
Ge et al. | Vipose: Real-time visual-inertial 6d object pose tracking | |
Zhou et al. | Information-efficient 3-D visual SLAM for unstructured domains | |
Giordano et al. | 3D structure identification from image moments | |
Shoukat et al. | Cognitive robotics: Deep learning approaches for trajectory and motion control in complex environment | |
Delibasis et al. | Real time indoor robot localization using a stationary fisheye camera | |
Aggarwal | Machine vision based SelfPosition estimation of mobile robots | |
WO2021210492A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Hernández et al. | Visual SLAM with oriented landmarks and partial odometry | |
Li-Chee-Ming et al. | Augmenting visp’s 3d model-based tracker with rgb-d slam for 3d pose estimation in indoor environments | |
Klaser et al. | Vision-based autonomous navigation with a probabilistic occupancy map on unstructured scenarios |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220117 Address after: 102200 room 652, unit 6, floor 5, building 20, Jiayun Park, Dongxiaokou Town, Changping District, Beijing Applicant after: Li Shoubin Address before: 215334 room 605, science and Technology Plaza building, Qianjin East Road, Kunshan Development Zone, Suzhou, Jiangsu Province Applicant before: Lightning (Kunshan) Intelligent Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190920 |
|
RJ01 | Rejection of invention patent application after publication |