CN112288812A - 一种基于视觉特征的移动机器人实时定位方法 - Google Patents

一种基于视觉特征的移动机器人实时定位方法 Download PDF

Info

Publication number
CN112288812A
CN112288812A CN202011195022.XA CN202011195022A CN112288812A CN 112288812 A CN112288812 A CN 112288812A CN 202011195022 A CN202011195022 A CN 202011195022A CN 112288812 A CN112288812 A CN 112288812A
Authority
CN
China
Prior art keywords
current frame
stitching
matching
image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011195022.XA
Other languages
English (en)
Inventor
王晓华
张皓诚
王文杰
张蕾
苏泽斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Polytechnic University
Original Assignee
Xian Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Polytechnic University filed Critical Xian Polytechnic University
Priority to CN202011195022.XA priority Critical patent/CN112288812A/zh
Publication of CN112288812A publication Critical patent/CN112288812A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于视觉特征的移动机器人实时定位方法,首先采集图像数据,通过融合注意力机制提取图像中几何变换信息;将提取的特征通过卷积神经网络降维后进行多任务学习;将学习后的特征数据生成数据集,通过几何信息的数据关联,生成点云的二维视觉特征;将采集到图像数据的第一帧图像设置成关键帧,然后结合得到当前帧特征信息特征匹配,通过构建多地图系统方法,不断将关键帧与当前帧进行图像缝合,将提取的特征添加到缝合窗口,实时更新匹配图中的视觉特征;将更新匹配图与当前帧的视觉特征进行匹配,利用帧间差分估计算法进行当前帧的位姿估计。本发明解决了实际环境帧间累计误差较大,导致移动机器人定位失败的问题。

Description

一种基于视觉特征的移动机器人实时定位方法
技术领域
本发明属于机器人视觉技术领域,具体涉及一种基于视觉特征的移动机器人实时定位方法。
背景技术
随着各个行业智能自动化要求不断提高,应工业、农业和军事等行业的需求,自主移动机器人的研究刻不容缓。实时定位与地图构建技术的出现很好的解决了机器人在未知环境下的定位和建图问题。因此实现对机器人实时定位的研究,可以降低机器人在实际运动过程中遇到突发问题,并且提高机器人的工作运行效率,间接推动智能化发展。
在传统的同步定位与地图构建,在行进过程中一直会累计误差,导致移动机器人定位失败。如何提高在实际运动过程实现对机器人的实时定位的方法是尤其关键的一步。
发明内容
本发明的目的是提供一种基于视觉特征的移动机器人实时定位方法,解决了实际环境帧间累计误差较大,导致移动机器人定位失败的问题。
本发明所采用的技术方案是,一种基于视觉特征的移动机器人实时定位方法,具体按照以步骤进行实施:
步骤1、采集图像数据,通过多层卷积神经网络,进行初步信息提取;
步骤2、通过融合注意力机制进一步提取图像中的几何变换信息;
步骤3、将提取的特征通过卷积神经网络降维,后连接两个单独的全连接网络进行多任务学习;
步骤4、将学习后的特征数据生成数据集,通过几何信息的数据关联,生成了点云的二维视觉特征;
步骤5、将步骤1采集到图像数据的第一帧图像设置成关键帧,然后结合步骤3和步骤4得到当前帧特征信息进行特征匹配,获得匹配图;
步骤6、通过构建多地图系统方法,不断将关键帧与当前帧进行图像缝合,将提取的特征添加到缝合窗口,可以实时更新匹配图中的视觉特征;
步骤7、将更新匹配图与当前帧的视觉特征进行匹配,并利用帧间差分估计算法进行当前帧的位姿估计,最终实现移动机器人实时定位。
本发明的特点还在于,
步骤1中初步信息提取由局部底层几何变换信息到全局高层几何变换信息的提取。
步骤1中采用移动机器人自带的RGB-D传感器进行图像数据采集。
步骤2中融合注意力机制的具体步骤为:
步骤2.1、将步骤1采集的图像数据在神经网络内部的某个特征图F∈RC×H×W作为输入;其中,H为向量矩阵,A表示行数,B表示列数;
步骤2.2、通过注意力模块先后生成一个一维的通道注意力矩阵MC∈RE×F及一个二维的空间注意力矩阵MS∈RX×Y
步骤2.3、计算出总的注意力机制特征矩阵为
Figure BDA0002753778360000021
以及
Figure BDA0002753778360000022
其中,
Figure BDA0002753778360000023
表示逐个元素相乘,F′是注意力模块内部优化的特征矩阵,F″是注意力模块优化后输出的特征矩阵。
步骤5提取关键帧前,需通过判断是否满足以下条件:当前帧与前一参考帧的旋转系数大于0.1;当前帧与前一参考帧的平移系数大于0.1;当满足上述任意一个条件或者两个条件都满足时,即认为相机位姿发生了重要改变,需添加关键帧,更新匹配图;否则,不会提取关键帧操作。
在步骤5中计算当前帧图像位姿时,提取当前帧的视觉特征,让视觉特征与匹配图中视觉特征进行匹配,并通过P3P算法进行位姿估计,然后实现机器人的实时定位。
步骤6中构建多地图系统具体步骤为:多地图系统构建包括缝合和优化两部分:
步骤6.1、当特征匹配发生在不同局部地图之间,则对图像进行缝合操作;
步骤6.2、缝合完之后进行优化,调整全局地图的内部关系。
步骤6.1中的缝合过程:是将关键帧与当前帧的视觉特征都放进缝合窗口,在地图缝合时,将两图中重复的视觉特征进行剔除;对当前帧中的每个特征在关键帧中寻找匹配特征,如果找到,则把当前帧中的特征去除,并将当前帧放入更新地图中去,同时,更新匹配图。
步骤6.2中的优化过程包括缝合优化和整体优化:首先进行缝合优化,首先将缝合窗口之外的部分进行固定,缝合后的地图追踪新来的实时当前帧;利用地图缝合减小整体的累计误差,进行整体的位姿图优化,提升窗口内外的一致性;在优化时,缝合窗口内被固定,窗口外采用融合匹配图进行优化,回环矫正从缝合窗口传递向整个地图,完成缝合优化。
步骤7中帧间差分估计的具体步骤如下:
步骤7.1、首先,已知一组匹配的3D点对:Q={q1,…,qn},Q′={q′1,…,q′n},通过3D到3D点对的计算求出这组点对的旋转矩阵R和平移向量t,令:
Figure BDA0002753778360000031
qi=Rq′i+t;
步骤7.2、定义第i对点的误差项ei=qi-(Rq′i+t) (1);
步骤7.3、构建一个最小二乘函数,求出误差平方和达到最小的R,t:
Figure BDA0002753778360000041
步骤7.4、定义两组点的质心
Figure BDA0002753778360000042
步骤7.5、将步骤4.3的目标优化函数化简为:
Figure BDA0002753778360000043
本发明的有益效果是:本发明的一种基于视觉特征的移动机器人实时定位方法,保持了匹配图中地图点的实时性,又能够使匹配图不至于过大而影响计算效率,解决了实际环境帧间累计误差较大,导致移动机器人定位失败的问题。依据构建多地图系统方法对处理前一帧的位姿估计与当前帧的位姿相差较大,具有明显的实时定位精度高,降低机器人在实际运动过程中遇到突发问题,并且提高机器人的工作运行效率,因此,采用鲁棒性强、精度高的实时定位方法可以更好地减小误差累计。基于视觉特征的移动机器人实时定位方法,可以提高机器人姿态计算精度,增大同步定位与地图构建算法的鲁棒性。
附图说明
图1是本发明一种基于视觉特征的移动机器人实时定位方法中匹配图;
图2是本发明一种基于视觉特征的移动机器人实时定位方法中帧间差分估计算法几何关系图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供了一种基于视觉特征的移动机器人实时定位方法,具体按照以步骤进行实施:
步骤1、采集图像数据,通过多层卷积神经网络,进行初步信息提取;
步骤1中采用移动机器人自带的RGB-D传感器进行图像数据采集,由局部底层几何变换信息到全局高层几何变换信息的提取;
步骤2、通过融合注意力机制进一步提取图像中的几何变换信息;
步骤2中融合注意力机制的具体步骤为:
步骤2.1、将步骤1采集的图像数据在神经网络内部的某个特征图F∈RC×H×W作为输入;其中,H为向量矩阵,A表示行数,B表示列数。
步骤2.2、通过注意力模块先后生成一个一维的通道注意力矩阵MC∈RE×F及一个二维的空间注意力矩阵MS∈RX×Y
步骤2.3、计算出总的注意力机制特征矩阵为
Figure BDA0002753778360000051
以及
Figure BDA0002753778360000052
其中,
Figure BDA0002753778360000053
表示逐个元素相乘,F′是注意力模块内部优化的特征矩阵,F″是注意力模块优化后输出的特征矩阵。
步骤3、将提取的特征通过卷积神经网络降维,后连接两个单独的全连接网络进行多任务学习;
步骤4、将学习后的特征数据生成数据集,通过几何信息的数据关联,生成了点云的二维视觉特征;
步骤5、将步骤1采集到图像数据的第一帧图像设置成关键帧,然后结合步骤3和步骤4得到当前帧特征信息进行特征匹配,获得匹配图,如图1所示;
由于步骤5中的匹配图包括关键帧和视觉特征,提取关键帧前,需通过判断是否满足以下条件:
1)当前帧与前一参考帧的旋转系数大于0.1;
2)当前帧与前一参考帧的平移系数大于0.1。
当满足上述任意一个条件或者两个条件都满足时,即认为相机位姿发生了重要改变,需添加关键帧,更新匹配图;否则,不会提取关键帧操作。
在步骤5中计算当前帧图像位姿时,提取当前帧的视觉特征,让视觉特征与匹配图中视觉特征进行匹配,并通过P3P算法进行位姿估计,然后实现机器人的实时定位。
步骤6、通过构建多地图系统方法,不断将关键帧与当前帧进行图像缝合,将提取的特征添加到缝合窗口,可以实时更新匹配图中的视觉特征;
步骤6中构建多地图系统具体步骤为:多地图系统构建包括缝合和优化两部分。
步骤6.1、当特征匹配发生在不同局部地图之间,则对图像进行缝合操作;将关键帧与当前帧的视觉特征都放进缝合窗口,在地图缝合时,将两图中重复的视觉特征进行剔除;对当前帧中的每个特征在关键帧中寻找匹配特征,如果找到,则把当前帧中的特征去除,并将当前帧放入更新地图中去,同时,更新匹配图。
步骤6.2、缝合完之后进行优化,调整全局地图的内部关系。
步骤6.2中的优化过程包括缝合优化和整体优化:
首先进行缝合优化,首先将缝合窗口之外的部分进行固定,缝合后的地图追踪新来的实时当前帧。
利用地图缝合减小整体的累计误差,进行整体的位姿图优化,提升窗口内外的一致性。在优化时,缝合窗口内被固定,窗口外采用融合匹配图进行优化,回环矫正从缝合窗口传递向整个地图,完成缝合优化。
步骤7、将更新匹配图与当前帧的视觉特征进行匹配,并利用帧间差分估计算法进行当前帧的位姿估计,最终实现移动机器人实时定位。
步骤7中帧间差分估计的具体步骤如下:
步骤7.1、首先,已知一组匹配的3D点对:Q={q1,…,qn},Q′={q′1,…,q′n},通过3D到3D点对的计算求出这组点对的旋转矩阵R和平移向量t,令:
Figure BDA0002753778360000071
qi=Rq′i+t;
步骤7.2、定义第i对点的误差项ei=qi-(Rq′i+t) (1);
步骤7.3、构建一个最小二乘函数,求出误差平方和达到最小的R,t:
Figure BDA0002753778360000072
步骤7.4、定义两组点的质心
Figure BDA0002753778360000073
步骤7.5、将步骤4.3的目标优化函数化简为:
Figure BDA0002753778360000074
如图2所示,帧间差分估计算法几何关系图。由图2可知,三角形之间有对应关系:ΔOlm-ΔOLM,ΔOln-ΔOLN,ΔOmn-ΔOMN,利用三角形相似性质,求解投影点l,m,n在相机坐标系下的3D坐标,最后转换成一个3D到3D对点求解问题。
本发明一种基于视觉特征的移动机器人实时定位方法的特点为,可以降低机器人在实际运动过程中遇到突发问题,并且提高机器人的实时定位的准确性,同时可以并且提高其工作运行效率。
为了克服机器人在行进过程中一直进行误差累计,提出了匹配图的方法,通过关键帧与当前帧的不断更新替换过程,提高了机器人实时定位的精确性。采用构建多地图系统,降低了机器人在实际运动过程中遇到突发问题导致丢帧从而引起定位失败的风险,并极大地减小了误差累计。

Claims (10)

1.一种基于视觉特征的移动机器人实时定位方法,其特征在于,具体按照以步骤进行实施:
步骤1、采集图像数据,通过多层卷积神经网络,进行初步信息提取;
步骤2、通过融合注意力机制进一步提取图像中的几何变换信息;
步骤3、将提取的特征通过卷积神经网络降维,后连接两个单独的全连接网络进行多任务学习;
步骤4、将学习后的特征数据生成数据集,通过几何信息的数据关联,生成了点云的二维视觉特征;
步骤5、将步骤1采集到图像数据的第一帧图像设置成关键帧,然后结合步骤3和步骤4得到当前帧特征信息进行特征匹配,获得匹配图;
步骤6、通过构建多地图系统方法,不断将关键帧与当前帧进行图像缝合,将提取的特征添加到缝合窗口,实时更新匹配图中的视觉特征;
步骤7、将更新匹配图与当前帧的视觉特征进行匹配,并利用帧间差分估计算法进行当前帧的位姿估计,最终实现移动机器人实时定位。
2.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤1中初步信息提取由局部底层几何变换信息到全局高层几何变换信息的提取。
3.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤1中采用移动机器人自带的RGB-D传感器进行图像数据采集。
4.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤2中融合注意力机制的具体步骤为:
步骤2.1、将步骤1采集的图像数据在神经网络内部的某个特征图F∈RC×H×W作为输入;其中,H为向量矩阵,A表示行数,B表示列数;
步骤2.2、通过注意力模块先后生成一个一维的通道注意力矩阵MC∈RE×F及一个二维的空间注意力矩阵MS∈RX×Y
步骤2.3、计算出总的注意力机制特征矩阵为
Figure FDA0002753778350000021
以及
Figure FDA0002753778350000022
其中,
Figure FDA0002753778350000023
表示逐个元素相乘,F′是注意力模块内部优化的特征矩阵,F″是注意力模块优化后输出的特征矩阵。
5.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤5提取关键帧前,需通过判断是否满足以下条件:当前帧与前一参考帧的旋转系数大于0.1;当前帧与前一参考帧的平移系数大于0.1;当满足上述任意一个条件或者两个条件都满足时,即认为相机位姿发生了重要改变,需添加关键帧,更新匹配图;否则,不会提取关键帧操作。
6.根据权利要求5所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述在步骤5中计算当前帧图像位姿时,提取当前帧的视觉特征,让视觉特征与匹配图中视觉特征进行匹配,并通过P3P算法进行位姿估计,然后实现机器人的实时定位。
7.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤6中构建多地图系统具体步骤为:多地图系统构建包括缝合和优化两部分:
步骤6.1、当特征匹配发生在不同局部地图之间,则对图像进行缝合操作;
步骤6.2、缝合完之后进行优化,调整全局地图的内部关系。
8.根据权利要求7所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤6.1中的缝合过程:是将关键帧与当前帧的视觉特征都放进缝合窗口,在地图缝合时,将两图中重复的视觉特征进行剔除;对当前帧中的每个特征在关键帧中寻找匹配特征,如果找到,则把当前帧中的特征去除,并将当前帧放入更新地图中去,同时,更新匹配图。
9.根据权利要求8所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤6.2中的优化过程包括缝合优化和整体优化:首先进行缝合优化,首先将缝合窗口之外的部分进行固定,缝合后的地图追踪新来的实时当前帧;利用地图缝合减小整体的累计误差,进行整体的位姿图优化,提升窗口内外的一致性;在优化时,缝合窗口内被固定,窗口外采用融合匹配图进行优化,回环矫正从缝合窗口传递向整个地图,完成缝合优化。
10.根据权利要求1或9所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤7中帧间差分估计的具体步骤如下:
步骤7.1、首先,已知一组匹配的3D点对:Q={q1,…,qn},Q′={q′1,…,q′n},通过3D到3D点对的计算求出这组点对的旋转矩阵R和平移向量t,令:
Figure FDA0002753778350000033
qi=Rq′i+t;
步骤7.2、定义第i对点的误差项ei=qi-(Rq′i+t) (1);
步骤7.3、构建一个最小二乘函数,求出误差平方和达到最小的R,t:
Figure FDA0002753778350000031
步骤7.4、定义两组点的质心
Figure FDA0002753778350000032
步骤7.5、将步骤4.3的目标优化函数化简为:
Figure FDA0002753778350000041
CN202011195022.XA 2020-10-30 2020-10-30 一种基于视觉特征的移动机器人实时定位方法 Pending CN112288812A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011195022.XA CN112288812A (zh) 2020-10-30 2020-10-30 一种基于视觉特征的移动机器人实时定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011195022.XA CN112288812A (zh) 2020-10-30 2020-10-30 一种基于视觉特征的移动机器人实时定位方法

Publications (1)

Publication Number Publication Date
CN112288812A true CN112288812A (zh) 2021-01-29

Family

ID=74352689

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011195022.XA Pending CN112288812A (zh) 2020-10-30 2020-10-30 一种基于视觉特征的移动机器人实时定位方法

Country Status (1)

Country Link
CN (1) CN112288812A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114104006A (zh) * 2022-01-28 2022-03-01 阿里巴巴达摩院(杭州)科技有限公司 一种自动驾驶车辆实现错会车的方法及装置
CN115990887A (zh) * 2023-03-20 2023-04-21 泓浒(苏州)半导体科技有限公司 一种用于半导体晶圆输送的机械臂控制方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN110044354A (zh) * 2019-03-28 2019-07-23 东南大学 一种双目视觉室内定位与建图方法及装置
CN110533724A (zh) * 2019-09-06 2019-12-03 电子科技大学 基于深度学习和注意力机制的单目视觉里程计算方法
CN111274877A (zh) * 2020-01-09 2020-06-12 重庆邮电大学 一种基于cnn的智能草莓采摘机器人控制系统
CN111753752A (zh) * 2020-06-28 2020-10-09 重庆邮电大学 基于卷积神经网络多层特征融合的机器人闭环检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN110044354A (zh) * 2019-03-28 2019-07-23 东南大学 一种双目视觉室内定位与建图方法及装置
CN110533724A (zh) * 2019-09-06 2019-12-03 电子科技大学 基于深度学习和注意力机制的单目视觉里程计算方法
CN111274877A (zh) * 2020-01-09 2020-06-12 重庆邮电大学 一种基于cnn的智能草莓采摘机器人控制系统
CN111753752A (zh) * 2020-06-28 2020-10-09 重庆邮电大学 基于卷积神经网络多层特征融合的机器人闭环检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CARLOS CAMPOS 等: "ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM", 《ARXIV:2007.11898V1》 *
张再腾 等: "一种基于深度学习的视觉里程计算法", 《激光与光电子学进展》 *
王艳会: "基于RGB-D传感器的移动机器人的实时定位与地图创建的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114104006A (zh) * 2022-01-28 2022-03-01 阿里巴巴达摩院(杭州)科技有限公司 一种自动驾驶车辆实现错会车的方法及装置
CN115990887A (zh) * 2023-03-20 2023-04-21 泓浒(苏州)半导体科技有限公司 一种用于半导体晶圆输送的机械臂控制方法及系统

Similar Documents

Publication Publication Date Title
CN107025668B (zh) 一种基于深度相机的视觉里程计的设计方法
CN111325797B (zh) 一种基于自监督学习的位姿估计方法
CN111462210B (zh) 一种基于极线约束的单目线特征地图构建方法
CN108615246B (zh) 提高视觉里程计系统鲁棒性和降低算法计算消耗的方法
CN111899280B (zh) 采用深度学习和混合型位姿估计的单目视觉里程计方法
CN110533724B (zh) 基于深度学习和注意力机制的单目视觉里程计的计算方法
CN112308918B (zh) 一种基于位姿解耦估计的无监督单目视觉里程计方法
CN110826500B (zh) 基于运动链接空间的对抗性网络估计3d人体姿态的方法
CN112288812A (zh) 一种基于视觉特征的移动机器人实时定位方法
CN111860651B (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN113628246B (zh) 一种基于3d卷积模板更新的孪生网络目标跟踪方法
CN116030498A (zh) 面向虚拟服装走秀的三维人体姿态估计方法
CN114707611B (zh) 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备
CN113888629A (zh) 一种基于rgbd相机的快速物体三维位姿估计方法
CN111797692A (zh) 一种基于半监督学习的深度图像手势估计方法
CN111914639A (zh) 轻量级卷积时空简单循环单元模型的驾驶动作识别方法
CN116189306A (zh) 基于联合注意力机制的人体行为识别方法
CN117252928B (zh) 用于电子产品模块化智能组装的视觉图像定位系统
CN113255429B (zh) 一种视频中人体姿态估计与跟踪方法及系统
CN112509014B (zh) 金字塔遮挡检测块匹配的鲁棒插值光流计算方法
CN117011660A (zh) 一种低纹理场景下融合深度信息的点线特征slam方法
CN113192186A (zh) 基于单帧图像的3d人体姿态估计模型建立方法及其应用
CN117826795A (zh) 地下管廊巡检机器人的自主巡检方法及系统
CN112419411A (zh) 一种基于卷积神经网络和光流特征视觉里程计的实现方法
Liu et al. Joint estimation of pose, depth, and optical flow with a competition–cooperation transformer network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210129