CN112288812A - 一种基于视觉特征的移动机器人实时定位方法 - Google Patents
一种基于视觉特征的移动机器人实时定位方法 Download PDFInfo
- Publication number
- CN112288812A CN112288812A CN202011195022.XA CN202011195022A CN112288812A CN 112288812 A CN112288812 A CN 112288812A CN 202011195022 A CN202011195022 A CN 202011195022A CN 112288812 A CN112288812 A CN 112288812A
- Authority
- CN
- China
- Prior art keywords
- current frame
- stitching
- matching
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000007246 mechanism Effects 0.000 claims abstract description 10
- 230000009466 transformation Effects 0.000 claims abstract description 10
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 7
- 238000005457 optimization Methods 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 claims description 5
- 238000009958 sewing Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 1
- 238000009825 accumulation Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视觉特征的移动机器人实时定位方法,首先采集图像数据,通过融合注意力机制提取图像中几何变换信息;将提取的特征通过卷积神经网络降维后进行多任务学习;将学习后的特征数据生成数据集,通过几何信息的数据关联,生成点云的二维视觉特征;将采集到图像数据的第一帧图像设置成关键帧,然后结合得到当前帧特征信息特征匹配,通过构建多地图系统方法,不断将关键帧与当前帧进行图像缝合,将提取的特征添加到缝合窗口,实时更新匹配图中的视觉特征;将更新匹配图与当前帧的视觉特征进行匹配,利用帧间差分估计算法进行当前帧的位姿估计。本发明解决了实际环境帧间累计误差较大,导致移动机器人定位失败的问题。
Description
技术领域
本发明属于机器人视觉技术领域,具体涉及一种基于视觉特征的移动机器人实时定位方法。
背景技术
随着各个行业智能自动化要求不断提高,应工业、农业和军事等行业的需求,自主移动机器人的研究刻不容缓。实时定位与地图构建技术的出现很好的解决了机器人在未知环境下的定位和建图问题。因此实现对机器人实时定位的研究,可以降低机器人在实际运动过程中遇到突发问题,并且提高机器人的工作运行效率,间接推动智能化发展。
在传统的同步定位与地图构建,在行进过程中一直会累计误差,导致移动机器人定位失败。如何提高在实际运动过程实现对机器人的实时定位的方法是尤其关键的一步。
发明内容
本发明的目的是提供一种基于视觉特征的移动机器人实时定位方法,解决了实际环境帧间累计误差较大,导致移动机器人定位失败的问题。
本发明所采用的技术方案是,一种基于视觉特征的移动机器人实时定位方法,具体按照以步骤进行实施:
步骤1、采集图像数据,通过多层卷积神经网络,进行初步信息提取;
步骤2、通过融合注意力机制进一步提取图像中的几何变换信息;
步骤3、将提取的特征通过卷积神经网络降维,后连接两个单独的全连接网络进行多任务学习;
步骤4、将学习后的特征数据生成数据集,通过几何信息的数据关联,生成了点云的二维视觉特征;
步骤5、将步骤1采集到图像数据的第一帧图像设置成关键帧,然后结合步骤3和步骤4得到当前帧特征信息进行特征匹配,获得匹配图;
步骤6、通过构建多地图系统方法,不断将关键帧与当前帧进行图像缝合,将提取的特征添加到缝合窗口,可以实时更新匹配图中的视觉特征;
步骤7、将更新匹配图与当前帧的视觉特征进行匹配,并利用帧间差分估计算法进行当前帧的位姿估计,最终实现移动机器人实时定位。
本发明的特点还在于,
步骤1中初步信息提取由局部底层几何变换信息到全局高层几何变换信息的提取。
步骤1中采用移动机器人自带的RGB-D传感器进行图像数据采集。
步骤2中融合注意力机制的具体步骤为:
步骤2.1、将步骤1采集的图像数据在神经网络内部的某个特征图F∈RC×H×W作为输入;其中,H为向量矩阵,A表示行数,B表示列数;
步骤2.2、通过注意力模块先后生成一个一维的通道注意力矩阵MC∈RE×F及一个二维的空间注意力矩阵MS∈RX×Y;
步骤5提取关键帧前,需通过判断是否满足以下条件:当前帧与前一参考帧的旋转系数大于0.1;当前帧与前一参考帧的平移系数大于0.1;当满足上述任意一个条件或者两个条件都满足时,即认为相机位姿发生了重要改变,需添加关键帧,更新匹配图;否则,不会提取关键帧操作。
在步骤5中计算当前帧图像位姿时,提取当前帧的视觉特征,让视觉特征与匹配图中视觉特征进行匹配,并通过P3P算法进行位姿估计,然后实现机器人的实时定位。
步骤6中构建多地图系统具体步骤为:多地图系统构建包括缝合和优化两部分:
步骤6.1、当特征匹配发生在不同局部地图之间,则对图像进行缝合操作;
步骤6.2、缝合完之后进行优化,调整全局地图的内部关系。
步骤6.1中的缝合过程:是将关键帧与当前帧的视觉特征都放进缝合窗口,在地图缝合时,将两图中重复的视觉特征进行剔除;对当前帧中的每个特征在关键帧中寻找匹配特征,如果找到,则把当前帧中的特征去除,并将当前帧放入更新地图中去,同时,更新匹配图。
步骤6.2中的优化过程包括缝合优化和整体优化:首先进行缝合优化,首先将缝合窗口之外的部分进行固定,缝合后的地图追踪新来的实时当前帧;利用地图缝合减小整体的累计误差,进行整体的位姿图优化,提升窗口内外的一致性;在优化时,缝合窗口内被固定,窗口外采用融合匹配图进行优化,回环矫正从缝合窗口传递向整个地图,完成缝合优化。
步骤7中帧间差分估计的具体步骤如下:
步骤7.2、定义第i对点的误差项ei=qi-(Rq′i+t) (1);
步骤7.3、构建一个最小二乘函数,求出误差平方和达到最小的R,t:
步骤7.5、将步骤4.3的目标优化函数化简为:
本发明的有益效果是:本发明的一种基于视觉特征的移动机器人实时定位方法,保持了匹配图中地图点的实时性,又能够使匹配图不至于过大而影响计算效率,解决了实际环境帧间累计误差较大,导致移动机器人定位失败的问题。依据构建多地图系统方法对处理前一帧的位姿估计与当前帧的位姿相差较大,具有明显的实时定位精度高,降低机器人在实际运动过程中遇到突发问题,并且提高机器人的工作运行效率,因此,采用鲁棒性强、精度高的实时定位方法可以更好地减小误差累计。基于视觉特征的移动机器人实时定位方法,可以提高机器人姿态计算精度,增大同步定位与地图构建算法的鲁棒性。
附图说明
图1是本发明一种基于视觉特征的移动机器人实时定位方法中匹配图;
图2是本发明一种基于视觉特征的移动机器人实时定位方法中帧间差分估计算法几何关系图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供了一种基于视觉特征的移动机器人实时定位方法,具体按照以步骤进行实施:
步骤1、采集图像数据,通过多层卷积神经网络,进行初步信息提取;
步骤1中采用移动机器人自带的RGB-D传感器进行图像数据采集,由局部底层几何变换信息到全局高层几何变换信息的提取;
步骤2、通过融合注意力机制进一步提取图像中的几何变换信息;
步骤2中融合注意力机制的具体步骤为:
步骤2.1、将步骤1采集的图像数据在神经网络内部的某个特征图F∈RC×H×W作为输入;其中,H为向量矩阵,A表示行数,B表示列数。
步骤2.2、通过注意力模块先后生成一个一维的通道注意力矩阵MC∈RE×F及一个二维的空间注意力矩阵MS∈RX×Y。
步骤3、将提取的特征通过卷积神经网络降维,后连接两个单独的全连接网络进行多任务学习;
步骤4、将学习后的特征数据生成数据集,通过几何信息的数据关联,生成了点云的二维视觉特征;
步骤5、将步骤1采集到图像数据的第一帧图像设置成关键帧,然后结合步骤3和步骤4得到当前帧特征信息进行特征匹配,获得匹配图,如图1所示;
由于步骤5中的匹配图包括关键帧和视觉特征,提取关键帧前,需通过判断是否满足以下条件:
1)当前帧与前一参考帧的旋转系数大于0.1;
2)当前帧与前一参考帧的平移系数大于0.1。
当满足上述任意一个条件或者两个条件都满足时,即认为相机位姿发生了重要改变,需添加关键帧,更新匹配图;否则,不会提取关键帧操作。
在步骤5中计算当前帧图像位姿时,提取当前帧的视觉特征,让视觉特征与匹配图中视觉特征进行匹配,并通过P3P算法进行位姿估计,然后实现机器人的实时定位。
步骤6、通过构建多地图系统方法,不断将关键帧与当前帧进行图像缝合,将提取的特征添加到缝合窗口,可以实时更新匹配图中的视觉特征;
步骤6中构建多地图系统具体步骤为:多地图系统构建包括缝合和优化两部分。
步骤6.1、当特征匹配发生在不同局部地图之间,则对图像进行缝合操作;将关键帧与当前帧的视觉特征都放进缝合窗口,在地图缝合时,将两图中重复的视觉特征进行剔除;对当前帧中的每个特征在关键帧中寻找匹配特征,如果找到,则把当前帧中的特征去除,并将当前帧放入更新地图中去,同时,更新匹配图。
步骤6.2、缝合完之后进行优化,调整全局地图的内部关系。
步骤6.2中的优化过程包括缝合优化和整体优化:
首先进行缝合优化,首先将缝合窗口之外的部分进行固定,缝合后的地图追踪新来的实时当前帧。
利用地图缝合减小整体的累计误差,进行整体的位姿图优化,提升窗口内外的一致性。在优化时,缝合窗口内被固定,窗口外采用融合匹配图进行优化,回环矫正从缝合窗口传递向整个地图,完成缝合优化。
步骤7、将更新匹配图与当前帧的视觉特征进行匹配,并利用帧间差分估计算法进行当前帧的位姿估计,最终实现移动机器人实时定位。
步骤7中帧间差分估计的具体步骤如下:
步骤7.2、定义第i对点的误差项ei=qi-(Rq′i+t) (1);
步骤7.3、构建一个最小二乘函数,求出误差平方和达到最小的R,t:
步骤7.5、将步骤4.3的目标优化函数化简为:
如图2所示,帧间差分估计算法几何关系图。由图2可知,三角形之间有对应关系:ΔOlm-ΔOLM,ΔOln-ΔOLN,ΔOmn-ΔOMN,利用三角形相似性质,求解投影点l,m,n在相机坐标系下的3D坐标,最后转换成一个3D到3D对点求解问题。
本发明一种基于视觉特征的移动机器人实时定位方法的特点为,可以降低机器人在实际运动过程中遇到突发问题,并且提高机器人的实时定位的准确性,同时可以并且提高其工作运行效率。
为了克服机器人在行进过程中一直进行误差累计,提出了匹配图的方法,通过关键帧与当前帧的不断更新替换过程,提高了机器人实时定位的精确性。采用构建多地图系统,降低了机器人在实际运动过程中遇到突发问题导致丢帧从而引起定位失败的风险,并极大地减小了误差累计。
Claims (10)
1.一种基于视觉特征的移动机器人实时定位方法,其特征在于,具体按照以步骤进行实施:
步骤1、采集图像数据,通过多层卷积神经网络,进行初步信息提取;
步骤2、通过融合注意力机制进一步提取图像中的几何变换信息;
步骤3、将提取的特征通过卷积神经网络降维,后连接两个单独的全连接网络进行多任务学习;
步骤4、将学习后的特征数据生成数据集,通过几何信息的数据关联,生成了点云的二维视觉特征;
步骤5、将步骤1采集到图像数据的第一帧图像设置成关键帧,然后结合步骤3和步骤4得到当前帧特征信息进行特征匹配,获得匹配图;
步骤6、通过构建多地图系统方法,不断将关键帧与当前帧进行图像缝合,将提取的特征添加到缝合窗口,实时更新匹配图中的视觉特征;
步骤7、将更新匹配图与当前帧的视觉特征进行匹配,并利用帧间差分估计算法进行当前帧的位姿估计,最终实现移动机器人实时定位。
2.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤1中初步信息提取由局部底层几何变换信息到全局高层几何变换信息的提取。
3.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤1中采用移动机器人自带的RGB-D传感器进行图像数据采集。
5.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤5提取关键帧前,需通过判断是否满足以下条件:当前帧与前一参考帧的旋转系数大于0.1;当前帧与前一参考帧的平移系数大于0.1;当满足上述任意一个条件或者两个条件都满足时,即认为相机位姿发生了重要改变,需添加关键帧,更新匹配图;否则,不会提取关键帧操作。
6.根据权利要求5所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述在步骤5中计算当前帧图像位姿时,提取当前帧的视觉特征,让视觉特征与匹配图中视觉特征进行匹配,并通过P3P算法进行位姿估计,然后实现机器人的实时定位。
7.根据权利要求1所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤6中构建多地图系统具体步骤为:多地图系统构建包括缝合和优化两部分:
步骤6.1、当特征匹配发生在不同局部地图之间,则对图像进行缝合操作;
步骤6.2、缝合完之后进行优化,调整全局地图的内部关系。
8.根据权利要求7所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤6.1中的缝合过程:是将关键帧与当前帧的视觉特征都放进缝合窗口,在地图缝合时,将两图中重复的视觉特征进行剔除;对当前帧中的每个特征在关键帧中寻找匹配特征,如果找到,则把当前帧中的特征去除,并将当前帧放入更新地图中去,同时,更新匹配图。
9.根据权利要求8所述的一种基于视觉特征的移动机器人实时定位方法,其特征在于,所述步骤6.2中的优化过程包括缝合优化和整体优化:首先进行缝合优化,首先将缝合窗口之外的部分进行固定,缝合后的地图追踪新来的实时当前帧;利用地图缝合减小整体的累计误差,进行整体的位姿图优化,提升窗口内外的一致性;在优化时,缝合窗口内被固定,窗口外采用融合匹配图进行优化,回环矫正从缝合窗口传递向整个地图,完成缝合优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011195022.XA CN112288812A (zh) | 2020-10-30 | 2020-10-30 | 一种基于视觉特征的移动机器人实时定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011195022.XA CN112288812A (zh) | 2020-10-30 | 2020-10-30 | 一种基于视觉特征的移动机器人实时定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112288812A true CN112288812A (zh) | 2021-01-29 |
Family
ID=74352689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011195022.XA Pending CN112288812A (zh) | 2020-10-30 | 2020-10-30 | 一种基于视觉特征的移动机器人实时定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112288812A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114104006A (zh) * | 2022-01-28 | 2022-03-01 | 阿里巴巴达摩院(杭州)科技有限公司 | 一种自动驾驶车辆实现错会车的方法及装置 |
CN115990887A (zh) * | 2023-03-20 | 2023-04-21 | 泓浒(苏州)半导体科技有限公司 | 一种用于半导体晶圆输送的机械臂控制方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建系统 |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN110533724A (zh) * | 2019-09-06 | 2019-12-03 | 电子科技大学 | 基于深度学习和注意力机制的单目视觉里程计算方法 |
CN111274877A (zh) * | 2020-01-09 | 2020-06-12 | 重庆邮电大学 | 一种基于cnn的智能草莓采摘机器人控制系统 |
CN111753752A (zh) * | 2020-06-28 | 2020-10-09 | 重庆邮电大学 | 基于卷积神经网络多层特征融合的机器人闭环检测方法 |
-
2020
- 2020-10-30 CN CN202011195022.XA patent/CN112288812A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建系统 |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN110533724A (zh) * | 2019-09-06 | 2019-12-03 | 电子科技大学 | 基于深度学习和注意力机制的单目视觉里程计算方法 |
CN111274877A (zh) * | 2020-01-09 | 2020-06-12 | 重庆邮电大学 | 一种基于cnn的智能草莓采摘机器人控制系统 |
CN111753752A (zh) * | 2020-06-28 | 2020-10-09 | 重庆邮电大学 | 基于卷积神经网络多层特征融合的机器人闭环检测方法 |
Non-Patent Citations (3)
Title |
---|
CARLOS CAMPOS 等: "ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM", 《ARXIV:2007.11898V1》 * |
张再腾 等: "一种基于深度学习的视觉里程计算法", 《激光与光电子学进展》 * |
王艳会: "基于RGB-D传感器的移动机器人的实时定位与地图创建的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114104006A (zh) * | 2022-01-28 | 2022-03-01 | 阿里巴巴达摩院(杭州)科技有限公司 | 一种自动驾驶车辆实现错会车的方法及装置 |
CN115990887A (zh) * | 2023-03-20 | 2023-04-21 | 泓浒(苏州)半导体科技有限公司 | 一种用于半导体晶圆输送的机械臂控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107025668B (zh) | 一种基于深度相机的视觉里程计的设计方法 | |
CN111325797B (zh) | 一种基于自监督学习的位姿估计方法 | |
CN111462210B (zh) | 一种基于极线约束的单目线特征地图构建方法 | |
CN108615246B (zh) | 提高视觉里程计系统鲁棒性和降低算法计算消耗的方法 | |
CN111899280B (zh) | 采用深度学习和混合型位姿估计的单目视觉里程计方法 | |
CN110533724B (zh) | 基于深度学习和注意力机制的单目视觉里程计的计算方法 | |
CN112308918B (zh) | 一种基于位姿解耦估计的无监督单目视觉里程计方法 | |
CN110826500B (zh) | 基于运动链接空间的对抗性网络估计3d人体姿态的方法 | |
CN112288812A (zh) | 一种基于视觉特征的移动机器人实时定位方法 | |
CN111860651B (zh) | 一种基于单目视觉的移动机器人半稠密地图构建方法 | |
CN113628246B (zh) | 一种基于3d卷积模板更新的孪生网络目标跟踪方法 | |
CN116030498A (zh) | 面向虚拟服装走秀的三维人体姿态估计方法 | |
CN114707611B (zh) | 基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备 | |
CN113888629A (zh) | 一种基于rgbd相机的快速物体三维位姿估计方法 | |
CN111797692A (zh) | 一种基于半监督学习的深度图像手势估计方法 | |
CN111914639A (zh) | 轻量级卷积时空简单循环单元模型的驾驶动作识别方法 | |
CN116189306A (zh) | 基于联合注意力机制的人体行为识别方法 | |
CN117252928B (zh) | 用于电子产品模块化智能组装的视觉图像定位系统 | |
CN113255429B (zh) | 一种视频中人体姿态估计与跟踪方法及系统 | |
CN112509014B (zh) | 金字塔遮挡检测块匹配的鲁棒插值光流计算方法 | |
CN117011660A (zh) | 一种低纹理场景下融合深度信息的点线特征slam方法 | |
CN113192186A (zh) | 基于单帧图像的3d人体姿态估计模型建立方法及其应用 | |
CN117826795A (zh) | 地下管廊巡检机器人的自主巡检方法及系统 | |
CN112419411A (zh) | 一种基于卷积神经网络和光流特征视觉里程计的实现方法 | |
Liu et al. | Joint estimation of pose, depth, and optical flow with a competition–cooperation transformer network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210129 |