CN110298884B - 一种适于动态环境中单目视觉相机的位姿估计方法 - Google Patents

一种适于动态环境中单目视觉相机的位姿估计方法 Download PDF

Info

Publication number
CN110298884B
CN110298884B CN201910444196.6A CN201910444196A CN110298884B CN 110298884 B CN110298884 B CN 110298884B CN 201910444196 A CN201910444196 A CN 201910444196A CN 110298884 B CN110298884 B CN 110298884B
Authority
CN
China
Prior art keywords
points
camera
image
dynamic
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910444196.6A
Other languages
English (en)
Other versions
CN110298884A (zh
Inventor
林孝康
罗一鸣
傅嵩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Gktsingchip Industry Technology Co ltd
Original Assignee
Chongqing Gktsingchip Industry Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Gktsingchip Industry Technology Co ltd filed Critical Chongqing Gktsingchip Industry Technology Co ltd
Priority to CN201910444196.6A priority Critical patent/CN110298884B/zh
Publication of CN110298884A publication Critical patent/CN110298884A/zh
Application granted granted Critical
Publication of CN110298884B publication Critical patent/CN110298884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种适于动态环境中单目视觉相机的位姿估计方法,方法包括:获取图像,对每一帧图像进行ORB特征点检测;对连续两帧图像进行特征点局部匹配;判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;对每一帧图像进行实例级分割得到物体轮廓,当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。本发明提供能够提高相机位姿的准确度,从而提高整个SLAM系统的精度。

Description

一种适于动态环境中单目视觉相机的位姿估计方法
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种适于动态环境中单目视觉相机的位姿估计方法。
背景技术
随着智能信息技术和传感器技术的迅速发展,机器人等智能设备获得快速的发展并广泛应用在社会生活的各个领域。智能机器人相比传统的机器人拥有许多独特的特征,这对智能机器人也提出了更高的要求,比如智能感知、自主决策、运动控制等。机器人实现智能化要求机器人能够在复杂场景中,自主进行定位,构建周围场景的地图,感知周边场景信息,自主完成任务。同时定位与建图(Simultaneous Location and Mapping,SLAM)是计算机视觉和智能设备领域的一个基本问题,是移动机器人实现自主化的一项基本任务,而视觉里程计是SLAM任务中关键一环。
在实际的应用场景下环境中必然存在除机器人外的运动物体,因此机器人得到的视频图像序列中背景与环境中存在的运动物体的运动不一致,直接使用未经运动分割的视频图像序列会导致视觉里程计求得的相机位姿不准确,从而影响整个SLAM系统的精度。现有技术中进行相机位姿估计,Faster R-CNN测试网络结构难以达到分割目标像素,进而影响到相机位姿估计的准确性。
因此,为了解决现有技术中出现的上述问题,需要一种适于动态环境中单目视觉相机的位姿估计方法,以提高相机位姿的准确度,进而提高整个SLAM系统的精度。
发明内容
本发明的目的在于一种适于动态环境中单目视觉相机的位姿估计方法,所述方法包括:
获取图像,对每一帧图像进行ORB特征点检测;
对连续两帧图像进行特征点局部匹配;
判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;
获取图像,对每一帧图像进行实例级分割得到物体轮廓,其中,对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测;
当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;
利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。
优选地,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
优选地,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
优选地,所述约束条件包括极线约束和FVB约束。
优选地,所述FVB约束的概率为:
Figure BDA0002073079420000021
其中,
Figure BDA0002073079420000022
dmax和dmin为相机成像点的最大深度与最小深度zmax和最小深度zmin对应的特征点沿极线位移距离,FV为特征点的运动矢量,β为概率下降系数。
优选地,在Faster R-CNN测试网络结构上添加完全卷积网络,作为一个分支网络。
优选地,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层进行图像还原。
优选地,按照如下方法计算相机位姿变换的基础矩阵:
设两帧图片之间一对匹配的特征点为p1=[u1,v1,1]T,p2=[u2,v2,1]T,设基础矩阵为F,
Figure BDA0002073079420000031
则有
Figure BDA0002073079420000032
把基础矩阵F的各个元素作为一个向量处理,有:
f=[f1,f2,f3,f4f5,f6,f7,f8,f9],
化为:
[u1u2,u1v2,u1,v1u2,v1v2,v1,v2,v2,1]·f=0
Figure BDA0002073079420000033
通过RANSAC算法循环计算得到误差最小的基础矩阵。
优选地,由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参。
优选地,任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t。
本发明提供的一种适于动态环境中单目视觉相机的位姿估计方法,能够提高相机位姿的准确度,从而提高整个SLAM系统的精度。
应当理解,前述大体的描述和后续详尽的描述均为示例性说明和解释,并不应当用作对本发明所要求保护内容的限制。
附图说明
参考随附的附图,本发明更多的目的、功能和优点将通过本发明实施方式的如下描述得以阐明,其中:
图1示意性示出了本发明一种适于动态环境中单目视觉相机的位姿估计方法的整体流程框图。
图2示出了本发明一个实施例中极线约束的示意图。
图3示出了本发明一个实施例中对每一帧图像进行实例级分割的示意图。
图4示出了本发明一个实施例中验证相机旋转矩阵R和平移向量t的示意图。
具体实施方式
通过参考示范性实施例,本发明的目的和功能以及用于实现这些目的和功能的方法将得以阐明。然而,本发明并不受限于以下所公开的示范性实施例;可以通过不同形式来对其加以实现。说明书的实质仅仅是帮助相关领域技术人员综合理解本发明的具体细节。
在下文中,将参考附图描述本发明的实施例。在附图中,相同的附图标记代表相同或类似的部件,或者相同或类似的步骤。
下面通过具体的实施例对本发明的内容给出详细的说明,如图1所示本发明一种适于动态环境中单目视觉相机的位姿估计方法的整体流程框图。根据本发明的实施例,一种适于动态环境中单目视觉相机的位姿估计方法包括如下方法步骤:
步骤S101、相机获取图像,对每一帧图像进行ORB特征点检测。
实施例中,为了检测到的特征点在全局上分布更为均匀,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
步骤S102、对连续两帧图像进行特征点局部匹配。
根据本发明,对连续两帧图像进行帧间特征点局部匹配,具体地实施例中,设第i帧图像得到的ORB特征点集合为
Figure BDA0002073079420000041
对于第i帧图像的特征点
Figure BDA0002073079420000042
以及其对应的ORB描述子
Figure BDA0002073079420000043
在第i-1帧图像的对应局部区域内寻找最佳匹配的ORB特征点
Figure BDA0002073079420000044
设第i帧图像的特征点
Figure BDA0002073079420000051
所在局部区域为:
Figure BDA0002073079420000052
其中,r为局部区域半径。
匹配过程的表达式为:
Figure BDA0002073079420000053
其中,
Figure BDA0002073079420000054
为第i帧图像的特征点
Figure BDA0002073079420000055
的最佳匹配的ORB特征点,dHammi ng{}为汉明距离,
Figure BDA0002073079420000056
为第i帧图像局部区域
Figure BDA0002073079420000057
内的ORB特征点集。
根据本发明的实施例,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
具体的实施例中,设定匹配阈值dthreshold,当第i帧图像的特征点
Figure BDA0002073079420000058
的描述子
Figure BDA0002073079420000059
与最佳匹配的ORB特征点
Figure BDA00020730794200000510
的描述子
Figure BDA00020730794200000511
的汉明距离大于所述匹配阈值dthreshold时,则认为该特征点
Figure BDA00020730794200000512
未能找到匹配点,在后续计算中抛弃。
步骤S103、判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点。
经过步骤S102局部特征点匹配后,判断特征点是否满足约束条件。根据本发明的实施例,约束条件包括极线约束和FVB约束。
极线约束条件:
如图2所示本发明一个实施例中极线约束的示意图,从像点x向相机的中心C反投影一条射线xC,则该射线必定经过对应像点的三维空间点X,但显然仅仅通过一个像点无法确定X的具体位置,因为在射线xC上的任意空间点都可以通过“小孔”映射为像点x。如果用一对匹配点,则可以确定X的位置。
设x′是三维点X的另一个像点,其对应相机的中心为C′,那么从像点也反投影一条射线x′c′,并且该射线也必定经过X,也就是说从一对相匹配的像点反投影两条射线,必定相交于空间三维点X。
由此,一对匹配的像点之间存在这某种约束关系,这种约束被称为两视图的极线约束。
本实施例中,设置满足极线约束的距离阈值为d,当特征点对应的极线约束的距离dn满足dn≤d,则认为该特征点满足极线约束条件,否则不满足。
FVB约束:
根据本发明的实施例,特征点还应当满足FVB约束。
若存在运动物体的运动与极线的方向一致,则无法通过极线约束求得特征点的动态性质,利用FVB约束判断满足极线约束的特征点是否处于运动状态。
当相机只有平移运动,水平向量为t,pn,pn+1分别为真是点X连续两帧内的像点,相机内参数矩阵为K,则:
Figure BDA0002073079420000061
当运动物体的位移向量与相机水平移动的水平向量t向对应,则满足极线约束,但是无法标记为动态点。
根据本发明的实施例,所述FVB约束的概率为:
Figure BDA0002073079420000062
其中,
Figure BDA0002073079420000063
dmax和dmin为相机成像点的最大深度与最小深度zmax和最小深度zmin对应的特征点沿极线位移距离,FV为特征点的运动矢量,β为概率下降系数。
当特征点的FVB约束的概率较高时,则特征点位于FVB约束边界内的概率较大。位于FVB约束边界内的特征点满足FVB约束条件,否则不满足。
根据本发明的实施例,既不满足极线约束,也不满足FVB约束的特征点标记为动态点。
步骤S104、获取图像,对每一帧进行实例级分割得到物体轮廓。
根据本发明的实施例,对每一帧图像图像进行实施例级分割,如图3所示本发明一个实施例中对每一帧图像进行实例级分割的示意图。
本发明在Faster R-CNN测试网络结构上添加完全卷积网络(Fully ConvolutionNetwor,FCN),作为一个分支网络。
根据本发明的实施例,在第一个阶段,通过Faster R-CNN测试网络结构,扫描图像并生成提议(proposals,即有可能包含一个目标的区域),
在第二阶段,通过完全卷积网络(FCN)分类提议并生成边界框和掩码。
第一阶段中,对于每个图像,Faster R-CNN测试网络结构都有两个输出,第一个分类标签,第二个候选窗口。根据本发明的实施例,对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测。在这个细粒度级别进行分类预测,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层(deconvolution)进行图像还原。
本发明通过增加一个Faster R-CNN测试网络结构的输出,实现分割目标像素,提取更精细的空间布局。本发明通过步骤S104每帧图片像素级分割,从而得到物体轮廓分割。
步骤S105、当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点。
步骤S106、利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。
根据本发明的实施例,按照如下方法计算相机位姿变换的基础矩阵:
设两帧图片之间一对匹配的特征点为p1=[u1,v1,1]T,p2=[u2,v2,1]T,设基础矩阵为F,
Figure BDA0002073079420000071
则有
Figure BDA0002073079420000072
把基础矩阵F的各个元素作为一个向量处理,有:
f=[f1,f2,f3,f4,f5,f6,f7,f8,f9],
化为:
[u1 u2,u1 v2,u1,v1 u2,v1 v2,v1,u2,v2,1]·f=0
Figure BDA0002073079420000081
通过RANSAC算法循环计算得到误差最小的基础矩阵。
由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参。
任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t。
如图4所示本发明一个实施例中验证相机旋转矩阵R和平移向量t的示意图,在一个实施例中,对误差最小的基础矩阵分解后得到四组对应的相机旋转矩阵R和平移向量t。第(1)组相机旋转矩阵R和平移向量t对应的像点P坐标深度不为负,将第(1)组相机旋转矩阵R和平移向量t作为相机位姿变化的旋转矩阵R与平移向量t。
本发明提供的一种适于动态环境中单目视觉相机的位姿估计方法,能够提高相机位姿的准确度,从而提高整个SLAM系统的精度。
结合这里披露的本发明的说明和实践,本发明的其他实施例对于本领域技术人员都是易于想到和理解的。说明和实施例仅被认为是示例性的,本发明的真正范围和主旨均由权利要求所限定。

Claims (5)

1.一种适于动态环境中单目视觉相机的位姿估计方法,其特征在于,所述方法包括:
获取图像,对每一帧图像进行ORB特征点检测;
对连续两帧图像进行特征点局部匹配;
判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;所述约束条件包括极线约束和FVB约束;
获取图像,对每一帧图像进行实例级分割得到物体轮廓,其中,对每个目标对象,在FasterR-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测;
当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;
利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计;
通过RANSAC算法循环计算得到误差最小的基础矩阵;
由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参,F为基础矩阵;
任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t;
对每个目标对象,在FasterR-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测,具体包括:
在Faster R-CNN测试网络结构上添加完全卷积网络,作为一个分支网络;
在第一个阶段,通过Faster R-CNN测试网络结构,扫描图像并生成提议;在第二阶段,通过完全卷积网络分类提议并生成边界框和掩码;
第一阶段中,对于每个图像,Faster R-CNN测试网络结构都有两个输出,第一个分类标签,第二个候选窗口;对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测;在这个细粒度级别进行分类预测,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层进行图像还原;从而分割目标像素。
2.根据权利要求1所述的方法,其特征在于,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
3.根据权利要求1所述的方法,其特征在于,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
4.根据权利要求1所述的方法,其特征在于,所述FVB约束的概率为:
Figure FDA0004064353440000021
其中,
Figure FDA0004064353440000022
dmax和dmin为相机成像点的最大深度与最小深度zmax和最小深度zmin对应的特征点沿极线位移距离,FV为特征点的运动矢量,β为概率下降系数。
5.根据权利要求1所述的方法,其特征在于,按照如下方法计算相机位姿变换的基础矩阵:
设两帧图片之间一对匹配的特征点为p1=[u1,v1,1]T,p2=[u2,v2,1]T,设基础矩阵为F,
Figure FDA0004064353440000031
则有
Figure FDA0004064353440000032
把基础矩阵F的各个元素作为一个向量处理,有:
f=[f1,f2,f3,f4,f5,f6,f7,f8,f9],
化为:
[u1u2,u1υ2,u1,υ1u2,υ1υ2,υ1,u2,υ2,1]·f=0
Figure FDA0004064353440000033
CN201910444196.6A 2019-05-27 2019-05-27 一种适于动态环境中单目视觉相机的位姿估计方法 Active CN110298884B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910444196.6A CN110298884B (zh) 2019-05-27 2019-05-27 一种适于动态环境中单目视觉相机的位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910444196.6A CN110298884B (zh) 2019-05-27 2019-05-27 一种适于动态环境中单目视觉相机的位姿估计方法

Publications (2)

Publication Number Publication Date
CN110298884A CN110298884A (zh) 2019-10-01
CN110298884B true CN110298884B (zh) 2023-05-30

Family

ID=68027240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910444196.6A Active CN110298884B (zh) 2019-05-27 2019-05-27 一种适于动态环境中单目视觉相机的位姿估计方法

Country Status (1)

Country Link
CN (1) CN110298884B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110838145B (zh) * 2019-10-09 2020-08-18 西安理工大学 一种室内动态场景的视觉定位与建图方法
CN110990563A (zh) * 2019-11-18 2020-04-10 北京信息科技大学 一种基于人工智能的传统文化素材库构建方法及系统
CN111724439B (zh) * 2019-11-29 2024-05-17 中国科学院上海微系统与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN111160107B (zh) * 2019-12-05 2023-04-18 东南大学 一种基于特征匹配的动态区域检测方法
CN111402336B (zh) * 2020-03-23 2024-03-12 中国科学院自动化研究所 基于语义slam的动态环境相机位姿估计及语义地图构建方法
CN112132893B (zh) * 2020-08-31 2024-01-09 同济人工智能研究院(苏州)有限公司 一种适用于室内动态环境的视觉slam方法
CN114370882A (zh) * 2020-10-14 2022-04-19 蘑菇车联信息科技有限公司 一种基于单目行车记录仪实现slam定位的方法及相关装置
CN112396634B (zh) * 2020-11-27 2024-08-09 苏州欧菲光科技有限公司 运动目标检测方法、装置、车辆及存储介质
CN112633300B (zh) * 2020-12-30 2023-06-20 中国人民解放军国防科技大学 一种多维交互的图像特征参数提取匹配方法
CN114066987B (zh) * 2022-01-12 2022-04-26 深圳佑驾创新科技有限公司 一种相机位姿估计方法、装置、设备及存储介质
CN115170847B (zh) * 2022-09-05 2022-12-13 煤炭科学研究总院有限公司 基于先验地图约束的煤矿井下单目视觉定位方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2840550A1 (en) * 2013-08-19 2015-02-25 Delphi Technologies, Inc. Camera pose estimation

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
CN105015419B (zh) * 2015-07-17 2017-09-22 中山大学 基于立体视觉定位与建图的自动泊车方法
CN106803275A (zh) * 2017-02-20 2017-06-06 苏州中科广视文化科技有限公司 基于相机位姿估计和空间采样的2d全景视频生成
CN107578419B (zh) * 2017-09-13 2020-07-21 温州大学 一种基于一致性轮廓提取的立体图像分割方法
CN108615248B (zh) * 2018-04-27 2022-04-05 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN108898610B (zh) * 2018-07-20 2020-11-20 电子科技大学 一种基于mask-RCNN的物体轮廓提取方法
CN109118519A (zh) * 2018-07-26 2019-01-01 北京纵目安驰智能科技有限公司 基于实例分割的目标Re-ID方法、系统、终端和存储介质
CN109544636B (zh) * 2018-10-10 2022-03-15 广州大学 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2840550A1 (en) * 2013-08-19 2015-02-25 Delphi Technologies, Inc. Camera pose estimation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈文.基于视觉的移动机器人同时定位与建图算法的研究.《中国优秀硕士学位论文全文数据库_信息科技辑》.2019,I140-1600. *

Also Published As

Publication number Publication date
CN110298884A (zh) 2019-10-01

Similar Documents

Publication Publication Date Title
CN110298884B (zh) 一种适于动态环境中单目视觉相机的位姿估计方法
CN111563415B (zh) 一种基于双目视觉的三维目标检测系统及方法
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
Mitrokhin et al. EV-IMO: Motion segmentation dataset and learning pipeline for event cameras
CN110728200B (zh) 一种基于深度学习的实时行人检测方法及系统
CN108009543B (zh) 一种车牌识别方法及装置
CN111860695B (zh) 一种数据融合、目标检测方法、装置及设备
US10460511B2 (en) Method and system for creating a virtual 3D model
CN108648194B (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN111563442A (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
JP7439153B2 (ja) 全方位場所認識のためのリフトされたセマンティックグラフ埋め込み
CN113313732A (zh) 一种基于自监督学习的前视场景深度估计方法
CN110825101A (zh) 一种基于深度卷积神经网络的无人机自主降落方法
CN110599522B (zh) 一种视频序列中动态目标检测剔除方法
CN109712071B (zh) 基于航迹约束的无人机图像拼接与定位方法
CN111914720B (zh) 一种输电线路绝缘子爆裂识别方法及装置
CN112767486B (zh) 基于深度卷积神经网络的单目6d姿态估计方法及装置
CN111768415A (zh) 一种无量化池化的图像实例分割方法
CN114677323A (zh) 一种室内动态场景下基于目标检测的语义视觉slam定位方法
CN112598735A (zh) 一种融合三维模型信息的单张图像物体位姿估计方法
WO2024087962A1 (zh) 车厢姿态识别系统、方法、电子设备及存储介质
CN111739029A (zh) 基于深度学习卷积神经网络的电铲斗齿脱落检测方法
CN1608380A (zh) 估计图像序列中的主要运动的方法
CN111553845A (zh) 一种基于优化的三维重建的快速图像拼接方法
CN109543634A (zh) 定位过程中的数据处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant