CN110298884B - 一种适于动态环境中单目视觉相机的位姿估计方法 - Google Patents
一种适于动态环境中单目视觉相机的位姿估计方法 Download PDFInfo
- Publication number
- CN110298884B CN110298884B CN201910444196.6A CN201910444196A CN110298884B CN 110298884 B CN110298884 B CN 110298884B CN 201910444196 A CN201910444196 A CN 201910444196A CN 110298884 B CN110298884 B CN 110298884B
- Authority
- CN
- China
- Prior art keywords
- points
- camera
- image
- dynamic
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 239000011159 matrix material Substances 0.000 claims abstract description 43
- 239000013598 vector Substances 0.000 claims abstract description 31
- 238000013519 translation Methods 0.000 claims abstract description 23
- 230000009466 transformation Effects 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims description 11
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种适于动态环境中单目视觉相机的位姿估计方法,方法包括:获取图像,对每一帧图像进行ORB特征点检测;对连续两帧图像进行特征点局部匹配;判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;对每一帧图像进行实例级分割得到物体轮廓,当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。本发明提供能够提高相机位姿的准确度,从而提高整个SLAM系统的精度。
Description
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种适于动态环境中单目视觉相机的位姿估计方法。
背景技术
随着智能信息技术和传感器技术的迅速发展,机器人等智能设备获得快速的发展并广泛应用在社会生活的各个领域。智能机器人相比传统的机器人拥有许多独特的特征,这对智能机器人也提出了更高的要求,比如智能感知、自主决策、运动控制等。机器人实现智能化要求机器人能够在复杂场景中,自主进行定位,构建周围场景的地图,感知周边场景信息,自主完成任务。同时定位与建图(Simultaneous Location and Mapping,SLAM)是计算机视觉和智能设备领域的一个基本问题,是移动机器人实现自主化的一项基本任务,而视觉里程计是SLAM任务中关键一环。
在实际的应用场景下环境中必然存在除机器人外的运动物体,因此机器人得到的视频图像序列中背景与环境中存在的运动物体的运动不一致,直接使用未经运动分割的视频图像序列会导致视觉里程计求得的相机位姿不准确,从而影响整个SLAM系统的精度。现有技术中进行相机位姿估计,Faster R-CNN测试网络结构难以达到分割目标像素,进而影响到相机位姿估计的准确性。
因此,为了解决现有技术中出现的上述问题,需要一种适于动态环境中单目视觉相机的位姿估计方法,以提高相机位姿的准确度,进而提高整个SLAM系统的精度。
发明内容
本发明的目的在于一种适于动态环境中单目视觉相机的位姿估计方法,所述方法包括:
获取图像,对每一帧图像进行ORB特征点检测;
对连续两帧图像进行特征点局部匹配;
判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;
获取图像,对每一帧图像进行实例级分割得到物体轮廓,其中,对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测;
当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;
利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。
优选地,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
优选地,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
优选地,所述约束条件包括极线约束和FVB约束。
优选地,在Faster R-CNN测试网络结构上添加完全卷积网络,作为一个分支网络。
优选地,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层进行图像还原。
优选地,按照如下方法计算相机位姿变换的基础矩阵:
把基础矩阵F的各个元素作为一个向量处理,有:
f=[f1,f2,f3,f4f5,f6,f7,f8,f9],
化为:
[u1u2,u1v2,u1,v1u2,v1v2,v1,v2,v2,1]·f=0
通过RANSAC算法循环计算得到误差最小的基础矩阵。
优选地,由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参。
优选地,任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t。
本发明提供的一种适于动态环境中单目视觉相机的位姿估计方法,能够提高相机位姿的准确度,从而提高整个SLAM系统的精度。
应当理解,前述大体的描述和后续详尽的描述均为示例性说明和解释,并不应当用作对本发明所要求保护内容的限制。
附图说明
参考随附的附图,本发明更多的目的、功能和优点将通过本发明实施方式的如下描述得以阐明,其中:
图1示意性示出了本发明一种适于动态环境中单目视觉相机的位姿估计方法的整体流程框图。
图2示出了本发明一个实施例中极线约束的示意图。
图3示出了本发明一个实施例中对每一帧图像进行实例级分割的示意图。
图4示出了本发明一个实施例中验证相机旋转矩阵R和平移向量t的示意图。
具体实施方式
通过参考示范性实施例,本发明的目的和功能以及用于实现这些目的和功能的方法将得以阐明。然而,本发明并不受限于以下所公开的示范性实施例;可以通过不同形式来对其加以实现。说明书的实质仅仅是帮助相关领域技术人员综合理解本发明的具体细节。
在下文中,将参考附图描述本发明的实施例。在附图中,相同的附图标记代表相同或类似的部件,或者相同或类似的步骤。
下面通过具体的实施例对本发明的内容给出详细的说明,如图1所示本发明一种适于动态环境中单目视觉相机的位姿估计方法的整体流程框图。根据本发明的实施例,一种适于动态环境中单目视觉相机的位姿估计方法包括如下方法步骤:
步骤S101、相机获取图像,对每一帧图像进行ORB特征点检测。
实施例中,为了检测到的特征点在全局上分布更为均匀,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
步骤S102、对连续两帧图像进行特征点局部匹配。
根据本发明,对连续两帧图像进行帧间特征点局部匹配,具体地实施例中,设第i帧图像得到的ORB特征点集合为对于第i帧图像的特征点以及其对应的ORB描述子在第i-1帧图像的对应局部区域内寻找最佳匹配的ORB特征点设第i帧图像的特征点所在局部区域为:
其中,r为局部区域半径。
匹配过程的表达式为:
根据本发明的实施例,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
具体的实施例中,设定匹配阈值dthreshold,当第i帧图像的特征点的描述子与最佳匹配的ORB特征点的描述子的汉明距离大于所述匹配阈值dthreshold时,则认为该特征点未能找到匹配点,在后续计算中抛弃。
步骤S103、判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点。
经过步骤S102局部特征点匹配后,判断特征点是否满足约束条件。根据本发明的实施例,约束条件包括极线约束和FVB约束。
极线约束条件:
如图2所示本发明一个实施例中极线约束的示意图,从像点x向相机的中心C反投影一条射线xC,则该射线必定经过对应像点的三维空间点X,但显然仅仅通过一个像点无法确定X的具体位置,因为在射线xC上的任意空间点都可以通过“小孔”映射为像点x。如果用一对匹配点,则可以确定X的位置。
设x′是三维点X的另一个像点,其对应相机的中心为C′,那么从像点也反投影一条射线x′c′,并且该射线也必定经过X,也就是说从一对相匹配的像点反投影两条射线,必定相交于空间三维点X。
由此,一对匹配的像点之间存在这某种约束关系,这种约束被称为两视图的极线约束。
本实施例中,设置满足极线约束的距离阈值为d,当特征点对应的极线约束的距离dn满足dn≤d,则认为该特征点满足极线约束条件,否则不满足。
FVB约束:
根据本发明的实施例,特征点还应当满足FVB约束。
若存在运动物体的运动与极线的方向一致,则无法通过极线约束求得特征点的动态性质,利用FVB约束判断满足极线约束的特征点是否处于运动状态。
当相机只有平移运动,水平向量为t,pn,pn+1分别为真是点X连续两帧内的像点,相机内参数矩阵为K,则:
当运动物体的位移向量与相机水平移动的水平向量t向对应,则满足极线约束,但是无法标记为动态点。
根据本发明的实施例,所述FVB约束的概率为:
当特征点的FVB约束的概率较高时,则特征点位于FVB约束边界内的概率较大。位于FVB约束边界内的特征点满足FVB约束条件,否则不满足。
根据本发明的实施例,既不满足极线约束,也不满足FVB约束的特征点标记为动态点。
步骤S104、获取图像,对每一帧进行实例级分割得到物体轮廓。
根据本发明的实施例,对每一帧图像图像进行实施例级分割,如图3所示本发明一个实施例中对每一帧图像进行实例级分割的示意图。
本发明在Faster R-CNN测试网络结构上添加完全卷积网络(Fully ConvolutionNetwor,FCN),作为一个分支网络。
根据本发明的实施例,在第一个阶段,通过Faster R-CNN测试网络结构,扫描图像并生成提议(proposals,即有可能包含一个目标的区域),
在第二阶段,通过完全卷积网络(FCN)分类提议并生成边界框和掩码。
第一阶段中,对于每个图像,Faster R-CNN测试网络结构都有两个输出,第一个分类标签,第二个候选窗口。根据本发明的实施例,对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测。在这个细粒度级别进行分类预测,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层(deconvolution)进行图像还原。
本发明通过增加一个Faster R-CNN测试网络结构的输出,实现分割目标像素,提取更精细的空间布局。本发明通过步骤S104每帧图片像素级分割,从而得到物体轮廓分割。
步骤S105、当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点。
步骤S106、利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。
根据本发明的实施例,按照如下方法计算相机位姿变换的基础矩阵:
把基础矩阵F的各个元素作为一个向量处理,有:
f=[f1,f2,f3,f4,f5,f6,f7,f8,f9],
化为:
[u1 u2,u1 v2,u1,v1 u2,v1 v2,v1,u2,v2,1]·f=0
通过RANSAC算法循环计算得到误差最小的基础矩阵。
由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参。
任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t。
如图4所示本发明一个实施例中验证相机旋转矩阵R和平移向量t的示意图,在一个实施例中,对误差最小的基础矩阵分解后得到四组对应的相机旋转矩阵R和平移向量t。第(1)组相机旋转矩阵R和平移向量t对应的像点P坐标深度不为负,将第(1)组相机旋转矩阵R和平移向量t作为相机位姿变化的旋转矩阵R与平移向量t。
本发明提供的一种适于动态环境中单目视觉相机的位姿估计方法,能够提高相机位姿的准确度,从而提高整个SLAM系统的精度。
结合这里披露的本发明的说明和实践,本发明的其他实施例对于本领域技术人员都是易于想到和理解的。说明和实施例仅被认为是示例性的,本发明的真正范围和主旨均由权利要求所限定。
Claims (5)
1.一种适于动态环境中单目视觉相机的位姿估计方法,其特征在于,所述方法包括:
获取图像,对每一帧图像进行ORB特征点检测;
对连续两帧图像进行特征点局部匹配;
判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;所述约束条件包括极线约束和FVB约束;
获取图像,对每一帧图像进行实例级分割得到物体轮廓,其中,对每个目标对象,在FasterR-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测;
当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;
利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计;
通过RANSAC算法循环计算得到误差最小的基础矩阵;
由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参,F为基础矩阵;
任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t;
对每个目标对象,在FasterR-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测,具体包括:
在Faster R-CNN测试网络结构上添加完全卷积网络,作为一个分支网络;
在第一个阶段,通过Faster R-CNN测试网络结构,扫描图像并生成提议;在第二阶段,通过完全卷积网络分类提议并生成边界框和掩码;
第一阶段中,对于每个图像,Faster R-CNN测试网络结构都有两个输出,第一个分类标签,第二个候选窗口;对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测;在这个细粒度级别进行分类预测,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层进行图像还原;从而分割目标像素。
2.根据权利要求1所述的方法,其特征在于,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
3.根据权利要求1所述的方法,其特征在于,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910444196.6A CN110298884B (zh) | 2019-05-27 | 2019-05-27 | 一种适于动态环境中单目视觉相机的位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910444196.6A CN110298884B (zh) | 2019-05-27 | 2019-05-27 | 一种适于动态环境中单目视觉相机的位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298884A CN110298884A (zh) | 2019-10-01 |
CN110298884B true CN110298884B (zh) | 2023-05-30 |
Family
ID=68027240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910444196.6A Active CN110298884B (zh) | 2019-05-27 | 2019-05-27 | 一种适于动态环境中单目视觉相机的位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298884B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110838145B (zh) * | 2019-10-09 | 2020-08-18 | 西安理工大学 | 一种室内动态场景的视觉定位与建图方法 |
CN110990563A (zh) * | 2019-11-18 | 2020-04-10 | 北京信息科技大学 | 一种基于人工智能的传统文化素材库构建方法及系统 |
CN111724439B (zh) * | 2019-11-29 | 2024-05-17 | 中国科学院上海微系统与信息技术研究所 | 一种动态场景下的视觉定位方法及装置 |
CN111160107B (zh) * | 2019-12-05 | 2023-04-18 | 东南大学 | 一种基于特征匹配的动态区域检测方法 |
CN111402336B (zh) * | 2020-03-23 | 2024-03-12 | 中国科学院自动化研究所 | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 |
CN112132893B (zh) * | 2020-08-31 | 2024-01-09 | 同济人工智能研究院(苏州)有限公司 | 一种适用于室内动态环境的视觉slam方法 |
CN114370882A (zh) * | 2020-10-14 | 2022-04-19 | 蘑菇车联信息科技有限公司 | 一种基于单目行车记录仪实现slam定位的方法及相关装置 |
CN112396634B (zh) * | 2020-11-27 | 2024-08-09 | 苏州欧菲光科技有限公司 | 运动目标检测方法、装置、车辆及存储介质 |
CN112633300B (zh) * | 2020-12-30 | 2023-06-20 | 中国人民解放军国防科技大学 | 一种多维交互的图像特征参数提取匹配方法 |
CN114066987B (zh) * | 2022-01-12 | 2022-04-26 | 深圳佑驾创新科技有限公司 | 一种相机位姿估计方法、装置、设备及存储介质 |
CN115170847B (zh) * | 2022-09-05 | 2022-12-13 | 煤炭科学研究总院有限公司 | 基于先验地图约束的煤矿井下单目视觉定位方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2840550A1 (en) * | 2013-08-19 | 2015-02-25 | Delphi Technologies, Inc. | Camera pose estimation |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9576183B2 (en) * | 2012-11-02 | 2017-02-21 | Qualcomm Incorporated | Fast initialization for monocular visual SLAM |
CN105015419B (zh) * | 2015-07-17 | 2017-09-22 | 中山大学 | 基于立体视觉定位与建图的自动泊车方法 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN107578419B (zh) * | 2017-09-13 | 2020-07-21 | 温州大学 | 一种基于一致性轮廓提取的立体图像分割方法 |
CN108615248B (zh) * | 2018-04-27 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 |
CN108898610B (zh) * | 2018-07-20 | 2020-11-20 | 电子科技大学 | 一种基于mask-RCNN的物体轮廓提取方法 |
CN109118519A (zh) * | 2018-07-26 | 2019-01-01 | 北京纵目安驰智能科技有限公司 | 基于实例分割的目标Re-ID方法、系统、终端和存储介质 |
CN109544636B (zh) * | 2018-10-10 | 2022-03-15 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
-
2019
- 2019-05-27 CN CN201910444196.6A patent/CN110298884B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2840550A1 (en) * | 2013-08-19 | 2015-02-25 | Delphi Technologies, Inc. | Camera pose estimation |
Non-Patent Citations (1)
Title |
---|
陈文.基于视觉的移动机器人同时定位与建图算法的研究.《中国优秀硕士学位论文全文数据库_信息科技辑》.2019,I140-1600. * |
Also Published As
Publication number | Publication date |
---|---|
CN110298884A (zh) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298884B (zh) | 一种适于动态环境中单目视觉相机的位姿估计方法 | |
CN111563415B (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
CN111862126B (zh) | 深度学习与几何算法结合的非合作目标相对位姿估计方法 | |
Mitrokhin et al. | EV-IMO: Motion segmentation dataset and learning pipeline for event cameras | |
CN110728200B (zh) | 一种基于深度学习的实时行人检测方法及系统 | |
CN108009543B (zh) | 一种车牌识别方法及装置 | |
CN111860695B (zh) | 一种数据融合、目标检测方法、装置及设备 | |
US10460511B2 (en) | Method and system for creating a virtual 3D model | |
CN108648194B (zh) | 基于cad模型三维目标识别分割和位姿测量方法及装置 | |
CN111563442A (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
JP7439153B2 (ja) | 全方位場所認識のためのリフトされたセマンティックグラフ埋め込み | |
CN113313732A (zh) | 一种基于自监督学习的前视场景深度估计方法 | |
CN110825101A (zh) | 一种基于深度卷积神经网络的无人机自主降落方法 | |
CN110599522B (zh) | 一种视频序列中动态目标检测剔除方法 | |
CN109712071B (zh) | 基于航迹约束的无人机图像拼接与定位方法 | |
CN111914720B (zh) | 一种输电线路绝缘子爆裂识别方法及装置 | |
CN112767486B (zh) | 基于深度卷积神经网络的单目6d姿态估计方法及装置 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN114677323A (zh) | 一种室内动态场景下基于目标检测的语义视觉slam定位方法 | |
CN112598735A (zh) | 一种融合三维模型信息的单张图像物体位姿估计方法 | |
WO2024087962A1 (zh) | 车厢姿态识别系统、方法、电子设备及存储介质 | |
CN111739029A (zh) | 基于深度学习卷积神经网络的电铲斗齿脱落检测方法 | |
CN1608380A (zh) | 估计图像序列中的主要运动的方法 | |
CN111553845A (zh) | 一种基于优化的三维重建的快速图像拼接方法 | |
CN109543634A (zh) | 定位过程中的数据处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |