CN110849367B - 基于融合uwb的视觉slam的室内定位与导航的方法 - Google Patents
基于融合uwb的视觉slam的室内定位与导航的方法 Download PDFInfo
- Publication number
- CN110849367B CN110849367B CN201910949680.4A CN201910949680A CN110849367B CN 110849367 B CN110849367 B CN 110849367B CN 201910949680 A CN201910949680 A CN 201910949680A CN 110849367 B CN110849367 B CN 110849367B
- Authority
- CN
- China
- Prior art keywords
- pixel
- point
- pose
- picture
- pictures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Abstract
本发明公开了一种基于融合UWB的视觉SLAM的室内定位与导航的方法。本发明包括通过传感器获取环境的图片,构建点云地图,根据相邻两帧图片中ORB特征点匹配获取相邻图片的位姿,同时利用UWB实现定位,记录传感器的位置信息,随后按照一定的路线移动传感器获取位姿,构建地图,并记录每次切换位置后的坐标,通过计算TOF算法获取的当前位置与之前位置是否重复辅助图片相似度检测进行回环检测,并且计算偏移量,将TOF算法的位置关系对于偏移量进行校正,调整机器人位姿,修正点云地图。本发明不仅在正常环境中具备良好的导航定位功能,还可在复杂的室内环境中进行精确定位,并且以较高的准确度为环境建立三维模型。
Description
技术领域
本发明涉及无载通信技术和视觉SLAM技术,尤其涉及一种基于融合UWB的视觉SLAM的室内定位与导航的方法。
背景技术
在室内场景建模领域,日益成熟的计算机视觉、数据融合、视觉导航以及三维建模等技术,为室内场景三维建模提供了理论基础与技术支持。基于视觉的三维建模技术在近些年引起了广大研究人员的关注,从大量的二维数据中,我们可以对某一场景的多视角几何[3,4,5,6]以及三维结构进行建模。目前已经成功开发出用于三维场景重现的实时系统,如利用双目相机的SLAM(Simultaneous Localization And Mapping)系统、在SLAM基础上进行跟踪的PTAM(Parallel Tracking And Mapping)系统等。随着多种传感器的陆续出现,场景建模不再传统地依靠影像来实现,而是综合利用多种传感器的优势实现场景的快速精细建模。
在视觉SLAM中我们通过利用视觉传感器获取灰度图像或者彩色图像。对于图像中的一个像素,它只能告诉我们在某个方位有障碍点、障碍点周围的表观,需要移动位姿再对它观察一次。首先需要在两幅图像中寻找点的对应,这涉及特征点的提取和匹配或准稠密点之间的匹配。计算机视觉发展到今天,其实还不存在性能和速度上很好满足视觉SLAM的特征提取和匹配算法。其次,匹配点的图像坐标与空间坐标之间的关系是非线性的。同时在效率方面,SLAM为满足人们工程上、生活上各方面的需求,需要考虑实时性,实时建立三维模型或获取机器人的位姿,若不考虑实时性,采用从运动恢复结构(structure-from-motion)效果会更好。
UWB(Ultra Wideband)是一种无载波通信技术,利用纳秒至微秒级的非正弦波窄脉冲传输数据。通过在较宽的频谱上传送极低功率的信号,UWB能在10米左右的范围内实现数百Mbit/s至数Gbit/s的数据传输速率。UWB技术具有抗干扰性能强、传输速率高、带宽极宽、消耗电能小、发送功率小等诸多优势。UWB技术最基本的工作原理是发送和接收脉冲间隔严格受控的高斯单周期超短时脉冲,超短时单周期脉冲决定了信号的带宽很宽,接收机直接用一级前端交叉相关器就把脉冲序列转换成基带信号,省去了传统通信设备中的中频级,极大地降低了设备复杂性。UWB技术可用于各个领域的室内精确定位和导航,包括人和大型物品,例如贵重物品仓储、矿井人员定位、机器人运动跟踪、汽车地库停车等,具有穿透力强、功耗低、安全性高、系统复杂度低、能提供精确定位精度等优点。
发明内容
本发明的目的是利用一种融合UWB的技术来辅助解决特征的跟踪和坐标关系之间的非线性,以实现系统更好的实时性、高效性。
本发明提出的一种基于融合UWB的视觉SLAM的室内定位与导航的方法,其过程包括以下步骤:
步骤1、以机器人的初始位置为原点,初始朝向为X坐标轴,建立world坐标系,并在房间选定三个位置设置基站。机器人携带RGB-D相机和信号发送和接受装置按照设定路线进行移动,根据相机逐帧拍摄环境的彩色图片和深度图片。在机器人拍摄图片运动的过程中,利用UWB三边定位法,根据机器人携带信号发送和接受装置到三个基站的位置关系获取、记录相机拍摄图片时在world坐标系下随时间变化的坐标。
步骤2、对于机器人携带相机的拍摄的图片进行处理,取前后两帧图片,对于获取图片通过以下步骤得到Oriented FAST关键点:
2-1.在图像中选取像素p,设像素p的亮度为Ip。
2-2.设置一个阈值T(比如Ip的20%)。
2-3.以像素p为中心,选取半径为3的圆上的16个像素点。
2-4.如果选取的圆上的16个像素点中,有连续的12个像素点的亮度大于Ip+T或小于Ip-T,那么像素p被认为是特征点。
2-5.循环步骤2-1到2-4,对每一个像素均执行相同的操作。
随后对于每个关键点,按照高斯概率分布随机选取关键点周围的128对像素点(p1,q1),比较每对像素点的像素大小进行比较,若像素p1大于像素q1,则为1,反之则为0,将128个由1、0组成的值转化为128维向量,从而得到BRIEF描述子。
Oriented FAST关键点和BRIEF描述子共同构成ORB特征点,根据暴力匹配算法对前一帧图片中的每个ORB特征点的描述子和后一帧图片的每个特征点的描述子计算描述子向量的距离,取距离最近的点为匹配的ORB特征点,得到前后两帧图片中匹配的特征点,使用对极几何算法:
步骤3、根据彩色图中每个像素所在的位置和深度图中对应彩色图每个像素的深度得到Pimg,结合投影位姿,按照投影模型;
其中,K为相机内参,由相机生产厂家标定给出;根据图像中每个像素点world坐标系中的坐标Pworld,构建点云地图,其中随着图片的不断获取,不断对点云地图进行拼接,并使用体素滤波器将点云数据体素化,去除部分因为误差过大而离群的点云,达到向下采样同时不破坏点云本身几何结构的效果。
步骤4、通过已构建的点云地图,对拍摄物体的3D点云成像效果进行判断,是否产生因位姿估计产生累积误差过大而导致3D点云成像失真的情况,若失真,等待人工校正或重置初始位置;
步骤5、根据UWB技术获取的机器人在world坐标系中随时间变化的坐标信息,从而得到机器人的运动路线。判断当前位置是否和之前路线重合,若重合,则有产生回环检测的可能性。通过检测当前帧彩色图片和之前重合路线点对应的图片进行相似度检测来进一步检测相机在前后两相同位置的朝向,若相似度大于以阈值,则为朝向一致,判断检测到回环检测,以重合路线点的之前图片对应的位姿代替当前帧的位姿,按照步骤3、4建立点云地图。同时按照步骤3获得当前帧和重合路线点的之前图片进行求取位姿变化,即累计的误差,根据求取的位姿变化和UWB技术的到的路线图,对于回环检测前每一帧的位姿进行调整和优化。
步骤6、使用全局BA对于每张图片对应的位姿进行优化,消除累计误差,重新使用优化后的位姿,按照步骤3重新建立点云地图。
步骤7、重复过程,直至定位导航结束。
本发明有益效果如下:
本发明提出了一种融合了UWB技术的SLAM技术,在回环检测部分,根据UWB技术获得的位置信息辅助图片相似度来检测回环,大幅度增加了回环检测的召回率和准确率,减少回环检测所耗费的时间,此外,由于回环检测的召回率的增高,累计误差能够快速、准确得进行消除,从而对建立的点云地图进行优化。同时,TOF算法能够对于回环检测求得的偏移量进行比较校正,进一步调整机器人位姿。
本发明不仅在正常环境中具备良好的导航定位功能,还可在复杂的室内环境中进行精确定位,并且以较高的准确度为环境建立三维模型。
附图说明
图1方法总体流程图
图2UWB中的三边定位法
图3为本发明用到的SLAM框架
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1所示,一种基于融合UWB的视觉SLAM的室内定位与导航的方法,具体实现步骤如下:
步骤1、以机器人的初始位置为原点,初始朝向为X坐标轴,建立world坐标系,并在房间选定三个位置设置基站。机器人携带RGB-D相机和信号发送和接受装置按照设定路线进行移动,根据相机逐帧拍摄环境的彩色图片和深度图片。在机器人拍摄图片运动的过程中,利用UWB三边定位法,根据机器人携带信号发送和接受装置到三个基站的位置关系获取、记录相机拍摄图片时在world坐标系下随时间变化的坐标。如图2和3所示。
步骤2、对于机器人携带相机的拍摄的图片进行处理,取前后两帧图片,对于获取图片通过以下步骤得到Oriented FAST关键点:
2-1.在图像中选取像素p,设像素p的亮度为Ip。
2-2.设置一个阈值T(比如Ip的20%)。
2-3.以像素p为中心,选取半径为3的圆上的16个像素点。
2-4.如果选取的圆上的16个像素点中,有连续的12个像素点的亮度大于Ip+T或小于Ip-T,那么像素p被认为是特征点。
2-5.循环步骤2-1到2-4,对每一个像素均执行相同的操作。
随后对于每个关键点,按照高斯概率分布随机选取关键点周围的128对像素点(p1,q1),比较每对像素点的像素大小进行比较,若像素p1大于像素q1,则为1,反之则为0,将128个由1、0组成的值转化为128维向量,从而得到BRIEF描述子。
Oriented FAST关键点和BRIEF描述子共同构成ORB特征点,根据暴力匹配算法对前一帧图片中的每个ORB特征点的描述子和后一帧图片的每个特征点的描述子计算描述子向量的距离,取距离最近的点为匹配的ORB特征点,得到前后两帧图片中匹配的特征点,使用对极几何算法:
步骤3、根据彩色图中每个像素所在的位置和深度图中对应彩色图每个像素的深度得到Pimg,结合投影位姿,按照投影模型;
其中,K为相机内参,由相机生产厂家标定给出;根据图像中每个像素点world坐标系中的坐标Pworld,构建点云地图,其中随着图片的不断获取,不断对点云地图进行拼接,并使用体素滤波器将点云数据体素化,去除部分因为误差过大而离群的点云,达到向下采样同时不破坏点云本身几何结构的效果。
步骤4、通过已构建的点云地图,对拍摄物体的3D点云成像效果进行判断,是否产生因位姿估计产生累积误差过大而导致3D点云成像失真的情况,若失真,等待人工校正或重置初始位置;
步骤5、根据UWB技术获取的机器人在world坐标系中随时间变化的坐标信息,从而得到机器人的运动路线。判断当前位置是否和之前路线重合,若重合,则有产生回环检测的可能性。通过检测当前帧彩色图片和之前重合路线点对应的图片进行相似度检测来进一步检测相机在前后两相同位置的朝向,若相似度大于以阈值,则为朝向一致,判断检测到回环检测,以重合路线点的之前图片对应的位姿代替当前帧的位姿,按照步骤3、4建立点云地图。同时按照步骤3获得当前帧和重合路线点的之前图片进行求取位姿变化,即累计的误差,根据求取的位姿变化和UWB技术的到的路线图,对于回环检测前每一帧的位姿进行调整和优化。
步骤6、使用全局BA对于每张图片对应的位姿进行优化,消除累计误差,重新使用优化后的位姿,按照步骤3重新建立点云地图。
步骤7、重复过程,直至定位导航结束。
Claims (1)
1.基于融合UWB的视觉SLAM的室内定位与导航的方法,其特征在于包括以下步骤:
步骤1、以机器人的初始位置为原点,初始朝向为X坐标轴,建立world坐标系,并在房间选定三个位置设置基站;机器人携带RGB-D相机和信号发送和接受装置按照设定路线进行移动,根据相机逐帧拍摄环境的彩色图片和深度图片;在机器人拍摄图片运动的过程中,利用UWB三边定位法,根据机器人携带信号发送和接受装置到三个基站的位置关系获取、记录相机拍摄图片时在world坐标系下随时间变化的坐标;
步骤2、对于机器人携带相机的拍摄的图片进行处理,取前后两帧图片,对于获取图片通过以下步骤得到Oriented FAST关键点:
2-1.在图像中选取像素p,设像素p的亮度为Ip;
2-2.设置一个阈值T;
2-3.以像素p为中心,选取半径为3的圆上的16个像素点;
2-4.如果选取的圆上的16个像素点中,有连续的12个像素点的亮度大于Ip+T或小于Ip-T,那么像素p被认为是特征点;
2-5.循环步骤2-1到2-4,对每一个像素均执行相同的操作;
随后对于每个关键点,按照高斯概率分布随机选取关键点周围的128对像素点,p1,q1表示其中一对,比较每对像素点的像素大小进行比较,若像素p1大于像素q1,则为1,反之则为0,将128个由1、0组成的值转化为128维向量,从而得到BRIEF描述子;
Oriented FAST关键点和BRIEF描述子共同构成ORB特征点,根据暴力匹配算法对前一帧图片中的每个ORB特征点的描述子和后一帧图片的每个特征点的描述子计算描述子向量的距离,取距离最近的点为匹配的ORB特征点,得到前后两帧图片中匹配的特征点,使用对极几何算法:
步骤3、根据彩色图片中每个像素所在的位置和深度图片中对应彩色图片每个像素的深度得到Pimg,结合投影位姿,按照投影模型;
其中,K为相机内参,由相机生产厂家标定给出;根据图像中每个像素点world坐标系中的坐标Pworld,构建点云地图,其中随着图片的不断获取,不断对点云地图进行拼接,并使用体素滤波器将点云数据体素化,去除部分因为误差过大而离群的点云,达到向下采样同时不破坏点云本身几何结构的效果;
步骤4、通过已构建的点云地图,对拍摄物体的3D点云成像效果进行判断,是否产生因位姿估计产生累积误差过大而导致3D点云成像失真的情况,若失真,等待人工校正或重置初始位置;
步骤5、根据UWB技术获取的机器人在world坐标系中随时间变化的坐标信息,从而得到机器人的运动路线;判断当前位置是否和之前路线重合,若重合,则有产生回环检测的可能性;通过检测当前帧彩色图片和之前重合路线点对应的图片进行相似度检测来进一步检测相机在前后两相同位置的朝向,若相似度大于阈值,则为朝向一致,判断检测到回环检测,以重合路线点的之前图片对应的位姿代替当前帧的位姿,按照步骤3、4建立点云地图;同时按照步骤3获得当前帧和重合路线点的之前图片进行求取位姿变化,即累计的误差,根据求取的位姿变化和UWB技术得到的路线图,对于回环检测前每一帧的位姿进行调整和优化;
步骤6、使用全局BA对于每张图片对应的位姿进行优化,消除累计误差,重新使用优化后的位姿,按照步骤3重新建立点云地图;
步骤7、重复过程,直至定位导航结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910949680.4A CN110849367B (zh) | 2019-10-08 | 2019-10-08 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910949680.4A CN110849367B (zh) | 2019-10-08 | 2019-10-08 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110849367A CN110849367A (zh) | 2020-02-28 |
CN110849367B true CN110849367B (zh) | 2021-12-10 |
Family
ID=69597369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910949680.4A Active CN110849367B (zh) | 2019-10-08 | 2019-10-08 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110849367B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882590A (zh) * | 2020-06-24 | 2020-11-03 | 广州万维创新科技有限公司 | 一种基于单张图片定位的ar场景应用方法 |
US11733696B2 (en) * | 2020-07-17 | 2023-08-22 | Waymo Llc | Detecting loops for autonomous vehicles |
CN111885707A (zh) * | 2020-08-05 | 2020-11-03 | 济南浪潮高新科技投资发展有限公司 | 一种基于ar设备的物联网设备控制方法及系统 |
CN112087718B (zh) * | 2020-08-26 | 2021-07-13 | 电子科技大学 | 基于uwb定位广播式多移动机器人动态虚拟交互方法 |
CN114485604A (zh) * | 2020-11-12 | 2022-05-13 | 新海科技集团有限公司 | 一种agv小车导航系统和使用该系统的导航方法 |
CN112540345B (zh) * | 2020-11-18 | 2023-08-01 | 广东工业大学 | 一种基于高斯分布检测uwb质量的双模型定位方法及系统 |
CN112566240A (zh) * | 2020-11-25 | 2021-03-26 | 巢湖学院 | 一种矿井大规模异构传感节点协同定位方法 |
CN112634362B (zh) * | 2020-12-09 | 2022-06-03 | 电子科技大学 | 一种基于线激光辅助的室内墙面抹灰机器人视觉精确定位方法 |
CN112702699B (zh) * | 2020-12-21 | 2021-12-03 | 南京大学 | 一种融合UWB和LiDAR的室内定位方法 |
CN114683270A (zh) * | 2020-12-30 | 2022-07-01 | 深圳乐动机器人有限公司 | 一种基于机器人的构图信息采集方法及机器人系统 |
CN116019562A (zh) * | 2021-03-09 | 2023-04-28 | 武汉联影智融医疗科技有限公司 | 机器人控制系统和方法 |
CN112950716A (zh) * | 2021-04-02 | 2021-06-11 | 苏州竺星信息科技有限公司 | 一种基于视觉slam算法的运动员定位系统 |
CN113175932A (zh) * | 2021-04-27 | 2021-07-27 | 上海景吾智能科技有限公司 | 机器人导航自动化测试方法、系统、介质及设备 |
CN113010724A (zh) * | 2021-04-29 | 2021-06-22 | 山东新一代信息产业技术研究院有限公司 | 一种基于视觉特征点匹配的机器人地图选择方法及系统 |
CN113469045B (zh) * | 2021-06-30 | 2023-05-02 | 上海西井信息科技有限公司 | 无人集卡的视觉定位方法、系统、电子设备和存储介质 |
CN115700507B (zh) * | 2021-07-30 | 2024-02-13 | 北京小米移动软件有限公司 | 地图更新方法及其装置 |
CN113538410B (zh) * | 2021-08-06 | 2022-05-20 | 广东工业大学 | 一种基于3d激光雷达和uwb的室内slam建图方法 |
CN113850864B (zh) * | 2021-09-14 | 2024-04-12 | 中南大学 | 一种面向室外移动机器人的gnss/lidar回环检测方法 |
CN114419259B (zh) * | 2022-03-30 | 2022-07-12 | 中国科学院国家空间科学中心 | 一种基于物理模型成像仿真的视觉定位方法及系统 |
CN115540854A (zh) * | 2022-12-01 | 2022-12-30 | 成都信息工程大学 | 一种基于uwb辅助的主动定位方法、设备和介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9571143B2 (en) * | 2013-06-06 | 2017-02-14 | Zih Corp. | Interference rejection in ultra-wideband real time locating systems |
US10518407B2 (en) * | 2015-01-06 | 2019-12-31 | Discovery Robotics | Apparatus and methods for providing a reconfigurable robotic platform |
CN106127739B (zh) * | 2016-06-16 | 2021-04-27 | 华东交通大学 | 一种结合单目视觉的rgb-d slam方法 |
CN108012325B (zh) * | 2017-10-30 | 2021-01-19 | 上海神添实业有限公司 | 一种基于uwb和双目视觉的导航定位方法 |
CN109141442B (zh) * | 2018-09-07 | 2022-05-17 | 高子庆 | 基于uwb定位与图像特征匹配的导航方法和移动终端 |
CN110070578B (zh) * | 2019-03-15 | 2023-07-18 | 西安电子科技大学 | 一种回环检测方法 |
CN109974707B (zh) * | 2019-03-19 | 2022-09-23 | 重庆邮电大学 | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 |
-
2019
- 2019-10-08 CN CN201910949680.4A patent/CN110849367B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110849367A (zh) | 2020-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110849367B (zh) | 基于融合uwb的视觉slam的室内定位与导航的方法 | |
CN111833333A (zh) | 一种基于双目视觉的悬臂式掘进装备位姿测量方法及系统 | |
CN109308719B (zh) | 一种基于三维卷积的双目视差估计方法 | |
CN112801074B (zh) | 一种基于交通摄像头的深度图估计方法 | |
CN107560592B (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN112418288B (zh) | 一种基于gms和运动检测的动态视觉slam方法 | |
CN111027415B (zh) | 一种基于偏振图像的车辆检测方法 | |
CN107038714B (zh) | 多型视觉传感协同目标跟踪方法 | |
CN110533720A (zh) | 基于联合约束的语义slam系统及方法 | |
CN104680528A (zh) | 一种基于双目立体视觉的排爆机器人空间定位方法 | |
CN104299220A (zh) | 一种对Kinect深度图像中的空洞进行实时填充的方法 | |
Shreyas et al. | 3D object detection and tracking methods using deep learning for computer vision applications | |
CN104240229A (zh) | 一种红外双目相机自适应极线校正方法 | |
CN114608561A (zh) | 一种基于多传感器融合的定位与建图方法及系统 | |
CN110570474A (zh) | 一种深度相机的位姿估计方法及系统 | |
CN111047636B (zh) | 基于主动红外双目视觉的避障系统和避障方法 | |
CN111915651A (zh) | 基于数字影像地图与特征点跟踪的视觉位姿实时估计方法 | |
CN105303518A (zh) | 一种基于区域特征的视频帧间拼接方法 | |
CN103426170A (zh) | 基于非结构光场合成孔径成像的隐藏目标成像方法 | |
CN116804553A (zh) | 基于事件相机/imu/自然路标的里程计系统及方法 | |
CN111429571A (zh) | 一种基于时空图像信息联合相关的快速立体匹配方法 | |
CN114935316B (zh) | 基于光学跟踪与单目视觉的标准深度图像生成方法 | |
CN103400380A (zh) | 融合图像矩阵偏移的单摄像机水下目标三维轨迹模拟方法 | |
TWI760128B (zh) | 深度圖像之生成方法、系統以及應用該方法之定位系統 | |
Wang et al. | A moving target detection and localization strategy based on optical flow and pin-hole imaging methods using monocular vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |