CN111583387A - 一种无人驾驶室外场景三维重建的方法和系统 - Google Patents

一种无人驾驶室外场景三维重建的方法和系统 Download PDF

Info

Publication number
CN111583387A
CN111583387A CN202010314654.7A CN202010314654A CN111583387A CN 111583387 A CN111583387 A CN 111583387A CN 202010314654 A CN202010314654 A CN 202010314654A CN 111583387 A CN111583387 A CN 111583387A
Authority
CN
China
Prior art keywords
pose
matching
imu
visual
pose based
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010314654.7A
Other languages
English (en)
Inventor
王若琪
刘硕
金涛
蒋鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZHEJIANG KEYSHINE TECHNOLOGY DEVELOPMENT CO.,LTD.
Original Assignee
Beijing Dinglu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dinglu Technology Co ltd filed Critical Beijing Dinglu Technology Co ltd
Priority to CN202010314654.7A priority Critical patent/CN111583387A/zh
Publication of CN111583387A publication Critical patent/CN111583387A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供了一种无人驾驶室外场景三维重建的方法和系统,通过比较前后两帧视觉图像、位姿的变化差异,判断是以视觉数据作为位姿还是以IMU数据作为位姿,从而降低了环境对室外三维重建的影响。IMU数据量比较小,误差消除和积分处理速度很快,因此本发明与现有的纯视觉方案相比,计算量基本不变。但加入IMU数据后,可以分别利用IMU和RGB‑D相机各自的优势,降低环境对现有的建模方案的影响,提高建模的准确性和鲁棒性。

Description

一种无人驾驶室外场景三维重建的方法和系统
技术领域
本发明涉及无人驾驶的传感领域,特别是涉及一种室外场景三维重建的方法和系统。
背景技术
现有的室外三维场景重建大多数是通过视觉类传感器获取深度图和彩色图。之后采用特征点匹配或者ICP点云匹配的方法计算得到一系列关联帧之间的相机位姿变化关系。再利用回环检测等方式进行局部优化或整体优化,进一步提高位姿的准确性。最后利用得到的位姿关系进行点云融合,建立稠密三维点云模型。
而目前室外三维场景重建存在的主要问题之一是鲁棒性低,准确性差。比如在室外场景中,当相机从向阳处移动至背光处时,画面的亮度会发生突变,瞬间由非常亮变成非常暗。这将导致相机很难从捕捉的画面中准确判断自身的运动,继而使得建模的效果不理想。再比如,在一些纹理信息不够丰富、深度变化不明显的区域,如树木、栏杆等区域,因为缺少足够的视觉信息而无法进行准确的匹配,从而影响到整体建模效果。
发明内容
鉴于上述问题,提出了本发明,以便提供一种无人驾驶室外场景三维重建的方法和系统。
在本发明的一个实施例中,提供了一种无人驾驶室外场景三维重建的方法,其特征在于,包括:
步骤S101,从RGB-D传感器读取RGB图像和深度图像进行配准计算得到基于视觉匹配的位姿;
步骤S102,得到所述基于视觉匹配的位姿后,将这一帧所述位姿与上一帧所述位姿进行比较,计算匹配残差和相邻两帧位姿的差值;
步骤S103,当所述匹配残差过大或者所述相邻两帧位姿的差值过大时,读取所述相邻两帧之间的IMU数据,对所述IMU数据进行误差消除和积分处理,得到基于IMU的位姿;
步骤S104,将所述基于IMU的位姿与所述基于视觉匹配的位姿进行比较;
步骤S105,如果两者较为相似,则认为所述基于视觉匹配的位姿正确;
步骤S106,如果两者差异较大,则使用所述基于IMU的位姿代替所述基于视觉匹配的位姿作为匹配结果;
步骤S107,根据确定的位姿进行点云拼接,建立场景三维重建模型。
进一步的,其中步骤一中还包括:使用ICP算法对所述基于视觉匹配的位姿进行计算修正。
在本发明的另一个实施例中,提供了一种无人驾驶室外场景三维重建的系统,其特征在于,包括:
视觉图像处理模块,用于从RGB-D传感器读取RGB图像和深度图像进行配准计算得到基于视觉匹配的位姿;
计算模块,用于得到所述基于视觉匹配的位姿后,将这一帧所述位姿与上一帧所述位姿进行比较,计算匹配残差和相邻两帧位姿的差值;
IMU数据处理模块,用于当所述匹配残差过大或者所述相邻两帧位姿的差值过大时,读取所述相邻两帧之间的IMU数据,对所述IMU数据进行误差消除和积分处理,得到基于IMU的位姿;
比较模块,用于将所述基于IMU的位姿与所述基于视觉匹配的位姿进行比较;
判断模块,用于如果两者较为相似,则认为所述基于视觉匹配的位姿正确;如果两者差异较大,则使用所述基于IMU的位姿代替所述基于视觉匹配的位姿作为匹配结果;
三维重建模块,用于根据确定的位姿进行点云拼接,建立场景三维重建模型。
进一步的,其中视觉图像处理模块还用于:使用ICP算法对所述基于视觉匹配的位姿进行计算修正。
本发明实施例提供了一种无人驾驶室外场景三维重建的方法和系统,通过比较前后两帧视觉图像、位姿的变化差异,判断是以视觉数据作为位姿还是以IMU数据作为位姿,从而降低了环境对室外三维重建的影响。IMU数据量比较小,误差消除和积分处理速度很快,因此本发明与现有的纯视觉方案相比,计算量基本不变。但加入IMU数据后,可以分别利用IMU和RGB-D相机各自的优势,降低环境对现有的建模方案的影响,提高建模的准确性和鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的无人驾驶室外场景三维重建的方法的流程示意图;
图2为本发明另一实施例提供的无人驾驶室外场景三维重建的系统的结构示意图;
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种,但是不排除包含至少一种的情况。
应当理解,尽管在本申请实施例中可能采用术语第一、第二、第三等来描述XXX,但这些XXX不应限于这些术语。这些术语仅用来将XXX彼此区分开。例如,在不脱离本申请实施例范围的情况下,第一XXX也可以被称为第二XXX,类似地,第二XXX也可以被称为第一XXX。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于监测”。类似地,取决于语境,短语“如果确定”或“如果监测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当监测(陈述的条件或事件)时”或“响应于监测(陈述的条件或事件)”。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
本申请第一实施例提供的无人驾驶室外场景三维重建的方法,该方法的应用主体可以是自移动设备,该方法应用于自移动设备在行驶过程中对于室外环境的识别。自移动设备可以是无人驾驶的汽车,也可以是自移动机器人。本实施例中以无人驾驶的汽车为例进行说明。当然,自移动设备也可以是应用在其它领域的能够自主移动的设备,这些自移动设备均属于本申请保护的范围。
我们知道,在所属技术领域中,无人驾驶汽车的传感器有视觉类传感器、雷达类测距传感器、加速度传感器等等,而加速度传感器中的IMU由加速度计和陀螺仪组成,IMU数据只与自身的运动状态有关,因此基于IMU的位姿也只取决于自身,不受环境变化的影响。因此,无论在什么环境下,IMU都可以保持大致准确,但缺点是精度较低。而视觉类传感器中的RGB-D相机提供的数据与场景密切相关,在有足够多的高质量匹配信息时,基于RGB-D相机的位姿准确度优于IMU数据。但在场景不够理想时(比如当传感器从向阳处移动到阴影处,光线变化导致场景明暗突变,或者视觉信息不足够进行准确匹配),基于RGB-D相机的位姿可能会发生比较大的错误。
如图1所示,图1是本申请第一实施例提供的无人驾驶室外场景三维重建的方法的流程图。该方法以RGB-D相机的输入为主要数据源,以IMU的输入为辅助,在RGB-D在光照稳定或视觉信息足够时候采用视觉匹配结果作为位姿,在光照突变或视觉信息稀疏时采用IMU积分结果作为位姿,充分利用了两者各自的优势两者相结合优化整体建模效果。所述方法包括如下步骤。
步骤S101,从RGB-D传感器读取RGB图像和深度图像进行配准计算位姿,得到基于视觉匹配的位姿。
本实施例的方法,主要介绍的是无人驾驶汽车在道路上的行驶场景中,针对路边物体、道路障碍物的不同,无人驾驶汽车可识别出其中的物体,从而判断是否需要规避障碍物或者沿边行走。在无人驾驶汽车车头中间,分别装有传感器RGB-D和IMU传感器,RGB-D传感器获取汽车前端和两侧的深度图和彩色图,IMU由加速度计和陀螺仪组成,IMU数据只与自身的运动状态有关。首先,RGB-D传感器通过读取拍摄的RGB图像和深度图像进行配准计算位姿,得到无人驾驶汽车的位姿。并且利用ICP算法(迭代就近点法)对得到的无人驾驶汽车的位姿进行计算修正,以使得位姿信息准确无误。
例如,无人驾驶汽车两侧的障碍物如道路的护栏、树木等,通过RGB-D传感器拍摄的图像,包括RGB图像和深度图像,根据图像进行配准计算得到无人驾驶汽车的位姿。
又或者,无人驾驶汽车车头前面的障碍物如道路中的路障、收费站等,通过RGB-D传感器拍摄的图像,包括RGB图像和深度图像,根据图像进行配准计算得到无人驾驶汽车的位姿。
进一步,可利用ICP算法对得到的无人驾驶汽车的位姿进行计算修正。利用ICP算法(迭代就近点法)对得到的无人驾驶汽车的位姿进行计算修正,以使得位姿信息准确无误。
步骤S102,得到基于视觉匹配的位姿后,将这一帧位姿与上一帧位姿进行比较,计算匹配残差和位姿差值。
匹配残差是指根据视觉匹配得到的位姿结果将上一帧图像中的点一一对应到当前帧图像中的点,并计算每对匹配点之间的亮度和深度差值之和。我们用匹配残差来衡量视觉匹配得到的位姿的质量。在前述步骤中,计算得到了无人驾驶汽车的基于视觉匹配的位姿,根据该位姿信息计算前后两帧匹配残差,这样可以确定前后图像变化是否是想要的图像变化质量,通过判断图像本身变化的质量信息确定是否是我们想要的图像变化信息。以及将这一帧位姿与上一帧位姿信息进行比较,计算上述两者之间的差值,从而判断位姿中的变化是否是我们想要的变化信息。
步骤S103,当残差过大或者相邻两帧位姿差值过大时,读取两帧之间的IMU数据,进行误差消除和积分处理,得到基于IMU的位姿。
当残差过大或者相邻两帧位姿差值过大时,认为匹配不是很成功,两帧之间没有进行很好地对应,因此判断此时可能处于光照突变或视觉信息稀疏的场景中,发生误匹配的可能性比较大,此时需要通过IMU数据来对基于视觉匹配的位姿进行验证和修正。
步骤S104,将基于IMU的位姿与基于视觉匹配的位姿进行比较。
此时将基于IMU的位姿与基于视觉匹配的位姿进行比较,两者相差较大则说明基于视觉匹配的位姿存在有误,应当将基于IMU的位姿作为匹配结果,以此消除在不利场景下视觉误匹配对结果的影响。
步骤S105,如果两者比较相似,则认为视觉匹配的结果是准确的,不需要进行修正。
将基于IMU的位姿与基于视觉匹配的位姿进行比较,两者相差不大则说明基于视觉匹配的位姿准确,当前环境没有任何不良影响,可以作为匹配结果。
步骤S106,如果两者相差较大,则使用基于IMU的位姿代替基于视觉匹配的位姿作为匹配结果。
此时将基于IMU的位姿与基于视觉匹配的位姿进行比较,两者相差较大则说明基于视觉匹配的位姿存在有误,应当将基于IMU的位姿作为匹配结果,以此消除在不利场景下视觉误匹配对结果的影响。
步骤S107,在计算位姿结束之后,根据位姿进行点云拼接,根据确定的位姿进行点云拼接,建立场景三维重建模型。
同时对场景进行编码存储和识别,如果识别到相似的场景,判断是否产生回环,并利用回环对模型进行整体优化。
本方法在RGB-D在光照稳定或视觉信息足够时候采用视觉匹配结果作为位姿,在光照突变或视觉信息稀疏时采用IMU积分结果作为位姿,充分利用了两者各自的优势。
上述实施例提供了一种无人驾驶室外场景三维重建的方法,通过比较前后两帧视觉图像、位姿的变化差异,判断是以视觉数据作为位姿还是以IMU数据作为位姿,从而降低了环境对室外三维重建的影响。IMU数据量比较小,误差消除和积分处理速度很快,因此本方案与现有的纯视觉方案相比,计算量基本不变。但加入IMU数据后,可以分别利用IMU和RGB-D相机各自的优势,降低环境对现有的建模方案的影响,提高建模的准确性和鲁棒性。
如图2所示,图2是本申请第一实施例提供的无人驾驶室外场景三维重建的系统的结构图。该系统以RGB-D相机的输入为主要数据源,以IMU的输入为辅助,在RGB-D在光照稳定或视觉信息足够时候采用视觉匹配结果作为位姿,在光照突变或视觉信息稀疏时采用IMU积分结果作为位姿,充分利用了两者各自的优势两者相结合优化整体建模效果。所述系统包括如下部分。
视觉图像处理模块,从RGB-D传感器读取RGB图像和深度图像进行配准计算位姿,得到基于视觉匹配的位姿。
本实施例中,主要介绍的是无人驾驶汽车在道路上的行驶场景中,针对路边物体、道路障碍物的不同,无人驾驶汽车可识别出其中的物体,从而判断是否需要规避障碍物或者沿边行走。在无人驾驶汽车车头中间,分别装有传感器RGB-D和IMU传感器,RGB-D传感器获取汽车前端和两侧的深度图和彩色图,IMU由加速度计和陀螺仪组成,IMU数据只与自身的运动状态有关。首先,RGB-D传感器通过读取拍摄的RGB图像和深度图像进行配准计算位姿,得到无人驾驶汽车的位姿。并且利用ICP算法(迭代就近点法)对得到的无人驾驶汽车的位姿进行计算修正,以使得位姿信息准确无误。
例如,无人驾驶汽车两侧的障碍物如道路的护栏、树木等,通过RGB-D传感器拍摄的图像,包括RGB图像和深度图像,根据图像进行配准计算得到无人驾驶汽车的位姿。
又或者,无人驾驶汽车车头前面的障碍物如道路中的路障、收费站等,通过RGB-D传感器拍摄的图像,包括RGB图像和深度图像,根据图像进行配准计算得到无人驾驶汽车的位姿。
进一步,可利用ICP算法对得到的无人驾驶汽车的位姿进行计算修正。利用ICP算法(迭代就近点法)对得到的无人驾驶汽车的位姿进行计算修正,以使得位姿信息准确无误。
计算模块,得到基于视觉匹配的位姿后,将这一帧位姿与上一帧位姿进行比较,计算匹配残差和位姿差值。
匹配残差是指根据视觉匹配得到的位姿结果将上一帧图像中的点一一对应到当前帧图像中的点,并计算每对匹配点之间的亮度和深度差值之和。我们用匹配残差来衡量视觉匹配得到的位姿的质量。在前述步骤中,计算得到了无人驾驶汽车的基于视觉匹配的位姿,根据该位姿信息计算前后两帧匹配残差,这样可以确定前后图像变化是否是想要的图像变化质量,通过判断图像本身变化的质量信息确定是否是我们想要的图像变化信息。以及将这一帧位姿与上一帧位姿信息进行比较,计算上述两者之间的差值,从而判断位姿中的变化是否是我们想要的变化信息。
IMU数据处理模块,当残差过大或者相邻两帧位姿差值过大时,读取两帧之间的IMU数据,进行误差消除和积分处理,得到基于IMU的位姿。
当残差过大或者相邻两帧位姿差值过大时,认为匹配不是很成功,两帧之间没有进行很好地对应,因此判断此时可能处于光照突变或视觉信息稀疏的场景中,发生误匹配的可能性比较大,此时需要通过IMU数据来对基于视觉匹配的位姿进行验证和修正。
比较模块,将基于IMU的位姿与基于视觉匹配的位姿进行比较。
此时将基于IMU的位姿与基于视觉匹配的位姿进行比较,两者相差较大则说明基于视觉匹配的位姿存在有误,应当将基于IMU的位姿作为匹配结果,以此消除在不利场景下视觉误匹配对结果的影响。
判断模块,如果两者比较相似,则认为视觉匹配的结果是准确的,不需要进行修正。
将基于IMU的位姿与基于视觉匹配的位姿进行比较,两者相差不大则说明基于视觉匹配的位姿准确,当前环境没有任何不良影响,可以作为匹配结果。
如果两者相差较大,则使用基于IMU的位姿代替基于视觉匹配的位姿作为匹配结果。
此时将基于IMU的位姿与基于视觉匹配的位姿进行比较,两者相差较大则说明基于视觉匹配的位姿存在有误,应当将基于IMU的位姿作为匹配结果,以此消除在不利场景下视觉误匹配对结果的影响。
三维重建模块,在计算位姿结束之后,根据位姿进行点云拼接,根据确定的位姿进行点云拼接,建立场景三维重建模型。
同时对场景进行编码存储和识别,如果识别到相似的场景,判断是否产生回环,并利用回环对模型进行整体优化。
本系统在RGB-D在光照稳定或视觉信息足够时候采用视觉匹配结果作为位姿,在光照突变或视觉信息稀疏时采用IMU积分结果作为位姿,充分利用了两者各自的优势。
上述实施例提供了一种无人驾驶室外场景三维重建的系统,通过比较前后两帧视觉图像、位姿的变化差异,判断是以视觉数据作为位姿还是以IMU数据作为位姿,从而降低了环境对室外三维重建的影响。IMU数据量比较小,误差消除和积分处理速度很快,因此本方案与现有的纯视觉方案相比,计算量基本不变。但加入IMU数据后,可以分别利用IMU和RGB-D相机各自的优势,降低环境对现有的建模方案的影响,提高建模的准确性和鲁棒性。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
上述说明示出并描述了本发明的若干优选实施例,但如前所述,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述发明构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (4)

1.一种无人驾驶室外场景三维重建的方法,其特征在于,包括:
步骤S101,从RGB-D传感器读取RGB图像和深度图像进行配准计算得到基于视觉匹配的位姿;
步骤S102,得到所述基于视觉匹配的位姿后,将这一帧所述位姿与上一帧所述位姿进行比较,计算匹配残差和相邻两帧位姿的差值;
步骤S103,当所述匹配残差过大或者所述相邻两帧位姿的差值过大时,读取所述相邻两帧之间的IMU数据,对所述IMU数据进行误差消除和积分处理,得到基于IMU的位姿;
步骤S104,将所述基于IMU的位姿与所述基于视觉匹配的位姿进行比较;
步骤S105,如果两者较为相似,则认为所述基于视觉匹配的位姿正确;
步骤S106,如果两者差异较大,则使用所述基于IMU的位姿代替所述基于视觉匹配的位姿作为匹配结果;
步骤S107,根据确定的位姿进行点云拼接,建立场景三维重建模型。
2.根据权利要求1所述的一种无人驾驶室外场景三维重建的方法,其特征在于,其中步骤一中还包括:使用ICP算法对所述基于视觉匹配的位姿进行计算修正。
3.一种无人驾驶室外场景三维重建的系统,其特征在于,包括:
视觉图像处理模块,用于从RGB-D传感器读取RGB图像和深度图像进行配准计算得到基于视觉匹配的位姿;
计算模块,用于得到所述基于视觉匹配的位姿后,将这一帧所述位姿与上一帧所述位姿进行比较,计算匹配残差和相邻两帧位姿的差值;
IMU数据处理模块,用于当所述匹配残差过大或者所述相邻两帧位姿的差值过大时,读取所述相邻两帧之间的IMU数据,对所述IMU数据进行误差消除和积分处理,得到基于IMU的位姿;
比较模块,用于将所述基于IMU的位姿与所述基于视觉匹配的位姿进行比较;
判断模块,用于如果两者较为相似,则认为所述基于视觉匹配的位姿正确;如果两者差异较大,则使用所述基于IMU的位姿代替所述基于视觉匹配的位姿作为匹配结果;
三维重建模块,用于根据确定的位姿进行点云拼接,建立场景三维重建模型。
4.根据权利要求3所述的一种无人驾驶室外场景三维重建的系统,其特征在于,其中视觉图像处理模块还用于:使用ICP算法对所述基于视觉匹配的位姿进行计算修正。
CN202010314654.7A 2020-04-21 2020-04-21 一种无人驾驶室外场景三维重建的方法和系统 Pending CN111583387A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010314654.7A CN111583387A (zh) 2020-04-21 2020-04-21 一种无人驾驶室外场景三维重建的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010314654.7A CN111583387A (zh) 2020-04-21 2020-04-21 一种无人驾驶室外场景三维重建的方法和系统

Publications (1)

Publication Number Publication Date
CN111583387A true CN111583387A (zh) 2020-08-25

Family

ID=72124494

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010314654.7A Pending CN111583387A (zh) 2020-04-21 2020-04-21 一种无人驾驶室外场景三维重建的方法和系统

Country Status (1)

Country Link
CN (1) CN111583387A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758157A (zh) * 2023-06-14 2023-09-15 深圳市华赛睿飞智能科技有限公司 一种无人机室内三维空间测绘方法、系统及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及系统
CN110009681A (zh) * 2019-03-25 2019-07-12 中国计量大学 一种基于imu辅助的单目视觉里程计位姿处理方法
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
US20200047340A1 (en) * 2018-08-13 2020-02-13 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for autonomous navigation using visual sparse map

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及系统
US20200047340A1 (en) * 2018-08-13 2020-02-13 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for autonomous navigation using visual sparse map
CN110009681A (zh) * 2019-03-25 2019-07-12 中国计量大学 一种基于imu辅助的单目视觉里程计位姿处理方法
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
毕浩博;包晗;徐飞;韩天佑;: "基于直接法视觉里程计与IMU融合的位姿估计方法", 信息与电脑(理论版) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758157A (zh) * 2023-06-14 2023-09-15 深圳市华赛睿飞智能科技有限公司 一种无人机室内三维空间测绘方法、系统及存储介质
CN116758157B (zh) * 2023-06-14 2024-01-30 深圳市华赛睿飞智能科技有限公司 一种无人机室内三维空间测绘方法、系统及存储介质

Similar Documents

Publication Publication Date Title
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
CN111986506B (zh) 基于多视觉系统的机械式停车位泊车方法
US8289391B2 (en) Apparatus for vehicle surroundings monitoring
US8244027B2 (en) Vehicle environment recognition system
US20090244263A1 (en) Object Detecting System
CN111856491B (zh) 用于确定车辆的地理位置和朝向的方法和设备
JP5966747B2 (ja) 車両走行制御装置及びその方法
CN108692719B (zh) 物体检测装置
US20030151664A1 (en) Image navigation device
JP2008002906A (ja) 測位装置
US20040061712A1 (en) Stereoscopic image processing apparatus and the method of processing stereoscopic images
CN110766760B (zh) 用于相机标定的方法、装置、设备和存储介质
JP6278791B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
CN113903011A (zh) 一种适用于室内停车场的语义地图构建及定位方法
JP2003051017A (ja) 白線検出装置
CN113834492A (zh) 地图匹配方法、系统、设备及可读存储介质
CN110794828A (zh) 一种融合语义信息的路标定位方法
CN114910927A (zh) 使用单色成像的基于事件的车辆姿态估计
CN111583387A (zh) 一种无人驾驶室外场景三维重建的方法和系统
JP2018073275A (ja) 画像認識装置
CN115388880B (zh) 一种低成本记忆泊车建图与定位方法、装置及电子设备
CN109960990B (zh) 障碍物侦测可信度评估方法
JP7019431B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
JP5557036B2 (ja) 退出判定装置、退出判定プログラム及び退出判定方法
TWI645997B (zh) Obstacle detection credibility evaluation method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20211231

Address after: 314000 328-1, Lane 17, Waihuan West Road, Weitang street, Jiashan County, Jiaxing City, Zhejiang Province

Applicant after: ZHEJIANG KEYSHINE TECHNOLOGY DEVELOPMENT CO.,LTD.

Address before: 100000 215, Section A, second floor, building 1, Third Street, Shangdi Information Industry base, Haidian District, Beijing

Applicant before: Beijing Dinglu Technology Co.,Ltd.

WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200825