CN114092551A - 一种基于全景视觉与激光雷达融合slam系统的智能车 - Google Patents

一种基于全景视觉与激光雷达融合slam系统的智能车 Download PDF

Info

Publication number
CN114092551A
CN114092551A CN202111178550.9A CN202111178550A CN114092551A CN 114092551 A CN114092551 A CN 114092551A CN 202111178550 A CN202111178550 A CN 202111178550A CN 114092551 A CN114092551 A CN 114092551A
Authority
CN
China
Prior art keywords
intelligent vehicle
camera
laser radar
panoramic
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111178550.9A
Other languages
English (en)
Inventor
王军华
王鼎
田雨涵
王施相
徐敏
李旭锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202111178550.9A priority Critical patent/CN114092551A/zh
Publication of CN114092551A publication Critical patent/CN114092551A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明属于智能驾驶技术领域,具体为一种基于全景视觉与激光雷达融合SLAM系统的智能车。本发明智能车搭载有全景相机和激光雷达等模块;全景相机能够采集智能车周围的场景的图像信息,并传输至计算机使用全景视觉与激光雷达融合SLAM系统进行处理,生成智能车的位姿和稀疏场景地图;激光雷达对前方的场景进行实时的扫描,然后将点云信息传输到计算机中。所述基于全景视觉与激光雷达融合SLAM智能车通过融合相机和激光雷达的数据,能进行更精确定位和建图。使用全景相机能实现反向闭环检测,当智能车快速拐弯时,也能稳定地进行跟踪。同时实现测距和避障等功能,保障了智能车在行驶过程中的安全性。

Description

一种基于全景视觉与激光雷达融合SLAM系统的智能车
技术领域
本发明属于智能驾驶技术领域,具体涉及一种基于全景视觉与激光雷达融合SLAM系统的智能车。
背景技术
随着智能驾驶技术的兴起,同步定位和地图构建(Simultaneous Localizationand Mapping,SLAM)已经成了行业内的研究热点。其中视觉SLAM使用相机传感器提取环境中的丰富特征,从而估计车辆的位姿,并重建周围场景的稀疏地图。然而传统的针孔相机由于视场角有限,因此在车辆拐弯以及快速运动时系统的鲁棒性较差。而全景相机能够对周围360°场景成像,因此能够更高效地提供丰富的场景特征,这保证了视觉SLAM在复杂场景中的精度和鲁棒性。全景视觉与激光雷达融合SLAM系统可以实现智能车的定位,使用基于PAL的全景相机对周围场景进行高清成像,然后输入到计算机中进行一系列的处理。将采集的图像信息与激光雷达生成的点云进行数据融合,能进行更精确定位和建图,同时实现测距和避障等功能。要在智能车上安装这些设备,需要在有限的空间内合理地布局,才能并更好地保障这些功能的正常运行。
发明内容
本发明的目的是提供一种能够实现车辆定位、场景地图构建以及测距和避障等功能的基于全景视觉与激光雷达融合SLAM系统的智能车。
本发明提供的基于全景视觉与激光雷达融合SLAM系统的智能车,包括上铝合金板和下铝合金板,全景相机,激光雷达,相机遮光罩,相机支架,计算机,锂电池,电机驱动模块,电机和轮子等;其中:
所述上铝合金板和下铝合金板之间通过多个铝型材固定连接,铝型材的高度可根据实际需要进行选择;
所述电机有四个,分别安装在下铝合金板的四个角的下方,电机的输出轴连接智能车四个轮子,通过控制四个轮子转动,以实现智能车的在不同方向的行驶。
所述锂电池和电机驱动模块置于一收纳盒中,该收纳盒放置于下铝合金板上表面中间;所述锂电池用来给智能车供电,保证各模块的正常运行;所述电机驱动模块中装有无线网络及蓝牙模块等,可连接计算机或者手机APP,以及无线遥控器等,实现对四个电机的控制。
所述相机支架安装在上铝合金板上表面的中间,所述相机遮光罩和全景相机放置在相机支架上方,进行固定,防止其晃动造成拍摄的图像模糊不清;相机支架可根据全景相机的视场角调整高度,以避免智能车上其他装置遮挡其视野。相机遮光罩用于减少杂散光的干扰,提高成像效果。
所述计算机设置于上铝合金板上表面的后方,用于接收全景相机拍摄的图像序列,并进行处理。亦可使用树莓派等平台,在此不作限制。
所述激光雷达安装于上铝合金板上表面的前方,并与计算机连接,用于检测智能车前方某一视野内的物体,并生成点云图。
所述计算机装载有全景视觉与激光雷达融合SLAM系统,全景相机采集到的全景图像序列与激光雷达生成的点云图在SLAM系统进行数据融合,并估计车辆的位姿、重建场景地图;同时实现测距和避障等功能。全景视觉与激光雷达融合SLAM系统运作过程如下:
所述全景相机连接到计算机之后,采集智能车周围360°场景的图像连续帧,然后输入到计算机中。装载于计算机中的全景视觉与激光雷达融合SLAM系统将对这些图像序列进行处理。首先使用掩膜避开图像中的盲区部分,提取环形有效区域的特征点;所述激光雷达对前方的场景进行实时的扫描,同时将点云信息传输到计算机中,并融合激光点云信息与图像信息。如果系统尚未初始化,将执行初始化过程:将这些特征点进行帧间匹配,然后筛选正确匹配的特征点对,来估计当前相机的初始位姿,并根据与激光点云的数据融合结果得到环境中的初始地图点。使用局部光束法平差(Bundle Adjustment,BA)对相机初始位姿和初始地图点进行优化。
完成了所述全景视觉与激光雷达融合SLAM系统的初始化后,系统根据全景相机采集到的当前帧图像,使用合适的跟踪模型来跟踪已有的地图点。然后估计当前相机的运动位姿,更新局部地图,然后使用局部BA优化当前位姿和地图点。由于全景相机拥有大视场,当智能车快速运动和拐弯时,所述全景视觉与激光雷达融合SLAM系统也能有效地跟踪地图点,具有较高的鲁棒性。
当所述全景视觉与激光雷达融合SLAM系统识别到智能车返回先前经过的位置时,将会根据当前关键帧和上次经过该地时生成的关键帧之间的相似度,来判断是否满足闭环检测的条件。由于全景相机具有360°视场角,因此即便从相反的方向返回先前经过的位置,也能保证当前关键帧和上次经过该地时生成的关键帧之间具有足够相似度,从而完成闭环检测,校正尺度漂移。然后进行全局BA以获得更为精确的运动位姿和地图点。
当智能车在行驶的过程中,将激光点云图与全景相机采集的图像信息融合,能获得更精确的空间点坐标,从而提升智能车的定位精度。同时根据获取的点云信息来判断前方是否具有障碍物。如果识别到了障碍物,计算机将根据障碍物到智能车的距离发出指令到电机驱动模块,然后通过电机控制轮子的运动,以实现智能车的减速及拐弯等。
本发明提供的基于全景视觉与激光雷达融合SLAM系统的智能车,相对于现有的技术拥有如下优点:
1、使用全景相机采集智能车周围360°场景的图像信息,无需进行图像拼接等操作,提升了算法的效率,降低了对设备的运算成本的要求;
2、使用基于全景相机的全景视觉与激光雷达融合SLAM系统,不仅可以识别同向运动时的闭环,也能识别反向运动时闭环;即便智能车从相反方向经过同一地点,也能实现闭环检测以校正尺度漂移;
3、由于全景相机具有360°视场角,当所述的基于全景视觉与激光雷达融合SLAM智能车快速拐弯时,也能稳定地进行跟踪,实现智能车的定位和稀疏环境地图的构建,这克服了传统基于视场角有限的相机的视觉SLAM系统的不足;
4、所述的基于全景视觉与激光雷达融合SLAM智能车通过融合相机和激光雷达的数据,能进行更精确定位和建图,同时实现测距和避障等功能,保障了智能车在行驶过程中的安全性。
附图说明
图1为所述全景视觉与激光雷达融合SLAM系统运作流程图。
图2为一种基于全景视觉与激光雷达融合SLAM系统的智能车的正视图。
图3为一种基于全景视觉与激光雷达融合SLAM系统的智能车的左视图。
图4为一种基于全景视觉与激光雷达融合SLAM系统的智能车的俯视图。
图5为一种全景相机的成像示意图。
具体实施方式
下面将结合附图和实施例,对本发明作进一步描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
图1是一种全景视觉与激光雷达融合SLAM系统的运作流程图。所述全景相机连接到计算机之后,可采集智能车周围360°场景的图像连续帧,然后输入到计算机中。装载于计算机中的全景视觉与激光雷达融合SLAM系统将对这些图像序列进行处理。首先使用掩膜避开图像中的盲区部分,提取环形有效区域的特征点。所述激光雷达将会对前方的场景进行实时的扫描,然后将点云信息传输到计算机中,并融合激光点云信息与图像信息。如果系统尚未初始化,将执行初始化过程:将这些特征点进行帧间匹配,然后筛选正确匹配的特征点对,来估计当前相机的初始位姿,并根据与激光点云的数据融合结果得到环境中的初始地图点。使用局部光束法平差(Bundle Adjustment,BA)对相机初始位姿和初始地图点进行优化。
完成了所述全景视觉与激光雷达融合SLAM系统的初始化后,系统将根据全景相机采集到的当前帧图像,使用合适的跟踪模型来跟踪已有的地图点。然后估计当前相机的运动位姿并更新局部地图,然后使用局部BA优化当前位姿和地图点。由于全景相机拥有大视场,当智能车快速运动和拐弯时,所述全景视觉与激光雷达融合SLAM系统也能有效地跟踪地图点,具有较高的鲁棒性。
当所述全景视觉与激光雷达融合SLAM系统识别到智能车返回先前经过的位置时,将会根据当前关键帧和上次经过该地时生成的关键帧之间的相似度,来判断是否满足闭环检测的条件。由于全景相机具有360°视场角,因此即便从相反的方向返回先前经过的位置,也能保证当前关键帧和上次经过该地时生成的关键帧之间具有足够相似度,从而完成闭环检测,校正尺度漂移。然后进行全局BA以获得更为精确的运动位姿和地图点。
如图2-4所示为一种基于全景视觉与激光雷达融合SLAM系统的智能车,包括相机遮光罩1、全景相机2、相机支架3、激光雷达4、上铝合金板5、轮子6、电池和电机驱动模块的收纳盒7、下铝合金板8、电机9、铝型材10和计算机11。
上铝合金板5和下铝合金板8之间通过多个铝型材10固定连接,铝型材的高度可根据实际需要进行选择。下铝合金板8上表面中间放置电池和电机驱动模块的收纳盒7,将锂电池和电机驱动模块固定于其中。锂电池用来给智能车供电,保证各模块的正常运行。电机驱动模块装有无线网络及蓝牙模块等,可连接计算机或者手机APP,以及无线遥控器等,实现对四个电机的控制。下铝合金板四个角的下方都装有电机,电机的输出轴连接了四个轮子,通过控制其转动以实现智能车的在不同方向的行驶。本实施例中使用的轮子为万向轮,亦可使用其他的轮子实现相似的功能,这里不作限制。
上铝合金板5上表面的中间装有相机支架3,将相机遮光罩1和全景相机2放置在相机支架3上方进行固定,防止其晃动造成拍摄的图像模糊不清,可根据全景相机2的视场角调整相机支架3的高度避免智能车上其他装置遮挡其视野。相机遮光罩1可减少杂散光的干扰,提高成像效果。全景相机拍摄的图像序列可传输至计算机进行处理。上铝合金板5上表面的后方是计算机11,亦可使用树莓派等平台,在此不作限制。上铝合金板5上表面的前方安装激光雷达4,可连接计算机来检测智能车前方某一视野内的物体并生成点云图。使用所述全景视觉与激光雷达融合SLAM系统将采集的图像信息与激光雷达生成的点云进行数据融合,能进行更精确定位和建图,同时实现测距和避障等功能。
图5是一种全景相机的成像示意图,光线通过全景环形透镜12进行双次折返之后,通过光阑17和中继透镜13,最终在像平面14上成像。其中图像包括环形有效区域15和盲区16,在所述基于全景视觉与激光雷达融合SLAM系统对图像进行特征点提取时,需要避开盲区16以减少错误匹配。本实施例中使用的全景相机基于全景环形透镜,亦可是用其他镜头实现类似的功能,在此不作限制。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。
因此,所述全景视觉与激光雷达融合SLAM系统可以采取存储有指令的计算机可读存储介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。在本发明的上下文中,计算机可读存储介质可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,计算机可读存储介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。计算机可读存储介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。

Claims (2)

1.一种基于全景视觉与激光雷达融合SLAM系统的智能车,其特征在于,包括上铝合金板和下铝合金板,全景相机,激光雷达,相机遮光罩,相机支架,计算机,锂电池,电机驱动模块,电机和轮子;其中:
所述上铝合金板和下铝合金板之间通过多个铝型材固定连接,铝型材的高度根据实际需要进行选择;
所述电机有四个,分别安装在下铝合金板的四个角的下方,电机的输出轴连接智能车四个轮子,通过控制四个轮子转动,实现智能车的在不同方向的行驶;
所述锂电池和电机驱动模块置于一收纳盒中,该收纳盒放置于下铝合金板上表面中间;所述锂电池用来给智能车供电,保证各模块的正常运行;所述电机驱动模块中装有无线网络及蓝牙模块,可以连接计算机或者手机APP,以及无线遥控器,实现对四个电机的控制;
所述相机支架安装在上铝合金板上表面的中间,所述相机遮光罩和全景相机放置在相机支架上方,进行固定,防止其晃动造成拍摄的图像模糊不清;相机支架可根据全景相机的视场角调整高度,以避免智能车上其他装置遮挡其视野;
所述计算机设置于上铝合金板上表面的后方,用于接收全景相机拍摄的图像序列,并进行处理;
所述激光雷达安装于上铝合金板上表面的前方,并与计算机连接,用于检测智能车前方某一视野内的物体,并生成点云图;
所述计算机装载有全景视觉与激光雷达融合SLAM系统,全景相机采集到的全景图像序列与激光雷达生成的点云图在SLAM系统进行数据融合,并估计车辆的位姿、重建场景地图;同时实现测距和避障功能。
2.根据权利要求1所述的基于全景视觉与激光雷达融合SLAM系统的智能车,其特征在于,所述全景视觉与激光雷达融合SLAM系统运作过程如下:
所述全景相机连接到计算机之后,采集智能车周围360°场景的图像连续帧,然后输入到计算机中; SLAM系统将对这些图像序列进行处理;首先使用掩膜避开图像中的盲区部分,提取环形有效区域的特征点;所述激光雷达对前方的场景进行实时的扫描,同时将点云信息传输到计算机中,并融合激光点云信息与图像信息;
如果系统尚未初始化,则执行初始化过程:将这些特征点进行帧间匹配,然后筛选正确匹配的特征点对,来估计当前相机的初始位姿,并根据与激光点云的数据融合结果得到环境中的初始地图点;使用局部光束法平差对相机初始位姿和初始地图点进行优化;
完成全景视觉与激光雷达融合SLAM系统的初始化后,系统根据全景相机采集到的当前帧图像,使用跟踪模型跟踪已有的地图点;估计当前相机的运动位姿,更新局部地图;然后使用局部BA优化当前位姿和地图点;
当所述全景视觉与激光雷达融合SLAM系统识别到智能车返回先前经过的位置时,根据当前关键帧和上次经过该地时生成的关键帧之间的相似度,来判断是否满足闭环检测的条件;由于全景相机具有360°视场角,即便从相反的方向返回先前经过的位置,也能保证当前关键帧和上次经过该地时生成的关键帧之间具有足够相似度,从而完成闭环检测,校正尺度漂移;然后进行全局BA以获得更为精确的运动位姿和地图点;
智能车在行驶的过程中,将激光点云图与全景相机采集的图像信息融合,能获得更精确的空间点坐标,从而提升智能车的定位精度;同时根据获取的点云信息来判断前方是否具有障碍物;如果识别到障碍物,计算机将根据障碍物到智能车的距离发出指令到电机驱动模块,并通过电机控制轮子的运动,以实现智能车的减速及拐弯。
CN202111178550.9A 2021-10-10 2021-10-10 一种基于全景视觉与激光雷达融合slam系统的智能车 Pending CN114092551A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111178550.9A CN114092551A (zh) 2021-10-10 2021-10-10 一种基于全景视觉与激光雷达融合slam系统的智能车

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111178550.9A CN114092551A (zh) 2021-10-10 2021-10-10 一种基于全景视觉与激光雷达融合slam系统的智能车

Publications (1)

Publication Number Publication Date
CN114092551A true CN114092551A (zh) 2022-02-25

Family

ID=80296660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111178550.9A Pending CN114092551A (zh) 2021-10-10 2021-10-10 一种基于全景视觉与激光雷达融合slam系统的智能车

Country Status (1)

Country Link
CN (1) CN114092551A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114815821A (zh) * 2022-04-19 2022-07-29 山东亚历山大智能科技有限公司 基于多线激光雷达的室内自适应全景避障方法及系统
CN115713530A (zh) * 2022-12-19 2023-02-24 北京卓翼智能科技有限公司 一种即时定位与地图构建系统
CN117539268A (zh) * 2024-01-09 2024-02-09 吉林省吉邦自动化科技有限公司 基于机器视觉与激光雷达融合的vga自主避障系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114815821A (zh) * 2022-04-19 2022-07-29 山东亚历山大智能科技有限公司 基于多线激光雷达的室内自适应全景避障方法及系统
CN114815821B (zh) * 2022-04-19 2022-12-09 山东亚历山大智能科技有限公司 基于多线激光雷达的室内自适应全景避障方法及系统
CN115713530A (zh) * 2022-12-19 2023-02-24 北京卓翼智能科技有限公司 一种即时定位与地图构建系统
CN117539268A (zh) * 2024-01-09 2024-02-09 吉林省吉邦自动化科技有限公司 基于机器视觉与激光雷达融合的vga自主避障系统

Similar Documents

Publication Publication Date Title
US10776939B2 (en) Obstacle avoidance system based on embedded stereo vision for unmanned aerial vehicles
CN114092551A (zh) 一种基于全景视觉与激光雷达融合slam系统的智能车
Asadi et al. Vision-based integrated mobile robotic system for real-time applications in construction
US10339387B2 (en) Automated multiple target detection and tracking system
CN110148185B (zh) 确定成像设备坐标系转换参数的方法、装置和电子设备
EP3818337B1 (en) Defect detection system using a camera equipped uav for building facades on complex asset geometry with optimal automatic obstacle deconflicted flightpath
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
CN111986506B (zh) 基于多视觉系统的机械式停车位泊车方法
EP2570993B1 (en) Egomotion estimation system and method
US11064178B2 (en) Deep virtual stereo odometry
WO2017057041A1 (ja) 信号処理装置、信号処理方法、およびプログラム
US11120280B2 (en) Geometry-aware instance segmentation in stereo image capture processes
CN111178148B (zh) 一种基于无人机视觉系统的地面目标地理坐标定位方法
TW202020811A (zh) 用於基於障礙物檢測校正高清晰度地圖的系統和方法
US20170017839A1 (en) Object detection apparatus, object detection method, and mobile robot
US11282164B2 (en) Depth-guided video inpainting for autonomous driving
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
CN110163963B (zh) 一种基于slam的建图装置和建图方法
US20210190526A1 (en) System and method of generating high-definition map based on camera
US11482007B2 (en) Event-based vehicle pose estimation using monochromatic imaging
CN112700486B (zh) 对图像中路面车道线的深度进行估计的方法及装置
CN113665591B (zh) 无人驾驶控制方法、装置、设备及介质
JP6707933B2 (ja) 無人飛行装置制御システム、無人飛行装置制御方法および無人飛行装置
JP7138856B2 (ja) 俯瞰映像提示システム
US20230401748A1 (en) Apparatus and methods to calibrate a stereo camera pair

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination