CN110398745A - 基于激光雷达和视觉的叉车定位方法 - Google Patents

基于激光雷达和视觉的叉车定位方法 Download PDF

Info

Publication number
CN110398745A
CN110398745A CN201910717569.2A CN201910717569A CN110398745A CN 110398745 A CN110398745 A CN 110398745A CN 201910717569 A CN201910717569 A CN 201910717569A CN 110398745 A CN110398745 A CN 110398745A
Authority
CN
China
Prior art keywords
image
laser radar
feature
fork truck
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910717569.2A
Other languages
English (en)
Inventor
张先江
张远谋
皮钒
蒋玉城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Hysen G Nor Information Technology Co Ltd
Original Assignee
Hunan Hysen G Nor Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Hysen G Nor Information Technology Co Ltd filed Critical Hunan Hysen G Nor Information Technology Co Ltd
Priority to CN201910717569.2A priority Critical patent/CN110398745A/zh
Publication of CN110398745A publication Critical patent/CN110398745A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

基于激光雷达和视觉的叉车定位方法,包括以下步骤:步骤S1:基于迭代最近点算法实现激光雷达的扫描匹配;步骤S2:基于视觉特征直接匹配进行重定位;步骤S3:基于图优化算法实现定位误差优化。本发明结合激光雷达和视觉进行定位,先通过激光雷达实现初定位,然后通过视觉特征直接匹配进行视觉重定位,减小叉车定位过程中的累计误差,提高定位精度。

Description

基于激光雷达和视觉的叉车定位方法
技术领域
本发明涉及叉车定位方法,具体是涉及一种基于激光雷达和视觉的叉车定位方法。
背景技术
叉车是工业搬运车辆,是指对成件托盘货物进行装卸、堆垛和短距离运输作业的各种轮式搬运车辆。叉车在企业的物流系统中扮演着非常重要的角色,是物料搬运设备中的主力军。
现有的叉车大多是人工驾驶操作,对于AGV类叉车,定位单一地采用激光雷达或视觉来实现,没有采用其他方式进行重定位,将会导致定位不精准或定位出现错误的现象。
发明内容
本发明所要解决的技术问题是,克服上述背景技术的不足,提供一种基于激光雷达和视觉的叉车定位方法,先通过激光雷达实现初定位,然后通过视觉特征直接匹配进行视觉重定位,减小叉车定位过程中的累计误差,提高定位精度。
本发明解决其技术问题采用的技术方案是,一种基于激光雷达和视觉的叉车定位方法,包括以下步骤:
步骤S1:基于迭代最近点算法实现激光雷达的扫描匹配;
步骤S2:基于视觉特征直接匹配进行重定位;
步骤S3:基于图优化算法实现定位误差优化。
进一步,所述步骤S1中,基于迭代最近点算法实现激光雷达的扫描匹配包括以下步骤:
步骤S11:预设激光雷达的激光距离和角度范围;设定激光距离为0.3~40m,角度为0~360°;
步骤S12:利用激光雷达扫描当前环境,将激光雷达扫描到的当前帧数据投影到参考帧坐标系中,参考帧为当前帧的上一帧;
步骤S13:根据预设好的激光距离和角度范围将不符合要求的激光点数据剔除;
步骤S14:对于当前帧的每一点Xi,i=1,2,3…M,M表示每一帧的激光点数,根据欧氏距离在参考帧中寻找对应的最小点Xj1和第二小点Xj2,并计算得到点Xj1和点Xj2连线的法向量ni,从而得到一组数据<Xi,Xj1,ni>;
步骤S15:将点Xi到点Xj1的欧氏距离从小到大进行排序,保留前60~80%的数据点;
步骤S16:利用高斯-牛顿优化法迭代求解当前帧与参考帧之间的旋转矩阵R和平移向量T,从而得到当前帧在世界坐标系下的位姿世界坐标系为第一帧参考帧对应的坐标系,x表示世界坐标系的横坐标,y表示世界坐标系的纵坐标,θ表示叉车的航向角,其中,高斯-牛顿优化法优化目标为:
步骤S17:将当前帧设置为参考帧,重复步骤S12~S16,得到激光雷达的数据帧的位姿信息P1,P2,P3…Pn,从而得到激光雷达的定位信息。
进一步,所述步骤S2中,基于视觉特征直接匹配进行重定位的方法如下:
步骤S21:在叉车行进过程中,根据激光雷达的定位信息得到叉车的位姿信息,当前叉车的位姿为
步骤S22:在叉车行进过程中,通过鱼眼镜头相机在行进路线上采集图像数据;利用时间戳信息将激光雷达的数据和鱼眼镜头相机的数据同步;
步骤S23:对采集到的图像依次进行ORB特征提取,设定图像的ORB特征数量阈值T1,将ORB特征数量达到阈值T1的图像作为有效图像;T1取值500~1000;
步骤S24:对当前有效图像的ORB特征fi与上一帧有效图像的ORB特征进行特征匹配,若两者之间匹配到的特征点点对数量小于n1,或匹配到的特征点点对之间的平均汉明距离大于n2,则保存当前有效图像的ORB特征fi及当前有效图像的位姿也即当前叉车的位姿;n1取值400~500;n2取值30~50;
步骤S25:将当前保存的有效图像的ORB特征fi分别与除上一帧的所有历史保存的有效图像的ORB特征进行特征匹配,获取匹配上的特征点点数最高图像的ORB特征fj,若匹配上的特征点点数与ORB特征fi的总特征点点数的比值大于n3,且匹配到的特征点点对之间的平均汉明距离小于n4,则重定位成功,叉车曾经到达过当前位置附近;n3取值0.75~0.9,n4取值30~40;
步骤S26:将当前有效图像的ORB特征fi与匹配上的特征点点数最高图像的ORB特征fj进行比较计算,根据对极几何得到两者之间的旋转角度与偏移位置,根据匹配特征点点数最高图像的ORB特征fj对应的位姿及旋转角度与偏移位置计算当前有效图像的ORB特征f'i对应的位姿用计算得到的位姿替换当前激光雷达计算的位姿
进一步,所述步骤S23中,ORB特征提取方法如下:
步骤S231:对图像进行FAST-9特征提取,根据Harris特征值按升序选取N个特征点,并计算特征点的朝向信息,得到oFAST特征;
步骤S232:对oFAST特征进行BRIEF特征描述,得到BRIEF描述子,根据特征点的朝向信息旋转BRIEF描述子,得到rBRIEF特征,也即ORB特征。
进一步,所述步骤S25中,ORB特征匹配的方法如下:
将当前有效图像的ORB特征f与除上一帧的所有历史保存的有效图像的ORB特征分别进行匹配,设进行匹配的两个ORB特征为f1与f2,将f1中的每一个特征点与f2中的每一个特征点进行匹配;当进行匹配的两个特征点之间的汉明距离最小值与次小值之比大于阈值T2,则这两个特征点匹配成功,T2取值0.5~0.6。
进一步,所述步骤S26中,计算旋转角度与偏移位置的方法如下:
根据每对匹配成功的特征点对的坐标和图像中心的坐标计算图像旋转的角度,特征点对与图形中心之间的夹角即为图像的旋转角度;通过RANSAC算法对图像旋转的角度进行筛选,得到图像精准的旋转角度,也即叉车的航向角;
根据每对匹配成功的特征点对的坐标,采用八点法与RANSAC算法,即可得到图像的偏移位置,也即叉车的偏移位置。
进一步,所述步骤S2中,基于图优化算法实现定位误差优化的方法如下:
以P0为原点,以重定位后的位姿信息作为图优化的顶点,重定位后的位姿之间的相互约束关系作为图优化的边;采用非线性最优化方法优化定位过程中累计的误差。
与现有技术相比,本发明的优点如下:
本发明结合激光雷达和视觉进行定位,先通过激光雷达实现初定位,然后通过视觉特征直接匹配进行视觉重定位,减小叉车定位过程中的累计误差,提高定位精度。
附图说明
图1是本发明的方法流程图。
图2是图1所示实施例的基于迭代最近点算法实现激光雷达的扫描匹配方法流程图。
图3是图1所示实施例的基于视觉特征直接匹配进行重定位的方法流程图。
图4是图1所示实施例的叉车的结构示意图。
图中,1—叉车,2—鱼眼镜头相机,3—激光雷达。
具体实施方式
下面结合附图及具体实施例对本发明作进一步详细描述。
参照图1,本实施例包括以下步骤:
步骤S1:基于迭代最近点算法(ICP)实现激光雷达的扫描匹配;
步骤S2:基于视觉特征直接匹配进行重定位;
步骤S3:基于图优化算法实现定位误差优化。
参照图2,步骤S1中,基于迭代最近点算法(ICP)实现激光雷达的扫描匹配包括以下步骤:
步骤S11:预设激光雷达的激光距离和角度范围;设定激光距离为0.3~40m,角度为0~360°;
步骤S12:利用激光雷达扫描当前环境,将激光雷达扫描到的当前帧数据投影到参考帧坐标系中,参考帧为当前帧的上一帧;
步骤S13:根据预设好的激光距离和角度范围将不符合要求的激光点数据剔除;
步骤S14:对于当前帧的每一点Xi,i=1,2,3…M,M表示每一帧的激光点数,根据欧氏距离在参考帧中寻找对应的最小点Xj1和第二小点Xj2,并计算得到点Xj1和点Xj2连线的法向量ni,从而得到一组数据<Xi,Xj1,ni>;
步骤S15:将点Xi到点Xj1的欧氏距离从小到大进行排序,保留前60~80%的数据点,从而剔除当前帧与参考帧中大部分无法匹配的点;
步骤S16:利用高斯-牛顿优化法迭代求解当前帧与参考帧之间的旋转矩阵R和平移向量T,从而得到当前帧在世界坐标系下的位姿世界坐标系为第一帧参考帧对应的坐标系,x表示世界坐标系的横坐标,y表示世界坐标系的纵坐标,θ表示叉车的航向角,其中,高斯-牛顿优化法优化目标为:
步骤S17:将当前帧设置为参考帧,重复步骤S12~S16,得到激光雷达的数据帧的位姿信息P1,P2,P3…Pn,从而得到激光雷达的定位信息。
参照图3,步骤S2中,基于视觉特征直接匹配进行重定位的方法如下:
步骤S21:在叉车行进过程中,根据激光雷达的定位信息得到叉车的位姿信息,当前叉车的位姿为
步骤S22:在叉车行进过程中,通过鱼眼镜头相机在行进路线上采集图像数据,每100ms采集一次图像,在实际应用中,可设置为每80~120ms采集一次图像;利用时间戳信息将激光雷达的数据和鱼眼镜头相机的数据同步;
步骤S23:对采集到的图像依次进行ORB特征提取,设定图像的ORB特征数量阈值T1,将ORB特征数量达到阈值T1的图像作为有效图像;本实施例中,T1取值1000,在实际应用中,T1可根据需要设定,T1取值500~1000;
步骤S24:对当前有效图像的ORB特征fi与上一帧有效图像的ORB特征进行特征匹配,若两者之间匹配到的特征点点对数量小于n1,或匹配到的特征点点对之间的平均汉明距离大于n2,则保存当前有效图像的ORB特征fi及当前有效图像的位姿也即当前叉车的位姿;本实施例中,n1取值500,n2取值40,在实际应用中,n1、n2可根据需要设定,n1取值400~500;n2取值30~50;
步骤S25:将当前保存的有效图像的ORB特征fi分别与除上一帧的所有历史保存的有效图像的ORB特征进行特征匹配,获取匹配上的特征点点数最高图像的ORB特征fj,若匹配上的特征点点数与ORB特征fi的总特征点点数的比值大于n3,且匹配到的特征点点对之间的平均汉明距离小于n4,则重定位成功,叉车曾经到达过当前位置附近。本实施例中,n3取值0.8,n4取值30,在实际应用中,n3、n4可根据需要设定,n3取值0.75~0.9,n4取值30~40。
步骤S26:将当前有效图像的ORB特征fi与匹配上的特征点点数最高图像的ORB特征fj进行比较计算,根据对极几何得到两者之间的旋转角度与偏移位置,根据匹配特征点点数最高图像的ORB特征fj对应的位姿及旋转角度与偏移位置计算当前有效图像的ORB特征f'i对应的位姿用计算得到的位姿替换当前激光雷达计算的位姿
步骤S23中,ORB特征提取方法如下:
步骤S231:对图像进行FAST-9特征提取,根据Harris特征值按升序选取N个特征点,并计算特征点的朝向信息,得到oFAST特征;
步骤S232:对oFAST特征进行BRIEF特征描述,得到BRIEF描述子,根据特征点的朝向信息旋转BRIEF描述子,得到rBRIEF特征,也即ORB特征。
步骤S25中,ORB特征匹配的方法如下:
将当前有效图像的ORB特征f与除上一帧的所有历史保存的有效图像的ORB特征分别进行匹配,设进行匹配的两个ORB特征为f1与f2,将f1中的每一个特征点与f2中的每一个特征点进行匹配;当进行匹配的两个特征点之间的汉明距离最小值与次小值之比大于阈值T2,则这两个特征点匹配成功;本实施例中,T2取值0.6,在实际应用中,T2可根据需要设定,T2取值0.5~0.6。
步骤S26中,计算旋转角度与偏移位置的方法如下:
根据每对匹配成功的特征点对的坐标和图像中心的坐标计算图像旋转的角度,特征点对与图形中心之间的夹角即为图像的旋转角度;通过RANSAC算法对图像旋转的角度进行筛选,得到图像精准的旋转角度。图像精准的旋转角度,也即叉车的航向角。若叉车的航向角为0°或在误差允许的范围内接近0°,则说明叉车的航向角未发生旋转,否则说明叉车的航向角发生了旋转。
根据每对匹配成功的特征点对的坐标,采用八点法与RANSAC算法,即可得到图像的偏移位置,也即叉车的偏移位置。
步骤S3中,由于基于激光雷达定位和视觉重定位存在累计误差,需要进行优化,增强定位的鲁棒性,基于图优化算法实现定位误差优化的方法如下:
当重定位发生时,顶点之间的相互约束关系发生变化,以P0为原点,以重定位后的位姿信息作为图优化的顶点,重定位后的位姿之间的相互约束关系作为图优化的边;这时采用非线性最优化方法优化定位过程中累计的误差。
参照图4,本发明的鱼眼镜头相机2、激光雷达3安装于叉车1的顶部,鱼眼镜头相机2的镜头方向与Z轴方向一致,鱼眼镜头相机2采集沿Z轴方向的图像;激光雷达3在XY轴平面内360°旋转对环境进行扫描。其中X、Y、Z是三维笛卡尔坐标的坐标轴,X轴表示叉车1前进的方向,Y轴表示水平面内与X轴垂直的坐标轴,Z轴表示竖直朝上的坐标轴。
本发明结合激光雷达和视觉进行定位,先通过激光雷达实现初定位,然后通过视觉特征直接匹配进行视觉重定位,减小叉车定位过程中的累计误差,提高定位精度。
本领域的技术人员可以对本发明进行各种修改和变型,倘若这些修改和变型在本发明权利要求及其等同技术的范围之内,则这些修改和变型也在本发明的保护范围之内。
说明书中未详细描述的内容为本领域技术人员公知的现有技术。

Claims (7)

1.一种基于激光雷达和视觉的叉车定位方法,其特征在于,包括以下步骤:
步骤S1:基于迭代最近点算法实现激光雷达的扫描匹配;
步骤S2:基于视觉特征直接匹配进行重定位;
步骤S3:基于图优化算法实现定位误差优化。
2.如权利要求1所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S1中,基于迭代最近点算法实现激光雷达的扫描匹配包括以下步骤:
步骤S11:预设激光雷达的激光距离和角度范围;设定激光距离为0.3~40m,角度为0~360°;
步骤S12:利用激光雷达扫描当前环境,将激光雷达扫描到的当前帧数据投影到参考帧坐标系中,参考帧为当前帧的上一帧;
步骤S13:根据预设好的激光距离和角度范围将不符合要求的激光点数据剔除;
步骤S14:对于当前帧的每一点Xi,i=1,2,3…M,M表示每一帧的激光点数,根据欧氏距离在参考帧中寻找对应的最小点Xj1和第二小点Xj2,并计算得到点Xj1和点Xj2连线的法向量ni,从而得到一组数据<Xi,Xj1,ni>;
步骤S15:将点Xi到点Xj1的欧氏距离从小到大进行排序,保留前60~80%的数据点;
步骤S16:利用高斯-牛顿优化法迭代求解当前帧与参考帧之间的旋转矩阵R和平移向量T,从而得到当前帧在世界坐标系下的位姿世界坐标系为第一帧参考帧对应的坐标系,x表示世界坐标系的横坐标,y表示世界坐标系的纵坐标,θ表示叉车的航向角,其中,高斯-牛顿优化法优化目标为:
步骤S17:将当前帧设置为参考帧,重复步骤S12~S16,得到激光雷达的数据帧的位姿信息P1,P2,P3…Pn,从而得到激光雷达的定位信息。
3.如权利要求1或2所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S2中,基于视觉特征直接匹配进行重定位的方法如下:
步骤S21:在叉车行进过程中,根据激光雷达的定位信息得到叉车的位姿信息,当前叉车的位姿为
步骤S22:在叉车行进过程中,通过鱼眼镜头相机在行进路线上采集图像数据;利用时间戳信息将激光雷达的数据和鱼眼镜头相机的数据同步;
步骤S23:对采集到的图像依次进行ORB特征提取,设定图像的ORB特征数量阈值T1,将ORB特征数量达到阈值T1的图像作为有效图像;T1取值500~1000;
步骤S24:对当前有效图像的ORB特征fi与上一帧有效图像的ORB特征进行特征匹配,若两者之间匹配到的特征点点对数量小于n1,或匹配到的特征点点对之间的平均汉明距离大于n2,则保存当前有效图像的ORB特征fi及当前有效图像的位姿也即当前叉车的位姿;n1取值400~500;n2取值30~50;
步骤S25:将当前保存的有效图像的ORB特征fi分别与除上一帧的所有历史保存的有效图像的ORB特征进行特征匹配,获取匹配上的特征点点数最高图像的ORB特征fj,若匹配上的特征点点数与ORB特征fi的总特征点点数的比值大于n3,且匹配到的特征点点对之间的平均汉明距离小于n4,则重定位成功,叉车曾经到达过当前位置附近;n3取值0.75~0.9,n4取值30~40;
步骤S26:将当前有效图像的ORB特征fi与匹配上的特征点点数最高图像的ORB特征fj进行比较计算,根据对极几何得到两者之间的旋转角度与偏移位置,根据匹配特征点点数最高图像的ORB特征fj对应的位姿及旋转角度与偏移位置计算当前有效图像的ORB特征f'i对应的位姿用计算得到的位姿替换当前激光雷达计算的位姿
4.如权利要求3所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S23中,ORB特征提取方法如下:
步骤S231:对图像进行FAST-9特征提取,根据Harris特征值按升序选取N个特征点,并计算特征点的朝向信息,得到oFAST特征;
步骤S232:对oFAST特征进行BRIEF特征描述,得到BRIEF描述子,根据特征点的朝向信息旋转BRIEF描述子,得到rBRIEF特征,也即ORB特征。
5.如权利要求3所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S25中,ORB特征匹配的方法如下:
将当前有效图像的ORB特征f与除上一帧的所有历史保存的有效图像的ORB特征分别进行匹配,设进行匹配的两个ORB特征为f1与f2,将f1中的每一个特征点与f2中的每一个特征点进行匹配;当进行匹配的两个特征点之间的汉明距离最小值与次小值之比大于阈值T2,则这两个特征点匹配成功,T2取值0.5~0.6。
6.如权利要求3所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S26中,计算旋转角度与偏移位置的方法如下:
根据每对匹配成功的特征点对的坐标和图像中心的坐标计算图像旋转的角度,特征点对与图形中心之间的夹角即为图像的旋转角度;通过RANSAC算法对图像旋转的角度进行筛选,得到图像精准的旋转角度,也即叉车的航向角;
根据每对匹配成功的特征点对的坐标,采用八点法与RANSAC算法,即可得到图像的偏移位置,也即叉车的偏移位置。
7.如权利要求3所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S2中,基于图优化算法实现定位误差优化的方法如下:
以P0为原点,以重定位后的位姿信息作为图优化的顶点,重定位后的位姿之间的相互约束关系作为图优化的边;采用非线性最优化方法优化定位过程中累计的误差。
CN201910717569.2A 2019-08-05 2019-08-05 基于激光雷达和视觉的叉车定位方法 Pending CN110398745A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910717569.2A CN110398745A (zh) 2019-08-05 2019-08-05 基于激光雷达和视觉的叉车定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910717569.2A CN110398745A (zh) 2019-08-05 2019-08-05 基于激光雷达和视觉的叉车定位方法

Publications (1)

Publication Number Publication Date
CN110398745A true CN110398745A (zh) 2019-11-01

Family

ID=68327507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910717569.2A Pending CN110398745A (zh) 2019-08-05 2019-08-05 基于激光雷达和视觉的叉车定位方法

Country Status (1)

Country Link
CN (1) CN110398745A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112964276A (zh) * 2021-02-09 2021-06-15 中国科学院深圳先进技术研究院 一种基于激光和视觉融合的在线标定方法
CN113313444A (zh) * 2021-04-19 2021-08-27 安吉智能物联技术有限公司 一种物流仓库用叉车实时定位系统及其方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301654A (zh) * 2017-06-12 2017-10-27 西北工业大学 一种多传感器的高精度即时定位与建图方法
US20180149753A1 (en) * 2016-11-30 2018-05-31 Yujin Robot Co., Ltd. Ridar apparatus based on time of flight and moving object
CN108226938A (zh) * 2017-12-08 2018-06-29 华南理工大学 一种agv小车的定位系统和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180149753A1 (en) * 2016-11-30 2018-05-31 Yujin Robot Co., Ltd. Ridar apparatus based on time of flight and moving object
CN107301654A (zh) * 2017-06-12 2017-10-27 西北工业大学 一种多传感器的高精度即时定位与建图方法
CN108226938A (zh) * 2017-12-08 2018-06-29 华南理工大学 一种agv小车的定位系统和方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张杰 等: "一种改进ICP算法的移动机器人激光与视觉建图方法研究", 《机电工程》 *
肖月: "激光视觉融合的机器人即时定位建图研究", 《中国优秀硕士学位论文全文数据库-基础科学辑》 *
黄婷: "基于激光雷达和深度相机的AGV自主定位方法研究", 《中国优秀硕士学位论文全文数据库-信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112964276A (zh) * 2021-02-09 2021-06-15 中国科学院深圳先进技术研究院 一种基于激光和视觉融合的在线标定方法
CN113313444A (zh) * 2021-04-19 2021-08-27 安吉智能物联技术有限公司 一种物流仓库用叉车实时定位系统及其方法

Similar Documents

Publication Publication Date Title
CN111242031B (zh) 基于高精度地图的车道线检测方法
CN104537709B (zh) 一种基于位姿变化的实时三维重建关键帧确定方法
WO2021189468A1 (zh) 激光雷达的姿态校正方法、装置和系统
CN107292927A (zh) 一种基于双目视觉的对称运动平台位姿测量方法
CN111507901B (zh) 基于航带gps及尺度不变约束的航拍图像拼接定位方法
CN109405835B (zh) 基于非合作目标直线与圆单目图像的相对位姿测量方法
CN110082775B (zh) 基于激光装置的车辆定位方法和系统
CN110908401A (zh) 一种针对未知杆塔结构的无人机自主巡检方法
CN110398745A (zh) 基于激光雷达和视觉的叉车定位方法
CN110569861B (zh) 一种基于点特征和轮廓特征融合的图像匹配定位方法
CN112484746B (zh) 一种基于地平面的单目视觉辅助激光雷达里程计方法
CN109325913A (zh) 无人机图像拼接方法及装置
CN111123962A (zh) 一种用于电力杆塔巡检的旋翼无人机重定位拍照方法
CN110110702A (zh) 一种基于改进ssd目标检测网络的无人机规避算法
CN110084743B (zh) 基于多航带起始航迹约束的图像拼接与定位方法
CN112232275A (zh) 基于双目识别的障碍物检测方法、系统、设备及存储介质
KR102372298B1 (ko) 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치
CN108592860B (zh) 用于机载光电观瞄系统基轴对准操作后的瞄准线输出角度计算方法
CN114442054A (zh) 一种移动机器人的传感器与底盘联合标定系统及方法
CN116977328A (zh) 车底机器人主动视觉中的图像质量评估方法
CN113781524B (zh) 一种基于二维标签的目标追踪系统及方法
CN114973037B (zh) 一种无人机智能检测与同步定位多目标的方法
CN113605766B (zh) 一种汽车搬运机器人的探测系统及位置调整方法
CN115597591A (zh) 一种基于多线激光雷达的机器人重定位方法及系统
JP7312089B2 (ja) 計測装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191101