CN110398745A - 基于激光雷达和视觉的叉车定位方法 - Google Patents
基于激光雷达和视觉的叉车定位方法 Download PDFInfo
- Publication number
- CN110398745A CN110398745A CN201910717569.2A CN201910717569A CN110398745A CN 110398745 A CN110398745 A CN 110398745A CN 201910717569 A CN201910717569 A CN 201910717569A CN 110398745 A CN110398745 A CN 110398745A
- Authority
- CN
- China
- Prior art keywords
- image
- laser radar
- feature
- fork truck
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
基于激光雷达和视觉的叉车定位方法,包括以下步骤:步骤S1:基于迭代最近点算法实现激光雷达的扫描匹配;步骤S2:基于视觉特征直接匹配进行重定位;步骤S3:基于图优化算法实现定位误差优化。本发明结合激光雷达和视觉进行定位,先通过激光雷达实现初定位,然后通过视觉特征直接匹配进行视觉重定位,减小叉车定位过程中的累计误差,提高定位精度。
Description
技术领域
本发明涉及叉车定位方法,具体是涉及一种基于激光雷达和视觉的叉车定位方法。
背景技术
叉车是工业搬运车辆,是指对成件托盘货物进行装卸、堆垛和短距离运输作业的各种轮式搬运车辆。叉车在企业的物流系统中扮演着非常重要的角色,是物料搬运设备中的主力军。
现有的叉车大多是人工驾驶操作,对于AGV类叉车,定位单一地采用激光雷达或视觉来实现,没有采用其他方式进行重定位,将会导致定位不精准或定位出现错误的现象。
发明内容
本发明所要解决的技术问题是,克服上述背景技术的不足,提供一种基于激光雷达和视觉的叉车定位方法,先通过激光雷达实现初定位,然后通过视觉特征直接匹配进行视觉重定位,减小叉车定位过程中的累计误差,提高定位精度。
本发明解决其技术问题采用的技术方案是,一种基于激光雷达和视觉的叉车定位方法,包括以下步骤:
步骤S1:基于迭代最近点算法实现激光雷达的扫描匹配;
步骤S2:基于视觉特征直接匹配进行重定位;
步骤S3:基于图优化算法实现定位误差优化。
进一步,所述步骤S1中,基于迭代最近点算法实现激光雷达的扫描匹配包括以下步骤:
步骤S11:预设激光雷达的激光距离和角度范围;设定激光距离为0.3~40m,角度为0~360°;
步骤S12:利用激光雷达扫描当前环境,将激光雷达扫描到的当前帧数据投影到参考帧坐标系中,参考帧为当前帧的上一帧;
步骤S13:根据预设好的激光距离和角度范围将不符合要求的激光点数据剔除;
步骤S14:对于当前帧的每一点Xi,i=1,2,3…M,M表示每一帧的激光点数,根据欧氏距离在参考帧中寻找对应的最小点Xj1和第二小点Xj2,并计算得到点Xj1和点Xj2连线的法向量ni,从而得到一组数据<Xi,Xj1,ni>;
步骤S15:将点Xi到点Xj1的欧氏距离从小到大进行排序,保留前60~80%的数据点;
步骤S16:利用高斯-牛顿优化法迭代求解当前帧与参考帧之间的旋转矩阵R和平移向量T,从而得到当前帧在世界坐标系下的位姿世界坐标系为第一帧参考帧对应的坐标系,x表示世界坐标系的横坐标,y表示世界坐标系的纵坐标,θ表示叉车的航向角,其中,高斯-牛顿优化法优化目标为:
步骤S17:将当前帧设置为参考帧,重复步骤S12~S16,得到激光雷达的数据帧的位姿信息P1,P2,P3…Pn,从而得到激光雷达的定位信息。
进一步,所述步骤S2中,基于视觉特征直接匹配进行重定位的方法如下:
步骤S21:在叉车行进过程中,根据激光雷达的定位信息得到叉车的位姿信息,当前叉车的位姿为
步骤S22:在叉车行进过程中,通过鱼眼镜头相机在行进路线上采集图像数据;利用时间戳信息将激光雷达的数据和鱼眼镜头相机的数据同步;
步骤S23:对采集到的图像依次进行ORB特征提取,设定图像的ORB特征数量阈值T1,将ORB特征数量达到阈值T1的图像作为有效图像;T1取值500~1000;
步骤S24:对当前有效图像的ORB特征fi与上一帧有效图像的ORB特征进行特征匹配,若两者之间匹配到的特征点点对数量小于n1,或匹配到的特征点点对之间的平均汉明距离大于n2,则保存当前有效图像的ORB特征fi及当前有效图像的位姿也即当前叉车的位姿;n1取值400~500;n2取值30~50;
步骤S25:将当前保存的有效图像的ORB特征fi分别与除上一帧的所有历史保存的有效图像的ORB特征进行特征匹配,获取匹配上的特征点点数最高图像的ORB特征fj,若匹配上的特征点点数与ORB特征fi的总特征点点数的比值大于n3,且匹配到的特征点点对之间的平均汉明距离小于n4,则重定位成功,叉车曾经到达过当前位置附近;n3取值0.75~0.9,n4取值30~40;
步骤S26:将当前有效图像的ORB特征fi与匹配上的特征点点数最高图像的ORB特征fj进行比较计算,根据对极几何得到两者之间的旋转角度与偏移位置,根据匹配特征点点数最高图像的ORB特征fj对应的位姿及旋转角度与偏移位置计算当前有效图像的ORB特征f'i对应的位姿用计算得到的位姿替换当前激光雷达计算的位姿
进一步,所述步骤S23中,ORB特征提取方法如下:
步骤S231:对图像进行FAST-9特征提取,根据Harris特征值按升序选取N个特征点,并计算特征点的朝向信息,得到oFAST特征;
步骤S232:对oFAST特征进行BRIEF特征描述,得到BRIEF描述子,根据特征点的朝向信息旋转BRIEF描述子,得到rBRIEF特征,也即ORB特征。
进一步,所述步骤S25中,ORB特征匹配的方法如下:
将当前有效图像的ORB特征f与除上一帧的所有历史保存的有效图像的ORB特征分别进行匹配,设进行匹配的两个ORB特征为f1与f2,将f1中的每一个特征点与f2中的每一个特征点进行匹配;当进行匹配的两个特征点之间的汉明距离最小值与次小值之比大于阈值T2,则这两个特征点匹配成功,T2取值0.5~0.6。
进一步,所述步骤S26中,计算旋转角度与偏移位置的方法如下:
根据每对匹配成功的特征点对的坐标和图像中心的坐标计算图像旋转的角度,特征点对与图形中心之间的夹角即为图像的旋转角度;通过RANSAC算法对图像旋转的角度进行筛选,得到图像精准的旋转角度,也即叉车的航向角;
根据每对匹配成功的特征点对的坐标,采用八点法与RANSAC算法,即可得到图像的偏移位置,也即叉车的偏移位置。
进一步,所述步骤S2中,基于图优化算法实现定位误差优化的方法如下:
以P0为原点,以重定位后的位姿信息作为图优化的顶点,重定位后的位姿之间的相互约束关系作为图优化的边;采用非线性最优化方法优化定位过程中累计的误差。
与现有技术相比,本发明的优点如下:
本发明结合激光雷达和视觉进行定位,先通过激光雷达实现初定位,然后通过视觉特征直接匹配进行视觉重定位,减小叉车定位过程中的累计误差,提高定位精度。
附图说明
图1是本发明的方法流程图。
图2是图1所示实施例的基于迭代最近点算法实现激光雷达的扫描匹配方法流程图。
图3是图1所示实施例的基于视觉特征直接匹配进行重定位的方法流程图。
图4是图1所示实施例的叉车的结构示意图。
图中,1—叉车,2—鱼眼镜头相机,3—激光雷达。
具体实施方式
下面结合附图及具体实施例对本发明作进一步详细描述。
参照图1,本实施例包括以下步骤:
步骤S1:基于迭代最近点算法(ICP)实现激光雷达的扫描匹配;
步骤S2:基于视觉特征直接匹配进行重定位;
步骤S3:基于图优化算法实现定位误差优化。
参照图2,步骤S1中,基于迭代最近点算法(ICP)实现激光雷达的扫描匹配包括以下步骤:
步骤S11:预设激光雷达的激光距离和角度范围;设定激光距离为0.3~40m,角度为0~360°;
步骤S12:利用激光雷达扫描当前环境,将激光雷达扫描到的当前帧数据投影到参考帧坐标系中,参考帧为当前帧的上一帧;
步骤S13:根据预设好的激光距离和角度范围将不符合要求的激光点数据剔除;
步骤S14:对于当前帧的每一点Xi,i=1,2,3…M,M表示每一帧的激光点数,根据欧氏距离在参考帧中寻找对应的最小点Xj1和第二小点Xj2,并计算得到点Xj1和点Xj2连线的法向量ni,从而得到一组数据<Xi,Xj1,ni>;
步骤S15:将点Xi到点Xj1的欧氏距离从小到大进行排序,保留前60~80%的数据点,从而剔除当前帧与参考帧中大部分无法匹配的点;
步骤S16:利用高斯-牛顿优化法迭代求解当前帧与参考帧之间的旋转矩阵R和平移向量T,从而得到当前帧在世界坐标系下的位姿世界坐标系为第一帧参考帧对应的坐标系,x表示世界坐标系的横坐标,y表示世界坐标系的纵坐标,θ表示叉车的航向角,其中,高斯-牛顿优化法优化目标为:
步骤S17:将当前帧设置为参考帧,重复步骤S12~S16,得到激光雷达的数据帧的位姿信息P1,P2,P3…Pn,从而得到激光雷达的定位信息。
参照图3,步骤S2中,基于视觉特征直接匹配进行重定位的方法如下:
步骤S21:在叉车行进过程中,根据激光雷达的定位信息得到叉车的位姿信息,当前叉车的位姿为
步骤S22:在叉车行进过程中,通过鱼眼镜头相机在行进路线上采集图像数据,每100ms采集一次图像,在实际应用中,可设置为每80~120ms采集一次图像;利用时间戳信息将激光雷达的数据和鱼眼镜头相机的数据同步;
步骤S23:对采集到的图像依次进行ORB特征提取,设定图像的ORB特征数量阈值T1,将ORB特征数量达到阈值T1的图像作为有效图像;本实施例中,T1取值1000,在实际应用中,T1可根据需要设定,T1取值500~1000;
步骤S24:对当前有效图像的ORB特征fi与上一帧有效图像的ORB特征进行特征匹配,若两者之间匹配到的特征点点对数量小于n1,或匹配到的特征点点对之间的平均汉明距离大于n2,则保存当前有效图像的ORB特征fi及当前有效图像的位姿也即当前叉车的位姿;本实施例中,n1取值500,n2取值40,在实际应用中,n1、n2可根据需要设定,n1取值400~500;n2取值30~50;
步骤S25:将当前保存的有效图像的ORB特征fi分别与除上一帧的所有历史保存的有效图像的ORB特征进行特征匹配,获取匹配上的特征点点数最高图像的ORB特征fj,若匹配上的特征点点数与ORB特征fi的总特征点点数的比值大于n3,且匹配到的特征点点对之间的平均汉明距离小于n4,则重定位成功,叉车曾经到达过当前位置附近。本实施例中,n3取值0.8,n4取值30,在实际应用中,n3、n4可根据需要设定,n3取值0.75~0.9,n4取值30~40。
步骤S26:将当前有效图像的ORB特征fi与匹配上的特征点点数最高图像的ORB特征fj进行比较计算,根据对极几何得到两者之间的旋转角度与偏移位置,根据匹配特征点点数最高图像的ORB特征fj对应的位姿及旋转角度与偏移位置计算当前有效图像的ORB特征f'i对应的位姿用计算得到的位姿替换当前激光雷达计算的位姿
步骤S23中,ORB特征提取方法如下:
步骤S231:对图像进行FAST-9特征提取,根据Harris特征值按升序选取N个特征点,并计算特征点的朝向信息,得到oFAST特征;
步骤S232:对oFAST特征进行BRIEF特征描述,得到BRIEF描述子,根据特征点的朝向信息旋转BRIEF描述子,得到rBRIEF特征,也即ORB特征。
步骤S25中,ORB特征匹配的方法如下:
将当前有效图像的ORB特征f与除上一帧的所有历史保存的有效图像的ORB特征分别进行匹配,设进行匹配的两个ORB特征为f1与f2,将f1中的每一个特征点与f2中的每一个特征点进行匹配;当进行匹配的两个特征点之间的汉明距离最小值与次小值之比大于阈值T2,则这两个特征点匹配成功;本实施例中,T2取值0.6,在实际应用中,T2可根据需要设定,T2取值0.5~0.6。
步骤S26中,计算旋转角度与偏移位置的方法如下:
根据每对匹配成功的特征点对的坐标和图像中心的坐标计算图像旋转的角度,特征点对与图形中心之间的夹角即为图像的旋转角度;通过RANSAC算法对图像旋转的角度进行筛选,得到图像精准的旋转角度。图像精准的旋转角度,也即叉车的航向角。若叉车的航向角为0°或在误差允许的范围内接近0°,则说明叉车的航向角未发生旋转,否则说明叉车的航向角发生了旋转。
根据每对匹配成功的特征点对的坐标,采用八点法与RANSAC算法,即可得到图像的偏移位置,也即叉车的偏移位置。
步骤S3中,由于基于激光雷达定位和视觉重定位存在累计误差,需要进行优化,增强定位的鲁棒性,基于图优化算法实现定位误差优化的方法如下:
当重定位发生时,顶点之间的相互约束关系发生变化,以P0为原点,以重定位后的位姿信息作为图优化的顶点,重定位后的位姿之间的相互约束关系作为图优化的边;这时采用非线性最优化方法优化定位过程中累计的误差。
参照图4,本发明的鱼眼镜头相机2、激光雷达3安装于叉车1的顶部,鱼眼镜头相机2的镜头方向与Z轴方向一致,鱼眼镜头相机2采集沿Z轴方向的图像;激光雷达3在XY轴平面内360°旋转对环境进行扫描。其中X、Y、Z是三维笛卡尔坐标的坐标轴,X轴表示叉车1前进的方向,Y轴表示水平面内与X轴垂直的坐标轴,Z轴表示竖直朝上的坐标轴。
本发明结合激光雷达和视觉进行定位,先通过激光雷达实现初定位,然后通过视觉特征直接匹配进行视觉重定位,减小叉车定位过程中的累计误差,提高定位精度。
本领域的技术人员可以对本发明进行各种修改和变型,倘若这些修改和变型在本发明权利要求及其等同技术的范围之内,则这些修改和变型也在本发明的保护范围之内。
说明书中未详细描述的内容为本领域技术人员公知的现有技术。
Claims (7)
1.一种基于激光雷达和视觉的叉车定位方法,其特征在于,包括以下步骤:
步骤S1:基于迭代最近点算法实现激光雷达的扫描匹配;
步骤S2:基于视觉特征直接匹配进行重定位;
步骤S3:基于图优化算法实现定位误差优化。
2.如权利要求1所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S1中,基于迭代最近点算法实现激光雷达的扫描匹配包括以下步骤:
步骤S11:预设激光雷达的激光距离和角度范围;设定激光距离为0.3~40m,角度为0~360°;
步骤S12:利用激光雷达扫描当前环境,将激光雷达扫描到的当前帧数据投影到参考帧坐标系中,参考帧为当前帧的上一帧;
步骤S13:根据预设好的激光距离和角度范围将不符合要求的激光点数据剔除;
步骤S14:对于当前帧的每一点Xi,i=1,2,3…M,M表示每一帧的激光点数,根据欧氏距离在参考帧中寻找对应的最小点Xj1和第二小点Xj2,并计算得到点Xj1和点Xj2连线的法向量ni,从而得到一组数据<Xi,Xj1,ni>;
步骤S15:将点Xi到点Xj1的欧氏距离从小到大进行排序,保留前60~80%的数据点;
步骤S16:利用高斯-牛顿优化法迭代求解当前帧与参考帧之间的旋转矩阵R和平移向量T,从而得到当前帧在世界坐标系下的位姿世界坐标系为第一帧参考帧对应的坐标系,x表示世界坐标系的横坐标,y表示世界坐标系的纵坐标,θ表示叉车的航向角,其中,高斯-牛顿优化法优化目标为:
步骤S17:将当前帧设置为参考帧,重复步骤S12~S16,得到激光雷达的数据帧的位姿信息P1,P2,P3…Pn,从而得到激光雷达的定位信息。
3.如权利要求1或2所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S2中,基于视觉特征直接匹配进行重定位的方法如下:
步骤S21:在叉车行进过程中,根据激光雷达的定位信息得到叉车的位姿信息,当前叉车的位姿为
步骤S22:在叉车行进过程中,通过鱼眼镜头相机在行进路线上采集图像数据;利用时间戳信息将激光雷达的数据和鱼眼镜头相机的数据同步;
步骤S23:对采集到的图像依次进行ORB特征提取,设定图像的ORB特征数量阈值T1,将ORB特征数量达到阈值T1的图像作为有效图像;T1取值500~1000;
步骤S24:对当前有效图像的ORB特征fi与上一帧有效图像的ORB特征进行特征匹配,若两者之间匹配到的特征点点对数量小于n1,或匹配到的特征点点对之间的平均汉明距离大于n2,则保存当前有效图像的ORB特征fi及当前有效图像的位姿也即当前叉车的位姿;n1取值400~500;n2取值30~50;
步骤S25:将当前保存的有效图像的ORB特征fi分别与除上一帧的所有历史保存的有效图像的ORB特征进行特征匹配,获取匹配上的特征点点数最高图像的ORB特征fj,若匹配上的特征点点数与ORB特征fi的总特征点点数的比值大于n3,且匹配到的特征点点对之间的平均汉明距离小于n4,则重定位成功,叉车曾经到达过当前位置附近;n3取值0.75~0.9,n4取值30~40;
步骤S26:将当前有效图像的ORB特征fi与匹配上的特征点点数最高图像的ORB特征fj进行比较计算,根据对极几何得到两者之间的旋转角度与偏移位置,根据匹配特征点点数最高图像的ORB特征fj对应的位姿及旋转角度与偏移位置计算当前有效图像的ORB特征f'i对应的位姿用计算得到的位姿替换当前激光雷达计算的位姿
4.如权利要求3所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S23中,ORB特征提取方法如下:
步骤S231:对图像进行FAST-9特征提取,根据Harris特征值按升序选取N个特征点,并计算特征点的朝向信息,得到oFAST特征;
步骤S232:对oFAST特征进行BRIEF特征描述,得到BRIEF描述子,根据特征点的朝向信息旋转BRIEF描述子,得到rBRIEF特征,也即ORB特征。
5.如权利要求3所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S25中,ORB特征匹配的方法如下:
将当前有效图像的ORB特征f与除上一帧的所有历史保存的有效图像的ORB特征分别进行匹配,设进行匹配的两个ORB特征为f1与f2,将f1中的每一个特征点与f2中的每一个特征点进行匹配;当进行匹配的两个特征点之间的汉明距离最小值与次小值之比大于阈值T2,则这两个特征点匹配成功,T2取值0.5~0.6。
6.如权利要求3所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S26中,计算旋转角度与偏移位置的方法如下:
根据每对匹配成功的特征点对的坐标和图像中心的坐标计算图像旋转的角度,特征点对与图形中心之间的夹角即为图像的旋转角度;通过RANSAC算法对图像旋转的角度进行筛选,得到图像精准的旋转角度,也即叉车的航向角;
根据每对匹配成功的特征点对的坐标,采用八点法与RANSAC算法,即可得到图像的偏移位置,也即叉车的偏移位置。
7.如权利要求3所述的基于激光雷达和视觉的叉车定位方法,其特征在于:所述步骤S2中,基于图优化算法实现定位误差优化的方法如下:
以P0为原点,以重定位后的位姿信息作为图优化的顶点,重定位后的位姿之间的相互约束关系作为图优化的边;采用非线性最优化方法优化定位过程中累计的误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910717569.2A CN110398745A (zh) | 2019-08-05 | 2019-08-05 | 基于激光雷达和视觉的叉车定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910717569.2A CN110398745A (zh) | 2019-08-05 | 2019-08-05 | 基于激光雷达和视觉的叉车定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110398745A true CN110398745A (zh) | 2019-11-01 |
Family
ID=68327507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910717569.2A Pending CN110398745A (zh) | 2019-08-05 | 2019-08-05 | 基于激光雷达和视觉的叉车定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110398745A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112964276A (zh) * | 2021-02-09 | 2021-06-15 | 中国科学院深圳先进技术研究院 | 一种基于激光和视觉融合的在线标定方法 |
CN113313444A (zh) * | 2021-04-19 | 2021-08-27 | 安吉智能物联技术有限公司 | 一种物流仓库用叉车实时定位系统及其方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
US20180149753A1 (en) * | 2016-11-30 | 2018-05-31 | Yujin Robot Co., Ltd. | Ridar apparatus based on time of flight and moving object |
CN108226938A (zh) * | 2017-12-08 | 2018-06-29 | 华南理工大学 | 一种agv小车的定位系统和方法 |
-
2019
- 2019-08-05 CN CN201910717569.2A patent/CN110398745A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180149753A1 (en) * | 2016-11-30 | 2018-05-31 | Yujin Robot Co., Ltd. | Ridar apparatus based on time of flight and moving object |
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN108226938A (zh) * | 2017-12-08 | 2018-06-29 | 华南理工大学 | 一种agv小车的定位系统和方法 |
Non-Patent Citations (3)
Title |
---|
张杰 等: "一种改进ICP算法的移动机器人激光与视觉建图方法研究", 《机电工程》 * |
肖月: "激光视觉融合的机器人即时定位建图研究", 《中国优秀硕士学位论文全文数据库-基础科学辑》 * |
黄婷: "基于激光雷达和深度相机的AGV自主定位方法研究", 《中国优秀硕士学位论文全文数据库-信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112964276A (zh) * | 2021-02-09 | 2021-06-15 | 中国科学院深圳先进技术研究院 | 一种基于激光和视觉融合的在线标定方法 |
CN113313444A (zh) * | 2021-04-19 | 2021-08-27 | 安吉智能物联技术有限公司 | 一种物流仓库用叉车实时定位系统及其方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242031B (zh) | 基于高精度地图的车道线检测方法 | |
CN104537709B (zh) | 一种基于位姿变化的实时三维重建关键帧确定方法 | |
WO2021189468A1 (zh) | 激光雷达的姿态校正方法、装置和系统 | |
CN109405835B (zh) | 基于非合作目标直线与圆单目图像的相对位姿测量方法 | |
CN111507901B (zh) | 基于航带gps及尺度不变约束的航拍图像拼接定位方法 | |
CN110082775B (zh) | 基于激光装置的车辆定位方法和系统 | |
CN110908401A (zh) | 一种针对未知杆塔结构的无人机自主巡检方法 | |
CN110398745A (zh) | 基于激光雷达和视觉的叉车定位方法 | |
CN110569861B (zh) | 一种基于点特征和轮廓特征融合的图像匹配定位方法 | |
CN109325913A (zh) | 无人机图像拼接方法及装置 | |
CN113313659B (zh) | 一种多机协同约束下高精度图像拼接方法 | |
CN110110702A (zh) | 一种基于改进ssd目标检测网络的无人机规避算法 | |
CN110084743B (zh) | 基于多航带起始航迹约束的图像拼接与定位方法 | |
CN104615880A (zh) | 一种三维激光雷达点云匹配的快速icp方法 | |
CN110160503B (zh) | 一种顾及高程的无人机景观匹配定位方法 | |
CN113605766B (zh) | 一种汽车搬运机器人的探测系统及位置调整方法 | |
CN112509054A (zh) | 一种相机外参动态标定方法 | |
KR102372298B1 (ko) | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 | |
CN108592860B (zh) | 用于机载光电观瞄系统基轴对准操作后的瞄准线输出角度计算方法 | |
CN114442054A (zh) | 一种移动机器人的传感器与底盘联合标定系统及方法 | |
US20230030660A1 (en) | Vehicle positioning method and system for fixed parking scenario | |
CN114973037B (zh) | 一种无人机智能检测与同步定位多目标的方法 | |
CN115597591A (zh) | 一种基于多线激光雷达的机器人重定位方法及系统 | |
JP7312089B2 (ja) | 計測装置 | |
CN113808169A (zh) | 基于orb-slam的大型装备结构表面检测路径规划方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191101 |