CN106548486B - 一种基于稀疏视觉特征地图的无人车位置跟踪方法 - Google Patents

一种基于稀疏视觉特征地图的无人车位置跟踪方法 Download PDF

Info

Publication number
CN106548486B
CN106548486B CN201610935869.4A CN201610935869A CN106548486B CN 106548486 B CN106548486 B CN 106548486B CN 201610935869 A CN201610935869 A CN 201610935869A CN 106548486 B CN106548486 B CN 106548486B
Authority
CN
China
Prior art keywords
unmanned vehicle
target position
curr
position tracking
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610935869.4A
Other languages
English (en)
Other versions
CN106548486A (zh
Inventor
刘勇
张高明
张涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201610935869.4A priority Critical patent/CN106548486B/zh
Publication of CN106548486A publication Critical patent/CN106548486A/zh
Application granted granted Critical
Publication of CN106548486B publication Critical patent/CN106548486B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于稀疏视觉特征地图的无人车位置跟踪方法。在已经探索过的野外环境中,由用户指定环境地图中的某一位置相对于地图的坐标。基于已建立的稀疏视觉特征地图提供的全局定位信息,生成目标位置跟踪控制量,控制无人车自动向目标位置行驶。与此同时,利用无人车搭载的距离传感器实时感知周围的障碍信息,生成局部避障控制量。通过融合目标位置跟踪和避障控制两个模块的控制量,实现无人车安全的位置跟踪控制。

Description

一种基于稀疏视觉特征地图的无人车位置跟踪方法
技术领域
本发明属于移动机器人自主导航技术领域,特别是基于稀疏视觉特征地图的无人车位置跟踪方法。
背景技术
随着移动机器人技术的发展,针对非结构化场景自主建立环境地图,并基于所建立的环境地图实现安全的导航控制,成为越来越迫切的核心需求,是达成移动机器人高层次作业任务的基础支撑。为了提高建图的效率,一般的做法是提取环境的稀疏特征信息进行运算,最终生成的地图也是稀疏的表达形式,从而难以直接用于自主移动平台的路径规划和控制。
发明内容
本发明所要解决的技术问题是提供一种基于稀疏视觉特征地图的无人车位置跟踪方法,以解决稀疏环境地图难以集成到规划控制系统的问题。为此,本发明提供以下技术方案:
一种基于稀疏视觉特征地图的无人车位置跟踪方法,其特征在于,包括以下步骤:
步骤1,启动设有避障探索模块的无人车:设置无人车为随机探索环境的自动运动模式,启动双目相机,采集环境图像,建立稀疏视觉特征地图,并以二进制文件形式将稀疏视觉特征地图数据存储至车载计算机本地磁盘,构成稀疏视觉特征地图数据库;
步骤2,从无人车载计算机的本地磁盘读取地图数据文件至内存,设置为定位跟踪模式;定位成功后,接收用户设置的目标位置坐标信息;按如下步骤,有位置关系变化后,反复尝试重定位:
2.1.当没有成功重定位时,由所述避障探索模块生成随机控制量控制无人车运动;
2.2.运动后采集新的场景图像,与稀疏视觉特征地图数据库中的场景进行匹配;
2.3.匹配成功后进行位姿估计,计算无人车相对于地图的相对位置关系,实现重定位;
步骤3:计算目标位置跟踪控制角:设无人车中心为本体坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立本体坐标系;设无人车启动时的无人车中心为全局坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立世界坐标系;根据当前定位信息和目标位置信息,计算目标位置跟踪控制角:设置无人车在世界坐标系下的当前位置为xcurr,zcurr和朝向hcurr,目标位置在世界坐标系下的坐标为xt和zt,可得到目标位置跟踪控制角,将目标位置变换至本体坐标系,计算公式如下:
xin_cam=(xt-xcurr)·sin(hcurr)-(zt-zcurr)·cos(hcurr)
zin_cam=(xt-xcurr)·cos(hcurr)+(zt-zcurr)·sin(hcurr)
其中,xin_cam,zin_cam是目标位置在本体坐标系下的坐标。
计算参考向量vx,vz,计算公式如下:
vx=xin_cam-0
vz=zin_cam-0
计算目标位置跟踪控制角θctrl,计算公式如下:
θctrl=tan-1(vx,vz);
步骤4:根据车载距离传感器的障碍探测信息,计算局部的避障控制角;
步骤5:加权融合目标位置跟踪控制角和局部的避障控制量,并将融合后的控制量发送给无人车执行,直至最终安全抵达目标位置;
采用如下方式融合两个控制量,实现安全的目标跟踪:
θ=w1θobs+w2θt
其中,w1、w2为权重系数,且有w1+w2=1.0;θobs是局部避障控制角,θt是目标位置跟踪控制角。
在上述技术方案的基础上,本发明还可以采用一下进一步的技术方案:
步骤1中,所述随机探索环境包括盲目避障模式,使得无人车随任意时刻尽可能朝向空旷的地带运动,采取如下步骤计算随机游走的运动方向:
1.1在无人车上水平安装的2D激光雷达获取点云序列{(θi,di)|i=1,2,…,M};当光线照射至物体时,即可返回该处的角度和距离信息,这种角度和距离信息即构成一个点云,如此持续扫描,就可获得连续的二维点云信息;
1.2定义安全行驶方向矢量;
1.3计算安全行驶方向。
步骤1中,建立稀疏视觉特征地图的步骤如下:
首先,从双目图像中提取FAST角点,然后,利用灰度质心法为FAST角点添加方向信息,在提取了有方向信息的FAST角点后,对每个特征点计算ORB描述子,采用BRIEF算法进行描述;将所提取的ORB描述子及对应的三维坐标与所属双目图像的位置进行关联,建立稀疏视觉特征地图。
步骤1中,对稀疏视觉特征地图采用二进制文件的形式进行序列化和反序列化操作使其能够重复使用、扩充及更新。
步骤1中,对稀疏视觉特征地图采用二进制文件的形式进行序列化和反序列化操作使其能够重复使用、扩充及更新。以便每次重新运动无人车时不必重新建图,或者,为了在原有地图的基础上扩充新区域的地图,必须对内存中的地图数据进行序列化和反序列化。序列化的对象是关键帧数据及关键帧对应的特征点云数据。关键帧是指包含相机位置信息的提取自双目图像的特征点。
由于采用本发明的技术方案,本发明的有益效果为:本发明采取了直接基于稀疏视觉特征地图提供的定位信息进行导航控制量运算的直观有效方法,并在目标位置跟踪控制的同时,实时规避无人车运动过程中周围可能随时出现的动态障碍物体,从而实现无人车地图构建和自主导航的无缝集成,完成安全的位置跟踪控制。本发明稀疏视觉特征地图可重用,可扩充,可更新。
附图说明
图1是本发明中基于稀疏视觉特征地图位姿信息的控制示意图;
图2是本发明中激光雷达数据范围示意图;
图3是本发明中FAST角点检测原理示意图;
图4-1是本发明k时刻和k-1时刻的场景;
图4-2是本发明前后时刻的三对特征点对应关系;
图5是本发明三点透视算法计算原理图;
图6是本发明目标位置跟踪控制量计算原理图;
图7是本发明踪控制量和避障控制量融合示意图。
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图作进一步描述。
步骤1,启动设有避障探索模块的无人车:设置无人车为随机探索环境的自动运动模式,启动双目相机,采集环境图像,建立稀疏视觉特征地图,并以二进制文件形式将稀疏视觉特征地图数据存储至车载计算机本地磁盘,构成稀疏视觉特征地图数据库;
步骤2,从无人车载计算机的本地磁盘读取地图数据文件至内存,设置为定位跟踪模式;定位成功后,接收用户设置的目标位置坐标信息;按如下步骤,有位置关系变化后,反复尝试重定位:
2.1.当没有成功重定位时,由所述避障探索模块生成随机控制量控制无人车运动;
2.2.运动后采集新的场景图像,与稀疏视觉特征地图数据库中的场景进行匹配;
2.3.匹配成功后进行位姿估计,采用三点透视算法(P3P),计算无人车相对于地图的相对位置关系,实现重定位;
步骤(3):如图6所示,设无人车中心为本体坐标系的原点,正前方为z轴,右方为x轴,建立本体坐标系;设无人车启动时的车中心为全局坐标系的原点,正前方为z轴,右方为x轴,建立世界坐标系。根据当前定位信息和目标位置信息,计算目标位置控制角:设置无人车在世界坐标系下的当前位置为xcurr,zcurr和朝向hcurr,目标位置在世界坐标系下的坐标为xt和zt,可得到目标位置跟踪控制角,将目标位置变换至本体坐标系,计算公式如下:
xin_cam=(xt-xcurr)·sin(hcurr)-(zt-zcurr)·cos(hcurr)
zin_cam=(xt-xcurr)·cos(hcurr)+(zt-zcurr)·sin(hcurr)
其中,xin_cam,zin_cam是目标位置在本体坐标系下的坐标。
计算参考向量vx,vz,计算公式如下:
vx=xin_cam-0;
vz=zin_cam-0;
计算目标位置控制角θctrl,计算公式如下:
θctrl=tan-1(vx,vz);
步骤4:根据车载距离传感器的障碍探测信息,计算局部的避障控制角;
步骤5:加权融合目标位置跟踪控制角和局部的避障控制量,并将融合后的控制量发送给无人车执行,直至最终安全抵达目标位置,可实现的位置控制精度为0.2米;
采用如下方式融合两个控制量,如图7所示,实现安全的目标跟踪:
θ=w1θobs+w2θt
其中,w1、w2为权重系数,且有w1+w2=1.0;
θobs是避障控制量,θt是目标跟踪控制量。
步骤(1)中,所述随机探索环境包括盲目避障模式,使得无人车随任意时刻尽可能朝向空旷的地带运动,这一方面保证了车辆自动运动的安全,同时,也能采集到足够多的环境特征点。基于此策略进行探索建图。
具体而言,采取如下步骤计算随机游走的运动方向:
1.1激光雷达获取点云:
从水平安装的2D激光雷达按照固定的角度分辨率扫描激光雷达周围270°角度范围内的空间,获取点云序列{(θi,di)|i=1,2,…,M}。
扫描角度步长为0.25°,点云的数据范围如图1所示。
当光线照射至物体时,即可返回该处的角度和距离信息,这种角度和距离信息即构成一个点云,如此持续扫描,就可获得连续的二维点云信息;
1.2定义安全行驶方向矢量;
安全行驶方向是激光雷达探测距离的函数,其一般形式如下式:
其中,rthresh是预设的避障半径。
1.3计算安全行驶方向;
考虑到引力场的强度通常与作用距离的二次方相关,因此,将上述的行驶方向矢量函数具体化为激光雷达探测距离的二次方形式,即有:
计算x方向的矢量和:
计算y放向的矢量和:
x方向矢量和归一化:
y方向矢量和归一化:
计算行驶方向角:
从而,得到安全行驶方向θsteer,以此作为角度操纵控制量发送给执行器,即可驱动无人车驶向安全方向。
步骤1中,建立稀疏视觉特征地图的步骤如下,如图3所示:
特征点的计算和位姿跟踪,
1.4从图像中抽取ORB特征点:
1.4.1首先,按如下步骤提取FAST角点:在图像中选取像素p,假设其亮度为Ip
1.4.2然后,设置阈值T(例如Ip的20%);
1.4.3再以像素p为中心,选取半径为3的圆上的16个像素点;
1.4.4最后,假如所选取的圆上,有连续N个点的亮度大于Ip+T或小于Ip-T,那么像素p可以被认为是特征点,一般取N为12;
循环以上4步(1.4.1~1.4.4),对每一个像素执行相同的操作。
1.5利用灰度质心法为FAST角点添加方向信息,操作如下:
1.5.1在FAST角点邻域图像块中,按如下公式计算邻域的矩:
1.5.2按如下公式计算邻域的质心:
1.5.3连接角点(即邻域的几何中心)与质心C,得到方向向量OC,按如下公式计算特征点的方向:
θ=arctan2(m01,m10)
1.6在提取了有方向信息的FAST角点后,对每个特征点计算ORB描述子,采用BRIEF算法进行描述。
操作如下:
1.6.1在FAST角点邻域中随机选取nd对点;
1.6.2比较每对点的大小,给出0或1;
1.6.3得到nd维的二进制串,作为此角点的描述子,即ORB特征点描述子;匹配前后帧的特征点,如图4-1和图4-2所示:
在图像It中提取到特征点m=1,2,...,M,在图像It+1中提取到特征点/>n=1,2,...,N,采用快速近似最近邻(FLANN)算法进行匹配,由于BRIEF是二进制的描述子,采用汉明距离作为度量距离的方式,即两个二进制串之间不同位的个数。根据这些匹配对计算两帧间的位姿变换矩阵。
由于双目相机已事先标定好,并且,系统采用双目相机,那么利用三角化计算可获得3D点和其在相机的投影位置,故计算位姿变换矩阵的方式是P3P算法。P3P的输入数据为三对3D-2D匹配点,3D点表示为A,B,C,2D点表示为a,b,c,如图5所示。
P3P问题的主要方程为:
(1-u)y2-ux2-cos<b,c>y+2uxycos<a,b>+1=0
(1-w)x2-wy2-cos<a,c>x+2wxycos<a,b>+1=0
其中,
v=AB2/OC2,uv=BC2/OC2,wv=AC2/OC2
基于词包模型实现闭环检测:
后台要做闭环检测,以校正累积误差,这里,采用基于表面特征的场景匹配算法,即词包模型。词包模型的原理是视觉词典和词汇统计直方图向量的余弦距离比较,余弦距离公式如下:
地图数据的序列化和反序列化:
为实现地图重用,以便每次重新运动无人车时不必重新建图,或者,为了在原有地图的基础上扩充新区域的地图,必须对内存中的地图数据进行序列化和反序列化。采用boost函数库的serialization类库进行序列化和反序列化操作。序列化的对象是关键帧数据及关键帧对应的特征点云数据。

Claims (4)

1.一种基于稀疏视觉特征地图的无人车位置跟踪方法,其特征在于,包括以下步骤:
步骤1,启动设有避障探索模块的无人车:设置无人车为随机探索环境的自动运动模式,启动双目相机,采集环境图像,建立稀疏视觉特征地图,并以二进制文件形式将稀疏视觉特征地图数据存储至车载计算机本地磁盘,构成稀疏视觉特征地图数据库;
步骤2,从无人车载计算机的本地磁盘读取地图数据文件至内存,设置为定位跟踪模式;定位成功后,接收用户设置的目标位置坐标信息;按如下步骤,有位置关系变化后,反复尝试重定位:
2.1.当没有成功重定位时,由所述避障探索模块生成随机控制量控制无人车运动;
2.2.运动后采集新的场景图像,与稀疏视觉特征地图数据库中的场景进行匹配;
2.3.匹配成功后进行位姿估计,计算无人车相对于地图的相对位置关系,实现重定位;
步骤3:计算目标位置跟踪控制角:设无人车中心为本体坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立本体坐标系;设无人车启动时的无人车中心为全局坐标系的原点,前方为z轴的正方向,右方为x轴正方向,建立世界坐标系;根据当前定位信息和目标位置信息,计算目标位置跟踪控制角:设置无人车在世界坐标系下的当前位置为xcurr,zcurr和朝向hcurr,目标位置在世界坐标系下的坐标为xt和zt,可得到目标位置跟踪控制角,将目标位置变换至本体坐标系,计算公式如下:
xin_cam=(xt-xcurr)·sin(hcurr)-(zt-zcurr)·cos(hcurr)
zin_cam=(xt-xcurr)·cos(hcurr)+(zt-zcurr)·sin(hcurr)
其中,xin_cam,zin_cam是目标位置在本体坐标系下的坐标;
计算参考向量vx,vz,计算公式如下:
vx=xin_cam-0
vz=zin_cam-0
计算目标位置跟踪控制角θctrl,计算公式如下:
θctrl=tan-1(vx,vz);
步骤4:根据车载距离传感器的障碍探测信息,计算局部的避障控制角;
步骤5:加权融合目标位置跟踪控制角和局部的避障控制量,并将融合后的控制量发送给无人车执行,直至最终安全抵达目标位置;
采用如下方式融合两个控制量,实现安全的目标跟踪:
θ=w1θobs+w2θt
其中,w1、w2为权重系数,且有w1+w2=1.0;θobs是局部避障控制角,θt是目标位置跟踪控制角。
2.如权利要求1所述的一种基于稀疏视觉特征地图的无人车位置跟踪方法,其特征在于,步骤1中,所述随机探索环境包括盲目避障模式,使得无人车随任意时刻尽可能朝向空旷的地带运动,采取如下步骤计算随机游走的运动方向:
1.1在无人车上水平安装的2D激光雷达获取点云序列{(θi,di)|i=1,2,…,M};当光线照射至物体时,即可返回该处的角度和距离信息,这种角度和距离信息即构成一个点云,如此持续扫描,就可获得连续的二维点云信息;
1.2定义安全行驶方向矢量;
1.3计算安全行驶方向。
3.如权利要求1所述的一种基于稀疏视觉特征地图的无人车位置跟踪方法,其特征在于,步骤1中,建立稀疏视觉特征地图的步骤如下:
首先,从双目图像中提取FAST角点,并定义该FAST角点为特征点,然后,利用灰度质心法为FAST角点添加方向信息,在提取了有方向信息的FAST角点后,对每个特征点计算ORB描述子,采用BRIEF算法进行描述;将所提取的ORB描述子及对应的三维坐标与所属双目图像的位置进行关联,建立稀疏视觉特征地图。
4.如权利要求1所述的一种基于稀疏视觉特征地图的无人车位置跟踪方法,其特征在于,步骤1中,对稀疏视觉特征地图采用二进制文件的形式进行序列化和反序列化操作使其能够重复使用、扩充及更新。
CN201610935869.4A 2016-11-01 2016-11-01 一种基于稀疏视觉特征地图的无人车位置跟踪方法 Active CN106548486B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610935869.4A CN106548486B (zh) 2016-11-01 2016-11-01 一种基于稀疏视觉特征地图的无人车位置跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610935869.4A CN106548486B (zh) 2016-11-01 2016-11-01 一种基于稀疏视觉特征地图的无人车位置跟踪方法

Publications (2)

Publication Number Publication Date
CN106548486A CN106548486A (zh) 2017-03-29
CN106548486B true CN106548486B (zh) 2024-02-27

Family

ID=58392271

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610935869.4A Active CN106548486B (zh) 2016-11-01 2016-11-01 一种基于稀疏视觉特征地图的无人车位置跟踪方法

Country Status (1)

Country Link
CN (1) CN106548486B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10318822B2 (en) * 2017-04-06 2019-06-11 GM Global Technology Operations LLC Object tracking
CN106969770B (zh) * 2017-05-31 2021-04-06 深圳中智卫安机器人技术有限公司 一种机器人及其导航方法、计算机可读存储介质
CN108021899A (zh) * 2017-12-15 2018-05-11 郑州日产汽车有限公司 基于双目相机的车载智能前车防撞预警方法
CN108089191B (zh) * 2017-12-25 2021-03-30 中山大学 一种基于激光雷达的全局定位系统及方法
CN108827317B (zh) * 2018-08-20 2022-05-24 重庆金美汽车电子有限公司 基于稀疏地图和驾驶人识别的室内多平衡车自主导航方法
CN109191487B (zh) * 2018-08-30 2022-03-25 阿波罗智能技术(北京)有限公司 基于无人车的碰撞检测方法、装置、设备以及存储介质
CN109409418B (zh) * 2018-09-29 2022-04-15 中山大学 一种基于词袋模型的回环检测方法
CN110378177B (zh) 2018-09-30 2022-01-28 毫末智行科技有限公司 用于提取环境目标的特征点的方法及装置
CN109544636B (zh) * 2018-10-10 2022-03-15 广州大学 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN109712168A (zh) * 2018-11-14 2019-05-03 联想(北京)有限公司 一种目标跟踪方法及电子设备、装置及存储介质
CN109781118A (zh) * 2019-03-08 2019-05-21 兰州交通大学 一种无人车的位置跟踪方法
CN110032189A (zh) * 2019-04-22 2019-07-19 河海大学常州校区 一种不依赖地图的智能仓储移动机器人路径规划方法
CN112184818B (zh) * 2020-10-09 2022-06-10 重庆邮电大学 基于视觉的车辆定位方法及应用其方法的停车场管理系统
CN113034963B (zh) * 2021-03-02 2022-08-02 英博超算(南京)科技有限公司 一种视觉车位跟踪系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961571A (en) * 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
CN102193787A (zh) * 2010-03-01 2011-09-21 深圳市金蝶中间件有限公司 一种序列化和反序列化的方法、装置及系统
CN103106659A (zh) * 2013-01-28 2013-05-15 中国科学院上海微系统与信息技术研究所 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法
CN103646391A (zh) * 2013-09-30 2014-03-19 浙江大学 一种针对动态变化场景的实时摄像机跟踪方法
WO2015024407A1 (zh) * 2013-08-19 2015-02-26 国家电网公司 基于电力机器人的双目视觉导航系统及方法
CN104732518A (zh) * 2015-01-19 2015-06-24 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
CN105678754A (zh) * 2015-12-31 2016-06-15 西北工业大学 一种无人机实时地图重建方法
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9846042B2 (en) * 2014-11-13 2017-12-19 Worcester Polytechnic Institute Gyroscope assisted scalable visual simultaneous localization and mapping
JP6557973B2 (ja) * 2015-01-07 2019-08-14 株式会社リコー 地図生成装置、地図生成方法およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961571A (en) * 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
CN102193787A (zh) * 2010-03-01 2011-09-21 深圳市金蝶中间件有限公司 一种序列化和反序列化的方法、装置及系统
CN103106659A (zh) * 2013-01-28 2013-05-15 中国科学院上海微系统与信息技术研究所 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法
WO2015024407A1 (zh) * 2013-08-19 2015-02-26 国家电网公司 基于电力机器人的双目视觉导航系统及方法
CN103646391A (zh) * 2013-09-30 2014-03-19 浙江大学 一种针对动态变化场景的实时摄像机跟踪方法
CN104732518A (zh) * 2015-01-19 2015-06-24 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
CN105678754A (zh) * 2015-12-31 2016-06-15 西北工业大学 一种无人机实时地图重建方法
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Multi-Feature Integrated Visual Attention Model for Matching-Area Suitability Analysis in Visual Navigation;Jin ZL等;2013 32ND Chinese Control Conference (CCC);5122-5127 *
Novel Feature Descriptor for Low-Resource Embedded Vision Sensors for Micro Unmanned-Aerial-Vehicle Applications;Spencer G. Fowers等;Journal of Aerospace Information Systems;第10卷(第8期);385-394 *
基于模糊评价的位置环境地图构建探测规划;王立等;浙江大学学报(工学版);第44卷(第2期);253-258 *
无人车2D激光雷达结构化环境感知技术研究;刘钊;中国博士学位论文全文数据库信息科技辑(2015年第11期);I136-27 *

Also Published As

Publication number Publication date
CN106548486A (zh) 2017-03-29

Similar Documents

Publication Publication Date Title
CN106548486B (zh) 一种基于稀疏视觉特征地图的无人车位置跟踪方法
CN106599108B (zh) 一种三维环境中多模态环境地图构建方法
Shin et al. Roarnet: A robust 3d object detection based on region approximation refinement
Badue et al. Self-driving cars: A survey
Lin et al. Autonomous aerial navigation using monocular visual‐inertial fusion
US10549430B2 (en) Mapping method, localization method, robot system, and robot
Krajník et al. A simple visual navigation system for an UAV
JP2021089724A (ja) 構造的制約及び物理的制約を伴う3d自動ラベル付け
Zhao et al. Semantic probabilistic traversable map generation for robot path planning
Pang et al. Low-cost and high-accuracy LiDAR SLAM for large outdoor scenarios
Fu et al. An efficient scan-to-map matching approach for autonomous driving
Mutz et al. Following the leader using a tracking system based on pre-trained deep neural networks
CN116048120B (zh) 一种未知动态环境下小型四旋翼无人机自主导航系统及方法
Barth et al. Vehicle tracking at urban intersections using dense stereo
JP2020064029A (ja) 移動体制御装置
Xu et al. Probabilistic membrane computing-based SLAM for patrol UAVs in coal mines
CN114782639A (zh) 一种基于多传感器融合的快速式差速潜伏式agv稠密三维重建方法
CN113610910A (zh) 一种移动机器人避障方法
Gu et al. Research on SLAM of indoor mobile robot assisted by AR code landmark
Wang et al. Research on Key Technologies of Lunar Patrol Perception in Sparse Scenes
Chen et al. An Efficient Lightweight 2D Driven 3D Detector for Underwater Robots Tracking
Azim 3D perception of outdoor and dynamic environment using laser scanner
Li et al. Intelligent vehicle localization and navigation based on intersection fingerprint roadmap (IRM) in underground parking lots
Hong et al. The Challenge of Environment Perception System for Mobile Robot Based on Comparison Between Wheeled and Legged Robot
Zou RGB-D SLAM for indoor mobile platform based on hybrid feature fusion and wheel odometer integration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant