CN108716917A - 一种基于elm融合惯性和视觉信息的室内定位方法 - Google Patents

一种基于elm融合惯性和视觉信息的室内定位方法 Download PDF

Info

Publication number
CN108716917A
CN108716917A CN201810338837.5A CN201810338837A CN108716917A CN 108716917 A CN108716917 A CN 108716917A CN 201810338837 A CN201810338837 A CN 201810338837A CN 108716917 A CN108716917 A CN 108716917A
Authority
CN
China
Prior art keywords
elm
inertia
output
frame
visual information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810338837.5A
Other languages
English (en)
Inventor
徐岩
于航
张家赫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201810338837.5A priority Critical patent/CN108716917A/zh
Publication of CN108716917A publication Critical patent/CN108716917A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments

Abstract

本发明公开了一种基于ELM融合惯性和视觉信息的室内定位方法,包括:对包含惯性测量、视觉特征输入、目标输出的训练数据进行建模;利用ELM对训练输入数据和相对应的目标位置输出进行学习拟合,得到最优输出权重向量;利用最优输出权重向量对测试输入数据进行定位,获取输出向量;由于每帧定位结果由N个二维输出向量表示,取N个二维输出向量的均值作为ELM的位置输出;为了抑制载体转弯时产生的较大定位误差,引入转角判断,如果当前时刻判定为处于转弯状态,则采取插值法定位或将上一时刻位置赋为当前时刻最终位置;如果当前时刻处于非转弯状态,则将ELM定位输出作为此帧的最终位置。本发明通过ELM融合惯性和视觉信息以提供更鲁棒的、更精准的定位结果。

Description

一种基于ELM融合惯性和视觉信息的室内定位方法
技术领域
本发明涉及信号处理、室内定位、以及信息融合领域,尤其涉及一种基于ELM(极限学习机)融合惯性和视觉信息的室内定位方法。
背景技术
全球导航卫星系统(GNSS)技术在室外环境中已经可以提供令人满意的米级定位精度。关于室内定位,因为卫星信号几乎无法穿过建筑物的阻挡,且室内环境更加错综复杂,GNSS接收机面临着强烈的信号衰减、多径效应(非视距传播)和互相关干扰的问题,使得定位精度急剧下降。因此在室内环境中获得高精度定位效果的同时维持可接受的成本,已成为国内国外定位技术领域的前沿方向和热点课题。室内定位领域目前还没有一个可以像全球定位系统(GPS)解决室外定位导航问题一样来解决室内定位问题的通用技术或系统,基本上都是通过改进定位所需设施,对定位算法进行优化,或融合不同的定位技术来解决定位问题。目前国内外对室内定位的主要研究成果可以归纳为两大类:基于单一信息源的定位技术和基于多源信息融合的定位技术。
基于单一信息源的定位技术已被广泛研究。陈家琪等[1]提出了一种基于Newton插值的RFID室内定位算法。这种基于专用设备的定位方法可获得非常好的定位精度,但大规模部署特定的硬件设施所需费用过高,不适合普及应用。王磊等[2]提出基于WiFi的自适应匹配预处理WKNN算法。这种通过建立位置指纹数据库,然后利用近似最近邻获得用户位置的算法利用了现在广泛覆盖的WiFi信号,不需部署特定设施,但由于外界干扰、多径效应和环境动态性等问题的存在,使得这种方法的定位精度波动较大。D.Liu等[3]提出融合到达时间(TOA)和到达角(DOA)的定位算法。但这种算法在非视距情况下产生不可预测的误差。在特征丰富的环境中,视觉导航系统(VNS)可以得到高定位精度,但在遇到人员进出干扰的情况下,会产生很大的不可控的定位误差[4]
基于单一信息源的定位技术,或是受高昂的成本限制,或是受定位性能的制约,都无法在日常生活中普及应用。目前大家普遍接受未来的定位技术发展趋势是利用多种低成本的信息源,结合各种融合算法,实现优势互补的可靠可行的定位技术[5]。目前已经有许多实现的多源信息融合定位算法,证明了该类方法较单一信息源的定位效果更好。P.Yue等[6]用卡尔曼滤波器(KF)融合了光电编码器和超声波,证明了融合算法的定位精度较使用单一传感器的方法有一定提高。近年来人们对于惯性导航系统(INS)越来越感兴趣,其可以不需要额外的设施进行自主定位,其缺点是由于惯性传感器的误差累计会随着时间迅速增加,所以其仅能提供短时间内的精确定位[7]。因此通常将低成本的INS与另一导航装置融合以提供更准确的定位精度。S.Knauth等[8]利用粒子滤波器(PF)融合了来自INS,Wifi和平面图的信息,在不需要实时定位的情况下其可以实现非常好的定位精度。
此外比较流行的融合算法有:贝叶斯方法、证据理论推理、模糊理论和神经网络等。其中基于贝叶斯方法的滤波器如卡尔曼滤波器,粒子滤波器等因直观性好,易于理解,已在信息融合领域得到了广泛应用。但传统的滤波器或者因高计算复杂度而无法满足实时性,或者应用于高动态的运动模式时定位效果不好。
发明内容
本发明提供了一种基于ELM融合惯性和视觉信息的室内定位方法,本发明利用ELM对惯性及视觉信息进行融合,使得定位结果既能克服仅基于INS的误差累计,又可以减小基于VNS在场景突变,人员进/出等干扰产生的不可控的大的定位误差,详见下文描述:
一种基于ELM融合惯性和视觉信息的室内定位方法,所述定位方法包括以下步骤:
对包含惯性测量、视觉特征输入、目标输出的训练数据进行建模;
利用ELM对训练输入数据和相对应的目标位置输出进行学习拟合,得到最优输出权重向量;
利用最优输出权重向量对测试输入数据进行定位,获取输出向量;由于每帧定位结果由N个二维输出向量表示,取N个二维输出向量的均值作为ELM的位置输出;
为了抑制载体转弯时产生的较大定位误差,引入转角判断,如果当前时刻判定为处于转弯状态,则采取插值法定位或将上一时刻位置赋为当前时刻最终位置;如果当前时刻处于非转弯状态,则将ELM定位输出作为此帧的最终位置。
所述利用最优输出权重向量对测试输入数据进行定位,获取输出向量具体为:
其中,h(·)为激活函数,L为隐藏层节点数,为第k帧的第n组输入向量,为第k帧的第n组输出向量。
进一步地,所述取N个二维输出向量的均值作为ELM的位置输出具体为:
其中,所述采取插值法定位或将上一时刻位置赋为当前时刻最终位置具体为:
其中,interpolation(·)为插值函数,positionk-p和positionk+q是距离k帧最近的两个处于未转弯状态的位置,p和q为帧数索引。
进一步地,所述将ELM定位输出作为此帧的最终位置具体为:
其中,positionk为第k帧的最终位置输出,thr为转弯判定阈值,若角度变化大于该阈值,则将当前帧判定为处于转弯状态。
本发明提供的技术方案的有益效果是:
1、本发明通过ELM融合惯性和视觉信息以提供更鲁棒的、更精准的定位结果;
2、为了抑制载体转弯时产生的较大定位误差,本发明引入了转角判断,一旦将当前时刻判定为处于转弯状态,则采取插值法定位或将上一时刻位置赋为当前时刻的最终位置;
3、通过实验验证,本发明各评价指标均优于BD算法,尤其是在线定位阶段,本发明的定位速度比BD算法快近两倍,可满足实际应用中的实时性要求;
4、通过均方根误差结果再次证明了本发明超强的鲁棒性和容错性。
附图说明
图1为一种基于ELM融合惯性和视觉信息的室内定位方法的流程图;
图2为本方法与文献[4]所提出的定位算法的定位效果对比示意图;
其中,(a)为X坐标的定位效果示意图;(b)为Y坐标的定位效果示意图。
图3为定位精度与隐含层节点数的关系示意图;
其中,(a)为均方根误差与隐含层节点数的关系示意图;(b)为平均误差与隐含层节点数的关系示意图。
图4为定位精度与SURF(快速鲁棒特征)的关系示意图。
其中,(a)为均方根误差与SURF的关系示意图;(b)为平均误差与SURF的关系示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
近些年来,神经网络因其具有很强的非线性拟合能力,无需对系统进行建模便可映射任意复杂的非线性关系,具有很好的鲁棒性和自学习能力而得到高度关注。其中极限学习机(ELM)因训练在前馈阶段完成,不需迭代学习,所以学习速度比传统的学习方法快数万倍而在各个领域得到广泛研究[9]。且其不像支持向量机(SVM)和反向传播(BP)等神经网络需设置许多参数才能获得最优解,ELM只设定隐藏层节点数即可。
室内定位系统由于其对于许多基于位置服务的重要性而受到越来越多的关注。基于WiFi等单一信息源的定位解决方案已经得到普遍研究,但仍没有一种可以完全满足实际工程应用中对低成本,高精度,实时性及高鲁棒性等的苛刻要求。惯性导航系统(INS)可以不需要额外的设施进行自主定位,但其缺点是由于惯性传感器的误差累计会随着时间迅速增加。视觉导航系统(VNS)可以提供良好的定位精度,但会受到人员进入/退出场景等问题的困扰。
本发明实施例旨在开发一种基于ELM融合惯性和视觉信息的室内定位技术。该方法利用ELM对惯性及视觉信息进行融合,使得定位结果既能克服仅基于INS的误差累计,又可以减小基于VNS在场景突变,人员进/出等干扰产生的不可控的大的定位误差。且ELM学习速度快,所以该方法既可以满足工程应用对定位精度及鲁棒性的要求,也能满足其对实时性的要求,可以广泛用于各种基于位置的服务中。
实施例1
基于多源信息融合以提供低成本、高精度定位结果已成为室内定位解决方案的未来发展趋势,本发明实施例提出一种基于ELM融合惯性和视觉信息的室内定位方法。由于低成本的惯性传感器会产生很大的误差累计,仅基于视觉特征的定位方法在遇到人员干扰等问题时会产生不可控的大的定位误差。
因此,本发明实施例通过ELM融合惯性和视觉信息以提供更鲁棒的,更精准的定位结果。整个定位算法分为线下训练和线上定位两个阶段。
一、线下训练:
首先,对包含惯性测量、视觉特征的输入和目标输出的训练数据进行建模。模型中每个待定位帧的输入数据均由N个68维的向量表示。然后利用ELM对训练输入数据和相对应的目标位置输出进行学习拟合,得到训练好的参数。
二、线上定位:
利用训练好的ELM对测试输入数据进行定位,由于每帧定位结果由N个二维输出表示,所以取这N个二维输出的均值作为ELM的定位输出。
此外,为了抑制载体转弯时产生的较大定位误差,引入转角判断,一旦将当前时刻判定为处于转弯状态,则采取插值法定位或将上一时刻位置赋为当前时刻最终位置,如果当前时刻处于非转弯状态,则将ELM定位输出作为此帧的最终位置。
综上所述,本发明实施例利用ELM对惯性及视觉信息进行融合,使得定位结果既能克服仅基于INS的误差累计,又可以减小基于VNS在场景突变,人员进/出等干扰产生的不可控的大的定位误差。
实施例2
下面结合具体的计算公式、附图对实施例1中的方案进行进一步地介绍,详见下文描述:
201:对包含惯性测量、视觉特征的输入和目标输出的训练数据进行建模;
由于SURF对照明、旋转和缩放的有效性和鲁棒性,所以本发明实施例采用SURF对视觉特征进行描述。
首先对每帧训练图像提取N个最强的SURF特征,然后将每个64位的SURF描述符与该帧的x、y轴加速度分量、z轴角速度分量及时间戳组成一个68维的输入向量
其中,k为帧数索引,n为该帧的SURF特征索引;分别为x、y轴加速度分量及z轴角速度分量;timestampk为该帧时间戳;最后每帧输入为N×68维的矩阵。
由真实二维坐标组成的每帧目标输出为N×2维矩阵,输出向量
202:利用ELM对训练数据中所有的输入(即特征向量)及输入所对应的输出(即位置坐标)进行学习拟合,得到训练好的参数,使用最小二乘法和Moore-Penrose广义逆矩阵,可以通过(1)-(3)式得到ELM的最优输出权重向量β:
其中,下述公式(1)-(3)式就是该步骤201的数学求解过程:
其中,T为目标向量,H为隐含层输出矩阵,β为输出权重向量,T为转置。
203:利用ELM的最优输出权重向量β对测试输入数据通过下式进行定位,获取输出向量;
其中,h(·)为激活函数,L为隐藏层节点数,为第k帧的第n组输入向量,为第k帧的第n组输出向量。
204:对N个输出取均值作为基于ELM的位置输出;
205:引入转角判定,获得最终位置输出;
其中,k-1帧到k帧的角度变化:Δanglek=anglek-anglek-1 (6)
其中,anglek为第k帧的角度。
1)待定位载体转弯时不产生位移,即原地转弯,则在载体判定为处于转弯状态时可采用上一时刻位置作为当前时刻位置输出:
其中,positionk为第k帧的最终位置输出,thr为转弯判定阈值,若角度变化大于该阈值,则将当前帧判定为处于转弯状态。
2)待定位载体转弯时产生位移,则在载体判定为处于转弯状态时利用插值法获得转弯期间的位置输出:
其中,interpolation(·)为插值函数,positionk-p和positionk+q是距离k帧最近的两个处于未转弯状态的位置,p和q为帧数索引。
综上所述,本发明实施例通过ELM融合惯性和视觉信息以提供更鲁棒的,更精准的定位结果,本发明引入了转角判断,一旦将当前时刻判定为处于转弯状态,则采取插值法定位或将上一时刻位置赋为当前时刻的最终位置。
实施例3
下面结合图2-图4、表1-表3、以及具体的实例对实施例1和2中方案的可行性进行验证,详见下文描述:
对本方法的效果,应用如上实施例1和2中的算法步骤对X轴位移长度为9m,Y轴位移长度为4m,总时长为65秒的实验进行定位分析。该实验包含由于转角产生的场景突变,人员进/出的干扰等。参数设置如下:隐含层节点数为1000,SURF特征数为60。
定性角度,图2显示了本方法与文献[4]所提出的定位算法(在这里简称为BD算法)的定位效果对比。BD算法在SURF特征数设为100时定位效果最好,继续增加特征数定位精度没有明显提高,所以对比实验中本方法将BD算法SURF数设为100。可以看出BD算法在特征丰富的环境中能够提供很好的定位结果,但其在转角及有人员干扰的情况下会产生很大的定位误差,适用条件较苛刻。而本方法具有很强的鲁棒性,在人员干扰的情况下仍可以提供精准的定位结果,且加入了对转弯的判断,有效控制了转弯所引起的误差。
从定量角度,表1为由两种定位算法得到的各评价指标结果。
表1各评价指标结果
本方法各评价指标均优于BD算法。尤其是在线定位阶段,本方法的定位速度比BD算法快近两倍,可满足实际应用中的实时性要求。此外,由均方根误差结果再次证明了本发明超强的鲁棒性和容错性。
在实际应用中,需对本方法涉及到的两个相关参数进行设置。在本实验中,图3和表2分别从定性和定量角度证明了开始定位精度会随着隐含层节点数的增加而增加,当增加到一定程度时,定位精度将不再有明显提高,而训练时间会随着节点数的增加而一直变长。关于SURF特征数的选取上,图4和表3证明了当SURF数提高到一定数值后,定位效果将不再随着SURF数的增加而有明显提高。
表2选取不同隐含层节点数的定位结果
表3选取不同SURF特征数的定位结果
综上,本次实验的最优参数设置如下:隐含层节点数为1000,SURF特征数为60。实验结果证明,在该参数设置下,本方法在定位精度、实时性、鲁棒性及容错性方面均取得非常好的效果。
参考文献
[1]陈家琪,严梓乘.一种Newton插值的RFID室内定位改进算法[J].计算机系统应用,2012,21(1):45-48.
[2]王磊,周慧,蒋国平,等.基于WiFi的自适应匹配预处理WKNN算法[J].信号处理,2015,31(9):1067-1074.
[3]D.Liu,K.Liu,Y.Ma and J.Yu,“Joint TOA and DOA Localization inIndoor Environment Using Virtual Stations,”IEEE Commun.Lett.,vol.18,no.8,pp.1423-1426,Aug.2014.
[4]C.Piciarelli,“Visual Indoor Localization in Known Environments,”IEEE Signal Process.Lett.,vol.23,no.10,pp.1330-1334,Oct.2016.
[5]D.A.G.-Brzezinska,C.K.Toth,T.Moore,J.F.Raquet,M.M.Miller,andA.Kealy,“Multisensor Navigation Systems:A Remedy for GNSS Vulnerabilities?”Proc.IEEE,vol.104,no.6,pp.1339–1353,Jun.2016.
[6]Yue P,Shi Z,Ji C.Relative Location Technology Based on DeadReckoning and Ultrasonic Data Fusion[C]//International Joint Conference onComputational Sciences and Optimization.IEEE Computer Society,2009:255-258.
[7]N.Alam,A.Kealy,and A.G.Dempster,“Cooperative Inertial Navigationfor GNSS-Challenged Vehicular Environments,”IEEE Trans.Intell.Transp.Syst.,vol.14,no.3,pp.1370–1379,Sept.2013.
[8]S.Knauth and A.Koukofikis,“Smartphone positioning in largeenvironments by sensor data fusion,particle filter and FCWC,”inProc.Int.Conf.Indoor Positioning Indoor Navig.,Oct.2016,pp.1-5.
[9]Huang,G.B.,Ding,X.J.,Zhou,H.M.,and Zhang,R.:‘Extreme learningmachine for regression and multiclass classification’,Trans.Syst.ManCybern.B,Cybern.,2012,42,(2),pp.513–529.
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于ELM融合惯性和视觉信息的室内定位方法,其特征在于,所述定位方法包括以下步骤:
对包含惯性测量、视觉特征输入、目标输出的训练数据进行建模;
利用ELM对训练输入数据和相对应的目标位置输出进行学习拟合,得到最优输出权重向量;
利用最优输出权重向量对测试输入数据进行定位,获取输出向量;由于每帧定位结果由N个二维输出向量表示,取N个二维输出向量的均值作为ELM的位置输出;
为了抑制载体转弯时产生的较大定位误差,引入转角判断,如果当前时刻判定为处于转弯状态,则采取插值法定位或将上一时刻位置赋为当前时刻最终位置;如果当前时刻处于非转弯状态,则将ELM定位输出作为此帧的最终位置。
2.根据权利要求1所述的一种基于ELM融合惯性和视觉信息的室内定位方法,其特征在于,所述利用最优输出权重向量对测试输入数据进行定位,获取输出向量具体为:
其中,h(·)为激活函数,L为隐藏层节点数,为第k帧的第n组输入向量,为第k帧的第n组输出向量。
3.根据权利要求2所述的一种基于ELM融合惯性和视觉信息的室内定位方法,其特征在于,所述取N个二维输出向量的均值作为ELM的位置输出具体为:
4.根据权利要求1所述的一种基于ELM融合惯性和视觉信息的室内定位方法,其特征在于,所述采取插值法定位或将上一时刻位置赋为当前时刻最终位置具体为:
其中,interpolation(·)为插值函数,positionk-p和positionk+q是距离k帧最近的两个处于未转弯状态的位置,p和q为帧数索引。
5.根据权利要求1所述的一种基于ELM融合惯性和视觉信息的室内定位方法,其特征在于,所述将ELM定位输出作为此帧的最终位置具体为:
其中,positionk为第k帧的最终位置输出,thr为转弯判定阈值,若角度变化大于该阈值,则将当前帧判定为处于转弯状态。
CN201810338837.5A 2018-04-16 2018-04-16 一种基于elm融合惯性和视觉信息的室内定位方法 Pending CN108716917A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810338837.5A CN108716917A (zh) 2018-04-16 2018-04-16 一种基于elm融合惯性和视觉信息的室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810338837.5A CN108716917A (zh) 2018-04-16 2018-04-16 一种基于elm融合惯性和视觉信息的室内定位方法

Publications (1)

Publication Number Publication Date
CN108716917A true CN108716917A (zh) 2018-10-30

Family

ID=63899032

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810338837.5A Pending CN108716917A (zh) 2018-04-16 2018-04-16 一种基于elm融合惯性和视觉信息的室内定位方法

Country Status (1)

Country Link
CN (1) CN108716917A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109764876A (zh) * 2019-02-21 2019-05-17 北京大学 无人平台的多模态融合定位方法
CN109959379A (zh) * 2019-02-13 2019-07-02 歌尔科技有限公司 定位方法及电子设备
CN110186458A (zh) * 2019-05-17 2019-08-30 天津大学 基于os-elm融合视觉和惯性信息的室内定位方法
CN110458887A (zh) * 2019-07-15 2019-11-15 天津大学 一种基于pca的加权融合室内定位方法
CN114216459A (zh) * 2021-12-08 2022-03-22 昆山九毫米电子科技有限公司 Elm辅助的gnss/ins组合导航无人靶车定位方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104215249A (zh) * 2014-08-26 2014-12-17 厦门市润铭电子科技有限公司 一种行车轨迹的平滑方法
US20150350834A1 (en) * 2014-05-27 2015-12-03 Mitac International Corp. Method for generating a track file that contains notification information, a computer program product, and a navigation method
CN106482738A (zh) * 2016-11-09 2017-03-08 江南大学 基于在线增量超限学习机的室内指纹定位算法
CN107272694A (zh) * 2017-07-18 2017-10-20 北京星航机电装备有限公司 一种基于麦克纳姆轮自主导航全向车控制系统
CN107504969A (zh) * 2017-07-24 2017-12-22 哈尔滨理工大学 基于视觉和惯性组合的四旋翼室内导航方法
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150350834A1 (en) * 2014-05-27 2015-12-03 Mitac International Corp. Method for generating a track file that contains notification information, a computer program product, and a navigation method
CN104215249A (zh) * 2014-08-26 2014-12-17 厦门市润铭电子科技有限公司 一种行车轨迹的平滑方法
CN106482738A (zh) * 2016-11-09 2017-03-08 江南大学 基于在线增量超限学习机的室内指纹定位算法
CN107272694A (zh) * 2017-07-18 2017-10-20 北京星航机电装备有限公司 一种基于麦克纳姆轮自主导航全向车控制系统
CN107504969A (zh) * 2017-07-24 2017-12-22 哈尔滨理工大学 基于视觉和惯性组合的四旋翼室内导航方法
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
史罕初: ""移动机器人在未知环境下的自定位导航和地图创建"", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
孙长库等: ""基于IMU与单目视觉融合的姿态测量方法"", 《天津大学学报(自然科学与工程技术版)》 *
郭俊杰: ""无人驾驶车GPS自主导航系统设计与实现"", 《中国优秀硕士学位论文全文数据库工程科技II辑》 *
黄正宇等: "基于融合特征的半监督流形约束定位方法", 《浙江大学学报(工学版)》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109959379A (zh) * 2019-02-13 2019-07-02 歌尔科技有限公司 定位方法及电子设备
CN109959379B (zh) * 2019-02-13 2021-06-08 歌尔科技有限公司 定位方法及电子设备
CN109764876A (zh) * 2019-02-21 2019-05-17 北京大学 无人平台的多模态融合定位方法
CN110186458A (zh) * 2019-05-17 2019-08-30 天津大学 基于os-elm融合视觉和惯性信息的室内定位方法
CN110458887A (zh) * 2019-07-15 2019-11-15 天津大学 一种基于pca的加权融合室内定位方法
CN114216459A (zh) * 2021-12-08 2022-03-22 昆山九毫米电子科技有限公司 Elm辅助的gnss/ins组合导航无人靶车定位方法
CN114216459B (zh) * 2021-12-08 2024-03-15 昆山九毫米电子科技有限公司 Elm辅助的gnss/ins组合导航无人靶车定位方法

Similar Documents

Publication Publication Date Title
CN108716917A (zh) 一种基于elm融合惯性和视觉信息的室内定位方法
US11466990B2 (en) Square-root multi-state constraint Kalman filter for vision-aided inertial navigation system
Simon et al. Unified forms for Kalman and finite impulse response filtering and smoothing
Bar-Shalom et al. Estimation with applications to tracking and navigation: theory algorithms and software
CN112929817B (zh) 终端定位方法、装置、终端及存储介质
You et al. Frobenius norm-based unbiased finite impulse response fusion filtering for wireless sensor networks
Kim Non-line-of-sight error mitigating algorithms for transmitter localization based on hybrid TOA/RSSI measurements
CN110186458A (zh) 基于os-elm融合视觉和惯性信息的室内定位方法
Panahandeh et al. IMU-camera self-calibration using planar mirror reflection
CN113189541B (zh) 一种定位方法、装置及设备
Qi et al. Weighted fusion robust steady-state Kalman filters for multisensor system with uncertain noise variances
Yurchenkov et al. The sensor network estimation with dropouts: Anisotropy-based approach
Kawanishi et al. Parallel line-based structure from motion by using omnidirectional camera in textureless scene
Georgy et al. Unconstrained underwater multi-target tracking in passive sonar systems using two-stage PF-based technique
CN115540854A (zh) 一种基于uwb辅助的主动定位方法、设备和介质
Mutambara Information based estimation for both linear and nonlinear systems
Otsu et al. Terrain adaptive detector selection for visual odometry in natural scenes
CN110514199B (zh) 一种slam系统的回环检测方法及装置
Wang et al. Filling the gap between low frequency measurements with their estimates
Xu et al. Learning-based adaptive estimation for aoa target tracking with non-gaussian white noise
Parikh et al. A switched systems approach to vision-based localization of a target with intermittent measurements
Juraszek et al. Extended Kalman filter for large scale vessels trajectory tracking in distributed stream processing systems
Li et al. The Improved Optimization Algorithm for UAV SLAM in Visual Odometry-Pose Estimation
Monica et al. Interval arithmetic to support effective indoor positioning of software agents
Kechiche et al. A new loose-coupling method for vision-inertial systems based on retro-correction and inconsistency treatment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181030

RJ01 Rejection of invention patent application after publication