CN116429112A - 多机器人协同定位方法和装置、设备及存储介质 - Google Patents
多机器人协同定位方法和装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116429112A CN116429112A CN202310312102.6A CN202310312102A CN116429112A CN 116429112 A CN116429112 A CN 116429112A CN 202310312102 A CN202310312102 A CN 202310312102A CN 116429112 A CN116429112 A CN 116429112A
- Authority
- CN
- China
- Prior art keywords
- information
- positioning
- robot
- estimation
- updated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 90
- 230000004927 fusion Effects 0.000 claims abstract description 37
- 238000004364 calculation method Methods 0.000 claims abstract description 25
- 239000003550 marker Substances 0.000 claims abstract description 22
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012216 screening Methods 0.000 claims description 11
- 230000008045 co-localization Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 9
- 230000005674 electromagnetic induction Effects 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241001265525 Edgeworthia chrysantha Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0284—Relative positioning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请实施例提供了一种多机器人协同定位方法和装置、设备及存储介质,属于机器人定位技术领域。方法包括:获取自主定位信息;扫描外部标识物,得到观测数据,并获取外部标识物的当前位置信息;其中,外部标识物包括以下至少一种:第二机器人、路标、地标;根据观测数据、当前位置信息和自主定位信息进行位姿估计得到更新定位信息和外部标识物的定位估计信息;将更新定位信息和定位估计信息发送至中心服务器,以使中心服务器获取至少一个第二机器人对第一机器人的定位估计信息得到定位参考信息,并根据定位参考信息和更新定位信息进行融合计算得到目标定位信息;接收来自中心服务器的目标定位信息。本申请实施例能够提高机器人定位精度。
Description
技术领域
本申请涉及机器人定位技术领域,尤其涉及一种多机器人协同定位方法和装置、设备及存储介质。
背景技术
机器人的定位问题是建图、导航等任务的基础,所以机器人的定位影响着导航的准确性。传统定位方式主要通过GPS定位,但是GPS定位无法应用在室内环境,所以室内环境的机器人定位成为当前研究热点。
相关技术中,多机器人协同定位主要分为单个机器人的自主定位和多机器人的协同定位。单机器人的自主定位效果较差,且多机器人的相对定位方法,例如测程法通过记录车轮移动的距离和机器人的初始位姿推算出机器人的当前位姿,需要知道机器人的初始位姿,且有较大的累积误差。因此,如何提高机器人的定位精度,成为了亟待解决的技术问题。
发明内容
本申请实施例的主要目的在于提出一种多机器人协同定位方法和装置、设备及存储介质,旨在提高了机器人定位精度。
为实现上述目的,本申请实施例的第一方面提出了一种多机器人协同定位方法,应用于第一机器人,所述第一机器人通讯连接至少一个第二机器人、中心服务器,所述方法包括:
获取自主定位信息;
扫描外部标识物,得到观测数据,并获取所述外部标识物的当前位置信息;其中,所述外部标识物包括以下至少一种:第二机器人、路标、地标;
根据所述观测数据、所述当前位置信息和所述自主定位信息进行位姿估计,得到更新定位信息和所述外部标识物的定位估计信息;
将所述更新定位信息和所述定位估计信息发送至中心服务器,以使所述中心服务器获取至少一个所述第二机器人对所述第一机器人的定位估计信息得到定位参考信息,并根据所述定位参考信息和所述更新定位信息进行融合计算,得到目标定位信息;
接收来自所述中心服务器的所述目标定位信息。
在一些实施例,所述第一机器人和所述第二机器人上设有预设传感器,所述获取自主定位信息:
获取预设传感器的感知数据;其中,所述预设传感器包括以下至少一种:里程计、视觉传感器、惯性传感器、电磁感应传感器、激光扫描仪;
根据所述感知数据进行定位分析,得到所述自主定位信息。
在一些实施例,所述观测数据包括:距离数据和相对方位信息;所述扫描外部标识物,得到观测数据,并获取所述外部标识物的当前位置信息,包括:
扫描与所述外部标识物的所述距离数据和所述相对方位信息;
扫描所述外部标识物的标识信息,并根据所述标识信息从所述中心服务器的预设位置数据库中进行位置信息匹配,得到所述外部标识物的所述当前位置信息。
在一些实施例,所述根据所述观测数据、所述当前位置信息和所述自主定位信息进行位姿估计,得到更新定位信息和所述外部标识物的定位估计信息,包括:
将所述距离数据、所述相对方位信息、所述当前位置信息和所述自主定位信息输入至预设的扩展卡尔曼滤波模型进行位姿估计,得到所述更新定位信息和所述外部标识物的所述定位估计信息;其中,所述扩展卡尔曼滤波模型如下:
∑i,t+1 -1=∑i,t -1+Hi -1Ri,t -1Hi
其中,为更新定位信息或定位估计信息,vi,t是零均值高斯噪声,其协方差矩阵为Riω,t,t时刻观测数据zi,t对应的观测噪声vi,t=[vij,t]j∈{1,…,N},hiλ为观测模型,且观测模型用于计算外部标识物的当前位置信息和观测数据,/>为自主定位信息。
在一些实施例,所述将所述更新定位信息发送至中心服务器,以使所述中心服务器获取至少一个所述第二机器人对所述第一机器人的定位估计信息得到定位参考信息,并根据至少一个所述定位参考信息和所述更新定位信息进行融合计算,得到目标定位信息,包括:
将所述更新定位信息发送至所述中心服务器,以使所述中心服务器获取至少一个第二机器人对所述第一机器人的所述定位估计信息得到所述定位参考信息,并将至少一个所述定位参考信息和所述更新定位信息输入至预设的逆协方差交叉模型进行融合计算,得到所述目标定位信息;其中,所述逆协方差交叉模型如下:
在一些实施例,应用于中心服务器,所述中心服务器通讯连接至少一个第一机器人和至少一个第二机器人,所述方法包括:
接收至少一个所述第一机器人的更新定位信息和定位估计信息;
接收至少一个所述第二机器人的更新定位信息和定位估计信息;
从所述第二机器人的所述定位估计信息中筛选出所述第一机器人的所述定位估计信息作为定位参考信息,并根据所述第一机器人的所述更新定位信息和所述定位参考信息进行融合计算,得到所述第一机器人的目标定位信息;
从所述第一机器人的所述定位估计信息中筛选出所述第二机器人的所述定位估计信息作为定位参考信息,并根据所述第二机器人的所述更新定位信息和所述定位参考信息进行融合计算,得到所述第二机器人的目标定位信息。
为实现上述目的,本申请实施例的第二方面提出了一种多机器人协同定位方法,应用于第一机器人的控制器,所述第一机器人通讯连接至少一个第二机器人、中心服务器,所述控制器包括:
信息获取模块,用于获取自主定位信息;
扫描模块,用于扫描外部标识物,得到观测数据,并获取所述外部标识物的当前位置信息;其中,所述外部标识物包括以下至少一种:第二机器人、路标、地标;
定位信息估计模块,用于根据所述观测数据、所述当前位置信息和所述自主定位信息进行位姿估计,得到更新定位信息和所述外部标识物的定位估计信息;
信息发送模块,用于将所述更新定位信息发送至中心服务器,以使所述中心服务器获取至少一个所述第二机器人对所述第一机器人的定位估计信息得到定位参考信息,并根据所述定位参考信息和所述更新定位信息进行融合计算,得到目标定位信息;
信息接收模块,用于接收来自所述中心服务器的所述目标定位信息。
为实现上述目的,本申请实施例的第三方面提出了一种多机器人协同定位装置,所述装置包括:
应用于中心服务器,所述中心服务器通讯连接至少一个第一机器人和至少一个第二机器人,所述中心服务器包括:
第一接收模块,用于接收至少一个所述第一机器人的更新定位信息和定位估计信息;
第二接收模块,用于接收至少一个所述第二机器人的更新定位信息和定位估计信息;
第一位姿估计模块,用于从所述第二机器人的所述定位估计信息中筛选出所述第一机器人的所述定位估计信息作为定位参考信息,并根据所述第一机器人的所述更新定位信息和所述定位参考信息进行位姿估计,得到所述第一机器人的目标定位信息;
第二位姿估计模块,用于从所述第一机器人的所述定位估计信息中筛选出所述第二机器人的所述定位估计信息作为定位参考信息,并根据所述第二机器人的所述更新定位信息和所述定位参考信息进行位姿估计,得到所述第二机器人的目标定位信息。
为实现上述目的,本申请实施例的第四方面提出了一种电子设备,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法。
为实现上述目的,本申请实施例的第五方面提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法。
本申请提出的多机器人协同定位方法和装置、设备及存储介质,其通过机器人先自主定位得到自主定位信息,并感知其他外部标识物的观测数据,以根据外部标识物的观测数据、当前位置信息和自主定位信息再对机器人的位置估计得到更新定位信息,最后将更新定位信息发送至中心服务器,以使中心服务器根据更新定位信息和其他机器人的位置估计信息进行融合得到目标位置信息。因此,通过各个机器人自主定位、观测更新和协同更新,以实现机器人的协同定位,大大提升机器人定位的精度。
附图说明
图1是本申请实施例提供的多机器人协同定位方法的系统框架图;
图2是本申请实施例提供的多机器人协同定位方法的流程图;
图3是图2中的步骤S201的流程图;
图4是图2中的步骤S202的流程图;
图5是图2中的步骤S203的流程图;
图6是图2中的步骤S204的流程图;
图7是本申请实施例提供的多机器人协同定位方法的流程图;
图8是本申请实施例提供的多机器人协同定位方法的场景示意图;
图9是本申请实施例提供的多机器人协同定位方法与现有方法的效果比对图;
图10是本申请实施例提供的多机器人协同定位方法与现有方法的效果比对图;
图11是本申请实施例提供的多机器人协同定位装置的结构示意图;
图12是本申请实施例提供的多机器人协同定位装置的结构示意图;
图13是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;机器人定位是计算机科学的一个分支,机器人定位企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。机器人定位可以对人的意识、思维的信息过程的模拟。机器人定位还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
扩展卡尔曼滤波(Extended Kalman Filter,EKF):标准卡尔曼滤波在非线性情形下的一种扩展形式,EKF算法是将非线性函数进行泰勒展开,省略高阶项,保留展开项的一阶项,以此来实现非线性函数线性化,最后通过卡尔曼滤波算法近似计算系统的状态估计值和方差估计值,对信号进行滤波。扩展卡尔曼滤波是一种非线性卡尔曼滤波,用来估计均值(mean)和协方差(covariance),广泛用于非线性机器人状态估计、GPS、导航。
协方差交叉(Covariance intersection):是在卡尔曼滤波中,二个状态变数之间不确定其协方差时,合并其估测值的算法。资讯项a及b已知,要融合成资讯项c。已知a和b的平均数/协方差formula_1,formula_2及formula_3,formula_4,但是交叉相关未知。协方差交叉可以更新c的平均数/协方差为其中ω是计算让特定范数(例如logdet或迹)最小化。
机器人的定位问题是建图、导航等任务的基础,多机器人协同定位在智能物流、车辆网络、机器人协作等领域有着很大的应用价值,受到建筑物的影响,传统的CPS定位无法应用在室内环境下,单个机器人的定位效果往往交叉,因此,室内环境下的多机器人协同定位有较大的研究和应用价值。
多机器人系统定位可以分解为单个机器人的自主定位和多机器人的协同,单机器人的自主定位已经有很多较为成熟的方法,其中,相对定位方法例如测程法通过记录车轮移动的距离和机器人的初始位姿推算出机器人的当前位姿,这种方法需要知道机器人的初始位姿,且有较大的累积误差。绝对定位方法如基于GPS和无线信号的定位一般通过测量机器人到各信号发射端的距离,利用三边定位等算法推算出机器人的绝对位置,这类方法无需知道机器人的初始位置,但无法估计出机器人的姿态,且定位结果也不连续。基于优化的协同定位方法如最大似然法和最大后验法将多机器人协同定位问题建模为非线性最小二乘问题,然后离线进行求解。基于EKF的协同定位方法,如协方差交叉法,将多机器人的协同定位视作机器人自主定位的状态估计和互感知给出的状态估计的融合。协方差交叉算法能够融合多个相关性未知的状态估计,能够给出误差更低的定位结果。
综上,相关技术的相对定位需要知道机器人的初始位姿,累计误差会导致定位结果产生较大偏移。基于无线信号的绝对定位方法一般无法得到机器人的姿态且定位结果不连续。基于优化的协同定位方法对于机器人之间的通信有很大的负担,协方差交叉算法虽然计算效率较高,但是融合的精度不高。
基于此,本申请实施例提供了一种多机器人协同定位方法和装置、设备及存储介质,旨在通过机器人先自主定位得到自主定位信息,并感知其他外部标识物的观测数据,以根据外部标识物的观测数据、当前位置信息和自主定位信息再对机器人的位置估计得到更新定位信息,最后将更新定位信息发送至中心服务器,以使中心服务器根据更新定位信息和其他人对机器人的位置估计信息进行融合得到目标位置信息。因此,通过各个机器人自主定位、观测更新和协同更新,以实现机器人的协同定位,大大提升机器人定位的精度。
本申请实施例提供的多机器人协同定位方法和装置、设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的多机器人协同定位方法。
本申请实施例可以基于机器人定位技术对相关的数据进行获取和处理。其中,机器人定位(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
机器人定位基础技术一般包括如传感器、专用机器人定位芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。机器人定位软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的多机器人协同定位方法,涉及机器人定位技术领域。本申请实施例提供的多机器人协同定位方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和机器人定位平台等基础云计算服务的云服务器;软件可以是实现多机器人协同定位方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
请参照图1,图1是多机器人协同定位系统的一个系统框架图,多机器人协同定位系统包括第一机器人、多个第二机器人和中心服务器,第一机器人、多个第二机器人和中心服务器通讯连接,通讯方式包括以下至少一种:WI F I、蓝牙、GPRS。
本申请将中心服务器进行定位融合的机器人作为第一机器人,而观测到第一机器人的机器人作为第二机器人。当中心服务器完成定位融合后,第一机器人若存在对其他机器人的定位估计信息,那第一机器人定义为第二机器人,而进行定位融合的第二机器人定义为第一机器人。
图2是本申请实施例提供的多机器人协同定位方法的一个可选的流程图,且多机器人协同定位方法应用于第一机器人,第一机器人通讯连接第二机器人、中心服务器。图2中的方法可以包括但不限于包括步骤S201至步骤S206。
步骤S201,获取自主定位信息;
步骤S202,扫描外部标识物,得到观测数据,并获取外部标识物的当前位置信息;其中,外部标识物包括以下至少一种:第二机器人、路标、地标;
步骤S203,根据观测数据、当前位置信息和自主定位信息进行位姿估计,得到更新定位信息和外部标识物的定位估计信息;
步骤S204,将更新定位信息发送至中心服务器,以使中心服务器获取至少一个第二机器人对第一机器人的定位估计信息得到定位参考信息,并根据定位参考信息和更新定位信息进行融合计算,得到目标定位信息;
步骤S205,接收来自中心服务器的目标定位信息。
本申请实施例所示意的步骤S201至步骤S205,第一机器人通过自主定位得到自主定位信息,然后扫描外部标识物得到观测数据,并根据观测数据、当前位置信息和自主定位信息进行位姿估计得到更新定位信息和外部标识物的定位估计信息,以通过实现第一机器人的定位更新以及预测出外部标识物的定位估计信息,然后将更新定位信息和定位估计信息都发送至中心服务器,以使中心服务器将第二机器人对第一机器人的定位估计信息作为定位参考信息,并将定位参考信息和更新定位信息进行融合计算得到目标定位信息。因此,先通过自主定位,再根据观测数据更新定位,最后由中心服务器将多个第二机器人对第一机器人的估计定位和更新定位进行融合计算,以实现多机器人的协同定位,以提高机器人定位的精度。
需要说明的是,传统GPS定位的精度在10米,但是对于机器人来说需要以远高于10米的精度来定位自己的位置,特别是机器人的室内定位,对于定位精度要求更高,特别是应用于加工工厂内的运输类型机器人,若运输类型机器人移动发生偏差都会影响加工操作,所以对于机器人的定位精度要求更高。本申请通过由机器人自主定位结果后,再通过观测其他外部标识物更新自身定位结果,然后由中心服务器根据更新定位结果和其他机器人对机器人的定位结果融合得到目标定位结果,以提升机器人定位的精度。
请参阅图3,在一些实施例中,第一机器人和第二机器人上设有预设传感器,步骤S201可以包括但不限于包括步骤S301至步骤S302:
步骤S301,获取预设传感器的感知数据;其中,预设传感器包括以下至少一种:里程计、视觉传感器、惯性传感器、电磁感应传感器、激光扫描仪;
步骤S302,根据感知数据进行定位分析,得到自主定位信息。
下面对步骤S301至步骤S302进行详细描述:
第一机器人和第二机器人是自主式移动机器人,自主式移动机器人的一个基本功能是可以自动确定自身在环境中的位置,且机器人的定位方式取决于所采用的传感器,一般机器人常用的定位传感器,也即提前在第一机器人和第二机器人上预设传感器。在步骤S301中,预设传感器包括:里程计、视觉传感器、惯性传感器、电磁感应传感器、激光扫描仪中至少一种。视觉传感器可以为摄像机,电磁感应传感器可以为超声波,激光扫描仪可以为2D激光雷达、红外线。因此,通过第一机器人自身配置的预设传感器进行自主定位得到感知数据。其中,若预设传感器为里程计,感知数据为里程计数据。因此,通过设置预设传感器感知第一机器人当前的感知数据,以实现机器人自主定位。
在一些实施例的步骤S302中,根据感知数据进行定位分析,若感知数据为里程计数据,通过有效的位姿估计算法对感知数据进行分析得到自主定位信息。
具体地,根据感知数据对第一机器人进行自主定位的过程如下:
多机器人协同定位系统包含:第一机器人和N个第二机器人的多机器人系统,t时刻编号为i的第一机器人的位姿可以表示为pi,t=θi,t,qi,t T],其中,θi,t为第一机器人在世界坐标系下的姿态角,qi,t=xi,t,yi,t]T为世界坐标系下的位置,多移动机器人系统的定位问题可以描述为求解如公式(1):
si,t=[ q1,t T,…, pi,t T,…, qN,t T]T (1)
在自主定位阶段,若感知数据为里程计数据,第一机器人根据自身的里程计数据进行运动更新,且更新公式如公式(2)所示:
本申请实施例步骤S301至步骤S302的优点是,通过第一机器人采用自身携带的预设传感器进行感知得到感知数据,以根据感知数据完成自主定位,使得自主定位简易。
需要说明的是,自主定位方法本实施例采用了里程计方式,其他实施例中自主定位方法可以通过2D激光雷达扫描外部得到感知数据,以对感知数据进行处理后,使用特征描述子就可以轻易地提出第一机器人的自主定位信息。
请参阅图4,在一些实施例中,步骤S202可以包括但不限于包括步骤S401至步骤S402:
步骤S401,扫描与外部标识物的距离数据和相对方位信息;
步骤S402,扫描外部标识物的标识信息,并根据标识信息从中心服务器的预设位置数据库中进行位置信息匹配,得到外部标识物的当前位置信息。
观测数据包括:距离数据和相对方位信息,在步骤S401中,通过预设的感知传感器扫描与外部标识物的距离数据和相对方位数据,且感知传感器可以为激光雷达或者相机等视觉感知传感器。通过激光雷达或者相机可以识别到外部标识物的距离数据和相对方位信息。其中,外部标识物包括第二机器人、路标和地标,地标为标记性建筑物,且标记性建筑物,例如摩天大楼、教堂、寺庙、雕像、灯塔、桥梁等。路标为交通标记,不管是第二机器人还是地标、路标都具备最新的当前位置信息,地标、路标的当前位置信息是固定的,第二机器人的当前位置信息则是最新的位置信息。
如地标、路标的当前位置信息是提前预设的,第二机器人的当前位置信息是需要从第二机器人处获取的。所以,提前在中心服务器内预设位置数据库,中心服务器提前将地标、路标的当前位置信息提前存入位置数据库,且中心服务器在接收到第二机器人的更新定位信息之后也存入到位置数据库。其中,中心服务器若未完成第二机器人的位置信息融合,那么更新定位信息作为第二机器人的位置信息,中心服务器若完成第二机器人的位置信息融合,中心服务器确定第二机器人的目标位置信息作为第二机器人的当前位置信息。因此,在步骤S402中,先对外部标识物扫描得到标识信息,根据标识信息对位置数据库中的位置信息进行筛选,以筛选出与标识信息匹配的位置信息作为外部标识物的当前位置信息。
例如,若扫描第二机器人的标识信息为A3,并从位置数据库中提取标识信息为A3匹配的位置信息为(05,12,43),并将位置信息为(05,12,43)作为当前位置信息。
请参阅图5,在一些实施例中,步骤S203可以包括但不限于包括步骤S501:
步骤S501,将距离数据、相对方位信息、当前位置信息和自主定位信息输入至预设的扩展卡尔曼滤波模型进行位姿估计,得到更新定位信息和外部标识物的定位估计信息;其中,扩展卡尔曼滤波模型如下公式(3)至公式(6)所示:
Σi,t+1 -1=Σi,t -1+Hi TRi,t -1Hi (5)
其中,为更新定位信息或定位估计信息,vi,t是零均值高斯噪声,其协方差矩阵为Riω,t,t时刻观测数据zi,t对应的观测噪声vi,t=[vij,t]j∈{1,…,N},hiλ为观测模型,且观测模型用于计算外部标识物的当前位置信息和观测数据得到观测数据,/>为自主定位信息。
在一些实施例的步骤S501中,通过将更新定位信息和第二机器人的定位估计信息输入至扩展卡尔曼滤波模型,且扩展卡尔曼滤波模型有更广的适用范围,且具备更高的状态估计精度,可以处理任意更新频率的系统。因此,通过扩展卡尔曼滤波模型对距离数据、相对方位信息、当前位置信息和自主定位信息进行位姿估计,以估计出第一机器人的更新定位信息。因此,第一机器人完成自主定位后,再通过观测到外部标识物的距离数据、相对方位信息、当前位置信息和自主定位信息以估计出自身的位姿信息作为更行定位信息,同时估计出观测到外部标识物的定位估计信息。其中,通过公式(3)可知,由于第一机器人对外部标识物的观测数据不一定准确,所以需要计算出第一机器人的观测噪声,并基于观测噪声和自主定位信息得到观测数据,然后再通过公式(4)将观测数据、自主定位信息和当前位置信息进行位姿估计得到更新定位信息,同理公式(4)也可以计算出外部标识物的定位估计信息。
本申请步骤S501的优点,通过扩展卡尔曼滤波模型对距离数据、相对方位信息、当前位置信息和自主定位信息进行位姿估计,以估计出第一机器人的更新定位信息和外部标识物的定位估计信息,因此参考外部标识物的位置信息和与外部标识物之间的距离、相对方位更新第一机器人的定位信息,使得第一机器人的定位更加准确。
请参阅图6,在一些实施例,步骤S204可以包括但不限于包括步骤S601:
步骤S601,将更新定位信息发送至中心服务器,以使中心服务器获取至少一个第二机器人对第一机器人的定位估计信息得到定位参考信息,并将至少一个定位参考信息和更新定位信息输入至预设的逆协方差交叉模型进行融合计算,得到目标定位信息;其中,逆协方差交叉模型如下公式(7)至(10):
第一机器人若观测到第二机器人,那么第一机器人上传第二机器人的定位估计信息和自身的更新定位信息,所以第二机器人也是向中心服务器上传第一机器人的定位估计信息和自身的更新定位信息,在一些实施例的步骤S601中,中心服务器接收到第一机器人和第二机器人的更新定位信息和定位估计信息,并将第二机器人对第一机器人的定位估计信息作为定位参考信息,然后通过逆协方差交叉模型对更新定位信息和定位参考信息进行融合计算得到目标定位信息。其中,由于中心服务器会接收到多个第二机器人的定位估计信息,所以会从第二机器人的定位估计信息中筛选出与第一机器人相关的定位估计信息作为定位参考信息,且定位参考信息存在多个,所以多个定位参考信息和更新定位信息进行融合计算得到目标定位信息。
需要说明的是,公式(7)至(9)都是计算出融合过程中更新定位信息和定位参考信息的估计误差方差,也称为权重系数,以便于多个定位参考信息和更新定位信息融合计算得到更加准确的目标定位信息。对于第一机器人的定位操作对于第二机器人的定位操作相同,所以每一机器人都是以多机器人协同定位方法进行定位,以实现多机器人的定位协同,提高定位准确率。
本实施例的步骤S601,通过中心服务器将多个第二机器人对第一机器人的定位估计信息作为定位参考信息,并通过逆协方差交叉模型将多个定位参考信息和更新定位信息进行融合计算得到目标定位信息,使得第一机器人的定位更加准确。
请参阅图7,本申请实施例还提供一种多机器人协同定位方法,应用于中心服务器,中心服务器通讯连接至少一个第一机器人和至少一个第二机器人,多机器人协同定位方法可以包括但不限于包括步骤S701至步骤S704:
步骤S701,接收第一机器人的更新定位信息和定位估计信息;
步骤S702,接收至少一个第二机器人的更新定位信息和定位估计信息;
步骤S703,从第二机器人的定位估计信息中筛选出第一机器人的融合计算信息作为定位参考信息,并根据第一机器人的更新定位信息和定位参考信息进行位姿估计,得到第一机器人的目标定位信息;
步骤S704,从第一机器人的定位估计信息中筛选出第二机器人的定位估计信息作为定位参考信息,并根据第二机器人的更新定位信息和定位参考信息进行融合计算,得到第二机器人的目标定位信息。
在本申请实施例所示意的步骤S701至步骤S704,通过分别接收多个第一机器人和多个第二机器人的更新定位信息和定位估计信息,并从定位估计信息中筛选出与第一机器人相关的定位估计信息作为定位参考信息,然后将定位参考信息和更新定位信息进行融合计算得到第一机器人的目标定位信息;同时,将第一机器人对第二机器人的定位估计信息作为定位参考信息,并对定位参考信息和更新定位信息进行融合计算得到第二机器人的目标定位信息。因此,中心服务器对机器人的更新定位信息和其他机器人对其的定位估计信息进行融合计算,得到更加准确的目标定位信息,使得每一机器人的定位更加准确。
在一些实施例的步骤S701中,中心服务器接收第一机器人的更新定位信息和定位估计信息,且第一机器人在上传更新定位信息和定位估计信息之前,需要先自主定位得到自主定位信息,并通过观测外部标识物得到观测数据,根据观测数据、自主定位信息和外部标识物的当前位置信息进行位姿估计得到更新定位信息和外部标识物的定位估计信息,且将外部标识物为第二机器人的定位估计信息和更新定位信息上传至中心服务器,所以中心服务器接收的是第一机器人已经更新后的定位信息,使得第一机器人的定位更加准确。
在一些实施例的步骤S702中,中心服务器接收第二机器人的更新定位信息和定位估计信息,且第二机器人在上传更新定位信息和定位估计信息之前,需要先自主定位得到自主定位信息,并通过观测外部标识物得到观测数据,根据观测数据、自主定位信息和外部标识物的当前位置信息进行位姿估计得到更新定位信息和外部标识物的定位估计信息,且将外部标识物为第一机器人的定位估计信息和更新定位信息上传至中心服务器,所以中心服务器接收的是第二机器人已经更新后的定位信息,使得第二机器人的定位更加准确。
在一些实施例的步骤S703中,通过中心服务器自动将第一机器人的更新定位信息和定位参考信息进行融合计算以得到更加准确的目标定位信息,提升第一机器人的定位精度。
在一些实施例的步骤S704中,通过中心服务器自动将第二机器人的更新定位信息和定位参考信息进行融合计算以得到更加准确的目标定位信息,提升第二机器人的定位精度。
如图8所示,本申请实施例所示意应用于A、B两个机器人的协同定位操作,机器人A通过运动更新及对路标的观测和对机器人B的观测hA,B进行观测更新,得到包含更新定位信息和定位估计信息的sA,t,B机器人同样得到sB,t,sA,和sB,t都包含对机器人A的定位估计信息,机器人A和B每间隔固定时间和中心服务器进行通信,将自身维护的状态估计sA,和sB,t发送给中心服务器,中心服务器使用逆协方差交叉对这两个状态估计进行融合得到目标定位信息,以提高机器人的定位精度。
通过上述步骤实现机器人的定位,以提高机器人的定位精度。具体效果说明如下:
MRCLAM数据集由多伦多大学航空航天学院建立,被广泛应用在多机器人协同定位、多机协同等领域。数据集的采集使用了高精度的测量设备,包含五个机器人在各个时刻下完整的里程计数据、观测数据以及真实的位置信息。各定位方法在MRCLAM数据集上的平均定位精度如表1所示。
表1:MRCLAM平均定位精度[m]
通过表1可以看出本申请的多机器人协同定位方法提高了多机器人系统的平均定位精度,其中,基于协方差交叉的协同定位相比于各机器人自主定位降低了2.14%的平均误差,基于逆协方差交叉的方法降低了3.21%的定位误差,这验证了逆协方差交叉在状态融合上相较于协方差交叉的优势。
在仿真实验中,我们令三个机器人在搭建的室内仿真环境下运动,记录各机器人运动的真实轨迹、自主定位结果以及本申请的多机器人协同定位轨迹如图9所示。其中,第一虚线段LX1为机器人的真实运动轨迹,第二虚线段LX2为各机器人自主定位结果,第三实线段LX3为本发明的协同定位轨迹。可以看出三个机器人自主定位结果相对各自的真实轨迹均有一定的偏差,不同机器人之间的互观测给出了更为准确的位置估计,两者经过逆协方差交叉融合后纠正了自主定位的偏差,得到了更好的定位效果。机器人A的平均定位误差降低了54.01%,机器人B的平均定位误差降低了27.70%,机器人A的平均定位误差降低了5.38%,整个机器人系统的平均定位误差由0.6865m降低到了0.4483m,平均定位误差降低了34.7%。图10给出了两机器人的实验结果,其中两机器人自主定位的平均定位误差0.5477m,协同定位的平均定位误差0.3940m,引入本申请协同定位后平均定位误差降低了28.06%。在一定范围内,协同定位的精度一般和参与协同的机器人数量成正相关。
因此,通过表1、图9、图10可以知道,本申请提出的多机器人协同定位方法能够较好地实现室内环境下多机器人的定位,大大地提升了各机器人地定位精度。
请参阅图11,本申请实施例还提供一种多机器人协同定位装置,应用于第一机器人的控制器,第一机器人通讯连接至少一个第二机器人、中心服务器,可以实现上述多机器人协同定位方法,该装置包括:
信息获取模块,用于获取自主定位信息;
扫描模块,用于扫描外部标识物,得到观测数据,并获取外部标识物的当前位置信息;其中,外部标识物包括以下至少一种:第二机器人、路标、地标;
定位信息估计模块,用于根据观测数据、当前位置信息和自主定位信息进行位姿估计,得到更新定位信息和外部标识物的定位估计信息;
信息发送模块,用于将更新定位信息发送至中心服务器,以使中心服务器获取至少一个第二机器人对第一机器人的定位估计信息得到定位参考信息,并根据定位参考信息和更新定位信息进行融合计算,得到目标定位信息;
信息接收模块,用于接收来自中心服务器的目标定位信息。
该多机器人协同定位装置的具体实施方式与上述多机器人协同定位方法的具体实施例基本相同,在此不再赘述。
请参阅图12,本申请实施例还提供一种多机器人协同定位装置,可以实现上述多机器人协同定位方法,该装置应用于中心服务器,中心服务器通讯连接至少一个第一机器人和至少一个第二机器人,中心服务器包括:
第一接收模块,用于接收第一机器人的更新定位信息和定位估计信息;
第二接收模块,用于接收至少一个第二机器人的更新定位信息和定位估计信息;
第一位姿估计模块,用于从第二机器人的定位估计信息中筛选出第一机器人的定位估计信息作为定位参考信息,并根据第一机器人的更新定位信息和定位参考信息进行位姿估计,得到第一机器人的目标定位信息;
第二位姿估计模块,用于从第一机器人的定位估计信息中筛选出第二机器人的定位估计信息作为定位参考信息,并根据第二机器人的更新定位信息和定位参考信息进行位姿估计,得到第二机器人的目标定位信息。
该多机器人协同定位装置的具体实施方式与上述多机器人协同定位方法的具体实施例基本相同,在此不再赘述。
本申请实施例还提供了一种电子设备,电子设备包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述多机器人协同定位方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图13,图13示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器1301,可以采用通用的CPU(Central ProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器1302,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器1302可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1302中,并由处理器1301来调用执行本申请实施例的多机器人协同定位方法;
输入/输出接口1303,用于实现信息输入及输出;
通信接口1304,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线1305,在设备的各个组件(例如处理器1301、存储器1302、输入/输出接口1303和通信接口1304)之间传输信息;
其中处理器1301、存储器1302、输入/输出接口1303和通信接口1304通过总线1305实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述多机器人协同定位方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的多机器人协同定位方法和装置、设备及存储介质,其通过机器人先自主定位得到自主定位信息,并感知其他外部标识物的观测数据,以根据外部标识物的观测数据、当前位置信息和自主定位信息再对机器人的位置估计得到更新定位信息,最后将更新定位信息发送至中心服务器,以使中心服务器根据更新定位信息和其他人对机器人的位置估计信息进行融合得到目标位置信息。因此,通过各个机器人自主定位、观测更新和协同更新,以实现机器人的协同定位,大大提升机器人定位的精度。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-On ly Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。
Claims (10)
1.一种多机器人协同定位方法,其特征在于,应用于第一机器人,所述第一机器人通讯连接至少一个第二机器人、中心服务器,所述方法包括:
获取自主定位信息;
扫描外部标识物,得到观测数据,并获取所述外部标识物的当前位置信息;其中,所述外部标识物包括以下至少一种:第二机器人、路标、地标;
根据所述观测数据、所述当前位置信息和所述自主定位信息进行位姿估计,得到更新定位信息和所述外部标识物的定位估计信息;
将所述更新定位信息和所述定位估计信息发送至中心服务器,以使所述中心服务器获取至少一个所述第二机器人对所述第一机器人的定位估计信息得到定位参考信息,并根据所述定位参考信息和所述更新定位信息进行融合计算,得到目标定位信息;
接收来自所述中心服务器的所述目标定位信息。
2.根据权利要求1所述的方法,其特征在于,所述第一机器人和所述第二机器人上设有预设传感器,所述获取自主定位信息:
获取预设传感器的感知数据;其中,所述预设传感器包括以下至少一种:里程计、视觉传感器、惯性传感器、电磁感应传感器、激光扫描仪;
根据所述感知数据进行定位分析,得到所述自主定位信息。
3.根据权利要求1所述的方法,其特征在于,所述观测数据包括:距离数据和相对方位信息;所述扫描外部标识物,得到观测数据,并获取所述外部标识物的当前位置信息,包括:
扫描与所述外部标识物的所述距离数据和所述相对方位信息;
扫描所述外部标识物的标识信息,并根据所述标识信息从所述中心服务器的预设位置数据库中进行位置信息匹配,得到所述外部标识物的所述当前位置信息。
4.根据权利要求3所述的方法,其特征在于,所述根据所述观测数据、所述当前位置信息和所述自主定位信息进行位姿估计,得到更新定位信息和所述外部标识物的定位估计信息,包括:
将所述距离数据、所述相对方位信息、所述当前位置信息和所述自主定位信息输入至预设的扩展卡尔曼滤波模型进行位姿估计,得到所述更新定位信息和所述外部标识物的所述定位估计信息;其中,所述扩展卡尔曼滤波模型如下:
5.根据权利要求1至4任一项所述的方法,其特征在于,所述将所述更新定位信息发送至中心服务器,以使所述中心服务器获取至少一个所述第二机器人对所述第一机器人的定位估计信息得到定位参考信息,并根据至少一个所述定位参考信息和所述更新定位信息进行融合计算,得到目标定位信息,包括:
将所述更新定位信息发送至所述中心服务器,以使所述中心服务器获取至少一个第二机器人对所述第一机器人的所述定位估计信息得到所述定位参考信息,并将至少一个所述定位参考信息和所述更新定位信息输入至预设的逆协方差交叉模型进行融合计算,得到所述目标定位信息;其中,所述逆协方差交叉模型如下:
6.一种多机器人协同定位方法,其特征在于,应用于中心服务器,所述中心服务器通讯连接至少一个第一机器人和至少一个第二机器人,所述方法包括:
接收所述第一机器人的更新定位信息和定位估计信息;
接收至少一个所述第二机器人的更新定位信息和定位估计信息;
从所述第二机器人的所述定位估计信息中筛选出所述第一机器人的所述定位估计信息作为定位参考信息,并根据所述第一机器人的所述更新定位信息和所述定位参考信息进行融合计算,得到所述第一机器人的目标定位信息;
从所述第一机器人的所述定位估计信息中筛选出所述第二机器人的所述定位估计信息作为定位参考信息,并根据所述第二机器人的所述更新定位信息和所述定位参考信息进行融合计算,得到所述第二机器人的目标定位信息。
7.一种多机器人协同定位方法,其特征在于,应用于第一机器人的控制器,所述第一机器人通讯连接至少一个第二机器人、中心服务器,所述控制器包括:
信息获取模块,用于获取自主定位信息;
扫描模块,用于扫描外部标识物,得到观测数据,并获取所述外部标识物的当前位置信息;其中,所述外部标识物包括以下至少一种:第二机器人、路标、地标;
定位信息估计模块,用于根据所述观测数据、所述当前位置信息和所述自主定位信息进行位姿估计,得到更新定位信息和所述外部标识物的定位估计信息;
信息发送模块,用于将所述更新定位信息发送至中心服务器,以使所述中心服务器获取至少一个所述第二机器人对所述第一机器人的定位估计信息得到定位参考信息,并根据所述定位参考信息和所述更新定位信息进行融合计算,得到目标定位信息;
信息接收模块,用于接收来自所述中心服务器的所述目标定位信息。
8.一种多机器人协同定位方法装置,其特征在于,应用于中心服务器,所述中心服务器通讯连接至少一个第一机器人和至少一个第二机器人,所述中心服务器包括:
第一接收模块,用于接收所述第一机器人的更新定位信息和定位估计信息;
第二接收模块,用于接收至少一个所述第二机器人的更新定位信息和定位估计信息;
第一位姿估计模块,用于从所述第二机器人的所述定位估计信息中筛选出所述第一机器人的所述定位估计信息作为定位参考信息,并根据所述第一机器人的所述更新定位信息和所述定位参考信息进行位姿估计,得到所述第一机器人的目标定位信息;
第二位姿估计模块,用于从所述第一机器人的所述定位估计信息中筛选出所述第二机器人的所述定位估计信息作为定位参考信息,并根据所述第二机器人的所述更新定位信息和所述定位参考信息进行位姿估计,得到所述第二机器人的目标定位信息。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至5任一项,或6所述的多机器人协同定位方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项,或6所述的多机器人协同定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310312102.6A CN116429112A (zh) | 2023-03-27 | 2023-03-27 | 多机器人协同定位方法和装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310312102.6A CN116429112A (zh) | 2023-03-27 | 2023-03-27 | 多机器人协同定位方法和装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116429112A true CN116429112A (zh) | 2023-07-14 |
Family
ID=87093671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310312102.6A Pending CN116429112A (zh) | 2023-03-27 | 2023-03-27 | 多机器人协同定位方法和装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116429112A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116664681A (zh) * | 2023-07-26 | 2023-08-29 | 长春工程学院 | 基于语义感知的电力作业智能协同增强现实系统及方法 |
-
2023
- 2023-03-27 CN CN202310312102.6A patent/CN116429112A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116664681A (zh) * | 2023-07-26 | 2023-08-29 | 长春工程学院 | 基于语义感知的电力作业智能协同增强现实系统及方法 |
CN116664681B (zh) * | 2023-07-26 | 2023-10-10 | 长春工程学院 | 基于语义感知的电力作业智能协同增强现实系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | F-loam: Fast lidar odometry and mapping | |
Smith et al. | On the representation and estimation of spatial uncertainty | |
CN107967457A (zh) | 一种适应视觉特征变化的地点识别与相对定位方法及系统 | |
CN107544501A (zh) | 一种智能机器人智慧行走控制系统及其方法 | |
CN105487535A (zh) | 一种基于ros的移动机器人室内环境探索系统与控制方法 | |
CN112967392A (zh) | 一种基于多传感器触合的大规模园区建图定位方法 | |
KR102130687B1 (ko) | 다중 센서 플랫폼 간 정보 융합을 위한 시스템 | |
CN111856499B (zh) | 基于激光雷达的地图构建方法和装置 | |
Törnqvist et al. | Particle filter SLAM with high dimensional vehicle model | |
CN111380515B (zh) | 定位方法及装置、存储介质、电子装置 | |
Meier et al. | Visual‐inertial curve simultaneous localization and mapping: Creating a sparse structured world without feature points | |
CN114897988B (zh) | 一种铰链式车辆中的多相机定位方法、装置及设备 | |
Warren et al. | Towards visual teach and repeat for GPS-denied flight of a fixed-wing UAV | |
Li et al. | Autonomous navigation and environment modeling for MAVs in 3-D enclosed industrial environments | |
Zhang et al. | Seeing Eye Phone: a smart phone-based indoor localization and guidance system for the visually impaired | |
Garrote et al. | 3D point cloud downsampling for 2D indoor scene modelling in mobile robotics | |
Gil et al. | Occupancy grid based graph-SLAM using the distance transform, SURF features and SGD | |
Magree et al. | Monocular visual mapping for obstacle avoidance on UAVs | |
CN116429112A (zh) | 多机器人协同定位方法和装置、设备及存储介质 | |
CN117685953A (zh) | 面向多无人机协同定位的uwb与视觉融合定位方法及系统 | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
Liu et al. | Collaborative positioning method via GPS/INS and RS/MO multi-source data fusion in multi-target navigation | |
Li et al. | Multiple RGB-D sensor-based 3-D reconstruction and localization of indoor environment for mini MAV | |
Anousaki et al. | Simultaneous localization and map building of skid-steered robots | |
CN112446905A (zh) | 基于多自由度传感关联的三维实时全景监控方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |