CN114295118A - 一种多机器人的定位方法、装置及设备 - Google Patents

一种多机器人的定位方法、装置及设备 Download PDF

Info

Publication number
CN114295118A
CN114295118A CN202111656442.8A CN202111656442A CN114295118A CN 114295118 A CN114295118 A CN 114295118A CN 202111656442 A CN202111656442 A CN 202111656442A CN 114295118 A CN114295118 A CN 114295118A
Authority
CN
China
Prior art keywords
robot
pose
target
navigation
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111656442.8A
Other languages
English (en)
Other versions
CN114295118B (zh
Inventor
桑云
吴加春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikrobot Technology Co Ltd
Original Assignee
Hangzhou Hikrobot Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikrobot Technology Co Ltd filed Critical Hangzhou Hikrobot Technology Co Ltd
Priority to CN202111656442.8A priority Critical patent/CN114295118B/zh
Publication of CN114295118A publication Critical patent/CN114295118A/zh
Application granted granted Critical
Publication of CN114295118B publication Critical patent/CN114295118B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本申请提供一种多机器人的定位方法、装置及设备,该方法包括:获取目标机器人在目标坐标系下的导航定位位姿,所述导航定位位姿是目标机器人通过传感器采集的数据对自身进行定位时的位姿;基于所述导航定位位姿确定目标物体在所述目标坐标系下的物体位姿;基于所述物体位姿确定协同机器人在所述目标坐标系下的估计位姿。通过本申请的技术方案,实现多机器人的协同控制,提升整个协同的导航精度,使得导航定位的一致性和精度得到明显提高。

Description

一种多机器人的定位方法、装置及设备
技术领域
本申请涉及机器人控制技术领域,尤其是涉及一种多机器人的定位方法、装置及设备。
背景技术
近年来,各种类型的移动机器人,在技术和市场方面发展迅速,移动机器人是自动执行工作的机器装置,是依靠自身动力和控制能力来实现各种功能的机器。移动机器人可以接受人类指挥,可以运行预先编排的程序,还可以根据以人工智能制定的策略行动。比如说,用户使用手动遥控器控制移动机器人执行相关操作,如手动遥控器通过无线方式向移动机器人下发操作命令,移动机器人接收到操作命令后,执行该操作命令指定的操作,完成相关功能。
随着移动机器人技术的迅速发展,移动机器人在物流、仓储、工厂生产等方面的应用越来越普遍,如使用移动机器人运输物体。根据不同应用场景,可以设计不同载重能力的移动机器人,如针对大重量运输任务的移动机器人、针对普通重量运输任务的移动机器人。在实际应用场景中,可能大部分都是普通重量的运输任务,偶尔有大重量的运输任务,即针对大重量运输任务的移动机器人的使用效率非常低,也就不需要使用针对大重量运输任务的移动机器人。
为此,当需要搬运大重量物体时,通常需要多个移动机器人以协作运输的方式来完成大重量物体的运输任务。但是,在使用多个移动机器人以协作运输的方式来完成大重量物体的运输任务时,目前并没有合理的实现方式。
发明内容
本申请提供一种多机器人的定位方法,在至少两个机器人共同运输同一目标物体时,所述至少两个机器人中的一个机器人被选取为目标机器人,所述目标机器人之外的剩余机器人为协同机器人,所述方法包括:
获取所述目标机器人在目标坐标系下的导航定位位姿;其中,所述导航定位位姿是所述目标机器人通过传感器采集的数据对自身进行定位时的位姿;
基于所述导航定位位姿确定所述目标物体在所述目标坐标系下的物体位姿;
基于所述物体位姿确定所述协同机器人在所述目标坐标系下的估计位姿。
本申请提供一种多机器人的定位装置,在至少两个机器人共同运输同一目标物体时,所述至少两个机器人中的一个机器人被选取为目标机器人,所述目标机器人之外的剩余机器人为协同机器人,所述装置包括:
获取模块,用于获取目标机器人在目标坐标系下的导航定位位姿,所述导航定位位姿是所述目标机器人通过传感器采集的数据对自身进行定位时的位姿;
确定模块,用于基于所述导航定位位姿确定目标物体在目标坐标系下的物体位姿;基于所述物体位姿确定所述协同机器人在目标坐标系下的估计位姿。
本申请提供一种多机器人的定位设备,包括处理器和机器可读存储介质,机器可读存储介质存储有能够被处理器执行的机器可执行指令;处理器用于执行机器可执行指令,以实现本申请公开的多机器人的定位方法。
由以上技术方案可见,本申请实施例中,基于目标机器人在目标坐标系下的导航定位位姿确定目标物体在目标坐标系下的物体位姿,基于目标物体在目标坐标系下的物体位姿确定协同机器人在目标坐标系下的估计位姿,基于导航定位位姿和估计位姿对目标机器人和协同机器人针对目标物体的运输过程进行协同控制,从而实现多机器人的协同控制,使用至少两个机器人共同运输同一目标物体(如大重量物体),即以协作运输的方式来完成目标物体的运输任务,降低生产成本,提高生产效率。可以将导航定位质量最高的机器人作为目标机器人,基于目标机器人的导航定位位姿作为整个队形的定位基准,将定位精度不高的协同机器人的导航定位关联到定位质量最高的目标机器人定位上,提升整个协同的导航精度,提升协同导航整体的环境适应性及一致性,使得导航定位的一致性和精度得到明显提高,实现多机器人的协同导航定位。
附图说明
为了更加清楚地说明本申请实施例或者现有技术中的技术方案,下面将对本申请实施例或者现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据本申请实施例的这些附图获得其他的附图。
图1是本申请一种实施方式中的多机器人的定位方法的流程示意图;
图2是本申请一种实施方式中的多机协同导航的示意图;
图3是本申请一种实施方式中的多机器人的定位方法的流程示意图;
图4是本申请一种实施方式中的多机器人的定位装置的结构示意图;
图5是本申请一种实施方式中的多机器人的定位设备的硬件结构图。
具体实施方式
在本申请实施例使用的术语仅仅是出于描述特定实施例的目的,而非限制本申请。本申请和权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其它含义。还应当理解,本文中使用的术语“和/或”是指包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,此外,所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本申请实施例提出一种多机器人的定位方法,可以通过至少两个机器人共同运输同一目标物体。在至少两个机器人共同运输同一目标物体时,至少两个机器人中的一个机器人被选取为目标机器人,目标机器人之外的剩余机器人为协同机器人,参见图1所示,为多机器人的定位方法的流程图,该方法包括:
步骤101、获取目标机器人在目标坐标系下的导航定位位姿。示例性的,该导航定位位姿是目标机器人通过传感器采集的数据对自身进行定位时的位姿。
示例性的,步骤101之前,可以先从至少两个机器人中选取一个机器人作为目标机器人,例如,可以采用如下方式选取目标机器人:获取每个机器人对应的导航质量数据,导航质量数据用于反映机器人通过传感器采集的数据对自身进行定位时得到的导航定位位姿的准确程度。基于每个机器人对应的导航质量数据,从至少两个机器人中选取导航定位质量最好的机器人,将导航定位质量最好的机器人确定为目标机器人,目标机器人是导航定位质量最好的机器人。
示例性的,基于每个机器人对应的导航质量数据,从至少两个机器人中选取导航定位质量最好的机器人,可以包括但不限于如下方式:在机器人通过雷达传感器采集的数据对自身进行定位时,导航质量数据包括激光点轮廓与地图轮廓的第一匹配程度;在此基础上,可以基于每个机器人对应的第一匹配程度,将第一匹配程度最大的机器人选取为导航定位质量最好的机器人。和/或,在机器人通过视觉传感器采集的数据对自身进行定位时,导航质量数据包括图像特征点与地图特征点的第二匹配程度;在此基础上,可以基于每个机器人对应的第二匹配程度,将第二匹配程度最大的机器人选取为导航定位质量最好的机器人。和/或,在机器人通过卡尔曼滤波组合导航算法对自身进行定位时,导航质量数据包括协方差,该协方差表示导航定位结果的可信程度;在此基础上,可以基于每个机器人对应的协方差,将最小协方差对应的机器人选取为导航定位质量最好的机器人。和/或,在机器人通过二维码导航对自身进行定位时,导航质量数据包括二维码中心与图像中心之间的目标距离;在此基础上,可以基于每个机器人对应的目标距离,将目标距离最小的机器人选取为导航定位质量最好的机器人。
步骤102、基于该导航定位位姿确定目标物体在目标坐标系下的物体位姿。
在一种可能的实施方式中,基于该导航定位位姿确定目标物体在目标坐标系下的物体位姿,可以包括但不限于:基于该导航定位位姿和第一相对位姿确定第一位置标识(位置标识可以是货码,也可以是其它类型的标识,对此不做限制)在目标坐标系下的第一目标位姿(在位置标识是货码时,目标位姿也可以称为货码位姿);其中,目标物体可以包括第一位置标识,且该第一位置标识可被目标机器人检测到,该第一相对位姿是该第一位置标识在目标机器人的坐标系下的位姿。基于该第一目标位姿和该第一位置标识在目标物体的坐标系下的已配置位姿,确定目标物体在目标坐标系下的物体位姿。
示例性的,基于该导航定位位姿和第一相对位姿确定第一位置标识在目标坐标系下的第一目标位姿之前,还可以通过目标机器人扫描第一位置标识,以得到第一位置标识与目标机器人之间的第一相对位姿。
步骤103、基于该物体位姿确定协同机器人在目标坐标系下的估计位姿。
在一种可能的实施方式中,基于该物体位姿确定协同机器人在目标坐标系下的估计位姿,可以包括但不限于:可以基于该物体位姿和第二位置标识在目标物体的坐标系下的已配置位姿,确定该第二位置标识在目标坐标系下的第二目标位姿;其中,该目标物体可以包括该第二位置标识,且该第二位置标识可以可被协同机器人检测到。基于该第二目标位姿和该第二位置标识在协同机器人的坐标系下的第二相对位姿,确定协同机器人在目标坐标系下的估计位姿。
示例性的,基于该第二目标位姿和该第二位置标识在协同机器人的坐标系下的第二相对位姿,确定协同机器人在目标坐标系下的估计位姿之前,可以先获取第二相对位姿,比如说,可以通过协同机器人扫描第二位置标识,以得到第二位置标识与协同机器人之间的第二相对位姿。
示例性的,在至少两个机器人共同运输同一目标物体时,步骤101-103可以周期性执行,在每个周期,可以重新确定导航定位质量最好的机器人,导航定位质量最好的机器人作为目标机器人。在每个周期,通过目标机器人扫描第一位置标识,以得到第一位置标识与目标机器人之间的第一相对位姿,继而基于第一相对位姿确定目标物体在目标坐标系下的物体位姿。在每个周期,通过协同机器人扫描第二位置标识,以得到第二位置标识与协同机器人之间的第二相对位姿,继而基于第二相对位姿确定协同机器人在目标坐标系下的估计位姿。
示例性的,在得到目标机器人的导航定位位姿和协同机器人的估计位姿之后,就可以基于目标机器人的导航定位位姿和协同机器人的估计位姿,对目标机器人和协同机器人针对目标物体的运输过程进行协同控制。
在上述实施例中,目标坐标系可以是世界坐标系,对此目标坐标系的类型不做限制,后续以世界坐标系为例进行说明。
由以上技术方案可见,本申请实施例中,基于目标机器人在目标坐标系下的导航定位位姿确定目标物体在目标坐标系下的物体位姿,基于目标物体在目标坐标系下的物体位姿确定协同机器人在目标坐标系下的估计位姿,基于导航定位位姿和估计位姿对目标机器人和协同机器人针对目标物体的运输过程进行协同控制,从而实现多机器人的协同控制,使用至少两个机器人共同运输同一目标物体(如大重量物体),即以协作运输的方式来完成目标物体的运输任务,降低生产成本,提高生产效率。可以将导航定位质量最高的机器人作为目标机器人,基于目标机器人的导航定位位姿作为整个队形的定位基准,将定位精度不高的协同机器人的导航定位关联到定位质量最高的目标机器人定位上,提升整个协同的导航精度,提升协同导航整体的环境适应性及一致性,使得导航定位的一致性和精度得到明显提高,实现多机器人的协同导航定位。
以下结合具体应用场景,对本申请实施例的技术方案进行说明。
移动机器人是自动执行工作的机器装置,是依靠自身动力和控制能力来实现各种功能的机器,对此移动机器人的类型不做限制,可以是任意类型的移动机器人,只要移动机器人具有运输功能即可,如AGV(Automatic Guided Vehicle,自动导引运输车)等。AGV是指具有电磁或光学等自动导引装置,能够沿规定导引路径行驶,具有安全保护、移动、载物功能的运输车。
随着移动机器人技术的迅速发展,移动机器人在物流、仓储、工厂生产等方面的应用越来越普遍,如使用移动机器人运输物体。根据不同应用场景,可以设计不同载重能力的移动机器人,如针对大重量运输任务的移动机器人(如仓储机器人)、针对普通重量运输任务的移动机器人(如物流分拣机器人)。
在实际应用场景中,可能大部分都是普通重量的运输任务,偶尔有大重量的运输任务,即针对大重量运输任务的移动机器人的使用效率低,也就不需要使用针对大重量运输任务的移动机器人。当需要搬运大重量物体时,通常需要多个移动机器人以协作运输的方式来完成大重量物体的运输任务,显然,各个移动机器人大部分时间是单独进行普通重量物体的运输任务,当需要搬运大重量物体时,多个移动机器人进行协作运输,从而降低生产成本,提高生产效率。
综上所述,多个移动机器人的协作运输(即多机协同运输,也称为多机协同控制)是移动机器人的基本功能,多机协同导航是多机协同控制的基础。其中,多机协同控制是指:为完成某一任务,多个移动机器人之间进行协作控制,以期完成单个移动机器人无法完成的任务,或达到更好的任务完成效果。多机协同导航是指:结合多个移动机器人的传感器数据或导航定位数据,给出可靠性更高的协同群体导航数据,多机协同导航是多机协同控制的主要组成部分。
在多机协同导航过程中,针对每个移动机器人,该移动机器人通过自身传感器采集的数据对自身进行定位,得到本移动机器人的导航定位位姿,这样会存在如下问题:部分移动机器人的导航精度不高,而另一部分移动机器人的导航精度较高。由于定位精度不一致导致各移动机器人之间的导航定位不一致。
参见图2所示,为多机协同导航的示意图,当移动机器人A和移动机器人B进行协同运输时,则移动机器人B的检测范围可能会受到移动机器人A的影响,如图2中的半圆为检测范围的示例。显然,移动机器人B与移动机器人A相比,移动机器人A的导航精度较高,而移动机器人B的导航精度不高。
另外,假设移动机器人A的定位精度在1cm级别,移动机器人B的定位精度在10cm级别,而移动机器人A和移动机器人B分别使用各自定位精度进行定位时,可能导致导航定位不一致。例如,若移动机器人A与移动机器人B之间的实际距离是3m,且期望队形也为3m,移动机器人A的导航定位是(3.02,0),移动机器人B的导航定位是(0,0),则会认为是产生2cm的队形控制偏差,进而产生缩小控制偏差的控制量,影响队形控制精度。但是,出现上述队形控制偏差的原因是,移动机器人A的定位精度在1cm级别,移动机器人B的定位精度在10cm级别,即移动机器人B没有输出(0.02,0)的导航定位。
针对上述问题,本申请实施例中提出一种多机协同导航定位方法,可以将导航定位质量最高的目标机器人的导航定位位姿作为整个队形的定位基准,将定位精度不高的协同机器人的导航定位关联到定位质量最高的目标机器人定位上,提升整个协同的导航精度,提升协同导航整体的环境适应性及一致性,使得导航定位的一致性和精度得到明显提高,实现多机器人的协同导航定位。
本实施例中,可以通过至少两个移动机器人(为了方便描述,本实施例中简称为机器人,如AGV等)共同运输同一目标物体,比如说,由两个机器人共同运输同一目标物体,或者由三个机器人共同运输同一目标物体,或者由四个机器人共同运输同一目标物体,对此不做限制。为了方便描述,以由两个机器人共同运输同一目标物体为例,将这两个机器人记为机器人A和机器人B。
在至少两个机器人共同运输同一目标物体时,目标物体可以包括至少两个位置标识(如货码等),如目标物体贴有至少两个位置标识,每个机器人对应一个位置标识,如机器人A的上侧对应位置标识a,且机器人A能够扫描到位置标识a,位置标识a的位置关系并不局限于机器人A的上侧,只要机器人A能够扫描到位置标识a即可,机器人B的上侧对应位置标识b,且机器人B能够扫描到位置标识b,位置标识b的位置关系并不局限于机器人B的上侧,机器人B能够扫描到位置标识b即可。其中,针对每个位置标识来说,可以是货码,如二维码、条形码等类型的货码,对此位置标识的类型不做限制。
在上述应用场景下,本申请实施例提出一种多机器人的定位方法,参见图3所示,为多机器人的定位方法的流程示意图,该方法可以包括:
步骤301、获取各机器人在世界坐标系下的导航定位位姿,并获取各机器人对应的导航质量数据。示例性的,该导航定位位姿是机器人通过传感器采集的数据对自身进行定位时的位姿,该导航质量数据用于反映机器人通过传感器采集的数据对自身进行定位时得到的导航定位位姿的准确程度。
比如说,可以从所有机器人中选取一个机器人作为管理实体,或者额外部署中心控制设备作为管理实体。针对每个机器人来说,该机器人可以获取本机器人在世界坐标系下的导航定位位姿,获取本机器人对应的导航质量数据,并将该导航定位位姿和该导航质量数据发送给管理实体,也就是说,管理实体可以获取各机器人在世界坐标系下的导航定位位姿,并获取各机器人对应的导航质量数据。显然,本实施例中,由管理实体执行步骤301及后续步骤,实现多机器人的定位方法,即多机器人的定位方法的执行主体为管理实体。
在一种可能的实施方式中,针对每个机器人来说,机器人可以通过雷达传感器采集的数据对自身进行定位,得到机器人在世界坐标系下的导航定位位姿。比如说,机器人可以采用激光SLAM(Simultaneous Localization And Mapping,同步定位与建图)算法对自身进行定位,得到导航定位位姿,激光SLAM算法可以是通过雷达传感器(如激光雷达)检测周围环境,进而通过与地图进行匹配,得到机器人的导航定位位姿,对此激光SLAM算法的实现过程不做限制。
示例性的,在机器人通过雷达传感器采集的数据对自身进行定位时,则导航质量数据可以包括激光点轮廓与地图轮廓的第一匹配程度。比如说,由于激光SLAM算法是通过激光点轮廓与地图轮廓进行扫描匹配以获取机器人在地图中的导航定位位姿,因此,激光点轮廓与地图轮廓的第一匹配程度可以作为导航定位的质量评价参数,即导航质量数据可以包括第一匹配程度。
其中,激光点轮廓与地图轮廓的第一匹配程度,可以是位于地图轮廓中的激光点数量与激光点总数量的比例,对此第一匹配程度的确定方式不做限制。
比如说,若激光点轮廓与地图轮廓的第一匹配程度较好,如绝大部分激光点落在地图轮廓内,则表示通过激光SLAM算法获取导航定位位姿时,导航定位位姿的准确程度较高,若激光点轮廓与地图轮廓的第一匹配程度较差(即激光点轮廓与地图轮廓之间偏差较大),如绝大部分激光点落在地图轮廓外,则表示通过激光SLAM算法获取导航定位位姿时,导航定位位姿的准确程度较低,即导航定位位姿错误。基于此,可以通过激光点轮廓与地图轮廓的第一匹配程度作为定位质量好坏的评价标准,第一匹配程度越大,则定位质量越好。
在另一种可能的实施方式中,针对每个机器人,可以通过视觉传感器采集的数据对自身进行定位,得到机器人在世界坐标系下的导航定位位姿。比如说,机器人采用视觉SLAM算法对自身进行定位,得到导航定位位姿,视觉SLAM算法可以是通过视觉传感器(如摄像机)检测周围环境,进而通过与地图进行匹配,得到机器人的导航定位位姿,对此视觉SLAM算法的实现过程不做限制。
示例性的,在机器人通过视觉传感器采集的数据对自身进行定位时,则导航质量数据可以包括图像特征点与地图特征点的第二匹配程度。比如说,由于视觉SLAM算法是通过图像特征点与地图特征点的匹配关系获取机器人在地图中的导航定位位姿,因此,图像特征点与地图特征点的第二匹配程度可以作为导航定位的质量评价参数,即导航质量数据可以包括第二匹配程度。
其中,图像特征点与地图特征点的第二匹配程度,可以是图像特征点的数量与地图特征点的数量的比例,对此第二匹配程度的确定方式不做限制。
比如说,若图像特征点与地图特征点的第二匹配程度较好,则表示通过视觉SLAM算法获取导航定位位姿时,导航定位位姿的准确程度较高,若图像特征点与地图特征点的第二匹配程度较差,则表示通过视觉SLAM算法获取导航定位位姿时,导航定位位姿的准确程度较低,即导航定位位姿错误。
基于此,可以通过图像特征点与地图特征点的第二匹配程度作为定位质量好坏的评价标准,也就是说,第二匹配程度越大,则定位质量越好。
在另一种可能的实施方式中,针对每个机器人来说,机器人可以通过卡尔曼滤波组合导航算法对自身进行定位,得到机器人在世界坐标系下的导航定位位姿。卡尔曼滤波组合导航算法是一种基于概率统计的组合导航算法,能够融合各个传感器(如雷达传感器和视觉传感器等)的导航结果,输出机器人最可能的导航定位结果。比如说,机器人可以采用激光SLAM算法对自身进行定位,得到导航定位位姿1,并通过视觉SLAM算法对自身进行定位,得到导航定位位姿2,然后,可以采用卡尔曼滤波组合导航算法融合导航定位位姿1和导航定位位姿2,得到机器人在世界坐标系下的导航定位位姿。
示例性的,卡尔曼滤波组合导航算法本身就含有导航定位质量的一个数据项,即协方差,协方差代表的意义就是定位结果的可信程度,可以将其作为导航定位质量评价标准,协方差越小,则定位质量越好。基于此,在机器人通过卡尔曼滤波组合导航算法对自身进行定位时,则导航质量数据可以包括卡尔曼滤波组合导航算法中的协方差,即通过协方差作为导航定位的质量评价参数。
在另一种可能的实施方式中,针对每个机器人,可以通过二维码导航对自身进行定位,得到机器人在世界坐标系下的导航定位位姿。比如说,机器人通过视觉传感器(如摄像机)采集周围环境的图像,基于二维码中心与图像中心之间的目标距离,得到机器人的导航定位位姿,对此二维码导航过程不做限制。
示例性的,在机器人通过二维码导航对自身进行定位时,导航质量数据可以包括二维码中心与图像中心之间的目标距离。比如说,由于二维码导航算法是通过二维码中心与图像中心之间的目标距离获取机器人的导航定位位姿,因此,二维码中心与图像中心之间的目标距离可以作为导航定位的质量评价参数,即导航质量数据可以包括二维码中心与图像中心之间的目标距离。
比如说,若二维码中心与图像中心之间的目标距离较小,则表示通过二维码导航算法获取导航定位位姿时,导航定位位姿的准确程度较高,若二维码中心与图像中心之间的目标距离较大,则表示通过二维码导航算法获取导航定位位姿时,导航定位位姿的准确程度较低,即导航定位位姿错误。
基于此,可以通过二维码中心与图像中心之间的目标距离作为定位质量好坏的评价标准,也就是说,目标距离越小,则定位质量越好。
综上所述,针对每个机器人来说,该机器人可以获取本机器人在世界坐标系下的导航定位位姿,并获取本机器人对应的导航质量数据,在上述实施例中示出了四种获取方式,本实施例对此获取方式不做限制。在得到导航定位位姿和导航质量数据之后,机器人就可以将导航定位位姿和导航质量数据发送给管理实体,至此,管理实体可以获取每个机器人的导航定位位姿和导航质量数据。
其中,各机器人在世界坐标系下的导航定位位姿可以记为
Figure BDA0003448441440000111
各机器人对应的导航质量数据可以记为
Figure BDA0003448441440000112
i表示机器人,
Figure BDA0003448441440000113
表示机器人i对应的导航定位位姿,
Figure BDA0003448441440000114
表示机器人i对应的导航质量数据。
Figure BDA0003448441440000115
表示机器人i对应的位置,
Figure BDA0003448441440000116
表示机器人i对应的姿态(如朝向角度),而机器人i对应的位置和机器人i对应的姿态,就组成机器人i对应的导航定位位姿
Figure BDA0003448441440000121
示例性的,在由机器人A和机器人B共同运输同一目标物体时,可以获取到机器人A在世界坐标系下的导航定位位姿
Figure BDA0003448441440000122
并获取到机器人A对应的导航质量数据
Figure BDA0003448441440000123
可以获取到机器人B在世界坐标系下的导航定位位姿
Figure BDA0003448441440000124
并获取到机器人B对应的导航质量数据
Figure BDA0003448441440000125
步骤302、基于每个机器人对应的导航质量数据,可以从所有机器人中选取导航定位质量最好的机器人,并将导航定位质量最好的机器人确定为目标机器人,并将目标机器人之外的剩余机器人确定为协同机器人。
示例性的,在得到每个机器人对应的导航质量数据之后,就可以从所有机器人中选取导航定位质量最好的机器人。其中,导航质量数据是对机器人导航定位结果好坏(或精度高低)的评价,可以根据不同的导航质量数据设定不同的质量评价标准,以下举例说明。比如说,在机器人通过雷达传感器采集的数据对自身进行定位得到导航定位位姿时,导航质量数据包括激光点轮廓与地图轮廓的第一匹配程度,在此基础上,基于每个机器人对应的第一匹配程度,可以将第一匹配程度最大的机器人选取为导航定位质量最好的机器人,即第一匹配程度最大的机器人作为目标机器人,而剩余机器人作为协同机器人。
又例如,在机器人通过视觉传感器采集的数据对自身进行定位得到导航定位位姿时,则导航质量数据可以包括图像特征点与地图特征点的第二匹配程度,在此基础上,基于每个机器人对应的第二匹配程度,可以将第二匹配程度最大的机器人选取为导航定位质量最好的机器人,也就是说,第二匹配程度最大的机器人作为目标机器人,而剩余机器人作为协同机器人。
又例如,在机器人通过卡尔曼滤波组合导航算法对自身进行定位得到导航定位位姿时,则导航质量数据可以包括协方差,在此基础上,基于每个机器人对应的协方差,将协方差最小的机器人选取为导航定位质量最好的机器人,也就是说,协方差最小的机器人作为目标机器人,而剩余机器人作为协同机器人。
又例如,在机器人通过二维码导航对自身进行定位时,导航质量数据包括二维码中心与图像中心之间的目标距离,在此基础上,基于每个机器人对应的目标距离,将目标距离最小的机器人选取为导航定位质量最好的机器人,也就是说,目标距离最小的机器人作为目标机器人,而剩余机器人作为协同机器人。
综上所述,在步骤302中,基于每个机器人对应的导航质量数据,可以从所有机器人中确定出目标机器人和协同机器人。对于目标机器人来说,目标机器人在世界坐标系下的导航定位位姿可以作为整个协同导航的参考基准。对于协同机器人来说,需要采用目标机器人在世界坐标系下的导航定位位姿确定协同机器人的位姿,而不是使用协同机器人在世界坐标系下的导航定位位姿。
比如说,假设机器人A是导航定位质量最好的机器人,则机器人A作为目标机器人,机器人B作为协同机器人,机器人A在世界坐标系下的导航定位位姿
Figure BDA0003448441440000131
可以作为整个协同导航的参考基准,是最终使用的位姿,而机器人B在世界坐标系下的导航定位位姿是需要校正的位姿,不是最终使用的位姿,即需要重新确定机器人B在世界坐标系下的位姿,为区分方便,将该位姿称为估计位姿,后续步骤用于确定机器人B在世界坐标系下的估计位姿。
步骤303、通过目标机器人扫描第一位置标识,以得到第一位置标识与目标机器人之间的第一相对位姿。通过协同机器人扫描第二位置标识,以得到第二位置标识与协同机器人之间的第二相对位姿。
示例性的,在至少两个机器人共同运输同一目标物体时,目标物体可以包括至少两个位置标识,每个机器人对应一个位置标识,即每个机器人对应一个位置标识,为了区分方便,将目标机器人对应的位置标识称为第一位置标识(第一位置标识可被目标机器人检测到),将协同机器人对应的位置标识称为第二位置标识(第二位置标识可被协同机器人检测到),即目标物体可以包括第一位置标识和第二位置标识。
在此基础上,通过目标机器人扫描位于第一位置标识,可以得到第一位置标识与目标机器人之间的第一相对位姿,并将第一相对位姿发送给管理实体,以使管理实体得到第一位置标识与目标机器人之间的第一相对位姿,该第一相对位姿可以是第一位置标识在目标机器人的坐标系下的位姿。其中,在目标机器人扫描第一位置标识得到第一相对位姿时,可以是通过目标机器人的读码头获取到第一位置标识与目标机器人之间的第一相对位姿,对此获取方式不做限制。对于第一位置标识与目标机器人之间的第一相对位姿,该第一相对位姿的精度非常高。
此外,还可以通过协同机器人扫描第二位置标识,从而得到第二位置标识与协同机器人之间的第二相对位姿,并将第二相对位姿发送给管理实体,以使管理实体得到第二位置标识与协同机器人之间的第二相对位姿,该第二相对位姿可以是第二位置标识在协同机器人的坐标系下的位姿。其中,在协同机器人扫描第二位置标识得到第二相对位姿时,可以是通过协同机器人的读码头获取到第二位置标识与协同机器人之间的第二相对位姿,对此获取方式不做限制。对于第二位置标识与协同机器人之间的第二相对位姿,该第二相对位姿的精度非常高。
其中,机器人与位置标识之间的相对位姿关系(如第一相对位姿或者第二相对位姿)可以记为
Figure BDA0003448441440000141
也就是位置标识i在机器人i下的相对位姿,该信息是通过机器人的读码头获取到的。比如说,机器人A对应的位置标识a是第一位置标识,可以得到位置标识a与机器人A之间的第一相对位姿,该第一相对位姿可以记为
Figure BDA0003448441440000142
Figure BDA0003448441440000143
表示第一相对位姿中的相对位置,
Figure BDA0003448441440000144
表示第一相对位姿中的相对姿态。机器人B对应的位置标识b是第二位置标识,可以得到位置标识b与机器人B之间的第二相对位姿,该第二相对位姿可以记为
Figure BDA0003448441440000145
Figure BDA0003448441440000146
表示第二相对位姿中的相对位置,
Figure BDA0003448441440000147
表示第二相对位姿中的相对姿态。
步骤304、基于目标机器人在世界坐标系下的导航定位位姿和第一位置标识在目标机器人的坐标系下的第一相对位姿,确定第一位置标识在世界坐标系下的第一目标位姿(为了区分方便,将第一位置标识在世界坐标系下的位姿称为第一目标位姿)。
比如说,目标机器人为机器人A,第一位置标识为位置标识a,目标机器人在世界坐标系下的导航定位位姿为
Figure BDA0003448441440000151
第一位置标识在目标机器人的坐标系下的第一相对位姿为
Figure BDA0003448441440000152
第一位置标识在世界坐标系下的第一目标位姿为
Figure BDA0003448441440000153
在此基础上,可以采用公式(1)计算第一目标位姿,当然,公式(1)只是一个示例,对此第一目标位姿的计算方式不做限制。
Figure BDA0003448441440000154
步骤305、基于第一位置标识在世界坐标系下的第一目标位姿和第一位置标识在目标物体的坐标系下的已配置位姿,确定目标物体在世界坐标系下的物体位姿(为了区分方便,将目标物体在世界坐标系下的位姿称为物体位姿)。
比如说,第一位置标识在世界坐标系下的第一目标位姿为
Figure BDA0003448441440000155
第一位置标识在目标物体(也可以称为目标货架)的坐标系下的已配置位姿也可以称为第一位置标识在货架坐标系下的位姿,将该已配置位姿记为
Figure BDA0003448441440000156
该已配置位姿是已知位姿,在目标物体上粘贴第一位置标识时就已经确定,可以作为目标物体的一个属性值,已配置位姿的精度由实施时保证,通常来说可以保证较高精度,目标物体在世界坐标系下的物体位姿可以记为
Figure BDA0003448441440000157
在此基础上,可以采用公式(2)和公式(3)计算物体位姿,当然,公式(2)和公式(3)只是一个示例,对此物体位姿的计算方式不做限制。
Figure BDA0003448441440000158
Figure BDA0003448441440000159
步骤306、基于目标物体在世界坐标系下的物体位姿和第二位置标识在目标物体的坐标系下的已配置位姿,确定第二位置标识在世界坐标系下的第二目标位姿(为了区分方便,将第二位置标识在世界坐标系下的位姿称为第二目标位姿)。
比如说,目标物体在世界坐标系下的物体位姿为
Figure BDA0003448441440000161
第二位置标识(也就是上述位置标识b)在目标物体(也可以称为目标货架)的坐标系下的已配置位姿也可以称为第二位置标识在货架坐标系下的位姿,可以将该已配置位姿记为
Figure BDA0003448441440000162
该已配置位姿是已知位姿,在目标物体上粘贴第二位置标识时就已经确定,可以作为目标物体的一个属性值,该已配置位姿的精度由实施时保证,通常来说可以保证较高精度,第二位置标识在世界坐标系下的第二目标位姿记为
Figure BDA0003448441440000163
在此基础上,可以采用公式(4)计算第二目标位姿,当然,公式(4)只是一个示例,对此第二目标位姿的计算方式不做限制。
Figure BDA0003448441440000164
步骤307、基于第二位置标识在世界坐标系下的第二目标位姿和第二位置标识在协同机器人的坐标系下的第二相对位姿,确定协同机器人在世界坐标系下的估计位姿(为了区分方便,将协同机器人在世界坐标系下的位姿称为估计位姿)。
比如说,协同机器人为机器人B,第二位置标识为位置标识b,第二位置标识在世界坐标系下的第二目标位姿为
Figure BDA0003448441440000165
第二位置标识在协同机器人的坐标系下的第二相对位姿为
Figure BDA0003448441440000166
协同机器人在世界坐标系下的估计位姿记为
Figure BDA0003448441440000167
在此基础上,可以采用公式(5)和公式(6)计算估计位姿,当然,公式(5)和公式(6)只是示例,对此估计位姿的计算方式不做限制。
Figure BDA0003448441440000168
Figure BDA0003448441440000169
至此,得到协同机器人在世界坐标系下的估计位姿,这个估计位姿用于替换协同机器人在世界坐标系下的导航定位位姿。显然,协同机器人在世界坐标系下的估计位姿,被统一到定位质量最好的目标机器人的基准之上。
在上述各公式中,字母含义如下:P:位姿(pose);W:世界系(world),也可以称全局系;R:机器人或者机器人系(robot);RA:机器人A或者机器人A系(robot A);S:货架(shelf);C:位置标识(code);CA:位置标识A(code A);QA:机器人A的导航质量/品质(quality A)。上标表示坐标系,下标表示定位体,比如说,
Figure BDA0003448441440000171
表示机器人A在世界坐标系(W)中的位姿(P),
Figure BDA0003448441440000172
表示机器人A在世界坐标系(W)中的坐标x,以此类推,对各字母含义不再赘述。
步骤308、基于目标机器人的导航定位位姿和协同机器人的估计位姿,对目标机器人和协同机器人针对目标物体的运输过程进行协同控制。
示例性的,在得到目标机器人的导航定位位姿和协同机器人的估计位姿之后,就可以对目标机器人和协同机器人针对目标物体的运输过程进行协同控制,本实施例对此协同控制过程不做限制,能够完成目标物体的运输任务即可。
在一种可能的实施方式中,由于各机器人的导航质量数据可能会发生变化,即目标机器人可能会发生变化,因此,步骤301-步骤308可以周期性执行,在每个执行周期,可以重新确定目标机器人,在目标机器人的导航定位位姿的基础上,重新确定协同机器人的估计位姿,继而实现协同控制,对此不再赘述。
在上述实施例中,是以定位质量最高的目标机器人的导航定位位姿作为整个协同导航的基准,然后通过位置标识与机器人之间的位姿关系(即第一相对位姿和第二相对位姿)、及位置标识与目标物体之间的位姿关系(即已配置位姿),去求取协同机器人在世界坐标系下的估计位姿。由于扫码获取到的位姿关系及位置标识与目标物体之间的位姿关系的精度,相比于单个机器人的导航定位位姿来说是非常高的,因此,可以大大提高整个协同的导航精度。并且,导航定位质量最高的目标机器人是动态变化的,这样,可以保证在某些机器人导航不准(如激光被遮挡)时依旧可以依赖导航精度高的机器人获取到较高的定位精度。
由以上技术方案可见,本申请实施例中,可以将导航定位质量最高的机器人作为目标机器人,基于目标机器人的导航定位位姿作为整个队形的定位基准,将定位精度不高的协同机器人的导航定位关联到定位质量最高的目标机器人定位上,提升整个协同的导航精度,提升协同导航整体的环境适应性及一致性,使得导航定位的一致性和精度得到明显提高,实现多机器人的协同导航定位。
在上述方式中,可以基于多个位置标识(每个机器人上面均有位置标识,且位置标识之间的位姿关系已知)和货架来关联各机器人之间的导航结果,由于通过读码头获取到位置标识和机器人之间的相对位姿的精度非常高,使得导航定位一致性和精度得到明显提高。可以利用精度较高的扫码信息将定位精度不高的机器人导航定位关联到定位质量最高的机器人定位上,提升了整体的导航精度。
基于与上述方法同样的申请构思,本申请实施例中提出一种多机器人的定位装置,在至少两个机器人共同运输同一目标物体时,所述至少两个机器人中的一个机器人被选取为目标机器人,所述目标机器人之外的剩余机器人为协同机器人,参见图4所示,为所述装置的结构示意图,所述装置可以包括:
获取模块41,用于获取目标机器人在目标坐标系下的导航定位位姿,所述导航定位位姿是所述目标机器人通过传感器采集的数据对自身进行定位时的位姿;确定模块42,用于基于所述导航定位位姿确定目标物体在目标坐标系下的物体位姿;基于所述物体位姿确定所述协同机器人在目标坐标系下的估计位姿。
示例性的,所述获取模块41还用于:获取每个机器人对应的导航质量数据,所述导航质量数据用于反映机器人通过传感器采集的数据对自身进行定位时得到的导航定位位姿的准确程度;基于每个机器人对应的导航质量数据,可以从所述至少两个机器人(即所有机器人)中选取导航定位质量最好的机器人,并将导航定位质量最好的机器人确定为目标机器人。
示例性的,所述获取模块41基于每个机器人对应的导航质量数据,从所述至少两个机器人中选取导航定位质量最好的机器人时具体用于:在机器人通过雷达传感器采集的数据对自身进行定位时,所述导航质量数据包括激光点轮廓与地图轮廓的第一匹配程度;基于每个机器人对应的第一匹配程度,将第一匹配程度最大的机器人选取为导航定位质量最好的机器人;和/或,在机器人通过视觉传感器采集的数据对自身进行定位时,所述导航质量数据包括图像特征点与地图特征点的第二匹配程度;基于每个机器人对应的第二匹配程度,将第二匹配程度最大的机器人选取为导航定位质量最好的机器人;和/或,在机器人通过卡尔曼滤波组合导航算法对自身进行定位时,导航质量数据包括协方差,所述协方差表示导航定位结果的可信程度;基于每个机器人对应的协方差,将最小协方差对应的机器人选取为导航定位质量最好的机器人;和/或,在机器人通过二维码导航对自身进行定位时,导航质量数据包括二维码中心与图像中心之间的目标距离;基于每个机器人对应的目标距离,将目标距离最小的机器人选取为导航定位质量最好的机器人。
示例性的,所述确定模块42基于所述导航定位位姿确定目标物体在目标坐标系下的物体位姿时具体用于:基于所述导航定位位姿和第一相对位姿确定第一位置标识在所述目标坐标系下的第一目标位姿;其中,所述目标物体包括第一位置标识,第一位置标识可被目标机器人检测到,所述第一相对位姿是第一位置标识在目标机器人的坐标系下的位姿;基于所述第一目标位姿和所述第一位置标识在所述目标物体的坐标系下的已配置位姿确定所述目标物体在所述目标坐标系下的物体位姿。
示例性的,所述确定模块42基于导航定位位姿和第一相对位姿确定第一位置标识在目标坐标系下的第一目标位姿之前还用于:通过目标机器人扫描第一位置标识,以得到第一位置标识与目标机器人之间的第一相对位姿。
示例性的,所述确定模块43基于所述物体位姿确定所述协同机器人在目标坐标系下的估计位姿时具体用于:基于所述物体位姿和第二位置标识在所述目标物体的坐标系下的已配置位姿,确定所述第二位置标识在所述目标坐标系下的第二目标位姿;其中,所述目标物体包括所述第二位置标识,且所述第二位置标识可被协同机器人检测到;基于所述第二目标位姿和所述第二位置标识在所述协同机器人的坐标系下的第二相对位姿,确定所述协同机器人在所述目标坐标系下的估计位姿。
示例性的,所述确定模块42基于所述第二目标位姿和所述第二位置标识在所述协同机器人的坐标系下的第二相对位姿,确定所述协同机器人在所述目标坐标系下的估计位姿之前还用于:通过所述协同机器人扫描所述第二位置标识,以得到所述第二位置标识与所述协同机器人之间的第二相对位姿。
基于与上述方法同样的申请构思,本申请实施例中提出一种多机器人的定位设备(即上述实施例的管理实体),参见图5所示,所述多机器人的定位设备包括:处理器51和机器可读存储介质52,所述机器可读存储介质52存储有能够被所述处理器51执行的机器可执行指令;所述处理器51用于执行机器可执行指令,以实现本申请上述示例公开的多机器人的定位方法。
基于与上述方法同样的申请构思,本申请实施例还提供一种机器可读存储介质,所述机器可读存储介质上存储有若干计算机指令,所述计算机指令被处理器执行时,能够实现本申请上述示例公开的多机器人的定位方法。
其中,上述机器可读存储介质可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:RAM(Radom Access Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、dvd等),或者类似的存储介质,或者它们的组合。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可以由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其它可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其它可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
而且,这些计算机程序指令也可以存储在能引导计算机或其它可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或者多个流程和/或方框图一个方框或者多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其它可编程数据处理设备上,使得在计算机或者其它可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其它可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种多机器人的定位方法,其特征在于,在至少两个机器人共同运输同一目标物体时,所述至少两个机器人中的一个机器人被选取为目标机器人,所述目标机器人之外的剩余机器人为协同机器人,所述方法包括:
获取所述目标机器人在目标坐标系下的导航定位位姿;其中,所述导航定位位姿是所述目标机器人通过传感器采集的数据对自身进行定位时的位姿;
基于所述导航定位位姿确定所述目标物体在所述目标坐标系下的物体位姿;
基于所述物体位姿确定所述协同机器人在所述目标坐标系下的估计位姿。
2.根据权利要求1所述的方法,其特征在于,所述获取所述目标机器人在目标坐标系下的导航定位位姿之前,所述方法还包括:
获取每个机器人对应的导航质量数据,所述导航质量数据用于反映机器人通过传感器采集的数据对自身进行定位时得到的导航定位位姿的准确程度;
基于每个机器人对应的导航质量数据,从所述至少两个机器人中选取导航定位质量最好的机器人,并将导航定位质量最好的机器人确定为目标机器人。
3.根据权利要求2所述的方法,其特征在于,基于每个机器人对应的导航质量数据,从所述至少两个机器人中选取导航定位质量最好的机器人,包括:
在机器人通过雷达传感器采集的数据对自身进行定位时,导航质量数据包括激光点轮廓与地图轮廓的第一匹配程度;基于每个机器人对应的第一匹配程度,将第一匹配程度最大的机器人选取为导航定位质量最好的机器人;和/或,
在机器人通过视觉传感器采集的数据对自身进行定位时,导航质量数据包括图像特征点与地图特征点的第二匹配程度;基于每个机器人对应的第二匹配程度,将第二匹配程度最大的机器人选取为导航定位质量最好的机器人;和/或,
在机器人通过卡尔曼滤波组合导航算法对自身进行定位时,导航质量数据包括协方差,所述协方差表示导航定位结果的可信程度;基于每个机器人对应的协方差,将最小协方差对应的机器人选取为导航定位质量最好的机器人;和/或,
在机器人通过二维码导航对自身进行定位时,所述导航质量数据包括二维码中心与图像中心之间的目标距离;基于每个机器人对应的目标距离,将目标距离最小的机器人选取为导航定位质量最好的机器人。
4.根据权利要求1所述的方法,其特征在于,所述基于所述导航定位位姿确定所述目标物体在所述目标坐标系下的物体位姿,包括:
基于所述导航定位位姿和第一相对位姿确定第一位置标识在所述目标坐标系下的第一目标位姿;其中,所述目标物体包括第一位置标识,第一位置标识可被目标机器人检测到,所述第一相对位姿是所述第一位置标识在目标机器人的坐标系下的位姿;基于所述第一目标位姿和所述第一位置标识在所述目标物体的坐标系下的已配置位姿,确定所述目标物体在目标坐标系下的物体位姿。
5.根据权利要求4所述的方法,其特征在于,
所述基于所述导航定位位姿和第一相对位姿确定第一位置标识在所述目标坐标系下的第一目标位姿之前,所述方法还包括:
通过所述目标机器人扫描所述第一位置标识,以得到所述第一位置标识与所述目标机器人之间的第一相对位姿。
6.根据权利要求1所述的方法,其特征在于,所述基于所述物体位姿确定所述协同机器人在所述目标坐标系下的估计位姿,包括:
基于所述物体位姿和第二位置标识在所述目标物体的坐标系下的已配置位姿,确定所述第二位置标识在所述目标坐标系下的第二目标位姿;其中,所述目标物体包括所述第二位置标识,且所述第二位置标识可被协同机器人检测到;
基于所述第二目标位姿和所述第二位置标识在所述协同机器人的坐标系下的第二相对位姿,确定所述协同机器人在所述目标坐标系下的估计位姿。
7.根据权利要求6所述的方法,其特征在于,所述基于所述第二目标位姿和所述第二位置标识在所述协同机器人的坐标系下的第二相对位姿,确定所述协同机器人在所述目标坐标系下的估计位姿之前,所述方法还包括:
通过所述协同机器人扫描所述第二位置标识,以得到所述第二位置标识与所述协同机器人之间的第二相对位姿。
8.一种多机器人的定位装置,其特征在于,在至少两个机器人共同运输同一目标物体时,所述至少两个机器人中的一个机器人被选取为目标机器人,所述目标机器人之外的剩余机器人为协同机器人,所述装置包括:
获取模块,用于获取目标机器人在目标坐标系下的导航定位位姿,所述导航定位位姿是所述目标机器人通过传感器采集的数据对自身进行定位时的位姿;
确定模块,用于基于所述导航定位位姿确定目标物体在目标坐标系下的物体位姿;基于所述物体位姿确定所述协同机器人在目标坐标系下的估计位姿。
9.根据权利要求8所述的装置,其特征在于,其中,所述获取模块还用于:获取每个机器人对应的导航质量数据,所述导航质量数据用于反映机器人通过传感器采集的数据对自身进行定位时得到的导航定位位姿的准确程度;基于每个机器人对应的导航质量数据,从所述至少两个机器人中选取导航定位质量最好的机器人,并将导航定位质量最好的机器人确定为目标机器人;
其中,所述获取模块基于每个机器人对应的导航质量数据,从所述至少两个机器人中选取导航定位质量最好的机器人时具体用于:在机器人通过雷达传感器采集的数据对自身进行定位时,导航质量数据包括激光点轮廓与地图轮廓的第一匹配程度;基于每个机器人对应的第一匹配程度,将第一匹配程度最大的机器人选取为导航定位质量最好的机器人;和/或,在机器人通过视觉传感器采集的数据对自身进行定位时,导航质量数据包括图像特征点与地图特征点的第二匹配程度;基于每个机器人对应的第二匹配程度,将第二匹配程度最大的机器人选取为导航定位质量最好的机器人;和/或,在机器人通过卡尔曼滤波组合导航算法对自身进行定位时,导航质量数据包括协方差,所述协方差表示导航定位结果的可信程度;基于每个机器人对应的协方差,将最小协方差对应的机器人选取为导航定位质量最好的机器人;和/或,在机器人通过二维码导航对自身进行定位时,导航质量数据包括二维码中心与图像中心之间的目标距离;基于每个机器人对应的目标距离,将目标距离最小的机器人选取为导航定位质量最好的机器人;
其中,所述确定模块基于所述导航定位位姿确定目标物体在目标坐标系下的物体位姿时具体用于:基于所述导航定位位姿和第一相对位姿确定第一位置标识在所述目标坐标系下的第一目标位姿;其中,所述目标物体包括第一位置标识,第一位置标识可被目标机器人检测到,所述第一相对位姿是所述第一位置标识在目标机器人的坐标系下的位姿;基于所述第一目标位姿和所述第一位置标识在所述目标物体的坐标系下的已配置位姿,确定所述目标物体在所述目标坐标系下的物体位姿;
其中,所述确定模块基于所述导航定位位姿和第一相对位姿确定第一位置标识在所述目标坐标系下的第一目标位姿之前还用于:通过目标机器人扫描所述第一位置标识,以得到第一位置标识与目标机器人之间的第一相对位姿;
其中,所述确定模块基于所述物体位姿确定所述协同机器人在目标坐标系下的估计位姿时具体用于:基于所述物体位姿和第二位置标识在所述目标物体的坐标系下的已配置位姿,确定所述第二位置标识在所述目标坐标系下的第二目标位姿;其中,所述目标物体包括所述第二位置标识,且所述第二位置标识可被协同机器人检测到;基于所述第二目标位姿和所述第二位置标识在所述协同机器人的坐标系下的第二相对位姿,确定所述协同机器人在所述目标坐标系下的估计位姿;
其中,所述确定模块基于所述第二目标位姿和所述第二位置标识在所述协同机器人的坐标系下的第二相对位姿,确定所述协同机器人在所述目标坐标系下的估计位姿之前还用于:通过所述协同机器人扫描所述第二位置标识,以得到所述第二位置标识与所述协同机器人之间的第二相对位姿。
10.一种多机器人的定位设备,其特征在于,包括处理器和机器可读存储介质,机器可读存储介质存储有能够被处理器执行的机器可执行指令;所述处理器用于执行机器可执行指令,以实现权利要求1-7任一所述的方法步骤。
CN202111656442.8A 2021-12-30 2021-12-30 一种多机器人的定位方法、装置及设备 Active CN114295118B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111656442.8A CN114295118B (zh) 2021-12-30 2021-12-30 一种多机器人的定位方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111656442.8A CN114295118B (zh) 2021-12-30 2021-12-30 一种多机器人的定位方法、装置及设备

Publications (2)

Publication Number Publication Date
CN114295118A true CN114295118A (zh) 2022-04-08
CN114295118B CN114295118B (zh) 2024-01-26

Family

ID=80973059

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111656442.8A Active CN114295118B (zh) 2021-12-30 2021-12-30 一种多机器人的定位方法、装置及设备

Country Status (1)

Country Link
CN (1) CN114295118B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103575272A (zh) * 2013-11-15 2014-02-12 南开大学 森林环境中移动机器人自然路标提取方法
CN105652871A (zh) * 2016-02-19 2016-06-08 深圳杉川科技有限公司 移动机器人的重定位方法
CN108303099A (zh) * 2018-06-14 2018-07-20 江苏中科院智能科学技术应用研究院 基于三维视觉slam的无人机室内自主导航方法
CN207894430U (zh) * 2018-01-19 2018-09-21 杭州海康机器人技术有限公司 数据采集器及无人机
US10754352B1 (en) * 2014-06-25 2020-08-25 Santa Clara University Multi-robot gradient based adaptive navigation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103575272A (zh) * 2013-11-15 2014-02-12 南开大学 森林环境中移动机器人自然路标提取方法
US10754352B1 (en) * 2014-06-25 2020-08-25 Santa Clara University Multi-robot gradient based adaptive navigation system
CN105652871A (zh) * 2016-02-19 2016-06-08 深圳杉川科技有限公司 移动机器人的重定位方法
CN207894430U (zh) * 2018-01-19 2018-09-21 杭州海康机器人技术有限公司 数据采集器及无人机
CN108303099A (zh) * 2018-06-14 2018-07-20 江苏中科院智能科学技术应用研究院 基于三维视觉slam的无人机室内自主导航方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈青华,等: "基于STM32的智能家用消毒机器人的设计", 信息技术与信息化, no. 11, pages 202 - 204 *

Also Published As

Publication number Publication date
CN114295118B (zh) 2024-01-26

Similar Documents

Publication Publication Date Title
KR102347015B1 (ko) 창고 환경에서의 차량 추적
US10127677B1 (en) Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment
US10083418B2 (en) Distributed autonomous robot systems and mehtods
US10209063B2 (en) Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose
CN107687855B (zh) 机器人定位方法、装置及机器人
CN110806211A (zh) 机器人自主探索建图的方法、设备及存储介质
US20100284571A1 (en) Object position estimating system, object position estimating apparatus, object position estimating method, and object position estimating program
US10824160B2 (en) Robot localization with co-located markers
WO2023005384A1 (zh) 可移动设备的重定位方法及装置
Xue et al. Intelligent storage and retrieval systems based on RFID and vision in automated warehouse
CN112935703A (zh) 识别动态托盘终端的移动机器人位姿校正方法及系统
EP4071684A1 (en) Warehouse monitoring system
CN115439069A (zh) 无人档案仓库智能盘点方法、装置、设备及存储介质
CN114545430A (zh) 一种基于激光雷达的托盘位姿识别方法及系统
Wu et al. Indoor robot localization based on single RFID tag
US12105519B2 (en) Method for estimating positioning of moving object by using big cell grid map, recording medium in which program for implementing same is stored, and computer program stored in medium in order to implement same
CN112633187A (zh) 基于图像分析的机器人自动搬运方法、系统和存储介质
US11797906B2 (en) State estimation and sensor fusion switching methods for autonomous vehicles
CN114295118B (zh) 一种多机器人的定位方法、装置及设备
CN113361674B (zh) 一种嵌套引导二维码的编码解码方法
Wang et al. Particle Smoother‐Based Landmark Mapping for the SLAM Method of an Indoor Mobile Robot with a Non‐Gaussian Detection Model
CN112338910A (zh) 空间地图确定方法、机器人、存储介质及系统
CN118215124B (zh) 一种基于蓝牙的资产定位方法、装置、设备及存储介质
Xue et al. RFID-Based Intelligent Storage and Retrieval Systems in Automated Warehouse.
Szenher Visual homing in dynamic indoor environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 310051 room 304, B / F, building 2, 399 Danfeng Road, Binjiang District, Hangzhou City, Zhejiang Province

Applicant after: Hangzhou Hikvision Robot Co.,Ltd.

Address before: 310051 room 304, B / F, building 2, 399 Danfeng Road, Binjiang District, Hangzhou City, Zhejiang Province

Applicant before: HANGZHOU HIKROBOT TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant