CN112720490A - 一种基于多机器人的位置融合感知方法和系统 - Google Patents

一种基于多机器人的位置融合感知方法和系统 Download PDF

Info

Publication number
CN112720490A
CN112720490A CN202011570409.9A CN202011570409A CN112720490A CN 112720490 A CN112720490 A CN 112720490A CN 202011570409 A CN202011570409 A CN 202011570409A CN 112720490 A CN112720490 A CN 112720490A
Authority
CN
China
Prior art keywords
robot
target robot
target
positioning
confidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011570409.9A
Other languages
English (en)
Other versions
CN112720490B (zh
Inventor
秦豪
赵明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Yogo Robot Co Ltd
Original Assignee
Shanghai Yogo Robot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Yogo Robot Co Ltd filed Critical Shanghai Yogo Robot Co Ltd
Priority to CN202011570409.9A priority Critical patent/CN112720490B/zh
Publication of CN112720490A publication Critical patent/CN112720490A/zh
Application granted granted Critical
Publication of CN112720490B publication Critical patent/CN112720490B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Abstract

本发明公开了一种基于多机器人的位置融合感知方法和系统,多机器人包括目标机器人A和处于同一场景的N个机器人Bj,方法包括以下步骤:每个机器人Bj分别获取目标机器人A与自身的相对位置,并根据当前自身定位以及所述相对位置计算目标机器人A在本视角下的相对绝对位置;目标机器人A接收所有机器人Bj发送的相对绝对位置,并根据相对绝对位置对当前自身定位进行更新。本发明通过视觉识别融合激光数据的方法,并根据机器人群体的绝对定位及置信度,对机器人群体的定位进行更新,使机器人群体在业务场景中像一张网,增加了多机器人之间的交互、语义感知能力,还能进一步强化多机器人群体在复杂环境中的定位稳定性。

Description

一种基于多机器人的位置融合感知方法和系统
技术领域
本发明涉及机器人领域,尤其涉及一种基于多机器人的位置融合感知方法和系统。
背景技术
随着机器人行业的快速发展,各种服务机器人层出不穷,机器人在我们的生活、工作中也应用得越来越广泛。在多个机器人共存的场景下,用于单个机器人场景的调度策略在楼宇中的瓶颈区域,如电梯,闸机等区域,会出现效率低下的问题,如相互阻塞等。而系统级的全局调度又依赖于机器人定位的准确性、通信的丢包率以及时延等等。通常情况下,机器人的定位系统并不是十分可靠,比如在午高峰时段,大量的人流量容易带偏机器人的定位系统,而且在室内环境下,机器人的通信也难以保持持续的可靠性。
发明内容
本发明提供了一种基于多机器人的位置融合感知方法和系统,解决了现有技术的定位方法在多个机器人共存场景下定位不准确、效率低的技术问题。
本发明解决上述技术问题的技术方案如下:一种基于多机器人的位置融合感知方法,所述多机器人包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1;所述方法包括以下步骤:
S1,每个机器人Bj分别获取目标机器人A与自身的相对位置
Figure BDA0002862333230000021
S2,每个机器人Bj根据当前自身定位以及目标机器人A与自身的相对位置
Figure BDA0002862333230000022
计算目标机器人A在本视角下的相对绝对位置,并将所述相对绝对位置发送至目标机器人A;
S3,目标机器人A接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。
在一个优选实施方式中,机器人Bj获取目标机器人A与自身的相对位置
Figure BDA0002862333230000023
具体包括以下步骤:
S101,采集实时场景图像;
S102,采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
S103,根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
S104,根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
S105,采用第一预设公式计算目标机器人A与自身的相对位置
Figure BDA0002862333230000024
所述第一预设公式为:
Figure BDA0002862333230000025
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
在一个优选实施方式中,计算目标机器人A在实时场景图像中的左边界left和右边界right的公式为:
Figure BDA0002862333230000031
其中,X1j为机器人Bj对应实时场景图像中方框的左上角横坐标,X2j为机器人Bj对应实时场景图像中方框的右下角横坐标。
在一个优选实施方式中,计算目标机器人A在实时场景图像中的激光线左边界lbound和激光线右边界rbound的公式为:
Figure BDA0002862333230000032
Figure BDA0002862333230000033
其中,left为目标机器人A在实时场景图像的左边界,right为目标机器人A在实时场景图像的右边界,Cx、fx为机器人Bj相机的内参,offsetθ为机器人Bj相机视角和激光传感器的视角差。
在一个优选实施方式中,机器人Bj根据自身定位以及目标机器人A与自身的相对位置
Figure BDA0002862333230000034
计算目标机器人A在本视角下的相对绝对位置,具体包括以下步骤:
S201,获取当前自身定位以及当前自身定位对应的第二置信度;
S202,采用第二预设公式计算目标机器人A在本视角下的相对绝对位置
Figure BDA0002862333230000035
以及对应的第三置信度
Figure BDA0002862333230000036
所述第二预设公式为:
Figure BDA0002862333230000037
Figure BDA0002862333230000041
其中,
Figure BDA0002862333230000042
为机器人Bj的当前自身定位,
Figure BDA0002862333230000043
为目标机器人A与机器人Bj的相对位置,
Figure BDA0002862333230000044
为机器人Bj当前自身定位对应的第二置信度,
Figure BDA0002862333230000045
为所述第一置信度;
S203,将所述相对绝对位置
Figure BDA0002862333230000046
以及对应的第三置信度
Figure BDA0002862333230000047
发送至目标机器人A。
在一个优选实施方式中,目标机器人A根据所述相对绝对位置对当前自身定位进行更新,具体包括以下步骤:
S301,接收每个机器人Bj发送的相对绝对位置
Figure BDA0002862333230000048
以及对应的第三置信度
Figure BDA0002862333230000049
S302,获取当前自身定位以及当前自身定位对应的第四置信度;
S303,采用第三预设公式对所有机器人Bj发送的相对绝对位置
Figure BDA00028623332300000410
进行融合,并生成本体绝对定位
Figure BDA00028623332300000411
所述第三预设公式为:
Figure BDA00028623332300000412
Figure BDA00028623332300000413
Figure BDA00028623332300000414
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
S304,获取本体绝对定位
Figure BDA00028623332300000415
对应的第五置信度,当所述第五置信度大于或者等于所述第四置信度时,采用所述本体绝对定位
Figure BDA00028623332300000416
对目标机器人A的当前自身定位AbLA进行更新。
本发明实施例的第二方面提供了一种基于多机器人的位置融合感知系统,包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1;每个机器人Bj均包括获取模块、计算模块和发送模块,
所述获取模块用于获取目标机器人A与自身的相对位置
Figure BDA0002862333230000051
所述计算模块用于根据当前自身定位以及目标机器人A与自身的相对位置
Figure BDA0002862333230000052
计算目标机器人A在本视角下的相对绝对位置;
所述发送模块用于将所述相对绝对位置发送至目标机器人A;
所述目标机器人A包括更新模块,所述更新模块用于接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。
在一个优选实施方式中,所述获取模块具体包括:
采集单元,用于采集实时场景图像;
目标检测单元,用于采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
第一计算单元,用于根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
第二计算单元,用于根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
第三计算单元,用于采用第一预设公式计算目标机器人A与自身的相对位置
Figure BDA0002862333230000053
所述第一预设公式为:
Figure BDA0002862333230000061
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
在一个优选实施方式中,所述计算模块具体包括第一获取单元和第四计算单元:
所述第一获取单元用于获取当前自身定位以及当前自身定位对应的第二置信度;
所述第四计算单元用于采用第二预设公式计算目标机器人A在本视角下的相对绝对位置
Figure BDA0002862333230000062
以及对应的第三置信度
Figure BDA0002862333230000063
所述第二预设公式为:
Figure BDA0002862333230000064
Figure BDA0002862333230000065
其中,
Figure BDA0002862333230000066
为机器人Bj的当前自身定位,
Figure BDA0002862333230000067
为目标机器人A与机器人Bj的相对位置,
Figure BDA0002862333230000068
为机器人Bj当前自身定位对应的第二置信度,
Figure BDA0002862333230000069
为所述第一置信度;
所述发送模块具体用于将所述相对绝对位置
Figure BDA00028623332300000610
以及对应的第三置信度
Figure BDA00028623332300000611
发送至目标机器人A。
在一个优选实施方式中,所述更新模块具体包括:
接收单元,用于接收每个机器人Bj发送的相对绝对位置
Figure BDA00028623332300000612
以及对应的第三置信度
Figure BDA00028623332300000613
第二获取单元,用于获取当前自身定位以及当前自身定位对应的第四置信度;
融合单元,用于采用第三预设公式对所有机器人Bj发送的相对绝对位置
Figure BDA0002862333230000071
进行融合,并生成本体绝对定位
Figure BDA0002862333230000072
所述第三预设公式为:
Figure BDA0002862333230000073
Figure BDA0002862333230000074
Figure BDA0002862333230000075
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
更新单元,用于获取本体绝对定位
Figure BDA0002862333230000076
对应的第五置信度,当所述第五置信度大于或者等于所述第四置信度时,采用所述本体绝对定位
Figure BDA0002862333230000077
对目标机器人A的当前自身定位AbLA进行更新。
本发明提供了一种基于多机器人的位置融合感知方法和系统,通过视觉识别融合激光数据的方法,并根据机器人群体的绝对定位及置信度,对机器人群体的定位进行更新,使机器人群体在业务场景中像一张网,增加了多机器人之间的交互、语义感知能力,还能进一步强化多机器人群体在复杂环境中的定位稳定性。
为使发明的上述目的、特征和优点能更明显易懂,下文特举本发明较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是实施例1提供的基于多机器人的位置融合感知方法的流程示意图;
图2是实施例2提供的基于多机器人的位置融合感知系统的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。再者,本发明所采用的“第一”、“第二”、“第三”等字样并不对数据和执行次序进行限定,仅是对功能和作用基本相同的相同项或相似项进行区分。
本发明实施例的机器人可以被构造成任何合适形状,以便实现特定业务功能操作,例如,本发明实施例机器人可以为递送机器人、搬运机器人、看护机器人等等。
所述机器人一般包括壳体、传感器单元、驱动轮部件、存储部件及控制器。壳体的外形大体上呈圆形,在一些实施例中,壳体的外形可以大体上呈椭圆形、三角形、D形、柱形或其他形状。
传感器单元用于采集机器人的一些运动参数及环境空间各类数据。在一些实施例中,传感器单元包括激光雷达,激光雷达安装于壳体上方,其安装高度高于所述壳体的顶部面壳高度,激光雷达用于检测机器人与障碍物之间的障碍物距离。在一些实施例中,传感器单元还可以包括惯性测量单元(Inertialmeasurementunit,IMU)、陀螺仪、磁场计、加速度计或速度计、光学摄像头等等。
请参阅图1,为本发明实施例1提供的一种基于多机器人的位置融合感知方法的流程示意图,所述多机器人包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1。如图1所示,方法包括以下步骤:
S1,每个机器人Bj分别获取目标机器人A与自身的相对位置
Figure BDA0002862333230000091
具体包括以下步骤:
S101,机器人Bj采集实时场景图像。每个机器人Bj可以从摄像头中捕获实时场景图像,该实时场景图像中包括目标机器人A在内的多个机器人,即该实时场景图像中包括目标机器人A和其他的机器人Bj
S102,机器人Bj采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度,所述(X1j、Y1j)为方框左上角的坐标,所述(X2j、Y2j)为方框右下角的坐标。所述预设目标检测算法为深度神经网络算法,包括FasterRCNN算法、YOLO算法以及SSD算法等的一个或多个。
然后将视觉识别与激光传感器数据进行融合,具体来说先执行S103,机器人Bj根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界。一个优选实施例中,为了消除机器人边界噪点的影响,取1/4处的点作为边界条件,即计算目标机器人A在实时场景图像中的左边界left和右边界right的公式为:
Figure BDA0002862333230000105
其中,X1j为机器人Bj对应实时场景图像中方框的左上角横坐标,X2j为机器人Bj对应实时场景图像中方框的右下角横坐标。
然后执行S104,机器人Bj根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界。一个优选实施例中,计算目标机器人A在实时场景图像中的激光线左边界lbound和激光线右边界rbound的公式为:
Figure BDA0002862333230000101
Figure BDA0002862333230000102
其中,left为目标机器人A在实时场景图像的左边界,right为目标机器人A在实时场景图像的右边界,Cx、fx为机器人Bj相机的内参,offsetθ为机器人Bj相机视角和激光传感器的视角差,根据空间中视角与图像的转换关系
Figure BDA0002862333230000103
可以得到。
S105,机器人Bj采用第一预设公式计算目标机器人A与自身的相对位置
Figure BDA0002862333230000104
所述第一预设公式为:
Figure BDA0002862333230000111
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
然后执行S2,每个机器人Bj根据当前自身定位以及目标机器人A与自身的相对位置
Figure BDA0002862333230000112
计算目标机器人A在本视角下的相对绝对位置,并将所述相对绝对位置发送至目标机器人A。具体包括以下步骤:
S201,机器人Bj获取当前自身定位以及当前自身定位对应的第二置信度。
S202,机器人Bj采用第二预设公式计算目标机器人A在本视角下的相对绝对位置
Figure BDA0002862333230000113
以及对应的第三置信度
Figure BDA0002862333230000114
所述第二预设公式为:
Figure BDA0002862333230000115
Figure BDA0002862333230000116
其中,
Figure BDA0002862333230000117
为机器人Bj的当前自身定位,
Figure BDA0002862333230000118
为目标机器人A与机器人Bj的相对位置,
Figure BDA0002862333230000119
为机器人Bj当前自身定位对应的第二置信度,
Figure BDA00028623332300001110
为所述第一置信度。
S203,机器人Bj将所述相对绝对位置
Figure BDA00028623332300001111
以及对应的第三置信度
Figure BDA00028623332300001112
发送至目标机器人A。
然后目标机器人A基于Kmeans算法更新自己的当前自身定位,即执行S3,目标机器人A接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。具体包括以下步骤:
S301,接收每个机器人Bj发送的相对绝对位置
Figure BDA0002862333230000121
以及对应的第三置信度
Figure BDA0002862333230000122
S302,获取当前自身定位以及当前自身定位对应的第四置信度。
S303,采用第三预设公式对所有机器人Bj发送的相对绝对位置
Figure BDA0002862333230000123
进行融合,并生成本体绝对定位
Figure BDA0002862333230000124
所述第三预设公式为:
Figure BDA0002862333230000125
Figure BDA0002862333230000126
Figure BDA0002862333230000127
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度。
S304,获取本体绝对定位
Figure BDA0002862333230000128
对应的第五置信度,当所述第五置信度大于或者等于所述第四置信度时,采用所述本体绝对定位
Figure BDA0002862333230000129
对目标机器人A的当前自身定位AbLA进行更新,否则保持当前自身定位不变。
优选实施例中可以将上述步骤重复5次,从而得到目标机器人A更加准确的位置。同时,对于多机器人共存的场景,其中任何一个机器人都可作为目标机器人A,而其他机器人均作为机器人Bj,从而结合机器人群体的相对绝对定位及置信度对场景内每个机器人的当前自身定位进行更新,每个机器人均可获取更加准确的定位结果。
本实施例的基于多机器人的位置融合感知方法通过视觉识别融合激光数据的方法,并根据机器人群体的绝对定位及置信度,对机器人群体的定位进行更新,使机器人群体在业务场景中像一张网,增加了多机器人之间的交互、语义感知能力,还能进一步强化多机器人群体在复杂环境中的定位稳定性。
需要说明的是,在上述各个实施例中,上述各步骤之间并不必然存在一定的先后顺序,本领域普通技术人员,根据本发明实施例的描述可以理解,不同实施例中,上述各步骤可以有不同的执行顺序,亦即,可以并行执行,亦可以交换执行等等。
作为本发明实施例的另一方面,本发明实施例还提供一种基于多机器人的位置融合感知系统。其中,基于多机器人的位置融合感知系统可以为软件模块,所述软件模块包括若干指令,其存储在存储器内,处理器可以访问该存储器,调用指令进行执行,以完成上述各个实施例所阐述的基于多机器人的位置融合感知方法。
在一些实施例中,基于多机器人的位置融合感知系统亦可以由硬件器件搭建成的,例如,基于多机器人的位置融合感知系统可以由一个或两个以上的芯片搭建而成,各个芯片可以互相协调工作,以完成上述各个实施例所阐述的基于多机器人的位置融合感知方法。再例如,基于多机器人的位置融合感知系统还可以由各类逻辑器件搭建而成,诸如由通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、单片机、ARM(AcornRISCMachine)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合而搭建成。
图2是本发明实施例2提供一种基于多机器人的位置融合感知系统的结构示意图,如图2所示,包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1;每个机器人Bj均包括获取模块100、计算模块200和发送模块300,
所述获取模块100用于获取目标机器人A与自身的相对位置
Figure BDA0002862333230000141
所述计算模块200用于根据当前自身定位以及目标机器人A与自身的相对位置
Figure BDA0002862333230000142
计算目标机器人A在本视角下的相对绝对位置;
所述发送模块300用于将所述相对绝对位置发送至目标机器人A;
所述目标机器人A包括更新模块500,所述更新模块500用于接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。
一个优选实施例中,所述获取模块100具体包括:
采集单元,用于采集实时场景图像;
目标检测单元,用于采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
第一计算单元,用于根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
第二计算单元,用于根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
第三计算单元,用于采用第一预设公式计算目标机器人A与自身的相对位置
Figure BDA0002862333230000143
所述第一预设公式为:
Figure BDA0002862333230000144
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
一个优选实施例中,所述计算模块200具体包括第一获取单元和第四计算单元:
所述第一获取单元用于获取当前自身定位以及当前自身定位对应的第二置信度;
所述第四计算单元用于采用第二预设公式计算目标机器人A在本视角下的相对绝对位置
Figure BDA0002862333230000151
以及对应的第三置信度
Figure BDA0002862333230000152
所述第二预设公式为:
Figure BDA0002862333230000153
Figure BDA0002862333230000154
其中,
Figure BDA0002862333230000155
为机器人Bj的当前自身定位,
Figure BDA0002862333230000156
为目标机器人A与机器人Bj的相对位置,
Figure BDA0002862333230000157
为机器人Bj当前自身定位对应的第二置信度,
Figure BDA0002862333230000158
为所述第一置信度;
所述发送模块300具体用于将所述相对绝对位置
Figure BDA0002862333230000159
以及对应的第三置信度
Figure BDA00028623332300001510
发送至目标机器人A。
一个优选实施例中,所述更新模块500具体包括:
接收单元,用于接收每个机器人Bj发送的相对绝对位置
Figure BDA00028623332300001511
以及对应的第三置信度
Figure BDA00028623332300001512
第二获取单元,用于获取当前自身定位以及当前自身定位对应的第四置信度;
融合单元,用于采用第三预设公式对所有机器人Bj发送的相对绝对位置
Figure BDA0002862333230000161
进行融合,并生成本体绝对定位
Figure BDA0002862333230000162
所述第三预设公式为:
Figure BDA0002862333230000163
Figure BDA0002862333230000164
Figure BDA0002862333230000165
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
更新单元,用于获取本体绝对定位
Figure BDA0002862333230000166
对应的第五置信度,当所述第五置信度大于或者等于所述第四置信度时,采用所述本体绝对定位
Figure BDA0002862333230000167
对目标机器人A的当前自身定位AbLA进行更新。
本实施例提供了一种基于多机器人的位置融合感知系统,通过视觉识别融合激光数据的方法,并根据机器人群体的绝对定位及置信度,对机器人群体的定位进行更新,使机器人群体在业务场景中像一张网,增加了多机器人之间的交互、语义感知能力,还能进一步强化多机器人群体在复杂环境中的定位稳定性。
以上所描述的装置或设备实施例仅仅是示意性的,其中所述作为分离部件说明的单元模块可以是或者也可以不是物理上分开的,作为模块单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络模块单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (10)

1.一种基于多机器人的位置融合感知方法,其特征在于,所述多机器人包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1,所述方法包括以下步骤:
S1,每个机器人Bj分别获取目标机器人A与自身的相对位置
Figure FDA0002862333220000011
S2,每个机器人Bj根据当前自身定位以及目标机器人A与自身的相对位置
Figure FDA0002862333220000012
计算目标机器人A在本视角下的相对绝对位置,并将所述相对绝对位置发送至目标机器人A;
S3,目标机器人A接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。
2.根据权利要求1所述基于多机器人的位置融合感知方法,其特征在于,机器人Bj获取目标机器人A与自身的相对位置
Figure FDA0002862333220000013
具体包括以下步骤:
S101,采集实时场景图像;
S102,采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
S103,根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
S104,根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
S105,采用第一预设公式计算目标机器人A与自身的相对位置
Figure FDA0002862333220000021
所述第一预设公式为:
Figure FDA0002862333220000022
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
3.根据权利要求2所述基于多机器人的位置融合感知方法,其特征在于,计算目标机器人A在实时场景图像中的左边界left和右边界right的公式为:
Figure FDA0002862333220000023
其中,X1j为机器人Bj对应实时场景图像中方框的左上角横坐标,X2j为机器人Bj对应实时场景图像中方框的右下角横坐标。
4.根据权利要求2所述基于多机器人的位置融合感知方法,其特征在于,计算目标机器人A在实时场景图像中的激光线左边界lbound和激光线右边界rbound的公式为:
Figure FDA0002862333220000024
Figure FDA0002862333220000025
其中,left为目标机器人A在实时场景图像的左边界,right为目标机器人A在实时场景图像的右边界,Cx、fx为机器人Bj相机的内参,offsetθ为机器人Bj相机视角和激光传感器的视角差。
5.根据权利要求2-4任一所述基于多机器人的位置融合感知方法,其特征在于,机器人Bj根据自身定位以及目标机器人A与自身的相对位置
Figure FDA0002862333220000031
计算目标机器人A在本视角下的相对绝对位置,具体包括以下步骤:
S201,获取当前自身定位以及当前自身定位对应的第二置信度;
S202,采用第二预设公式计算目标机器人A在本视角下的相对绝对位置
Figure FDA0002862333220000032
以及对应的第三置信度
Figure FDA0002862333220000033
所述第二预设公式为:
Figure FDA0002862333220000034
Figure FDA0002862333220000035
其中,
Figure FDA0002862333220000036
为机器人酈j的当前自身定位,
Figure FDA0002862333220000037
为目标机器人A与机器人Bj的相对位置,
Figure FDA0002862333220000038
为机器人酈j当前自身定位对应的第二置信度,
Figure FDA0002862333220000039
为所述第一置信度;
S203,将所述相对绝对位置
Figure FDA00028623332200000310
以及对应的第三置信度
Figure FDA00028623332200000311
发送至目标机器人A。
6.根据权利要求5所述基于多机器人的位置融合感知方法,其特征在于,目标机器人A根据所述相对绝对位置对当前自身定位进行更新,具体包括以下步骤:
S301,接收每个机器人酈j发送的相对绝对位置
Figure FDA00028623332200000312
以及对应的第三置信度
Figure FDA00028623332200000313
S302,获取当前自身定位以及当前自身定位对应的第四置信度;
S303,采用第三预设公式对所有机器人酈j发送的相对绝对位置
Figure FDA00028623332200000314
进行融合,并生成本体绝对定位
Figure FDA00028623332200000315
所述第三预设公式为:
Figure FDA00028623332200000316
Figure FDA0002862333220000041
Figure FDA0002862333220000042
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
S304,获取本体绝对定位
Figure FDA0002862333220000043
对应的第五置信度,当所述第五置信度大于或者等于所述第四置信度时,采用所述本体绝对定位
Figure FDA0002862333220000044
对目标机器人A的当前自身定位AbLA进行更新。
7.一种基于多机器人的位置融合感知系统,其特征在于,包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1;每个机器人Bj均包括获取模块、计算模块和发送模块,
所述获取模块用于获取目标机器人A与自身的相对位置
Figure FDA0002862333220000045
所述计算模块用于根据当前自身定位以及目标机器人A与自身的相对位置
Figure FDA0002862333220000046
计算目标机器人A在本视角下的相对绝对位置;
所述发送模块用于将所述相对绝对位置发送至目标机器人A;
所述目标机器人A包括更新模块,所述更新模块用于接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。
8.根据权利要求7所述基于多机器人的位置融合感知系统,其特征在于,所述获取模块具体包括:
采集单元,用于采集实时场景图像;
目标检测单元,用于采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
第一计算单元,用于根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
第二计算单元,用于根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
第三计算单元,用于采用第一预设公式计算目标机器人A与自身的相对位置
Figure FDA0002862333220000051
所述第一预设公式为:
Figure FDA0002862333220000052
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
9.根据权利要求8所述基于多机器人的位置融合感知系统,其特征在于,所述计算模块具体包括第一获取单元和第四计算单元:
所述第一获取单元用于获取当前自身定位以及当前自身定位对应的第二置信度;
所述第四计算单元用于采用第二预设公式计算目标机器人A在本视角下的相对绝对位置
Figure FDA0002862333220000053
以及对应的第三置信度
Figure FDA0002862333220000054
所述第二预设公式为:
Figure FDA0002862333220000055
Figure FDA0002862333220000056
其中,
Figure FDA0002862333220000057
为机器人酈j的当前自身定位,
Figure FDA0002862333220000058
为目标机器人A与机器人Bj的相对位置,
Figure FDA0002862333220000061
为机器人酈j当前自身定位对应的第二置信度,
Figure FDA0002862333220000062
为所述第一置信度;
所述发送模块具体用于将所述相对绝对位置
Figure FDA0002862333220000063
以及对应的第三置信度
Figure FDA0002862333220000064
发送至目标机器人A。
10.根据权利要求9所述基于多机器人的位置融合感知系统,其特征在于,所述更新模块具体包括:
接收单元,用于接收每个机器人酈j发送的相对绝对位置
Figure FDA0002862333220000065
以及对应的第三置信度
Figure FDA0002862333220000066
第二获取单元,用于获取当前自身定位以及当前自身定位对应的第四置信度;
融合单元,用于采用第三预设公式对所有机器人酈j发送的相对绝对位置
Figure FDA0002862333220000067
进行融合,并生成本体绝对定位
Figure FDA0002862333220000068
所述第三预设公式为:
Figure FDA0002862333220000069
Figure FDA00028623332200000610
Figure FDA00028623332200000611
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
更新单元,用于获取本体绝对定位
Figure FDA00028623332200000612
对应的第五置信度,当所述第五置信度大于或者等于所述第四置信度时,采用所述本体绝对定位
Figure FDA00028623332200000613
对目标机器人A的当前自身定位AbLA进行更新。
CN202011570409.9A 2020-12-26 2020-12-26 一种基于多机器人的位置融合感知方法和系统 Active CN112720490B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011570409.9A CN112720490B (zh) 2020-12-26 2020-12-26 一种基于多机器人的位置融合感知方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011570409.9A CN112720490B (zh) 2020-12-26 2020-12-26 一种基于多机器人的位置融合感知方法和系统

Publications (2)

Publication Number Publication Date
CN112720490A true CN112720490A (zh) 2021-04-30
CN112720490B CN112720490B (zh) 2022-06-21

Family

ID=75616844

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011570409.9A Active CN112720490B (zh) 2020-12-26 2020-12-26 一种基于多机器人的位置融合感知方法和系统

Country Status (1)

Country Link
CN (1) CN112720490B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129237A (ja) * 1993-11-01 1995-05-19 Nippon Telegr & Teleph Corp <Ntt> 移動ロボットの環境内位置認識方法
CN109062204A (zh) * 2018-07-25 2018-12-21 南京理工大学 一种基于跟随领航者编队的多移动机器人控制系统
CN109129463A (zh) * 2018-07-06 2019-01-04 华中科技大学 一种基于视觉的移动机械臂末端定位装置及方法
US20190070733A1 (en) * 2017-09-01 2019-03-07 Siemens Aktiengesellschaft Method and system for dynamic robot positioning
CN111331606A (zh) * 2020-03-27 2020-06-26 河北师范大学 一种移动式多机器人移动拼接控制方法及系统
CN111546348A (zh) * 2020-06-10 2020-08-18 上海有个机器人有限公司 机器人位置标定方法和位置标定系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129237A (ja) * 1993-11-01 1995-05-19 Nippon Telegr & Teleph Corp <Ntt> 移動ロボットの環境内位置認識方法
US20190070733A1 (en) * 2017-09-01 2019-03-07 Siemens Aktiengesellschaft Method and system for dynamic robot positioning
CN109129463A (zh) * 2018-07-06 2019-01-04 华中科技大学 一种基于视觉的移动机械臂末端定位装置及方法
CN109062204A (zh) * 2018-07-25 2018-12-21 南京理工大学 一种基于跟随领航者编队的多移动机器人控制系统
CN111331606A (zh) * 2020-03-27 2020-06-26 河北师范大学 一种移动式多机器人移动拼接控制方法及系统
CN111546348A (zh) * 2020-06-10 2020-08-18 上海有个机器人有限公司 机器人位置标定方法和位置标定系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈谢沅澧: "基于单目视觉的多机器人协同SLAM算法研究", 《国防科技大学》 *

Also Published As

Publication number Publication date
CN112720490B (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
US20190195631A1 (en) Positioning method, positioning device, and robot
US11740626B2 (en) Redundant pose generation system
CN109444932B (zh) 一种车辆定位方法、装置、电子设备及存储介质
CN105737826B (zh) 行人室内定位方法
CN110646824A (zh) 一种多种定位方式实现运动轨迹漂移点过滤计算的方法
WO2018098811A1 (zh) 定位方法和装置
JP2019521401A (ja) ロボットの経路計画システム、方法、ロボット及び媒体
CN112179353B (zh) 自移动机器人的定位方法、装置、机器人及可读存储介质
US20190049580A1 (en) Perception device
CN109389863A (zh) 提示方法及相关设备
CN110942474B (zh) 机器人目标跟踪方法、设备及存储介质
CN107782304B (zh) 移动机器人的定位方法及装置、移动机器人及存储介质
CN112445222A (zh) 导航方法、装置、存储介质以及终端
CN111360808A (zh) 一种控制机器人运动的方法、装置及机器人
CN109062215A (zh) 机器人及基于其的目标跟随避障方法、系统、设备和介质
JP7047576B2 (ja) 地図作成装置
CN112540609A (zh) 路径规划方法、装置、终端设备及存储介质
CN114594772A (zh) 机器人、路径规划方法、装置和存储介质
EP4290276A1 (en) Road boundary recognition method and apparatus
CN112720490B (zh) 一种基于多机器人的位置融合感知方法和系统
CN113091737A (zh) 一种车路协同定位方法、装置、自动驾驶车辆及路侧设备
WO2023142353A1 (zh) 一种位姿预测方法及装置
CN112729349B (zh) 里程计在线标定的方法、装置、电子设备及存储介质
CN114061573A (zh) 地面无人车辆编队定位装置及方法
CN112835370A (zh) 车辆的定位方法、装置、计算机可读存储介质及处理器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant