CN112720490A - 一种基于多机器人的位置融合感知方法和系统 - Google Patents
一种基于多机器人的位置融合感知方法和系统 Download PDFInfo
- Publication number
- CN112720490A CN112720490A CN202011570409.9A CN202011570409A CN112720490A CN 112720490 A CN112720490 A CN 112720490A CN 202011570409 A CN202011570409 A CN 202011570409A CN 112720490 A CN112720490 A CN 112720490A
- Authority
- CN
- China
- Prior art keywords
- robot
- target robot
- target
- positioning
- confidence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1682—Dual arm manipulator; Coordination of several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Abstract
本发明公开了一种基于多机器人的位置融合感知方法和系统,多机器人包括目标机器人A和处于同一场景的N个机器人Bj,方法包括以下步骤:每个机器人Bj分别获取目标机器人A与自身的相对位置,并根据当前自身定位以及所述相对位置计算目标机器人A在本视角下的相对绝对位置;目标机器人A接收所有机器人Bj发送的相对绝对位置,并根据相对绝对位置对当前自身定位进行更新。本发明通过视觉识别融合激光数据的方法,并根据机器人群体的绝对定位及置信度,对机器人群体的定位进行更新,使机器人群体在业务场景中像一张网,增加了多机器人之间的交互、语义感知能力,还能进一步强化多机器人群体在复杂环境中的定位稳定性。
Description
技术领域
本发明涉及机器人领域,尤其涉及一种基于多机器人的位置融合感知方法和系统。
背景技术
随着机器人行业的快速发展,各种服务机器人层出不穷,机器人在我们的生活、工作中也应用得越来越广泛。在多个机器人共存的场景下,用于单个机器人场景的调度策略在楼宇中的瓶颈区域,如电梯,闸机等区域,会出现效率低下的问题,如相互阻塞等。而系统级的全局调度又依赖于机器人定位的准确性、通信的丢包率以及时延等等。通常情况下,机器人的定位系统并不是十分可靠,比如在午高峰时段,大量的人流量容易带偏机器人的定位系统,而且在室内环境下,机器人的通信也难以保持持续的可靠性。
发明内容
本发明提供了一种基于多机器人的位置融合感知方法和系统,解决了现有技术的定位方法在多个机器人共存场景下定位不准确、效率低的技术问题。
本发明解决上述技术问题的技术方案如下:一种基于多机器人的位置融合感知方法,所述多机器人包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1;所述方法包括以下步骤:
S3,目标机器人A接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。
S101,采集实时场景图像;
S102,采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
S103,根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
S104,根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
在一个优选实施方式中,计算目标机器人A在实时场景图像中的左边界left和右边界right的公式为:
其中,X1j为机器人Bj对应实时场景图像中方框的左上角横坐标,X2j为机器人Bj对应实时场景图像中方框的右下角横坐标。
在一个优选实施方式中,计算目标机器人A在实时场景图像中的激光线左边界lbound和激光线右边界rbound的公式为:
其中,left为目标机器人A在实时场景图像的左边界,right为目标机器人A在实时场景图像的右边界,Cx、fx为机器人Bj相机的内参,offsetθ为机器人Bj相机视角和激光传感器的视角差。
S201,获取当前自身定位以及当前自身定位对应的第二置信度;
在一个优选实施方式中,目标机器人A根据所述相对绝对位置对当前自身定位进行更新,具体包括以下步骤:
S302,获取当前自身定位以及当前自身定位对应的第四置信度;
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
本发明实施例的第二方面提供了一种基于多机器人的位置融合感知系统,包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1;每个机器人Bj均包括获取模块、计算模块和发送模块,
所述发送模块用于将所述相对绝对位置发送至目标机器人A;
所述目标机器人A包括更新模块,所述更新模块用于接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。
在一个优选实施方式中,所述获取模块具体包括:
采集单元,用于采集实时场景图像;
目标检测单元,用于采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
第一计算单元,用于根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
第二计算单元,用于根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
在一个优选实施方式中,所述计算模块具体包括第一获取单元和第四计算单元:
所述第一获取单元用于获取当前自身定位以及当前自身定位对应的第二置信度;
在一个优选实施方式中,所述更新模块具体包括:
第二获取单元,用于获取当前自身定位以及当前自身定位对应的第四置信度;
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
本发明提供了一种基于多机器人的位置融合感知方法和系统,通过视觉识别融合激光数据的方法,并根据机器人群体的绝对定位及置信度,对机器人群体的定位进行更新,使机器人群体在业务场景中像一张网,增加了多机器人之间的交互、语义感知能力,还能进一步强化多机器人群体在复杂环境中的定位稳定性。
为使发明的上述目的、特征和优点能更明显易懂,下文特举本发明较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是实施例1提供的基于多机器人的位置融合感知方法的流程示意图;
图2是实施例2提供的基于多机器人的位置融合感知系统的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。再者,本发明所采用的“第一”、“第二”、“第三”等字样并不对数据和执行次序进行限定,仅是对功能和作用基本相同的相同项或相似项进行区分。
本发明实施例的机器人可以被构造成任何合适形状,以便实现特定业务功能操作,例如,本发明实施例机器人可以为递送机器人、搬运机器人、看护机器人等等。
所述机器人一般包括壳体、传感器单元、驱动轮部件、存储部件及控制器。壳体的外形大体上呈圆形,在一些实施例中,壳体的外形可以大体上呈椭圆形、三角形、D形、柱形或其他形状。
传感器单元用于采集机器人的一些运动参数及环境空间各类数据。在一些实施例中,传感器单元包括激光雷达,激光雷达安装于壳体上方,其安装高度高于所述壳体的顶部面壳高度,激光雷达用于检测机器人与障碍物之间的障碍物距离。在一些实施例中,传感器单元还可以包括惯性测量单元(Inertialmeasurementunit,IMU)、陀螺仪、磁场计、加速度计或速度计、光学摄像头等等。
请参阅图1,为本发明实施例1提供的一种基于多机器人的位置融合感知方法的流程示意图,所述多机器人包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1。如图1所示,方法包括以下步骤:
S101,机器人Bj采集实时场景图像。每个机器人Bj可以从摄像头中捕获实时场景图像,该实时场景图像中包括目标机器人A在内的多个机器人,即该实时场景图像中包括目标机器人A和其他的机器人Bj。
S102,机器人Bj采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度,所述(X1j、Y1j)为方框左上角的坐标,所述(X2j、Y2j)为方框右下角的坐标。所述预设目标检测算法为深度神经网络算法,包括FasterRCNN算法、YOLO算法以及SSD算法等的一个或多个。
然后将视觉识别与激光传感器数据进行融合,具体来说先执行S103,机器人Bj根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界。一个优选实施例中,为了消除机器人边界噪点的影响,取1/4处的点作为边界条件,即计算目标机器人A在实时场景图像中的左边界left和右边界right的公式为:
其中,X1j为机器人Bj对应实时场景图像中方框的左上角横坐标,X2j为机器人Bj对应实时场景图像中方框的右下角横坐标。
然后执行S104,机器人Bj根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界。一个优选实施例中,计算目标机器人A在实时场景图像中的激光线左边界lbound和激光线右边界rbound的公式为:
其中,left为目标机器人A在实时场景图像的左边界,right为目标机器人A在实时场景图像的右边界,Cx、fx为机器人Bj相机的内参,offsetθ为机器人Bj相机视角和激光传感器的视角差,根据空间中视角与图像的转换关系可以得到。
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
S201,机器人Bj获取当前自身定位以及当前自身定位对应的第二置信度。
然后目标机器人A基于Kmeans算法更新自己的当前自身定位,即执行S3,目标机器人A接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。具体包括以下步骤:
S302,获取当前自身定位以及当前自身定位对应的第四置信度。
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度。
优选实施例中可以将上述步骤重复5次,从而得到目标机器人A更加准确的位置。同时,对于多机器人共存的场景,其中任何一个机器人都可作为目标机器人A,而其他机器人均作为机器人Bj,从而结合机器人群体的相对绝对定位及置信度对场景内每个机器人的当前自身定位进行更新,每个机器人均可获取更加准确的定位结果。
本实施例的基于多机器人的位置融合感知方法通过视觉识别融合激光数据的方法,并根据机器人群体的绝对定位及置信度,对机器人群体的定位进行更新,使机器人群体在业务场景中像一张网,增加了多机器人之间的交互、语义感知能力,还能进一步强化多机器人群体在复杂环境中的定位稳定性。
需要说明的是,在上述各个实施例中,上述各步骤之间并不必然存在一定的先后顺序,本领域普通技术人员,根据本发明实施例的描述可以理解,不同实施例中,上述各步骤可以有不同的执行顺序,亦即,可以并行执行,亦可以交换执行等等。
作为本发明实施例的另一方面,本发明实施例还提供一种基于多机器人的位置融合感知系统。其中,基于多机器人的位置融合感知系统可以为软件模块,所述软件模块包括若干指令,其存储在存储器内,处理器可以访问该存储器,调用指令进行执行,以完成上述各个实施例所阐述的基于多机器人的位置融合感知方法。
在一些实施例中,基于多机器人的位置融合感知系统亦可以由硬件器件搭建成的,例如,基于多机器人的位置融合感知系统可以由一个或两个以上的芯片搭建而成,各个芯片可以互相协调工作,以完成上述各个实施例所阐述的基于多机器人的位置融合感知方法。再例如,基于多机器人的位置融合感知系统还可以由各类逻辑器件搭建而成,诸如由通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、单片机、ARM(AcornRISCMachine)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合而搭建成。
图2是本发明实施例2提供一种基于多机器人的位置融合感知系统的结构示意图,如图2所示,包括目标机器人A和处于同一场景的N个机器人Bj,j的取值为1、2……N,其中N≥1;每个机器人Bj均包括获取模块100、计算模块200和发送模块300,
所述发送模块300用于将所述相对绝对位置发送至目标机器人A;
所述目标机器人A包括更新模块500,所述更新模块500用于接收所有机器人Bj分别发送的所述相对绝对位置,并根据所述相对绝对位置对当前自身定位进行更新。
一个优选实施例中,所述获取模块100具体包括:
采集单元,用于采集实时场景图像;
目标检测单元,用于采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
第一计算单元,用于根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
第二计算单元,用于根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
一个优选实施例中,所述计算模块200具体包括第一获取单元和第四计算单元:
所述第一获取单元用于获取当前自身定位以及当前自身定位对应的第二置信度;
一个优选实施例中,所述更新模块500具体包括:
第二获取单元,用于获取当前自身定位以及当前自身定位对应的第四置信度;
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
本实施例提供了一种基于多机器人的位置融合感知系统,通过视觉识别融合激光数据的方法,并根据机器人群体的绝对定位及置信度,对机器人群体的定位进行更新,使机器人群体在业务场景中像一张网,增加了多机器人之间的交互、语义感知能力,还能进一步强化多机器人群体在复杂环境中的定位稳定性。
以上所描述的装置或设备实施例仅仅是示意性的,其中所述作为分离部件说明的单元模块可以是或者也可以不是物理上分开的,作为模块单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络模块单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
S101,采集实时场景图像;
S102,采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
S103,根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
S104,根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
6.根据权利要求5所述基于多机器人的位置融合感知方法,其特征在于,目标机器人A根据所述相对绝对位置对当前自身定位进行更新,具体包括以下步骤:
S302,获取当前自身定位以及当前自身定位对应的第四置信度;
其中,AbLA为目标机器人A的当前自身定位,AbLAS为当前自身定位对应的第四置信度;
8.根据权利要求7所述基于多机器人的位置融合感知系统,其特征在于,所述获取模块具体包括:
采集单元,用于采集实时场景图像;
目标检测单元,用于采用预设目标检测算法对所述实时场景图像中的目标机器人A进行识别,获取目标机器人A在所述实时场景图像中的方框坐标(X1j、X2j、Y1j、Y2j)以及方框对应的第一置信度;
第一计算单元,用于根据目标机器人A的方框坐标(X1j、X2j、Y1j、Y2j)计算目标机器人A在所述实时场景图像中的左边界和右边界;
第二计算单元,用于根据所述左边界和所述右边界计算目标机器人A在所述实时场景图像中的激光线左边界和激光线右边界;
其中,rbound为所述激光线右边界,lbound为所述激光线左边界,LaserA为目标机器人A的激光线距离,W为rbound和lbound之间的激光线数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011570409.9A CN112720490B (zh) | 2020-12-26 | 2020-12-26 | 一种基于多机器人的位置融合感知方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011570409.9A CN112720490B (zh) | 2020-12-26 | 2020-12-26 | 一种基于多机器人的位置融合感知方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112720490A true CN112720490A (zh) | 2021-04-30 |
CN112720490B CN112720490B (zh) | 2022-06-21 |
Family
ID=75616844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011570409.9A Active CN112720490B (zh) | 2020-12-26 | 2020-12-26 | 一种基于多机器人的位置融合感知方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112720490B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129237A (ja) * | 1993-11-01 | 1995-05-19 | Nippon Telegr & Teleph Corp <Ntt> | 移動ロボットの環境内位置認識方法 |
CN109062204A (zh) * | 2018-07-25 | 2018-12-21 | 南京理工大学 | 一种基于跟随领航者编队的多移动机器人控制系统 |
CN109129463A (zh) * | 2018-07-06 | 2019-01-04 | 华中科技大学 | 一种基于视觉的移动机械臂末端定位装置及方法 |
US20190070733A1 (en) * | 2017-09-01 | 2019-03-07 | Siemens Aktiengesellschaft | Method and system for dynamic robot positioning |
CN111331606A (zh) * | 2020-03-27 | 2020-06-26 | 河北师范大学 | 一种移动式多机器人移动拼接控制方法及系统 |
CN111546348A (zh) * | 2020-06-10 | 2020-08-18 | 上海有个机器人有限公司 | 机器人位置标定方法和位置标定系统 |
-
2020
- 2020-12-26 CN CN202011570409.9A patent/CN112720490B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129237A (ja) * | 1993-11-01 | 1995-05-19 | Nippon Telegr & Teleph Corp <Ntt> | 移動ロボットの環境内位置認識方法 |
US20190070733A1 (en) * | 2017-09-01 | 2019-03-07 | Siemens Aktiengesellschaft | Method and system for dynamic robot positioning |
CN109129463A (zh) * | 2018-07-06 | 2019-01-04 | 华中科技大学 | 一种基于视觉的移动机械臂末端定位装置及方法 |
CN109062204A (zh) * | 2018-07-25 | 2018-12-21 | 南京理工大学 | 一种基于跟随领航者编队的多移动机器人控制系统 |
CN111331606A (zh) * | 2020-03-27 | 2020-06-26 | 河北师范大学 | 一种移动式多机器人移动拼接控制方法及系统 |
CN111546348A (zh) * | 2020-06-10 | 2020-08-18 | 上海有个机器人有限公司 | 机器人位置标定方法和位置标定系统 |
Non-Patent Citations (1)
Title |
---|
陈谢沅澧: "基于单目视觉的多机器人协同SLAM算法研究", 《国防科技大学》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112720490B (zh) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190195631A1 (en) | Positioning method, positioning device, and robot | |
US11740626B2 (en) | Redundant pose generation system | |
CN109444932B (zh) | 一种车辆定位方法、装置、电子设备及存储介质 | |
CN105737826B (zh) | 行人室内定位方法 | |
CN110646824A (zh) | 一种多种定位方式实现运动轨迹漂移点过滤计算的方法 | |
WO2018098811A1 (zh) | 定位方法和装置 | |
JP2019521401A (ja) | ロボットの経路計画システム、方法、ロボット及び媒体 | |
CN112179353B (zh) | 自移动机器人的定位方法、装置、机器人及可读存储介质 | |
US20190049580A1 (en) | Perception device | |
CN109389863A (zh) | 提示方法及相关设备 | |
CN110942474B (zh) | 机器人目标跟踪方法、设备及存储介质 | |
CN107782304B (zh) | 移动机器人的定位方法及装置、移动机器人及存储介质 | |
CN112445222A (zh) | 导航方法、装置、存储介质以及终端 | |
CN111360808A (zh) | 一种控制机器人运动的方法、装置及机器人 | |
CN109062215A (zh) | 机器人及基于其的目标跟随避障方法、系统、设备和介质 | |
JP7047576B2 (ja) | 地図作成装置 | |
CN112540609A (zh) | 路径规划方法、装置、终端设备及存储介质 | |
CN114594772A (zh) | 机器人、路径规划方法、装置和存储介质 | |
EP4290276A1 (en) | Road boundary recognition method and apparatus | |
CN112720490B (zh) | 一种基于多机器人的位置融合感知方法和系统 | |
CN113091737A (zh) | 一种车路协同定位方法、装置、自动驾驶车辆及路侧设备 | |
WO2023142353A1 (zh) | 一种位姿预测方法及装置 | |
CN112729349B (zh) | 里程计在线标定的方法、装置、电子设备及存储介质 | |
CN114061573A (zh) | 地面无人车辆编队定位装置及方法 | |
CN112835370A (zh) | 车辆的定位方法、装置、计算机可读存储介质及处理器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |