CN113091736A - 机器人定位方法、装置、机器人及存储介质 - Google Patents

机器人定位方法、装置、机器人及存储介质 Download PDF

Info

Publication number
CN113091736A
CN113091736A CN202110362044.9A CN202110362044A CN113091736A CN 113091736 A CN113091736 A CN 113091736A CN 202110362044 A CN202110362044 A CN 202110362044A CN 113091736 A CN113091736 A CN 113091736A
Authority
CN
China
Prior art keywords
robot
posture
current
pose
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110362044.9A
Other languages
English (en)
Other versions
CN113091736B (zh
Inventor
姚秀军
桂晨光
王超
马福强
陈建楠
王峰
崔丽华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Shuke Haiyi Information Technology Co Ltd
Original Assignee
Jingdong Shuke Haiyi Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Shuke Haiyi Information Technology Co Ltd filed Critical Jingdong Shuke Haiyi Information Technology Co Ltd
Priority to CN202110362044.9A priority Critical patent/CN113091736B/zh
Publication of CN113091736A publication Critical patent/CN113091736A/zh
Application granted granted Critical
Publication of CN113091736B publication Critical patent/CN113091736B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明实施例提供了一种机器人定位方法、装置、机器人及存储介质,所述方法包括:获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态;获取所述机器人视角区域对应的点云数据,利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态;确定所述机器人视角区域内的路标,利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。通过在环境中设定路标,借助于路标来辅助机器人定位,可以显著提升在特定场景下机器人的定位鲁棒性。

Description

机器人定位方法、装置、机器人及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种机器人定位方法、装置、机器人及存储介质。
背景技术
随着人工智能的不断发展,机器人在商业场景和工业场景等得到极大拓展,给人们的生产、生活带来了极大的便利。其中,导航和定位技术是机器人的关键技术指标,目前常用的定位技术包括inside-out的定位方式和outside-in的定位方式两类。
outside-in的定位方式需要对环境进行改造,通过既定的先验信息进行定位比较稳定。而inside-out的定位方式直接利用环境信息进行主动定位,不需要对环境进行改造。但在特定场景下(例如环境易变、空旷、反光、非结构化、重复等),inside-out的定位方式的鲁棒性较差。
发明内容
本发明实施例的目的在于提供一种机器人定位方法、装置、机器人及存储介质,以实现提高定位鲁棒性的有益效果。具体技术方案如下:
在本发明实施例的第一方面,首先提供了一种机器人定位方法,应用于机器人,所述方法包括:
获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态;
获取所述机器人视角区域对应的点云数据,利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态;
确定所述机器人视角区域内的路标,利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
在一个可选的实施方式中,所述利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态,包括:
确定所述路标与图像采集设备的当前相对姿态,基于所述当前相对姿态确定栅格地图中原点到所述机器人的当前姿态变换;
将所述当前姿态变换与所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
在一个可选的实施方式中,所述基于所述当前相对姿态确定栅格地图中原点到所述机器人的当前姿态变换,包括:
在栅格地图中查找所述当前相对姿态相匹配的第一栅格,查找所述第一栅格对应的所述路标在所述栅格地图中的当前路标姿态;
获取所述机器人与所述图像采集设备之间的当前静态变换,以及获取所述当前相对姿态与所述当前静态变换之积;
将所述当前路标姿态除以所述当前相对姿态与所述当前静态变换之积,得到栅格地图中原点到所述机器人的当前姿态变换。
在一个可选的实施方式中,所述将所述当前姿态变换与所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态,包括:
将所述当前姿态变换与所述中间姿态输入路标优化公式,得到所述机器人当前时刻的目标姿态,其中,所述路标优化公式包括:
∈2=argmin(α∈1+kTlandmark);
所述∈2包括所述目标姿态,所述∈1包括所述中间姿态,所述Tlandmark包括所述当前姿态变换。
在一个可选的实施方式中,所述k具体通过以下方式确定:
k=r*max(distance(Tlandmark,∈1),yaw(Tlandmark,∈1))。
在一个可选的实施方式中,所述获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态,包括:
获取机器人的惯性测量单元数据以及编码器数据,并确定所述惯性测量单元数据以及所述编码器数据对应的预设数据融合算法;
利用所述数据融合算法对所述惯性测量单元数据以及所述编码器数据进行融合,确定机器人当前时刻的初始姿态。
在一个可选的实施方式中,所述点云数据由所述机器人调用电磁波设备对机器人视角区域进行电磁波扫描,对扫描所述机器人视角区域产生的回波信号进行处理形成;
所述利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态,包括:
在栅格地图中确定所述初始姿态相匹配的栅格范围,基于CSM在所述栅格范围中查找所述点云数据相匹配的第二栅格;
确定所述第二栅格对应的机器人姿态,将所述机器人姿态与所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态。
在一个可选的实施方式中,所述将所述机器人姿态与所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态,包括:
将所述机器人姿态与所述初始姿态输入至点云优化公式,得到所述机器人当前时刻的中间姿态,其中,所述点云优化公式包括:
∈1=argmin(αTekf+βTcsm);
所述∈1包括所述中间姿态,所述Tekf包括所述初始姿态,所述Tcsm包括所述机器人姿态。
在一个可选的实施方式中,所述栅格地图具体通过以下方式创建:
在机器人运动至栅格地图中目标栅格的情况下,调用图像采集设备识别环境中路标,所述目标栅格包括所述栅格地图中任一栅格;
确定所述路标与所述图像采集设备的相对姿态,利用电磁波设备确定所述栅格地图中原点到所述机器人的姿态变换;
获取所述机器人与所述图像采集设备之间的静态变换,获取所述相对姿态、所述姿态变换、所述静态变换之积;
确定所述目标栅格对应的所述路标在所述栅格地图中的路标姿态为所述相对姿态、所述姿态变换、所述静态变换之积。
在本发明实施例的第二方面,还提供了一种机器人定位装置,应用于机器人,所述装置包括:
初始姿态确定模块,用于获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态;
初始姿态优化模块,用于获取所述机器人视角区域对应的点云数据,利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态;
中间姿态优化模块,用于确定所述机器人视角区域内的路标,利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
在本发明实施例的第三方面,还提供了一种机器人,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面中任一所述的机器人定位方法。
在本发明实施例的第四方面,还提供了一种存储介质,所述存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面中任一所述的机器人定位方法。
在本发明实施例的第五方面,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面中任一所述的机器人定位方法。
本发明实施例提供的技术方案,获取机器人的姿态数据,利用预设数据融合算法对姿态数据进行融合,确定机器人当前时刻的初始姿态,获取机器人视角区域对应的点云数据,利用点云数据对初始姿态进行优化,得到机器人当前时刻的中间姿态,确定机器人视角区域内的路标,利用路标对中间姿态进行优化,得到机器人当前时刻的目标姿态。通过在环境中设定路标,借助于路标来辅助机器人定位,可以显著提升在特定场景下机器人的定位鲁棒性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中示出的一种机器人定位方法的实施流程示意图;
图2为本发明实施例中示出的一种在环境中设定少量的路标的示意图;
图3为本发明实施例中示出的一种对机器人当前时刻的初始姿态进行优化的实施流程示意图;
图4为本发明实施例中示出的一种对机器人当前时刻的中间姿态进行优化的实施流程示意图;
图5为本发明实施例中示出的一种栅格地图创建的实施流程示意图;
图6为本发明实施例中示出的一种机器人定位装置的结构示意图;
图7为本发明实施例中示出的一种机器人的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,为本发明实施例提供的一种机器人定位方法的实施流程示意图,该方法可以由机器人执行,具体可以包括以下步骤:
S101,获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态。
在特定场景下,例如环境易变、空旷、反光、非结构化、重复等,为了提高机器人的定位鲁棒性,可以在环境中设定少量的路标(即landmark),如图2所示,该路标可以是Apritag码或任意自定义的形式,也可以是基于逆反光材料组合而成,具体可以使用例如红外相机进行识别定位,本发明实施例对此不作限定。
后续在机器人定位过程中,获取机器人的姿态数据,利用预设数据融合算法对姿态数据进行融合,确定机器人当前时刻的初始姿态,然后基于机器人视角区域对应的点云数据、机器人视角区域内的路标等对机器人当前时刻的初始姿态进行优化,以得到最终的机器人当前时刻的目标姿态,完成对机器人当前时刻的初始姿态的更新。
需要说明的是,对于机器人当前时刻的初始姿态,其实质是一个利用预设数据融合算法对姿态数据进行融合,估计得来的机器人当前时刻的姿态,属于机器人的一个大概姿态,需要对其进行优化,以得到最终的机器人当前时刻的目标姿态。
需要说明的是,在基于机器人视角区域对应的点云数据、机器人视角区域内的路标等对机器人当前时刻的初始姿态进行优化的过程中,属于一个异步优化的方式,即基于机器人视角区域对应的点云数据对机器人当前时刻的初始姿态进行优化,后续基于机器人视角区域内的路标对优化结果(优化后的机器人当前时刻的初始姿态,即中间姿态)进行再次优化。
具体地,对于机器人的姿态数据,可以是机器人的惯性测量单元数据以及编码器数据,则可以获取机器人的惯性测量单元数据以及编码器数据,并确定惯性测量单元数据以及编码器数据对应的预设数据融合算法,利用数据融合算法对惯性测量单元数据以及编码器数据进行融合,确定机器人当前时刻的初始姿态。
例如,获取巡检机器人的IMU数据以及Odom数据,利用粒子滤波算法对巡检机器人的IMU数据以及Odom数据进行融合,确定巡检机器人当前时刻的初始姿态,即估计巡检机器人当前时刻的姿态,便于后续巡检机器人当前时刻的初始姿态进行优化。
需要说明的是,对于确定惯性测量单元数据以及编码器数据对应的预设数据融合算法的方式,具体可以看对机器人当前时刻的初始姿态的准确性要求。
如果对机器人当前时刻的初始姿态的准确性要求较高,可以利用粒子滤波算法对惯性测量单元数据以及编码器数据进行融合,确定机器人当前时刻的初始姿态。
如果对机器人当前时刻的初始姿态的准确性要求一般,可以利用EKF(ExtendedKalman Filter,扩展卡尔曼滤波算法)对惯性测量单元数据以及编码器数据进行融合,确定机器人当前时刻的初始姿态,本发明实施例对此不作限定。
S102,获取所述机器人视角区域对应的点云数据,利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态。
对于机器人,可以调用电磁波设备执行以下步骤形成点云数据:对机器人视角区域进行电磁波扫描,对扫描机器人视角区域产生的回波信号进行处理形成点云数据。其中,机器人视角区域可以是个扇形区域,则该点云数据可以是二维空间下的点云数据。
例如,对于机房巡检机器人,自身携带微波雷达,调用该微波雷达对机器人视角区域进行微波扫描,微波遇到障碍物产生回波信号,微波雷达接收回波信号,根据回波信号的频率差、角度、ToF(Time of Flight,飞行时间)等数据转换成点云数据。
经过上述,可以得到机器人视角区域对应的点云数据,进而获取该机器人视角区域对应的点云数据,利用点云数据对机器人当前时刻的初始姿态进行优化,可以得到机器人当前时刻的中间姿态,即对机器人当前时刻的初始姿态进行优化之后的结果。
具体地,如图3所示,为本发明实施例中提供的一种对机器人当前时刻的初始姿态进行优化的实施流程示意图,可以由机器人执行,具体可以包括以下步骤:
S301,在栅格地图中确定所述初始姿态相匹配的栅格范围,基于CSM在所述栅格范围中查找所述点云数据相匹配的第二栅格。
对于机器人当前时刻的初始姿态,在(2D)栅格地图中确定该初始姿态相匹配的栅格范围,这里的栅格范围是一个大概的范围,基于CSM(相关性扫描匹配)在这个栅格范围中查找点云数据相匹配的第二栅格,这个第二栅格可以认为机器人所在的栅格。
S302,确定所述第二栅格对应的机器人姿态,将所述机器人姿态与所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态。
对于第二栅格,可以认为是机器人所在的栅格,从而可以确定该第二栅格对应的机器人姿态(即相对于栅格地图中原点的姿态),将机器人姿态与机器人当前时刻的初始姿态进行联合优化,得到机器人当前时刻的中间姿态,如此可以对机器人当前时刻的初始姿态进行优化、更新。
在对机器人姿态与机器人当前时刻的初始姿态进行联合优化的过程中,可以选择如下点云优化公式,将机器人姿态与机器人当前时刻的初始姿态输入至点云优化公式,完成对机器人姿态与机器人当前时刻的初始姿态的联合优化,从而可以得到机器人当前时刻的中间姿态。
∈1=argmin(αTekf+βTcsm);
其中,上述∈1包括机器人当前时刻的中间姿态,上述Tekf包括机器人当前时刻的初始姿态,上述Tcsm包括上述机器人姿态。
S103,确定所述机器人视角区域内的路标,利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
对于机器人当前时刻的中间姿态,是对机器人当前时刻的初始姿态进行优化而得来的,在此基础之上,对机器人当前时刻的中间姿态继续进行优化,以得到最终的机器人当前时刻的目标姿态。
为此,确定机器人视角区域内的路标,利用机器人视角区域内的路标对机器人当前时刻的中间姿态继续优化,以得到最终的机器人当前时刻的目标姿态。
例如,巡检机器人利用红外相机等图像采集设备观察到视角区域内的landmark,从而可以利用视角区域内的landmark对机器人当前时刻的中间姿态继续优化,以得到最终的机器人当前时刻的目标姿态。
具体地,如图4所示,为本发明实施例中提供的一种对机器人当前时刻的中间姿态进行优化的实施流程示意图,可以由机器人执行,具体可以包括以下步骤:
S401,确定所述路标与图像采集设备的当前相对姿态,基于所述当前相对姿态确定栅格地图中原点到所述机器人的当前姿态变换。
对于机器人视角区域内的路标,确定该路标与(机器人上)图像采集设备之间的当前相对姿态,基于该当前相对姿态确定栅格地图中原点到所述机器人的当前姿态变换。
例如,对于巡检机器人视角区域内的landmark,确定landmark与机器人上红外相机之间的当前相对姿态,基于该当前相对姿态确定栅格地图中原点到机器人的当前姿态变换。
其中,在本发明实施例中,基于该当前相对姿态,具体可以通过以下方式确定栅格地图中原点到机器人的当前姿态变换:
在栅格地图中查找与当前相对姿态相匹配的第一栅格,查找第一栅格对应的路标在栅格地图中的当前路标姿态(即路标相对于栅格地图中原点的当前姿态),获取机器人与图像采集设备之间的当前静态变换。
将当前相对姿态与当前静态变换进行相乘,获取当前相对姿态与当前静态变换之积,将当前路标姿态除以当前相对姿态与当前静态变换之积,得到栅格地图中原点到机器人的当前姿态变换。
例如,在2D栅格地图中查找与当前相对姿态相匹配的栅格A,栅格A中存储了landmark相对于2D栅格地图中原点的当前姿态,即当前路标姿态,从而查找栅格A对应的landmark在栅格地图中的当前路标姿态。
获取巡检机器人与红外相机之间的当前静态变换,描述机器人到红外相机之间的静态刚性变换,将当前相对姿态与当前静态变换进行相乘,获取当前相对姿态与当前静态变换之积。
继而,将当前路标姿态除以当前相对姿态与当前静态变换之积,得到巡检栅格地图中原点到机器人的当前姿态变换。如此经过上述处理,可以得到巡检栅格地图中原点到机器人的当前姿态变换。
S402,将所述当前姿态变换与所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
对于机器人当前时刻的中间姿态,可以将该机器人当前时刻的中间姿态与栅格地图中原点到机器人的当前姿态变换进行联合优化,以得到最终的机器人当前时刻的目标姿态。
其中,在对机器人当前时刻的中间姿态与栅格地图中原点到机器人的当前姿态变换进行联合优化的过程中,可以采用如下路标优化公式,将机器人当前时刻的中间姿态与栅格地图中原点到机器人的当前姿态变换输入至路标优化公式,完成对机器人当前时刻的中间姿态与栅格地图中原点到机器人的当前姿态变换的联合优化,得到最终的机器人当前时刻的目标姿态。
∈2=argmin(α∈1+kTlandmark);
上述∈2包括机器人当前时刻的目标姿态,上述∈1包括机器人当前时刻的中间姿态,上述Tlandmark包括栅格地图中原点到机器人的当前姿态变换。
需要说明的是,对于上述的α、β、k分别为上述机器人当前时刻的初始姿态、机器人姿态、栅格地图中原点到机器人的当前姿态变换的权重,对于α、β为经验值,而对于k的计算方式如下:
k=r*max(distance(Tlandmark,∈1),yaw(Tlandmark,∈1))。
由上述计算公式可知,对于k,即栅格地图中原点到机器人的当前姿态变换的权重,与栅格地图中原点到机器人的当前姿态变换和机器人当前时刻的中间姿态之间的距离或角度偏差成正比,距离越大或方向偏差越大,则权重越大。
此外,在机器人刚开机的情况下,由于所有数据均不准确,此时可以启动重定位过程,即确定机器人视角区域内的路标与图像采集设备之间的当前相对姿态。
在栅格地图中查找与当前相对姿态相匹配的第一栅格,查找第一栅格对应的路标在栅格地图中的当前路标姿态,获取机器人与图像采集设备之间的当前静态变换。
将当前相对姿态与当前静态变换进行相乘,获取当前相对姿态与当前静态变换之积,将当前路标姿态除以当前相对姿态与当前静态变换之积,得到栅格地图中原点到机器人的当前姿态变换,作为初始定位结果。
对于环境中设定(设定方式不限)少量的路标(即landmark),在机器人定位之前,需要先确定landmark在栅格地图中的姿态,即landmark在栅格地图中的路标姿态(相对于栅格地图中原点的姿态),而为了确定landmark在栅格地图中的路标姿态,需要在创建栅格地图过程中实时识别landmark,并计算landmark相对于栅格地图中原点的姿态。
为此,如图5所示,为本发明实施例中提供的一种栅格地图创建的实施流程示意图,可以由机器人执行,具体可以包括以下步骤:
S501,在机器人运动至栅格地图中目标栅格的情况下,调用图像采集设备识别环境中路标,所述目标栅格包括所述栅格地图中任一栅格。
对于环境中的landmark,在机器人运动至栅格地图中目标栅格的情况下,调用图像采集设备识别环境中的langmark,对于目标栅格,可以是栅格地图中任一栅格。
例如,在机器人运动至栅格地图中栅格A的情况下,调用红外相机识别环境中的landmark,具体是识别机器人视角区域内的landmark,其中,landmark中可以携带二维码等,方便识别landmark的ID等信息。
需要说明的是,对于landmark,其携带了二维码等图形码,用于识别其对应的ID等信息,可以方便统计环境中的landmark,本发明实施例对此不作限定。
S502,确定所述路标与所述图像采集设备的相对姿态,利用电磁波设备确定所述栅格地图中原点到所述机器人的姿态变换。
对于识别到的环境中的landmark,可以确定该landmark与图像采集设备的相对姿态,进一步的,利用电磁波设备确定栅格地图中原点到所述机器人的姿态变换。
例如,对于识别到的环境中的landmark,可以确定该landmark与红外相机的相对姿态:Tcl,进一步的,利用激光雷达确定栅格地图中原点到机器人的姿态变换:Tmb。
S503,获取所述机器人与所述图像采集设备之间的静态变换,获取所述相对姿态、所述姿态变换、所述静态变换之积。
对于机器人与图像采集设备之间的静态变换,描述机器人到图像采集设备之间的静态刚性变换,属于预先设置的,获取机器人与图像采集设备之间的静态变换。
将landmark与图像采集设备的相对姿态、栅格地图中原点到机器人的姿态变换、机器人与图像采集设备之间的静态变换等三者进行相乘,获取三者进行相乘得到的结果。
例如,对于landmark与红外相机的相对姿态Tcl,栅格地图中原点到机器人的姿态变换Tmb,机器人与红外相机之间的静态变换Tbc,将上述三者相乘,如下所示,获取三者进行相乘得到的结果Tml。
Tml=Tmb*Thc*TCl。
S504,确定所述目标栅格对应的所述路标在所述栅格地图中的路标姿态为所述相对姿态、所述姿态变换、所述静态变换之积。
对于上述相对姿态、姿态变换、静态变换等三者之积,确定目标栅格对应的路标在栅格地图中的路标姿态(即路标相对于栅格地图中原点的姿态)为三者之积,目标栅格中可以存储路标在栅格地图中的路标姿态(即三者之积)。
经过上述步骤,在机器人运动至栅格地图中任一栅格的情况下,均执行上述步骤S501~S504,如此可以完成栅格地图的构建,且可以输出环境中landmark的ID等信息,组成环境中landmark列表,本发明实施例对此不作限定。
与上述方法实施例相对应,本发明实施例还提供了一种机器人定位装置,如图6所示,该装置可以包括:初始姿态确定模块610、初始姿态优化模块620、中间姿态优化模块630。
初始姿态确定模块610,用于获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态;
初始姿态优化模块620,用于获取所述机器人视角区域对应的点云数据,利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态;
中间姿态优化模块630,用于确定所述机器人视角区域内的路标,利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
本发明实施例还提供了一种机器人,如图7所示,包括处理器71、通信接口72、存储器73和通信总线74,其中,处理器71,通信接口72,存储器73通过通信总线74完成相互间的通信,
存储器73,用于存放计算机程序;
处理器71,用于执行存储器73上所存放的程序时,实现如下步骤:
获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态;获取所述机器人视角区域对应的点云数据,利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态;确定所述机器人视角区域内的路标,利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
上述机器人提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述机器人与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种存储介质,该存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的机器人定位方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的机器人定位方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在存储介质中,或者从一个存储介质向另一个存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (12)

1.一种机器人定位方法,其特征在于,应用于机器人,所述方法包括:
获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态;
获取所述机器人视角区域对应的点云数据,利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态;
确定所述机器人视角区域内的路标,利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
2.根据权利要求1所述的方法,其特征在于,所述利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态,包括:
确定所述路标与图像采集设备的当前相对姿态,基于所述当前相对姿态确定栅格地图中原点到所述机器人的当前姿态变换;
将所述当前姿态变换与所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
3.根据权利要求2所述的方法,其特征在于,所述基于所述当前相对姿态确定栅格地图中原点到所述机器人的当前姿态变换,包括:
在栅格地图中查找所述当前相对姿态相匹配的第一栅格,查找所述第一栅格对应的所述路标在所述栅格地图中的当前路标姿态;
获取所述机器人与所述图像采集设备之间的当前静态变换,以及获取所述当前相对姿态与所述当前静态变换之积;
将所述当前路标姿态除以所述当前相对姿态与所述当前静态变换之积,得到栅格地图中原点到所述机器人的当前姿态变换。
4.根据权利要求2所述的方法,其特征在于,所述将所述当前姿态变换与所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态,包括:
将所述当前姿态变换与所述中间姿态输入路标优化公式,得到所述机器人当前时刻的目标姿态,其中,所述路标优化公式包括:
∈2=argmin(α∈1+kTlandmark);
所述∈2包括所述目标姿态,所述∈1包括所述中间姿态,所述Tlandmark包括所述当前姿态变换。
5.根据权利要求4所述的方法,其特征在于,所述k具体通过以下方式确定:
k=r*max(distance(Tlandmark,∈1),yaw(Tlandmark,∈1))。
6.根据权利要求1所述的方法,其特征在于,所述获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态,包括:
获取机器人的惯性测量单元数据以及编码器数据,并确定所述惯性测量单元数据以及所述编码器数据对应的预设数据融合算法;
利用所述数据融合算法对所述惯性测量单元数据以及所述编码器数据进行融合,确定机器人当前时刻的初始姿态。
7.根据权利要求1所述的方法,其特征在于,所述点云数据由所述机器人调用电磁波设备对机器人视角区域进行电磁波扫描,对扫描所述机器人视角区域产生的回波信号进行处理形成;
所述利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态,包括:
在栅格地图中确定所述初始姿态相匹配的栅格范围,基于CSM在所述栅格范围中查找所述点云数据相匹配的第二栅格;
确定所述第二栅格对应的机器人姿态,将所述机器人姿态与所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态。
8.根据权利要求7所述的方法,其特征在于,所述将所述机器人姿态与所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态,包括:
将所述机器人姿态与所述初始姿态输入至点云优化公式,得到所述机器人当前时刻的中间姿态,其中,所述点云优化公式包括:
∈1=argmin(αTekf+βTcsm);
所述∈1包括所述中间姿态,所述Tekf包括所述初始姿态,所述Tcsm包括所述机器人姿态。
9.根据权利要求2所述的方法,其特征在于,所述栅格地图具体通过以下方式创建:
在机器人运动至栅格地图中目标栅格的情况下,调用图像采集设备识别环境中路标,所述目标栅格包括所述栅格地图中任一栅格;
确定所述路标与所述图像采集设备的相对姿态,利用电磁波设备确定栅格地图中原点到所述机器人的姿态变换;
获取所述机器人与所述图像采集设备之间的静态变换,获取所述相对姿态、所述姿态变换、所述静态变换之积;
确定所述目标栅格对应的所述路标在所述栅格地图中的路标姿态为所述相对姿态、所述姿态变换、所述静态变换之积。
10.一种机器人定位装置,其特征在于,应用于机器人,所述装置包括:
初始姿态确定模块,用于获取机器人的姿态数据,利用预设数据融合算法对所述姿态数据进行融合,确定机器人当前时刻的初始姿态;
初始姿态优化模块,用于获取所述机器人视角区域对应的点云数据,利用所述点云数据对所述初始姿态进行优化,得到所述机器人当前时刻的中间姿态;
中间姿态优化模块,用于确定所述机器人视角区域内的路标,利用所述路标对所述中间姿态进行优化,得到所述机器人当前时刻的目标姿态。
11.一种机器人,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-9中任一所述的方法步骤。
12.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一所述的方法。
CN202110362044.9A 2021-04-02 2021-04-02 机器人定位方法、装置、机器人及存储介质 Active CN113091736B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110362044.9A CN113091736B (zh) 2021-04-02 2021-04-02 机器人定位方法、装置、机器人及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110362044.9A CN113091736B (zh) 2021-04-02 2021-04-02 机器人定位方法、装置、机器人及存储介质

Publications (2)

Publication Number Publication Date
CN113091736A true CN113091736A (zh) 2021-07-09
CN113091736B CN113091736B (zh) 2023-04-07

Family

ID=76673390

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110362044.9A Active CN113091736B (zh) 2021-04-02 2021-04-02 机器人定位方法、装置、机器人及存储介质

Country Status (1)

Country Link
CN (1) CN113091736B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113759928A (zh) * 2021-09-18 2021-12-07 东北大学 用于复杂大尺度室内场景的移动机器人高精度定位方法
WO2024001649A1 (zh) * 2022-06-29 2024-01-04 深圳市海柔创新科技有限公司 机器人定位方法、装置和计算可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106918830A (zh) * 2017-03-23 2017-07-04 安科机器人有限公司 一种基于多导航模块的定位方法及移动机器人
CN108955679A (zh) * 2018-08-16 2018-12-07 电子科技大学 一种变电站智能巡检机器人高精度定位方法
CN109099901A (zh) * 2018-06-26 2018-12-28 苏州路特工智能科技有限公司 基于多源数据融合的全自动压路机定位方法
WO2019062291A1 (zh) * 2017-09-29 2019-04-04 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN109612477A (zh) * 2018-12-18 2019-04-12 盐城工学院 一种综合应用人工路标和栅格地图的移动机器人自主导航方法
US20190278288A1 (en) * 2018-03-08 2019-09-12 Ubtech Robotics Corp Simultaneous localization and mapping methods of mobile robot in motion area
CN111383261A (zh) * 2018-12-27 2020-07-07 浙江舜宇智能光学技术有限公司 移动机器人、及其位姿估计方法和位姿估计装置
CN111982099A (zh) * 2019-05-21 2020-11-24 顺丰科技有限公司 机器人混合定位方法、装置、设备及计算机可读介质
WO2020253854A1 (zh) * 2019-06-21 2020-12-24 台州知通科技有限公司 移动机器人姿态角解算方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106918830A (zh) * 2017-03-23 2017-07-04 安科机器人有限公司 一种基于多导航模块的定位方法及移动机器人
WO2019062291A1 (zh) * 2017-09-29 2019-04-04 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
US20190278288A1 (en) * 2018-03-08 2019-09-12 Ubtech Robotics Corp Simultaneous localization and mapping methods of mobile robot in motion area
CN109099901A (zh) * 2018-06-26 2018-12-28 苏州路特工智能科技有限公司 基于多源数据融合的全自动压路机定位方法
CN108955679A (zh) * 2018-08-16 2018-12-07 电子科技大学 一种变电站智能巡检机器人高精度定位方法
CN109612477A (zh) * 2018-12-18 2019-04-12 盐城工学院 一种综合应用人工路标和栅格地图的移动机器人自主导航方法
CN111383261A (zh) * 2018-12-27 2020-07-07 浙江舜宇智能光学技术有限公司 移动机器人、及其位姿估计方法和位姿估计装置
CN111982099A (zh) * 2019-05-21 2020-11-24 顺丰科技有限公司 机器人混合定位方法、装置、设备及计算机可读介质
WO2020253854A1 (zh) * 2019-06-21 2020-12-24 台州知通科技有限公司 移动机器人姿态角解算方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
贺利乐等: "未知环境下履带式移动机器人SLAM研究", 《传感器与微系统》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113759928A (zh) * 2021-09-18 2021-12-07 东北大学 用于复杂大尺度室内场景的移动机器人高精度定位方法
WO2024001649A1 (zh) * 2022-06-29 2024-01-04 深圳市海柔创新科技有限公司 机器人定位方法、装置和计算可读存储介质

Also Published As

Publication number Publication date
CN113091736B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
US20220028163A1 (en) Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images
Yousif et al. An overview to visual odometry and visual SLAM: Applications to mobile robotics
US20180174038A1 (en) Simultaneous localization and mapping with reinforcement learning
CN109946680B (zh) 探测系统的外参数标定方法、装置、存储介质及标定系统
TW202143100A (zh) 圖像處理方法、電子設備及電腦可讀儲存介質
KR102212825B1 (ko) 이미지를 기반으로 포즈 계산을 위한 지도의 최신성을 유지하는 방법 및 시스템
CN113091736B (zh) 机器人定位方法、装置、机器人及存储介质
CN110986969B (zh) 地图融合方法及装置、设备、存储介质
US11651552B2 (en) Systems and methods for fine adjustment of roof models
CN114111774B (zh) 车辆的定位方法、系统、设备及计算机可读存储介质
CN110895408A (zh) 一种自主定位方法、装置及移动机器人
JP7351892B2 (ja) 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム
Jelinek et al. Fast total least squares vectorization
Li et al. A novel edge-enabled SLAM solution using projected depth image information
CN115239776B (zh) 点云的配准方法、装置、设备和介质
TWM637241U (zh) 運算裝置及模型產生系統
CN116295466A (zh) 地图生成方法、装置、电子设备、存储介质、及车辆
CN115578432A (zh) 图像处理方法、装置、电子设备及存储介质
Pichaimani et al. RETRACTED ARTICLE: Positioning of WiFi devices for indoor floor planning using principal featured Kohonen deep structure
Merras et al. Camera self-calibration with varying parameters based on planes basis using particle swarm optimization
Li et al. High-accuracy robust SLAM and real-time autonomous navigation of UAV in GNSS-denied environments
CN114323020B (zh) 车辆的定位方法、系统、设备及计算机可读存储介质
SHI et al. Local Scenario Perception and Web AR Navigation
Vokhmintsev et al. Development of a method for constructing a 3D accurate map of the surrounding environment
CN117629186A (zh) 地图构建方法、模型训练方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 601, 6 / F, building 2, No. 18, Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant after: Jingdong Technology Information Technology Co.,Ltd.

Address before: 601, 6 / F, building 2, No. 18, Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant before: Jingdong Shuke Haiyi Information Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant