CN117990081A - 机器人导航方法、装置及介质 - Google Patents
机器人导航方法、装置及介质 Download PDFInfo
- Publication number
- CN117990081A CN117990081A CN202211346920.XA CN202211346920A CN117990081A CN 117990081 A CN117990081 A CN 117990081A CN 202211346920 A CN202211346920 A CN 202211346920A CN 117990081 A CN117990081 A CN 117990081A
- Authority
- CN
- China
- Prior art keywords
- navigation
- data
- core
- area
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000004927 fusion Effects 0.000 claims abstract description 29
- 238000003384 imaging method Methods 0.000 claims description 28
- 238000001514 detection method Methods 0.000 claims description 15
- 238000005265 energy consumption Methods 0.000 abstract description 5
- 230000003068 static effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及机器人导航领域,公开了一种机器人导航方法、装置及介质,其方法包括:加载机器人的多个导航区域;获取与各个导航区域对应的传感数据;至少一个导航区域所对应的传感数据的类型数量大于一;根据各个传感数据生成各自导航区域的区域导航数据;根据区域导航数据生成机器人的目标导航数据。本发明可以降低多传感器融合的高耗能,同时保证控制的精准性。
Description
技术领域
本发明涉及机器人导航领域,尤其涉及一种机器人导航方法、装置及存储介质。
背景技术
多传感融合技术在机器人、无人驾驶、工业控制、交通管理等领域广泛应用。
多传感融合技术可分为原始数据融合、特征数据融合和决策数据融合三种。其中,原始数据级融合往往要求传感器在共有的视场内数据是相称的,或者能转换为相称的数据格式,比如全向激光雷达和前向激光雷达在前向视场范围内进行原始数据级融合。特征数据融合不要求数据相称,来自两个或两个以上传感器提取的特征数据在共有的视场范围内被组合成一个向量,用于机器的决策和控制。决策数据融合非常灵活,既不要求数据相称,也不要求在共有的视场范围内进行融合,其融合结果输出用于机器的控制。
近年来快速发展的深度学习算法,大大推动了多传感融合技术的发展。深度学习算法虽然具备更精准的判断能力,却需要消耗大量的计算资源,加剧机器人的能量消耗。
发明内容
基于此,有必要针对上述技术问题,提供一种机器人导航方法、装置、计算机设备及存储介质,以降低多传感器融合的高耗能,同时保证控制的精准性。
一种机器人导航方法,包括:
加载机器人的多个导航区域;
获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一;
根据各个所述传感数据生成各自导航区域的区域导航数据;
根据所述区域导航数据生成所述机器人的目标导航数据。
一种机器人导航装置,包括:
加载导航区域模块,用于加载机器人的多个导航区域;
获取传感数据模块,用于获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一;
生成区域导航数据,用于根据各个所述传感数据生成各自导航区域的区域导航数据;
生成目标导航数据模块,用于根据所述区域导航数据生成所述机器人的目标导航数据。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令时实现上述机器人导航方法。
一个或多个存储有计算机可读指令的可读存储介质,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器执行如上述机器人导航方法。
上述机器人导航方法、装置、计算机设备及存储介质,通过加载机器人的多个导航区域,以将机器人的周边空间划分为多个导航区域,降低导航数据的处理量。获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一,在此处,不同导航区域获取不同的传感数据,可以根据导航区域重要程度的差异增加传感数据的类型数量。根据各个所述传感数据生成各自导航区域的区域导航数据,在此处,各个区域导航数据单独计算,大大降低难度。根据所述区域导航数据生成所述机器人的目标导航数据,在此处,综合各个区域导航数据,可以确保目标导航数据的准确性。本发明划分出多个导航区域分区处理传感数据,对于重要性较低的导航区域,减少传感数据的类型数量,大大减少计算量,对于重要性较高的导航区域,使用较多种传感数据,但只处理该区域内的传感数据,同样可以减少计算量,最后综合各个区域导航数据获得目标导航数据,可以保证控制的精准性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中机器人导航方法的一流程示意图;
图2是本发明一实施例中导航区域的划分示意图;
图3是本发明一实施例中机器人导航装置的一结构示意图;
图4是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在一实施例中,如图1所示,提供一种机器人导航方法,包括如下步骤S10-S40。
S10、加载机器人的多个导航区域。
可理解地,本实施例提供的方法可用于机器人的导航,也可用于其他可移动设备的导航,如无人小车等。如图2所示,机器人可以预先划分出多个导航区域,如核心区S3、次核心区S2和动态调整区S1(图2中表示为非核心区)。在一些示例中,机器人的导航区域还包括静态调整区Sout(未图示)。静态调整区Sout可以指动态窗口SDWA以外的区域。
S20、获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一。
可理解地,可以获取各个导航区域对应的传感数据。在此处,由于使用了多种传感器,因而,存在多种类型的传感数据。不同导航区域,其对应的传感数据的类型数量是不同。例如,核心区S3对应的传感数据包括核心激光扫描数据、核心深度成像数据和核心超声数据;次核心区S2对应的传感数据包括核心激光扫描数据和核心深度成像数据;动态调整区S1对应的传感数据包括核心激光扫描数据。静态调整区Sout用于全局路径规划,可以不使用传感数据。换句话说,与静态调整区Sout对应的传感数据可以为空集。
S30、根据各个所述传感数据生成各自导航区域的区域导航数据。
可理解地,可以根据各个导航区域的传感数据生成各自的区域导航数据。例如,可以根据与动态调整区对应的第一传感数据生成动态调整区的第一区域导航数据;可以根据与次核心区对应的第二传感数据生成次核心区的第二区域导航数据。以此类推,可以计算出核心区的第三区域导航数据。
S40、根据所述区域导航数据生成所述机器人的目标导航数据。
可理解地,可以根据各个区域导航数据生成机器人的目标导航数据。由于各个区域导航数据代表不同区域的导航区域,因而,可以合并各个区域导航数据,综合分析,形成机器人的目标导航数据。在一些示例中,目标导航数据可以是机器人的最优行走路径。
步骤S10-S40中,加载机器人的多个导航区域,以将机器人的周边空间划分为多个导航区域,降低导航数据的处理量。获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一,在此处,不同导航区域获取不同的传感数据,可以根据导航区域重要程度的差异增加传感数据的类型数量。根据各个所述传感数据生成各自导航区域的区域导航数据,在此处,各个区域导航数据单独计算,大大降低难度。根据所述区域导航数据生成所述机器人的目标导航数据,在此处,综合各个区域导航数据,可以确保目标导航数据的准确性。本实施例划分出多个导航区域分区处理传感数据,对于重要性较低的导航区域,减少传感数据的类型数量,大大减少计算量,对于重要性较高的导航区域,使用较多种传感数据,但只处理该区域内的传感数据,同样可以减少计算量,最后综合各个区域导航数据获得目标导航数据,可以保证控制的精准性。
可选地,步骤S10,即所述加载机器人的多个导航区域之前,包括:
S11、获取与所述机器人关联的多个传感器的检测范围;
S12、根据所述检测范围设置所述多个导航区域。
可理解地,可以设置多个与机器人关联的传感器,如深度相机、激光雷达和超声波传感器等。这些传感器可安装在机器人上,也可以安装在机器人的工作环境(机器人之外)中。超声波传感器仅有一维的有效数据,通常不能作为主传感器。和深度相机相比,激光雷达精度更高,几乎不受自然光线的影响,可用作主传感器。深度相机可以复用,用于人机交互,比如3D视觉交互等。
每个传感器都有自己的检测范围。如图2所示,激光雷达的检测范围为SL,超声波传感器的检测范围为SS,深度相机的检测范围为SD。
在划分导航区域时,可以考虑机器人易于旋转的特性、导航区域与前进方向重要性关系的特性以及传感器参数特性,目的是合理使用传感器数量,提升机器人对环境的感知能力。
在一示例中,利用深度相机、激光雷达、超声波传感器的水平视场区域以及动态窗口的窗口大小将机器人周围环境划分为4个区域:静态调整区Sout、动态调整区S1、次核心区S2及核心区S3。Sout是动态窗口SDWA外区域,S1=SL∩SDWA-S2+S1,S2=SD∩SDWA-S1,S3=Ss∩Sd/2,其中Sd/2是Ss扇形区域对应的角度半径为d/2的扇形区域。
本实施中,根据传感器的实际功能划分导航区域,可以有效利用传感器的性能,提高导航精度,减少对高精度传感器的依赖性,降低设备成本。
可选地,所述多个导航区域包括动态调整区;
步骤S20,即所述获取与各个所述导航区域对应的传感数据,包括:
S201、通过激光雷达获取与所述动态调整区对应的第一传感数据。
可理解地,对于动态调整区,由于其处于次核心区之外,重要性较低。因而,只需要采集激光扫描数据作为动态调整区的第一传感数据,然后再根据第一传感器生成动态调整区的第一导航区域数据。
本实施例中,动态调整区只采集激光雷达的激光扫描数据,可以降低数据的处理难度,减少数据处理量。
可选地,所述多个导航区域包括次核心区;
步骤S20,即所述获取与各个所述导航区域对应的传感数据,包括:
S202、通过激光雷达获取所述次核心区的次核心激光扫描数据;
S203、通过深度相机获取所述次核心区的次核心深度成像数据;
S204、根据所述次核心激光扫描数据和所述次核心深度成像数据生成与所述次核心区对应的第二传感数据。
可理解地,对于次核心区,其重要性较高。因而,选用次核心激光扫描数据和次核心深度成像数据作为第二传感数据,以增加导航精度。
本实施例中,次核心区选用次核心激光扫描数据和次核心深度成像数据,在保证导航精度的同时,减少数据处理量。
可选地,步骤S30,即所述根据各个所述传感数据生成各自导航区域的区域导航数据,包括:
S301、对所述次核心激光扫描数据和所述次核心深度成像数据进行特征级融合,生成所述次核心区的第二区域导航数据。
可理解地,可以对次核心激光扫描数据和次核心深度成像数据进行特征级融合,生成次核心区的第二区域导航数据。特征级融合适合环境结构较为复杂的场景,能适应复杂环境,精度更高。
本实施例通过特征级融合,可以确保次核心区的导航精度,同时,由于仅对次核心区的第二传感数据进行特征级融合,可以减少数据处理量。
可选地,所述多个导航区域包括核心区;
步骤S20,即所述获取与各个所述导航区域对应的传感数据,包括:
S205、通过激光雷达获取所述核心区的核心激光扫描数据;
S206、通过深度相机获取所述核心区的核心深度成像数据;
S207、通过超声波传感器获取所述核心区的核心超声数据;
S208、根据所述核心激光扫描数据、所述核心深度成像数据和所述核心超声数据生成与所述核心区对应的第三传感数据。
可理解地,对于核心区,其重要性高。因而,选用核心激光扫描数据、核心深度成像数据和核心超声数据作为第三传感数据,以确保导航精度。
本实施例中,核心区选用核心激光扫描数据、核心深度成像数据和核心超声数据,可以保证核心区的导航精度。
可选地,步骤S30,即所述根据各个所述传感数据生成各自导航区域的区域导航数据,包括:
S302、获取所述核心激光扫描数据的第一核心判断结果;
S303、获取所述核心深度成像数据的第二核心判断结果;
S304、获取所述核心超声数据的第三核心判断结果;
S305、对所述第一核心判断结果、第二核心判断结果和第三核心判断结果进行决策融合,生成所述核心区的第三区域导航数据。
可理解地,在此处,可以通过决策融合生成第三区域导航数据。决策融合适合环境结构较为单一的场景,算法简单,资源消耗也相对较少。
本实施例使用更多种传感数据,通过决策融合,可以确保核心区的导航精度,减少数据处理量。
可选地,步骤S20之前,即所述获取与各个所述导航区域对应的传感数据之前,还包括:
S21、检测所述机器人的运动环境;
S22、若所述运动环境满足预设简化要求,则减少所述传感数据的类型数量。
可理解地,机器人的运动环境包括机器人自身的运动状态,以及外在环境结构。预设简化要求可以根据实际需要进行设置,如可以是:1、处于相对静止状态;2、处于低速移动状态;3外部环境结构简单。当运动环境满足预设简化要求时,单一的激光雷达可以满足导航需求,此时可以关闭超声波传感器和/或深度相机,减少能量消耗。
本实施例通过运动环境的智能检测,可以有效降低机器人的能量消耗。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种机器人导航装置,该机器人导航装置与上述实施例中机器人导航方法一一对应。如图3所示,该机器人导航装置包括加载导航区域模块10、获取传感数据模块20、生成区域导航数据30和生成目标导航数据模块40。各功能模块详细说明如下:
加载导航区域模块10,用于加载机器人的多个导航区域;
获取传感数据模块20,用于获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一;
生成区域导航数据30,用于根据各个所述传感数据生成各自导航区域的区域导航数据;
生成目标导航数据模块40,用于根据所述区域导航数据生成所述机器人的目标导航数据。
可选地,机器人导航装置还包括:
获取检测范围模块,用于获取与所述机器人关联的多个传感器的检测范围;
设置导航区域模块,用于根据所述检测范围设置所述多个导航区域。
可选地,所述多个导航区域包括动态调整区;
获取传感数据模块20包括:
获取第一传感数据单元,用于通过激光雷达获取与所述动态调整区对应的第一传感数据。
可选地,所述多个导航区域包括次核心区;
获取传感数据模块20包括:
获取次核心激光扫描数据单元,用于通过激光雷达获取所述次核心区的次核心激光扫描数据;
获取次核心深度成像数据单元,用于通过深度相机获取所述次核心区的次核心深度成像数据;
获取第二传感数据单元,用于根据所述次核心激光扫描数据和所述次核心深度成像数据生成与所述次核心区对应的第二传感数据。
可选地,生成区域导航数据30包括:
特征融合单元,用于对所述次核心激光扫描数据和所述次核心深度成像数据进行特征级融合,生成所述次核心区的第二区域导航数据。
可选地,所述多个导航区域包括核心区;
获取传感数据模块20包括:
获取核心激光扫描数据单元,用于通过激光雷达获取所述核心区的核心激光扫描数据;
获取核心深度成像数据单元,用于通过深度相机获取所述核心区的核心深度成像数据;
获取核心超声数据单元,用于通过超声波传感器获取所述核心区的核心超声数据;
获取第三传感数据单元,用于根据所述核心激光扫描数据、所述核心深度成像数据和所述核心超声数据生成与所述核心区对应的第三传感数据。
可选地,生成区域导航数据30包括:
第一判断单元,用于获取所述核心激光扫描数据的第一核心判断结果;
第二判断单元,用于获取所述核心深度成像数据的第二核心判断结果;
第三判断单元,用于获取所述核心超声数据的第三核心判断结果;
决策融合单元,用于对所述第一核心判断结果、第二核心判断结果和第三核心判断结果进行决策融合,生成所述核心区的第三区域导航数据。
可选地,机器人导航装置还包括:
检测运动环境模块,用于检测所述机器人的运动环境;
减少传感器模块,用于若所述运动环境满足预设简化要求,则减少所述传感数据的类型数量。
关于机器人导航装置的具体限定可以参见上文中对于机器人导航方法的限定,在此不再赘述。上述机器人导航装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括可读存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机可读指令。该内存储器为可读存储介质中的操作系统和计算机可读指令的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机可读指令被处理器执行时以实现一种机器人导航方法。本实施例所提供的可读存储介质包括非易失性可读存储介质和易失性可读存储介质。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机可读指令,处理器执行计算机可读指令时实现以下步骤:
加载机器人的多个导航区域;
获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一;
根据各个所述传感数据生成各自导航区域的区域导航数据;
根据所述区域导航数据生成所述机器人的目标导航数据。
在一个实施例中,提供了一个或多个存储有计算机可读指令的计算机可读存储介质,本实施例所提供的可读存储介质包括非易失性可读存储介质和易失性可读存储介质。可读存储介质上存储有计算机可读指令,计算机可读指令被一个或多个处理器执行时实现以下步骤:
加载机器人的多个导航区域;
获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一;
根据各个所述传感数据生成各自导航区域的区域导航数据;
根据所述区域导航数据生成所述机器人的目标导航数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一非易失性可读取存储介质或易失性可读存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种机器人导航方法,其特征在于,包括:
加载机器人的多个导航区域;
获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一;
根据各个所述传感数据生成各自导航区域的区域导航数据;
根据所述区域导航数据生成所述机器人的目标导航数据。
2.如权利要求1所述的机器人导航方法,其特征在于,所述加载机器人的多个导航区域之前,包括:
获取与所述机器人关联的多个传感器的检测范围;
根据所述检测范围设置所述多个导航区域。
3.如权利要求1所述的机器人导航方法,其特征在于,所述多个导航区域包括动态调整区;
所述获取与各个所述导航区域对应的传感数据,包括:
通过激光雷达获取与所述动态调整区对应的第一传感数据。
4.如权利要求1所述的机器人导航方法,其特征在于,所述多个导航区域包括次核心区;
所述获取与各个所述导航区域对应的传感数据,包括:
通过激光雷达获取所述次核心区的次核心激光扫描数据;
通过深度相机获取所述次核心区的次核心深度成像数据;
根据所述次核心激光扫描数据和所述次核心深度成像数据生成与所述次核心区对应的第二传感数据。
5.如权利要求4所述的机器人导航方法,其特征在于,所述根据各个所述传感数据生成各自导航区域的区域导航数据,包括:
对所述次核心激光扫描数据和所述次核心深度成像数据进行特征级融合,生成所述次核心区的第二区域导航数据。
6.如权利要求1所述的机器人导航方法,其特征在于,所述多个导航区域包括核心区;
所述获取与各个所述导航区域对应的传感数据,包括:
通过激光雷达获取所述核心区的核心激光扫描数据;
通过深度相机获取所述核心区的核心深度成像数据;
通过超声波传感器获取所述核心区的核心超声数据;
根据所述核心激光扫描数据、所述核心深度成像数据和所述核心超声数据生成与所述核心区对应的第三传感数据。
7.如权利要求6所述的机器人导航方法,其特征在于,所述根据各个所述传感数据生成各自导航区域的区域导航数据,包括:
获取所述核心激光扫描数据的第一核心判断结果;
获取所述核心深度成像数据的第二核心判断结果;
获取所述核心超声数据的第三核心判断结果;
对所述第一核心判断结果、第二核心判断结果和第三核心判断结果进行决策融合,生成所述核心区的第三区域导航数据。
8.如权利要求1所述的机器人导航方法,其特征在于,所述获取与各个所述导航区域对应的传感数据之前,还包括:
检测所述机器人的运动环境;
若所述运动环境满足预设简化要求,则减少所述传感数据的类型数量。
9.一种机器人导航装置,其特征在于,包括:
加载导航区域模块,用于加载机器人的多个导航区域;
获取传感数据模块,用于获取与各个所述导航区域对应的传感数据;至少一个所述导航区域所对应的传感数据的类型数量大于一;
生成区域导航数据,用于根据各个所述传感数据生成各自导航区域的区域导航数据;
生成目标导航数据模块,用于根据所述区域导航数据生成所述机器人的目标导航数据。
10.一个或多个存储有计算机可读指令的可读存储介质,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器执行如权利要求1至8中任一项所述机器人导航方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211346920.XA CN117990081A (zh) | 2022-10-31 | 2022-10-31 | 机器人导航方法、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211346920.XA CN117990081A (zh) | 2022-10-31 | 2022-10-31 | 机器人导航方法、装置及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117990081A true CN117990081A (zh) | 2024-05-07 |
Family
ID=90889520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211346920.XA Pending CN117990081A (zh) | 2022-10-31 | 2022-10-31 | 机器人导航方法、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117990081A (zh) |
-
2022
- 2022-10-31 CN CN202211346920.XA patent/CN117990081A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10748061B2 (en) | Simultaneous localization and mapping with reinforcement learning | |
CN111797650B (zh) | 障碍物的识别方法、装置、计算机设备和存储介质 | |
KR102610820B1 (ko) | 뉴럴 네트워크 시스템 및 뉴럴 네트워크 시스템의 동작방법 | |
EP3929625A2 (en) | High-precision mapping method and device | |
CN111337947A (zh) | 即时建图与定位方法、装置、系统及存储介质 | |
CN112633152B (zh) | 停车位检测方法、装置、计算机设备和存储介质 | |
KR20210040005A (ko) | 포지셔닝 방법, 포지셔닝 장치 및 전자 기기 | |
CN108367436B (zh) | 针对三维空间中的对象位置和范围的主动相机移动确定 | |
CN113887400B (zh) | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 | |
CN112171675B (zh) | 一种移动机器人的避障方法、装置、机器人及存储介质 | |
US11501123B2 (en) | Method and apparatus for asynchronous data fusion, storage medium and electronic device | |
CN114677588A (zh) | 障碍物检测的方法、装置、机器人和存储介质 | |
CN115014328A (zh) | 一种栅格地图的动态加载方法、装置、设备和介质 | |
CN111242118B (zh) | 目标检测方法、装置、计算机设备和存储介质 | |
CN111288971A (zh) | 一种视觉定位方法及装置 | |
KR20200076628A (ko) | 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스 | |
JP2024502523A (ja) | 位置特定方法および装置、コンピュータ装置、ならびにコンピュータ可読ストレージ媒体 | |
CN117990081A (zh) | 机器人导航方法、装置及介质 | |
JP7463463B2 (ja) | 作業地形検出方法、装置及び作業地形を検出するための工事機器 | |
CN110824496A (zh) | 运动估计方法、装置、计算机设备和存储介质 | |
US11593597B2 (en) | Object detection in vehicles using cross-modality sensors | |
CN112433193B (zh) | 一种基于多传感器的模位置定位方法及系统 | |
CN114820973A (zh) | 代价地图生成方法、装置、计算机设备和存储介质 | |
CN113643359A (zh) | 一种目标对象定位方法、装置、设备及存储介质 | |
CN114510031A (zh) | 机器人视觉导航方法、装置、机器人及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |