CN116299429A - 地图更新方法、装置、机器人及电子设备 - Google Patents
地图更新方法、装置、机器人及电子设备 Download PDFInfo
- Publication number
- CN116299429A CN116299429A CN202310067146.7A CN202310067146A CN116299429A CN 116299429 A CN116299429 A CN 116299429A CN 202310067146 A CN202310067146 A CN 202310067146A CN 116299429 A CN116299429 A CN 116299429A
- Authority
- CN
- China
- Prior art keywords
- depth map
- map
- depth
- dynamic region
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000010586 diagram Methods 0.000 claims description 26
- 230000003068 static effect Effects 0.000 claims description 20
- 230000007704 transition Effects 0.000 claims description 14
- 238000010276 construction Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 16
- 230000000694 effects Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/881—Radar or analogous systems specially adapted for specific applications for robotics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请涉及一种地图更新方法、装置、机器人及电子设备,涉及地图构建技术领域,该地图更新方法包括获取第一深度图;获取第二深度图;根据第一深度图和第二深度图,得到当前帧点云的目标动态区域;将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像。本申请实施例提供的地图更新方法、装置、机器人及电子设备,其可以减少机器人的CPU占用率,减少运算时间,提高工作效率。
Description
技术领域
本申请涉及地图构建技术领域,具体涉及一种地图更新方法、装置、机器人及电子设备。
背景技术
在SLAM(即时定位与建图)的过程中,通常会遇到动态物体的干扰,这些动态物体会在点云地图中形成残影,影响建图后的效果。现有技术中,通常将语义分析与SLAM进行有效融合,增强机器对环境的理解能力,然后基于语义分析对动态目标进行滤除,但是语义分析的算法复杂,在同时运行语义分析和SLAM时,机器人的CPU占用率较高,运算时间较长,工作效率较低。
发明内容
为了解决上述技术问题,本申请的实施例提供了一种地图更新方法、装置、机器人及电子设备,其可以减少机器人的CPU占用率,减少运算时间,提高工作效率。
第一方面,提供了一种地图更新方法,包括:
获取第一深度图;其中,所述第一深度图表征预设地图的场景中每个点离雷达的距离的示意图;
获取第二深度图;其中,所述第二深度图表征当前帧点云中每个点离所述雷达的距离的示意图;
根据所述第一深度图和所述第二深度图,得到所述当前帧点云的目标动态区域;
将所述预设地图中与所述目标动态区域对应的部分更新为所述目标动态区域的当前帧图像。
根据本申请的第一方面,所述获取第一深度图包括:
获取所述雷达在所述预设地图中的位姿信息;
根据所述位姿信息,对所述预设地图进行投影,得到所述第一深度图。
根据本申请的第一方面,所述获取第二深度图包括:
获取所述当前帧点云;
对所述当前帧点云进行投影,得到所述第二深度图。
根据本申请的第一方面,所述根据所述第一深度图和所述第二深度图,得到所述当前帧点云的目标动态区域包括:
根据所述第一深度图和所述第二深度图,在所述第二深度图中划分出初始动态区域;
根据所述初始动态区域,得到所述当前帧点云中的所述目标动态区域。
根据本申请的第一方面,所述根据所述第一深度图和所述第二深度图,在所述第二深度图中划分出初始动态区域包括:
根据所述第一深度图和所述第二深度图,得到所述第一深度图和所述第二深度图中对应部分之间的深度值之差;
根据所述深度值之差,在所述第二深度图中划分出所述初始动态区域和初始静态区域。
根据本申请的第一方面,所述根据所述深度值之差,在所述第二深度图中划分出所述初始动态区域和静态区域包括:
若所述深度值之差大于或者等于预设阈值,则将所述第二深度图的对应部分标记为所述初始动态区域;
若所述深度值之差小于所述预设阈值,则将所述第二深度图的对应部分标记为所述初始静态区域。
根据本申请的第一方面,所述根据所述第一深度图和所述第二深度图,得到所述第一深度图和所述第二深度图中对应部分之间的深度值之差包括:
以预设分辨率比对所述第一深度图和所述第二深度图,得到所述第一深度图和所述第二深度图中对应部分之间的深度值之差。
根据本申请的第一方面,所述根据所述初始动态区域,得到所述当前帧点云中的所述目标动态区域包括:
在所述初始动态区域内,进行区域生长,在所述第二深度图中得到过渡动态区域;
根据所述过渡动态区域,得到所述当前帧点云中与所述过渡动态区域对应的所述目标动态区域。
第二方面,还提供了一种地图更新装置,包括:
第一获取模块,配置为获取第一深度图;其中,所述第一深度图表征预设地图的场景中每个点离雷达的距离的示意图;
第二获取模块,配置为获取第二深度图;其中,所述第二深度图表征当前帧点云中每个点离所述雷达的距离的示意图;
第一划分模块,配置为根据所述第一深度图和所述第二深度图,得到所述当前帧点云的目标动态区域;
更新模块,配置为将所述预设地图中与所述目标动态区域对应的部分更新为所述目标动态区域的当前帧图像。
第三方面,还提供了一种机器人,包括:
机体;
如前所述的地图更新装置,所述地图更新装置设于所述机体上。
第四方面,还提供了一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器用于运行所述可执行指令以实现如前所述的地图更新方法。
本申请实施例提供的地图更新方法、装置、机器人及电子设备,其通过获取第一深度图和第二深度图,然后根据第一深度图和第二深度图,得到当前帧点云的目标动态区域,并将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像;第一方面,其通过对第一深度图和第二深度图进行比对,可以得到当前帧点云的目标动态区域,识别出当前帧点云中的动态目标,运算过程简单,该地图更新方法和SLAM同时运行时,机器人的CPU占用率较低,运算耗时较短,可以有效地提高工作效率;第二方面,相比于语义分析直接将动态目标滤除的方式,将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像后,可以保留动态目标的历史信息,从而可以实现实时更新可见区域内动态目标的状态的作用。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为本申请一示例性实施例提供的地图更新方法的流程示意图。
图2为本申请一示例性实施例提供的获取第一深度图的流程示意图。
图3为本申请一示例性实施例提供的获取第二深度图的流程示意图。
图4为本申请一示例性实施例提供的根据第一深度图和第二深度图,得到当前帧点云的目标动态区域的流程示意图。
图5为本申请一示例性实施例提供的根据第一深度图和第二深度图,在第二深度图中划分出初始动态区域的结构示意图。
图6为本申请另一示例性实施例提供的根据第一深度图和第二深度图,在第二深度图中划分出初始动态区域的结构示意图。
图7为本申请另一示例性实施例提供的根据第一深度图和第二深度图,在第二深度图中划分出初始动态区域的结构示意图。
图8为本申请一示例性实施例提供的根据初始动态区域,得到当前帧点云中的目标动态区域的流程示意图。
图9为本申请一示例性实施例提供的地图更新装置的结构框图。
图10为本申请另一示例性实施例提供的地图更新装置的结构框图。
图11为本申请一示例性实施例提供的机器人的结构框图。
图12为本申请一示例性实施例提供的电子设备的结构框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
图1为本申请一示例性实施例提供的地图更新方法的流程示意图。如图1所示,本申请实施例提供的地图更新方法可以包括:
S210:获取第一深度图。
具体地,第一深度图可以理解为预设地图的场景中每个点离雷达的距离的示意图。
需要说明的是,机器人在执行地图更新方法之前,对周边场景进行预构建的底图可以理解为前述的预设地图。预设地图可以包括周边场景的初始图像。
需要说明的是,前述的雷达设置在机器人上,在构建预设地图时,可以利用雷达获取周边场景的点云,生成预设地图。
S220:获取第二深度图。
具体地,在执行该地图更新方法的过程中,可以开启雷达,扫描周边场景,得到当前帧点云,根据当前帧点云可以得到第二深度图。第二深度图则可以理解为当前帧点云中每个点离雷达的距离的示意图。
S230:根据第一深度图和第二深度图,得到当前帧点云的目标动态区域。
具体地,对比第一深度图和第二深度图中对应点的深度信息(与雷达之间的距离信息)之差,可以在当前帧点云中确认处于静止状态的部分点云和处于运动状态的部分点云,根据处于运动状态的部分点云所在的位置,可以在当前帧点云中划分得到当前帧点云的目标动态区域。第一深度图和第二深度图中对应点的深度信息的比对过程后文进行详细介绍。
应当理解的是,通过对第一深度图和第二深度图进行比对,即可以得到当前帧点云的目标动态区域,识别出当前帧点云中的动态目标,运算过程简单,该地图更新方法和SLAM同时运行时,机器人的CPU占用率较低,运算耗时较短,可以有效地提高工作效率。
S240:将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像。
具体地,由于当前帧点云属于的场景与预设地图构建时的场景相互对应,因此,在得到当前帧点云的目标动态区域之后,根据目标动态区域对应的位置,可以确认预设地图中与目标动态区域对应的部分,然后可以将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像,这样,可以将动态目标变化的历史信息保留下来,便于后续调用查看。应当理解的是,相比于语义分析直接将动态目标滤除的方式,执行步骤S240后,还可以保留动态目标的历史信息,从而可以实现实时更新可见区域内动态目标的状态的作用。
本申请实施例提供的地图更新方法,其通过获取第一深度图和第二深度图,然后根据第一深度图和第二深度图,得到当前帧点云的目标动态区域,并将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像;第一方面,其通过对第一深度图和第二深度图进行比对,可以得到当前帧点云的目标动态区域,识别出当前帧点云中的动态目标,运算过程简单,该地图更新方法和SLAM同时运行时,机器人的CPU占用率较低,运算耗时较短,可以有效地提高工作效率;第二方面,相比于语义分析直接将动态目标滤除的方式,将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像后,可以保留动态目标的历史信息,从而可以实现实时更新可见区域内动态目标的状态的作用。
图2为本申请一示例性实施例提供的获取第一深度图的流程示意图。如图2所示,步骤S210可以包括:
S211:获取雷达在预设地图中的位姿信息。
具体地,雷达在预设地图中的位姿信息可以理解为雷达在预设地图的坐标系中的定位坐标。
应当理解的是,在机器人执行该地图更新方法的过程中,机器人处于移动的状态,雷达跟随机器人移动,那么雷达与周边场景之间的相对位置会发生变化,因此,雷达在预设地图中的位姿信息发生变化。
在一实施例中,可以应用fastlio2、lio-sam等算法计算得到雷达在不同时刻在预设地图中的位姿信息。
S212:根据位姿信息,对预设地图进行投影,得到第一深度图。
具体地,根据位姿信息,确定雷达在预设地图中的坐标后,然后对预设地图进行投影运算,得到第一深度图。
在一实施例中,第一深度图可以通过二维矩阵进行表示,矩阵的列代表不同点相对于原点在水平方向的角度,水平方向角度的范围为0-360°,矩阵的行代表不同点相对于原点在竖直方向的角度,竖直方向角度的范围与雷达的视场角的范围相同,矩阵中每个元素则可以表征对应点的深度信息(对应点与雷达之间的距离信息)。
需要说明的是,预设地图的投影过程可以理解为将预设地图的点云在笛卡尔坐标系中的坐标转化为在球面坐标系中的坐标的过程,然后通过点云在球面坐标系中的坐标可以得到对应深度信息。具体的投影算法在相关技术中均有涉及,这里不再赘述。
图3为本申请一示例性实施例提供的获取第二深度图的流程示意图。如图3所示,步骤S220可以包括:
S221:获取当前帧点云。
具体地,雷达在机器人移动的过程中,可以对周边场景进行扫描,得到当前帧点云。
S222:对当前帧点云进行投影,得到第二深度图。
需要说明的是,当前帧点云的投影过程与前述预设地图的投影过程类似,可参照前述关于预设地图投影过程的介绍。
在一实施例中,与第一深度图类似地,第二深度图也可以通过二维矩阵进行表示,矩阵的列代表不同点相对于原点在水平方向的角度,水平方向角度的范围为0-360°,矩阵的行代表不同点相对于原点在竖直方向的角度,竖直方向角度的范围与雷达的视场角的范围相同,矩阵中每个元素则可以表征对应点的深度信息(对应点与雷达之间的距离信息)。
图4为本申请一示例性实施例提供的根据第一深度图和第二深度图,得到当前帧点云的目标动态区域的流程示意图。如图4所示,步骤S230可以包括:
S231:根据第一深度图和第二深度图,在第二深度图中划分出初始动态区域。
具体地,对比第一深度图和第二深度图中对应点的深度信息,可以确认(具体判定原则后文进行详细叙述)第二深度图中存在动态目标的区域,即初始动态区域。
S232:根据初始动态区域,得到当前帧点云中的目标动态区域。
具体地,由于第二深度图是通过当前帧点云投影得到,因此,在得到第二深度图中的初始动态区域后,根据投影关系,可以对应得到当前帧点云中的目标动态区域。
图5为本申请一示例性实施例提供的根据第一深度图和第二深度图,在第二深度图中划分出初始动态区域的结构示意图。如图5所示,步骤S231可以包括:
S2311:根据第一深度图和第二深度图,得到第一深度图和第二深度图中对应部分之间的深度值之差。
具体地,如前所述,根据第一深度图,可以得到第一深度图中的不同部位点云的深度信息,可以确认不同点离雷达的距离,得到对应的深度值;根据第二深度图,可以得到第二深度图中的不同部位点云的深度信息,可以确认不同点离雷达的距离,得到对应的深度值;然后可以将第一深度图和第二深度图对应部分的深度值作差,计算得到对应部分之间的深度值之差。
S2312:根据深度值之差,在第二深度图中划分出初始动态区域和初始静态区域。
具体地,深度值之差不同,说明第一深度图与第二深度图之间对应点离雷达的距离之差不同,也就说明第二深度图中的点相对于第一深度图中的对应点出现的位移量不同,从而根据相对位移量变化的大小可以在第二深度图中划分出初始动态区域和初始静态区域。初始动态区域和初始静态区域的具体划分过程参考后文介绍。
图6为本申请另一示例性实施例提供的根据第一深度图和第二深度图,在第二深度图中划分出初始动态区域的结构示意图。如图6所示,步骤S2312可以包括:
S23121:若深度值之差大于或者等于预设阈值,则将第二深度图的对应部分标记为初始动态区域。
S23122:若深度值之差小于预设阈值,则将第二深度图的对应部分标记为初始静态区域。
具体地,若深度值之差大于或者等于预设阈值,则说明第二深度图中的点相对于第一深度图中的对应点出现了较大的位移,可以认为第二深度图中的该点相对于第一深度图中的对应点出现了明显相对移动,第二深度图中的该点属于动态目标,依次类推,确认多个动态目标后,多个动态目标形成的区域可以理解为前述的初始动态区域。类似地,若深度值之差小于预设阈值,则说明第二深度图中的点相对于第一深度图中的对应点没有发生明显位移,可以认为第二深度图中的该点相对于第一深度图中的对应点没有出现明显相对移动,第二深度图中的该点属于静态目标,依次类推,确认多个静态目标后,多个静态目标形成的区域可以理解为前述的初始静态区域。
图7为本申请另一示例性实施例提供的根据第一深度图和第二深度图,在第二深度图中划分出初始动态区域的结构示意图。如图7所示,步骤S2311可以包括:
S23111:以预设分辨率比对第一深度图和第二深度图,得到第一深度图和第二深度图中对应部分之间的深度值之差。
具体地,预设分辨率可以根据实际情况进行设定,在需要进行准确计算第一深度图和第二深度图中对应部分之间的深度值之差时,可以设置较高的预设分辨率,将第一深度图和第二深度图分割成较小的部分依次计算深度值之差,确认第二深度图中各个分割部位是否为动态目标;在需要进行快速计算第一深度图和第二深度图中对应部分之间的深度值之差时,可以设置较低的预设分辨率,将第一深度图和第二深度图分割成较大的部分依次计算深度值之差,确认第二深度中各个分割部位是否为动态目标。
图8为本申请一示例性实施例提供的根据初始动态区域,得到当前帧点云中的目标动态区域的流程示意图。如图8所示,步骤S232可以包括:
S2321:在初始动态区域内,进行区域生长,在第二深度图中得到过渡动态区域。
S2322:根据过渡动态区域,得到当前帧点云中与过渡动态区域对应的目标动态区域。
具体地,在执行步骤S231的过程中,可能会存在误划分的情况,将一些地面、建筑物边界等静态目标误划分到初始动态区域内。而区域生长则是可以将具有相同特征的联通区域分割出来,将地面、建筑物边界等进行还原,从初始动态区域内分割出来,划分到前述的初始静态区域内。
应当理解的是,在进行区域生长后,可以在第二深度图中得到更为准确的过渡动态区域,过渡动态区域内剔除了误划分的静态目标,准确度更高,然后,由于第二深度图是由当前帧点云投影得到的,因此,根据第二深度图中的过渡动态区域,利用投影关系,进行反向投影,可以得到当前帧点云中与过渡动态区域对应的目标动态区域。
需要说明的是,区域生长的具体算法在相关技术中均有介绍,这里不再赘述。
图9为本申请一示例性实施例提供的地图更新装置的结构框图。如图9所示,本申请实施例提供的地图更新装置400可以包括:第一获取模块410,配置为获取第一深度图;其中,第一深度图表征预设地图的场景中每个点离雷达的距离的示意图;第二获取模块420,配置为获取第二深度图;其中,第二深度图表征当前帧点云中每个点离雷达的距离的示意图;第一划分模块430,配置为根据第一深度图和第二深度图,得到当前帧点云的目标动态区域;更新模块440,配置为将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像。
本申请实施例提供的地图更新装置400,其通过获取第一深度图和第二深度图,然后根据第一深度图和第二深度图,得到当前帧点云的目标动态区域,并将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像;第一方面,其通过对第一深度图和第二深度图进行比对,可以得到当前帧点云的目标动态区域,识别出当前帧点云中的动态目标,运算过程简单,该地图更新方法和SLAM同时运行时,机器人的CPU占用率较低,运算耗时较短,可以有效地提高工作效率;第二方面,相比于语义分析直接将动态目标滤除的方式,将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像后,可以保留动态目标的历史信息,从而可以实现实时更新可见区域内动态目标的状态的作用。
图10为本申请另一示例性实施例提供的地图更新装置的结构框图。如图10所示,在一实施例中,第一获取模块410可以包括第三获取模块411,配置为获取雷达在预设地图中的位姿信息;第一投影模块412,配置为根据预设地图和位姿信息,得到第一深度图。
如图10所示,在一实施例中,第二获取模块420可以包括第四获取模块421,配置为获取当前帧点云;第二投影模块422,配置为根据当前帧点云,得到第二深度图。
如图10所示,在一实施例中,第一划分模块430可以包括第二划分模块431,配置为根据第一深度图和第二深度图,在第二深度图中划分出初始动态区域;第一转换模块432,配置为根据初始动态区域,得到当前帧点云中的目标动态区域。
如图10所示,在一实施例中,第二划分模块431可以包括第一求差模块4311,配置为根据第一深度图和第二深度图,得到第一深度图和第二深度图中对应部分之间的深度值之差;第三划分模块4312,配置为根据深度值之差,在第二深度图中划分出初始动态区域和初始静态区域。
如图10所示,在一实施例中,第三划分模块4312可以包括第二标记模块43121,配置为若深度值之差大于或者等于预设阈值,则将第二深度图的对应部分标记为初始动态区域;第三标记模块43122,配置为若深度值之差小于预设阈值,则将第二深度图的对应部分标记为初始静态区域。
如图10所示,在一实施例中,第一求差模块4311还可以配置为以预设分辨率比对第一深度图和第二深度图,得到第一深度图和第二深度图中对应部分之间的深度值之差。
如图10所示,在一实施例中,第一转换模块432可以包括生长模块4321,配置为在初始动态区域内,进行区域生长,在第二深度图中得到过渡动态区域;第二转换模块4322,配置为根据过渡动态区域,得到当前帧点云中与过渡动态区域对应的目标动态区域。
图11为本申请一示例性实施例提供的机器人的结构框图。如图11所示,本申请实施例提供的机器人600可以包括:机体610以及如前所述的地图更新装置400,地图更新装置400设于机体610上。
本申请实施例提供的机器人,其具备前述地图更新装置的全部功能,其通过获取第一深度图和第二深度图,然后根据第一深度图和第二深度图,得到当前帧点云的目标动态区域,并将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像;第一方面,其通过对第一深度图和第二深度图进行比对,可以得到当前帧点云的目标动态区域,识别出当前帧点云中的动态目标,运算过程简单,该地图更新方法和SLAM同时运行时,机器人的CPU占用率较低,运算耗时较短,可以有效地提高工作效率;第二方面,相比于语义分析直接将动态目标滤除的方式,将预设地图中与目标动态区域对应的部分更新为目标动态区域的当前帧图像后,可以保留动态目标的历史信息,从而可以实现实时更新可见区域内动态目标的状态的作用。
图12为本申请一示例性实施例提供的电子设备的结构框图。如图12所示,该电子设备700可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
如图12所示,电子设备700包括一个或多个处理器710和存储器720。该存储器720用于存储所述处理器710可执行指令的,该处理器710用于运行所述可执行指令以实现如前所述的地图更新方法。
处理器710可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备700中的其他组件以执行期望的功能。
存储器720可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器710可以运行所述程序指令,以实现上文所述的本申请的各个实施例的控制方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备700还可以包括:输入装置730和输出装置740,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
在该控制器是单机设备时,该输入装置730可以是通信网络连接器,用于从第一设备和第二设备接收所采集的输入信号。
此外,该输入装置730还可以包括例如键盘、鼠标等等。
该输出装置740可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置740可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图12中仅示出了该电子设备700中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备700还可以包括任何其他适当的组件。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (11)
1.一种地图更新方法,其特征在于,包括:
获取第一深度图;其中,所述第一深度图表征预设地图的场景中每个点离雷达的距离的示意图;
获取第二深度图;其中,所述第二深度图表征当前帧点云中每个点离所述雷达的距离的示意图;
根据所述第一深度图和所述第二深度图,得到所述当前帧点云的目标动态区域;
将所述预设地图中与所述目标动态区域对应的部分更新为所述目标动态区域的当前帧图像。
2.根据权利要求1所述的地图更新方法,其特征在于,所述获取第一深度图包括:
获取所述雷达在所述预设地图中的位姿信息;
根据所述位姿信息,对所述预设地图进行投影,得到所述第一深度图。
3.根据权利要求1所述的地图更新方法,其特征在于,所述获取第二深度图包括:
获取所述当前帧点云;
对所述当前帧点云进行投影,得到所述第二深度图。
4.根据权利要求1所述的地图更新方法,其特征在于,所述根据所述第一深度图和所述第二深度图,得到所述当前帧点云的目标动态区域包括:
根据所述第一深度图和所述第二深度图,在所述第二深度图中划分出初始动态区域;
根据所述初始动态区域,得到所述当前帧点云中的所述目标动态区域。
5.根据权利要求4所述的地图更新方法,其特征在于,所述根据所述第一深度图和所述第二深度图,在所述第二深度图中划分出初始动态区域包括:
根据所述第一深度图和所述第二深度图,得到所述第一深度图和所述第二深度图中对应部分之间的深度值之差;
根据所述深度值之差,在所述第二深度图中划分出所述初始动态区域和初始静态区域。
6.根据权利要求5所述的地图更新方法,其特征在于,所述根据所述深度值之差,在所述第二深度图中划分出所述初始动态区域和静态区域包括:
若所述深度值之差大于或者等于预设阈值,则将所述第二深度图的对应部分标记为所述初始动态区域;
若所述深度值之差小于所述预设阈值,则将所述第二深度图的对应部分标记为所述初始静态区域。
7.根据权利要求5所述的地图更新方法,其特征在于,所述根据所述第一深度图和所述第二深度图,得到所述第一深度图和所述第二深度图中对应部分之间的深度值之差包括:
以预设分辨率比对所述第一深度图和所述第二深度图,得到所述第一深度图和所述第二深度图中对应部分之间的深度值之差。
8.根据权利要求4所述的地图更新方法,其特征在于,所述根据所述初始动态区域,得到所述当前帧点云中的所述目标动态区域包括:
在所述初始动态区域内,进行区域生长,在所述第二深度图中得到过渡动态区域;
根据所述过渡动态区域,得到所述当前帧点云中与所述过渡动态区域对应的所述目标动态区域。
9.一种地图更新装置,其特征在于,包括:
第一获取模块,配置为获取第一深度图;其中,所述第一深度图表征预设地图的场景中每个点离雷达的距离的示意图;
第二获取模块,配置为获取第二深度图;其中,所述第二深度图表征当前帧点云中每个点离所述雷达的距离的示意图;
第一划分模块,配置为根据所述第一深度图和所述第二深度图,得到所述当前帧点云的目标动态区域;
更新模块,配置为将所述预设地图中与所述目标动态区域对应的部分更新为所述目标动态区域的当前帧图像。
10.一种机器人,其特征在于,包括:
机体;
如权利要求9所述的地图更新装置,所述地图更新装置设于所述机体上。
11.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器用于运行所述可执行指令以实现如权利要求1至8中任一项所述的地图更新方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310067146.7A CN116299429A (zh) | 2023-01-18 | 2023-01-18 | 地图更新方法、装置、机器人及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310067146.7A CN116299429A (zh) | 2023-01-18 | 2023-01-18 | 地图更新方法、装置、机器人及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116299429A true CN116299429A (zh) | 2023-06-23 |
Family
ID=86821261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310067146.7A Pending CN116299429A (zh) | 2023-01-18 | 2023-01-18 | 地图更新方法、装置、机器人及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116299429A (zh) |
-
2023
- 2023-01-18 CN CN202310067146.7A patent/CN116299429A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11002840B2 (en) | Multi-sensor calibration method, multi-sensor calibration device, computer device, medium and vehicle | |
CN111536964B (zh) | 机器人定位方法及装置、存储介质 | |
CN111694903A (zh) | 地图构建方法、装置、设备以及可读存储介质 | |
CN113510703B (zh) | 机器人位姿的确定方法、装置、机器人及存储介质 | |
US20210264188A1 (en) | Image prediction system | |
CN115810133B (zh) | 基于图像处理和点云处理的焊接控制方法及相关设备 | |
CN111695497B (zh) | 基于运动信息的行人识别方法、介质、终端和装置 | |
CN113052907A (zh) | 一种动态环境移动机器人的定位方法 | |
CN116088503A (zh) | 动态障碍物检测方法和机器人 | |
CN112991389A (zh) | 一种目标跟踪方法、装置及移动机器人 | |
CN113129362B (zh) | 一种三维坐标数据的获取方法及装置 | |
EP4198901A1 (en) | Camera extrinsic parameter calibration method and apparatus | |
CN113671523A (zh) | 机器人定位方法、装置、存储介质及机器人 | |
CN113459088A (zh) | 地图调整方法、电子设备及存储介质 | |
CN112381873A (zh) | 一种数据标注方法及装置 | |
CN117031491A (zh) | 地图构建方法、装置、自动导航小车及电子设备 | |
CN116299429A (zh) | 地图更新方法、装置、机器人及电子设备 | |
KR20200076628A (ko) | 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스 | |
CN116481513A (zh) | 地图生成方法、装置、电子设备 | |
CN113805157A (zh) | 基于标靶的高度测量方法、装置及设备 | |
CN113269874A (zh) | 一种三维地图的建立方法及装置 | |
CN112348874A (zh) | 一种车道线的结构化参数表示确定方法及装置 | |
CN112417924A (zh) | 一种标志杆的空间坐标获取方法及装置 | |
CN112348875B (zh) | 一种标志杆的结构化参数表示确定方法及装置 | |
CN112435293B (zh) | 一种车道线的结构化参数表示确定方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |