CN114677588A - 障碍物检测的方法、装置、机器人和存储介质 - Google Patents
障碍物检测的方法、装置、机器人和存储介质 Download PDFInfo
- Publication number
- CN114677588A CN114677588A CN202210269481.0A CN202210269481A CN114677588A CN 114677588 A CN114677588 A CN 114677588A CN 202210269481 A CN202210269481 A CN 202210269481A CN 114677588 A CN114677588 A CN 114677588A
- Authority
- CN
- China
- Prior art keywords
- grid
- map
- current moment
- static map
- moment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 86
- 230000003068 static effect Effects 0.000 claims abstract description 303
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000013507 mapping Methods 0.000 claims description 83
- 238000004590 computer program Methods 0.000 claims description 32
- 230000009466 transformation Effects 0.000 claims description 28
- 238000006073 displacement reaction Methods 0.000 claims description 26
- 230000001131 transforming effect Effects 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000013519 translation Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种障碍物检测的方法、装置、机器人和计算机可读存储介质。所述方法包括:通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。从而准确识别出地形环境中的障碍物信息,帮助机器人顺利通过复杂地形。
Description
技术领域
本申请涉及机器人视觉技术领域,特别是涉及一种障碍物检测的方法、装置、机器人和存储介质。
背景技术
随着机器人技术的快速发展,机器人的应用范围也越来越广泛。对于机器人来说,利用传感器进行障碍物的识别是其核心技术,机器人只有准确对障碍物进行识别,才能躲避障碍物,并顺利通过各种复杂的地形。机器人避障中的障碍物识别与地形环境中的障碍物分布、形状、状态等有着密切相关,如何实时准确的对地形环境中的障碍物进行识别,是机器人能否顺利通过复杂地形的关键,也是机器人领域中的一个热点研究课题,受到了越来越多人们的重视。
发明内容
基于此,有必要针对上述技术问题,提供一种能够实时准确的对地形环境中的障碍物进行识别的障碍物检测的方法、装置、机器人和计算机可读存储介质。
第一方面,本申请提供了一种障碍物检测的方法。所述方法包括:
通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;
根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;
对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
在其中一个实施例中,上一时刻的输出静态图包括原始静态图和/或对原始静态图变换后得到的静态图;
当上一时刻的输出静态图为通过原始静态图变换后得到的静态图时,在根据上一时刻的输出静态图之前,包括:
通过定位传感器获取当前时刻定位数据和上一时刻定位数据,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系;
根据变换关系对原始静态图进行变换,得到上一时刻的输出静态图。
在其中一个实施例中,根据深度图像生成当前时刻的检测静态图,包括:
将深度图像转换为对应的点云数据,将点云数据从深度相机坐标系转换到机器人坐标系中,得到机器人坐标系下的第一点云数据;
将第一点云数据转换到世界坐标系中,得到第二点云数据;
将第二点云数据转换到地图坐标系中,得到第三点云数据;
将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图。
在其中一个实施例中,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系,包括:
将上一时刻的定位数据映射至栅格地图中,将当前时刻的定位数据映射至栅格地图中;
根据上一时刻的定位数据在栅格地图中的映射结果和当前时刻的定位数据在栅格地图中的映射结果,确定上一时刻的定位数据与当前时刻的定位数据之间的位移信息;位移信息为变换关系,包括平移量和旋转量。
在其中一个实施例中,将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图,包括:
根据第三点云数据在栅格地图中的映射结果,计算栅格地图中每一栅格对应的栅格值,并由栅格地图中每一栅格对应的栅格值构成当前时刻的检测静态图。
在其中一个实施例中,根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图,包括:
对于上一时刻的输出静态图与当前时刻的检测静态图之间任意对应位置上的两个栅格,将两个栅格分别作为第一栅格和第二栅格,若第二栅格对应的栅格值为0,则第一栅格对应的栅格值减去第一预设阈值,将相减结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值;
若第二栅格对应的栅格值不为0,则将第一栅格对应的栅格值与第二预设阈值进行相加,将相加结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值。
在其中一个实施例中,对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息,包括:
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第一栅格值是否在预设范围内,若在,则将任一栅格对应的第一栅格值置为255;若不在,则将任一栅格对应的第一栅格值置为0;
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第二栅格值是否大于第三预设阈值,若大于,则将任一栅格对应的第二栅格值置为255;若不大于,则将任一栅格对应的第二栅格值置为0;
若任一栅格的第一栅格值为255,则任一栅格为静态栅格,若任一栅格的第二栅格值为255,则任一栅格为动态栅格,根据静态栅格和动态栅格得到障碍物信息。
第二方面,本申请还提供了一种障碍物检测的装置。所述装置包括:
生成模块,用于通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;
更新模块,用于根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;
第一确定模块,用于对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
第三方面,本申请还提供了一种机器人,所述机器人上设置有深度相机和定位传感器,所述机器人还包括存储器和处理器,所述存储器用于存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;
根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;
对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
第四方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;
根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;
对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
上述障碍物检测的方法、装置、机器人和计算机可读存储介质,通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。从而准确识别出地形环境中的障碍物信息,帮助机器人顺利通过复杂地形。
附图说明
图1为一个实施例中障碍物检测的方法的流程示意图;
图2为一个实施例中障碍物检测的方法中当前时刻的定位数据在栅格地图中的映射结果的示意图;
图3为一个实施例中障碍物检测的方法中当前时刻的输出静态图的示意图;
图4为一个实施例中障碍物检测的方法中当前时刻的输出静态图中的障碍物信息中的动态障碍物的示意图;
图5为一个实施例中障碍物检测的方法中当前时刻的输出静态图中的障碍物信息中的静态障碍物的示意图;
图6为一个实施例中障碍物检测的装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
随着机器人技术的快速发展,机器人的应用范围也越来越广泛。对于机器人来说,利用传感器进行障碍物的识别是其核心技术,机器人只有准确对障碍物进行识别,才能躲避障碍物,并顺利通过各种复杂的地形。机器人避障中的障碍物识别与地形环境中的障碍物分布、形状、状态等有着密切相关,如何实时准确的对地形环境中的障碍物进行识别,是机器人能否顺利通过复杂地形的关键,也是机器人领域中的一个热点研究课题,受到了越来越多人们的重视。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种专业名词,但除非特别说明,这些专业名词不受这些术语限制。这些术语仅用于将一个专业名词与另一个专业名词区分。
针对上述相关技术中存在的问题,本发明实施例提供了一种障碍物检测的方法,该方法可以应用于服务器中,也可以应用于终端,还可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。其中,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。终端可以但不限于是各种机器人。终端或者服务器至少一者中包括本发明实施例一种障碍物检测的方法实现所需要的硬件设备,硬件设备包括深度相机和/或定位传感器。
在一个实施例中,如图1所示,提供了一种障碍物检测的方法,本实施例以该方法应用于服务器进行举例说明,该方法包括以下步骤:
102、通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图。
需要说明的是,深度相机安装在机器人上。结合具体的应用场景对深度图像进行解释说明,例如,机器人为餐厅内的送餐机器人,深度相机可以看作机器人的眼睛,当前时刻的深度图像也即是深度相机对机器人视野范围内的景物进行拍摄获取的。基于此,当前时刻的检测静态图,可以是在空白栅格地图上填补上栅格值后的栅格地图,而栅格值是根据当前时刻的深度图像的像素点确定的。其中,空白栅格地图的大小是基于机器人所处的移动空间确定的,结合上述应用场景,移动空间即为机器人在餐厅内可活动的范围。由于空白栅格地图是基于机器人所处的移动空间确定的,而当前时刻的深度图像仅是对机器人视野范围内的景物进行拍摄获取的深度图像,机器人所处的移动空间的范围比机器人视野范围大,基于此,可以理解的是,上述栅格地图中可能存在有的栅格没有对应的栅格值。
104、根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图。
具体地,将上一时刻的输出静态图与当前时刻的检测静态图之间对应栅格的栅格值进行融合,将融合结果作为当前时刻的输出静态图。
其中,上一时刻的输出静态图可以基于将上一时刻的检测静态图与上一时刻的上一时刻的输出静态图之间对应的栅格值进行融合获取。需要说明的是,上一时刻的输出静态图的获取过程可参考下述实施例中对当前时刻的输出静态图的获取过程的说明,因此,此处不再赘述。
106、对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
需要说明的是,得到当前时刻的输出静态图中的障碍物信息之后,会将障碍物信息发送至机器人,以指示机器人避开障碍物。
其中,障碍物信息可以包括障碍物位置和障碍物状态,障碍物状态为动态或者静态。
上述障碍物检测的方法中,通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。从而准确识别出地形环境中的障碍物,帮助机器人顺利通过复杂地形。
在一个实施例中,上一时刻的输出静态图包括原始静态图和/或对原始静态图变换后得到的静态图;
当上一时刻的输出静态图为通过原始静态图变换后得到的静态图时,在根据上一时刻的输出静态图之前,包括:
通过定位传感器获取当前时刻定位数据和上一时刻定位数据,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系。
其中,定位传感器可以为激光雷达,也可以为标识定位传感器,本申请实施例对此不作具体限定。可以理解的是,虽然深度相机也具备定位功能,但是与定位传感器相比,精度较差,因此,本申请通过定位传感器在上一时刻定位数据与在当前时刻定位数据之间的变换关系,对原始静态图进行变换,以使得上一时刻的输出静态图与当前时刻的输出静态图对齐效果更好。
根据变换关系对原始静态图进行变换,得到上一时刻的输出静态图。
本实施例中,通过定位传感器获取当前时刻定位数据和上一时刻定位数据,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系;根据变换关系对原始静态图进行变换,得到上一时刻的输出静态图。由于将上一时刻的输出静态图的定位与当前时刻的检测静态图的定位进行对齐,从而使得同一静态障碍物在上一时刻的输出静态图中的位置与在当前时刻的输出静态图中的位置相同,进而使得当前时刻的输出静态图中的障碍物信息更精确。
在一个实施例中,根据深度图像生成当前时刻的检测静态图,包括:
将深度图像转换为对应的点云数据,将点云数据从深度相机坐标系转换到机器人坐标系中,得到机器人坐标系下的第一点云数据。
具体地,将深度图像转换为对应的点云数据包括但不限于:对于深度图像中的任一像素点,根据任一像素点在深度图像对应二维坐标系下的横坐标、深度相机的第一横坐标内参、深度相机的第二横坐标内参和任一像素点在深度图像中的深度值,计算任一像素点的点云横坐标;根据任一像素点在深度图像对应二维坐标系下的纵坐标、深度相机的第一纵坐标内参、深度相机的第二纵坐标内参和任一像素点在深度图像中的深度值,计算任一像素点的点云纵坐标,由点云横坐标、点云纵坐标和深度值构成任意像素点的点云数据,由所有像素点的点云数据,构成点云数据。
其中,将深度图像转换为对应的点云数据的过程可参考如下公式(1):
需要说明的是,公式(1)中,(u,v)为图像坐标,d为图像坐标(u,v)位置处的深度值,fx、fy、cx和cy均是深度相机的内参,由厂家提供,fx和fy分别对应为x轴和y轴方向的焦距,cx和cy为光轴对于投影平面坐标中心的偏移量,(x,y,z)为点云数据。
可以理解的是,之所以将点云数据从深度相机坐标系转换到机器人坐标系中,是因为很难直接得到深度相机在世界坐标系中的位置,但是,深度相机安装在机器人上,可以得到深度相机在机器人坐标系中的位置,也可以得到机器人在世界坐标系中的位置,因此,通过将点云数据从深度相机坐标系转换到机器人坐标系中,从而得到点云数据在世界坐标系中的映射结果,此处点云数据在世界坐标系中的映射结果指的就是第二点云数据。
具体地,将点云数据从深度相机坐标系转换到机器人坐标系中,得到机器人坐标系下的第一点云数据可以包括:将点云数据与第一转换矩阵相乘,得到机器人坐标系下的第一点云数据,第一转换矩阵是深度相机所处坐标系与机器人所处坐标系之间的转换矩阵。
其中,得到机器人坐标系下的第一点云数据的具体过程可参考如下公式(2):
Probot=Mcamra_robotPcamera; (2)
需要说明是,公式(2)中,Probot为机器人坐标系下的第一点云数据,Mcamra_robot为深度相机所处坐标系与机器人所处坐标系之间的转换矩阵,Pcamera为点云数据。
将第一点云数据转换到世界坐标系中,得到第二点云数据。
具体过程可以包括:将第一点云数据与第二转换矩阵相乘,得到第二点云数据,第二转换矩阵是机器人所处坐标系与世界坐标系之间的转换矩阵。
其中,得到第二点云数据的具体过程可参考如下公式(3):
Pworld=Mrobot_worldProbot; (3)
需要说明的是,公式(3)中,Pworld为第二点云数据,Mrobot_world为机器人所处坐标系与世界坐标系之间的转换矩阵。
将第二点云数据转换到地图坐标系中,得到第三点云数据。
具体过程可以包括:根据第二点云数据、栅格地图的分辨率和栅格地图所处坐标系的原点坐标,得到第三点云数据。
其中,得到第三点云数据的过程可参考如下公式(4):
需要说明的是,公式(4)中,(Xm,Ym)为第三点云数据,(Xw,Yw)是世界坐标系下的位置,(Xo,Yo)为栅格地图所处坐标系的原点坐标,resolution为栅格地图的分辨率。
将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图。
需要说明的是,栅格地图是根据机器人所处的移动空间所确定的。
本实施例中,通过将深度图像转换为对应的点云数据,将点云数据从深度相机坐标系转换到机器人坐标系中,得到机器人坐标系下的第一点云数据;将第一点云数据转换到世界坐标系中,得到第二点云数据;将第二点云数据转换到地图坐标系中,得到第三点云数据;将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图。由于最终是基于栅格地图确定障碍物信息的,因此,通过多次转换实现将深度相机坐标系上的点云数据映射至栅格地图中,从而获取当前时刻的检测静态图,进而可以根据当前时刻的检测静态图、上一时刻的输出静态图和当前时刻的输出静态图,确定障碍物在地图中的准确位置,进而准确识别出地形环境中的障碍物,帮助机器人顺利通过复杂地形。
在一个实施例中,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系,包括:
将上一时刻的定位数据映射至栅格地图中,将当前时刻的定位数据映射至栅格地图中;根据上一时刻的定位数据在栅格地图中的映射结果和当前时刻的定位数据在栅格地图中的映射结果,确定上一时刻的定位数据与当前时刻的定位数据之间的位移信息;位移信息为变换关系,包括平移量和旋转量。
当前时刻的定位数据在栅格地图中的映射结果可以如图2所示。
具体地,“根据上一时刻的定位数据在栅格地图中的映射结果和当前时刻的定位数据在栅格地图中的映射结果,确定上一时刻的定位数据与当前时刻的定位数据之间的位移信息”包括但不限于:获取多个样本位移信息;将上一时刻的定位数据在栅格地图中的映射结果作为第一映射结果,将当前时刻的定位数据在栅格地图中的映射结果作为第二映射结果,计算第一映射结果在每一样本位移信息下进行位移调整后的位移映射结果;计算每一位移映射结果与第二映射结果之间的匹配度,将最大匹配度对应的样本位移信息作为位移信息。
具体地,计算每一位移映射结果与第二映射结果之间的匹配度可以包括:计算第二映射结果对应的栅格状态矩阵;对于任一位移映射结果,确定任一位移映射结果中存在点云的栅格对应在栅格状态矩阵中的目标位置;将栅格状态矩阵中每一目标位置对应的栅格状态进行叠加,将叠加结果作为任一位移映射结果与第二映射结果之间的匹配度。需要说明的是,定位数据本质上也是点云数据。
具体地,计算第二映射结果对应的栅格状态矩阵的过程包括但不限于:将第二映射结果中存在点云的栅格在栅格状态矩阵中对应位置的栅格状态设置为1;对于第二映射结果中不存在点云的任一栅格,根据第二映射结果中与任一栅格距离最近的且存在点云的目标栅格的栅格状态和任一栅格与目标栅格之间的距离,获取任一栅格在栅格状态矩阵中对应位置的栅格状态。
可以理解的是,任一栅格与目标栅格之间的距离与任一栅格在栅格状态矩阵中对应位置的栅格状态呈负相关,任一栅格与目标栅格之间的距离越小,任一栅格在栅格状态矩阵中对应位置的栅格状态越大,但小于目标栅格的栅格状态。
本实施例中,由于上一时刻的输出静态图是对所述原始静态图进行变换得到的,也即实现将上一时刻的输出静态图的定位与当前时刻的检测静态图的定位进行对齐,从而使得同一静态障碍物在上一时刻的输出静态图中的位置与在当前时刻的输出静态图中的位置相同,进而使得当前时刻的输出静态图中的障碍物信息更精确。
在一个实施例中,将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图,包括:
根据第三点云数据在栅格地图中的映射结果,计算栅格地图中每一栅格对应的栅格值,并由栅格地图中每一栅格对应的栅格值构成当前时刻的检测静态图。
具体地,对于栅格地图中的任一栅格,判断任一栅格是否存在点云,若不存在,则任一栅格对应的栅格值为0,若存在,则将第二预设阈值作为任一栅格对应的栅格值。
在一个实施例中,根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图,包括:
对于上一时刻的输出静态图与当前时刻的检测静态图之间任意对应位置上的两个栅格,将两个栅格分别作为第一栅格和第二栅格,若第二栅格对应的栅格值为0,则第一栅格对应的栅格值减去第一预设阈值,将相减结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值;
若第二栅格对应的栅格值不为0,则将第一栅格对应的栅格值与第二预设阈值进行相加,将相加结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值。
需要说明的是,第一预设阈值与第二预设阈值为算法参数,可以根据实际情况设置,一般地,第二预设阈值是第一预设阈值的两倍。在一些场景中,第一预设阈值可以取10,第二预设阈值可以取20。
可以理解的是,之所以若第二栅格对应的栅格值为0,则第一栅格对应的栅格值减去第一预设阈值,一方面,是为了得到动态障碍物的运动轨迹。另一方面,因为若第二栅格对应的栅格值不为0,则将第一栅格对应的栅格值与第二预设阈值进行相加,通过相减和相加的运算,是为了增大动态障碍物还是静态障碍物之间的差别,提高障碍物信息的精确性。在实际运用场景中,为了减少计算量,一般在当前时刻的输出静态图中任意对应位置的栅格的栅格值大于255时,当前时刻的输出静态图中任意对应位置的栅格的栅格值取255;在当前时刻的输出静态图中任意对应位置的栅格的栅格值小于0时,当前时刻的输出静态图中任意对应位置的栅格的栅格值取0。
本实施例中,通过对于上一时刻的输出静态图与当前时刻的检测静态图之间任意对应位置上的两个栅格,将两个栅格分别作为第一栅格和第二栅格,若第二栅格对应的栅格值为0,则第一栅格对应的栅格值减去第一预设阈值,将相减结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值;若第二栅格对应的栅格值不为0,则将第一栅格对应的栅格值与第二预设阈值进行相加,将相加结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值。一方面,从而得到动态障碍物的运动轨迹。另一方面,从而增加动态障碍物还是静态障碍物之间的差别,提高障碍物信息的精确性。
在一个实施例中,对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息,包括:
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第一栅格值是否在预设范围内,若在,则将任一栅格对应的第一栅格值置为255;若不在,则将任一栅格对应的第一栅格值置为0。
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第二栅格值是否大于第三预设阈值,若大于,则将任一栅格对应的第二栅格值置为255;若不大于,则将任一栅格对应的第二栅格值置为0;
若任一栅格的第一栅格值为255,则任一栅格为静态栅格,若任一栅格的第二栅格值为255,则任一栅格为动态栅格,根据静态栅格和动态栅格得到障碍物信息。
其中,预设范围和第三预设阈值是二值化处理设置的参数。若预设范围的取值范围为V1至V2,那么第三预设阈值的取值可以为V2。相应地,判断任一栅格对应的第一栅格值是否在预设范围内的具体过程可以如下公式(5)所示:
判断任一栅格对应的第二栅格值是否大于第三预设阈值的具体过程可以如下公式(6)所示:
公式(5)及公式(6)中,f(v)为当前时刻的输出静态图中的任一栅格重置后的栅格值,当前时刻的输出静态图中的任一栅格重置前的栅格值。
具体地,若当前时刻的输出静态图如图3所示,那么当前时刻的输出静态图中的障碍物信息中的动态障碍物可以如图4所示,当前时刻的输出静态图中的障碍物信息中的静态障碍物可以如图5所示,本申请实施例对此不作具体限定。
本实施例中,通过对当前时刻的输出静态图进行二值化处理,从而能够简单、实时准确的对地形环境中的障碍物进行识别,得到障碍物的位置信息,确定障碍物的状态,具体为动态障碍物,还是静态障碍物,从而帮助机器人顺利通过复杂地形。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的障碍物检测的方法的障碍物检测的装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个障碍物检测的装置实施例中的具体限定可以参见上文中对于障碍物检测的方法的限定,在此不再赘述。
在一个实施例中,如图6所示,提供了一种障碍物检测的装置,包括:生成模块602、更新模块604和第一确定模块606,其中:
生成模块602,用于通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;
更新模块604,用于根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;
第一确定模块606,用于对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
在一个实施例中,上一时刻的输出静态图包括原始静态图和/或对原始静态图变换后得到的静态图;当上一时刻的输出静态图为通过原始静态图变换后得到的静态图时,该装置还包括:
第二确定模块,用于通过定位传感器获取当前时刻定位数据和上一时刻定位数据,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系;
第三确定模块,用于根据变换关系对原始静态图进行变换,得到上一时刻的输出静态图。
在一个实施例中,生成模块602,包括:
第一转换单元,用于将深度图像转换为对应的点云数据,将点云数据从深度相机坐标系转换到机器人坐标系中,得到机器人坐标系下的第一点云数据;
第二转换单元,用于将第一点云数据转换到世界坐标系中,得到第二点云数据;
第三转换单元,用于将第二点云数据转换到地图坐标系中,得到第三点云数据;
获取单元,用于将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图。
在一个实施例中,第二确定模块,包括:
映射单元,用于将上一时刻的定位数据映射至栅格地图中,将当前时刻的定位数据映射至栅格地图中;
第一确定单元,用于根据上一时刻的定位数据在栅格地图中的映射结果和当前时刻的定位数据在栅格地图中的映射结果,确定上一时刻的定位数据与当前时刻的定位数据之间的位移信息;位移信息为变换关系,包括平移量和旋转量。
在一个实施例中,获取单元,包括:
计算子单元,用于根据第三点云数据在栅格地图中的映射结果,计算栅格地图中每一栅格对应的栅格值,并由栅格地图中每一栅格对应的栅格值构成当前时刻的检测静态图。
在一个实施例中,更新模块604,包括:
第二确定单元,用于对于上一时刻的输出静态图与当前时刻的检测静态图之间任意对应位置上的两个栅格,将两个栅格分别作为第一栅格和第二栅格,若第二栅格对应的栅格值为0,则第一栅格对应的栅格值减去第一预设阈值,将相减结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值;
第三确定单元,用于若第二栅格对应的栅格值不为0,则将第一栅格对应的栅格值与第二预设阈值进行相加,将相加结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值。
在一个实施例中,第一确定模块606,包括:
第一判断单元,用于对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第一栅格值是否在预设范围内,若在,则将任一栅格对应的第一栅格值置为255;若不在,则将任一栅格对应的第一栅格值置为0;
第二判断单元,用于对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第二栅格值是否大于第三预设阈值,若大于,则将任一栅格对应的第二栅格值置为255;若不大于,则将任一栅格对应的第二栅格值置为0;
第四确定单元,用于若任一栅格的第一栅格值为255,则任一栅格为静态栅格,若任一栅格的第二栅格值为255,则任一栅格为动态栅格,根据静态栅格和动态栅格得到障碍物信息。
上述障碍物检测的装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,一种机器人,该机器人上设置有深度相机和定位传感器,该机器人还包括存储器和处理器,该存储器用于存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;
根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;
对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
在一个实施例中,上一时刻的输出静态图包括原始静态图和/或对原始静态图变换后得到的静态图;当上一时刻的输出静态图为通过原始静态图变换后得到的静态图时,处理器执行计算机程序时还实现以下步骤:
通过定位传感器获取当前时刻定位数据和上一时刻定位数据,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系;
根据变换关系对原始静态图进行变换,得到上一时刻的输出静态图。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将深度图像转换为对应的点云数据,将点云数据从深度相机坐标系转换到机器人坐标系中,得到机器人坐标系下的第一点云数据;
将第一点云数据转换到世界坐标系中,得到第二点云数据;
将第二点云数据转换到地图坐标系中,得到第三点云数据;
将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将上一时刻的定位数据映射至栅格地图中,将当前时刻的定位数据映射至栅格地图中;
根据上一时刻的定位数据在栅格地图中的映射结果和当前时刻的定位数据在栅格地图中的映射结果,确定上一时刻的定位数据与当前时刻的定位数据之间的位移信息;位移信息为变换关系,包括平移量和旋转量。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据第三点云数据在栅格地图中的映射结果,计算栅格地图中每一栅格对应的栅格值,并由栅格地图中每一栅格对应的栅格值构成当前时刻的检测静态图。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
对于上一时刻的输出静态图与当前时刻的检测静态图之间任意对应位置上的两个栅格,将两个栅格分别作为第一栅格和第二栅格,若第二栅格对应的栅格值为0,则第一栅格对应的栅格值减去第一预设阈值,将相减结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值;
若第二栅格对应的栅格值不为0,则将第一栅格对应的栅格值与第二预设阈值进行相加,将相加结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第一栅格值是否在预设范围内,若在,则将任一栅格对应的第一栅格值置为255;若不在,则将任一栅格对应的第一栅格值置为0;
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第二栅格值是否大于第三预设阈值,若大于,则将任一栅格对应的第二栅格值置为255;若不大于,则将任一栅格对应的第二栅格值置为0;
若任一栅格的第一栅格值为255,则任一栅格为静态栅格,若任一栅格的第二栅格值为255,则任一栅格为动态栅格,根据静态栅格和动态栅格得到障碍物信息。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储深度图像、上一时刻的输出静态图、当前时刻的检测静态图和当前时刻的输出静态图等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种障碍物检测的方法。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;
根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;
对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
在一个实施例中,上一时刻的输出静态图包括原始静态图和/或对原始静态图变换后得到的静态图;当上一时刻的输出静态图为通过原始静态图变换后得到的静态图时,处理器执行计算机程序时还实现以下步骤:
通过定位传感器获取当前时刻定位数据和上一时刻定位数据,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系;
根据变换关系对原始静态图进行变换,得到上一时刻的输出静态图。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将深度图像转换为对应的点云数据,将点云数据从深度相机坐标系转换到机器人坐标系中,得到机器人坐标系下的第一点云数据;
将第一点云数据转换到世界坐标系中,得到第二点云数据;
将第二点云数据转换到地图坐标系中,得到第三点云数据;
将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将上一时刻的定位数据映射至栅格地图中,将当前时刻的定位数据映射至栅格地图中;
根据上一时刻的定位数据在栅格地图中的映射结果和当前时刻的定位数据在栅格地图中的映射结果,确定上一时刻的定位数据与当前时刻的定位数据之间的位移信息;位移信息为变换关系,包括平移量和旋转量。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据第三点云数据在栅格地图中的映射结果,计算栅格地图中每一栅格对应的栅格值,并由栅格地图中每一栅格对应的栅格值构成当前时刻的检测静态图。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
对于上一时刻的输出静态图与当前时刻的检测静态图之间任意对应位置上的两个栅格,将两个栅格分别作为第一栅格和第二栅格,若第二栅格对应的栅格值为0,则第一栅格对应的栅格值减去第一预设阈值,将相减结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值;
若第二栅格对应的栅格值不为0,则将第一栅格对应的栅格值与第二预设阈值进行相加,将相加结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第一栅格值是否在预设范围内,若在,则将任一栅格对应的第一栅格值置为255;若不在,则将任一栅格对应的第一栅格值置为0;
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第二栅格值是否大于第三预设阈值,若大于,则将任一栅格对应的第二栅格值置为255;若不大于,则将任一栅格对应的第二栅格值置为0;
若任一栅格的第一栅格值为255,则任一栅格为静态栅格,若任一栅格的第二栅格值为255,则任一栅格为动态栅格,根据静态栅格和动态栅格得到障碍物信息。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
通过深度相机获取当前时刻的深度图像,根据深度图像生成当前时刻的检测静态图;
根据上一时刻的输出静态图,对当前时刻的检测静态图进行更新,得到当前时刻的输出静态图;
对当前时刻的输出静态图进行二值化处理,得到当前时刻的输出静态图中的障碍物信息。
在一个实施例中,上一时刻的输出静态图包括原始静态图和/或对原始静态图变换后得到的静态图;当上一时刻的输出静态图为通过原始静态图变换后得到的静态图,计算机程序被处理器执行时还实现以下步骤:
通过定位传感器获取当前时刻定位数据和上一时刻定位数据,根据当前时刻定位数据和上一时刻定位数据,确定上一时刻定位数据与当前时刻定位数据之间的变换关系;
根据变换关系对原始静态图进行变换,得到上一时刻的输出静态图。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将深度图像转换为对应的点云数据,将点云数据从深度相机坐标系转换到机器人坐标系中,得到机器人坐标系下的第一点云数据;
将第一点云数据转换到世界坐标系中,得到第二点云数据;
将第二点云数据转换到地图坐标系中,得到第三点云数据;
将第三点云数据映射到栅格地图中,根据映射结果获取当前时刻的检测静态图。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将上一时刻的定位数据映射至栅格地图中,将当前时刻的定位数据映射至栅格地图中;
根据上一时刻的定位数据在栅格地图中的映射结果和当前时刻的定位数据在栅格地图中的映射结果,确定上一时刻的定位数据与当前时刻的定位数据之间的位移信息;位移信息为变换关系,包括平移量和旋转量。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据第三点云数据在栅格地图中的映射结果,计算栅格地图中每一栅格对应的栅格值,并由栅格地图中每一栅格对应的栅格值构成当前时刻的检测静态图。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
对于上一时刻的输出静态图与当前时刻的检测静态图之间任意对应位置上的两个栅格,将两个栅格分别作为第一栅格和第二栅格,若第二栅格对应的栅格值为0,则第一栅格对应的栅格值减去第一预设阈值,将相减结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值;
若第二栅格对应的栅格值不为0,则将第一栅格对应的栅格值与第二预设阈值进行相加,将相加结果作为当前时刻的输出静态图中任意对应位置的栅格的栅格值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第一栅格值是否在预设范围内,若在,则将任一栅格对应的第一栅格值置为255;若不在,则将任一栅格对应的第一栅格值置为0;
对于当前时刻的输出静态图中的任一栅格,判断任一栅格对应的第二栅格值是否大于第三预设阈值,若大于,则将任一栅格对应的第二栅格值置为255;若不大于,则将任一栅格对应的第二栅格值置为0;
若任一栅格的第一栅格值为255,则任一栅格为静态栅格,若任一栅格的第二栅格值为255,则任一栅格为动态栅格,根据静态栅格和动态栅格得到障碍物信息。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种障碍物检测的方法,其特征在于,所述方法包括:
通过深度相机获取当前时刻的深度图像,根据所述深度图像生成当前时刻的检测静态图;
根据上一时刻的输出静态图,对所述当前时刻的检测静态图进行更新,得到所述当前时刻的输出静态图;
对所述当前时刻的输出静态图进行二值化处理,得到所述当前时刻的输出静态图中的障碍物信息。
2.根据权利要求1所述的方法,其特征在于,所述上一时刻的输出静态图包括原始静态图和/或对原始静态图变换后得到的静态图;
当所述上一时刻的输出静态图为通过所述原始静态图变换后得到的静态图时,在所述根据上一时刻的输出静态图之前,所述方法还包括:
通过定位传感器获取当前时刻定位数据和上一时刻定位数据,根据所述当前时刻定位数据和所述上一时刻定位数据,确定所述上一时刻定位数据与所述当前时刻定位数据之间的变换关系;
根据所述变换关系对所述原始静态图进行变换,得到所述上一时刻的输出静态图。
3.根据权利要求1所述的方法,其特征在于,所述根据所述深度图像生成当前时刻的检测静态图,包括:
将所述深度图像转换为对应的点云数据,将所述点云数据从深度相机坐标系转换到机器人坐标系中,得到所述机器人坐标系下的第一点云数据;
将所述第一点云数据转换到世界坐标系中,得到第二点云数据;
将所述第二点云数据转换到地图坐标系中,得到第三点云数据;
将所述第三点云数据映射到栅格地图中,根据映射结果获取所述当前时刻的检测静态图。
4.根据权利要求2所述的方法,其特征在于,所述根据所述当前时刻定位数据和所述上一时刻定位数据,确定所述上一时刻定位数据与所述当前时刻定位数据之间的变换关系,包括:
将所述上一时刻的定位数据映射至所述栅格地图中,将所述当前时刻的定位数据映射至所述栅格地图中;
根据所述上一时刻的定位数据在所述栅格地图中的映射结果和所述当前时刻的定位数据在所述栅格地图中的映射结果,确定所述上一时刻的定位数据与所述当前时刻的定位数据之间的位移信息;所述位移信息为变换关系,包括平移量和旋转量。
5.根据权利要求3所述的方法,其特征在于,所述将所述第三点云数据映射到栅格地图中,根据映射结果获取所述当前时刻的检测静态图,包括:
根据所述第三点云数据在所述栅格地图中的映射结果,计算所述栅格地图中每一栅格对应的栅格值,并由所述栅格地图中每一栅格对应的栅格值构成所述当前时刻的检测静态图。
6.根据权利要求1所述的方法,其特征在于,所述根据上一时刻的输出静态图,对所述当前时刻的检测静态图进行更新,得到所述当前时刻的输出静态图,包括:
对于所述上一时刻的输出静态图与所述当前时刻的检测静态图之间任意对应位置上的两个栅格,将所述两个栅格分别作为第一栅格和第二栅格,若所述第二栅格对应的栅格值为0,则所述第一栅格对应的栅格值减去第一预设阈值,将相减结果作为所述当前时刻的输出静态图中所述任意对应位置的栅格的栅格值;
若所述第二栅格对应的栅格值不为0,则将所述第一栅格对应的栅格值与第二预设阈值进行相加,将相加结果作为所述当前时刻的输出静态图中所述任意对应位置的栅格的栅格值。
7.根据权利要求1所述的方法,其特征在于,所述对所述当前时刻的输出静态图进行二值化处理,得到所述当前时刻的输出静态图中的障碍物信息,包括:
对于所述当前时刻的输出静态图中的任一栅格,判断所述任一栅格对应的第一栅格值是否在预设范围内,若在,则将所述任一栅格对应的第一栅格值置为255;若不在,则将所述任一栅格对应的第一栅格值置为0;
对于所述当前时刻的输出静态图中的任一栅格,判断所述任一栅格对应的第二栅格值是否大于第三预设阈值,若大于,则将所述任一栅格对应的第二栅格值置为255;若不大于,则将所述任一栅格对应的第二栅格值置为0;
若所述任一栅格的第一栅格值为255,则所述任一栅格为静态栅格,若任一栅格的第二栅格值为255,则所述任一栅格为动态栅格,根据所述静态栅格和所述动态栅格得到所述障碍物信息。
8.一种障碍物检测的装置,其特征在于,所述装置包括:
生成模块,用于通过深度相机获取当前时刻的深度图像,根据所述深度图像生成当前时刻的检测静态图;
更新模块,用于根据上一时刻的输出静态图,对所述当前时刻的检测静态图进行更新,得到所述当前时刻的输出静态图;
第一确定模块,用于对所述当前时刻的输出静态图进行二值化处理,得到所述当前时刻的输出静态图中的障碍物信息。
9.一种机器人,所述机器人上设置有深度相机和定位传感器,所述机器人还包括存储器和处理器,所述存储器用于存储有计算机程序,其特征在于,所述处理器用于执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210269481.0A CN114677588A (zh) | 2022-03-18 | 2022-03-18 | 障碍物检测的方法、装置、机器人和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210269481.0A CN114677588A (zh) | 2022-03-18 | 2022-03-18 | 障碍物检测的方法、装置、机器人和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114677588A true CN114677588A (zh) | 2022-06-28 |
Family
ID=82074099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210269481.0A Pending CN114677588A (zh) | 2022-03-18 | 2022-03-18 | 障碍物检测的方法、装置、机器人和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114677588A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116661468A (zh) * | 2023-08-01 | 2023-08-29 | 深圳市普渡科技有限公司 | 障碍物检测方法、机器人及计算机可读存储介质 |
CN117055601A (zh) * | 2023-09-05 | 2023-11-14 | 广东工业大学 | 一种无人机送餐路径规划方法、装置、设备及存储介质 |
CN117951240A (zh) * | 2024-03-27 | 2024-04-30 | 国能龙源环保有限公司 | 全局三维点云地图存储和实时体素检索方法、装置及设备 |
CN118024262A (zh) * | 2024-04-11 | 2024-05-14 | 深圳市普渡科技有限公司 | 运行状态检测方法、装置、设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239746A (zh) * | 2017-05-16 | 2017-10-10 | 东南大学 | 一种面向道路救援安全监控的障碍物识别跟踪方法 |
CN109085838A (zh) * | 2018-09-05 | 2018-12-25 | 南京理工大学 | 一种基于激光定位的动态障碍物剔除算法 |
CN109916409A (zh) * | 2019-03-25 | 2019-06-21 | 浙江大学昆山创新中心 | 一种静态地图自适应更新方法和装置 |
CN110286387A (zh) * | 2019-06-25 | 2019-09-27 | 深兰科技(上海)有限公司 | 应用于自动驾驶系统的障碍物检测方法、装置及存储介质 |
CN112799095A (zh) * | 2020-12-31 | 2021-05-14 | 深圳市普渡科技有限公司 | 静态地图生成方法、装置、计算机设备及存储介质 |
US20210370510A1 (en) * | 2020-05-26 | 2021-12-02 | Edda Technology, Inc. | Robot path planning method with static and dynamic collision avoidance in an uncertain environment |
-
2022
- 2022-03-18 CN CN202210269481.0A patent/CN114677588A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239746A (zh) * | 2017-05-16 | 2017-10-10 | 东南大学 | 一种面向道路救援安全监控的障碍物识别跟踪方法 |
CN109085838A (zh) * | 2018-09-05 | 2018-12-25 | 南京理工大学 | 一种基于激光定位的动态障碍物剔除算法 |
CN109916409A (zh) * | 2019-03-25 | 2019-06-21 | 浙江大学昆山创新中心 | 一种静态地图自适应更新方法和装置 |
CN110286387A (zh) * | 2019-06-25 | 2019-09-27 | 深兰科技(上海)有限公司 | 应用于自动驾驶系统的障碍物检测方法、装置及存储介质 |
US20210370510A1 (en) * | 2020-05-26 | 2021-12-02 | Edda Technology, Inc. | Robot path planning method with static and dynamic collision avoidance in an uncertain environment |
CN112799095A (zh) * | 2020-12-31 | 2021-05-14 | 深圳市普渡科技有限公司 | 静态地图生成方法、装置、计算机设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
蔡自兴;肖正;于金霞;: "基于激光雷达的动态障碍物实时检测", 控制工程, no. 02, 20 March 2008 (2008-03-20) * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116661468A (zh) * | 2023-08-01 | 2023-08-29 | 深圳市普渡科技有限公司 | 障碍物检测方法、机器人及计算机可读存储介质 |
CN116661468B (zh) * | 2023-08-01 | 2024-04-12 | 深圳市普渡科技有限公司 | 障碍物检测方法、机器人及计算机可读存储介质 |
CN117055601A (zh) * | 2023-09-05 | 2023-11-14 | 广东工业大学 | 一种无人机送餐路径规划方法、装置、设备及存储介质 |
CN117055601B (zh) * | 2023-09-05 | 2024-05-31 | 广东工业大学 | 一种无人机送餐路径规划方法、装置、设备及存储介质 |
CN117951240A (zh) * | 2024-03-27 | 2024-04-30 | 国能龙源环保有限公司 | 全局三维点云地图存储和实时体素检索方法、装置及设备 |
CN118024262A (zh) * | 2024-04-11 | 2024-05-14 | 深圳市普渡科技有限公司 | 运行状态检测方法、装置、设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108198145B (zh) | 用于点云数据修复的方法和装置 | |
CN110893617B (zh) | 障碍物检测方法、装置及存储装置 | |
CN114677588A (zh) | 障碍物检测的方法、装置、机器人和存储介质 | |
CN111797650B (zh) | 障碍物的识别方法、装置、计算机设备和存储介质 | |
US20200184726A1 (en) | Implementing three-dimensional augmented reality in smart glasses based on two-dimensional data | |
CN113052907B (zh) | 一种动态环境移动机器人的定位方法 | |
CN110738730B (zh) | 点云匹配方法、装置、计算机设备和存储介质 | |
EP4295268A1 (en) | Computer vision systems and methods for supplying missing point data in point clouds derived from stereoscopic image pairs | |
KR20220161341A (ko) | 이미지 처리 시스템 및 방법 | |
CN115345942A (zh) | 空间标定方法、装置、计算机设备和存储介质 | |
WO2020133080A1 (zh) | 物体定位方法、装置、计算机设备及存储介质 | |
KR20230049969A (ko) | 글로벌 측위 장치 및 방법 | |
CN113671523A (zh) | 机器人定位方法、装置、存储介质及机器人 | |
CN111198563B (zh) | 一种用于足式机器人动态运动的地形识别方法及系统 | |
CN117250956A (zh) | 一种多观测源融合的移动机器人避障方法和避障装置 | |
CN116921932A (zh) | 焊接轨迹识别方法、装置、设备及存储介质 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
Amamra et al. | Real-time multiview data fusion for object tracking with RGBD sensors | |
CN116469101A (zh) | 数据标注方法、装置、电子设备及存储介质 | |
CN112669388B (zh) | 激光雷达与摄像装置的标定方法及装置、可读存储介质 | |
CN112967399A (zh) | 三维时序图像生成方法、装置、计算机设备和存储介质 | |
KR20210116161A (ko) | 단일 체커보드를 이용하는 이종 센서 캘리브레이션 방법 및 장치 | |
CN116740681B (zh) | 目标检测方法、装置、车辆和存储介质 | |
CN117649619B (zh) | 无人机视觉导航定位回收方法、系统、装置及可读存储介质 | |
CN117237544B (zh) | 一种训练数据的生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |