CN114937079A - 一种障碍物检测方法、装置及一种机器人 - Google Patents
一种障碍物检测方法、装置及一种机器人 Download PDFInfo
- Publication number
- CN114937079A CN114937079A CN202210589613.8A CN202210589613A CN114937079A CN 114937079 A CN114937079 A CN 114937079A CN 202210589613 A CN202210589613 A CN 202210589613A CN 114937079 A CN114937079 A CN 114937079A
- Authority
- CN
- China
- Prior art keywords
- initial
- obstacle
- image
- area
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Artificial Intelligence (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种障碍物检测方法、装置及一种机器人,涉及图像识别技术领域。在对障碍物进行检测时,可以首先获取关于指定区域的深度图像和用于生成深度图像的指定图像;然后,对深度图像进行障碍物检测,得到深度图像中包括的初始障碍物在深度图像中所在的初始区域,以及初始障碍物的距离;当初始障碍物的距离小于预设的距离阈值时,确定指定图像中与初始区域对应的目标区域,并获取目标区域的散斑的数量;进而,基于数量、初始区域的面积以及预设的散斑密度阈值,检测是否剔除初始障碍物,并根据检测结果,确定关于指定区域的障碍物检测结果。与相关技术相比,应用本发明实施例提供的方案,可以提高障碍物检测的准确性。
Description
技术领域
本发明涉及图像识别技术领域,特别是涉及一种障碍物检测方法、装置及一种机器人。
背景技术
随着科学技术的发展,机器人被广泛应用于多种场景。例如,餐厅使用机器人送餐,家庭中使用机器人打扫卫生等。机器人在移动过程中,需要实时感知行进方向上的障碍物,以避免与障碍物相撞。
相关技术中,机器人主要通过双目相机所拍摄的深度图像,获取障碍物的位置及大小,进而,躲避障碍物。
然而,在上述相关技术中,由于双目相机可能会对弱纹理、重复纹理等区域产生错误的深度信息,例如,对于远处的区域,双目相机产生距离较近的错误深度信息,使得深度图像不能准确显示障碍物的距离,导致机器人对障碍物的误判,从而,降低障碍物检测的准确性。
发明内容
本发明实施例的目的在于提供一种障碍物检测方法、装置及一种机器人,以提高障碍物检测的准确性。具体技术方案如下:
第一方面,本发明实施例提供了一种障碍物检测方法,所述方法包括:
获取关于指定区域的深度图像和用于生成所述深度图像的指定图像;其中,所述指定图像中存在散斑;
对所述深度图像进行障碍物检测,得到所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,以及所述初始障碍物的距离;
当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量;
基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物,并根据检测结果,确定关于所述指定区域的障碍物检测结果。
可选的,一种具体实现方式中,所述对所述深度图像进行障碍物检测,得到初始障碍物的距离的步骤,包括:
将所述深度图像转换为3D点云图像,并对所述3D点云图像进行点云聚类;
根据聚类结果,确定所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,并根据所述初始区域对应的深度信息,确定所述初始障碍物的距离。
可选的,一种具体实现方式中,在当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量的步骤之前,所述方法还包括:
确定所述初始区域的面积。
可选的,一种具体实现方式中,所述基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物的步骤,包括:
若所述数量小于所述初始区域的面积与预设的散斑密度阈值的比值,则确定剔除所述初始障碍物。
可选的,一种具体实现方式中,所述基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物的步骤,包括:
若所述初始区域的面积与所述数量的比值小于预设的散斑密度阈值,则确定剔除所述初始障碍物。
可选的,一种具体实现方式中,所述获取关于指定区域的深度图像的步骤,包括:
获取双目相机的左相机采集的左图像,以及所述双目相机的右相机采集的右图像;
确定所述左图像与所述右图像中的基准图,并以所述基准图为基准,利用所述左图像和所述右图像生成关于指定区域的深度图;其中,所述指定图像为所述基准图。
第二方面,本发明实施例提供了一种障碍物检测装置,所述装置包括:
图像获取模块,用于获取关于指定区域的深度图像和用于生成所述深度图像的指定图像;其中,所述指定图像中存在散斑;
检测模块,用于对所述深度图像进行障碍物检测,得到所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,以及所述初始障碍物的距离;
数量获取模块,用于当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量;
检测结果确定模块,用于基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物,并根据检测结果,确定关于所述指定区域的障碍物检测结果。
可选的,一种具体实现方式中,所述检测模块具体用于:
将所述深度图像转换为3D点云图像,并对所述3D点云图像进行点云聚类;
根据聚类结果,确定所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,并根据所述初始区域对应的深度信息,确定所述初始障碍物的距离。
可选的,一种具体实现方式中,所述装置还包括:
面积确定模块,用于当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量的步骤之前,确定所述初始区域的面积。
可选的,一种具体实现方式中,所述检测结果确定模块具体用于:
若所述数量小于所述初始区域的面积与预设的散斑密度阈值的比值,则确定剔除所述初始障碍物。
可选的,一种具体实现方式中,所述检测结果确定模块具体用于:
若所述初始区域的面积与所述数量的比值小于预设的散斑密度阈值,则确定剔除所述初始障碍物。
可选的,一种具体实现方式中,所述图像获取模块具体用于:
获取双目相机的左相机采集的左图像,以及所述双目相机的右相机采集的右图像;
确定所述左图像与所述右图像中的基准图,并以所述基准图为基准,利用所述左图像和所述右图像生成关于指定区域的深度图;其中,所述指定图像为所述基准图。
第三方面,本发明实施例提供了一种机器人,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一方法实施例的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一方法实施例的步骤。
第五方面,本发明实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一方法实施例的步骤。
本发明实施例有益效果:
以上可见,应用本发明实施例提供的方案,在对障碍物进行检测时,可以首先获取关于指定区域的深度图像和用于生成深度图像的指定图像;其中,指定图像中存在散斑;然后,对深度图像进行障碍物检测,得到深度图像中包括的初始障碍物在该深度图像中所在的初始区域,以及该初始障碍物的距离;当该初始障碍物的距离小于预设的距离阈值时,确定指定图像中与初始区域对应的目标区域,并获取目标区域的散斑的数量;进而,基于散斑的数量、初始区域的面积以及预设的散斑密度阈值,检测是否剔除初始障碍物,并根据检测结果,确定关于指定区域的障碍物检测结果。
以上可见,应用本发明实施例提供的方案,可以基于障碍物在图像中所在区域的散斑密度以及预设的散斑密度阈值的关系,对从深度图中检测到的障碍物进行进一步检测。其中,根据光线传播的相关原理,散斑密度与散斑结构光传播距离存在对应关系,散斑结构光传播距离越远,则散斑密度越小。因此,对于距离小于预设的距离阈值的区域而言,该区域的散斑密度应不小于与该距离阈值相对应的散斑密度阈值。这样,针对从深度图中检测到的障碍物,当该障碍物的距离小于预设距离时,可以对比该障碍物所在区域的散斑密度与预设的散斑密度阈值,进而,当该障碍物所在区域的散斑密度小于预设的散斑密度阈值时,可以确定该障碍物的距离存在误判,即该障碍物的实际距离大于上述预设距离,从而,无需对该障碍物进行避让,可以剔除该障碍物。基于此,可以避免由于深度图像产生的错误深度信息使得障碍物距离检测错误所导致的障碍物误判的情况发生,从而,提高障碍物检测的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的实施例。
图1为一种双目相机散斑模式下,散斑密度分布的示意图;
图2为本发明实施例提供的深度图像对障碍物进行误判的具体实例的示意图;
图3为本发明实施例提供的障碍物检测方法的一种流程示意图;
图4为本发明实施例提供的S302的一种具体实现方式的流程示意图;
图5为本发明实施例提供的障碍物检测方法的又一种流程示意图;
图6为本发明实施例提供的障碍物检测装置的一种结构示意图;
图7为本发明实施例提供的一种机器人的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本发明保护的范围。
相关技术中,机器人主要通过双目相机所拍摄的深度图像,获取障碍物的位置及大小,进而,躲避障碍物。
然而,在上述相关技术中,由于双目相机可能会对弱纹理、重复纹理等区域产生错误的深度信息,例如,对于远处的区域,双目相机产生距离较近的错误深度信息,使得深度图像不能准确显示障碍物的距离,导致机器人对障碍物的误判,从而,降低障碍物检测的准确性。
为了解决上述技术问题,本发明实施例提供了一种障碍物检测方法。
其中,该方法可以适用于需要对障碍物进行检测的各类应用场景,例如,AGV(Automated Guided Vehicle,自动导引运输车)对前方道路上的障碍物进行检测;扫地机器人对地面上的障碍物进行检测等。并且,该方法可以应用于搭载了深度图像获取设备的机器人,也可以应用于与机器人相通信的其他电子设备上,例如,与机器人相通信的服务器可以获取关于指定区域的深度图像及生成该深度图像的图像,并对障碍物进行检测。基于此,本发明实施例不对该方法的应用场景和执行主体进行限定。
本发明实施例提供的一种障碍物检测方法可以包括如下步骤:
获取关于指定区域的深度图像和关于用于生成所述深度图像的指定图像;其中,所述指定图像中存在散斑;
对所述深度图像进行障碍物检测,得到所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,以及所述初始障碍物的距离;
当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量;
基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物,并根据检测结果,确定关于所述指定区域的障碍物检测结果。
以上可见,应用本发明实施例提供的方案,可以基于障碍物在图像中所在区域的散斑密度以及预设的散斑密度阈值的关系,对从深度图中检测到的障碍物进行进一步检测。其中,根据光线传播的相关原理,散斑密度与散斑结构光传播距离存在对应关系,散斑结构光传播距离越远,则散斑密度越小。因此,对于距离小于预设的距离阈值的区域而言,该区域的散斑密度应不小于与该距离阈值相对应的散斑密度阈值。这样,针对从深度图中检测到的障碍物,当该障碍物的距离小于预设距离时,可以对比该障碍物所在区域的散斑密度与预设的散斑密度阈值,进而,当该障碍物所在区域的散斑密度小于预设的散斑密度阈值时,可以确定该障碍物的距离存在误判,即该障碍物的实际距离大于上述预设距离,从而,无需对该障碍物进行避让,可以剔除该障碍物。基于此,可以避免由于深度图像产生的错误深度信息使得障碍物距离检测错误所导致的障碍物误判的情况发生,从而,提高障碍物检测的准确性。
为了更好地理解本发明实施例提供的一种障碍物检测方法,首先对本发明实施例中涉及到的“散斑”进行说明。
图像采集装置具有散斑模式,当图像采集装置开启散斑模式对指定区域进行拍摄时,该图像采集装置所搭载的散斑投射设备向指定区域发射散斑结构光。上述散斑结构光可以投射在指定区域所包含的物品上,进而,上述散斑结构光可以在图像采集装置所采集的关于指定区域的图像中呈现白色斑点,该白色斑点即为散斑,从而,图像中某个区域内的白色斑点的数量,即为该区域内的散斑的数量。
其中,散斑投射设备发射的散斑结构光,在一定距离内可以被图像采集装置所采集,并且,随着传播距离的增加,散斑结构光所携带的能量逐渐衰减,散斑结构光逐渐稀疏,进而,其在图像采集装置所采集的图像上的散斑密度逐渐减小。基于此,可以通过图像中各个区域的散斑密度,来判断该区域在空间中距离图像采集装置的距离。
如图1所示,图像采集装置为双目相机,其中,双目相机所搭载的散斑投射设备所发射的散斑结构光所携带的能量随着传播距离的增大而衰减,散斑结构光逐渐变得稀疏,在一定范围内将不能被双目相机所拍摄到。如图1所示,区域1与区域2面积相同,但是距离双目相机的距离不同,从而,距离双目相机较近的区域1上有3个散斑,距离双目相机较远的区域2上仅有1个散斑,即距离双目相机较近的区域1的散斑密度大于距离双目相机较远的区域2的散斑密度。
基于此,使用图像中所包含的散斑对指定区域进行障碍物检测时,可以剔除因指定区域的纹理较弱、纹理重复等原因误检测到的障碍物,提高障碍物检测的准确性。
示例性的,如图2所示,AGV搭载了双目相机,该双目相机可以采集前方区域的图像,并计算得到该区域的深度图像。图2中左图为对前方区域的深度图像进行颜色渲染之后的示意图,在该深度图像中不同距离的障碍物用不同的颜色渲染,方框1为所检测到的一个障碍物,该障碍物的实际距离为5米,但是由于该障碍物所在区域的纹理较弱且纹理重复,该障碍物的距离被双目相机误检为1米。图2中右图为生成上述深度图像的图像,该图像中可以显示有散斑,即图2中右图中的各个白色斑点即为散斑。其中,方框2为方框1所示障碍物在图像中所对应的区域。基于如前所述的散斑结构光的传播距离与散斑密度的关系,由于方框2中的散斑密度小于预设的1米所对应的散斑密度,从而,可以确定方框1所示障碍物的距离大于1米。在将距离不大于1米的障碍物确定为需要避让的真实障碍物的情况下,可以剔除上述方框1所示障碍物,即可以确定无需避让上述方框1所示障碍物,从而,提升AGV在复杂场景下运行的流畅性。
在上述对散斑进行说明的内容的基础上,下面,结合附图,对本申请实施例提供的一种障碍物检测方法进行具体说明。
图3为本发明实施例提供的一种障碍物检测方法的流程示意图,如图1所示,该方法可以包括如下步骤S301-S304。
S301:获取关于指定区域的深度图像和用于生成深度图像的指定图像;
其中,指定图像中存在散斑;
在对一个区域进行障碍物检测时,可以将该区域作为指定区域。之后,可以获取关于该指定区域的深度图像以及生成该深度图像的指定图像,并且上述指定图像中,可以包含关于该指定区域的散斑信息。
其中,针对上述指定区域,可以通过图像采集装置获取散斑模式下,关于该指定区域的多张候选图像,之后,在上述多张候选图像中选取一张图像,作为指定图像。进而,将上述指定图像作为生成该指定区域的深度图像的基准图,并以该基准图为基准,利用上述多张候选图像,使用算法模型计算得到关于该指定区域的深度图像。其中,上述算法模型可以是SGM(semi-global matching,半全局匹配)算法,也可以是SGBM(semi-global blockmatching,半全局块匹配)算法,还可以是其他算法,在本发明实施例中不做具体限定。
上述图像采集装置可以是任意具有散斑模式且可以获取图像的设备,例如,具有散斑模式的双目相机等,并且,上述图像采集装置所采集的图像可以是灰度图,也可以是彩色图像,也就是说,上述指定图像可以是指定灰度图,也可以是指定彩色图像;对此,在本发明实施例中不做具体限定,上述指定图像可以是能够生成深度图像的任意类型的图像。
例如,上述深度图像可以是基于双目相机采集到的两张灰度图计算得到的;从而,可以将两个灰度图中的左图或右图作为指定灰度图。
可选的,一种具体实现方式中,上述步骤S301可以包括如下步骤11-12:
步骤11:获取双目相机的左相机采集的左图像,以及双目相机的右相机采集的右图像;
步骤12:确定左图像与右图像中的基准图,并以基准图为基准,利用左图像和右图像生成关于指定区域的深度图;其中,指定图像为基准图。
在本具体实现方式中,可以通过双目相机获取关于指定区域的深度图像。其中,使用双目相机拍摄指定区域,可以得到双目相机的左相机采集的左图像,以及双目相机的右相机采集的右图像。
其中,使用双目相机拍摄指定区域时,可以得到该指定区域的左图像和右图像。通常将该双目相机拍摄的左图像或者右图像作为基准图,并将另一张图像与该基准图进行立体匹配,得到与该基准图相对应的深度图像。基于此,可以将上述基准图作为用于进行障碍物检测的指定图像。
示例性的,使用双目相机拍摄指定区域,得到关于指定区域的左图像与右图像,将左图像作为基准图,并将右图像中与该基准图进行立体匹配,得到关于指定区域的深度图像。从而,可以将左图像作为上述指定图像。
S302:对深度图像进行障碍物检测,得到深度图像中包括的初始障碍物在深度图像中所在的初始区域,以及初始障碍物的距离;
在获取上述深度图像后,可以对上述深度图像进行障碍物检测,以确定上述深度图像中存在障碍物的区域,之后根据各个区域的深度信息,可以确定上述深度图像中存在的障碍物的距离。其中,由于还需要对所检测到的障碍物进行进一步检测,因此,可以将上述所检测到的障碍物称为初始障碍物。
这样,便可以通过对上述深度图像的障碍物检测,得到深度图像中包括的初始障碍物在深度图像中所在的初始区域,以及初始障碍物的距离,并且,上述深度图像中包括的初始障碍物的数量可以是一个,也可以是多个。
其中,可以通过多种方式执行上述步骤S302;例如,基于该深度图像,建立一个三维模型,进而,读取该三维模型中初始障碍物所在的初始区域,以及初始障碍物的距离。
需要强调的是,上述举例仅仅是对上述步骤S302的举例说明,任何可以执行上述步骤S302,得到深度图像中所包括的初始障碍物在该深度图像中所在的初始区域,以及该初始障碍物的距离的方案,均属于本发明实施例的保护范围。
可选的,一种具体实现方式中,如图4所示,上述步骤S302,可以包括步骤S3021-S3022:
S3021:将深度图像转换为3D点云图像,并对3D点云图像进行点云聚类;
S3022:根据聚类结果,确定深度图像中包括的初始障碍物在深度图像中所在的初始区域,并根据初始区域对应的深度信息,确定初始障碍物的距离。
在本具体实现方式中,在对上述关于指定区域的深度图像进行障碍物检测时,可以将上述深度图像转换为3D点云图像。其中,上述3D点云图像可以基于3D原始数据点,对深度图像的深度信息进行显示。之后,可以确定该3D点云图像中的多个点云中心。进而,基于上述多个点云中心以及预设的阈值,利用聚类算法,对上述3D点云图像进行点云聚类,得到多个以点云中心为聚类中心的点云聚集区域。其中,上述每个点云聚集区域可以表征该指定区域中的一个初始障碍物所在的初始区域。
进而,通过获取3D点云图像中点云聚集区域的数量可以得到该深度图像中包含的初始障碍物所在的初始区域的数量;并且,基于每个点云聚集区域,可以确定每个初始障碍物在深度图像中所在的区域,以及每个初始障碍物所在区域对应的深度信息,从而,基于上述每个初始障碍物所在区域对应的深度信息,可以确定该初始障碍物的距离。
其中,上述聚类算法可以是k-means(K均值)聚类算法,也可以是DBSCAN(Density-Based Spatial Clustering of Applications with Noise,基于密度的噪声应用空间聚类)算法,这都是合理的,在本方面实例中不对聚类算法进行具体限定。
S303:当初始障碍物的距离小于预设的距离阈值时,确定指定图像中与初始区域对应的目标区域,并获取目标区域的散斑的数量;
S304:基于数量、初始区域的面积以及预设的散斑密度阈值,检测是否剔除初始障碍物,并根据检测结果,确定关于指定区域的障碍物检测结果。
针对上述所检测到的每个初始障碍物,可以将获取到的该初始障碍物的距离与预设的距离阈值进行比较。这样,当该初始障碍物的距离小于预设的距离阈值时,可以初步确定该初始障碍物可能为真实存在的障碍物。然而,由于对弱纹理、重复纹理等区域而言,深度图像中可能产生错误的深度信息,因此,对该初始障碍物的距离可能存在误判,因此,可以进一步对该初始障碍物的真实性以及距离的判断准确性进行检测。
基于此,当该初始障碍物的距离小于预设的距离阈值时,可以使用上述指定图像对该初始障碍物进行进一步检测。
其中,可以首先获取该初始障碍物在指定图像中所在的目标区域,该目标区域与该初始障碍物在深度图像中所在的初始区域相对应,进而,可以确定该初始区域的面积,并获取该目标区域的散斑的数量。
所谓上述目标区域与初始区域相对应是指:二者对应于空间中的同一区域。
其中,上述初始区域的面积可以从深度图像中获取,也可以从指定图像中获取。
可选的,初始障碍物所在的初始区域的面积可以通过步骤S302中对深度图像进行障碍物检测,获取初始障碍物在深度图像中所在的初始区域时获取得到。也就是说,在上述步骤S303之前,可以首先确定该初始区域的面积。
可选的,可以在确定上述目标区域后,进一步确定该目标区域的面积,从而,由于上述目标区域与初始区域的形状和大小均相同,因此,可以将所确定的目标区域的面积作为上述初始区域的面积。也就是说,在确定指定图像中与初始区域对应的目标区域后,可以进一步确定该目标区域的面积。
其中,可以根据实际应用中上述深度图像与指定图像之间的角度关系,选取上述初始区域的面积的确定方式。
上述预设的距离阈值是指机器人移动过程中需要避让的障碍物距离该机器人的最大距离。也就是说,当检测到存在与机器人的距离小于上述预设的距离阈值的障碍物时,机器人可以改变移动状态以避让该障碍物,例如,机器人停止移动,机器人改变移动方向等。并且,该距离阈值可以是3米,也可以是5米,还可以是10米,这都是合理的,对此,本发明实施例不做具体限定。
基于如前所述的散斑结构光的发散特性,即散斑结构光的传播距离与散斑密度的关系,上述预设的散斑密度阈值与上述预设的距离阈值相对应。示例性的,当预设的距离阈值为3米时,预设的散斑密度阈值可以为10个/每平方米;当预设的距离阈值为5米时,预设的散斑密度阈值可以为5个/每平方米;在本发明实施例中,不对预设距离和预设的散斑密度阈值及其数量对应关系进行具体限定。
针对距离小于该距离阈值的初始障碍物,可以基于该初始障碍物在深度图像中所在初始区域的面积、该初始障碍物在指定图像中所在目标区域的散斑的数量,以及预设的散斑密度阈值,判断该初始障碍物在指定图像中所在目标区域的散斑密度是否小于上述散斑密度阈值,并根据判断结果,确定对该初始障碍物的距离是否存在误判,从而,确定是否剔除该初始障碍物。
其中,当该初始障碍物在指定图像中所在目标区域的散斑密度小于上述预设的散斑密度阈值时,可以确定对上述初始障碍物的距离存在误判,则可以确定剔除该初始障碍物;当该初始障碍物在指定图像中所在目标区域的散斑密度不小于上述预设的散斑密度阈值时,可以确定对上述初始障碍物的距离不存在误判,应将该初始障碍物作为真实存在的障碍物进行避让。
当检测到多个初始障碍物时,可以依次对每个障碍物执行上述步骤S303-304,也可以同时对多个障碍物执行上述步骤S303-S304。
进而,在执行完上述步骤S303-S304后,可以确定上述初始障碍物中所保留的障碍物,从而,得到所保留的障碍物的数量,以及所保留的每个障碍物的距离。
基于此,可选的,可以基于上述得到的所保留的障碍物的数量,以及所保留的每个障碍物的距离,确定机器人的移动状态。
其中,基于上述获取到的初始障碍物所在目标区域的散斑的数量、初始障碍物在深度图像中所在初始区域的面积以及预设的散斑密度阈值,判断初始障碍物在指定图像中所在目标区域的散斑密度是否小于上述散斑密度阈值时,可以比较初始障碍物在深度图像中所在目标区域的散斑的数量与按照预设的散斑密度阈值上述初始区域的散斑的理论数量的大小;也可以首先计算上述初始区域的面积与上述数量的比值,得到上述初始区域的散斑密度,进而,比较该初始区域的散斑密度与预设的散斑密度阈值的大小。
可选的,一种具体实现方式中,上述步骤S304可以包括如下步骤21:
步骤21:若数量小于初始区域的面积与预设的散斑密度阈值的比值,则确定剔除初始障碍物。
在本具体实现方式中,可以比较初始障碍物在深度图像中所在目标区域的散斑的数量与按照预设的散斑密度阈值上述初始区域的散斑的理论数量的大小。即可以首先计算该初始障碍物在深度图像中所在初始区域的面积与预设的散斑密度阈值的比值,进而,比较该比值与该初始障碍物所在目标区域的散斑的数量的大小。其中,在该初始障碍物所在目标区域的散斑的数量小于上述比值时,可以确定对上述初始障碍物的距离存在误判,从而,可以确定剔除该初始障碍物。
可选的,一种具体实现方式中,上述步骤S304可以包括如下步骤31:
步骤31:若初始区域的面积与数量的比值小于预设的散斑密度阈值,则确定剔除初始障碍物。
在本具体实现方式中,可以首先计算上述初始区域的面积与上述数量的比值,得到上述初始区域的散斑密度,进而,比较该初始区域的散斑密度与预设的散斑密度阈值的大小。当该初始区域的散斑密度小于预设的散斑密度阈值时,可以确定对上述初始障碍物的距离存在误判,从而,可以确定剔除该初始障碍物。
以上可见,应用本发明实施例提供的方案,可以基于障碍物在图像中所在区域的散斑密度以及预设的散斑密度阈值的关系,对从深度图中检测到的障碍物进行进一步检测。其中,根据光线传播的相关原理,散斑密度与散斑结构光传播距离存在对应关系,散斑结构光传播距离越远,则散斑密度越小。因此,对于距离小于预设的距离阈值的区域而言,该区域的散斑密度应不小于与该距离阈值相对应的散斑密度阈值。这样,针对从深度图中检测到的障碍物,当该障碍物的距离小于预设距离时,可以对比该障碍物所在区域的散斑密度与预设的散斑密度阈值,进而,当该障碍物所在区域的散斑密度小于预设的散斑密度阈值时,可以确定该障碍物的距离存在误判,即该障碍物的实际距离大于上述预设距离,从而,无需对该障碍物进行避让,可以剔除该障碍物。基于此,可以避免由于深度图像产生的错误深度信息使得障碍物距离检测错误所导致的障碍物误判的情况发生,从而,提高障碍物检测的准确性。
示例性的,为了便于理解本发明实施例提供的一种障碍物检测方法的具体实现方式,下面,结合图5进行具体说明。
如图5所示,在对指定区域进行散斑检测时,可以首先获取该指定区域的深度图像,接着,将该深度图像转换为3D点云图,并对3D点云图进行点云聚类,得到初始障碍物个数N与每个初始障碍物的ROI(Region Of Interest,感兴趣区域),即得到每个初始障碍物在深度图像中所在的初始区域。
接着,针对N个初始障碍物中的每个初始障碍物i,判断循环变量i是否不大于N,若不是,则已完成对N个初始障碍物的检测;若是,则可以判断该初始障碍物的距离是否小于预设的距离阈值D_th,若该初始障碍物距离不小于D_th,则可以直接剔除该初始障碍物,并对其他初始障碍物进行检测;若该障碍物距离小于D_th,则确定该初始障碍物的图像ROI中的散斑个数,所谓该初始障碍物的图像ROI即为该在指定图像中对应的目标区域的散斑个数。之后判断散斑个数是否小于RIO面积与预设面积阈值Area_th的比值,若散斑个数不小于RIO面积与预设面积阈值Area_th的比值,则对其他初始障碍物进行检测;若散斑个数小于RIO面积与预设面积阈值Area_th的比值,则剔除该初始障碍物。当检测完指定区域内的N个初始障碍物,生成该指定区域的初始障碍物检测结果。
基于相同的发明构思,相应于上述本发明实施例提供的图3所示的一种障碍物检测方法,本发明实施例还提供了一种障碍物检测装置。
图6为本发明实施例提供一种视频处理装置的结构示意图,如图6所示,该装置可以包括如下模块:
图像获取模块610,用于获取关于指定区域的深度图像和用于生成所述深度图像的指定图像;其中,所述指定图像中存在散斑;
检测模块620,用于对所述深度图像进行障碍物检测,得到所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,以及所述初始障碍物的距离;
数量获取模块630,用于当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量;
检测结果确定模块640,用于基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物,并根据检测结果,确定关于所述指定区域的障碍物检测结果。
以上可见,应用本发明实施例提供的方案,可以基于障碍物在图像中所在区域的散斑密度以及预设的散斑密度阈值的关系,对从深度图中检测到的障碍物进行进一步检测。其中,根据光线传播的相关原理,散斑密度与散斑结构光传播距离存在对应关系,散斑结构光传播距离越远,则散斑密度越小。因此,对于距离小于预设的距离阈值的区域而言,该区域的散斑密度应不小于与该距离阈值相对应的散斑密度阈值。这样,针对从深度图中检测到的障碍物,当该障碍物的距离小于预设距离时,可以对比该障碍物所在区域的散斑密度与预设的散斑密度阈值,进而,当该障碍物所在区域的散斑密度小于预设的散斑密度阈值时,可以确定该障碍物的距离存在误判,即该障碍物的实际距离大于上述预设距离,从而,无需对该障碍物进行避让,可以剔除该障碍物。基于此,可以避免由于深度图像产生的错误深度信息使得障碍物距离检测错误所导致的障碍物误判的情况发生,从而,提高障碍物检测的准确性。
可选的,一种具体实现方式中,所述检测模块620具体用于:
将所述深度图像转换为3D点云图像,并对所述3D点云图像进行点云聚类;
根据聚类结果,确定所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,并根据所述初始区域对应的深度信息,确定所述初始障碍物的距离。
可选的,一种具体实现方式中,所述装置还包括:
面积确定模块,用于当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量的步骤之前,确定所述初始区域的面积。
可选的,一种具体实现方式中,所述检测结果620确定模块具体用于:
若所述数量小于所述初始区域的面积与预设的散斑密度阈值的比值,则确定剔除所述初始障碍物。
可选的,一种具体实现方式中,所述检测结果确定模块640具体用于:
若所述初始区域的面积与所述数量的比值小于预设的散斑密度阈值,则确定剔除所述初始障碍物。
可选的,一种具体实现方式中,所述图像获取模块610具体用于:
获取双目相机的左相机采集的左图像,以及所述双目相机的右相机采集的右图像;
确定所述左图像与所述右图像中的基准图,并以所述基准图为基准,利用所述左图像和所述右图像生成关于指定区域的深度图;其中,所述指定图像为所述基准图。
本发明实施例还提供了一种机器人,如图7所示,包括处理器701、通信接口702、存储器703和通信总线704,其中,处理器701,通信接口702,存储器703通过通信总线704完成相互间的通信,
存储器703,用于存放计算机程序;
处理器701,用于执行存储器703上所存放的程序时,实现上述本发明实施例提供的任一障碍物检测方法的步骤。
上述机器人提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述机器人与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一障碍物检测方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一障碍物检测方法的步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例、机器人实施例、计算机可读存储介质实施例以及计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (9)
1.一种障碍物检测方法,其特征在于,所述方法包括:
获取关于指定区域的深度图像和用于生成所述深度图像的指定图像;其中,所述指定图像中存在散斑;
对所述深度图像进行障碍物检测,得到所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,以及所述初始障碍物的距离;
当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量;
基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物,并根据检测结果,确定关于所述指定区域的障碍物检测结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述深度图像进行障碍物检测,得到初始障碍物的距离的步骤,包括:
将所述深度图像转换为3D点云图像,并对所述3D点云图像进行点云聚类;
根据聚类结果,确定所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,并根据所述初始区域对应的深度信息,确定所述初始障碍物的距离。
3.根据权利要求1所述的方法,其特征在于,在当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量的步骤之前,所述方法还包括:
确定所述初始区域的面积。
4.根据权利要求1所述的方法,其特征在于,所述基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物的步骤,包括:
若所述数量小于所述初始区域的面积与预设的散斑密度阈值的比值,则确定剔除所述初始障碍物。
5.根据权利要求1所述的方法,其特征在于,所述基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物的步骤,包括:
若所述初始区域的面积与所述数量的比值小于预设的散斑密度阈值,则确定剔除所述初始障碍物。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述获取关于指定区域的深度图像的步骤,包括:
获取双目相机的左相机采集的左图像,以及所述双目相机的右相机采集的右图像;
确定所述左图像与所述右图像中的基准图,并以所述基准图为基准,利用所述左图像和所述右图像生成关于指定区域的深度图;其中,所述指定图像为所述基准图。
7.一种障碍物检测装置,其特征在于,所述装置包括:
图像获取模块,用于获取关于指定区域的深度图像和用于生成所述深度图像的指定图像;其中,所述指定图像中存在散斑;
检测模块,用于对所述深度图像进行障碍物检测,得到所述深度图像中包括的初始障碍物在所述深度图像中所在的初始区域,以及所述初始障碍物的距离;
数量获取模块,用于当所述初始障碍物的距离小于预设的距离阈值时,确定所述指定图像中与所述初始区域对应的目标区域,并获取所述目标区域的散斑的数量;
检测结果确定模块,用于基于所述数量、所述初始区域的面积以及预设的散斑密度阈值,检测是否剔除所述初始障碍物,并根据检测结果,确定关于所述指定区域的障碍物检测结果。
8.一种机器人,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-6任一所述的方法步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-6任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210589613.8A CN114937079A (zh) | 2022-05-27 | 2022-05-27 | 一种障碍物检测方法、装置及一种机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210589613.8A CN114937079A (zh) | 2022-05-27 | 2022-05-27 | 一种障碍物检测方法、装置及一种机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114937079A true CN114937079A (zh) | 2022-08-23 |
Family
ID=82866163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210589613.8A Pending CN114937079A (zh) | 2022-05-27 | 2022-05-27 | 一种障碍物检测方法、装置及一种机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114937079A (zh) |
-
2022
- 2022-05-27 CN CN202210589613.8A patent/CN114937079A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109087510B (zh) | 交通监测方法及装置 | |
CN109059902A (zh) | 相对位姿确定方法、装置、设备和介质 | |
CN110114692B (zh) | 一种地面环境的检测方法和装置 | |
WO2021072696A1 (zh) | 目标检测与跟踪方法、系统、可移动平台、相机及介质 | |
CN113936198B (zh) | 低线束激光雷达与相机融合方法、存储介质及装置 | |
US20210326613A1 (en) | Vehicle detection method and device | |
CN110544268B (zh) | 一种基于结构光及SiamMask网络的多目标跟踪方法 | |
CN113111513B (zh) | 传感器配置方案确定方法、装置、计算机设备及存储介质 | |
CN113888458A (zh) | 用于对象检测的方法和系统 | |
CN112771575A (zh) | 距离确定方法、可移动平台及计算机可读存储介质 | |
CN115147333A (zh) | 一种目标检测方法及装置 | |
CN113838125A (zh) | 目标位置确定方法、装置、电子设备以及存储介质 | |
CN114937079A (zh) | 一种障碍物检测方法、装置及一种机器人 | |
CN113014899B (zh) | 一种双目图像的视差确定方法、装置及系统 | |
CN114445591A (zh) | 地图构建方法、系统、设备以及计算机存储介质 | |
CN115236672A (zh) | 障碍物信息生成方法、装置、设备及计算机可读存储介质 | |
CN115527034B (zh) | 一种车端点云动静分割方法、装置及介质 | |
CN117290805A (zh) | 多识别设备的信息处理方法、控制装置及存储介质 | |
US20220270371A1 (en) | Determining Distance of Objects | |
CN116152770B (zh) | 一种3d目标匹配模型建立方法及装置 | |
EP4099211A1 (en) | Method and device for training a machine learning algorithm | |
Xing et al. | Barrier Detection and Tracking from Parameterized Lidar Data | |
CN115147803A (zh) | 一种物体检测方法及装置 | |
JP2023107676A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN117576665A (zh) | 一种面向自动驾驶的单摄像头三维目标检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 310051 room 304, B / F, building 2, 399 Danfeng Road, Binjiang District, Hangzhou City, Zhejiang Province Applicant after: Hangzhou Hikvision Robot Co.,Ltd. Address before: 310051 room 304, B / F, building 2, 399 Danfeng Road, Binjiang District, Hangzhou City, Zhejiang Province Applicant before: HANGZHOU HIKROBOT TECHNOLOGY Co.,Ltd. |