CN115703234B - 机器人控制方法、装置、机器人及存储介质 - Google Patents
机器人控制方法、装置、机器人及存储介质 Download PDFInfo
- Publication number
- CN115703234B CN115703234B CN202110887425.9A CN202110887425A CN115703234B CN 115703234 B CN115703234 B CN 115703234B CN 202110887425 A CN202110887425 A CN 202110887425A CN 115703234 B CN115703234 B CN 115703234B
- Authority
- CN
- China
- Prior art keywords
- scene
- point cloud
- cloud data
- robot
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000012545 processing Methods 0.000 claims description 22
- 238000001914 filtration Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 abstract description 14
- 230000000694 effects Effects 0.000 abstract description 8
- 238000004891 communication Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Landscapes
- Manipulator (AREA)
Abstract
本申请提出一种机器人控制方法、装置、机器人及存储介质,该方法包括:获取场景图像,并确定与场景图像对应的场景点云数据;从场景点云数据中,识别得到场景中障碍物的目标点云数据;根据目标点云数据,确定障碍物在场景中的相对位置信息;根据相对位置信息,对机器人执行目标控制操作。通过本申请,能够有效地降低外部因素对障碍物识别的影响,有效地提升障碍物识别准确性,还可以降低障碍物识别过程对机器人的资源消耗,从而能够有效地提升机器人控制的效果。
Description
技术领域
本申请涉及机器人技术领域,尤其涉及一种机器人控制方法、装置、机器人及存储介质。
背景技术
随着科学技术的快速发展,机器人控制方法被广泛运用于无人驾驶、医学检测、增强现实、航空航天、军事侦查等领域。
相关技术中,通常采用光流法结合运动恢复结构,以确定机器人和障碍物的距离,以实现对障碍物的识别。
这种方式下,对障碍物的误识别率较高,且在对障碍物进行识别的过程中,功率消耗较大,从而影响机器人的控制效果。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的一个目的在于提出一种机器人控制方法、装置、机器人及存储介质,能够有效地降低外部因素对障碍物识别的影响,有效地提升障碍物识别准确性,还可以降低障碍物识别过程对机器人的资源消耗,从而能够有效地提升机器人控制的效果。
为达到上述目的,本申请第一方面实施例提出的机器人控制方法,包括:获取场景图像,并确定与所述场景图像对应的场景点云数据;从所述场景点云数据中,识别得到场景中障碍物的目标点云数据;根据所述目标点云数据,确定所述障碍物在所述场景中的相对位置信息;根据所述相对位置信息,对所述机器人执行目标控制操作。
在本申请的一些实施例,所述从所述场景点云数据中,识别得到场景中障碍物的目标点云数据,包括:
对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据,所述地面点云数据,是所述场景中地面对应的点云数据;
从所述待处理点云数据中,识别得到场景中障碍物的目标点云数据。
在本申请的一些实施例中,在所述对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据之后,还包括:
对所述待处理点云数据进行滤波处理;
其中,所述从所述待处理点云数据中,识别得到场景中障碍物的目标点云数据,包括:
从滤波处理后的待处理点云数据中,识别得到所述场景中障碍物的目标点云数据。
在本申请的一些实施例中,在所述对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据之前,还包括:
确定摄像装置的摄像参数,其中,所述机器人采用所述摄像装置采集所述场景图像;
确定所述机器人与所述场景中地面之间的参考位置信息;
根据所述参考位置信息结合所述摄像参数,从所述场景图像之中识别出局部地面图像;
根据所述局部地面图像,从所述场景点云数据中识别出所述地面点云数据。
在本申请的一些实施例中,所述获取场景图像,并确定与所述场景图像对应的场景点云数据,包括:
获取第一场景图像和第二场景图像,所述第一场景图像和第二场景图像由配置在所述机器人中的不同摄像装置采集得到;
根据所述第一场景图像和所述第二场景图像,确定所述场景的景深信息;
根据所述景深信息结合所述场景图像确定所述场景点云数据。
在本申请的一些实施例中,所述获取第一场景图像和第二场景图像,包括:
在采用第一摄像装置采集所述第一场景图像时,采用第二摄像装置采集所述第二场景图像。
在本申请的一些实施例中,所述根据所述相对位置信息,对所述机器人执行目标控制操作,包括:
如果所述相对位置信息指示所述障碍物在所述场景的中间区域,则控制所述机器人向左前方或右前方或后退运动;
如果所述相对位置信息指示所述障碍物在所述场景的左侧区域,则控制所述机器人向右前方运动;
如果所述相对位置信息指示所述障碍物在所述场景的右侧区域,则控制所述机器人向左前方运动。
本申请第一方面实施例提出的机器人控制方法,通过获取场景图像,并确定与场景图像对应的场景点云数据,从场景点云数据中,识别得到场景中障碍物的目标点云数据,以及根据目标点云数据,确定障碍物在场景中的相对位置信息,根据相对位置信息,对机器人执行目标控制操作,由于是结合从场景中识别得到的障碍物的目标点云数据辅助确定出相对位置信息,以对机器人进行相应的控制操作,能够有效地降低外部因素对障碍物识别的影响,有效地提升障碍物识别准确性,还可以降低障碍物识别过程对机器人的资源消耗,从而能够有效地提升机器人控制的效果。
为达到上述目的,本申请第二方面实施例提出的机器人控制装置,包括:获取模块,用于获取场景图像,并确定与所述场景图像对应的场景点云数据;识别模块,用于从所述场景点云数据中,识别得到场景中障碍物的目标点云数据;确定模块,用于根据所述目标点云数据,确定所述障碍物在所述场景中的相对位置信息;控制模块,用于根据所述相对位置信息,对所述机器人执行目标控制操作。
在本申请的一些实施例中,所述识别模块,包括:
删除子模块,用于对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据,所述地面点云数据,是所述场景中地面对应的点云数据;
第一识别子模块,用于从所述待处理点云数据中,识别得到场景中障碍物的目标点云数据。
在本申请的一些实施例中,所述识别模块,还包括:
处理子模块,用于在所述对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据之后,对所述待处理点云数据进行滤波处理;
其中,所述第一识别子模块,具体用于:
从滤波处理后的待处理点云数据中,识别得到所述场景中障碍物的目标点云数据。
在本申请的一些实施例中,所述识别模块,还包括:
第一确定子模块,用于确定摄像装置的摄像参数,其中,所述机器人采用所述摄像装置采集所述场景图像;
第二确定子模块,用于确定所述机器人与所述场景中地面之间的参考位置信息;
第二识别子模块,用于根据所述参考位置信息结合所述摄像参数,从所述场景图像之中识别出局部地面图像;
第三识别子模块,用于根据所述局部地面图像,从所述场景点云数据中识别出所述地面点云数据。
在本申请的一些实施例中,所述获取模块,包括:
获取子模块,用于获取第一场景图像和第二场景图像,所述第一场景图像和第二场景图像由配置在所述机器人中的不同摄像装置采集得到;
第三确定子模块,用于根据所述第一场景图像和所述第二场景图像,确定所述场景的景深信息;
第四确定子模块,用于根据所述景深信息结合所述场景图像确定所述场景点云数据。
在本申请的一些实施例中,所述获取子模块,具体用于:
在采用第一摄像装置采集所述第一场景图像时,采用第二摄像装置采集所述第二场景图像。
在本申请的一些实施例中,所述控制模块,具体用于:
如果所述相对位置信息指示所述障碍物在所述场景的中间区域,则控制所述机器人向左前方或右前方或后退运动;
如果所述相对位置信息指示所述障碍物在所述场景的左侧区域,则控制所述机器人向右前方运动;
如果所述相对位置信息指示所述障碍物在所述场景的右侧区域,则控制所述机器人向左前方运动。
本申请第二方面实施例提出的机器人控制装置,通过获取场景图像,并确定与场景图像对应的场景点云数据,从场景点云数据中,识别得到场景中障碍物的目标点云数据,以及根据目标点云数据,确定障碍物在场景中的相对位置信息,根据相对位置信息,对机器人执行目标控制操作,由于是结合从场景中识别得到的障碍物的目标点云数据辅助确定出相对位置信息,以对机器人进行相应的控制操作,能够有效地降低外部因素对障碍物识别的影响,有效地提升障碍物识别准确性,还可以降低障碍物识别过程对机器人的资源消耗,从而能够有效地提升机器人控制的效果。
为达到上述目的,本申请第三方面实施例提出的机器人,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本申请第二方面实施例提出的机器人控制方法。
本申请第三方面实施例提出的机器人,通过获取场景图像,并确定与场景图像对应的场景点云数据,从场景点云数据中,识别得到场景中障碍物的目标点云数据,以及根据目标点云数据,确定障碍物在场景中的相对位置信息,根据相对位置信息,对机器人执行目标控制操作,由于是结合从场景中识别得到的障碍物的目标点云数据辅助确定出相对位置信息,以对机器人进行相应的控制操作,能够有效地降低外部因素对障碍物识别的影响,有效地提升障碍物识别准确性,还可以降低障碍物识别过程对机器人的资源消耗,从而能够有效地提升机器人控制的效果。
本申请第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请第一方面实施例提出的机器人控制方法。
本申请第五方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行如本申请第一方面实施例提出的机器人控制方法。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本申请一实施例提出的机器人控制方法的流程示意图;
图2是本申请另一实施例提出的机器人控制方法的流程示意图;
图3是本申请另一实施例提出的机器人控制方法的流程示意图;
图4是本申请一实施例提出的机器人控制装置的结构示意图;
图5是本申请另一实施例提出的机器人控制装置的结构示意图;
图6为本申请实施例提供的一种机器人的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能理解为对本申请的限制。相反,本申请的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
图1是根据本申请一实施例提出的机器人控制方法的流程示意图。
本实施例以机器人控制方法被配置为机器人控制装置中来举例说明。
本实施例中机器人控制方法可以被配置在机器人控制装置中,该机器人控制装置可以设置在服务器中,或者也可以设置在移动终端中,本申请实施例对此不作限制。
本实施例中的机器人控制装置可以具体配置在用于遥控机器人的控制设备中,该控制设备可以例如遥控器或者移动终端,对此不做限制。
需要说明的是,本实施例的执行主体,在硬件上可以例如为服务器或者移动终端中的中央处理器(Central Processing Unit,CPU),在软件上可以例如为服务器或者移动终端中的相关的后台服务,对此不作限制。
如图1所示,该机器人控制方法,包括:
S101:获取场景图像,并确定与场景图像对应的场景点云数据。
本申请实施例可以具体应用在使用控制设备对一个或者多个机器人进行控制的应用场景中,假设遥控设备与机器人可以通过无线保真(Wireless-Fidelity,Wi-Fi)通信技术建立通信链路,或者,也可以通过其它定制化的2.4GHz或5.8GHz频段的协议建立通信链路,对此不做限制。
为了实现本实施例描述的机器人控制方法,本申请实施例下述的描述说明将以四足机器人进行示例,当然,本申请实施例描述的机器人还可以配置为其它足式机器人、轮式机器人、飞行机器人等,对此不做限制。
其中,用于表征机器人实际运行场景的图像可以被称为场景图像,该场景图像可以是通过手机、相机、平板电脑等具有图像拍摄功能的设备对机器人实际运行场景进行实时拍摄,得到的场景图像,或者,也可以是对机器人运行视频包含的多个视频帧图像之中提取出的部分视频帧图像,场景图像的数量可以是一张或者多张,对此不做制。
举例而言,可以对四足机器人预先配置相应的图像采集装置,机器人在运行过程中,图像采集装置可以对机器人所处场景进行实时的抓拍,以得到相应的场景图像。
其中,点云数据是指物体表面特性的点数据集合,相应地,场景的点数据集合即可以被称为场景点云数据。
一些实施例中,确定与场景图像对应的场景点云数据时,可以是对四足机器人预先搭载相应的探测设备,例如:双目立体相机、飞行时间测距法(Time Of Flight,TOF)相机、激光雷达等,四足机器人在运行过程中,探测设备可以实时探测周围场景得到相应的场景点云数据,或者也可以采用其它任意可能的方法确定场景图像对应的点云数据,对此不做限制。
S102:从场景点云数据中,识别得到场景中障碍物的目标点云数据。
上述在获取场景图像,并确定与场景图像对应的场景点云数据后,可以从场景点云数据中,识别得到场景中障碍物的点云数据,其中,障碍物的点云数据可以被称为目标点云数据。
目标点云数据,可以被视为障碍物表面特性的点数据集合。
一些实施例中,可以采用图像处理装置对获取得到的场景图像进行处理,例如可以从获取得到的场景图像中,识别出相应的障碍物图像,可以采用图像处理装置,对场景图像进行分割处理,保留障碍物图像,去除其它无关图像,而后可以对上述障碍物图像进行分析处理,得到障碍物图像对应的点云数据并作为目标点云数据,当然,也可以采用其它任意可能的方式从场景点云数据中,识别得到障碍物的目标点云数据,例如模型解析的方式,特征提取的方式等,对此不做限制。
S103:根据目标点云数据,确定障碍物在场景中的相对位置信息。
其中,用于描述障碍物在场景中相对位置的信息,可以被称为相对位置信息,相对位置信息,可以例如障碍物在场景图像中的像素位置,对此不做限制。
举例而言,可以根据目标点云数据,确定障碍物在场景图像中的像素位置(像素位置可以用像素坐标表示),并将确定的障碍物的像素坐标作为障碍物在场景中的相对位置信息。
一些实施例中,可以根据场景点云数据建立场景的像素坐标系,并将目标点云数据转换成上述像素坐标系表示,例如可以场景平面的中心点为像素坐标系原点,构建场景的像素坐标系,可以确定障碍物在上述像素坐标系中的坐标信息,并将其作为相对位置信息。
当然,也可以采用其它任意可能的方式实现根据目标点云数据,确定障碍物在场景中的相对位置信息,对此不做限制。
S104:根据相对位置信息,对机器人执行目标控制操作。
上述在根据目标点云数据,确定障碍物在场景中的相对位置信息后,可以根据相对位置信息,对机器人执行相应的控制操作,该控制操作即可以被称为目标控制操作。
其中,目标控制操作可以例如为控制机器人前进、停止、转弯,后退等,对此不做限制。
可选地,一些实施例中,根据相对位置信息,对机器人执行目标控制操作,包括:在相对位置信息指示:障碍物在场景的中间区域时,控制机器人向左前方或右前方或后退运动;在相对位置信息指示:障碍物在场景的左侧区域时,则控制机器人向右前方运动;在相对位置信息指示:障碍物在场景的右侧区域时,则控制机器人向左前方运动,由于是根据相对位置信息,指示机器人进行避障,由此能够准确的对障碍物进行规避,有效地提升避障成功率,提升机器人运动的安全性。
当然,也可以采用其它任意可能的方式来实现根据相对位置信息,对机器人执行目标控制操作,例如,可以将相对位置信息输入至控制操作预测模型中,以得到控制操作预测模型输出的目标控制操作,并采用控制操作预测模型输出的目标控制操作来控制机器人运动,对此不做限制。
本实施例中,通过获取场景图像,并确定与场景图像对应的场景点云数据,从场景点云数据中,识别得到场景中障碍物的目标点云数据,以及根据目标点云数据,确定障碍物在场景中的相对位置信息,根据相对位置信息,对机器人执行目标控制操作,由于是结合从场景中识别得到的障碍物的目标点云数据辅助确定出相对位置信息,以对机器人进行相应的控制操作,能够有效地降低外部因素对障碍物识别的影响,有效地提升障碍物识别准确性,还可以降低障碍物识别过程对机器人的资源消耗,从而能够有效地提升机器人控制的效果。
图2是本申请另一实施例提出的机器人控制方法的流程示意图。
如图2所示,该机器人控制方法,包括:
S201:获取第一场景图像和第二场景图像,第一场景图像和第二场景图像由配置在机器人中的不同摄像装置采集得到。
可选地,一些实施例中,获取第一场景图像和第二场景图像,可以是在采用第一摄像装置采集第一场景图像时,采用第二摄像装置采集第二场景图像,也即是说,配置第一摄像装置和第二摄像装置同时采集相应的场景图像,实现针对第一场景图像和第二场景图像基于时间维度的对齐,并且,由于是采用不同摄像装置同时对场景图像进行采集,当结合第一场景图像和第二场景图像识别障碍物时,能够有效地提升障碍物识别的准确性。
其中,用于表征机器人实际运行场景的图像可以被称为场景图像,该场景图像具体可以例如为配置在机器人中的双目摄像装置(左目的摄像装置和右目的摄像装置)采集的双目图像(左目图像和右目图像)。
其中,第一摄像装置可以例如是,配置在机器人中的左目摄像装置,相应地,左目摄像装置采集得到的左目图像即可以被称为第一场景图像,对此不做限制。
其中,第二摄像装置可以例如是,配置在机器人中的右目摄像装置,相应地,右目摄像装置采集得到的右目图像即可以被称为第二场景图像,对此不做限制。
举例而言,可以由配置在机器人中的双目摄像装置(左目摄像装置和右目摄像装置),分别对场景图像进行采集,并将左目摄像装置采集得到的左目图像作为第一场景图像,将右目摄像装置采集得到的右目图像作为第二场景图像,对此不做限制。
其中,为了实现本申请实施例描述的机器人控制方法,在获取第一场景图像和第二场景图像时,可以对第一场景图像和第二场景图像进行时间同步处理,以使第一场景图像和第二场景图像可以具有相同的时间信息,从而可以基于第一场景图像和第二场景图像,更为准确的辅助执行后续的机器人控制方法。
S202:根据第一场景图像和第二场景图像,确定场景的景深信息。
上述在获取第一场景图像和第二场景图像后,可以根据第一场景图像和第二场景图像,确定场景的景深信息。
其中,景深信息是指摄像装置前沿能够取得清晰图像的成像所测定的被摄物体前后的距离,即摄像装置在聚焦完成后,焦点前后的范围内所呈现的清晰图像的距离的信息,该距离信息即可以被称为景深信息。
一些实施例中,根据第一场景图像和第二场景图像,确定场景的景深信息,可以根据第一场景图像和第二场景图像之间的匹配关系,通过三角测量原理计算第一场景图像和第二场景图像间的像素偏移,来获取场景的三维信息,以得到场景的景深信息。
当然,也可以采用其它任意可能的方式来根据第一场景图像和第二场景图像,确定场景的景深信息,对此不做限制。
S203:根据景深信息结合场景图像确定场景点云数据。
上述在根据第一场景图像和第二场景图像,确定场景的景深信息后,可以根据景深信息结合场景图像确定场景点云数据。
一些实施例中,可以根据场景的景深信息,计算出场景和摄像装置间的实际距离,而后可以根据场景的景深信息、场景图像、场景和摄像装置间的实际距离确定场景点云数据。
本实施例中,由于是根据不同摄像装置采集得到的第一场景图像和第二场景图像,并根据所述第一场景图像和所述第二场景图像及场景的景深信息,确定场景点云数据,由此能够有效地提升场景点云数据的计算准确性,从而能够更为准确地对场景图像进行表征。
S204:确定摄像装置的摄像参数,其中,机器人采用摄像装置采集场景图像。
其中,用于描述摄像装置性能的参数可以被称为摄像参数,而摄像参数可以例如为焦距、相机外参、相机内参、相机定位信息等,对此不做限制。
S205:确定机器人与场景中地面之间的参考位置信息。
其中,用于描述机器人与场景中地面之间的位置关系的信息,可以被称为参考位置信息,参考位置信息可以例如为机器人与场景中地面之间的距离、方位等,对此不做限制。
一些实施例中,可以通过确定机器人与场景中地面之间的距离、方位等,以确定机器人与场景中地面之间的参考位置信息,该参考位置信息可以用于辅助后续执行机器人控制方法。
S206:根据参考位置信息结合摄像参数,从场景图像之中识别出局部地面图像。
其中,场景图像可以由障碍物图像、地面图像等多个部分组成,相应地,组成场景图像中的地面图像即可以被称为局部地面图像。
上述在确定机器人与场景中地面之间的参考位置信息后,可以根据参考位置信息结合摄像参数,从场景图像之中识别出局部地面图像。
一些实施例中,可以根据摄像参数及参考位置信息,通过图像识别方式,从场景图像之中识别出局部地面图像,当然也可以采用其它任意可能的方式实现根据参考位置信息结合摄像参数,从场景图像之中识别出局部地面图像,对此不做限制。
S207:根据局部地面图像,从场景点云数据中识别出地面点云数据。
其中,场景中地面对应的点云数据可以被称为地面点云数据。
上述在根据参考位置信息结合摄像参数,从场景图像之中识别出局部地面图像后,可以根据局部地面图像,从场景点云数据中识别出地面点云数据。
一些实施例中,可以对局部地面图像和场景图像进行特征点提取,可以将提取得到的局部地面图像的特征点和场景图像的特征点进行匹配,以得到局部地面图像和场景图像的匹配点,将前述匹配点转换成三维坐标,并根据三维坐标构建局部地面图像对应的局部地面点云图,以得到相应的地面点云数据。
本实施例中,通过确定摄像装置的摄像参数,其中,所述机器人采用所述摄像装置采集所述场景图像,确定所述机器人与所述场景中地面之间的参考位置信息,根据所述参考位置信息结合所述摄像参数,从所述场景图像之中识别出局部地面图像,根据所述局部地面图像,从所述场景点云数据中识别出所述地面点云数据,由此可以有效地避免地面点云数据的误识别,提升地面点云数据的识别准确率。
S208:对场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据,地面点云数据,是场景中地面对应的点云数据。
上述在根据局部地面图像,从场景点云数据中识别出地面点云数据后,可以对场景点云数据中的地面点云数据进行删除处理,以得到删除处理后的点云数据,该点云数据即可以被称为待处理点云数据。
也即是说,可以根据局部地面图像对场景点云数据进行识别,以得到地面点云数据,可以对地面点云数据进行删除处理,以得到删除处理后的点云数据并将其作为待处理点云数据,由于对地面点云数据进行了删除处理,从而可以避免在后续机器人控制方法中将地面误识别为障碍物,从而能够在避免增加额外计算量的情况下,较大程度的提升障碍物识别效果。
一些实施例中,对场景点云数据中的地面点云数据进行删除处理,可以是采用滤波处理的方法,从场景点云数据中,过滤掉地面点云数据,以得到待处理点云数据,或者,也可以采用其它任意可能的方法对场景点云数据中的地面点云数据进行删除处理,对此不做限制。
S209:对待处理点云数据进行滤波处理。
上述在对场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据后,可以对待处理点云数据进行滤波处理,即可以通过滤波处理的方式,过滤待处理点云数据中不稳定的点云数据,由此可以有效地解决由于点云数据不稳定而影响障碍物识别准确性的技术问题,同时还可以较大程度地节约计算资源,从而可以有效地提升障碍物识别的效率。
举例而言,可以通过预先配置的滤波器对待处理数据进行滤波处理,(滤波器可以例如为直通滤波器,体素滤波器,统计滤波器,半径滤波器等,对此不做限制),即可以将待处理数据点云输入如前述滤波器中,以实现对待处理点云数据进行滤波处理。
S210:从待处理点云数据中,识别得到场景中障碍物的目标点云数据。
可选地,一些实施例中,从待处理点云数据中,识别得到场景中障碍物的目标点云数据,可以是从滤波处理后的待处理点云数据中,识别得到场景中障碍物的目标点云数据。
一些实施例中,由于障碍物对应的点云数据的相对高度大于地面点云数据的相对高度,由此可以对待处理点云数据的相对高度(相对高度指障碍物距离地面的高度)进行判断,并将符合一定条件的待处理数据点云数据作为目标点云数据,对此不做限制。
例如,可以将待处理点云数据的相对高度与预先配置的相对高度阈值(相对高度阈值可以自适应配置)进行比对,如果待处理点云数据的相对高度大于等于相对高度阈值,则可以将上述待处理点云数据作为目标点云数据。
S211:根据目标点云数据,确定障碍物在场景中的相对位置信息。
S212:根据相对位置信息,对机器人执行目标控制操作。
S211-S212的描述说明可以具体参见上述实施例,在此不再赘述。
本实施例中,通过根据不同摄像装置采集得到的第一场景图像和第二场景图像,并根据所述第一场景图像和所述第二场景图像及场景的景深信息,确定场景点云数据,由此能够有效地提升场景点云数据的计算准确性,从而能够更为准确地对场景图像进行表征。通过确定摄像装置的摄像参数,其中,所述机器人采用所述摄像装置采集所述场景图像,确定所述机器人与所述场景中地面之间的参考位置信息,根据所述参考位置信息结合所述摄像参数,从所述场景图像之中识别出局部地面图像,根据所述局部地面图像,从所述场景点云数据中识别出所述地面点云数据,由此可以有效地避免地面点云数据的误识别,提升地面点云数据的识别准确率。由于对地面点云数据进行了删除处理,从而可以避免在后续机器人控制方法中将地面误识别为障碍物,从而能够在避免增加额外计算量的情况下,较大程度的提升障碍物识别效果,还可以降低障碍物识别过程对机器人的资源消耗,从而能够有效地提升机器人控制的效果。
图3是本申请另一实施例提出的机器人控制方法的流程示意图。
如图3所示,在开始阶段,可以获取时间同步后的第一场景图像和第二场景图像,可以获取场景图像对应的场景点云数据,可以从场景点云数据中确定出地面点云数据并对其进行删除处理,以得到待处理点云数据,并对待处理点云数据进行滤波处理,可以从待处理点云数据中识别得到场景中障碍物的目标点云数据,并根据目标点云数据,确定所述障碍物在所述场景中的相对位置信息,根据相对位置信息对机器人执行目标控制操作,以实现本申请实施例描述的机器人控制方法。
图4是本申请一实施例提出的机器人控制装置的结构示意图。
如图4所示,该机器人控制装置40包括:
获取模块401,用于获取场景图像,并确定与所述场景图像对应的场景点云数据;
识别模块402,用于从所述场景点云数据中,识别得到场景中障碍物的目标点云数据;
确定模块403,用于根据所述目标点云数据,确定所述障碍物在所述场景中的相对位置信息;
控制模块404,用于根据所述相对位置信息,对所述机器人执行目标控制操作。
在本申请的一些实施例中,如图5所示,图5是本申请另一实施例提出的机器人控制装置的结构示意图,识别模块402,包括:
删除子模块4021,用于对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据,所述地面点云数据,是所述场景中地面对应的点云数据;
第一识别子模块4022,用于从所述待处理点云数据中,识别得到场景中障碍物的目标点云数据。
在本申请的一些实施例中,识别模块402,还包括:
处理子模块4023,用于在所述对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据之后,对所述待处理点云数据进行滤波处理;
其中,所述第一识别子模块4022,具体用于:
从滤波处理后的待处理点云数据中,识别得到所述场景中障碍物的目标点云数据。
在本申请的一些实施例中,识别模块402,还包括:
第一确定子模块4024,用于确定摄像装置的摄像参数,其中,所述机器人采用所述摄像装置采集所述场景图像;
第二确定子模块4025,用于确定所述机器人与所述场景中地面之间的参考位置信息;
第二识别子模块4026,用于根据所述参考位置信息结合所述摄像参数,从所述场景图像之中识别出局部地面图像;
第三识别子模块4027,用于根据所述局部地面图像,从所述场景点云数据中识别出所述地面点云数据。
在本申请的一些实施例中,获取模块401,包括:
获取子模块4011,用于获取第一场景图像和第二场景图像,所述第一场景图像和第二场景图像由配置在所述机器人中的不同摄像装置采集得到;
第三确定子模块4012,用于根据所述第一场景图像和所述第二场景图像,确定所述场景的景深信息;
第四确定子模块4013,用于根据所述景深信息结合所述场景图像确定所述场景点云数据。
在本申请的一些实施例中,获取子模块4011,具体用于:
在采用第一摄像装置采集所述第一场景图像时,采用第二摄像装置采集所述第二场景图像。
在本申请的一些实施例中,控制模块404,具体用于:
如果所述相对位置信息指示:所述障碍物在所述场景的中间区域,则控制所述机器人向左前方或右前方或后退运动;
如果所述相对位置信息指示:所述障碍物在所述场景的左侧区域,则控制所述机器人向右前方运动;
如果所述相对位置信息指示:所述障碍物在所述场景的右侧区域,则控制所述机器人向左前方运动。
需要说明的是,前述对机器人控制方法实施例的解释说明也适用于该实施例的机器人控制装置,此处不再赘述。
本实施例中,通过获取场景图像,并确定与场景图像对应的场景点云数据,从场景点云数据中,识别得到场景中障碍物的目标点云数据,以及根据目标点云数据,确定障碍物在场景中的相对位置信息,根据相对位置信息,对机器人执行目标控制操作,由于是结合从场景中识别得到的障碍物的目标点云数据辅助确定出相对位置信息,以对机器人进行相应的控制操作,能够有效地降低外部因素对障碍物识别的影响,有效地提升障碍物识别准确性,还可以降低障碍物识别过程对机器人的资源消耗,从而能够有效地提升机器人控制的效果。
图6为本申请实施例提供的一种机器人的结构示意图。
该机器人包括:
存储器601、处理器602及存储在存储器601上并可在处理器602上运行的计算机程序。
处理器602执行程序时实现上述实施例中提供的机器人控制方法。
在一种可能的实现方式中,机器人还包括:
通信接口603,用于存储器601和处理器602之间的通信。
存储器601,用于存放可在处理器602上运行的计算机程序。
存储器601可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
处理器602,用于执行程序时实现上述实施例的机器人控制方法。
如果存储器601、处理器602和通信接口603独立实现,则通信接口603、存储器601和处理器602可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponent,简称为PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器601、处理器602及通信接口603,集成在一块芯片上实现,则存储器601、处理器602及通信接口603可以通过内部接口完成相互间的通信。
处理器602可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的机器人控制方法。
需要说明的是,在本申请的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本申请的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (12)
1.一种机器人控制方法,其特征在于,所述方法包括:
获取场景图像,并确定与所述场景图像对应的场景点云数据;
从所述场景点云数据中,识别得到场景中障碍物的目标点云数据;
根据所述目标点云数据,确定所述障碍物在所述场景中的相对位置信息;
根据所述相对位置信息,对所述机器人执行目标控制操作;
所述从所述场景点云数据中,识别得到场景中障碍物的目标点云数据,包括:
确定摄像装置的摄像参数,其中,所述机器人采用所述摄像装置采集所述场景图像;
确定所述机器人与所述场景中地面之间的参考位置信息;
根据所述参考位置信息结合所述摄像参数,从所述场景图像之中识别出局部地面图像,所述局部地面图像为组成场景图像中的地面图像;
根据所述局部地面图像,从所述场景点云数据中识别出地面点云数据;
对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据,所述地面点云数据,是所述场景中地面对应的点云数据;
从所述待处理点云数据中,识别得到场景中障碍物的目标点云数据。
2.如权利要求1所述的方法,其特征在于,在所述对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据之后,还包括:
对所述待处理点云数据进行滤波处理;
其中,所述从所述待处理点云数据中,识别得到场景中障碍物的目标点云数据,包括:
从滤波处理后的待处理点云数据中,识别得到所述场景中障碍物的目标点云数据。
3.如权利要求1所述的方法,其特征在于,所述获取场景图像,并确定与所述场景图像对应的场景点云数据,包括:
获取第一场景图像和第二场景图像,所述第一场景图像和第二场景图像由配置在所述机器人中的不同摄像装置采集得到;
根据所述第一场景图像和所述第二场景图像,确定所述场景的景深信息;
根据所述景深信息结合所述场景图像确定所述场景点云数据。
4.如权利要求3所述的方法,其特征在于,所述获取第一场景图像和第二场景图像,包括:
在采用第一摄像装置采集所述第一场景图像时,采用第二摄像装置采集所述第二场景图像。
5.如权利要求1-4任一项所述的方法,其特征在于,所述根据所述相对位置信息,对所述机器人执行目标控制操作,包括:
如果所述相对位置信息指示所述障碍物在所述场景的中间区域,则控制所述机器人向左前方或右前方或后退运动;
如果所述相对位置信息指示所述障碍物在所述场景的左侧区域,则控制所述机器人向右前方运动;
如果所述相对位置信息指示所述障碍物在所述场景的右侧区域,则控制所述机器人向左前方运动。
6.一种机器人控制装置,其特征在于,所述装置包括:
获取模块,用于获取场景图像,并确定与所述场景图像对应的场景点云数据;
识别模块,用于从所述场景点云数据中,识别得到场景中障碍物的目标点云数据;
确定模块,用于根据所述目标点云数据,确定所述障碍物在所述场景中的相对位置信息;
控制模块,用于根据所述相对位置信息,对所述机器人执行目标控制操作;
所述识别模块,包括:
第一确定子模块,用于确定摄像装置的摄像参数,其中,所述机器人采用所述摄像装置采集所述场景图像;
第二确定子模块,用于确定所述机器人与所述场景中地面之间的参考位置信息;
第二识别子模块,用于根据所述参考位置信息结合所述摄像参数,从所述场景图像之中识别出局部地面图像,所述局部地面图像为组成场景图像中的地面图像;
第三识别子模块,用于根据所述局部地面图像,从所述场景点云数据中识别出地面点云数据;
删除子模块,用于对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据,所述地面点云数据,是所述场景中地面对应的点云数据;
第一识别子模块,用于从所述待处理点云数据中,识别得到场景中障碍物的目标点云数据。
7.如权利要求6所述的装置,其特征在于,所述识别模块,还包括:
处理子模块,用于在所述对所述场景点云数据中的地面点云数据进行删除处理,以得到待处理点云数据之后,对所述待处理点云数据进行滤波处理;
其中,所述第一识别子模块,具体用于:
从滤波处理后的待处理点云数据中,识别得到所述场景中障碍物的目标点云数据。
8.如权利要求6所述的装置,其特征在于,所述获取模块,包括:
获取子模块,用于获取第一场景图像和第二场景图像,所述第一场景图像和第二场景图像由配置在所述机器人中的不同摄像装置采集得到;
第三确定子模块,用于根据所述第一场景图像和所述第二场景图像,确定所述场景的景深信息;
第四确定子模块,用于根据所述景深信息结合所述场景图像确定所述场景点云数据。
9.如权利要求8所述的装置,其特征在于,所述获取子模块,具体用于:
在采用第一摄像装置采集所述第一场景图像时,采用第二摄像装置采集所述第二场景图像。
10.如权利要求6-9任一项所述的装置,其特征在于,所述控制模块,具体用于:
如果所述相对位置信息指示所述障碍物在所述场景的中间区域,则控制所述机器人向左前方或右前方或后退运动;
如果所述相对位置信息指示所述障碍物在所述场景的左侧区域,则控制所述机器人向右前方运动;
如果所述相对位置信息指示所述障碍物在所述场景的右侧区域,则控制所述机器人向左前方运动。
11.一种机器人,其特征在于,包括:
存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1-5中任一项所述的机器人控制方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一项所述的机器人控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110887425.9A CN115703234B (zh) | 2021-08-03 | 2021-08-03 | 机器人控制方法、装置、机器人及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110887425.9A CN115703234B (zh) | 2021-08-03 | 2021-08-03 | 机器人控制方法、装置、机器人及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115703234A CN115703234A (zh) | 2023-02-17 |
CN115703234B true CN115703234B (zh) | 2024-01-30 |
Family
ID=85179808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110887425.9A Active CN115703234B (zh) | 2021-08-03 | 2021-08-03 | 机器人控制方法、装置、机器人及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115703234B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117245651A (zh) * | 2023-09-12 | 2023-12-19 | 北京小米机器人技术有限公司 | 机械臂插拔控制方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111142514A (zh) * | 2019-12-11 | 2020-05-12 | 深圳市优必选科技股份有限公司 | 一种机器人及其避障方法和装置 |
CN111291708A (zh) * | 2020-02-25 | 2020-06-16 | 华南理工大学 | 融合深度相机的变电站巡检机器人障碍物检测识别方法 |
CN112529011A (zh) * | 2020-12-10 | 2021-03-19 | 深圳先进技术研究院 | 目标检测方法及相关装置 |
-
2021
- 2021-08-03 CN CN202110887425.9A patent/CN115703234B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111142514A (zh) * | 2019-12-11 | 2020-05-12 | 深圳市优必选科技股份有限公司 | 一种机器人及其避障方法和装置 |
CN111291708A (zh) * | 2020-02-25 | 2020-06-16 | 华南理工大学 | 融合深度相机的变电站巡检机器人障碍物检测识别方法 |
CN112529011A (zh) * | 2020-12-10 | 2021-03-19 | 深圳先进技术研究院 | 目标检测方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115703234A (zh) | 2023-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3680808A1 (en) | Augmented reality scene processing method and apparatus, and computer storage medium | |
CN108062763B (zh) | 目标跟踪方法及装置、存储介质 | |
US8224069B2 (en) | Image processing apparatus, image matching method, and computer-readable recording medium | |
CN107636680B (zh) | 一种障碍物检测方法及装置 | |
CN107273788B (zh) | 在车辆中执行车道检测的成像系统与车辆成像系统 | |
EP3531342A2 (en) | Method, apparatus and system for human body tracking processing | |
JP5484184B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN110262487B (zh) | 一种障碍物检测方法、终端及计算机可读存储介质 | |
CN115703234B (zh) | 机器人控制方法、装置、机器人及存储介质 | |
KR102310286B1 (ko) | 특정물체 감지 장치 및 특정물체 감지 방법 | |
WO2022099510A1 (zh) | 对象识别方法、装置、计算机设备和存储介质 | |
CN110348351B (zh) | 一种图像语义分割的方法、终端和可读存储介质 | |
JP2004301607A (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
US9392146B2 (en) | Apparatus and method for extracting object | |
JP6577595B2 (ja) | 車両用外界認識装置 | |
CN112136312A (zh) | 一种获取目标距离的方法、控制装置及移动平台 | |
Georgoulas et al. | A real-time occlusion aware hardware structure for disparity map computation | |
JP2021033605A (ja) | 画像処理装置、および、画像処理方法 | |
WO2020237553A1 (zh) | 图像处理方法、系统及可移动平台 | |
CN113409331B (zh) | 图像处理方法、图像处理装置、终端及可读存储介质 | |
JP7293100B2 (ja) | カメラシステム | |
CN113167579B (zh) | 用于测量对象物位置的系统、方法以及存储介质 | |
KR101920159B1 (ko) | 지원점 보간법을 이용한 스테레오 매칭 방법 및 장치 | |
CN112966658A (zh) | 机器人导航方法、装置、终端设备及计算机可读存储介质 | |
CN111127514A (zh) | 一种机器人对目标的跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |