CN108733045A - 机器人及其避障方法以及计算机可读存储介质 - Google Patents
机器人及其避障方法以及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108733045A CN108733045A CN201710912214.XA CN201710912214A CN108733045A CN 108733045 A CN108733045 A CN 108733045A CN 201710912214 A CN201710912214 A CN 201710912214A CN 108733045 A CN108733045 A CN 108733045A
- Authority
- CN
- China
- Prior art keywords
- robot
- barrier
- threedimensional model
- dimensional
- avoidance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000004888 barrier function Effects 0.000 claims abstract description 175
- 238000004891 communication Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 abstract description 9
- 230000036544 posture Effects 0.000 description 45
- 230000009466 transformation Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000000903 blocking effect Effects 0.000 description 5
- 238000010408 sweeping Methods 0.000 description 5
- 238000001931 thermography Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- 241001417527 Pempheridae Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Manipulator (AREA)
Abstract
本发明实施例提供了一种机器人及其避障方法以及计算机可读存储介质。其中,该避障方法可以包括:检测机器人周围的环境中是否存在障碍物;若存在,获取机器人的三维属性和障碍物的三维属性;根据机器人的三维属性和障碍物的三维属性,控制机器人进行避障。与现有采用二维投影面作为避障判断基础的技术相比,本发明实施例是在三维尺度上来判断机器人能否避开障碍物的,由此可以提高避障判断的准确性,从而解决了如何提高避障成功率的技术问题,进而提高了机器人遇到障碍物时的可通过性,还提高了机器人在靠近障碍物的区域内进行作业的能力。
Description
技术领域
本发明涉及控制技术领域,特别是涉及一种机器人及其避障方法以及计算机可读存储介质。
背景技术
目前,机器人已经有了广泛的应用,例如:深海探测、抢险救灾、清理垃圾等。在各种应用中,机器人的工作场景中经常会出现各种障碍物。因此,避障成了机器人设计中必须要考虑的问题。
现有机器人避障方法均以二维的机器人投影面为避障判断的基础,并将机器人的立体模型用圆柱体来代替,从而用该圆柱体与障碍物进行比较,来判断机器人是否可以避开该障碍物,进而实现避障。
然而,通常机器人可以包括机器人本体和突出该本体的结构部件。该结构部件例如可以为机器臂、托盘等。上述现有避障方法由于以机器人的投影面为避障判断基础,所以,机器人突出本体部分的结构的投影也会被作为避障判断的基础。以图1a-1b所示场景为例,图1b中突出机器人本体13的结构部件为托盘16。下面分两种情况说明以二维的机器人投影面为避障判断基础进行避障的过程。
第一种情况,如图1a所示,在机器人未伸出托盘时,以二维避障平面16为基准,以机器人本体13的投影面为避障判断基础,该投影面为圆形。从图1a中可以看出,机器人避障模型12的宽度小于墙壁11与桌子14之间的宽度,所以,机器人能够顺利通过墙壁11与桌子14之间的空间,能够成功避障。
第二种情况,如图1b所示,在机器人伸出托盘16时,以机器人本体13以及突出本体部分的结构两者的投影面为避障判断基础,从图中可以看出,机器人避障模型12’的宽度大于墙壁11与桌子14之间的宽度,则机器人判断其本体13以及突出本体部分的结构两者的投影面逼近甚至宽于墙与桌子之间的空间,因此,机器人判断无法顺利通过墙与桌子之间的空间,避障失败。
但是从图1b中显然可以看出机器人的托盘16高于桌子14的高度,虽然机器人伸出了托盘16,一般情况依然能够顺利通过墙壁11与桌子14之间的空间。
因此,综合以上情况,采用现有技术提供的方式进行避障时,易出现避障失败的情况。
发明内容
本发明实施例的目的在于提供一种机器人及其避障方法以及计算机可读存储介质,以解决如何提高避障成功率的技术问题。
为了实现上述目的,第一方面,提供了以下技术方案:
一种机器人避障方法,所述方法包括:
检测所述机器人周围的环境中是否存在障碍物;
若存在,获取所述机器人的三维属性和所述障碍物的三维属性;
根据所述机器人的三维属性和所述障碍物的三维属性,控制所述机器人进行避障。
可选的,所述三维属性包括:三维模型和/或三维结构参数,
所述根据所述机器人的三维属性和所述障碍物的三维属性,控制所述机器人进行避障,具体包括:
将所述障碍物的三维模型与所述机器人的三维模型进行比较,和/或,
将所述障碍物的三维结构参数与所述机器人的三维结构参数进行比较;
根据比较结果,控制所述机器人进行避障。
可选的,所述获取所述障碍物的三维模型具体包括:
采集所述障碍物的深度图像,作为第一深度图像;
利用所述第一深度图像进行三维建模,得到所述障碍物的三维模型。
可选的,所述获取所述机器人的三维模型,具体包括:
获取所述机器人的当前姿态;
根据所述当前姿态,确定所述机器人的三维模型。
可选的,所述根据所述当前姿态,确定所述机器人的三维模型,具体包括:
根据所述当前姿态,结合预先确定的、所述机器人的姿态与结构参数的对应关系,确定所述机器人的当前结构参数;
根据所述当前结构参数,从数据库中调取与所述当前结构参数对应的三维模型,并将所调取的三维模型确定为所述机器人的三维模型;其中,所述数据库中存储所述机器人的各种结构参数及其对应的三维模型。
可选的,所述根据比较结果,控制所述机器人进行避障,具体包括:
在所述比较结果显示所述障碍物阻碍所述机器人行进的情况下,根据所述机器人、障碍物两者的三维模型和/或两者的三维结构参数,选择能够避免所述障碍物阻碍所述机器人行进的所述机器人的姿态;
变换至所选择的姿态,并将所选择的姿态确定为所述机器人的当前姿态,指向所述根据所述当前姿态,确定所述机器人的三维模型的步骤。
可选的,所述获取所述机器人的三维模型,具体包括:
获取所述机器人的深度图像,作为第二深度图像;
利用所述第二深度图像进行三维建模,得到所述机器人的三维模型。
可选的,所述获取所述机器人的三维模型,具体包括:
获取所述机器人的当前姿态;
确定所述当前姿态下所述机器人的结构对应的结构体,其中,所述结构体为:在预定方向上、对所述当前姿态下所述机器人的结构进行划分得到的规则多面体;
将所确定的结构体组合,得到所述机器人的三维模型。
可选的,所述获取所述障碍物的三维结构参数,具体包括:
获取所述障碍物的深度图像;
根据所述深度图像,获取所述障碍物的三维结构参数。
可选的,所述控制所述机器人进行避障,具体包括:控制所述机器人绕开所述障碍物,或者,在距所述障碍物预定距离的位置停止行进,或者,穿过所述障碍物。
可选的,所述检测所述机器人周围的环境中是否存在障碍物,具体包括:
获取所述机器人周围环境的三维信息;
通过所述三维信息,来检测所述机器人周围的环境中是否存在所述障碍物。
为了实现上述目的,第二方面,还提供了以下技术方案:
一种机器人,所述机器人包括:
检测模块,用于检测所述机器人周围的环境中是否存在障碍物;
获取模块,用于在存在障碍物时,获取所述机器人的三维属性和所述障碍物的三维属性;
避障模块,用于根据所述机器人的三维属性和所述障碍物的三维属性,控制所述机器人进行避障。
可选的,所述三维属性包括:三维模型和/或三维结构参数,
所述避障模块具体包括:
比较单元,用于将所述障碍物的三维模型与所述机器人的三维模型进行比较,和/或,
将所述障碍物的三维结构参数与所述机器人的三维结构参数进行比较;
避障单元,用于根据比较结果,控制所述机器人进行避障。
可选的,所述获取模块具体包括:
第一采集单元,用于采集所述障碍物的深度图像,作为第一深度图像;
第一建模单元,用于利用所述第一深度图像进行三维建模,得到所述障碍物的三维模型。
可选的,所述获取模块具体包括:
第一获取单元,用于获取所述机器人的当前姿态;
第一确定单元,用于根据所述当前姿态,确定所述机器人的三维模型。
可选的,所述第一确定单元具体用于:
根据所述当前姿态,结合预先确定的、所述机器人的姿态与结构参数的对应关系,确定所述机器人的当前结构参数;
根据所述当前结构参数,从数据库中调取与所述当前结构参数对应的三维模型,并将所调取的三维模型确定为所述机器人的三维模型;其中,所述数据库中存储所述机器人的各种结构参数及其对应的三维模型。
可选的,所述避障单元具体包括:
选择子单元,用于在所述比较结果显示所述障碍物阻碍所述机器人行进的情况下,根据所述机器人、障碍物两者的三维模型和/或两者的三维结构参数,选择能够避免所述障碍物阻碍所述机器人行进的所述机器人的姿态;
变换子单元,用于变换至所选择的姿态,并将所选择的姿态确定为所述机器人的当前姿态,触发所述第一确定单元。
可选的,所述获取模块具体包括:
第二获取单元,用于获取所述机器人的深度图像,作为第二深度图像;
第二建模单元,用于利用所述第二深度图像进行三维建模,得到所述机器人的三维模型。
可选的,所述获取模块具体包括:
第三获取单元,用于获取所述机器人的当前姿态;
第二确定单元,用于确定所述当前姿态下所述机器人的结构对应的结构体,其中,所述结构体为:在预定方向上、对所述当前姿态下所述机器人的结构进行划分得到的规则多面体;
组合单元,用于将所确定的结构体组合,得到所述机器人的三维模型。
可选的,所述获取模块具体包括:
第二采集单元,用于采集所述障碍物的深度图像;
第四获取单元,用于根据所述全景图像和所述深度图像,获取所述障碍物的三维结构参数。
可选的,所述避障模块具体用于:控制所述机器人绕开所述障碍物,或者,在距所述障碍物预定距离的位置停止行进,或者,穿过所述障碍物。
可选的,所述检测模块具体包括:
第五获取单元,用于获取所述机器人周围环境的三维信息;
检测单元,用于通过所述三维信息,来检测所述机器人周围的环境中是否存在所述障碍物。
为了实现上述目的,第三方面,还提供了以下技术方案:
一种机器人,其包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现第一方面所述的方法步骤。
为了实现上述目的,第四方面,还提供了以下技术方案:
一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的方法步骤。
本发明实施例提供一种机器人及其避障方法以及计算机可读存储介质。其中,该方法包括:检测机器人周围的环境中是否存在障碍物;若存在,获取机器人的三维属性和障碍物的三维属性;根据机器人的三维属性和障碍物的三维属性,控制机器人进行避障。与现有采用二维投影面作为避障判断基础的技术相比,本发明实施例是在三维尺度上来判断机器人能否避开障碍物的,由此提高了避障判断的准确性,提高了避障成功率,进而提高了机器人遇到障碍物时的可通过性,还提高了机器人在靠近障碍物的区域内进行作业的能力。
当然,实施本发明的任一产品或方法必不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a为现有机器人在未伸出托盘的状态下通过二维平面技术进行避障的示意图;
图1b为现有机器人在伸出托盘的状态下通过二维平面技术进行避障的示意图;
图2为根据本发明实施例的机器人避障方法的流程示意图;
图3为根据本发明实施例的机器人在伸出托盘姿态下进行避障的示意图;
图4为根据本发明实施例的机器人在笛卡尔坐标系下的伸出托盘的俯视图;
图5a为根据本发明实施例的机器人通过墙壁与桌子之间空间的示意图;
图5b为根据本发明另一实施例的机器人通过墙壁与桌子之间空间的示意图;
图6为根据本发明实施例的一机器人的结构示意图;
图7为根据本发明实施例的另一机器人的结构示意图。
附图标记说明:
11、墙壁,12、机器人避障模型,12’、机器人避障模型,13、机器人本体,14、桌子,15、二维避障平面,16、托盘,31、墙壁,32、机器人本体,33、托盘,34、桌子,41、机器人本体,42、托盘,50、墙壁,51、机器人的三维模型,52、机器人,521、托盘,53、桌子,54、二维避障检测平面,55、地面。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在现有机器人避障的应用中,现有技术基于机器人在地面上的二维投影面来判断机器人的避障范围,但是,这种方式易出现避障失败的情况。对此,为了解决如何提高避障成功率的技术问题,本发明实施例提供一种机器人避障方法,如图2所示,该方法包括:
S200:检测机器人周围的环境中是否存在障碍物,若存在障碍物,则执行S210。
其中,该机器人和障碍物既可以是固定的,也可以是移动的。
具体地,本步骤可以包括如下S202、S204步骤:
S202:获取机器人周围环境的三维信息。
本步骤中的三维信息可以是全景图像和/或三维姿态信息和/或热成像和/或方位信息等。其中,全景图像可以通过全景摄像机来获取机器人周围环境的全景图像。其中,该全景摄像机可以设置在机器人上,在预设的拍摄范围内实时地扫描机器人周围的环境,获取周围环境的全景图像,例如,上述预设的拍摄范围可以是360度、270度等等。
当然,本领域技术人员还应能够理解,上述获取机器人周围环境的全景图像的方式仅为示例,但绝不仅限于此,上述全景摄像机也可以设置在机器人所处场景中的某个位置处。在该处,全景摄像机在其拍摄范围内(如,360度)全景扫描机器人周围的环境,然后,将获取到的机器人周围环境的全景图像,以预定的通信方式(例如:WIFI、ZigBee、蓝牙等)将所获取到的全景图像传输至机器人,从而获取到机器人周围环境的全景图像。
其中,三维姿态信息可以通过三维姿态传感器获得。
其中,热成像可以通过热成像传感器获得。
其中,方位置信息可以通过方向传感器、超声波传感器、激光传感器、红外线传感器等获得。
S204:通过三维信息,检测机器人周围的环境中是否存在障碍物。
其中,以三维信息是全景图像为例,本步骤可以通过对全景图像进行图像处理,并对处理结果进行分析,来判断机器人周围的环境中是否存在障碍物。
举例来说,可以根据全景图像的颜色、亮度等信息,确定图像中物体的轮廓,然后,根据该轮廓来确定机器人的周围环境中是否存在障碍物。
另外,还可以对全景图像进行滤波、灰度化处理、二值化处理,然后,利用阈值分割法或边缘检测法等方法,对二值化处理后的图像进行图像分割处理,分割方法可以采用求连通区分割法、积分投影分割法等,再对分割后的结果进行特征提取,然后,利用支持向量机或卷积神经网络等对所提取的特征进行分类,最后,对分类后的结果进行打标签处理,从而根据打标签的结果实现障碍物的识别。
再举例来说,还可以通过热成像和三维姿态信息,检测机器人周围的环境中是否存在障碍物。这些明显的变型或等同替代的方式也应包含在本发明的保护范围之内,在此不再赘述。
S210:获取机器人的三维属性和/或障碍物的三维属性。
其中,三维属性可以包括三维模型和/或三维结构参数。本发明实施例对获取三维属性的方式不作限定。机器人的三维属性既可以预先存储在机器人自身具备的存储介质中,也可以是在检测到障碍物时实时得到的,还可以是从第三方(例如:机器人、计算机等能够存储数据并能将其进行传输的设备)得到的。
S220:根据机器人的三维属性和障碍物的三维属性,控制机器人进行避障。
本步骤可以根据机器人的三维属性和障碍物的三维属性,在三维尺度上进行比较,然后,采取相应的策略控制机器人进行避障。
举例来说,图3示例性地示出了机器人在伸出托盘姿态下进行避障的示意图。其中,机器人在伸出托盘的姿态下通过墙壁31与桌子34之间的空间,且托盘43的高度高于桌子34的高度。如图3所示,在该情况下,采用现有技术则判断避障失败(参见图1b)。但是,采用本发明实施例提供的方法,根据机器人的三维属性和障碍物的三维属性,可以判断出托盘33的高度高于桌子34的高度,所以,虽然托盘33突出机器人本体32,但是因为托盘33的高度高于桌子34的高度,从而可以确定机器人可以避开桌子34。
与现有技术相比,本发明实施例是在三维尺度上来判断机器人能否避开障碍物的,由此提高了避障判断的准确性,解决了如何提高避障成功率的技术问题,从而提高了机器人遇到障碍物时的可通过性,还提高了机器人在靠近障碍物的区域内进行作业的能力。
在一些可选的实施例中,控制机器人进行避障的步骤具体可以包括:控制机器人绕开障碍物,或者,在距障碍物预定距离的位置停止行进,或者,穿过障碍物。
其中,控制机器人绕开障碍物的实现方式可以包括但不限于:根据以任意形式(例如:地图)预先存储的机器人行进路线规划方案,从中选择可以避开障碍物的行进路径,以绕开障碍物;或者,机器人根据采集到的场景,实时判断出避开障碍物的行进路径,以绕开障碍物,亦或者是,接收其他设备传输来的行进路线规划信息,并据此绕开障碍物。
以诸如物流搬运机器人、工业机器人等机器人为例,当该机器人行进至墙角处、桌子和墙壁之间的狭窄空间等位置,受到障碍物的阻碍时,该机器人可以将当前所处的位置信息或场景信息传输至云端,然后,云端将行进路线规划地图传输至该机器人,最后,该机器人自身装备的导航系统根据该行进路线规划地图,进行导航,以绕开障碍物。其中,该机器人也可以受控于云端,由云端按照预定的规划路线对机器人进行导航,以绕开障碍物。
当然,上例中的行进路线规划地图也可以预先存储在机器人中,当该机器人行进至墙角附近时,通过摄像头采集该场景的图像,然后调取行进路线规划地图,再将所采集到的图像与行进路线规划地图进行对比,在该行进路线规划地图中确定机器人当前所处的位置;最后,机器人根据当前所处的位置,从行进路线规划地图中选择可以绕开墙角的行进路线。
上述绕开障碍物进行避障的方式仅为举例,任意现有的或今后可能出现的绕开障碍物进行避障的方式也应包含在本发明的保护范围之内。例如,机器人还可以通过激光传感器、红外传感器等感测可以绕开障碍物的路线,从而进行避障。
其中,停止在距障碍物预定距离的位置以进行避障的实现方式可以包括但不限于:机器人根据其自身的三维属性和障碍物的三维属性进行比较,如果判断出不能穿过该障碍物,也没有可以绕开该障碍物的行进路径,则接近该障碍物,在距离该障碍物预定距离的位置停止行进,此时,机器人既可以停止作业,也可以继续在距该障碍物预定距离的位置进行作业。
例如,以该障碍物为沙发、机器人为扫地机器人、预定距离为2厘米为例,该扫地机器人可以在距离该沙发2厘米的位置处,停止行进,继续进行清扫作业,或者,停在此处进入待机状态。
其中,穿过障碍物进行避障的实现方式可以包括但不限于:机器人根据其自身的三维属性和该障碍物的三维属性,判断出其自身可以穿过该障碍物时,则以穿过该障碍物的方式进行避障。
例如,以该障碍物为桌子为例,机器人根据其自身的三维属性与该桌子的三维属性进行比较,如果判断出其可以穿过该桌子的两条桌子腿之间的过道,则该机器人可以不停止在该桌子的附近或绕开该桌子,而是可以选择穿过该桌子的方式进行避障。
本领域技术人员应能理解,上述举例说明的避障实施方式并非穷举,任意现有的或今后可能出现的根据机器人的三维属性和障碍物的三维属性,控制机器人进行避障的实现方式若能适用于本发明,则也应包含在本发明的保护范围之内,并在此以引用的方式结合与此。
在一些可选的实施例中,根据机器人的三维属性和障碍物的三维属性,控制机器人进行避障的步骤具体可以通过步骤S222和/或S224以及步骤S226来实现。其中:
S222:将障碍物的三维模型与机器人的三维模型进行比较。
本步骤通过比较障碍物的三维模型和机器人的三维模型,以采取相应的避障措施进行避障。
其中,障碍物的三维模型可以通过以下方式获得:
a1:采集障碍物的深度图像,作为第一深度图像。
示例性地,本步骤可以通过深度摄像机、三维扫描设备等采集障碍物的深度图像。
a2:利用第一深度图像进行三维建模,得到障碍物的三维模型。
其中,本步骤可以通过深度摄像机直接获得环境点云图像,然后,通过该环境点云图像获得障碍物的三维模型。
示例性地,本步骤可以从多个角度采集障碍物的第一深度图像,接着,将第一深度图像转化为点云数据,然后,可以利用迭代邻近点方法或基于空间几何角的点云配准方法,得到障碍物表面点云信息,再结合三角化方法等手段,这样通过三维坐标实现了障碍物表面的重构,同时结合光线投射算法估算光照在障碍物表面的反射路径,进行渲染,从而实现该障碍物的三维模型。其中,在将第一深度图像转化为点云数据之前可以使用滤波器(例如:中值滤波器)对第一深度图像进行噪声滤除和空洞修补操作。其中,空洞是指深度图像空洞。这通常由于前景的遮挡以及物体表面属性造成的。在具体实施过程中,可以参考邻近像素点深度值对深度图像的空洞进行修补。利用迭代邻近点方法或基于空间几何角的点云配准方法,得到障碍物表面点云信息具体可以包括:利用迭代邻近点方法或基于空间几何角的点云配准方法,估算点云表面法向量,并根据该点云表面法向量,分析不同深度图像点云之间刚体在空间中的旋转、平移等变换关系,得到障碍物表面的点云信息。障碍物表面重构具体可以包括通过点云聚类方法将各个点连接起来,再对点云进行三角剖分,从而使用预定数量的三角面片构成障碍物的表面。
此外,本发明实施例还可以采用飞行时间法(ToF)通过深度图像来获得三维模型。
在一些可选的实施例中,上述机器人的三维模型可以通过以下方式获得:
b1:获取机器人的当前姿态。
本步骤中机器人的当前姿态可以是通过所采集的图像获得的,也可以是通过预先存储在机器人中的信息获得的。
其中,本发明实施例对获取机器人当前姿态的方式不作限制,可以采取任意现有的或今后可能出现的获取机器人当前姿态的方式。例如,可以通过采集机器人的当前图像获得当前姿态。具体地,可以通过安装在机器人上的摄像头对该机器人进行自拍而得到该机器人的图像,然后通过该图像确定该机器人的当前姿态。此外,也可以通过安装在其他位置处的图像获取设备获取机器人的图像,然后,根据该图像确定机器人的当前姿态,最后,将该当前姿态信息发送至该机器人,以此获得当前姿态。
b2:根据当前姿态,确定机器人的三维模型。
本步骤可以通过其他设备(例如:云端)根据机器人的当前姿态,确定出该机器人的三维模型,然后,将得到的三维模型结果传输至该机器人。另外,机器人自身也可以根据当前姿态确定其三维模型。
具体地,在一些可选的实施例中,本步骤可以包括:
b21:根据当前姿态,结合预先确定的、机器人的姿态与结构参数的对应关系,确定机器人的当前结构参数。
举例来说,该机器人可以预先存储其各种姿态、各种姿态下的结构参数以及各种姿态与结构参数之间的对应关系。这样,机器人获取到当前的姿态后,可以根据该姿态,调取与之相应的当前结构参数。
b22:根据当前结构参数,从数据库中调取与当前结构参数对应的三维模型,并将所调取的三维模型确定为机器人的三维模型;其中,数据库中存储机器人的各种结构参数及其对应的三维模型。
其中,数据库可以是机器人自身所具备的,也可以是位于云端的,本发明实施例对此不作限制。
作为可替换的实施例,机器人的三维模型还可以通过以下方式获得:
c1:获取机器人的深度图像,作为第二深度图像。
本步骤可以参考步骤a1获取障碍物的深度图像中的有关说明,在此不再赘述。
c2:利用第二深度图像进行三维建模,得到机器人的三维模型。
有关本实施例的说明可以参考上述步骤a2获取障碍物三维模型中的相应说明,在此不再赘述。
作为可替换的实施例,机器人的三维模型还可以通过以下方式获得:
d1:获取机器人的当前姿态。
有关本步骤的说明可以参考前述对步骤b1的相关说明,在此不再赘述。
d2:确定当前姿态下机器人的结构对应的结构体,其中,结构体为:在预定方向上、对当前姿态下机器人的结构进行划分得到的规则多面体。
举例来说,以扫地机器人为例,该扫地机器人具有托盘。当前姿态为扫地机器人伸出托盘的姿态。根据机器人伸出托盘的当前姿态所对应的结构体,在预定方向上,对当前姿态下机器人的结构进行划分。
其中,规则多面体例如可以为规则的立方体、规则的长方体、规则的圆柱体等。
本发明实施例通过利用规则的多面体作为变换后得到的结构部分的模型,以便于后续步骤将各个规则的多面体组合成三维模型,从而简化了三维模型的建模方式,缩短了三维建模时间,进而缩短了机器人进行避障的时间。
图4示例性地示出了机器人在笛卡尔坐标系下的伸出托盘的俯视图。下面结合图4对划分方式进行详细说明。该扫地机器人具有机器人本体41和托盘42。预定方向为X轴方向。在X轴方向上,根据扫地机器人伸出托盘42的姿态所对应的结构,如图4所示,按照AA’和BB’进行划分,从而得到三个结构体。当然,还可以以Y轴为预定方向,如图4所示,按照CC’和DD’进行划分,以得到三个结构体。
d3:将所确定的结构体组合,得到机器人的三维模型。
沿用图4所示示例,可以得到三个规则的长方体,将该三个规则的长方体组合起来,得到机器人的三维模型。
本实施例通过采取上述技术方案,由于采用规则多面体来构建三维模型,与根据图像进行三维建模相比,简化了建模的过程,所以,本实施例通过将三维建模转化为二维建模,从而可以节省三维建模运算量,尤其是节省了CPU运算资源(也即节省了成本);同时,本实施例还可以节省三维建模时间,从而可以缩短将障碍物的三维模型与机器人的三维模型进行比较的时间,进而可以缩短机器人的避障时间;而且,与单纯地采用圆柱体来作为三维模型的方法相比,所构建的三维模型更能接近实际结构。
本领域技术人员应能理解,上述得到障碍物的三维模型、得到机器人的三维模型的方式仅为举例,任意现有的或今后可能出现的得到障碍物的三维模型的方式、得到机器人的三维模型的方式若能适用于本发明,则也应包含在本发明的保护范围之内,并在此以引用的方式结合于此。
S224:将障碍物的三维结构参数与机器人的三维结构参数进行比较。
其中,机器人的三维结构参数可以是预先存储的,也可以通过云端等其他设备发送给该机器人的,本发明实施例对此不作限制。
在一些可选的实施例中,障碍物的三维结构参数可以通过以下方式获得:
e1:采集障碍物的全景图像。
本步骤可以通过全景摄像机来采集障碍物的全景图像。
e2:采集障碍物的深度图像。
有关本步骤的说明可以参考步骤a1中的相应说明,在此不再赘述。
e3:根据全景图像和深度图像,获取障碍物的三维结构参数。
本步骤通过图像处理来获取障碍物的三维结构参数。具体地,本步骤可以对全景图像和深度图像进行特征提取,得到特征点,例如,可以提取全景图像和深度图像的SIFT特征。然后,提取并匹配出满足仿射矩阵分解条件的特征点,最后,基于该特征点,利用仿射投影矩阵分解算法,得到障碍物的三维结构参数。进一步地,还可以采用光束平差法修正三维结构参数的误差。
S226:根据比较结果,控制机器人进行避障。
在一些可选的实施例中,在根据机器人的当前姿态确定机器人的三维模型的实施例的基础上,根据比较结果,控制机器人进行避障的步骤具体可以包括步骤一和步骤二。
步骤一:在比较结果显示障碍物阻碍机器人行进的情况下,根据机器人、障碍物两者的三维模型和/或两者的三维结构参数,选择能够避免障碍物阻碍机器人行进的机器人的姿态。
举例来说,当障碍物阻碍机器人行进时,可以将机器人的三维模型与障碍物的三维模型、机器人的三维模型与障碍物的三维结构参数、机器人的三维结构参数与障碍物的三维模型,或者,机器人的三维结构参数与障碍物的三维结构参数进行比较,选择能够避免障碍物阻碍机器人行进的机器人的姿态。
其中,将机器人的三维模型与障碍物的三维模型进行比较的实现方式可以参考对步骤S222的有关说明,在此不再赘述。
其中,将机器人的三维结构参数与障碍物的三维结构参数进行比较的实现方式可以参见对步骤S224的有关说明,在此不再赘述。
其中,将机器人的三维模型与障碍物的三维结构参数进行比较的实现方式可以包括但不限于:通过机器人的三维模型获取该机器人的三维结构参数,然后用该机器人的三维结构参数与障碍物的三维结构参数进行比较;或者,根据障碍物的三维结构参数获取该障碍物的三维模型,然后,将机器人的三维模型与该障碍物的三维模型进行比较。同理,将机器人的三维结构参数与障碍物的三维模型进行比较的实现方式也可以采取上述方式,在此不再赘述。
步骤二:变换至所选择的姿态,并将所选择的姿态确定为机器人的当前姿态,执行根据当前姿态,确定机器人的三维模型的步骤。
本步骤在障碍物阻碍机器人行进的情况下,变换姿态,然后,根据变换姿态后的三维模型进行避障。如果变换姿态后,机器人仍无法穿过障碍物,则还可以再进行姿态变换,然后,根据变换后的姿态确定三维模型,最后根据该三维模型进行避障。在实际应用中,具体采用何种避障方式可以根据实际情况确定,例如,机器人可以变换各种姿态进行三维避障,也可以在变换预定数量的姿态后,障碍物仍然阻碍机器人行进,则可以采取诸如绕开障碍物或停止在该障碍物附近等避障策略。
举例来说,图5a和5b示例性地示出了机器人伸出机器臂通过墙壁与桌子之间空间的示意图。图5a和5b中示例性地示出了墙壁50、机器人的三维模型51、机器人52、桌子53、二维避障检测平面54及地面55。其中,该机器人52包括托盘521。在图5a中,机器人52在伸出托盘521的状态下通过墙壁50和桌子53之间的空间时,由于桌子53挡住了托盘521,使得机器人52无法通过。然后,机器人52变换至图5b所示的姿态。在图5b中,机器人52将托盘521抬至高于桌子高度的位置。然后,机器人52将图5b所示的姿态确定为当前姿态,再根据当前姿态,确定机器人的三维模型51;再获取桌子的三维模型;然后,将机器人的三维模型51与桌子的三维模型进行比较;如果比较结果为机器人52可以从墙壁50和桌子53之间通过,则控制机器人行进。
基于与方法实施例相同的技术构思,本发明实施例还提供一种机器人。该机器人实施例可以执行上述机器人避障方法实施例。如图6所示,该机器人可以包括:检测模块61、获取模块62和避障模块63。其中,检测模块61用于检测机器人周围的环境中是否存在障碍物。获取模块62用于在存在障碍物时,获取机器人的三维属性和障碍物的三维属性。避障模块63用于根据机器人的三维属性和障碍物的三维属性,控制机器人进行避障。
本发明实施例提供的机器人在三维尺度上判断能否避开障碍物,由此提高了避障判断的准确性,解决了如何提高避障成功率的技术问题,从而提高了机器人遇到障碍物时的可通过性,还提高了机器人在靠近障碍物的区域内进行作业的能力。
在一些可选的实施例中,三维属性包括三维模型和/或三维结构参数;避障模块63具体可以包括:比较单元和避障单元。其中,比较单元用于将障碍物的三维模型与机器人的三维模型进行比较,和/或,将障碍物的三维结构参数与机器人的三维结构参数进行比较。避障单元用于根据比较结果,控制机器人进行避障。
在一些可选的实施例中,获取模块62具体可以包括:第一采集单元、第一建模单元。其中,第一采集单元用于采集障碍物的深度图像,作为第一深度图像。第一建模单元,用于利用第一深度图像进行三维建模,得到障碍物的三维模型。
在一些可选的实施例中,获取模块62具体可以包括:第一获取单元、第一确定单元。其中,第一获取单元用于获取机器人的当前姿态。第一确定单元用于根据当前姿态,确定机器人的三维模型。
在一些可选的实施例中,第一确定单元具体用于:根据当前姿态,结合预先确定的、机器人的姿态与结构参数的对应关系,确定机器人的当前结构参数;根据当前结构参数,从数据库中调取与当前结构参数对应的三维模型,并将所调取的三维模型确定为机器人的三维模型;其中,数据库中存储机器人的各种结构参数及其对应的三维模型。
在一些可选的实施例中,避障单元具体可以包括选择子单元和变换子单元。其中,选择子单元用于在比较结果显示障碍物阻碍机器人行进的情况下,根据机器人、障碍物两者的三维模型和/或两者的三维结构参数,选择能够避免障碍物阻碍机器人行进的机器人的姿态。变换子单元用于变换至所选择的姿态,并将所选择的姿态确定为机器人的当前姿态,触发第一确定单元。
在障碍物阻碍机器人行进的情况下,变换子单元变换姿态,然后,机器人根据变换姿态后的三维模型进行避障。如果变换姿态后,机器人仍无法穿过障碍物,则变换子单元还可以再进行姿态变换,然后,第一确定单元根据变换后的姿态确定三维模型,最后机器人根据该三维模型进行避障。在实际应用中,具体采用何种避障方式可以根据实际情况确定,例如,机器人可以变换各种姿态进行三维避障,也可以在变换预定数量的姿态后,障碍物仍然阻碍机器人行进,则可以采取诸如绕开障碍物或停止在该障碍物附近等避障策略。
在一些可选的实施例中,获取模块62具体可以包括第二获取单元和第二建模单元。其中,第二获取单元用于获取机器人的深度图像,作为第二深度图像。第二建模单元用于利用第二深度图像进行三维建模,得到机器人的三维模型。
在一些可选的实施例中,获取模块62具体可以包括第三获取单元、第二确定单元和组合单元。其中,第三获取单元用于获取机器人的当前姿态。第二确定单元用于确定当前姿态下机器人的结构对应的结构体,其中,结构体为:在预定方向上、对当前姿态下机器人的结构进行划分得到的规则多面体。组合单元用于将所确定的结构体组合,得到机器人的三维模型。
本发明实施例通过第二确定单元利用规则的多面体作为变换后得到的结构部分的模型,以便于组合单元将各个规则的多面体组合成三维模型,从而简化了三维模型的建模方式,缩短了三维建模时间,进而缩短了机器人进行避障的时间。
在一些可选的实施例中,获取模块62具体可以包括第二采集单元、第三采集单元和第四获取单元。其中,第二采集单元用于采集障碍物的深度图像。第四获取单元用于根据深度图像,获取障碍物的三维结构参数。
在一些可选的实施例中,避障模块63具体用于:控制机器人绕开障碍物,或者,在距障碍物预定距离的位置停止行进,或者,穿过障碍物。
在一些可选的实施例中,检测模块61具体可以包括第五获取单元和检测单元。其中,第五获取单元用于获取机器人周围环境的三维信息。检测单元用于通过三维信息,来检测机器人周围的环境中是否存在障碍物。
另外,基于与机器人避障方法实施例相同的技术构思,本发明实施例还提供一种机器人。该机器人可以执行上述避障方法实施例。如图7所示,该机器人可以包括处理器71、通信接口72、存储器73和通信总线74,其中,处理器71、通信接口72和存储器73通过通信总线74完成相互间的通信;存储器73用于存放计算机程序;处理器71用于执行存储器73上所存放的程序时,实现上述机器人避障方法实施例中的方法步骤。
上述机器人提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述机器人与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本实施例中,通过处理器71执行存储器73上所存放的程序时,实现:检测机器人周围的环境中是否存在障碍物;若存在,获取机器人的三维属性和障碍物的三维属性;根据机器人的三维属性和障碍物的三维属性,控制机器人进行避障。与现有采用二维投影面作为避障判断基础的技术相比,本发明实施例机器人在三维尺度上来判断能否避开障碍物,由此提高了避障判断的准确性,提高了避障成功率,进而提高了机器人遇到障碍物时的可通过性,还提高了机器人在靠近障碍物的区域内进行作业的能力。
此外,基于与机器人避障方法实施例相同的技术构思,本发明实施例还提供一种计算机可读存储介质。该计算机可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述机器人避障方法实施例中的方法步骤。
上述计算机可读存储介质可以包括但不限于随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、可编程只读存储器(PROM)、可擦写可编程只读存储器(EPROM)、电可擦写可编程只读存储器(EEPROM)、闪存(例如,NOR型闪存或NAND型闪存)、内容可寻址存储器(CAM)、聚合物存储器(例如,铁电聚合物存储器)、相变存储器、双向开关半导体存储器、硅-氧化物-氮化硅-氧化硅-硅(Silicon-Oxide-Nitride-Oxide-Silicon,SONOS)存储器、磁卡或者光卡,亦或是其他任意适当类型的计算机可读存储介质。
本实施例中,计算机程序被处理器执行时实现:检测机器人周围的环境中是否存在障碍物;若存在,获取机器人的三维属性和障碍物的三维属性;根据机器人的三维属性和障碍物的三维属性,控制机器人进行避障。与现有采用二维投影面作为避障判断基础的技术相比,通过本发明实施例计算机可读存储介质的执行,可以使得机器人在三维尺度上来判断能否避开障碍物,由此提高了避障判断的准确性,提高了避障成功率,进而提高了机器人遇到障碍物时的可通过性,还提高了机器人在靠近障碍物的区域内进行作业的能力。
上述各个实施例及其中的技术手段在不冲突的情况下可以互相组合而形成解决如何提高避障成功率的技术方案,在此不再赘述。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于机器人实施例和计算机可读存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (10)
1.一种机器人避障方法,其特征在于,所述方法包括:
检测所述机器人周围的环境中是否存在障碍物;
若存在,获取所述机器人的三维属性和所述障碍物的三维属性;
根据所述机器人的三维属性和所述障碍物的三维属性,控制所述机器人进行避障。
2.根据权利要求1所述的方法,其特征在于,所述三维属性包括:三维模型和/或三维结构参数,
所述根据所述机器人的三维属性和所述障碍物的三维属性,控制所述机器人进行避障,具体包括:
将所述障碍物的三维模型与所述机器人的三维模型进行比较,和/或,
将所述障碍物的三维结构参数与所述机器人的三维结构参数进行比较;
根据比较结果,控制所述机器人进行避障。
3.根据权利要求2所述的方法,其特征在于,所述获取所述障碍物的三维模型具体包括:
采集所述障碍物的深度图像,作为第一深度图像;
利用所述第一深度图像进行三维建模,得到所述障碍物的三维模型。
4.根据权利要求2所述的方法,其特征在于,所述获取所述机器人的三维模型,具体包括:
获取所述机器人的当前姿态;
根据所述当前姿态,确定所述机器人的三维模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述当前姿态,确定所述机器人的三维模型,具体包括:
根据所述当前姿态,结合预先确定的、所述机器人的姿态与结构参数的对应关系,确定所述机器人的当前结构参数;
根据所述当前结构参数,从数据库中调取与所述当前结构参数对应的三维模型,并将所调取的三维模型确定为所述机器人的三维模型;其中,所述数据库中存储所述机器人的各种结构参数及其对应的三维模型。
6.根据权利要求4所述的方法,其特征在于,所述根据比较结果,控制所述机器人进行避障,具体包括:
在所述比较结果显示所述障碍物阻碍所述机器人行进的情况下,根据所述机器人、障碍物两者的三维模型和/或两者的三维结构参数,选择能够避免所述障碍物阻碍所述机器人行进的所述机器人的姿态;
变换至所选择的姿态,并将所选择的姿态确定为所述机器人的当前姿态,执行所述根据所述当前姿态,确定所述机器人的三维模型的步骤。
7.根据权利要求2所述的方法,其特征在于,所述获取所述机器人的三维模型,具体包括:
获取所述机器人的深度图像,作为第二深度图像;
利用所述第二深度图像进行三维建模,得到所述机器人的三维模型。
8.一种机器人,其特征在于,所述机器人包括:
检测模块,用于检测所述机器人周围的环境中是否存在障碍物;
获取模块,用于在存在障碍物时,获取所述机器人的三维属性和所述障碍物的三维属性;
避障模块,用于根据所述机器人的三维属性和所述障碍物的三维属性,控制所述机器人进行避障。
9.一种机器人,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-7任一所述的方法步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-7任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710912214.XA CN108733045B (zh) | 2017-09-29 | 2017-09-29 | 机器人及其避障方法以及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710912214.XA CN108733045B (zh) | 2017-09-29 | 2017-09-29 | 机器人及其避障方法以及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108733045A true CN108733045A (zh) | 2018-11-02 |
CN108733045B CN108733045B (zh) | 2022-01-04 |
Family
ID=63940171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710912214.XA Active CN108733045B (zh) | 2017-09-29 | 2017-09-29 | 机器人及其避障方法以及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108733045B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109634286A (zh) * | 2019-01-21 | 2019-04-16 | 深圳市傲基电子商务股份有限公司 | 割草机器人视觉避障方法、割草机器人和可读存储介质 |
CN109696913A (zh) * | 2018-12-13 | 2019-04-30 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于深度学习的扫地机器人智能避障系统及方法 |
CN110262487A (zh) * | 2019-06-12 | 2019-09-20 | 深圳前海达闼云端智能科技有限公司 | 一种障碍物检测方法、终端及计算机可读存储介质 |
CN110502014A (zh) * | 2019-08-22 | 2019-11-26 | 深圳乐动机器人有限公司 | 一种机器人避障的方法及机器人 |
CN110974088A (zh) * | 2019-11-29 | 2020-04-10 | 深圳市杉川机器人有限公司 | 扫地机器人控制方法、扫地机器人及存储介质 |
CN111152226A (zh) * | 2020-01-19 | 2020-05-15 | 吉利汽车研究院(宁波)有限公司 | 一种机器人工作轨迹规划方法及系统 |
CN111421553A (zh) * | 2020-05-14 | 2020-07-17 | 小狗电器互联网科技(北京)股份有限公司 | 基于轮廓识别的机器人控制方法、存储介质及移动机器人 |
CN111487956A (zh) * | 2019-01-25 | 2020-08-04 | 深圳市神州云海智能科技有限公司 | 一种机器人避障的方法及机器人 |
CN111609852A (zh) * | 2019-02-25 | 2020-09-01 | 北京奇虎科技有限公司 | 语义地图构建方法、扫地机器人及电子设备 |
CN111679661A (zh) * | 2019-02-25 | 2020-09-18 | 北京奇虎科技有限公司 | 基于深度相机的语义地图构建方法及扫地机器人 |
CN112346445A (zh) * | 2019-08-07 | 2021-02-09 | 坎德拉(深圳)科技创新有限公司 | 一种配送机器人及其避障方法、计算机存储介质 |
CN112445215A (zh) * | 2019-08-29 | 2021-03-05 | 阿里巴巴集团控股有限公司 | 自动导引车行驶控制方法、装置及计算机系统 |
WO2021052403A1 (zh) * | 2019-09-20 | 2021-03-25 | 杭州海康机器人技术有限公司 | 一种移动机器人感知障碍信息的方法、装置 |
CN113128248A (zh) * | 2019-12-26 | 2021-07-16 | 深圳一清创新科技有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN114303112A (zh) * | 2019-08-30 | 2022-04-08 | Nec平台株式会社 | 分发设备、飞行器、飞行系统、其方法以及非暂时性计算机可读介质 |
Citations (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101122800A (zh) * | 2007-08-24 | 2008-02-13 | 北京航空航天大学 | 一种复合式视觉导航方法与装置 |
CN102500498A (zh) * | 2011-11-11 | 2012-06-20 | 江苏科技大学 | 非规则多面体上的喷涂机器人喷枪轨迹优化方法 |
CN202351703U (zh) * | 2011-10-10 | 2012-07-25 | 北京工业大学 | 一种独轮自平衡机器人系统 |
WO2012143044A1 (en) * | 2011-04-19 | 2012-10-26 | Abb Research Ltd. | An industrial robot having a kinematically redundant arm and a method for controlling the robot |
US20120316725A1 (en) * | 2008-10-24 | 2012-12-13 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
CN102831638A (zh) * | 2012-07-06 | 2012-12-19 | 南京大学 | 一种采用手绘草图的三维人体多姿态建模方法 |
CN103064296A (zh) * | 2011-10-21 | 2013-04-24 | 中国科学院沈阳自动化研究所 | 一种水下机器人辅助控制系统 |
US8527193B1 (en) * | 2007-10-09 | 2013-09-03 | Lockheed Martin Corporation | Method for determining relative motion using accelerometer data |
CN103568008A (zh) * | 2012-07-27 | 2014-02-12 | 精工爱普生株式会社 | 机器人系统以及机器人控制装置 |
CN103984037A (zh) * | 2014-04-30 | 2014-08-13 | 深圳市墨克瑞光电子研究院 | 基于视觉的移动机器人障碍物检测方法和装置 |
US20140354626A1 (en) * | 2010-05-12 | 2014-12-04 | Google Inc. | Block Based Level of Detail Representation |
CN104626206A (zh) * | 2014-12-17 | 2015-05-20 | 西南科技大学 | 一种非结构环境下机器人作业的位姿信息测量方法 |
CN104637089A (zh) * | 2015-02-15 | 2015-05-20 | 腾讯科技(深圳)有限公司 | 三维模型数据处理方法和装置 |
US20150168954A1 (en) * | 2005-10-21 | 2015-06-18 | Irobot Corporation | Methods and systems for obstacle detection using structured light |
CN105184031A (zh) * | 2015-11-04 | 2015-12-23 | 上海无线电设备研究所 | 一种装配机器人臂部结构的轻量化设计方法 |
CN105243682A (zh) * | 2015-09-25 | 2016-01-13 | 翟翊民 | 一种肢体元件模型、角色以及二维动画制作的方法 |
CN105353768A (zh) * | 2015-12-08 | 2016-02-24 | 清华大学 | 狭窄空间内基于随机采样的无人机轨迹规划方法 |
CN106289232A (zh) * | 2016-07-24 | 2017-01-04 | 广东大仓机器人科技有限公司 | 一种基于深度传感器的机器人避障方法 |
CN106338996A (zh) * | 2016-10-20 | 2017-01-18 | 上海物景智能科技有限公司 | 一种移动机器人安全控制的方法及系统 |
US20170026807A1 (en) * | 2015-05-29 | 2017-01-26 | Verity Studios Ag | Methods and systems for scheduling the transmission of localization signals and operating self-localizing apparatus |
CN106643692A (zh) * | 2016-09-28 | 2017-05-10 | 深圳乐行天下科技有限公司 | 一种机器人导航定位方法、系统及机器人 |
CN106774324A (zh) * | 2016-12-22 | 2017-05-31 | 以恒激光科技(北京)有限公司 | 一种双摄像头三维识别巡逻机器人 |
CN106949893A (zh) * | 2017-03-24 | 2017-07-14 | 华中科技大学 | 一种三维避障的室内机器人导航方法和系统 |
CN107146607A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 智能设备交互信息的修正方法、装置及系统 |
CN107150329A (zh) * | 2017-04-27 | 2017-09-12 | 中国矿业大学 | 一种基于三自由度视觉平台的移动机器人及其控制方法 |
CN107167139A (zh) * | 2017-05-24 | 2017-09-15 | 广东工业大学 | 一种变电站巡检机器人视觉定位导航方法及系统 |
-
2017
- 2017-09-29 CN CN201710912214.XA patent/CN108733045B/zh active Active
Patent Citations (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150168954A1 (en) * | 2005-10-21 | 2015-06-18 | Irobot Corporation | Methods and systems for obstacle detection using structured light |
CN101122800A (zh) * | 2007-08-24 | 2008-02-13 | 北京航空航天大学 | 一种复合式视觉导航方法与装置 |
US8527193B1 (en) * | 2007-10-09 | 2013-09-03 | Lockheed Martin Corporation | Method for determining relative motion using accelerometer data |
US20120316725A1 (en) * | 2008-10-24 | 2012-12-13 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
US20140354626A1 (en) * | 2010-05-12 | 2014-12-04 | Google Inc. | Block Based Level of Detail Representation |
WO2012143044A1 (en) * | 2011-04-19 | 2012-10-26 | Abb Research Ltd. | An industrial robot having a kinematically redundant arm and a method for controlling the robot |
CN202351703U (zh) * | 2011-10-10 | 2012-07-25 | 北京工业大学 | 一种独轮自平衡机器人系统 |
CN103064296A (zh) * | 2011-10-21 | 2013-04-24 | 中国科学院沈阳自动化研究所 | 一种水下机器人辅助控制系统 |
CN102500498A (zh) * | 2011-11-11 | 2012-06-20 | 江苏科技大学 | 非规则多面体上的喷涂机器人喷枪轨迹优化方法 |
CN102831638A (zh) * | 2012-07-06 | 2012-12-19 | 南京大学 | 一种采用手绘草图的三维人体多姿态建模方法 |
CN103568008A (zh) * | 2012-07-27 | 2014-02-12 | 精工爱普生株式会社 | 机器人系统以及机器人控制装置 |
CN103984037A (zh) * | 2014-04-30 | 2014-08-13 | 深圳市墨克瑞光电子研究院 | 基于视觉的移动机器人障碍物检测方法和装置 |
CN104626206A (zh) * | 2014-12-17 | 2015-05-20 | 西南科技大学 | 一种非结构环境下机器人作业的位姿信息测量方法 |
CN104637089A (zh) * | 2015-02-15 | 2015-05-20 | 腾讯科技(深圳)有限公司 | 三维模型数据处理方法和装置 |
US20170026807A1 (en) * | 2015-05-29 | 2017-01-26 | Verity Studios Ag | Methods and systems for scheduling the transmission of localization signals and operating self-localizing apparatus |
CN105243682A (zh) * | 2015-09-25 | 2016-01-13 | 翟翊民 | 一种肢体元件模型、角色以及二维动画制作的方法 |
CN105184031A (zh) * | 2015-11-04 | 2015-12-23 | 上海无线电设备研究所 | 一种装配机器人臂部结构的轻量化设计方法 |
CN105353768A (zh) * | 2015-12-08 | 2016-02-24 | 清华大学 | 狭窄空间内基于随机采样的无人机轨迹规划方法 |
CN106289232A (zh) * | 2016-07-24 | 2017-01-04 | 广东大仓机器人科技有限公司 | 一种基于深度传感器的机器人避障方法 |
CN106643692A (zh) * | 2016-09-28 | 2017-05-10 | 深圳乐行天下科技有限公司 | 一种机器人导航定位方法、系统及机器人 |
CN106338996A (zh) * | 2016-10-20 | 2017-01-18 | 上海物景智能科技有限公司 | 一种移动机器人安全控制的方法及系统 |
CN106774324A (zh) * | 2016-12-22 | 2017-05-31 | 以恒激光科技(北京)有限公司 | 一种双摄像头三维识别巡逻机器人 |
CN106949893A (zh) * | 2017-03-24 | 2017-07-14 | 华中科技大学 | 一种三维避障的室内机器人导航方法和系统 |
CN107146607A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 智能设备交互信息的修正方法、装置及系统 |
CN107150329A (zh) * | 2017-04-27 | 2017-09-12 | 中国矿业大学 | 一种基于三自由度视觉平台的移动机器人及其控制方法 |
CN107167139A (zh) * | 2017-05-24 | 2017-09-15 | 广东工业大学 | 一种变电站巡检机器人视觉定位导航方法及系统 |
Non-Patent Citations (2)
Title |
---|
LI, XB等: "Design and Simulation of a Robotic Jellyfish Based on Mechanical Structure Drive and Adjustment", 《2015 34TH CHINESE CONTROL CONFERENCE》 * |
王力行: "单足跳跃机器人三维仿真系统的设计与研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109696913A (zh) * | 2018-12-13 | 2019-04-30 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于深度学习的扫地机器人智能避障系统及方法 |
CN109634286A (zh) * | 2019-01-21 | 2019-04-16 | 深圳市傲基电子商务股份有限公司 | 割草机器人视觉避障方法、割草机器人和可读存储介质 |
CN111487956B (zh) * | 2019-01-25 | 2024-03-15 | 深圳市神州云海智能科技有限公司 | 一种机器人避障的方法及机器人 |
CN111487956A (zh) * | 2019-01-25 | 2020-08-04 | 深圳市神州云海智能科技有限公司 | 一种机器人避障的方法及机器人 |
CN111679661A (zh) * | 2019-02-25 | 2020-09-18 | 北京奇虎科技有限公司 | 基于深度相机的语义地图构建方法及扫地机器人 |
CN111609852A (zh) * | 2019-02-25 | 2020-09-01 | 北京奇虎科技有限公司 | 语义地图构建方法、扫地机器人及电子设备 |
CN110262487A (zh) * | 2019-06-12 | 2019-09-20 | 深圳前海达闼云端智能科技有限公司 | 一种障碍物检测方法、终端及计算机可读存储介质 |
CN110262487B (zh) * | 2019-06-12 | 2022-09-23 | 达闼机器人股份有限公司 | 一种障碍物检测方法、终端及计算机可读存储介质 |
CN112346445A (zh) * | 2019-08-07 | 2021-02-09 | 坎德拉(深圳)科技创新有限公司 | 一种配送机器人及其避障方法、计算机存储介质 |
CN110502014A (zh) * | 2019-08-22 | 2019-11-26 | 深圳乐动机器人有限公司 | 一种机器人避障的方法及机器人 |
CN112445215A (zh) * | 2019-08-29 | 2021-03-05 | 阿里巴巴集团控股有限公司 | 自动导引车行驶控制方法、装置及计算机系统 |
CN114303112A (zh) * | 2019-08-30 | 2022-04-08 | Nec平台株式会社 | 分发设备、飞行器、飞行系统、其方法以及非暂时性计算机可读介质 |
WO2021052403A1 (zh) * | 2019-09-20 | 2021-03-25 | 杭州海康机器人技术有限公司 | 一种移动机器人感知障碍信息的方法、装置 |
CN110974088B (zh) * | 2019-11-29 | 2021-09-24 | 深圳市杉川机器人有限公司 | 扫地机器人控制方法、扫地机器人及存储介质 |
CN110974088A (zh) * | 2019-11-29 | 2020-04-10 | 深圳市杉川机器人有限公司 | 扫地机器人控制方法、扫地机器人及存储介质 |
CN113128248A (zh) * | 2019-12-26 | 2021-07-16 | 深圳一清创新科技有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN113128248B (zh) * | 2019-12-26 | 2024-05-28 | 深圳一清创新科技有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN111152226B (zh) * | 2020-01-19 | 2021-09-07 | 吉利汽车研究院(宁波)有限公司 | 一种机器人工作轨迹规划方法及系统 |
CN111152226A (zh) * | 2020-01-19 | 2020-05-15 | 吉利汽车研究院(宁波)有限公司 | 一种机器人工作轨迹规划方法及系统 |
CN111421553A (zh) * | 2020-05-14 | 2020-07-17 | 小狗电器互联网科技(北京)股份有限公司 | 基于轮廓识别的机器人控制方法、存储介质及移动机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN108733045B (zh) | 2022-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108733045A (zh) | 机器人及其避障方法以及计算机可读存储介质 | |
CN107688342B (zh) | 机器人的避障控制系统及方法 | |
Botterill et al. | A robot system for pruning grape vines | |
Delage et al. | Automatic single-image 3d reconstructions of indoor manhattan world scenes | |
US9715761B2 (en) | Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis | |
CN110307838A (zh) | 机器人重定位方法、装置、计算机可读存储介质及机器人 | |
CA3117899A1 (en) | Method and apparatus for combining data to construct a floor plan | |
CN110084243B (zh) | 一种基于二维码和单目相机的档案识别与定位方法 | |
CN108053449A (zh) | 双目视觉系统的三维重建方法、装置及双目视觉系统 | |
CN112541097A (zh) | 用于对象标识的方法和计算系统 | |
Lee et al. | Embedded visual SLAM: Applications for low-cost consumer robots | |
CN108369743A (zh) | 使用多方向相机地图构建空间 | |
US11729511B2 (en) | Method for wall line determination, method, apparatus, and device for spatial modeling | |
CN110702028B (zh) | 一种果园树干三维检测定位方法及装置 | |
Einhorn et al. | Attention-driven monocular scene reconstruction for obstacle detection, robot navigation and map building | |
CN111679661A (zh) | 基于深度相机的语义地图构建方法及扫地机器人 | |
CN108789421A (zh) | 基于云平台的云机器人交互方法和云机器人及云平台 | |
Benosman et al. | Panoramic stereo vision sensor | |
Silva et al. | Camera calibration using a color-depth camera: Points and lines based DLT including radial distortion | |
CN108367436A (zh) | 针对三维空间中的物体位置和范围的主动相机移动确定 | |
Alcantarilla et al. | How to localize humanoids with a single camera? | |
CN113674400A (zh) | 基于重定位技术的光谱三维重建方法、系统及存储介质 | |
CN111964680A (zh) | 一种巡检机器人的实时定位方法 | |
Liang et al. | Reduced-complexity data acquisition system for image-based localization in indoor environments | |
Booij et al. | Efficient data association for view based SLAM using connected dominating sets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |