CN113917917B - 室内仿生多足机器人避障方法、装置及计算机可读介质 - Google Patents

室内仿生多足机器人避障方法、装置及计算机可读介质 Download PDF

Info

Publication number
CN113917917B
CN113917917B CN202111120565.XA CN202111120565A CN113917917B CN 113917917 B CN113917917 B CN 113917917B CN 202111120565 A CN202111120565 A CN 202111120565A CN 113917917 B CN113917917 B CN 113917917B
Authority
CN
China
Prior art keywords
point cloud
legged robot
bionic multi
bionic
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111120565.XA
Other languages
English (en)
Other versions
CN113917917A (zh
Inventor
胡亮
张聃
刘孟红
展华益
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Cric Technology Co ltd
Original Assignee
Sichuan Cric Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Cric Technology Co ltd filed Critical Sichuan Cric Technology Co ltd
Priority to CN202111120565.XA priority Critical patent/CN113917917B/zh
Publication of CN113917917A publication Critical patent/CN113917917A/zh
Application granted granted Critical
Publication of CN113917917B publication Critical patent/CN113917917B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了室内仿生多足机器人避障方法、装置及计算机可读介质,方法包括:通过安装在仿生多足机器人上的像机不断获取室内点云图像,并计算点云图像的表面法向量;统计表面法向量求得地心引力估计方向,并旋转点云图像使得其相机坐标系的Y轴与地心引力估计方向平行,以修正仿生多足机器人运动时产生的倾斜;计算修正图像各点的高度值以及坐标,仿生多足机器人根据高度值与预先设定的阈值进行继续前进、避开或者跨越动作。本发明通过对齐相机坐标系Y轴与地心引力估计方向,修正了机器人运动时产生的倾斜;通过计算点云图像各点距地面的高度值,避免了机体距地面高度不固定带来的影响;该方法无需识别目标,运算量少,且对障碍的判断更为准确。

Description

室内仿生多足机器人避障方法、装置及计算机可读介质
技术领域
本发明涉及人工智能和机器人技术领域,尤其涉及一种室内仿生多足机器人避障方法、装置及计算机可读介质。
背景技术
仿生机器人是一门融合机械、电子、计算机、人工智能、自动化等多门学科知识的科学,涉及各种传感器、信号处理、控制及定位导航系统的研发。随着技术的不断发展与人类社会的进步,人们越来越希望有一种可以帮助人类完成扫地、擦玻璃、送物品、聊天陪护等各种繁琐任务的仿生机器人,使得人类能从中解放出来,因此仿生机器人的相关研究越来越多,在实际生活中的应用也日益普遍。
避障技术是仿生机器人的关键技术之一,中国专利CN202110091161.6提出了一种基于深度学习的机器人避障方法,然而这种方法需要对图像进行语义分割,对算力要求高且耗时;中国专利CN202010195887.X的避障方案,要求将可见光图像和深度图像对齐融合,较为复杂,且成本昂贵;中国专利CN202110160018.8的四足仿生机器人采用基于目标识别的算法进行避障,成功率与障碍物识别率息息相关,但生活中有些障碍物不常见,识别率极低;中国专利CN202011105119.7给出了结合点云图像与三维景深图像的避障技术,可这种技术只适用于轮式机器人或无人车。
仿生多足机器人在室内运动时,机体距地面高度不固定,有时甚至会产生一定角度的倾斜,与轮式机器人如扫地机器人、AGV小车等运动时的情况有所不同;针对这一情况,设计出合适的室内仿生多足机器人避障方法是一个重要而迫切的任务。
发明内容
本发明提供了一种室内仿生多足机器人避障方法、装置及计算机可读介质,以解决上述技术问题,该方法首先计算点云图像的表面法向量;然后利用统计方法统计表面法向量求得地心引力估计方向,并旋转点云图像使得其相机坐标系的Y轴与地心引力估计方向平行,以修正仿生多足机器人运动时产生的倾斜;最后计算修正图像各点的高度值以及坐标,仿生多足机器人根据高度值与预先设定的阈值进行继续前进、避开或者跨越等动作。
为了实现上述目的,本发明采用的技术方案是:一种室内仿生多足机器人避障方法,包括如下步骤:
S1:通过安装在仿生多足机器人上的像机不断获取室内点云图像,并计算点云图像的表面法向量;
S2:统计表面法向量求得地心引力估计方向,并旋转点云图像使得其相机坐标系的Y轴与地心引力估计方向平行,以修正仿生多足机器人运动时产生的倾斜;
S3:计算修正图像各点的高度值以及坐标,仿生多足机器人根据高度值与预先设定的阈值进行继续前进、避开或者跨越动作。
作为室内仿生多足机器人避障方法的一种优选方式,所述计算点云图像的表面法向量采用PCA点云法向量估计法,用于估计法向量m。
作为室内仿生多足机器人避障方法的一种优选方式,所述统计表面法向量求得地心引力估计方向的方法包括:
S2.1:设地心引力方向估计为gn-1,将表面法向量m分配给集合M1与集合M2
M1={m:θ(m,gn-1)<e orθ(m,gn-1)>180°-e}
M2={m:90°-e<θ(m,gn-1)<90°+e}
其中θ(m,gn-1)表示法向量m和地心引力估计方向gn-1的夹角,e是迭代阈值;
S2.2:寻找矩阵M2(M2)t-M1(M1)t最小特征值对应的特征向量,作为地心引力方向新的估计值gn
重复S2.1和S1.2直到满足终止条件,并计算得到最终的地心引力估计方向g。
作为室内仿生多足机器人避障方法的一种优选方式,所述旋转点云图像使得其相机坐标系的Y轴与地心引力估计方向平行的方法包括:
S2.3:计算Y轴与最终的地心引力估计方向g的叉积,得到向量n,并将其单位化;
S2.4:计算Y轴与最终的地心引力估计方向g的内积,得到它们的夹角δ;
S2.5:将点云图像以n为轴,旋转δ角度,得到修正后的点云图像,以修正仿生多足机器人运动时产生的倾斜。
作为室内仿生多足机器人避障方法的一种优选方式,所述计算修正图像各点的高度值以及坐标的方法包括:
S3.1:根据S2.5中的修正后的点云图像,计算修正点云图像各点的坐标;
S3.2:选择Y坐标值最大的若干个点,以它们Y坐标值的某个统计量,如均值,作为室内地面在Y坐标上的值;
S3.3:各点的Y坐标值减去室内地面的Y坐标值并取绝对值,就是修正点云图像中各点的高度值。
作为室内仿生多足机器人避障方法的一种优选方式,所述仿生多足机器人根据高度值与预先设定的阈值进行继续前进、避开或者跨越动作的方法包括:
S3.4:根据仿生多足机器人的宽度,设定相机坐标系X轴上的两个阈值(X1,X2);根据仿生多足机器人的越障能力,设定两个高度阈值(Y1,Y2),以及相机坐标系Z轴上的阈值Z1;其中,Y1为仿生多足机器人可跨障碍高度,Y2为仿生多足机器人最大高度,Z1取为点云相机成像距离下限;
S3.5:分析修正点云图像中X坐标值大于X1而小于X2、且Z坐标值小于Z1的点,若这些点的Y坐标值介于(Y1,Y2)之间的数量超过设定值,则仿生多足机器人避开障碍;否则继续前进或越过障碍。
本发明还提供一种室内仿生多足机器人避障装置,包括仿生多足机器人、点云相机及控制模块,所述点云相机安装在所述仿生多足机器人上,拍摄前方地面上不低于所述仿生多足机器人最高高度的一定区域内点云图像;所述控制模块由处理器和计算机可读存储介质组成,通过数据线连接所述仿生多足机器人和所述点云相机;所述计算机可读存储介质存有计算机程序,所述计算机程序通过所述处理器执行上述的室内仿生多足机器人避障方法的步骤。
本发明还提供一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时执行上述的室内仿生多足机器人避障方法的步骤。
本发明的有益效果是:本发明通过对齐相机坐标系Y轴与地心引力估计方向,修正了仿生多足机器人运动时产生的倾斜;通过计算点云图像各点距地面的高度值,避免了机体距地面高度不固定带来的影响;所提出的方法成本低,易于实施,无需识别目标,运算量少,且对障碍的判断更为准确。
附图说明
图1为本发明公开的室内仿生多足机器人避障方法的流程示意图。
图2为本发明公开的室内仿生多足机器人避障装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步详细描述,但本发明的实施方式不限于此。
实施例1:
参见图1,本实施例提供一种室内仿生多足机器人避障方法,包括如下步骤:
S1:通过安装在仿生多足机器人上的像机不断获取室内点云图像,并计算点云图像的表面法向量。
具体的,该步骤中计算点云图像的表面法向量采用PCA点云法向量估计法,用于估计法向量m。本实施例的方法主要应用于室内,在室内拍摄获取的点云图像主要包括地面、墙壁、家具、天花板等。
S2:统计表面法向量求得地心引力估计方向,并旋转点云图像使得其相机坐标系的Y轴与地心引力估计方向平行,以修正仿生多足机器人运动时产生的倾斜。
具体的,当拍摄到墙壁时,其表面法向量与地心引力方向垂直,当拍摄到地面与天花板时,其表面法向量与地心引力方向平行,当拍摄到家具时,其大部分表面法向量要么与地心引力方向平行,要么与地心引力方向垂直。
所述统计表面法向量求得地心引力估计方向的方法包括:
S2.1:设地心引力方向估计为gn-1,将表面法向量m分配给集合M1与集合M2,分别表示与地心引力估计方向平行以及与地心引力估计方向垂直:
M1={m:θ(m,gn-1)<e orθ(m,gn-1)>180°-e}
M2={m:90°-e<θ(m,gn-1)<90°+e}
其中θ(m,gn-1)表示法向量m和地心引力估计方向gn-1的夹角,e是迭代阈值。
S2.2:寻找矩阵M2(M2)t-M1(M1)t最小特征值对应的特征向量,作为地心引力方向新的估计值gn
重复S2.1和S1.2直到满足终止条件,并计算得到最终的地心引力估计方向g。
所述旋转点云图像使得其相机坐标系的Y轴与地心引力估计方向平行的方法包括:
S2.3:计算Y轴[0,1,0]与最终的地心引力估计方向g的叉积Y×g,得到向量n,并将其单位化n=n/||n||。
S2.4:计算Y轴[0,1,0]与最终的地心引力估计方向g的内积,得到它们的夹角
S2.5:将点云图像以n为轴,旋转δ角度,得到修正后的点云图像,以修正仿生多足机器人运动时产生的倾斜。
S3:计算修正图像各点的高度值以及坐标,仿生多足机器人根据高度值与预先设定的阈值进行继续前进、避开或者跨越动作。
具体的,所述计算修正图像各点的高度值以及坐标的方法包括:
S3.1:根据S2.5中的修正后的点云图像,计算修正点云图像各点的坐标。
S3.2:选择Y坐标值最大的前max(10,总点数/10000)个点,以它们Y坐标值的均值,作为室内地面在Y坐标上的值。
S3.3:各点的Y坐标值减去室内地面的Y坐标值并取绝对值,就是修正点云图像中各点的高度值。
所述仿生多足机器人根据高度值与预先设定的阈值进行继续前进、避开或者跨越动作的方法包括:
S3.4:根据仿生多足机器人的宽度,设定相机坐标系X轴上的两个阈值(X1,X2);根据仿生多足机器人的越障能力,设定两个高度阈值(Y1,Y2),以及相机坐标系Z轴上的阈值Z1
S3.5:分析修正点云图像中X坐标值大于X1而小于X2、且Z坐标值小于Z1的点,若这些点的Y坐标值介于(Y1,Y2)之间的数量超过3个,则仿生多足机器人避开障碍;否则继续前进或越过障碍。
在本实施例中,阈值X1与X2分别取为-0.75W与0.75W,其中W是仿生多足机器人机体的最大宽度;Y1取为仿生多足机器人可跨障碍高度的0.8倍,Y2取为仿生多足机器人最大高度的1.1倍,Z1取为点云相机成像距离下限的两倍或一米中较大的值。由于点云相机使用时间过长或者线路故障等原因,可能存在获取的点云图像产生噪声点现象,这个噪声点明显低于或高于连续平面的表面,因此应当将该噪声点忽略,当噪声点过多,比如若这些点的Y坐标值介于(Y1,Y2)之间的数量超过3个则仿生多足机器人避开障碍;否则继续前进或越过障碍。
当数据处理完毕,本实施例中的控制模块将指令通过数据线传递给仿生多足机器人,进行继续前进、避开或者跨越等动作。
实施例2
参见图2,本实施例提供一种室内仿生多足机器人避障装置,包括仿生多足机器人1、点云相机2及控制模块,点云相机2安装在仿生多足机器人1上,拍摄前方地面上不低于仿生多足机器人1最高高度的一定区域内点云图像;控制模块由处理器和计算机可读存储介质组成,通过数据线连接仿生多足机器人1和点云相机2;计算机可读存储介质存有计算机程序,计算机程序通过处理器执行实施例1所述的室内仿生多足机器人避障方法的步骤。
实施例3
本实施例提供一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时执行实施例1所述的室内仿生多足机器人避障方法的步骤。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (5)

1.一种室内仿生多足机器人避障方法,其特征在于,包括如下步骤:
S1:通过安装在仿生多足机器人上的像机不断获取室内点云图像,并计算点云图像的表面法向量;
S2:统计表面法向量求得地心引力估计方向,并旋转点云图像使得其相机坐标系的Y轴与地心引力估计方向平行,以修正仿生多足机器人运动时产生的倾斜;
S3:计算修正图像各点的高度值以及坐标,仿生多足机器人根据高度值与预先设定的阈值进行继续前进、避开或者跨越动作;
所述计算点云图像的表面法向量采用PCA点云法向量估计法,用于估计法向量m;
所述S2中,统计表面法向量并求得地心引力的估计方向,并旋转点云图像使得其相机坐标系的Y轴与地心引力估计方向平行的方法包括:
S2.1:设地心引力方向估计为gn-1,将表面法向量m分配给集合M1与集合M2,M1与M2分别表示与地心引力估计方向平行以及与地心引力估计方向垂直;
M1={m:θ(m,gn-1)<e orθ(m,gn-1)>180°-e}
M2={m:90°-e<θ(m,gn-1)<90°+e}
其中θ(m,gn-1)表示法向量m和地心引力估计方向gn-1的夹角,e是迭代阈值;
S2.2:寻找矩阵M2(M2)t-M1(M1)t最小特征值对应的特征向量,作为地心引力方向新的估计值gn
重复S2.1和S1.2直到满足终止条件,并计算得到最终的地心引力估计方向g;
S2.3:计算Y轴与最终的地心引力估计方向g的叉积,得到向量n,并将其单位化;
S2.4:计算Y轴与最终的地心引力估计方向g的内积,得到它们的夹角δ;
S2.5:将点云图像以n为轴,旋转δ角度,得到修正后的点云图像,以修正仿生多足机器人运动时产生的倾斜。
2.根据权利要求1所述的室内仿生多足机器人避障方法,其特征在于,所述计算修正图像各点的高度值以及坐标的方法包括:
S3.1:根据S2.5中的修正后的点云图像,计算修正点云图像各点的坐标;
S3.2:选择Y坐标值最大的若干个点,以它们Y坐标值的某个统计量,如均值,作为室内地面在Y坐标上的值;
S3.3:各点的Y坐标值减去室内地面的Y坐标值并取绝对值,就是修正点云图像中各点的高度值。
3.根据权利要求2所述的室内仿生多足机器人避障方法,其特征在于,所述仿生多足机器人根据高度值与预先设定的阈值进行继续前进、避开或者跨越动作的方法包括:
S3.4:根据仿生多足机器人的宽度,设定相机坐标系X轴上的两个阈值(X1,X2);根据仿生多足机器人的越障能力,设定两个高度阈值(Y1,Y2),以及相机坐标系Z轴上的阈值Z1;其中,Y1为仿生多足机器人可跨障碍高度,Y2为仿生多足机器人最大高度,Z1取为点云相机成像距离下限;
S3.5:分析修正点云图像中X坐标值大于X1而小于X2、且Z坐标值小于Z1的点,若这些点的Y坐标值介于(Y1,Y2)之间的数量超过设定值,则仿生多足机器人避开障碍;否则继续前进或越过障碍。
4.一种室内仿生多足机器人避障装置,其特征在于,包括仿生多足机器人、点云相机及控制模块,所述点云相机安装在所述仿生多足机器人上,拍摄前方地面上不低于所述仿生多足机器人最高高度的一定区域内点云图像;所述控制模块由处理器和计算机可读存储介质组成,通过数据线连接所述仿生多足机器人和所述点云相机;所述计算机可读存储介质存有计算机程序,所述计算机程序通过所述处理器执行如权利要求1-3中任意一项所述的室内仿生多足机器人避障方法的步骤。
5.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时执行上述权利要求1-3任意一项所述的室内仿生多足机器人避障方法的步骤。
CN202111120565.XA 2021-09-24 2021-09-24 室内仿生多足机器人避障方法、装置及计算机可读介质 Active CN113917917B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111120565.XA CN113917917B (zh) 2021-09-24 2021-09-24 室内仿生多足机器人避障方法、装置及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111120565.XA CN113917917B (zh) 2021-09-24 2021-09-24 室内仿生多足机器人避障方法、装置及计算机可读介质

Publications (2)

Publication Number Publication Date
CN113917917A CN113917917A (zh) 2022-01-11
CN113917917B true CN113917917B (zh) 2023-09-15

Family

ID=79236039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111120565.XA Active CN113917917B (zh) 2021-09-24 2021-09-24 室内仿生多足机器人避障方法、装置及计算机可读介质

Country Status (1)

Country Link
CN (1) CN113917917B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114897895B (zh) * 2022-07-12 2022-11-15 深圳市信润富联数字科技有限公司 点云调平方法、装置、电子设备及存储介质

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103299308A (zh) * 2010-12-10 2013-09-11 波音公司 利用实体建模计算任意形状密闭容器中的液位
JP2014186565A (ja) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd 3次元点群解析方法
CN104735444A (zh) * 2013-12-18 2015-06-24 康耐视公司 根据直线特征执行视觉系统平面手眼校准的系统和方法
CN105093923A (zh) * 2015-06-23 2015-11-25 黄红林 一种基于模糊控制的足球机器人底层控制的方法
CN106382916A (zh) * 2016-09-10 2017-02-08 上海大学 自建参考系的双六足机器人复杂地形三维立体测绘系统与方法
CN106595595A (zh) * 2016-12-07 2017-04-26 北京工业大学 一种基于深度传感器的室内机器人定向方法
CN107562052A (zh) * 2017-08-30 2018-01-09 唐开强 一种基于深度强化学习的六足机器人步态规划方法
CN108225276A (zh) * 2018-01-11 2018-06-29 中国人民解放军战略支援部队航天工程大学 一种单星成像目标运动特性反演方法及系统
CN109141364A (zh) * 2018-08-01 2019-01-04 北京进化者机器人科技有限公司 障碍物检测方法、系统及机器人
US10246151B1 (en) * 2014-12-30 2019-04-02 Boston Dynamics, Inc. Mechanically-timed footsteps for a robotic device
CN109579849A (zh) * 2019-01-14 2019-04-05 浙江大华技术股份有限公司 机器人定位方法、装置和机器人及计算机存储介质
CN109697729A (zh) * 2018-12-26 2019-04-30 中国科学院大学 基于平面多边形匹配的3d岩体点云配准方法
CN109887024A (zh) * 2019-02-16 2019-06-14 西南科技大学 一种点云法线估算新方法
CN109975836A (zh) * 2019-04-08 2019-07-05 中国科学院电子学研究所 解算ccd图像地面位置方法、装置、电子设备及介质
CN110231035A (zh) * 2019-06-27 2019-09-13 北京克莱明科技有限公司 攀爬移动机器人路径引导方法
CN110415165A (zh) * 2019-07-22 2019-11-05 山东交通学院 一种极区等间距格网点的平面坐标与大地坐标相互转换方法
CN110441791A (zh) * 2019-08-14 2019-11-12 深圳无境智能机器人有限公司 一种基于前倾2d激光雷达的地面障碍物检测方法
CN111142514A (zh) * 2019-12-11 2020-05-12 深圳市优必选科技股份有限公司 一种机器人及其避障方法和装置
CN111461023A (zh) * 2020-04-02 2020-07-28 山东大学 基于三维激光雷达的四足机器人自主跟随领航员的方法
CN111551171A (zh) * 2020-06-18 2020-08-18 北京海益同展信息科技有限公司 目标对象的定位方法、装置、机器人和存储介质
CN112847356A (zh) * 2020-12-31 2021-05-28 国网智能科技股份有限公司 一种变电站足式巡检机器人安全控制方法及系统
CN113359729A (zh) * 2021-06-10 2021-09-07 中国北方车辆研究所 一种电驱动足式机器人滑移抑制方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100152897A1 (en) * 2008-12-16 2010-06-17 MULLER Jeffrey Method & apparatus for controlling the attitude of a camera associated with a robotic device
US20210197377A1 (en) * 2019-12-26 2021-07-01 X Development Llc Robot plan online adjustment

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103299308A (zh) * 2010-12-10 2013-09-11 波音公司 利用实体建模计算任意形状密闭容器中的液位
JP2014186565A (ja) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd 3次元点群解析方法
CN104735444A (zh) * 2013-12-18 2015-06-24 康耐视公司 根据直线特征执行视觉系统平面手眼校准的系统和方法
US10246151B1 (en) * 2014-12-30 2019-04-02 Boston Dynamics, Inc. Mechanically-timed footsteps for a robotic device
CN105093923A (zh) * 2015-06-23 2015-11-25 黄红林 一种基于模糊控制的足球机器人底层控制的方法
CN106382916A (zh) * 2016-09-10 2017-02-08 上海大学 自建参考系的双六足机器人复杂地形三维立体测绘系统与方法
CN106595595A (zh) * 2016-12-07 2017-04-26 北京工业大学 一种基于深度传感器的室内机器人定向方法
CN107562052A (zh) * 2017-08-30 2018-01-09 唐开强 一种基于深度强化学习的六足机器人步态规划方法
CN108225276A (zh) * 2018-01-11 2018-06-29 中国人民解放军战略支援部队航天工程大学 一种单星成像目标运动特性反演方法及系统
CN109141364A (zh) * 2018-08-01 2019-01-04 北京进化者机器人科技有限公司 障碍物检测方法、系统及机器人
CN109697729A (zh) * 2018-12-26 2019-04-30 中国科学院大学 基于平面多边形匹配的3d岩体点云配准方法
CN109579849A (zh) * 2019-01-14 2019-04-05 浙江大华技术股份有限公司 机器人定位方法、装置和机器人及计算机存储介质
CN109887024A (zh) * 2019-02-16 2019-06-14 西南科技大学 一种点云法线估算新方法
CN109975836A (zh) * 2019-04-08 2019-07-05 中国科学院电子学研究所 解算ccd图像地面位置方法、装置、电子设备及介质
CN110231035A (zh) * 2019-06-27 2019-09-13 北京克莱明科技有限公司 攀爬移动机器人路径引导方法
CN110415165A (zh) * 2019-07-22 2019-11-05 山东交通学院 一种极区等间距格网点的平面坐标与大地坐标相互转换方法
CN110441791A (zh) * 2019-08-14 2019-11-12 深圳无境智能机器人有限公司 一种基于前倾2d激光雷达的地面障碍物检测方法
CN111142514A (zh) * 2019-12-11 2020-05-12 深圳市优必选科技股份有限公司 一种机器人及其避障方法和装置
CN111461023A (zh) * 2020-04-02 2020-07-28 山东大学 基于三维激光雷达的四足机器人自主跟随领航员的方法
CN111551171A (zh) * 2020-06-18 2020-08-18 北京海益同展信息科技有限公司 目标对象的定位方法、装置、机器人和存储介质
CN112847356A (zh) * 2020-12-31 2021-05-28 国网智能科技股份有限公司 一种变电站足式巡检机器人安全控制方法及系统
CN113359729A (zh) * 2021-06-10 2021-09-07 中国北方车辆研究所 一种电驱动足式机器人滑移抑制方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
刘轶.基于地图重构的四足机器人落足点规划方法研究.《中国优秀硕士学位论文全文数据库信息科技辑》.2021,第I140-804页. *
李兴东.基于TOF相机的四足机器人地形感知及静步态规划研究.《中国博士学位论文全文数据库信息科技辑》.2016,第I140-99页. *
李尚璁.基于深度视觉信息的四足机器人野外可通过性分析.《中国优秀硕士学位论文全文数据库信息科技辑》.2021,第I140-341页. *
王舜垚.复杂路况下四足机器人自主运动规划与控制研究.《中国优秀硕士学位论文全文数据库》.2021,第I140-938页. *

Also Published As

Publication number Publication date
CN113917917A (zh) 2022-01-11

Similar Documents

Publication Publication Date Title
CN110874100B (zh) 用于使用视觉稀疏地图进行自主导航的系统和方法
CN108230361B (zh) 用无人机探测器和追踪器融合来增强目标追踪方法及系统
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
CN107687850B (zh) 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
Kerl et al. Robust odometry estimation for RGB-D cameras
CN104180818B (zh) 一种单目视觉里程计算装置
CN110717927A (zh) 基于深度学习和视惯融合的室内机器人运动估计方法
CN104077809B (zh) 基于结构性线条的视觉slam方法
KR101257207B1 (ko) 헤드 트래킹 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN113420590B (zh) 弱纹理环境下的机器人定位方法、装置、设备及介质
CN113917917B (zh) 室内仿生多足机器人避障方法、装置及计算机可读介质
WO2023142353A1 (zh) 一种位姿预测方法及装置
CN114119732A (zh) 基于目标检测和K-means聚类的联合优化动态SLAM方法
CN117367427A (zh) 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法
CN117218210A (zh) 一种基于仿生眼的双目主动视觉半稠密深度估计方法
CN108469729A (zh) 一种基于rgb-d信息的人体目标识别与跟随方法
Sanchez-Garcia et al. Decision making for obstacle avoidance in autonomous mobile robots by time to contact and optical flow
CN106127119B (zh) 基于彩色图像和深度图像多特征的联合数据关联方法
CN112907633B (zh) 动态特征点识别方法及其应用
Lee et al. Event-and Frame-based Visual-Inertial Odometry with Adaptive Filtering based on 8-DOF Warping Uncertainty
Liu et al. Building semantic maps for blind people to navigate at home
Staszak et al. Kinematic structures estimation on the RGB-D images
CN111260709B (zh) 一种面向动态环境的地面辅助的视觉里程计方法
Wang et al. Combination of the ICP and the PSO for 3D-SLAM

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant