CN110045740A - 一种基于人类行为模拟的移动机器人实时运动规划方法 - Google Patents
一种基于人类行为模拟的移动机器人实时运动规划方法 Download PDFInfo
- Publication number
- CN110045740A CN110045740A CN201910402991.9A CN201910402991A CN110045740A CN 110045740 A CN110045740 A CN 110045740A CN 201910402991 A CN201910402991 A CN 201910402991A CN 110045740 A CN110045740 A CN 110045740A
- Authority
- CN
- China
- Prior art keywords
- robot
- indicates
- motion
- obstacle
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000004088 simulation Methods 0.000 title claims abstract description 19
- 238000012544 monitoring process Methods 0.000 claims abstract description 6
- 230000004888 barrier function Effects 0.000 claims description 16
- 210000000707 wrist Anatomy 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 3
- 210000000988 bone and bone Anatomy 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 239000012530 fluid Substances 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 claims description 3
- 230000003238 somatosensory effect Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 abstract description 23
- 230000008569 process Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003945 visual behavior Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
Abstract
本发明公开的属于机器人运动技术领域,具体为一种基于人类行为模拟的移动机器人实时运动规划方法,在机器人上安装至少两台可旋转和移动的CCD相机,获取机器人外部环境监测图像,对一个空间中的某一点的三维坐标与相应的二维坐标得到对应,本发明中的机器人通过观察人体特征动作,机器人快速模仿学习,使其通过别的人类个体学习新的行为来适应新的环境,提高智能机器人与人类的交流效率,通过采集并建立人体骨骼运动信息库,运用运动学和动力学匹配将其转化为机器人的运动角度信息,根据机器人与运动物体的距离与角度信息,控制机器人到指定坐标位置,利用强化学习模拟人类抓取过程,实现行为模仿抓取。
Description
技术领域
本发明涉及机器人运动技术领域,具体为一种基于人类行为模拟的移动机器人实时运动规划方法。
背景技术
人们一直以来都期望可以制造出一种人类行为模拟的装置,通过这种装置去替代自己从事各种工作,这种想法就是机器人出现的前提和基础。自机器人的诞生之日起,机器人的相关技术发展越来越快,尤其是近些年来,机器人的应用领域越来越广泛,从最初的工业制造扩展到航天、军事等领域,这两年更是深入到服务业、人们的日常生活中,究其原因,在于机器人有很多人类没有的优点,首先是机器人的精度高,便于操作,其次在于其不怕危险,工作时间持续长,对于一些恶劣的环境,亦能够胜任。
在机器人的实际运用工程中,人们发现机器人所处的环境有时是非常复杂的,经常会有一些突见障碍物或运动障碍物充斥其间,这势必会影响到机器人预定的运动规划,影响其任务的完成。因此,移动机器人的导航和避障规划,特别是在运动环境中,移动机器人与突发障碍和其他机器人之间的避障问题显得尤为重要,是否能够将人类的视觉行为模拟与机器人的自主避障结合,从而提高机器人的运动避障能力,成为一个重要的研究课题,为此,我们提出了一种基于人类行为模拟的移动机器人实时运动规划方法投入使用,以解决上述的技术问题。
发明内容
本发明的目的在于提供一种基于人类行为模拟的移动机器人实时运动规划方法,以解决上述背景技术中提出的机器人主动避障和人类视觉行为模拟相结合的问题。
为实现上述目的,本发明提供如下技术方案:一种基于人类行为模拟的移动机器人实时运动规划方法,该规划方法的具体步骤如下:
S1:在机器人上安装至少两台可旋转和移动的CCD相机,获取机器人外部环境监测图像,对一个空间中的某一点的三维坐标与相应的二维坐标得到对应,并对CCD相机自身的光心、畸变参数和焦距的内部参数进行标定;
S2:输入机器人的运动方向,避开静态障碍物,即机器人从初始位置S0向目标A运动,令d=r+ds,其中ds为机器人与静态障碍物的安全距离裕量,令α=arcsin(d/S0A),则过S0,倾角分别为和(其中为S0A)所在直线的倾角的两条直线相交,而另一条不与该障碍物相交,取不与该障碍物相交的直线倾角作为机器人从S0向顶点A运动的方向角θR,则机器人从S0以方向角θR向A运动的过程中,机器人离该静态障碍物的最小距离d≥ds;
S3:对于一个带有k个移动障碍物的机器人工作环境,假设机器人从起点A到终点B避开静态障碍物的路径r(s)∈R2,正常规划已经离线生成t以s表示机器人离起点A的距离变量,并满足如下条件:
(1)移动障碍物的运动曲线连续可做,且障碍物不总停在或不总平行于r(s);
(2)在一定范围内,机器人能准确的获取移动障碍物的位置信息,移动机器人的运动规划可构造为一最优控制问题,机器人的运动学模型及相关约束为x(s)=A(x(s))-B(x(s))u(s),其中x(s)=[t(s),υ(s)]τυ(s)=ds/dt,t(s)是机器人到达s的时间,而其中m为机器人的质量,I是惯量,υ(s)是加在机器人上的切向合力,f(s)是路径r(s)的曲率;
S4:将机器人避障区域中的节点进行分类后形成具有一定的内聚强度特性的模块社区,在该模块社区内部有大量节点连接边,将整个模块社区中的节点表示为邻接矩阵节点v和w相互连接,则Avw=1,否则为0,Cv表示节点v归属的社区,定义δ(Cv,Cw)=1,当Cv=Cw,否则为0,则该机器人避障区域的障碍物稠密性表示为
S5:利用步骤S1中的CCD相机采集捕捉人类行为信息,利用Kinect体感系统建立人体骨骼运动信息库,由机器人内置的中央处理器读取人体骨骼运动信息库,获取人体骨骼手臂关节的空间三维坐标数据,具体的,设向量为肘部位置向量,另为0且腕部角度固定,即此时由向量、肩部中心位置到腕部向量组成一个平面
其中,Lu表示人体肩部向量,Lw表示人体肘部向量,Lv表示人体腕部向量;
S6:针对机器人抓取训练进行强化,构建人体行为与机器人行为对应的状态迁移函数
其中,u表示机器人的动作区间,其中u=-4表示机器人手臂向前运动,u=-1表示机器人向左运动,u=1表示机器人向右运动。
优选的,所述步骤S1中的机器人包括执行机构、驱动机构、控制系统以及反馈系统。
优选的,所述执行机构包括用于模仿人类手部、腕部、臂部以及基座的驱动;所述驱动机构包括传动部件和驱动部件,其中驱动部件为电驱动装置、液压驱动装置和气压驱动装置;所述控制系统包括机器人中央处理器和关节伺服控制器;所述反馈系统包括内部传感器和外部传感器,其中内部传感器为位形检测组件,外部传感器为机器人外部环境监测组件。
优选的,所述步骤S1中,两个CCD相机的参数角距相同,光轴平行,成像平面尽可能的重合。
优选的,所述步骤S3中,机器人的运动学模型具有以下四个约束条件,即
终端约束 x(S0)=[0 υ0]τ,x(sj)=[free υj];
控制约束 -U2≤umin(s)≤u(s)≤umax(s)≤U1;
状态约束 υmin(s)≤υ(s)≤υmax(s);
避障约束 dj(s,t)≥d0,j=1,2,…,k;其中,umax(s),umin(s),υmax(s),υmin(s)分别为机器人沿r(s)的切向驱动力和速度的极限值,U1是机器人的最大驱动力,U2是机器人的最大制动力,dj(s,t)表示第j个障碍物与移动机器人的距离d0是保证避障的最小安全距离。
优选的,所述步骤S3中,机器人在避障过程中,危险区域的划分如下:设机器人及避障物的运动轨迹为
r(s)=r(sx1(t),y1(t)),0(s)=0(sx0(t),y0(t))
D(s,t)=D(s)×D(t)
其中D(s)表示移动障碍物通过r(s)的区域,D(t)表示移动障碍物进入直至离开r(s)的时间区间,D(s)和D(t)的直积构成了危险区域集D(s,t),包含移动障碍物进入直至离开r(s)的所有可能运动情况。
优选的,所述步骤S6中,利用机器人的驱动机构执行机器人模仿训练,通过对采集的人体骨骼运动数据进行优化,人体骨骼运动数据划分更多的状态空间,对存在较大的骨骼运动数据进行微调,提高机器人抓取学习的成功率。
与现有技术相比,本发明的有益效果是:
1.本发明从机器人在避障过程中的实时性和最优性出发,提出了基于人类行为视觉的线路规划策略,以解决机器人在多障碍物和移动障碍物的环境中的实时导航与避障问题;
2.本发明中的机器人通过观察人体特征动作,机器人快速模仿学习,使其通过别的人类个体学习新的行为来适应新的环境,提高智能机器人与人类的交流效率,通过采集并建立人体骨骼运动信息库,运用运动学和动力学匹配将其转化为机器人的运动角度信息;
3.本发明通过图像识别,获取目标物体的空间信息,根据机器人与运动物体的距离与角度信息,控制机器人到指定坐标位置,利用强化学习模拟人类抓取过程,实现行为模仿抓取。
附图说明
图1为本发明机器人运动规划流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种技术方案:一种基于人类行为模拟的移动机器人实时运动规划方法,该规划方法的具体步骤如下:
S1:在机器人上安装至少两台可旋转和移动的CCD相机,获取机器人外部环境监测图像,对一个空间中的某一点的三维坐标与相应的二维坐标得到对应,并对CCD相机自身的光心、畸变参数和焦距的内部参数进行标定,机器人包括执行机构、驱动机构、控制系统以及反馈系统,所述执行机构包括用于模仿人类手部、腕部、臂部以及基座的驱动;所述驱动机构包括传动部件和驱动部件,其中驱动部件为电驱动装置、液压驱动装置和气压驱动装置;所述控制系统包括机器人中央处理器和关节伺服控制器;所述反馈系统包括内部传感器和外部传感器,其中内部传感器为位形检测组件,外部传感器为机器人外部环境监测组件,两个CCD相机的参数角距相同,光轴平行,成像平面尽可能的重合;
S2:输入机器人的运动方向,避开静态障碍物,即机器人从初始位置S0向目标A运动,令d=r+ds,其中ds为机器人与静态障碍物的安全距离裕量,令α=arcsin(d/S0A),则过S0,倾角分别为和(其中为S0A)所在直线的倾角的两条直线相交,而另一条不与该障碍物相交,取不与该障碍物相交的直线倾角作为机器人从S0向顶点A运动的方向角θR,则机器人从S0以方向角θR向A运动的过程中,机器人离该静态障碍物的最小距离d≥ds;
S3:对于一个带有k个移动障碍物的机器人工作环境,假设机器人从起点A到终点B避开静态障碍物的路径r(s)∈R2,正常规划已经离线生成t以s表示机器人离起点A的距离变量,并满足如下条件:
(1)移动障碍物的运动曲线连续可做,且障碍物不总停在或不总平行于r(s);
(2)在一定范围内,机器人能准确的获取移动障碍物的位置信息,移动机器人的运动规划可构造为一最优控制问题,机器人的运动学模型及相关约束为x(s)=A(x(s))-B(x(s))u(s),其中x(s)=[t(s),υ(s)]τυ(s)=ds/dt,t(s)是机器人到达s的时间,而其中m为机器人的质量,I是惯量,υ(s)是加在机器人上的切向合力,f(s)是路径r(s)的曲率,机器人的运动学模型具有以下四个约束条件,即
终端约束 x(S0)=[0 υ0]τ,x(sj)=[free υj];
控制约束 -U2≤umin(s)≤u(s)≤umax(s)≤U1;
状态约束 υmin(s)≤υ(s)≤υmax(s);
避障约束 dj(s,t)≥d0,j=1,2,…,k;其中,umax(s),umin(s),υmax(s),υmin(s)分别为机器人沿r(s)的切向驱动力和速度的极限值,U1是机器人的最大驱动力,U2是机器人的最大制动力,dj(s,t)表示第j个障碍物与移动机器人的距离d0是保证避障的最小安全距离;,机器人在避障过程中,危险区域的划分如下:设机器人及避障物的运动轨迹为
r(s)=r(sx1(t),y1(t)),0(s)=0(sx0(t),y0(t))
D(s,t)=D(s)×D(t)
其中D(s)表示移动障碍物通过r(s)的区域,D(t)表示移动障碍物进入直至离开r(s)的时间区间,D(s)和D(t)的直积构成了危险区域集D(s,t),包含移动障碍物进入直至离开r(s)的所有可能运动情况;
S4:将机器人避障区域中的节点进行分类后形成具有一定的内聚强度特性的模块社区,在该模块社区内部有大量节点连接边,将整个模块社区中的节点表示为邻接矩阵节点v和w相互连接,则Avw=1,否则为0,Cv表示节点v归属的社区,定义δ(Cv,Cw)=1,当Cv=Cw,否则为0,则该机器人避障区域的障碍物稠密性表示为
S5:利用步骤S1中的CCD相机采集捕捉人类行为信息,利用Kinect体感系统建立人体骨骼运动信息库,由机器人内置的中央处理器读取人体骨骼运动信息库,获取人体骨骼手臂关节的空间三维坐标数据,具体的,设向量为肘部位置向量,另为0且腕部角度固定,即此时由向量、肩部中心位置到腕部向量组成一个平面
其中,Lu表示人体肩部向量,Lw表示人体肘部向量,Lv表示人体腕部向量;
S6:针对机器人抓取训练进行强化,构建人体行为与机器人行为对应的状态迁移函数
其中,u表示机器人的动作区间,其中u=-4表示机器人手臂向前运动,u=-1表示机器人向左运动,u=1表示机器人向右运动,利用机器人的驱动机构执行机器人模仿训练,通过对采集的人体骨骼运动数据进行优化,人体骨骼运动数据划分更多的状态空间,对存在较大的骨骼运动数据进行微调,提高机器人抓取学习的成功率。
在本发明中,本发明从机器人在避障过程中的实时性和最优性出发,提出了基于人类行为视觉的线路规划策略,以解决机器人在多障碍物和移动障碍物的环境中的实时导航与避障问题;
本发明中的机器人通过观察人体特征动作,机器人快速模仿学习,使其通过别的人类个体学习新的行为来适应新的环境,提高智能机器人与人类的交流效率,通过采集并建立人体骨骼运动信息库,运用运动学和动力学匹配将其转化为机器人的运动角度信息;
本发明通过图像识别,获取目标物体的空间信息,根据机器人与运动物体的距离与角度信息,控制机器人到指定坐标位置,利用强化学习模拟人类抓取过程,实现行为模仿抓取。
虽然在上文中已经参考实施例对本发明进行了描述,然而在不脱离本发明的范围的情况下,可以对其进行各种改进并且可以用等效物替换其中的部件。尤其是,只要不存在结构冲突,本发明所披露的实施例中的各项特征均可通过任意方式相互结合起来使用,在本说明书中未对这些组合的情况进行穷举性的描述仅仅是出于省略篇幅和节约资源的考虑。因此,本发明并不局限于文中公开的特定实施例,而是包括落入权利要求的范围内的所有技术方案。
Claims (7)
1.一种基于人类行为模拟的移动机器人实时运动规划方法,其特征在于:该规划方法的具体步骤如下:
S1:在机器人上安装至少两台可旋转和移动的CCD相机,获取机器人外部环境监测图像,对一个空间中的某一点的三维坐标与相应的二维坐标得到对应,并对CCD相机自身的光心、畸变参数和焦距的内部参数进行标定;
S2:输入机器人的运动方向,避开静态障碍物,即机器人从初始位置S0向目标A运动,令d=r+ds,其中ds为机器人与静态障碍物的安全距离裕量,令α=arcsin(d/|S0A|),则过S0,倾角分别为和(其中为S0A)所在直线的倾角的两条直线相交,而另一条不与该障碍物相交,取不与该障碍物相交的直线倾角作为机器人从S0向顶点A运动的方向角θR,则机器人从S0以方向角θR向A运动的过程中,机器人离该静态障碍物的最小距离d≥ds;
S3:对于一个带有k个移动障碍物的机器人工作环境,假设机器人从起点A到终点B避开静态障碍物的路径r(s)∈R2,正常规划已经离线生成t以s表示机器人离起点A的距离变量,并满足如下条件:
(1)移动障碍物的运动曲线连续可做,且障碍物不总停在或不总平行于r(s);
(2)在一定范围内,机器人能准确的获取移动障碍物的位置信息,移动机器人的运动规划可构造为一最优控制问题,机器人的运动学模型及相关约束为x(s)=A(x(s))-B(x(s))u(s),其中x(s)=[t(s),υ(s)]τυ(s)=ds/dt,t(s)是机器人到达s的时间,而其中m为机器人的质量,I是惯量,υ(s)是加在机器人上的切向合力,f(s)是路径r(s)的曲率;
S4:将机器人避障区域中的节点进行分类后形成具有一定的内聚强度特性的模块社区,在该模块社区内部有大量节点连接边,将整个模块社区中的节点表示为邻接矩阵节点v和w相互连接,则Avw=1,否则为0,Cv表示节点v归属的社区,定义δ(Cv,Cw)=1,当Cv=Cw,否则为0,则该机器人避障区域的障碍物稠密性表示为
S5:利用步骤S1中的CCD相机采集捕捉人类行为信息,利用Kinect体感系统建立人体骨骼运动信息库,由机器人内置的中央处理器读取人体骨骼运动信息库,获取人体骨骼手臂关节的空间三维坐标数据,具体的,设向量为肘部位置向量,另为0且腕部角度固定,即此时由向量、肩部中心位置到腕部向量组成一个平面
其中,Lu表示人体肩部向量,Lw表示人体肘部向量,Lv表示人体腕部向量;
S6:针对机器人抓取训练进行强化,构建人体行为与机器人行为对应的状态迁移函数
其中,u表示机器人的动作区间,其中u=-4表示机器人手臂向前运动,u=-1表示机器人向左运动,u=1表示机器人向右运动。
2.根据权利要求1所述的一种基于人类行为模拟的移动机器人实时运动规划方法,其特征在于:所述步骤S1中的机器人包括执行机构、驱动机构、控制系统以及反馈系统。
3.根据权利要求2所述的一种基于人类行为模拟的移动机器人实时运动规划方法,其特征在于:所述执行机构包括用于模仿人类手部、腕部、臂部以及基座的驱动;所述驱动机构包括传动部件和驱动部件,其中驱动部件为电驱动装置、液压驱动装置和气压驱动装置;所述控制系统包括机器人中央处理器和关节伺服控制器;所述反馈系统包括内部传感器和外部传感器,其中内部传感器为位形检测组件,外部传感器为机器人外部环境监测组件。
4.根据权利要求1所述的一种基于人类行为模拟的移动机器人实时运动规划方法,其特征在于:所述步骤S1中,两个CCD相机的参数角距相同,光轴平行,成像平面尽可能的重合。
5.根据权利要求1所述的一种基于人类行为模拟的移动机器人实时运动规划方法,其特征在于:所述步骤S3中,机器人的运动学模型具有以下四个约束条件,即
终端约束x(S0)=[0 υ0]τ,x(sj)=[free υj];
控制约束-U2≤umin(s)≤u(s)≤umax(s)≤U1;
状态约束υmin(s)≤υ(s)≤υmax(s);
避障约束dj(s,t)≥d0,j=1,2,…,k;其中,umax(s),umin(s),υmax(s),υmin(s)分别为机器人沿r(s)的切向驱动力和速度的极限值,U1是机器人的最大驱动力,U2是机器人的最大制动力,dj(s,t)表示第j个障碍物与移动机器人的距离d0是保证避障的最小安全距离。
6.根据权利要求1所述的一种基于人类行为模拟的移动机器人实时运动规划方法,其特征在于:所述步骤S3中,机器人在避障过程中,危险区域的划分如下:设机器人及避障物的运动轨迹为
r(s)=r(sx1(t),y1(t)),0(s)=0(sx0(t),y0(t))
D(s,t)=D(s)×D(t)
其中D(s)表示移动障碍物通过r(s)的区域,D(t)表示移动障碍物进入直至离开r(s)的时间区间,D(s)和D(t)的直积构成了危险区域集D(s,t),包含移动障碍物进入直至离开r(s)的所有可能运动情况。
7.根据权利要求1所述的一种基于人类行为模拟的移动机器人实时运动规划方法,其特征在于:所述步骤S6中,利用机器人的驱动机构执行机器人模仿训练,通过对采集的人体骨骼运动数据进行优化,人体骨骼运动数据划分更多的状态空间,对存在较大的骨骼运动数据进行微调,提高机器人抓取学习的成功率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910402991.9A CN110045740A (zh) | 2019-05-15 | 2019-05-15 | 一种基于人类行为模拟的移动机器人实时运动规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910402991.9A CN110045740A (zh) | 2019-05-15 | 2019-05-15 | 一种基于人类行为模拟的移动机器人实时运动规划方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110045740A true CN110045740A (zh) | 2019-07-23 |
Family
ID=67281954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910402991.9A Pending CN110045740A (zh) | 2019-05-15 | 2019-05-15 | 一种基于人类行为模拟的移动机器人实时运动规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110045740A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111208783A (zh) * | 2019-12-30 | 2020-05-29 | 深圳市优必选科技股份有限公司 | 一种动作模仿方法、装置、终端及计算机存储介质 |
CN111781922A (zh) * | 2020-06-15 | 2020-10-16 | 中山大学 | 一种适用于复杂动态场景的基于深度强化学习的多机器人协同导航方法 |
CN112274143A (zh) * | 2020-12-29 | 2021-01-29 | 四川写正智能科技有限公司 | 一种人体存在状态的检测方法及检测装置 |
CN112433525A (zh) * | 2020-11-16 | 2021-03-02 | 南京理工大学 | 基于模仿学习及深度强化学习的移动机器人导航方法 |
CN114137984A (zh) * | 2021-11-29 | 2022-03-04 | 江苏科技大学 | 一种模块化传输平台及其控制方法和路径规划方法 |
CN114224488A (zh) * | 2021-11-19 | 2022-03-25 | 杭州钉灵科技有限公司 | 基于状态捕捉的口腔种植机器人控制系统及其操作方法 |
CN114594768A (zh) * | 2022-03-03 | 2022-06-07 | 安徽大学 | 一种基于视觉特征图重构的移动机器人导航决策方法 |
CN117707053A (zh) * | 2024-02-05 | 2024-03-15 | 南京迅集科技有限公司 | 基于ai视觉分析的工控视觉运动控制系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4807486A (en) * | 1987-11-09 | 1989-02-28 | Gmf Robotics Corporation | Three-axes wrist mechanism |
CN102072706A (zh) * | 2009-11-20 | 2011-05-25 | 深圳先进技术研究院 | 一种多相机定位与跟踪方法及系统 |
CN105825268A (zh) * | 2016-03-18 | 2016-08-03 | 北京光年无限科技有限公司 | 面向机器人学习动作表达的数据处理方法和系统 |
CN106094575A (zh) * | 2016-08-26 | 2016-11-09 | 中南大学 | 一种机器人运输虚拟可视化控制方法及系统 |
CN108153310A (zh) * | 2017-12-22 | 2018-06-12 | 南开大学 | 一种基于人类行为模拟的移动机器人实时运动规划方法 |
CN109077731A (zh) * | 2018-06-11 | 2018-12-25 | 上海大学 | 一种基于视觉的人体检测方法及装置 |
-
2019
- 2019-05-15 CN CN201910402991.9A patent/CN110045740A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4807486A (en) * | 1987-11-09 | 1989-02-28 | Gmf Robotics Corporation | Three-axes wrist mechanism |
CN102072706A (zh) * | 2009-11-20 | 2011-05-25 | 深圳先进技术研究院 | 一种多相机定位与跟踪方法及系统 |
CN105825268A (zh) * | 2016-03-18 | 2016-08-03 | 北京光年无限科技有限公司 | 面向机器人学习动作表达的数据处理方法和系统 |
CN106094575A (zh) * | 2016-08-26 | 2016-11-09 | 中南大学 | 一种机器人运输虚拟可视化控制方法及系统 |
CN108153310A (zh) * | 2017-12-22 | 2018-06-12 | 南开大学 | 一种基于人类行为模拟的移动机器人实时运动规划方法 |
CN109077731A (zh) * | 2018-06-11 | 2018-12-25 | 上海大学 | 一种基于视觉的人体检测方法及装置 |
Non-Patent Citations (4)
Title |
---|
TIM BAIER-L¨OWENSTEIN AND JIANWEI ZHANG: "Learning to Grasp Everyday Objects using Reinforcement-Learning with Automatic Value Cut-Off", 《PROCEEDINGS OF THE 2007 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 * |
慕延华等: "新的室内移动机器人的实时定位和运动规划方法", 《应用计算机研究》 * |
程平等: "基于分层控制的移动机器人最优运动规划", 《机器人ROBOT》 * |
陈传梓: "基于复杂网络理论的社区结构挖掘与人类行为模式特征分析", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111208783A (zh) * | 2019-12-30 | 2020-05-29 | 深圳市优必选科技股份有限公司 | 一种动作模仿方法、装置、终端及计算机存储介质 |
CN111208783B (zh) * | 2019-12-30 | 2021-09-17 | 深圳市优必选科技股份有限公司 | 一种动作模仿方法、装置、终端及计算机存储介质 |
CN111781922A (zh) * | 2020-06-15 | 2020-10-16 | 中山大学 | 一种适用于复杂动态场景的基于深度强化学习的多机器人协同导航方法 |
CN111781922B (zh) * | 2020-06-15 | 2021-10-26 | 中山大学 | 一种基于深度强化学习的多机器人协同导航方法 |
CN112433525A (zh) * | 2020-11-16 | 2021-03-02 | 南京理工大学 | 基于模仿学习及深度强化学习的移动机器人导航方法 |
CN112274143A (zh) * | 2020-12-29 | 2021-01-29 | 四川写正智能科技有限公司 | 一种人体存在状态的检测方法及检测装置 |
CN114224488A (zh) * | 2021-11-19 | 2022-03-25 | 杭州钉灵科技有限公司 | 基于状态捕捉的口腔种植机器人控制系统及其操作方法 |
CN114137984A (zh) * | 2021-11-29 | 2022-03-04 | 江苏科技大学 | 一种模块化传输平台及其控制方法和路径规划方法 |
CN114137984B (zh) * | 2021-11-29 | 2024-02-27 | 江苏科技大学 | 一种模块化传输平台及其控制方法和路径规划方法 |
CN114594768A (zh) * | 2022-03-03 | 2022-06-07 | 安徽大学 | 一种基于视觉特征图重构的移动机器人导航决策方法 |
CN117707053A (zh) * | 2024-02-05 | 2024-03-15 | 南京迅集科技有限公司 | 基于ai视觉分析的工控视觉运动控制系统及方法 |
CN117707053B (zh) * | 2024-02-05 | 2024-04-26 | 南京迅集科技有限公司 | 基于ai视觉分析的工控视觉运动控制系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110045740A (zh) | 一种基于人类行为模拟的移动机器人实时运动规划方法 | |
CN111897332B (zh) | 一种语义智能变电站机器人仿人巡视作业方法及系统 | |
CN110202583B (zh) | 一种基于深度学习的仿人机械手控制系统及其控制方法 | |
CN108838991B (zh) | 一种自主类人双臂机器人及其对运动目标的跟踪操作系统 | |
CN103049912B (zh) | 一种基于任意三面体的雷达-相机系统外部参数标定方法 | |
CN101419055B (zh) | 基于视觉的空间目标位姿测量装置和方法 | |
CN109048926A (zh) | 一种基于立体视觉的机器人智能避障系统及方法 | |
CN111633644A (zh) | 一种结合智能视觉的工业机器人数字孪生系统及其运行方法 | |
CN110162086A (zh) | 一种基于模型预测控制框架的集群无人机编队方法 | |
CN108422435A (zh) | 一种基于增强现实的远程监测及控制系统 | |
CN102800103A (zh) | 基于多视角的深度相机的无标记动作捕捉方法及装置 | |
CN109960880A (zh) | 一种基于机器学习的工业机器人避障路径规划方法 | |
CN108638065A (zh) | 一种排爆机器人双臂协同控制系统 | |
CN105217324A (zh) | 一种新型的拆垛方法和系统 | |
CN115139315B (zh) | 一种采摘机械臂抓取运动规划方法 | |
CN114851201A (zh) | 一种基于tsdf三维重建的机械臂六自由度视觉闭环抓取方法 | |
Tian et al. | Fruit Picking Robot Arm Training Solution Based on Reinforcement Learning in Digital Twin | |
CN114299039B (zh) | 一种机器人及其碰撞检测装置和方法 | |
CN115354708A (zh) | 基于机器视觉的挖掘机铲斗自主挖掘识别控制系统及方法 | |
Li et al. | Vision-based imitation learning of needle reaching skill for robotic precision manipulation | |
CN114800524A (zh) | 一种人机交互协作机器人主动避碰的系统及方法 | |
CN114998573A (zh) | 一种基于rgb-d特征深度融合的抓取位姿检测方法 | |
CN117685952A (zh) | 一种基于多模态感知的跨域多机器人协作类脑建图方法及装置 | |
CN116189054A (zh) | 基于神经网络的人机协作方法及人机协作系统 | |
CN115194774A (zh) | 一种基于多目视觉的双机械臂抓握系统控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190723 |