CN112060085B - 一种基于视触多尺度定位的机器人操作位姿控制方法 - Google Patents

一种基于视触多尺度定位的机器人操作位姿控制方法 Download PDF

Info

Publication number
CN112060085B
CN112060085B CN202010857137.4A CN202010857137A CN112060085B CN 112060085 B CN112060085 B CN 112060085B CN 202010857137 A CN202010857137 A CN 202010857137A CN 112060085 B CN112060085 B CN 112060085B
Authority
CN
China
Prior art keywords
operated
pose
target object
touch
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010857137.4A
Other languages
English (en)
Other versions
CN112060085A (zh
Inventor
赵丹
孙富春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010857137.4A priority Critical patent/CN112060085B/zh
Publication of CN112060085A publication Critical patent/CN112060085A/zh
Application granted granted Critical
Publication of CN112060085B publication Critical patent/CN112060085B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明提出了一种基于视触多尺度定位的机器人操作位姿控制方法,本发明首先通过视觉传感器测量获取操作环境和待操作目标物体的状态,根据采集图像信息并考虑安全距离,初步得到待操作目标物体的估计位姿和机械臂系统的估计目标位姿;然后,通过触觉传感器测量获取机器臂系统末端与待操作目标物体的相对位姿偏差;最后,根据机器人操作精度要求,通过迭代控制和调整机械臂系统的估计目标位姿。本发明通过视触多尺度定位方法,利用触觉感知增加局部信息,对机器人操作位姿进行精准控制;本发明提出了基于触觉传感器的位姿误差测量方法,在六维误差空间内精确测量机械臂系统末端与待操作目标物体的相对位姿偏差,提高了机器人操作位姿误差测量精度。

Description

一种基于视触多尺度定位的机器人操作位姿控制方法
技术领域
本发明涉及一种基于视触多尺度定位的机器人操作位姿控制方法,属于机器人视触觉感知和机器人操作的技术领域。
背景技术
在机器人操作平台中,视觉和触觉感知作为机器人的眼睛和皮肤,是机器人与外界环境交互时的重要感觉功能,是智能机器人操作的关键技术之一。视觉信息能够为机器人提供周围环境信息,存在物体的数量、分布信息,以及各个物体的轮廓、尺寸等信息;触觉信息能够为机器人提供物体表面特性信息,机器人与物体的接触状态信息,以及更加精确的物体方位信息等。
目前在机器人领域中,多利用视觉测量进行目标识别与分类。视觉测量系统能够提供机器人操作平台的全局信息。但在实际的视觉测量中,不可避免地会存在受光线影响、背景杂乱干扰、以及物体之间重叠、遮挡等情况,使得机器人很难对目标物体状态有充分的分析和判断;另外,在视觉测量中对深度的估计存在误差较大等问题。触觉传感器在机器人操作中,多与机械手结合,为机器人操作提供目标物体的细节信息。但在实际的触觉测量中,存在缺乏对操作环境和目标物体的整体认识等问题。这些情况都会严重影响机器人操作过程中的准确性和安全性。
如现有的一种基于GelSlim触觉传感器(Tactile-Based Insertion for DenseBox-Packing,IROS 2019:7953-7960.),对机器人收纳中的插入摆放过程进行了误差预测和控制。其具体实施方案是将触觉传感器安装于二指手指腹处,利用采集到的图像序列训练两个神经网络(Alexnet+LSTM),用DirectionNN估计误差方向对应的误差象限,即误差组合分类;用MagnitudeNN预测误差值的大小。但该方法中考虑的误差空间维度只有二维,即x方向的位移偏差和绕z轴的转角偏差,无法满足实际应用中在六维误差空间的定位需求。
综上,为了使机器人操作具有更好的精准度、灵巧度和稳定性,传统的基于视觉和触觉的测量方法已无法满足机器人操作需求。
发明内容
本发明的目的是为了克服已有技术的不足之处,提出一种基于视触多尺度定位的机器人操作位姿控制方法。本发明基于视觉和触觉信息,对机器人操作过程中的目标位姿状态进行有效估计,实现操作机器人在笛卡尔空间中的六自由度精准定位,可为机器人精准操作任务提供理论指导和系统支撑。
为了实现上述目的,本发明采用如下技术方案:
本发明提出的一种基于视触多尺度定位的机器人操作位姿控制方法,其特征在于,该方法涉及的机器人操作平台包括机械臂系统、视觉传感器、触觉传感器和支撑平台;所述机械臂系统包括模块化机械臂和机械手,由模块化机械臂带动机械手抓取放置于支撑平台上的待操作目标物体;视觉传感器安装于机械臂系统的斜上方;触觉传感器安装于机械手的手掌处;所述机器人操作位姿控制方法包括以下步骤:
1)利用视觉传感器对待操作目标物体进行粗定位
1.1)机器人操作平台根据操作任务,通过视觉传感器进行数据采集,以获取操作环境和待操作目标物体的状态;
1.2)对待操作目标物体进行目标检测,并对该待操作目标物体的位姿进行初步估计,具体包括以下步骤:
1.2.1)采用目标检测方法对待操作目标物体进行识别;
1.2.2)基于视觉的待操作目标物体位姿估计
将待操作目标物体顶部表面的中心记为O1点,利用视觉传感器采集待操作目标物体的顶部表面轮廓信息,计算得出O1点在视觉坐标系Ocamera内的三维坐标(x1,y1,z1),以此作为待操作目标物体的位置;所述视觉坐标系Ocamera的原点建立在视觉传感器主摄像头的中心,以摄像头的视野截面为视觉坐标系Ocamera的xy平面,以摄像头的轴线方向为视觉坐标系Ocamera的z轴;
提取待操作目标物体顶部各点的深度值U(k),若待操作目标物体顶部各点的深度差值在第一设定阈值内,则待操作目标物体顶部平面的单位法向量R1=(α1,β1,γ1)=(0,0,1);若待操作目标物体顶部各点的深度值差异超出第一设定阈值,则计算待操作目标物体顶部深度值相差最大的两个点或两条边的深度差值ΔU(k)、距离D以及该距离D与视觉坐标系Ocamerax轴的夹角ρ,利用以下公式计算待操作目标物体顶部平面分别绕视觉坐标系Ocamera的x,y,z轴的转角α,β,γ以及待操作目标物体顶部平面的单位法向量R1=(α1,β1,γ1):
Figure GDA0003163922850000021
其中,α1,β1,γ1分别为操作目标物体顶部平面单位法向量R1在视觉坐标系Ocamera的x,y,z轴方向上的分量;
将计算得到待操作目标物体的位置和姿态作为待操作目标物体的估计位姿,记为T1=(x1,y1,z1,α1,β1,γ1)。
1.2.3)基于机械手到待操作目标物体的安全距离,设置机械臂系统的第一估计目标位姿T2为:
Figure GDA0003163922850000031
其中,Δd为设定的安全距离,即沿着待操作目标物体顶部平面的法向向外的距离;x2,y2,z2为机械臂系统的估计目标位置在视觉坐标系Ocamera下沿x,y,z轴的三维坐标;α2,β2,γ2为机械臂系统的估计目标姿态在视觉坐标系Ocamera下绕x,y,z轴的转角;
1.2.4)机械臂系统运动至机械臂系统的第一估计目标位姿T2
2)利用触觉传感器对待操作目标物体进行精定位
2.1)设控制迭代变量为i,并初始化为1;
2.2)机械臂系统控制机械手末端姿态保持估计目标姿态(α2,β2,γ2)不变,并沿着机械手的末端轴线方向,向靠近待操作目标物体的方向移动,直至机械手的手掌平面按压在待操作目标物体的表面上,并且利用触觉传感器测得的按压力达到第二设定阈值,此时机械手末端在触觉坐标系Otouch下的位移为(Δzi+Δd),计算机械手末端位姿
Figure GDA0003163922850000032
与待操作目标物体的实际位姿在触觉坐标系Otouch下z轴方向的偏差为Δzi
2.3)根据触觉传感器采集到的数据对待操作目标物体实际位姿与机械手末端位姿
Figure GDA0003163922850000033
之间的偏差进行估计,具体包括以下步骤:
2.3.1)设触觉传感器平面中心为P点,P点在触觉坐标系Otouch中的位置为(xP,yP);根据触觉传感器采集的数据,提取待操作目标物体顶部平面的拟合轮廓,并计算该拟合轮廓的中心C点在触觉坐标系Otouch中的位置(xCi,yCi),即计算P点到C点的位移Δxyi=(Δxi,Δyi)=(xCi-xP,yCi-yP);计算待操作目标物体坐标系Oobject的x轴与触觉坐标系Otouch的x轴的锐角夹角,将其记为Δγi,即待操作目标物体顶部平面绕触觉坐标系Otouchz轴的姿态调整偏角;所述触觉坐标系Otouch的原点建立在机械臂系统末端的机械手手掌中心,即触觉传感器的表面中心,以触觉传感器的表面为触觉坐标系Otouch的xy平面,以触觉传感器摄像头的轴线方向为触觉坐标系Otouch的z轴;所述待操作目标物体坐标系Oobject的原点建立在待操作目标物体顶部平面的中心,以操作桌面所在的平面为待操作目标物体坐标系Oobject的xy平面,以垂直于操作桌面的方向为待操作目标物体坐标系Oobject的z轴方向;
2.3.2)沿着触觉传感器表面法向的方向按压待操作目标物体顶部,产生触觉信号,根据该触觉信号对待操作目标物体顶部平面的拟合轮廓进行检测,比较拟合轮廓上各点在触觉传感器表面产生的位移变化,找到位移最大的位置P1i点和位移最小的位置P2i点;以线段CP1i和线段CP2i为边组成的锐角或钝角记为角θi,将角θi的角平分线记为Li,将角θi的角平分线Li与触觉坐标系Otouch的x轴的锐角夹角记为θLi;以角θi的角平分线Li作为(α,β)姿态调整平面的法线,根据P1i点和P2i点的位移差ΔBi,估算待操作目标物体顶部平面的法向与机械手末端姿态(α2,β2,γ2)在(α,β)姿态调整平面的相对姿态偏角θxyi的大小;根据角θi的角平分线Li与触觉坐标系Otouch的x轴的夹角θLi,将相对姿态偏角θxyi分配到绕触觉坐标系Otouch的x轴和y轴的转动上,由此计算出待操作目标物体顶部平面的法向与机械手末端姿态(α2,β2,γ2)的相对姿态偏角Δαi和Δβi,计算公式分别如下:
θxyi=f(ΔBi)
Δαi=θxyicosθLi
Δβi=θxyisinθLi
其中,f(·)表示P1i点和P2i点的位移差ΔBi与待操作目标物体顶部平面的法向与机械手末端姿态(α2,β2,γ2)在(α,β)姿态调整平面的相对姿态偏角θxyi之间的映射函数,表征位移差与相对姿态偏角之间的函数关系;
由计算出待操作目标物体实际位姿与机械手末端位姿
Figure GDA0003163922850000041
之间的相对偏差,记为ΔTi=(Δxi,Δyi,Δzi,Δαi,Δβi,Δγi);
3)计算并调整机械臂系统的第一估计目标位姿
3.1)根据步骤1.2.3)得到的机械臂系统的第一估计目标位姿T2和步骤2.3.2)得到的待操作目标物体位姿与机械手末端位姿之间的相对偏差ΔTi计算机械臂系统的第二估计目标位姿Tdi,计算公式如下:
Figure GDA0003163922850000042
其中,n为当前姿态调整控制迭代的总次数;
机械臂系统根据其第二估计目标位姿Tdi运动到指定位姿,完成第i次机器人操作位姿调整;
3.3)判断ΔTi是否小于根据机器人操作精度要求设定的位姿误差阈值ε,若ΔTi<ε,则机器人操作位姿控制结束;若ΔTi≥ε,则执行步骤3.4);
3.4)令i=i+1,并返回步骤2.2),再次利用触觉传感器对待操作目标物体进行精定位,计算待操作目标物体位姿与机械手末端位姿的偏差,直至ΔTi<ε,机器人操作位姿控制结束。
本发明具有以下特点及有益效果:
本发明方法主要分为基于视觉传感器的操作目标物体粗定位、基于触觉传感器的操作目标物体精定位和机器人操作位姿计算三个阶段,首先通过视觉传感器测量获取操作环境和待操作目标物体的状态,根据采集图像信息并考虑安全距离,初步得到待操作目标物体的估计位姿和机械臂系统的估计目标位姿;然后,通过触觉传感器测量获取机器臂系统末端与待操作目标物体的相对位姿偏差;最后,根据机器人操作精度要求,通过迭代控制和调整机械臂系统的估计目标位姿。
本发明通过视触多尺度定位方法,对机器人操作位姿进行精准控制,弥补了单一视觉测量存在的受光线影响、背景杂乱干扰、以及物体之间重叠、遮挡等问题,利用触觉感知增加局部信息,提高了对待操作目标物体的位姿估计精度。同时,本发明提出了基于触觉传感器的位姿误差测量方法,在六维误差空间内精确测量机械臂系统末端与待操作目标物体的相对位姿偏差,提高了机器人操作位姿误差测量精度,为机器人精准操作任务的实现提供有力的理论指导和方法支撑,有助于推进智能机器人操作和应用的不断发展。
附图说明
图1为本发明的一种基于视触多尺度定位的机器人操作位姿控制方法涉及的机器人操作平台示意图。
图2为本发明的一种基于视触多尺度定位的机器人操作位姿控制方法的流程图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
为了更好地理解本发明,以下详细阐述一个本发明的一种基于视触多尺度定位的机器人操作位姿控制方法的应用实例。
本发明提出的一种基于视触多尺度定位的机器人操作位姿控制方法所涉及的机器人操作平台,参见图1,主要包括机械臂系统1、视觉传感器2、触觉传感器3、主控计算机4和支撑平台5。其中,机械臂系统1包括模块化机械臂和机械手两部分,将机械手安装于机械臂末端,模块化机械臂另一端安装于支撑平台5上,由模块化机械臂带动机械手抓取放置于支撑平台5上的待操作目标物体6。视觉传感器2安装于机械臂系统1的斜上方,保证其视野范围宽广,用于进行操作环境和待操作目标物体6的检测。触觉传感器3安装于机械手的手掌处,本实施例的触觉传感器3采用公开号为CN106052914A的一种基于视觉的触觉测量传感器,对于其他类型的触觉传感器,本发明方法同样适用。主控计算机4分别与机械臂系统1、视觉传感器2和触觉传感器3相连接,实现对机械手的操作位姿控制。
参见图1,机器人操作平台共涉及五个坐标系,分别为机器人操作平台的基础坐标系Obase、机械臂系统坐标系Orobot、视觉坐标系Ocamera、触觉坐标系Otouch和待操作目标物体坐标系Oobject。其中,机器人操作平台的基础坐标系Obase的原点可选定支撑平台5的操作桌面上的任一点,以操作桌面所在的平面为基础坐标系Obase的xy平面,以垂直于操作桌面的方向为基础坐标系Obase的z轴方向。机械臂系统坐标系Orobot的原点建立在机械臂系统安装平面上的一点,机械臂系统坐标系Orobot的各坐标轴方向与机器人操作平台的基础坐标系Obase的各坐标轴方向一致。视觉坐标系Ocamera的原点建立在视觉传感器主摄像头的中心,以摄像头的视野截面为视觉坐标系Ocamera的xy平面,以摄像头的轴线方向为视觉坐标系Ocamera的z轴。触觉坐标系Otouch的原点建立在机械臂系统末端的机械手手掌中心,即触觉传感器的表面中心,该点也是微视觉摄像头轴线上的一点,以触觉传感器的表面为触觉坐标系Otouch的xy平面,以微视觉摄像头的轴线方向为触觉坐标系Otouch的z轴。待操作目标物体坐标系Oobject的原点建立在待操作目标物体顶部平面的中心,待操作目标物体坐标系Oobject的各坐标轴方向与机器人操作平台的基础坐标系Obase的各坐标轴方向一致。机械臂系统坐标系Orobot和视觉坐标系Ocamera与基础坐标系Obase的相对位姿关系,可分别表示为Trobot和Tcamera;触觉坐标系Otouch与机械臂系统坐标系Orobot的相对位姿关系,可表示为Ttouch
本发明实施例的基于视触多尺度定位的机器人操作位姿控制方法,包括以下步骤:主要分为基于视觉传感器的操作目标物体粗定位、基于触觉传感器的操作目标物体精定位和机器人操作位姿计算三个阶段。
1)利用视觉传感器对待操作目标物体进行粗定位:
1.1)机器人操作平台根据操作任务,通过视觉传感器进行数据采集,以一定速率向主控计算机传送图像和深度信息,以获取操作环境和待操作目标物体的状态;
1.2)主控计算机对采集到的数据进行处理,首先通过对待操作目标物体进行目标检测,并对该待操作目标物体的位姿进行初步估计,具体包括以下步骤:
1.2.1)采用背景相减法、光流计算法和帧差法等目标检测方法实现识别待操作目标物体。本实施例采用基于深度值的背景相减法,计算公式为:
S(k)=|N(k)-B(k)|
Figure GDA0003163922850000061
其中,B(k)为背景图像上k点的深度值,N(k)为当前图像上k点的深度值,S(k)为当前图像与背景图像上k点的深度值差值,δ为设定阈值,通常根据待操作目标物体的尺寸和视觉传感器的深度值测量精度而确定,当S(k)≥δ时,G(k)=1时,表示k点为待操作目标物体上的点;当S(k)<δ时,G(k)=0,表示k点为背景图像上的点。
1.2.2)基于视觉的待操作目标物体位姿估计
将待操作目标物体顶部表面的中心记为O1点,利用位于机械臂系统斜上方的视觉传感器采集待操作目标物体的顶部表面轮廓信息,计算得出O1点在视觉坐标系Ocamera内的三维坐标(x1,y1,z1),以此作为待操作目标物体的位置。
提取待操作目标物体顶部各点的深度值U(k),若待操作目标物体顶部平面平行于操作桌面,则待操作目标物体顶部各点的深度值大致相同,深度差值在第一设定阈值内,则待操作目标物体顶部平面的单位法向量R1=(α1,β1,γ1)=(0,0,1);若待操作目标物体顶部各点的深度值差异超出第一设定阈值,则计算待操作目标物体顶部深度值相差最大的两个点或两条边的深度差值ΔU(k)、距离D以及该距离D与视觉坐标系Ocamerax轴的夹角ρ,利用以下公式计算待操作目标物体顶部平面分别绕视觉坐标系Ocamera的x,y,z轴的转角α,β,γ以及待操作目标物体顶部平面的单位法向量R1=(α1,β1,γ1):
Figure GDA0003163922850000071
其中,α1,β1,γ1分别为操作目标物体顶部平面单位法向量R1在视觉坐标系Ocamera的x,y,z轴方向上的分量。
将计算得到待操作目标物体的位置和姿态作为待操作目标物体的估计位姿,记为T1=(x1,y1,z1,α1,β1,γ1)。
1.2.3)考虑到机械手到待操作目标物体的安全距离,设置机械臂系统的第一估计目标位姿T2为:
Figure GDA0003163922850000072
其中,Δd为设定的安全距离,即沿着待操作目标物体顶部平面的法向向外的距离,通常根据经验设定,一般为10~15mm。x2,y2,z2为机械臂系统的估计目标位置在视觉坐标系Ocamera下沿x,y,z轴的三维坐标。α2,β2,γ2为机械臂系统的估计目标姿态在视觉坐标系Ocamera下绕x,y,z轴的转角。
1.2.4)主控计算机根据Tcamera和Trobot进行坐标系转换,将机械臂系统的第一估计目标位姿T2从视觉坐标系Ocamera转换至机械臂系统坐标系Orobot下,并发送给机械臂系统的运动控制系统,机械臂系统接收控制指令并根据Ttouch确定各关节角位置,控制机械手末端运动到该第一估计目标位姿T2
至此,机器人操作平台完成了基于视觉传感器的待操作目标物体粗定位。
2)利用触觉传感器对待操作目标物体进行精定位。具体步骤如下:
2.1)设控制迭代变量为i,并初始化为1。
2.2)利用机器人操作平台的触觉传感器进行数据采集,不同触觉传感器的数据形式不同,在本实施例中此处为微视觉图像数据。此时,机械手末端位姿
Figure GDA0003163922850000081
为T2=(x2,y2,z2,α2,β2,γ2),机械臂系统控制机械手末端姿态保持估计目标姿态(α2,β2,γ2)不变,并沿着机械手的末端轴线方向,向靠近待操作目标物体的方向移动,直至机械手的手掌平面按压在待操作目标物体的表面上,并且按压力达到第二设定阈值(该第二设定阈值范围通常根据待操作目标物体的材料属性及抗压性而确定),此时机械手末端在触觉坐标系Otouch下的位移为(Δzi+Δd),计算机械手末端位姿
Figure GDA0003163922850000082
与待操作目标物体的实际位姿在触觉坐标系Otouch下z轴方向的偏差为Δzi,其中,Δd为在步骤1.2.3)中设定的安全距离。由于待操作目标物体受阻碍和摩擦力的作用,触觉传感器的表面会出现变形,本实施例中,表现为基于视觉的触觉测量传感器中标记点的位置会发生移动,同时受挤压处到触觉传感器内部光源的距离也会发生变化,这些变化会由触觉传感器内部的微摄像头拍摄成图像信号,并以一定速率传送图像信息至主控计算机。
2.3)主控计算机对触觉传感器采集到的数据进行处理(如去噪等),并对待操作目标物体实际位姿与机械手末端位姿
Figure GDA0003163922850000083
之间的偏差进行估计,具体包括以下步骤:
2.3.1)设触觉传感器平面中心为P点,P点在触觉坐标系Otouch中的位置为(xP,yP)。根据触觉传感器采集的数据,提取待操作目标物体顶部平面的拟合轮廓,并计算该拟合轮廓的中心C点在触觉坐标系Otouch中的位置(xCi,yCi),即计算P点到C点的位移Δxyi=(Δxi,Δyi)=(xCi-xP,yCi-yP)。进一步地,计算待操作目标物体坐标系Oobject的x轴与触觉坐标系Otouch的x轴的锐角夹角,将其记为Δγi,即待操作目标物体顶部平面绕触觉坐标系Otouchz轴的姿态调整偏角。
2.3.2)沿着触觉传感器表面法向的方向按压待操作目标物体顶部,随着触觉传感器表面产生形变,在按压点处会产生触觉信号。本实施例中,随着按压位移不同,挤压点到触觉传感器内部光源的距离不同,在触觉传感器微视觉视野中的亮度就不同。按压产生的形变/位移越大,该点在微视觉视野中的亮度就越大。由此,根据触觉信号对待操作目标物体顶部平面的拟合轮廓进行检测,并以拟合轮廓中心为中心,顺时针或逆时针遍历,比较拟合轮廓上各点在触觉传感器表面产生的位移变化,找到位移最大的位置P1i点和位移最小的位置P2i点。以线段CP1i和线段CP2i为边组成的锐角或钝角记为角θi,将角θi的角平分线记为Li,将角θi的角平分线Li与触觉坐标系Otouch的x轴的锐角夹角记为θLi。以角θi的角平分线Li作为(α,β)姿态调整平面(即姿态调整转角α和β组成的平面)的法线,根据P1i点和P2i点的位移差ΔBi,估算待操作目标物体顶部平面的法向与机械手末端姿态(α2,β2,γ2)在(α,β)姿态调整平面的相对姿态偏角θxyi的大小。根据角θi的角平分线Li与触觉坐标系Otouch的x轴的夹角θLi,将相对姿态偏角θxyi分配到绕触觉坐标系Otouch的x轴和y轴的转动上,由此计算出待操作目标物体顶部平面的法向与机械手末端姿态(α2,β2,γ2)的相对姿态偏角Δαi和Δβi。计算公式分别如下:
θxyi=f(ΔBi)
Δαi=θxyicosθLi
Δβi=θxyisinθLi
其中,f(·)表示ΔBi与θxyi之间的映射函数,可采用神经网络建模确定。
由此,可计算出待操作目标物体实际位姿与机械手末端位姿
Figure GDA0003163922850000091
之间的相对偏差,记为ΔTi=(Δxi,Δyi,Δzi,Δαi,Δβi,Δγi),Δxi,Δyi,Δzi,Δαi,Δβi,Δγi分别是待操作目标物体实际位姿与机械手末端位姿
Figure GDA0003163922850000092
沿触觉坐标系Otouch的x,y,z轴方向上的位移偏差和绕触觉坐标系Otouch的x,y,z轴的转角偏差。
至此,机器人操作平台完成了基于触觉传感器的操作目标物体精定位。
3)为了保证机械手末端位姿与待操作目标物体位姿一致,计算并调整机械臂系统的第一估计目标位姿。具体步骤如下:
3.1)根据步骤1.2.3)得到的机械臂系统的第一估计目标位姿T2和步骤2.3.2)得到的待操作目标物体位姿与机械手末端位姿之间的相对偏差ΔTi计算机械臂系统的第二估计目标位姿Tdi,计算公式如下:
Figure GDA0003163922850000093
其中,n为当前姿态调整控制迭代的总次数。
主控计算机根据Tcamera和Trobot进行坐标系转换,将计算得到的机械臂系统的第二估计目标位姿Tdi从视觉坐标系Ocamera转换至机械臂系统坐标系Orobot下,并发送到机械臂系统的运动控制系统,机械臂系统接收控制指令并根据Ttouch确定各关节角位置,控制机械手末端运动到指定位姿,完成第i次机器人操作位姿调整。
3.3)判断ΔTi是否小于根据机器人操作精度要求设定的位姿误差阈值ε,若ΔTi<ε,则机器人操作位姿控制结束;若ΔTi≥ε,则执行步骤3.4)。
3.4)令i=i+1,并返回步骤2.2),再次利用触觉传感器对待操作目标物体进行精定位,计算待操作目标物体位姿与机械手末端位姿的偏差,直至ΔTi<ε,机器人操作位姿控制结束。
经过上述三个阶段,即可实现基于视触多尺度定位的机器人操作位姿测量与调整,为机器人操作平台实现精准操作任务奠定基础。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (2)

1.一种基于视触多尺度定位的机器人操作位姿控制方法,其特征在于,该方法涉及的机器人操作平台包括机械臂系统、视觉传感器、触觉传感器和支撑平台;所述机械臂系统包括模块化机械臂和机械手,由模块化机械臂带动机械手抓取放置于支撑平台上的待操作目标物体;视觉传感器安装于机械臂系统的斜上方;触觉传感器安装于机械手的手掌处;所述机器人操作位姿控制方法包括以下步骤:
1)利用视觉传感器对待操作目标物体进行粗定位
1.1)机器人操作平台根据操作任务,通过视觉传感器进行数据采集,以获取操作环境和待操作目标物体的状态;
1.2)对待操作目标物体进行目标检测,并对该待操作目标物体的位姿进行初步估计,具体包括以下步骤:
1.2.1)采用目标检测方法对待操作目标物体进行识别;
1.2.2)基于视觉的待操作目标物体位姿估计
将待操作目标物体顶部表面的中心记为O1点,利用视觉传感器采集待操作目标物体的顶部表面轮廓信息,计算得出O1点在视觉坐标系Ocamera内的三维坐标(x1,y1,z1),以此作为待操作目标物体的位置;所述视觉坐标系Ocamera的原点建立在视觉传感器主摄像头的中心,以摄像头的视野截面为视觉坐标系Ocamera的xy平面,以摄像头的轴线方向为视觉坐标系Ocamera的z轴;
提取待操作目标物体顶部各点的深度值U(k),若待操作目标物体顶部各点的深度差值在第一设定阈值内,则待操作目标物体顶部平面的单位法向量R1=(α1,β1,γ1)=(0,0,1);若待操作目标物体顶部各点的深度值差异超出第一设定阈值,则计算待操作目标物体顶部深度值相差最大的两个点或两条边的深度差值ΔU(k)、距离D以及该距离D与视觉坐标系Ocamerax轴的夹角ρ,利用以下公式计算待操作目标物体顶部平面分别绕视觉坐标系Ocamera的x,y,z轴的转角α,β,γ以及待操作目标物体顶部平面的单位法向量R1=(α1,β1,γ1):
Figure FDA0003163922840000011
其中,α1,β1,γ1分别为操作目标物体顶部平面单位法向量R1在视觉坐标系Ocamera的x,y,z轴方向上的分量;
将计算得到待操作目标物体的位置和姿态作为待操作目标物体的估计位姿,记为T1=(x1,y1,z1,α1,β1,γ1);
1.2.3)基于机械手到待操作目标物体的安全距离,设置机械臂系统的第一估计目标位姿T2为:
Figure FDA0003163922840000021
其中,Δd为设定的安全距离,即沿着待操作目标物体顶部平面的法向向外的距离;x2,y2,z2为机械臂系统的估计目标位置在视觉坐标系Ocamera下沿x,y,z轴的三维坐标;α2,β2,γ2为机械臂系统的估计目标姿态在视觉坐标系Ocamera下绕x,y,z轴的转角;
1.2.4)机械臂系统运动至机械臂系统的第一估计目标位姿T2
2)利用触觉传感器对待操作目标物体进行精定位
2.1)设控制迭代变量为i,并初始化为1;
2.2)机械臂系统控制机械手末端姿态保持估计目标姿态(α2,β2,γ2)不变,并沿着机械手的末端轴线方向,向靠近待操作目标物体的方向移动,直至机械手的手掌平面按压在待操作目标物体的表面上,并且利用触觉传感器测得的按压力达到第二设定阈值,此时机械手末端在触觉坐标系Otouch下的位移为(Δzi+Δd),计算机械手末端位姿
Figure FDA0003163922840000022
与待操作目标物体的实际位姿在触觉坐标系Otouch下z轴方向的偏差为Δzi
2.3)根据触觉传感器采集到的数据对待操作目标物体实际位姿与机械手末端位姿
Figure FDA0003163922840000023
之间的偏差进行估计,具体包括以下步骤:
2.3.1)设触觉传感器平面中心为P点,P点在触觉坐标系Otouch中的位置为(xP,yP);根据触觉传感器采集的数据,提取待操作目标物体顶部平面的拟合轮廓,并计算该拟合轮廓的中心C点在触觉坐标系Otouch中的位置(xCi,yCi),即计算P点到C点的位移Δxyi=(Δxi,Δyi)=(xCi-xP,yCi-yP);计算待操作目标物体坐标系Oobject的x轴与触觉坐标系Otouch的x轴的锐角夹角,将其记为Δγi,即待操作目标物体顶部平面绕触觉坐标系Otouchz轴的姿态调整偏角;所述触觉坐标系Otouch的原点建立在机械臂系统末端的机械手手掌中心,即触觉传感器的表面中心,以触觉传感器的表面为触觉坐标系Otouch的xy平面,以触觉传感器摄像头的轴线方向为触觉坐标系Otouch的z轴;所述待操作目标物体坐标系Oobject的原点建立在待操作目标物体顶部平面的中心,以操作桌面所在的平面为待操作目标物体坐标系Oobject的xy平面,以垂直于操作桌面的方向为待操作目标物体坐标系Oobject的z轴方向;
2.3.2)沿着触觉传感器表面法向的方向按压待操作目标物体顶部,产生触觉信号,根据该触觉信号对待操作目标物体顶部平面的拟合轮廓进行检测,比较拟合轮廓上各点在触觉传感器表面产生的位移变化,找到位移最大的位置P1i点和位移最小的位置P2i点;以线段CP1i和线段CP2i为边组成的锐角或钝角记为角θi,将角θi的角平分线记为Li,将角θi的角平分线Li与触觉坐标系Otouch的x轴的锐角夹角记为θLi;以角θi的角平分线Li作为(α,β)姿态调整平面的法线,根据P1i点和P2i点的位移差ΔBi,估算待操作目标物体顶部平面的法向与机械手末端姿态(α2,β2,γ2)在(α,β)姿态调整平面的相对姿态偏角θxyi的大小;根据角θi的角平分线Li与触觉坐标系Otouch的x轴的夹角θLi,将相对姿态偏角θxyi分配到绕触觉坐标系Otouch的x轴和y轴的转动上,由此计算出待操作目标物体顶部平面的法向与机械手末端姿态(α2,β2,γ2)的相对姿态偏角Δαi和Δβi,计算公式分别如下:
θxyi=f(ΔBi)
Δαi=θxyicosθLi
Δβi=θxyisinθLi
其中,f(·)表示P1i点和P2i点的位移差ΔBi与待操作目标物体顶部平面的法向与机械手末端姿态(α2,β2,γ2)在(α,β)姿态调整平面的相对姿态偏角θxyi之间的映射函数,表征位移差与相对姿态偏角之间的函数关系;
由计算出待操作目标物体实际位姿与机械手末端位姿
Figure FDA0003163922840000032
之间的相对偏差,记为ΔTi=(Δxi,Δyi,Δzi,Δai,Δβi,Δγi);
3)计算并调整机械臂系统的第一估计目标位姿
3.1)根据步骤1.2.3)得到的机械臂系统的第一估计目标位姿T2和步骤2.3.2)得到的待操作目标物体位姿与机械手末端位姿之间的相对偏差ΔTi计算机械臂系统的第二估计目标位姿Tdi,计算公式如下:
Figure FDA0003163922840000031
其中,n为当前姿态调整控制迭代的总次数;
机械臂系统根据其第二估计目标位姿Tdi运动到指定位姿,完成第i次机器人操作位姿调整;
3.3)判断ΔTi是否小于根据机器人操作精度要求设定的位姿误差阈值ε,若ΔTi<ε,则机器人操作位姿控制结束;若ΔTi≥ε,则执行步骤3.4);
3.4)令i=i+1,并返回步骤2.2),再次利用触觉传感器对待操作目标物体进行精定位,计算待操作目标物体位姿与机械手末端位姿的偏差,直至ΔTi<ε,机器人操作位姿控制结束。
2.根据权利要求1所述的机器人操作位姿控制方法,其特征在于,步骤1.2.1)中,所述目标检测方法采用背景相减法、光流计算法或帧差法。
CN202010857137.4A 2020-08-24 2020-08-24 一种基于视触多尺度定位的机器人操作位姿控制方法 Active CN112060085B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010857137.4A CN112060085B (zh) 2020-08-24 2020-08-24 一种基于视触多尺度定位的机器人操作位姿控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010857137.4A CN112060085B (zh) 2020-08-24 2020-08-24 一种基于视触多尺度定位的机器人操作位姿控制方法

Publications (2)

Publication Number Publication Date
CN112060085A CN112060085A (zh) 2020-12-11
CN112060085B true CN112060085B (zh) 2021-10-08

Family

ID=73659893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010857137.4A Active CN112060085B (zh) 2020-08-24 2020-08-24 一种基于视触多尺度定位的机器人操作位姿控制方法

Country Status (1)

Country Link
CN (1) CN112060085B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114441807B (zh) * 2021-07-22 2023-07-07 荣耀终端有限公司 一种接线方法及系统
CN113696186B (zh) * 2021-10-09 2022-09-30 东南大学 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
CN114986515A (zh) * 2022-07-04 2022-09-02 中国科学院沈阳自动化研究所 一种位姿解耦的绝缘子更换机器人动态装配方法
CN117032027A (zh) * 2023-08-15 2023-11-10 广东美的智能科技有限公司 视觉控制系统及其控制方法、视觉运动控制器和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106052914A (zh) * 2016-07-21 2016-10-26 清华大学 一种基于视觉的触觉测量传感器
CN106204620A (zh) * 2016-07-21 2016-12-07 清华大学 一种基于微视觉的触觉三维力检测方法
CN106272424A (zh) * 2016-09-07 2017-01-04 华中科技大学 一种基于单目相机和三维力传感器的工业机器人抓取方法
CN109129474A (zh) * 2018-08-10 2019-01-04 上海交通大学 基于多模态融合的机械手主动抓取装置及方法
CN109543823A (zh) * 2018-11-30 2019-03-29 山东大学 一种基于多模信息描述的柔性装配系统及方法
CN110162175A (zh) * 2019-05-16 2019-08-23 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、设备及存储介质
CN111055279A (zh) * 2019-12-17 2020-04-24 清华大学深圳国际研究生院 基于触觉与视觉结合的多模态物体抓取方法与系统
CN111258267A (zh) * 2020-01-17 2020-06-09 北京科技大学 一种人机协作搬运系统及其混合视触控制方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7601119B2 (en) * 2006-04-25 2009-10-13 Hrayr Kamig Shahinian Remote manipulator with eyeballs
EP3007867B1 (en) * 2013-06-11 2020-10-21 OnRobot A/S Systems and methods for sensing objects

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106052914A (zh) * 2016-07-21 2016-10-26 清华大学 一种基于视觉的触觉测量传感器
CN106204620A (zh) * 2016-07-21 2016-12-07 清华大学 一种基于微视觉的触觉三维力检测方法
CN106272424A (zh) * 2016-09-07 2017-01-04 华中科技大学 一种基于单目相机和三维力传感器的工业机器人抓取方法
CN109129474A (zh) * 2018-08-10 2019-01-04 上海交通大学 基于多模态融合的机械手主动抓取装置及方法
CN109543823A (zh) * 2018-11-30 2019-03-29 山东大学 一种基于多模信息描述的柔性装配系统及方法
CN110162175A (zh) * 2019-05-16 2019-08-23 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、设备及存储介质
CN111055279A (zh) * 2019-12-17 2020-04-24 清华大学深圳国际研究生院 基于触觉与视觉结合的多模态物体抓取方法与系统
CN111258267A (zh) * 2020-01-17 2020-06-09 北京科技大学 一种人机协作搬运系统及其混合视触控制方法

Also Published As

Publication number Publication date
CN112060085A (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
CN112060085B (zh) 一种基于视触多尺度定位的机器人操作位姿控制方法
CN110116407B (zh) 柔性机器人位姿测量方法及装置
Du et al. Markerless human–manipulator interface using leap motion with interval Kalman filter and improved particle filter
CN110014426B (zh) 一种利用低精度深度相机高精度抓取形状对称工件的方法
Berger et al. Using tactile data for real-time feedback
Kang et al. Toward automatic robot instruction from perception-temporal segmentation of tasks from human hand motion
Janabi-Sharifi et al. Automatic selection of image features for visual servoing
Sanz et al. Vision-guided grasping of unknown objects for service robots
Cipolla et al. Visually guided grasping in unstructured environments
Nozu et al. Robotic bolt insertion and tightening based on in-hand object localization and force sensing
US10393603B2 (en) Visuo-haptic sensor
Burrell et al. Towards a cooperative robotic system for autonomous pipe cutting in nuclear decommissioning
Zhao et al. A novel accurate positioning method for object pose estimation in robotic manipulation based on vision and tactile sensors
CN116766194A (zh) 基于双目视觉的盘类工件定位与抓取系统和方法
Chang et al. Implementation of an object-grasping robot arm using stereo vision measurement and fuzzy control
Gil et al. Visual/Tactile sensing to monitor grasps with robot-hand for planar elastic objects
Nashman et al. Unique sensor fusion system for coordinate-measuring machine tasks
Nakhaeinia et al. Adaptive robotic contour following from low accuracy RGB-D surface profiling and visual servoing
JP2022142773A (ja) オブジェクトのカメラ画像からオブジェクトの場所を位置特定するための装置及び方法
CN111230872B (zh) 一种基于多传感器的物体递交意图识别系统及方法
CN110749327B (zh) 一种合作环境下的车辆导航方法
Kheng et al. Stereo vision with 3D coordinates for robot arm application guide
Sutanto et al. Global performance evaluation of image features for visual servo control
Veber et al. Assessing joint angles in human hand via optical tracking device and calibrating instrumented glove
CN113733078A (zh) 机械臂精调控制量判读方法、计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant