CN113601498B - 基于权重分配的机器人视觉伺服与人机交互混合操控方法 - Google Patents
基于权重分配的机器人视觉伺服与人机交互混合操控方法 Download PDFInfo
- Publication number
- CN113601498B CN113601498B CN202110781432.0A CN202110781432A CN113601498B CN 113601498 B CN113601498 B CN 113601498B CN 202110781432 A CN202110781432 A CN 202110781432A CN 113601498 B CN113601498 B CN 113601498B
- Authority
- CN
- China
- Prior art keywords
- psk
- pbk
- control
- robot
- servo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000000007 visual effect Effects 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1607—Calculation of inertia, jacobian matrixes and inverses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Abstract
本发明涉及一种基于权重分配的机器人视觉伺服与人机交互混合操控方法,首先,分别建立视觉控制与人机交互控制的模型,计算出二者的控制输出,再由模糊控制器计算权重分配,将融合后的控制量输入到机器人关节伺服控制系统中,控制机器人运动。有益效果在于,通过动态的控制权重分配,将机器人视觉伺服控制和人机交互控制两种不同自主性的控制模式进行了融合,使得人的控制输入能够参与到机器人控制回路中,增加了系统控制输入的多样性和系统控制目标的开放性,本发明适合于应用到开放场景的视觉观察任务上。
Description
技术领域
本发明属于机器人控制领域,涉及一种基于权重分配的机器人视觉伺服与人机交互混合操控方法,更具体地涉及一种基于模糊控制器分配控制权重,融合视觉伺服和人机交互控制的机器人混合控制方法。
背景技术
得益于相机硬件技术和计算机水平的发展,计算机视觉领域的迅速发展,使得机器视觉能够为机器人提供控制。视觉伺服在医疗手术、灾难救援、工业车间、空间遥操作等领域广泛使用。传统的视觉伺服主要使用基于位置的视觉伺服系统、基于图像的视觉伺服系统或者图像与位置混合的视觉伺服系统。
传统的视觉伺服方案大多为直接闭环伺服,由机器自主性完成伺服作业,或者使用切换控制,将视觉伺服与人机交互控制两种模式进行切换执行。这样的方法更多地适用与工业场景、精细化作业或者固定任务场景,当应用于开放场景的视觉观察活动时,该类方法不能满足更高灵活性的需求。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于权重分配的机器人视觉伺服与人机交互混合操控方法,采用基于动态权重分配的混合控制策略,使用手眼协调的控制输入和视觉伺服的控制输入按照加权进行融合作为期望输入,使得机器人末端能够对输入指令进行跟踪,引入动态系数的偏差力反馈进行人机交互感知,由本文设计的动态权重方法实现操作者能够通过人机交互实现对物体的跟踪观察和视线游走任务。
技术方案
一种基于权重分配的机器人视觉伺服与人机交互混合操控方法,其特征在于步骤如下:
步骤1、对视觉控制模型建模,计算视觉控制器输出的控制量υp:
建立视觉控制器模型
模型使用三个特征点,对每一个特征点i计算图像雅各比矩阵和控制输入upi;
以下用图像雅各比矩阵Jp和控制输入up表示:
计算控制输入up=Kppep
其中:比例控制器的比例系数为Kpp;
ep=pT-p,p=[u v]T为特征点当前像素坐标,pT=[uT vT]T;为给定的特征点期望像素坐标:
图像雅可比矩阵的计算表达式:
给定的相机模型的参数为[f ρu ρv u v],
通过模型最小二乘法进行在线辨识参数估计求解Z,vr、ωr为机器人末端真实的位置和角度变化量;
步骤2、对人机交互控制模型建模,计算人机交互控制器输出的控制量υh和交互力F:
建立人机交互控制器模型为:为控制输入;
交互力F=KτTv -1vp,其中Kτ为力反馈系数;
手控器基座坐标系下的三维空间位置和变化速度:
eh=[vhx vhz vhz ωhx ωhy ωhz]T=[vh ωh]T
给定速度从手控器基座坐标系转换到机器人基座坐标系的变换矩阵Tv;
角速度从手控器基座坐标系转换到机器人基座坐标系的变换矩阵Tω;
步骤3、利用模糊控制方法,得到控制输入的权重分配:
采用线性加权和将两个控制量进行合成,设视觉控制的权重设置为Kα,合成的控制量为:
υ=Kαυp+(1-Kα)υh
其中Kα和上一步骤中的Kτ使用模糊控制器进行求解
S1=(Δp×Δθ)→Kα
n个特征点的像素特征偏量的归一化参数Δp和控制量速度矢量夹角的归一化参数Δθ,按照如下公式进行计算
S2=(Δp×Δθ)→Kτ
则根据模糊规则,由一次输入计算量的模糊化Δp*和Δθ*,分别计算出:
Kα *=(Δp*×Δθ*)οS1
Kτ *=(Δp*×Δθ*)οS2
将输出进行反模糊,得到满足需求的控制权重中Kα和Kτ;
步骤4:以步骤3合成加权的笛卡尔空间控制量,作为机器人输入的期望末端笛卡尔空间位姿变化量进行关节伺服跟踪,控制机器人末端位置和姿态产生变化,使得图像伺服系统能够辅助人的控制操作和对目标物体观察。
关节伺服控制量
Jr为机器人笛卡尔空间位置速度变化和关节空间角度变化间的雅各比矩阵。
所述S1如下表所示:
VSΔp | SΔp | PSΔp | PBΔp | BΔp | VBΔp | |
VSΔθ | VBKα | BKα | BKα | PBKα | PBKα | PSKα |
SΔθ | BKα | BKα | PBKα | PBKα | PBKα | PSKα |
PSΔθ | BKα | PBKα | PBKα | PSKα | PSKα | PSKα |
PBΔθ | PBKα | PSKα | PSKα | PSKα | PSKα | SKα |
BΔθ | PBKα | PSKα | PSKα | PSKα | SKα | SKα |
VBΔθ | PSKα | PSKα | PSKα | SKα | SKα | VSKα |
所述S2如下表所示:
VSΔp | SΔp | PSΔp | PBΔp | BΔp | VBΔp | |
VSΔθ | VSKτ | SKτ | SKτ | PSKτ | PSKτ | PSKτ |
SΔθ | SKτ | SKτ | PSKτ | PSKτ | PSKτ | PBKτ |
PSΔθ | SKτ | PSKτ | PSKτ | PSKτ | PBKτ | PBKτ |
PBΔθ | PSKτ | PSKτ | PBKτ | PBKτ | PBKτ | BKτ |
BΔθ | PSKτ | PBKτ | PBKτ | PBKτ | BKτ | BKτ |
VBΔθ | PBKτ | PBKτ | PBKτ | BKτ | BKτ | VBKτ |
有益效果
本发明提出的一种基于权重分配的机器人视觉伺服与人机交互混合操控方法,首先,分别建立视觉控制与人机交互控制的模型,计算出二者的控制输出,再由模糊控制器计算权重分配,将融合后的控制量输入到机器人关节伺服控制系统中,控制机器人运动。本发明的关键在于,基于单目视觉利用反光流深度恢复构建了机器人的视觉伺服框架,利用力反馈引导机制构建了人机交互控制框架,设立了两个评估参数,通过模糊控制方法,利用先验经验建立规则,使用评估参数进行决策,获得控制权重分配系数和力反馈引导系数,最终能够实现两种控制模式的融合。
本发明的有益效果在于,通过动态的控制权重分配,将机器人视觉伺服控制和人机交互控制两种不同自主性的控制模式进行了融合,使得人的控制输入能够参与到机器人控制回路中,增加了系统控制输入的多样性和系统控制目标的开放性,本发明适合于应用到开放场景的视觉观察任务上。
附图说明
图1为本发明使用的控制系统结构图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
如图1所示。本发明所采用的技术方案是,首先,分别建立视觉控制与人机交互控制的模型,计算出二者的控制输出,再由模糊控制器计算权重分配,将融合后的控制量输入到机器人关节伺服控制系统中,控制机器人运动。
步骤1:对视觉控制模型建模,计算视觉控制器输出的控制量;
步骤2:对人机交互控制模型建模,计算人机交互控制器输出的控制量;
步骤3:根据视觉控制器和人机交互控制器的参数,计算模糊控制器的输入参数,通过模糊控制方法分配控制权重,合成加权控制量;
步骤4:将步骤3中合成的加权的机器人控制量,作为机器人输入的期望末端笛卡尔空间位姿变化量,进行关节伺服跟踪,控制机器人末端位置和姿态产生变化,使得图像伺服系统能够辅助人的控制操作和对目标物体观察。
本发明具体实施步骤如下:
步骤1主要是完成视觉控制器的设计,获得对机器人末端位姿的控制量。
定义末端固定相机的六自由度机器人,其末端坐标系和相机坐标系重合,末端相对于基座坐标系的初始位置和姿态为ξ=[x y z θx θy θz]T,本发明中都使用2-3-1旋转顺序,设相机模型的参数为[f ρu ρv u0 v0]。
本发明适用于具有三个及以上特征点目标的伺服跟踪,本发明中讨论的问题限定下面以目标为矩形为例,选取矩形的四个顶点为特征点进行说明。对于每个特征点,都可测得其初始的像素坐标p=[u v]T,单个图像特征变化率和末端位姿变化率具有线性关系
即
其中υp=[vx vy vz ωx ωy ωz]T=[vp ωp]T为末端相对于基座坐标系的位移和旋转速度,Jp即为图像雅可比矩阵,根据透视投影方程和相机模型参数,假设该点在真实空间相对于相机的坐标为[X Y Z]T,则可以得到图像雅可比矩阵的计算表达式:
对于任意点,假设其期望的像素坐标位置pT=[uT vT]T,设计特征点像素的跟踪误差ep
ep=pT-p (3)
设计比例控制器,比例系数为Kpp
up=Kppep (4)
选取四个特征点中的三组点特征,堆叠其雅可比矩阵,求解机器人基座坐标系下,为了使得图像特征在像素平面内到达期望位置,末端位姿所需运动的速度和角速度量
其中JPi和upi表示为第i个特诊点的图像雅可比矩阵和控制输入。
在本发明中,使用反光流法恢复特征点相对于相机坐标系的深度信息,即求解坐标中的Z值。此处的深度估计器设计如下:使用υr=[vr ωr]T表示机器人末端相对于基座坐标系的真实位移和旋转速度,代入(2)中,整理可得到
使用最小二乘法进行在线辨识参数估计,在任意设定初值的情况下,该深度估计值都可以在系统初始阶段较快地跟踪上真值,且该方法在实际应用上对Z值的误差不敏感,初始偏差的存在对系统的性能影响不大。
步骤2主要是完成人机交互控制器的设计,计算人机交互控制对机器人末端位姿的控制量。人机互控制器采用三自由度或者六自由度手控器等具有相应位置速度传感器的人机交互设备采集控制输入。以六自由度并联手控器为例,假设采集的输入为手控器末端点,在手控器基座坐标系下的三维空间位置和变化速度:
e=[vhx vhz vhz ωhx ωhy ωhz]T,
设计比例控制律
给定速度和角速度从手控器基座坐标系转换到机器人基座坐标系的变换矩阵Tv和Tω,通过计算
则可以将控制量从手控器基座坐标空间转换到机器人基座坐标空间。
同时利用视觉伺服控制量的三个速度分量作为反馈,在手控器内设计力反馈进行交互,使得操作者能够感受到视觉伺服控制的方向。交互力的设计为
F=KτTv -1vp (9)
其中权重Kτ由根据下一步骤进行计算。
步骤3利用模糊控制方法,得到控制输入的权重分配。本发明采用线性加权和将两个控制量进行合成,设视觉控制的权重设置为Kα,合成的控制量为
υ=Kαυp+(1-Kα)υh (10)
其中Kα和上一步骤中的Kτ使用模糊控制器进行求解。
设计模糊控制器为双输入控制器,两个模糊控制输入分别定义为:n个特征点的像素特征偏量的归一化参数Δp和控制量速度矢量夹角的归一化参数Δθ,按照如下公式进行计算
根据先验知识,将两个归一化参数输入和两个输出权重进行模糊化,分别设计模糊集为很小(VS)、小(S)、偏小(PS)、偏大(PB)、大(B)、很大(VB),并确定相应的隶属度函数。根据“像素偏差大的时候,视觉控制权值应当小,力反馈参数应当大”;和“速度夹角偏差大的时候,视觉控制权值应当小,力反馈参数应当大”两个先验模糊准则,建立模糊关系S1和S2。其中
S1=(Δp×Δθ)→Kα (13)
S1具体如下表所示
VSΔp | SΔp | PSΔp | PBΔp | BΔp | VBΔp | |
VSΔθ | VBKα | BKα | BKα | PBKα | PBKα | PSKα |
SΔθ | BKα | BKα | PBKα | PBKα | PBKα | PSKα |
PSΔθ | BKα | PBKα | PBKα | PSKα | PSKα | PSKα |
PBΔθ | PBKα | PSKα | PSKα | PSKα | PSKα | SKα |
BΔθ | PBKα | PSKα | PSKα | PSKα | SKα | SKα |
VBΔθ | PSKα | PSKα | PSKα | SKα | SKα | VSKα |
S2=(Δp×Δθ)→Kτ (14)
S2具体如下表所示
VSΔp | SΔp | PSΔp | PBΔp | BΔp | VBΔp | |
VSΔθ | VSKτ | SKτ | SKτ | PSKτ | PSKτ | PSKτ |
SΔθ | SKτ | SKτ | PSKτ | PSKτ | PSKτ | PBKτ |
PSΔθ | SKτ | PSKτ | PSKτ | PSKτ | PBKτ | PBKτ |
PBΔθ | PSKτ | PSKτ | PBKτ | PBKτ | PBKτ | BKτ |
BΔθ | PSKτ | PBKτ | PBKτ | PBKτ | BKτ | BKτ |
VBΔθ | PBKτ | PBKτ | PBKτ | BKτ | BKτ | VBKτ |
则根据模糊规则,由一次输入计算量的模糊化Δp*和Δθ*,可以分别计算出
Kα *=(Δp*×Δθ*)οS1 (15)
Kτ *=(Δp*×Δθ*)οS2 (16)
将输出进行反模糊,得到满足需求的控制权重中Kα和Kτ。
步骤4.将步骤3中合成的加权的机器人控制量,作为机器人输入的期望末端笛卡尔空间位姿变化量,进行关节伺服跟踪,控制机器人末端位置和姿态产生变化,使得图像伺服系统能够辅助人的控制操作和对目标物体观察。
选用六自由度旋转机器人模型,DH参数已知,设其当前关节角q=[q1 q2 q3 q4 q5q6],根据其参数和旋转角,可以获得任意两相邻关节坐标系的齐次变换矩阵Ai,和机器人总变换矩阵
A=A1A2A3A4A5A6 (17)
根据机器人笛卡尔空间位置速度变化和关节空间角度变化间的映射关系满足
Jr为机器人笛卡尔空间位置速度变化和关节空间角度变化间的雅各比矩阵,可以求解出关节角控制量
对各个关节角进行伺服控制,并能根据变化后的关节角值计算出被控后的末端位置旋转矩阵
T=A(q) (20)
从而获得被控后的末端位置和姿态坐标。
本发明的关键在于,基于单目视觉利用反光流深度恢复构建了机器人的视觉伺服框架,利用力反馈引导机制构建了人机交互控制框架,设立了两个评估参数,通过模糊控制方法,利用先验经验建立规则,使用评估参数进行决策,获得控制权重分配系数和力反馈引导系数,最终能够实现两种控制模式的融合。
Claims (3)
1.一种基于权重分配的机器人视觉伺服与人机交互混合操控方法,其特征在于步骤如下:
步骤1、对视觉控制模型建模,计算视觉控制器输出的控制量υp:
建立视觉控制器模型
模型使用三个特征点,对每一个特征点i计算图像雅各比矩阵和控制输入upi;
以下用图像雅各比矩阵Jp和控制输入up表示:
计算控制输入up=Kppep
其中:比例控制器的比例系数为Kpp;
ep=pT-p,p=[u v]T为特征点当前像素坐标,pT=[uT vT]T;为给定的特征点期望像素坐标:
图像雅可比矩阵的计算表达式:
给定的相机模型的参数为[f ρu ρv u v],
通过模型最小二乘法进行在线辨识参数估计求解Z,vr、ωr为机器人末端真实的位置和角度变化量;
步骤2、对人机交互控制模型建模,计算人机交互控制器输出的控制量υh和交互力F:
建立人机交互控制器模型为:为控制输入;
交互力F=KτTv -1vp,其中Kτ为力反馈系数;
手控器基座坐标系下的三维空间位置和变化速度:
eh=[vhx vhz vhz ωhx ωhy ωhz]T=[vh ωh]T
给定速度从手控器基座坐标系转换到机器人基座坐标系的变换矩阵Tv;
角速度从手控器基座坐标系转换到机器人基座坐标系的变换矩阵Tω;
步骤3、利用模糊控制方法,得到控制输入的权重分配:
采用线性加权和将两个控制量进行合成,设视觉控制的权重设置为Kα,合成的控制量为:
υ=Kαυp+(1-Kα)υh
其中Kα和上一步骤中的Kτ使用模糊控制器进行求解
S1=(Δp×Δθ)→Kα
n个特征点的像素特征偏量的归一化参数Δp和控制量速度矢量夹角的归一化参数Δθ,按照如下公式进行计算
S2=(Δp×Δθ)→Kτ
则根据模糊规则,由一次输入计算量的模糊化Δp*和Δθ*,分别计算出:
将输出进行反模糊,得到满足需求的控制权重中Kα和Kτ;
步骤4:以步骤3合成加权的笛卡尔空间控制量,作为机器人输入的期望末端笛卡尔空间位姿变化量进行关节伺服跟踪,控制机器人末端位置和姿态产生变化,使得图像伺服系统能够辅助人的控制操作和对目标物体观察;
关节伺服控制量
Jr为机器人笛卡尔空间位置速度变化和关节空间角度变化间的雅各比矩阵。
2.根据权利要求1所述基于权重分配的机器人视觉伺服与人机交互混合操控方法,其特征在于:所述S1如下表所示:
。
3.根据权利要求1所述基于权重分配的机器人视觉伺服与人机交互混合操控方法,其特征在于:所述S2如下表所示:
。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110781432.0A CN113601498B (zh) | 2021-07-11 | 2021-07-11 | 基于权重分配的机器人视觉伺服与人机交互混合操控方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110781432.0A CN113601498B (zh) | 2021-07-11 | 2021-07-11 | 基于权重分配的机器人视觉伺服与人机交互混合操控方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113601498A CN113601498A (zh) | 2021-11-05 |
CN113601498B true CN113601498B (zh) | 2024-02-02 |
Family
ID=78337417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110781432.0A Active CN113601498B (zh) | 2021-07-11 | 2021-07-11 | 基于权重分配的机器人视觉伺服与人机交互混合操控方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113601498B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011083374A1 (en) * | 2010-01-08 | 2011-07-14 | Koninklijke Philips Electronics N.V. | Uncalibrated visual servoing using real-time velocity optimization |
CN111203880A (zh) * | 2020-01-16 | 2020-05-29 | 上海交通大学 | 基于数据驱动的图像视觉伺服控制系统及方法 |
CN111360827A (zh) * | 2020-03-06 | 2020-07-03 | 哈尔滨工业大学 | 一种视觉伺服切换控制方法及系统 |
-
2021
- 2021-07-11 CN CN202110781432.0A patent/CN113601498B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011083374A1 (en) * | 2010-01-08 | 2011-07-14 | Koninklijke Philips Electronics N.V. | Uncalibrated visual servoing using real-time velocity optimization |
CN111203880A (zh) * | 2020-01-16 | 2020-05-29 | 上海交通大学 | 基于数据驱动的图像视觉伺服控制系统及方法 |
CN111360827A (zh) * | 2020-03-06 | 2020-07-03 | 哈尔滨工业大学 | 一种视觉伺服切换控制方法及系统 |
Non-Patent Citations (2)
Title |
---|
宋健 ; .基于图像的采摘机器人模糊视觉伺服系统研究.机床与液压.2010,(第10期),全文. * |
赵喜锋 ; 杜向党 ; 巩静静 ; 白龙 ; .基于动态目标的机器人无标定视觉伺服系统仿真.机床与液压.2012,(第11期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN113601498A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Reinforcement learning of manipulation and grasping using dynamical movement primitives for a humanoidlike mobile manipulator | |
CN108241339B (zh) | 仿人机械臂的运动求解和构型控制方法 | |
Yang et al. | Neural-learning-based telerobot control with guaranteed performance | |
Liu et al. | Adaptive visual tracking control for manipulator with actuator fuzzy dead-zone constraint and unmodeled dynamic | |
Chaumette et al. | Visual servo control. I. Basic approaches | |
CN105291138B (zh) | 一种增强虚拟现实浸入感的视觉反馈平台 | |
CN110815189B (zh) | 基于混合现实的机器人快速示教系统及方法 | |
CN113829343B (zh) | 基于环境感知的实时多任务多人人机交互系统 | |
CN106371442B (zh) | 一种基于张量积模型变换的移动机器人控制方法 | |
CN114571469B (zh) | 一种机械臂零空间实时避障控制方法及系统 | |
Li et al. | A hybrid visual servo control method for simultaneously controlling a nonholonomic mobile and a manipulator | |
Li et al. | Neural learning and kalman filtering enhanced teaching by demonstration for a baxter robot | |
Luo et al. | Repulsive reaction vector generator for whole-arm collision avoidance of 7-DoF redundant robot manipulator | |
Du et al. | Natural human–robot interface using adaptive tracking system with the unscented Kalman filter | |
CN106965187B (zh) | 一种仿生手抓取物体时生成反馈力向量的方法 | |
CN110794969A (zh) | 面向非接触力反馈的自然人机交互方法 | |
Lim et al. | Online telemanipulation framework on humanoid for both manipulation and imitation | |
CN113601498B (zh) | 基于权重分配的机器人视觉伺服与人机交互混合操控方法 | |
Ang et al. | Multipoint haptic mediator interface for robotic teleoperation | |
Abut et al. | Interface design and performance analysis for a haptic robot | |
KR101205363B1 (ko) | 6자유도 제어기를 이용한 4자유도 로봇 제어방법 및 제어장치 | |
Tongloy et al. | An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping | |
Burlacu et al. | A different approach to solving the PBVS control problem | |
CN109773581B (zh) | 一种机器人应用于再现机加工的方法 | |
Al-Junaid | ANN based robotic arm visual servoing nonlinear system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |