CN107932502A - 一种基于双目立体视觉的scara机器人轨迹规划方法 - Google Patents
一种基于双目立体视觉的scara机器人轨迹规划方法 Download PDFInfo
- Publication number
- CN107932502A CN107932502A CN201711086587.2A CN201711086587A CN107932502A CN 107932502 A CN107932502 A CN 107932502A CN 201711086587 A CN201711086587 A CN 201711086587A CN 107932502 A CN107932502 A CN 107932502A
- Authority
- CN
- China
- Prior art keywords
- msub
- mrow
- mtd
- mtr
- theta
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Abstract
一种基于双目立体视觉的SCARA机器人轨迹规划方法,首先,建立双目立体视觉系统。对双目相机进行标定,然后进行数字图像处理算法的设计,利用标定结果得到机器人工作区域的三维环境;其次,对SCARA机器人进行建模。建模可以得到机器人的末端执行器位置与各个关节角度的转化关系,是轨迹规划的前提;最后,利用五次多项式插值算法,完成对机器人关节空间的轨迹规划,实现了机器人快速和准确的抓取功能,减小机械的冲击和振动;本发明具有提高生产线的自动化水平的特点。
Description
技术领域
本发明涉及双目立体视觉系统技术领域,特别涉及一种基于双目立体视觉的SCARA机器人轨迹规划方法。
背景技术
工业机器人是机电一体化高度集成的产物,作为《中国制造2025》重点发展的十大领域之一,是工业自动化水平和工业4.0的重要标志。工业机器人具有重复精度高、可靠性好、适用性强等优点,广泛应用于汽车、机械、电子、物流等行业,已被证明是当前最高效的生产工具,需求量不断攀升。自上世纪60年代初以来,工业机器人经历了三个阶段的发展。第一代是示教再现型工业机器人,只能将操作者告诉它的轨迹、顺序、要求等把知识记忆下来,然后根据再现指令读取这些知识,完成规定任务。第二代工业机器人是感知型工业机器人,通过给工业机器人安装相关传感器使其有所感知,对外部信息能进行反馈。第三代工业机器人是智能工业机器人,可对周围环境、作业条件等做出判断然后再执行任务。一般由机器视觉作为反馈,通过图像处理信息引导工业机器人执行任务。
机器视觉是工业机器人的重要研究领域,而目前生产线上多数工业机器人都通过预先示教或者离线编程的方式来控制机器人执行预定的指令动作,一旦工作环境或目标对象发生变化,机器人不能及时适应这些变化,从而导致任务失败,而且这种工作方式在很大程度上限制了工业机器人的灵活性和工作效率。
发明内容
为了克服上述现有技术的不足,本发明的目的在于提供一种基于双目立体视觉的SCARA机器人轨迹规划方法,利用双目立体视觉的方法,对障碍物和工件进行自动识别及定位,对传统的机器人固定点抓取方法进行改进,提高机器人对环境的适应能力和生产效率,通过机器人关节空间的五次多项式插值算法完成对机器人轨迹的规划,能够改善定位精度和轨迹跟踪精度,减少冲击和振动,提高生产线的自动化水平。
为了实现上述目的,本发明采用的技术方案是:
一种基于双目立体视觉的SCARA机器人轨迹规划方法,包括以下步骤;
Step1、安装工业相机,获取工作区域图片
将两个相机安装在机器人工作区域的正上方,调整相机的焦距使整个工作区域处在两个相机的视野范围内;
Step 2、进行双目立体相机的标定
通过两个相机对不同方位的标定板进行同时拍照,并将每一次的标定板的位置与标定板的状态都记录下来,然后寻找一个公共的平面,使得两个相机的光轴平行,确定了此平面后,每次采集到的左右相机的图像都要先变换到此平面,然后利用三角定位法根据相同物体在左右相机中的视差来计算物体的高度H1和障碍物的高度H2;
Step 3、障碍物和工件的位置的确定
第一步,对工作区域进行拍照,利用背景相减法,用左相机的图像与背景图像相减得到只含有工件和障碍物的图像;
第二步,利用模板匹配的方法确定工件的位置,在背景相减后的图像中搜索模板图像,即将制作好的模板在当前图像上进行滑动和转动,用相似性度量来算出每块图像与模板图像的相似度,最终当相似值大于0.75时,认为匹配到模板,同时记录下当前坐标为匹配到工件的坐标,图片中去掉工件的图像,就可以确定障碍物的位置;
Step 4、确定轨迹插值点,轨迹的起点为工件坐标位置(X0,Y0),终点为装配位置(Xf,Yf),为了绕开障碍物增加插值点(Xc,Yc),如图1所示;
Step 5、对SCARA机器人进行建模。
计算机器人末端执行器与各个关节角度的转换关系,利用DH方法对机器人进行建模,机器人末端执行器的坐标为(Px,Py,Pz),机器人第一和第二关节转过的角度分别为θ1与θ2,第一关节与第二关节的长度分别为L1和L2,第三个关节上下移动的距离为d3;如图2所示,0T4表示O3坐标系相对于O0坐标系的转换关系可由坐标系的转换公式得到公式1,最后一列与机器人坐标系的对应关系如公式2所示,即已知一点的机器人坐标(Px,Py,Pz)就可得到对应各个关节旋转的角度;
Step 6、对机器人进行关节空间的轨迹规划
采用五次多项式对轨迹进行拟合,其表达式如公式3所示。如公式4所示,计算起点的角度、速度和加速度分别为θ0、和计算终点的角度、速度和加速度分别为θf、和轨迹规划要保证轨迹的初始速度和加速度都为零,终点的速度与加速度也为零,即起点的角度θ0和终点的角度θf都已知,即可解方程得到关节的运动曲线方程如公式5所示,以此类推,其他关节运动的轨迹也可得到,这样就完成了机器人的轨迹规划,保证了机器人各个关节运动的速度和加速度都是连续可导的;
本发明的有益效果:
本发明可以实现机器人在线的轨迹规划,从而实现机器人的自动装配功能。与传统的固定点抓取系统相比,机器人对环境的适应性大大提高,生产效率极大的提高。若将本发明应用于工业现场的装配领域,大大提高生产线的效率,为基于机器人的工业自动装配提出新的解决方案。
附图说明
图1为本发明插值点规划图。
图2为本发明SCARA机器人关节坐标系示意图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
一种基于双目立体视觉的SCARA机器人轨迹规划方法,包括以下步骤;
Step1、安装工业相机,获取工作区域图片
将两个相机安装在机器人工作区域的正上方,调整相机的焦距使整个工作区域处在两个相机的视野范围内;
Step 2、进行双目立体相机的标定
通过两个相机对不同方位的标定板进行同时拍照,并将每一次的标定板的位置与标定板的状态都记录下来,然后寻找一个公共的平面,使得两个相机的光轴平行,确定了此平面后,每次采集到的左右相机的图像都要先变换到此平面,然后利用三角定位法根据相同物体在左右相机中的视差来计算物体的高度H1和障碍物的高度H2;
Step 3、障碍物和工件的位置的确定
第一步,对工作区域进行拍照,利用背景相减法,用左相机的图像与背景图像相减得到只含有工件和障碍物的图像;
第二步,利用模板匹配的方法确定工件的位置,在背景相减后的图像中搜索模板图像,即将制作好的模板在当前图像上进行滑动和转动,用相似性度量来算出每块图像与模板图像的相似度,最终当相似值大于0.75时,认为匹配到模板,同时记录下当前坐标为匹配到工件的坐标,图片中去掉工件的图像,就可以确定障碍物的位置;
Step 4、确定轨迹插值点,轨迹的起点为工件坐标位置(X0,Y0),终点为装配位置(Xf,Yf),为了绕开障碍物增加插值点(Xc,Yc),如图1所示;
Step 5、对SCARA机器人进行建模。
计算机器人末端执行器与各个关节角度的转换关系,利用DH方法对机器人进行建模,机器人末端执行器的坐标为(Px,Py,Pz),机器人第一和第二关节转过的角度分别为θ1与θ2,第一关节与第二关节的长度分别为L1和L2,第三个关节上下移动的距离为d3;如图2所示,0T4表示O3坐标系相对于O0坐标系的转换关系可由坐标系的转换公式得到公式1,最后一列与机器人坐标系的对应关系如公式2所示,即已知一点的机器人坐标(Px,Py,Pz)就可得到对应各个关节旋转的角度;
Step 6、对机器人进行关节空间的轨迹规划
采用五次多项式对轨迹进行拟合,其表达式如公式3所示。如公式4所示,计算起点的角度、速度和加速度分别为θ0、和计算终点的角度、速度和加速度分别为θf、和轨迹规划要保证轨迹的初始速度和加速度都为零,终点的速度与加速度也为零,即起点的角度θ0和终点的角度θf都已知,即可解方程得到关节的运动曲线方程如公式5所示,以此类推,其他关节运动的轨迹也可得到,这样就完成了机器人的轨迹规划,保证了机器人各个关节运动的速度和加速度都是连续可导的;
本发明的工作原理为:
首先,建立双目立体视觉系统。对双目相机进行标定,然后进行数字图像处理算法的设计,利用标定结果得到机器人工作区域的三维环境。
其次,对SCARA机器人进行建模。建模可以得到机器人的末端执行器位置与各个关节角度的转化关系,是轨迹规划的前提。
最后,利用五次多项式插值算法,完成对机器人关节空间的轨迹规划,实现了机器人快速和准确的抓取功能,减小机械的冲击和振动。
Claims (1)
1.一种基于双目立体视觉的SCARA机器人轨迹规划方法,其特征在于,包括以下步骤;
Step1、安装工业相机,获取工作区域图片
将两个相机安装在机器人工作区域的正上方,调整相机的焦距使整个工作区域处在两个相机的视野范围内;
Step 2、进行双目立体相机的标定
通过两个相机对不同方位的标定板进行同时拍照,并将每一次的标定板的位置与标定板的状态都记录下来,然后寻找一个公共的平面,使得两个相机的光轴平行,确定了此平面后,每次采集到的左右相机的图像都要先变换到此平面,然后利用三角定位法根据相同物体在左右相机中的视差来计算物体的高度H1和障碍物的高度H2;
Step 3、障碍物和工件的位置的确定
第一步,对工作区域进行拍照,利用背景相减法,用左相机的图像与背景图像相减得到只含有工件和障碍物的图像;
第二步,利用模板匹配的方法确定工件的位置,在背景相减后的图像中搜索模板图像,即将制作好的模板在当前图像上进行滑动和转动,用相似性度量来算出每块图像与模板图像的相似度,最终当相似值大于0.75时,认为匹配到模板,同时记录下当前坐标为匹配到工件的坐标,图片中去掉工件的图像,就可以确定障碍物的位置;
Step 4、确定轨迹插值点,轨迹的起点为工件坐标位置(X0,Y0),终点为装配位置(Xf,Yf),为了绕开障碍物增加插值点(Xc,Yc);
Step 5、对SCARA机器人进行建模
计算机器人末端执行器与各个关节角度的转换关系,利用DH方法对机器人进行建模,机器人末端执行器的坐标为(Px,Py,Pz),机器人第一和第二关节转过的角度分别为θ1与θ2,第一关节与第二关节的长度分别为L1和L2,第三个关节上下移动的距离为d3;0T4表示O3坐标系相对于O0坐标系的转换关系可由坐标系的转换公式得到公式1,最后一列与机器人坐标系的对应关系如公式2所示,即已知一点的机器人坐标(Px,Py,Pz)就可得到对应各个关节旋转的角度;
<mrow>
<msub>
<mmultiscripts>
<mi>T</mi>
<mn>0</mn>
</mmultiscripts>
<mn>4</mn>
</msub>
<mo>=</mo>
<msub>
<mmultiscripts>
<mi>T</mi>
<mn>0</mn>
</mmultiscripts>
<mn>1</mn>
</msub>
<msub>
<mmultiscripts>
<mi>T</mi>
<mn>1</mn>
</mmultiscripts>
<mn>2</mn>
</msub>
<msub>
<mmultiscripts>
<mi>T</mi>
<mn>2</mn>
</mmultiscripts>
<mn>3</mn>
</msub>
<msub>
<mmultiscripts>
<mi>T</mi>
<mn>3</mn>
</mmultiscripts>
<mn>4</mn>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>C</mi>
<mrow>
<mn>12</mn>
<mo>-</mo>
<mn>4</mn>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>S</mi>
<mrow>
<mn>12</mn>
<mo>-</mo>
<mn>4</mn>
</mrow>
</msub>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>L</mi>
<mn>2</mn>
</msub>
<msub>
<mi>C</mi>
<mn>12</mn>
</msub>
<mo>+</mo>
<msub>
<mi>L</mi>
<mn>1</mn>
</msub>
<msub>
<mi>C</mi>
<mn>1</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>S</mi>
<mrow>
<mn>12</mn>
<mo>-</mo>
<mn>4</mn>
</mrow>
</msub>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>C</mi>
<mrow>
<mn>12</mn>
<mo>-</mo>
<mn>4</mn>
</mrow>
</msub>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>L</mi>
<mn>2</mn>
</msub>
<msub>
<mi>S</mi>
<mn>12</mn>
</msub>
<mo>+</mo>
<msub>
<mi>L</mi>
<mn>1</mn>
</msub>
<msub>
<mi>S</mi>
<mn>1</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>d</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>P</mi>
<mi>x</mi>
</msub>
<mo>=</mo>
<msub>
<mi>L</mi>
<mn>2</mn>
</msub>
<mi>C</mi>
<mi>o</mi>
<mi>s</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mn>1</mn>
</msub>
<mo>+</mo>
<msub>
<mi>&theta;</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>L</mi>
<mn>1</mn>
</msub>
<msub>
<mi>Cos&theta;</mi>
<mn>1</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>P</mi>
<mi>y</mi>
</msub>
<mo>=</mo>
<msub>
<mi>L</mi>
<mn>2</mn>
</msub>
<mi>S</mi>
<mi>i</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mn>1</mn>
</msub>
<mo>+</mo>
<msub>
<mi>&theta;</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>L</mi>
<mn>1</mn>
</msub>
<msub>
<mi>Sin&theta;</mi>
<mn>1</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>P</mi>
<mi>z</mi>
</msub>
<mo>=</mo>
<mo>-</mo>
<msub>
<mi>d</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
Step 6、对机器人进行关节空间的轨迹规划
采用五次多项式对轨迹进行拟合,其表达式如公式3所示,如公式4所示,计算起点的角度、速度和加速度分别为θ0、和计算终点的角度、速度和加速度分别为θf、和轨迹规划要保证轨迹的初始速度和加速度都为零,终点的速度与加速度也为零,即起点的角度θ0和终点的角度θf都已知,即可解方程得到关节的运动曲线方程如公式5所示,以此类推,其他关节运动的轨迹也可得到,这样就完成了机器人的轨迹规划,保证了机器人各个关节运动的速度和加速度都是连续可导的;
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&theta;</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msub>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<mi>t</mi>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<msup>
<mi>t</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<msup>
<mi>t</mi>
<mn>3</mn>
</msup>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>4</mn>
</msub>
<msup>
<mi>t</mi>
<mn>4</mn>
</msup>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>5</mn>
</msub>
<msup>
<mi>t</mi>
<mn>5</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msub>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<mo>+</mo>
<mn>2</mn>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<mi>t</mi>
<mo>+</mo>
<mn>3</mn>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<msup>
<mi>t</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<mn>4</mn>
<msub>
<mi>a</mi>
<mn>4</mn>
</msub>
<msup>
<mi>t</mi>
<mn>3</mn>
</msup>
<mo>+</mo>
<mn>5</mn>
<msub>
<mi>a</mi>
<mn>5</mn>
</msub>
<msup>
<mi>t</mi>
<mn>4</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msub>
<mo>=</mo>
<mn>2</mn>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<mo>+</mo>
<mn>6</mn>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<mi>t</mi>
<mo>+</mo>
<mn>12</mn>
<msub>
<mi>a</mi>
<mn>4</mn>
</msub>
<msup>
<mi>t</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<mn>20</mn>
<msub>
<mi>a</mi>
<mn>5</mn>
</msub>
<msup>
<mi>t</mi>
<mn>3</mn>
</msup>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<msub>
<mi>t</mi>
<mi>f</mi>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>3</mn>
</msubsup>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>4</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>4</mn>
</msubsup>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>5</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>5</mn>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;</mo>
</mover>
<mn>0</mn>
</msub>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;</mo>
</mover>
<mi>f</mi>
</msub>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<mo>+</mo>
<mn>2</mn>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<msub>
<mi>t</mi>
<mi>f</mi>
</msub>
<mo>+</mo>
<mn>3</mn>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mn>4</mn>
<msub>
<mi>a</mi>
<mn>4</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>3</mn>
</msubsup>
<mo>+</mo>
<mn>5</mn>
<msub>
<mi>a</mi>
<mn>5</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>4</mn>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mn>0</mn>
</msub>
<mo>=</mo>
<mn>2</mn>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mi>f</mi>
</msub>
<mo>=</mo>
<mn>2</mn>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<mo>+</mo>
<mn>6</mn>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<msub>
<mi>t</mi>
<mi>f</mi>
</msub>
<mo>+</mo>
<mn>12</mn>
<msub>
<mi>a</mi>
<mn>4</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mn>20</mn>
<msub>
<mi>a</mi>
<mn>5</mn>
</msub>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>3</mn>
</msubsup>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>&theta;</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>+</mo>
<mfrac>
<mrow>
<mn>10</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>3</mn>
</msubsup>
</mfrac>
<msup>
<mi>t</mi>
<mn>3</mn>
</msup>
<mo>+</mo>
<mfrac>
<mrow>
<mn>15</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>4</mn>
</msubsup>
</mfrac>
<msup>
<mi>t</mi>
<mn>4</mn>
</msup>
<mo>+</mo>
<mfrac>
<mrow>
<mn>6</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>5</mn>
</msubsup>
</mfrac>
<msup>
<mi>t</mi>
<mn>5</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mn>30</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>3</mn>
</msubsup>
</mfrac>
<msup>
<mi>t</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<mfrac>
<mrow>
<mn>60</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>4</mn>
</msubsup>
</mfrac>
<msup>
<mi>t</mi>
<mn>3</mn>
</msup>
<mo>+</mo>
<mfrac>
<mrow>
<mn>30</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>5</mn>
</msubsup>
</mfrac>
<msup>
<mi>t</mi>
<mn>4</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>&theta;</mi>
<mo>&CenterDot;&CenterDot;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mn>60</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>3</mn>
</msubsup>
</mfrac>
<mi>t</mi>
<mo>+</mo>
<mfrac>
<mrow>
<mn>180</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>4</mn>
</msubsup>
</mfrac>
<msup>
<mi>t</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<mfrac>
<mrow>
<mn>120</mn>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>f</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>t</mi>
<mi>f</mi>
<mn>5</mn>
</msubsup>
</mfrac>
<msup>
<mi>t</mi>
<mn>3</mn>
</msup>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711086587.2A CN107932502A (zh) | 2017-11-07 | 2017-11-07 | 一种基于双目立体视觉的scara机器人轨迹规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711086587.2A CN107932502A (zh) | 2017-11-07 | 2017-11-07 | 一种基于双目立体视觉的scara机器人轨迹规划方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107932502A true CN107932502A (zh) | 2018-04-20 |
Family
ID=61933440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711086587.2A Pending CN107932502A (zh) | 2017-11-07 | 2017-11-07 | 一种基于双目立体视觉的scara机器人轨迹规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107932502A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109738460A (zh) * | 2019-01-28 | 2019-05-10 | 西京学院 | 一种用于土木工程结构表观缺陷的评定检测系统 |
CN109910013A (zh) * | 2019-04-04 | 2019-06-21 | 江南大学 | 一种scara机器人加加速度连续有界的ptp轨迹规划方法 |
CN114642588A (zh) * | 2022-03-18 | 2022-06-21 | 北京鑫大地机械工程有限公司 | 一种康复机器人的控制方法、装置及系统 |
CN115070779A (zh) * | 2022-08-22 | 2022-09-20 | 菲特(天津)检测技术有限公司 | 机器人抓取控制方法、系统及电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08249068A (ja) * | 1995-03-14 | 1996-09-27 | Yaskawa Electric Corp | オブザーバ制御演算装置 |
US20140064601A1 (en) * | 2012-09-05 | 2014-03-06 | Qualcomm Incorporated | Robot control information |
CN104267598A (zh) * | 2014-09-19 | 2015-01-07 | 江南大学 | 一种Delta机器人运动机构的模糊PI控制器设计方法 |
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN104908030A (zh) * | 2015-06-23 | 2015-09-16 | 江南大学 | 基于粒度模型的scara机器人精准定位方法 |
CN105014667A (zh) * | 2015-08-06 | 2015-11-04 | 浙江大学 | 一种基于像素空间优化的相机与机器人相对位姿标定方法 |
CN105527980A (zh) * | 2015-12-01 | 2016-04-27 | 上海宇航系统工程研究所 | 双目视觉系统目标跟踪控制方法 |
CN106041937A (zh) * | 2016-08-16 | 2016-10-26 | 河南埃尔森智能科技有限公司 | 一种基于双目立体视觉的机械手抓取控制系统的控制方法 |
CN106651949A (zh) * | 2016-10-17 | 2017-05-10 | 中国人民解放军63920部队 | 一种基于仿真的空间机械臂抓捕目标遥操作方法及系统 |
CN107263468A (zh) * | 2017-05-23 | 2017-10-20 | 陕西科技大学 | 一种利用数字图像处理技术的scara机器人装配方法 |
-
2017
- 2017-11-07 CN CN201711086587.2A patent/CN107932502A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08249068A (ja) * | 1995-03-14 | 1996-09-27 | Yaskawa Electric Corp | オブザーバ制御演算装置 |
US20140064601A1 (en) * | 2012-09-05 | 2014-03-06 | Qualcomm Incorporated | Robot control information |
CN104267598A (zh) * | 2014-09-19 | 2015-01-07 | 江南大学 | 一种Delta机器人运动机构的模糊PI控制器设计方法 |
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN104908030A (zh) * | 2015-06-23 | 2015-09-16 | 江南大学 | 基于粒度模型的scara机器人精准定位方法 |
CN105014667A (zh) * | 2015-08-06 | 2015-11-04 | 浙江大学 | 一种基于像素空间优化的相机与机器人相对位姿标定方法 |
CN105527980A (zh) * | 2015-12-01 | 2016-04-27 | 上海宇航系统工程研究所 | 双目视觉系统目标跟踪控制方法 |
CN106041937A (zh) * | 2016-08-16 | 2016-10-26 | 河南埃尔森智能科技有限公司 | 一种基于双目立体视觉的机械手抓取控制系统的控制方法 |
CN106651949A (zh) * | 2016-10-17 | 2017-05-10 | 中国人民解放军63920部队 | 一种基于仿真的空间机械臂抓捕目标遥操作方法及系统 |
CN107263468A (zh) * | 2017-05-23 | 2017-10-20 | 陕西科技大学 | 一种利用数字图像处理技术的scara机器人装配方法 |
Non-Patent Citations (2)
Title |
---|
李瑞峰: "《工业机器人设计与应用》", 31 January 2017 * |
沈程慧: "SCARA机器人视觉伺服精确定位技术的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109738460A (zh) * | 2019-01-28 | 2019-05-10 | 西京学院 | 一种用于土木工程结构表观缺陷的评定检测系统 |
CN109910013A (zh) * | 2019-04-04 | 2019-06-21 | 江南大学 | 一种scara机器人加加速度连续有界的ptp轨迹规划方法 |
CN114642588A (zh) * | 2022-03-18 | 2022-06-21 | 北京鑫大地机械工程有限公司 | 一种康复机器人的控制方法、装置及系统 |
CN114642588B (zh) * | 2022-03-18 | 2024-02-27 | 北京鑫大地机械工程有限公司 | 一种康复机器人的控制方法、装置及系统 |
CN115070779A (zh) * | 2022-08-22 | 2022-09-20 | 菲特(天津)检测技术有限公司 | 机器人抓取控制方法、系统及电子设备 |
CN115070779B (zh) * | 2022-08-22 | 2023-03-24 | 菲特(天津)检测技术有限公司 | 机器人抓取控制方法、系统及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107932502A (zh) | 一种基于双目立体视觉的scara机器人轨迹规划方法 | |
EP1592536B1 (en) | A method and a system for programming an industrial robot to move relative to defined positions on an object, including generation of a surface scanning program | |
Kragic et al. | Survey on visual servoing for manipulation | |
Horaud et al. | Visually guided object grasping | |
CN108607819A (zh) | 物料分拣系统及方法 | |
CN107618030A (zh) | 基于视觉的机器人动态跟踪抓取方法及系统 | |
CN105184019A (zh) | 机器人抓取方法及系统 | |
CN104408408A (zh) | 基于曲线三维重建的机器人喷涂轨迹提取方法及提取装置 | |
CN105643062B (zh) | 基于旋转电弧的复杂曲面形状识别及焊枪位姿控制方法 | |
CN114571153B (zh) | 一种基于3d点云的焊缝识别与机器人焊缝跟踪方法 | |
CN104570938A (zh) | 一种插装生产中的双臂机器人系统及其智能控制方法 | |
CN109927031A (zh) | 一种结合关节和笛卡尔空间六轴工业机器人路径规划方法 | |
CN104808490A (zh) | 一种面向模具保护的基于回声状态网络估计图像雅克比矩阵的无标定视觉伺服控制方法 | |
CN112658643B (zh) | 接插件装配方法 | |
WO2018043524A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
CN104298244A (zh) | 一种工业机器人三维实时高精度定位装置及方法 | |
US11951575B2 (en) | Automatic welding system and method for large structural parts based on hybrid robots and 3D vision | |
CN110992416A (zh) | 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 | |
Han et al. | Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning | |
CN110039520B (zh) | 一种基于图像对比的示教、加工系统 | |
CN204288242U (zh) | 基于曲线三维重建的机器人喷涂轨迹提取装置 | |
CN105929834A (zh) | 基于辅助定位装置的视觉导引车定位方法及视觉导引车 | |
CN107443369A (zh) | 一种基于视觉测量模型逆辨识的机器臂无标定伺服控制方法 | |
CN113618367B (zh) | 基于七自由度并联双模块机器人的多视觉空间装配系统 | |
CN111300490A (zh) | 一种基于深度视觉传感器的机器人轨迹生成系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180420 |
|
RJ01 | Rejection of invention patent application after publication |