CN106054874A - 视觉定位标定方法、装置及机器人 - Google Patents
视觉定位标定方法、装置及机器人 Download PDFInfo
- Publication number
- CN106054874A CN106054874A CN201610334827.5A CN201610334827A CN106054874A CN 106054874 A CN106054874 A CN 106054874A CN 201610334827 A CN201610334827 A CN 201610334827A CN 106054874 A CN106054874 A CN 106054874A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- robot
- calibration position
- calibration
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000033001 locomotion Effects 0.000 claims abstract description 37
- 238000006243 chemical reaction Methods 0.000 claims abstract description 4
- 230000004807 localization Effects 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000033228 biological regulation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种视觉定位标定方法、装置及机器人,该方法包括:选择第一和第二标定位置,其中,第一和第二标定位置的、对应机器人坐标系的选定坐标轴的位置坐标相同;控制机器人的运动输出端从第一标定位置运动至第二标定位置;确定第一和第二标定位置在视觉坐标系下的位置坐标;根据第一和第二标定位置在视觉坐标系下的相对位置关系,计算选定坐标轴与视觉坐标系的对应坐标轴之间的夹角;根据第一和第二标定位置分别在两个坐标系下的位置坐标,计算视觉坐标系下的像素距离与对应至机器人坐标系下的实际距离之间的比值;根据夹角和比值,得到两个坐标系之间的坐标转换关系。本发明可以简化操作控制,实现快速标定。
Description
技术领域
本发明涉及机器视觉定位标定技术领域,更具体地,本发明涉及一种视觉定位标定方法、一种视觉定位标定装置、及机器人。
背景技术
随着工业自动化的发展,机器视觉凭借其高精度、高可靠性、易实现自动化等优点已在自动化领域得到了越来越广泛的应用。现在,随着机器人技术的迅速发展,机器视觉和机器人的结合已成为现在工业自动化的亮点和趋势,他们的结合也是机器人代替人工的关键。而在机器视觉和机器人的结合中最主要的应用是机器视觉对机器人抓拾零件的引导。然而在此过程中,最关键的环节即为将相机定位零件的视觉坐标系下的坐标转换为机器人坐标系下的位置信息,这就需要进行机器视觉定位标定。
目前,在进行机器视觉坐标标定时基本采用多点标定的方法,即获得多个标定点分别在视觉坐标系和机器人坐标系下的位置坐标,并根据两个坐标系下的位置坐标之间的映射关系得到两个坐标系之间的转换矩阵。该种方法存在操作控制及计算复杂的问题,无法实现快速标定。
发明内容
本发明的一个目的是提供一种能够通过简单的操作控制实现机器视觉定位标定的新的技术方案。
根据本发明的第一方面,提供了一种视觉定位标定方法,其包括:
选择第一标定位置和第二标定位置,其中,所述选择使得第一标定位置和第二标定位置的、对应机器人坐标系的选定坐标轴的位置坐标相同;
控制机器人的一运动输出端从所述第一标定位置运动至所述第二标定位置,进行图像摄取;
根据摄取的图像,确定所述第一标定位置和所述第二标定位置在视觉坐标系下的位置坐标;
根据所述第一标定位置和所述第二标定位置在视觉坐标系下的相对位置关系,计算所述机器人坐标系的选定坐标轴与视觉坐标系的对应坐标轴之间的夹角;
根据所述第一标定位置分别在机器人坐标系和视觉坐标系下的位置坐标、及所述第二标定位置分别在机器人坐标系和视觉坐标系下的位置坐标,计算视觉坐标系下的像素距离与对应至机器人坐标系下的实际距离之间的比值;
根据所述夹角和所述比值,计算得到所述视觉坐标系与所述机器人坐标系之间的坐标转换关系。
可选的是,所述运动输出端为所述机器人的输出运动的末端。
可选的是,所述选择第一标定位置和第二目标位置包括:
在机器人坐标系下随机选择一位置坐标作为所述第一标定位置;
确定第二目标位置的对应机器人坐标系的选定坐标轴的位置坐标与所述第一目标位置的对应机器人坐标系的选定坐标轴的位置坐标相同;
在机器人坐标系下随机确定第二目标位置的对应机器人坐标系的另一坐标轴的位置坐标。
可选的是,所述根据所述第一标定位置和所述第二标定位置在视觉坐标系下的相对位置关系,计算所述机器人坐标系的选定坐标轴与视觉坐标系的对应坐标轴之间的夹角包括:
计算所述第一标定位置与所述第二标定位置在视觉坐标系下的一位置坐标的差值作为第一差值;
计算所述第一标定位置与所述第二标定位置在视觉坐标系下的另一位置坐标的差值作为第二差值;
根据所述第一差值与所述第二差值的比值,计算所述夹角。
可选的是,所述控制机器人的一运动输出端从所述第一标定位置运动至所述第二标定位置具体为:
控制机器人的一运动输出端沿平行于机器人坐标系下的选定坐标轴的方向,从所述第一标定位置运动至所述第二标定位置。
根据本发明的第二方面,提供了一种视觉定位标定装置,其包括:
标定位置选择模块,用于选择第一标定位置和第二标定位置,所述选择使得第一标定位置和第二标定位置的、对应机器人坐标系的选定坐标轴的位置坐标相同;
运动控制模块,用于控制机器人的运动输出端从所述第一标定位置运动至所述第二标定位置,进行图像摄取;
视觉坐标确定模块,用于根据摄取的图像,确定所述第一标定位置和所述第二标定位置在视觉坐标系下的位置坐标;
夹角计算模块,用于根据所述第一标定位置和所述第二标定位置在视觉坐标系下的相对位置关系,计算所述机器人坐标系的选定坐标轴与视觉坐标系的对应坐标轴之间的夹角;
距离映射模块,用于根据所述第一标定位置分别在机器人坐标系和视觉坐标系下的位置坐标、及所述第二标定位置分别在机器人坐标系和视觉坐标系下的位置坐标,计算视觉坐标系下的像素距离与对应至机器人坐标系下的实际距离之间的比值;以及,
坐标转换模块,用于根据所述夹角和所述比值,计算得到所述视觉坐标系与所述机器人坐标系之间的坐标转换关系。
可选的是,所述运动输出端为所述机器人的输出运动的末端。
可选的是,所述夹角计算模块包括:
第一差值计算单元,用于计算所述第一标定位置与所述第二标定位置在视觉坐标系下的一位置坐标的差值作为第一差值;
第二差值计算单元,用于计算所述第一标定位置与所述第二标定位置在视觉坐标系下的另一位置坐标的差值作为第二差值;以及,
夹角计算单元,用于根据所述第一差值与所述第二差值的比值,计算所述夹角。
根据本发明的第三方面,提供了一种机器人,包括存储器和处理器,所述存储器用于存储指令,所述指令用于控制所述处理器进行操作以执行根据本发明第一方面所述的方法。
根据本发明的第四方面,提供了一种机器人,其控制系统采用根据本发明第一方面所述的方法确定的坐标转换关系进行视觉坐标系下的位置坐标至机器人坐标系的转换,并根据转换结果进行机器人的运动输出端的控制。
本发明的发明人发现,现有的用于确定机器人坐标系和视觉坐标系之间转换关系的标定方法存在操作控制繁琐及计算复杂的问题,进而无法实现快速标定。因此,本发明所要实现的技术任务或者所要解决的技术问题是本领域技术人员从未想到的或者没有预期到的,故本发明是一种新的技术方案。
本发明的一个有益效果在于,本发明视觉定位标定方法、装置及机器人只需控制机器人的一运动输出端从选定的第一标定位置运动至第二标定位置即可确定机器人坐标系与视觉坐标系之间的坐标转换关系,因此,本发明方法、装置及机器人简化了进行标定的操作控制,并因此减少了标定计算量,提高了标定效率。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1为根据本发明视觉定位标定方法的一种实施方式的流程图;
图2为对应图1所示方法的机器人坐标系和视觉坐标系;
图3为根据本发明视觉定位标定装置的一种实施结构的方框原理图;
图4为根据本发明机器人的一种实施结构的方框原理图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明为了解决现有标定方法存在的操作控制繁琐和计算复杂的问题,提供了一种在进行视觉定位标定时有利于简化操作控制的新的技术方案。
图1为根据本发明视觉定位标定方法的一种实施方式的流程图。
图2示出了对应图1所示方法的机器人坐标系和视觉坐标系,其中,图2中的实线代表机器人坐标系(X,Y),点画线代表视觉坐标系(X′,Y′)。
根据图1和图2所示,本发明方法包括如下步骤:
步骤S101,选择第一标定位置A和第二标定位置B,其中,该选择要求使得第一标定位置A和第二标定位置B的、对应机器人坐标系(X,Y)的选定坐标轴的位置坐标相同。
根据图2所示,第一标定位置A在机器人坐标系(X,Y)下的位置坐标为A(XA,YA),在视觉坐标系(X′,Y′)下的位置坐标为A(X′A,Y′A);第二标定位置B在机器人坐标系(X,Y)下的位置坐标为B(XB,YB),在视觉坐标系(X′,Y′)下的位置坐标为B(X′B,YB′)。
在图2所示的实施例中,上述选定坐标轴为机器人坐标系(X,Y)的X轴,即第一标定位置A的位置坐标XA与第二标定位置B的位置坐标XB相同,以下以选定坐标轴为X轴为例说明本发明方法的实施,本领域技术人员应当理解的是,该选定坐标轴也可以是机器人坐标系的Y轴。
该步骤中选择第一标定位置A和第二标定位置B可进一步包括如下步骤:
步骤S1011,在机器人坐标系(X,Y)下随机选择一位置坐标(XA,YA)作为第一标定位置A。
步骤S1021,确定第二目标位置B的对应机器人坐标系(X,Y)的选定坐标轴,即X轴,的位置坐标XB与第一目标位置A的对应机器人坐标系(X,Y)的X轴的位置坐标XA相同。
步骤S1023,在机器人坐标系(X,Y)下随机确定第二目标位置B的对应机器人坐标系的另一坐标轴,即Y轴,的位置坐标YB。
在此,也可以设置固定坐标的第一标定位置A和第二标定位置B,用于进行视觉定位标定。
步骤S102,控制机器人的一运动输出端从第一标定位置A运动至第二标定位置B,进行图像摄取。
为了实施该步骤S102,机器人的视觉系统应处于开启状态。
该运动输出端可以是运动控制程序中用于实现目标动作的任一被控输出端,该被控输出端通常为机器人的各关节位置,也可以是机器人的输出运动的末端。
由于对于工业机器人而言,目标动作通常依靠控制输出运动的末端到达对应的位置坐标实现,因此,在本发明的一个具体实施例中,可将输出运动的末端选定为是进行视觉定位标定的运动输出端。
在该步骤中,为了进一步简化控制逻辑,该控制机器人的一运动输出端从第一标定位置A运动至第二标定位置B可具体为控制机器人的一运动输出端沿机器人坐标系的选定坐标轴的方向,即X轴的方向,从第一标定位置A运动至第二坐标位置B,运动轨迹对应图2中的从第一标定位置A至第二标定位置B的直线段。
步骤S103,根据摄取的图像,确定第一标定位置A和第二标定位置B在视觉坐标系(X′,Y′)下的位置坐标。
该步骤可进一步包括:
步骤S1031,获取机器人的运动输出端位于第一标定位置A时的第一图像、及机器人的运动输出端位于第二标定位置B时的第二图像。
步骤S1032,通过识别运动输出端在第一图像上的位置确定第一标定位置A在视觉坐标系(X′,Y′)下的位置坐标A(X′A,Y′A)。
步骤S1033,通过识别运动输出端在第二图像上的位置确定第二标定位置B在视觉坐标系(X′,Y′)下的位置坐标B(X′B,YB′)。
步骤S104,根据第一标定位置A和第二标定位置B在视觉坐标系(X′,Y′)下的相对位置关系,计算机器人坐标系(X,Y)的选定坐标轴,即X轴,与视觉坐标系(X′,Y′)的对应坐标轴,即X′轴,之间的夹角θ。
在此,由于连接第一标定位置A和第二标定位置B之间的直线段平行于机器人坐标系(X,Y)的X轴,因此,上述夹角θ将与该直线段与X′轴之间的夹角相等,这样,便可根据第一标定位置A和第二标定位置B在视觉坐标系(X′,Y′)下的相对位置关系计算得到夹角θ。
上述计算夹角θ可以简单地通过如下步骤实施:
步骤S1041,计算第一标定位置A与第二标定位置B在视觉坐标系(X′,Y′)下的一位置坐标的差值作为第一差值。
步骤S1042,计算第一标定位置A与第二标定位置B在视觉坐标系(X′,Y′)下的另一位置坐标的差值作为第二差值。
步骤S1043,根据第一差值与第二差值的比值,计算夹角θ,具体请参见以下公式(1)。
步骤S105,根据第一标定位置A分别在机器人坐标系(X,Y)和视觉坐标系(X′,Y′)下的位置坐标、及第二标定位置B分别在机器人坐标系(X,Y)和视觉坐标系(X′,Y′)下的位置坐标,计算视觉坐标系(X′,Y′)下的像素距离与对应至机器人坐标系(X,Y)下的实际距离之间的比值λ,具体请见以下公式(2)。
步骤S106,根据夹角θ和比值λ,计算得到视觉坐标系(X′,Y′)与机器人坐标系(X,Y)之间的坐标转换关系。
即对于任一点C,其在视觉坐标系(X′,Y′)下的位置坐标(X′C,YC′)与在机器人坐标系(X,Y)下的位置坐标(XC,YC)之间的坐标转换关系为:
这样,通过根据本发明方法确定的坐标转换关系,即可确定视觉系统摄取的图像上的任意一点在机器人坐标系下的位置坐标,进而能够实现通过机器视觉引导机器人动作,例如抓拾零件,的目的。
图3为根据本发明另一方面的视觉定位标定装置的一种实施结构的方框原理图。
根据图3所示,本发明视觉定位标定装置300包括标定位置选择模块301、运动控制模块302、视觉坐标确定模块303、夹角计算模块304、距离映射模块305和坐标转换模块306。
上述位置选择模块301用于选择第一标定位置A和第二标定位置B,该选择使得第一标定位置A和第二标定位置B的、对应机器人坐标系(X,Y)的选定坐标轴的位置坐标相同。
上述运动控制模块302用于控制机器人的运动输出端从第一标定位置A运动至第二标定位置B,以进行图像摄取。例如具体用于控制机器人的运动输出端沿平行于该选定坐标轴的方向,从第一标定位置A运动至第二标定位置B。该运动输出端例如可以为机器人的输出运动的末端。
上述视觉坐标确定模块303用于根据摄取的图像,确定第一标定位置A和第二标定位置B在视觉坐标系(X′,Y′)下的位置坐标。
上述夹角计算模块304用于根据第一标定位置A和第二标定位置B在视觉坐标系(X′,Y′)下的相对位置关系,计算机器人坐标系(X,Y)的选定坐标轴与视觉坐标系(X′,Y′)的对应坐标轴之间的夹角。
上述距离映射模块305用于根据第一标定位置A分别在机器人坐标系(X,Y)和视觉坐标系(X′,Y′)下的位置坐标、及第二标定位置B分别在机器人坐标系(X,Y)和视觉坐标系(X′,Y′)下的位置坐标,计算视觉坐标系(X′,Y′)下的像素距离与对应至机器人坐标系(X,Y)下的实际距离之间的比值。
上述坐标转换模块306用于根据上述夹角和比值,计算得到视觉坐标系(X′,Y′)与机器人坐标系(X,Y)之间的坐标转换关系。
上述夹角计算模块304可进一步包括第一差值计算单元、第二差值计算单元和夹角计算单元(图中未示出),该第一差值计算单元用于计算第一标定位置与第二标定位置在视觉坐标系下的一位置坐标的差值作为第一差值;该第二差值计算单元用于计算第一标定位置与第二标定位置在视觉坐标系下的另一位置坐标的差值作为第二差值;该夹角计算单元用于根据第一差值与第二差值的比值,计算夹角。
图4为根据本发明第三方面的机器人的一种实施结构的方框原理图。
根据图4所示,该机器人400包括存储器401和处理器402,该存储器401用于存储指令,该指令用于控制处理器402进行操作以执行根据本发明所述的视觉定位标定方法。
除此之外,根据图4所示,该机器人400还包括接口装置403、输入装置404、显示装置405、通信装置406等等。尽管在图4中示出了多个装置,但是,本发明电子设备可以仅涉及其中的部分装置,例如,处理器401、存储器402等。
上述通信装置406例如能够进行有有线或无线通信。
上述接口装置403例如包括USB接口、RS232串口、RS485串口、并行接口等。
上述输入装置404例如可以包括触摸屏、按键等。
上述显示装置405例如是液晶显示屏、触摸显示屏等。
根据本发明的第四方面,提供了一种机器人,其控制系统将采用根据本发明的视觉定位标定方法确定的坐标转换关系进行视觉坐标系下的位置坐标至机器人坐标系的转换,并根据转换结果进行机器人的运动输出端的控制。
上述各实施例主要重点描述与其他实施例的不同之处,但本领域技术人员应当清楚的是,上述各实施例可以根据需要单独使用或者相互结合使用。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分相互参见即可,每个实施例重点说明的都是与其他实施例的不同之处,但本领域技术人员应当清楚的是,上述各实施例可以根据需要单独使用或者相互结合使用。另外,对于装置实施例而言,由于其是与方法实施例相对应,所以描述得比较简单,相关之处参见方法实施例的对应部分的说明即可。以上所描述的系统实施例仅仅是示意性的,其中作为分离部件说明的模块可以是或者也可以不是物理上分开的。
本发明可以是装置、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种视觉定位标定方法,其特征在于,包括:
选择第一标定位置和第二标定位置,其中,所述选择使得第一标定位置和第二标定位置的、对应机器人坐标系的选定坐标轴的位置坐标相同;
控制机器人的一运动输出端从所述第一标定位置运动至所述第二标定位置,进行图像摄取;
根据摄取的图像,确定所述第一标定位置和所述第二标定位置在视觉坐标系下的位置坐标;
根据所述第一标定位置和所述第二标定位置在视觉坐标系下的相对位置关系,计算所述机器人坐标系的选定坐标轴与视觉坐标系的对应坐标轴之间的夹角;
根据所述第一标定位置分别在机器人坐标系和视觉坐标系下的位置坐标、及所述第二标定位置分别在机器人坐标系和视觉坐标系下的位置坐标,计算视觉坐标系下的像素距离与对应至机器人坐标系下的实际距离之间的比值;
根据所述夹角和所述比值,计算得到所述视觉坐标系与所述机器人坐标系之间的坐标转换关系。
2.根据权利要求1所述的方法,其特征在于,所述运动输出端为所述机器人的输出运动的末端。
3.根据权利要求1所述的方法,其特征在于,所述选择第一标定位置和第二目标位置包括:
在机器人坐标系下随机选择一位置坐标作为所述第一标定位置;
确定第二目标位置的对应机器人坐标系的选定坐标轴的位置坐标与所述第一目标位置的对应机器人坐标系的选定坐标轴的位置坐标相同;
在机器人坐标系下随机确定第二目标位置的对应机器人坐标系的另一坐标轴的位置坐标。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第一标定位置和所述第二标定位置在视觉坐标系下的相对位置关系,计算所述机器人坐标系的选定坐标轴与视觉坐标系的对应坐标轴之间的夹角包括:
计算所述第一标定位置与所述第二标定位置在视觉坐标系下的一位置坐标的差值作为第一差值;
计算所述第一标定位置与所述第二标定位置在视觉坐标系下的另一位置坐标的差值作为第二差值;
根据所述第一差值与所述第二差值的比值,计算所述夹角。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述控制机器人的一运动输出端从所述第一标定位置运动至所述第二标定位置具体为:
控制机器人的一运动输出端沿平行于机器人坐标系下的选定坐标轴的方向,从所述第一标定位置运动至所述第二标定位置。
6.一种视觉定位标定装置,其特征在于,包括:
标定位置选择模块,用于选择第一标定位置和第二标定位置,所述选择使得第一标定位置和第二标定位置的、对应机器人坐标系的选定坐标轴的位置坐标相同;
运动控制模块,用于控制机器人的运动输出端从所述第一标定位置运动至所述第二标定位置,进行图像摄取;
视觉坐标确定模块,用于根据摄取的图像,确定所述第一标定位置和所述第二标定位置在视觉坐标系下的位置坐标;
夹角计算模块,用于根据所述第一标定位置和所述第二标定位置在视觉坐标系下的相对位置关系,计算所述机器人坐标系的选定坐标轴与视觉坐标系的对应坐标轴之间的夹角;
距离映射模块,用于根据所述第一标定位置分别在机器人坐标系和视觉坐标系下的位置坐标、及所述第二标定位置分别在机器人坐标系和视觉坐标系下的位置坐标,计算视觉坐标系下的像素距离与对应至机器人坐标系下的实际距离之间的比值;以及,
坐标转换模块,用于根据所述夹角和所述比值,计算得到所述视觉坐标系与所述机器人坐标系之间的坐标转换关系。
7.根据权利要求6所述的装置,其特征在于,所述运动输出端为所述机器人的输出运动的末端。
8.根据权利要求6或7所述的装置,其特征在于,所述夹角计算模块包括:
第一差值计算单元,用于计算所述第一标定位置与所述第二标定位置在视觉坐标系下的一位置坐标的差值作为第一差值;
第二差值计算单元,用于计算所述第一标定位置与所述第二标定位置在视觉坐标系下的另一位置坐标的差值作为第二差值;以及,
夹角计算单元,用于根据所述第一差值与所述第二差值的比值,计算所述夹角。
9.一种机器人,包括存储器和处理器,其特征在于,所述存储器用于存储指令,所述指令用于控制所述处理器进行操作以执行根据权利要求1至5中任一项所述的方法。
10.一种机器人,其特征在于,所述机器人的控制系统采用根据权利要求1至5中任一项所述的方法确定的坐标转换关系进行视觉坐标系下的位置坐标至机器人坐标系的转换,并根据转换结果进行机器人的运动输出端的控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610334827.5A CN106054874B (zh) | 2016-05-19 | 2016-05-19 | 视觉定位标定方法、装置及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610334827.5A CN106054874B (zh) | 2016-05-19 | 2016-05-19 | 视觉定位标定方法、装置及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106054874A true CN106054874A (zh) | 2016-10-26 |
CN106054874B CN106054874B (zh) | 2019-04-26 |
Family
ID=57177207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610334827.5A Active CN106054874B (zh) | 2016-05-19 | 2016-05-19 | 视觉定位标定方法、装置及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106054874B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107179768A (zh) * | 2017-05-15 | 2017-09-19 | 上海木爷机器人技术有限公司 | 一种障碍物识别方法及装置 |
CN107356202A (zh) * | 2017-07-27 | 2017-11-17 | 中国科学院光电研究院 | 一种激光扫描测量系统目标自动照准方法 |
CN108015770A (zh) * | 2017-12-07 | 2018-05-11 | 王群 | 机械手位置标定方法及系统 |
CN108109173A (zh) * | 2016-11-25 | 2018-06-01 | 宁波舜宇光电信息有限公司 | 视觉定位方法,相机系统和自动化设备 |
CN108364313A (zh) * | 2018-01-16 | 2018-08-03 | 深圳市科视创科技有限公司 | 一种自动对位的方法、系统及终端设备 |
CN108582083A (zh) * | 2018-07-05 | 2018-09-28 | 厦门理工学院 | 一种果蔬选购系统和方法 |
WO2018209633A1 (zh) * | 2017-05-18 | 2018-11-22 | 深圳配天智能技术研究院有限公司 | 基于视觉系统振动移位的自动校正方法、装置及视觉系统 |
CN109657198A (zh) * | 2017-10-11 | 2019-04-19 | 杭州海康机器人技术有限公司 | 机器人标定方法、装置及计算机可读存储介质 |
CN109754421A (zh) * | 2018-12-31 | 2019-05-14 | 深圳市越疆科技有限公司 | 一种视觉标定方法、装置及机器人控制器 |
CN109848994A (zh) * | 2019-02-22 | 2019-06-07 | 浙江启成智能科技有限公司 | 一种机器人视觉引导定位算法 |
CN110465944A (zh) * | 2019-08-09 | 2019-11-19 | 琦星智能科技股份有限公司 | 基于平面视觉下的工业机器人坐标的计算方法 |
CN111005163A (zh) * | 2019-12-30 | 2020-04-14 | 深圳市越疆科技有限公司 | 皮料自动缝纫方法、装置、设备及计算机可读存储介质 |
CN111142445A (zh) * | 2020-01-06 | 2020-05-12 | 上海交通大学 | 多场景通用的边缘视觉运动控制系统及方法 |
CN113282056A (zh) * | 2021-03-30 | 2021-08-20 | 深圳市世宗自动化设备有限公司 | 运动控制补偿方法、装置、计算机设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110726534B (zh) * | 2019-09-27 | 2022-06-14 | 西安大医集团股份有限公司 | 一种视觉装置视场范围测试方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102909728A (zh) * | 2011-08-05 | 2013-02-06 | 鸿富锦精密工业(深圳)有限公司 | 机器人工具中心点的视觉校正方法 |
CN103101060A (zh) * | 2011-11-11 | 2013-05-15 | 鸿富锦精密工业(深圳)有限公司 | 机器人工具中心点的传感校正方法 |
CN104260112A (zh) * | 2014-09-18 | 2015-01-07 | 西安航天精密机电研究所 | 一种机器人手眼定位方法 |
-
2016
- 2016-05-19 CN CN201610334827.5A patent/CN106054874B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102909728A (zh) * | 2011-08-05 | 2013-02-06 | 鸿富锦精密工业(深圳)有限公司 | 机器人工具中心点的视觉校正方法 |
US9043024B2 (en) * | 2011-08-05 | 2015-05-26 | Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd. | Vision correction method for tool center point of a robot manipulator |
CN103101060A (zh) * | 2011-11-11 | 2013-05-15 | 鸿富锦精密工业(深圳)有限公司 | 机器人工具中心点的传感校正方法 |
CN104260112A (zh) * | 2014-09-18 | 2015-01-07 | 西安航天精密机电研究所 | 一种机器人手眼定位方法 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108109173B (zh) * | 2016-11-25 | 2022-06-28 | 宁波舜宇光电信息有限公司 | 视觉定位方法,相机系统和自动化设备 |
CN108109173A (zh) * | 2016-11-25 | 2018-06-01 | 宁波舜宇光电信息有限公司 | 视觉定位方法,相机系统和自动化设备 |
CN107179768A (zh) * | 2017-05-15 | 2017-09-19 | 上海木爷机器人技术有限公司 | 一种障碍物识别方法及装置 |
CN107179768B (zh) * | 2017-05-15 | 2020-01-17 | 上海木木机器人技术有限公司 | 一种障碍物识别方法及装置 |
WO2018209633A1 (zh) * | 2017-05-18 | 2018-11-22 | 深圳配天智能技术研究院有限公司 | 基于视觉系统振动移位的自动校正方法、装置及视觉系统 |
CN109313811A (zh) * | 2017-05-18 | 2019-02-05 | 深圳配天智能技术研究院有限公司 | 基于视觉系统振动移位的自动校正方法、装置及系统 |
CN109313811B (zh) * | 2017-05-18 | 2021-11-05 | 深圳配天智能技术研究院有限公司 | 基于视觉系统振动移位的自动校正方法、装置及系统 |
CN107356202A (zh) * | 2017-07-27 | 2017-11-17 | 中国科学院光电研究院 | 一种激光扫描测量系统目标自动照准方法 |
CN109657198A (zh) * | 2017-10-11 | 2019-04-19 | 杭州海康机器人技术有限公司 | 机器人标定方法、装置及计算机可读存储介质 |
CN108015770A (zh) * | 2017-12-07 | 2018-05-11 | 王群 | 机械手位置标定方法及系统 |
CN108364313B (zh) * | 2018-01-16 | 2021-08-27 | 深圳市科视创科技有限公司 | 一种自动对位的方法、系统及终端设备 |
CN108364313A (zh) * | 2018-01-16 | 2018-08-03 | 深圳市科视创科技有限公司 | 一种自动对位的方法、系统及终端设备 |
CN108582083A (zh) * | 2018-07-05 | 2018-09-28 | 厦门理工学院 | 一种果蔬选购系统和方法 |
CN109754421A (zh) * | 2018-12-31 | 2019-05-14 | 深圳市越疆科技有限公司 | 一种视觉标定方法、装置及机器人控制器 |
CN109848994A (zh) * | 2019-02-22 | 2019-06-07 | 浙江启成智能科技有限公司 | 一种机器人视觉引导定位算法 |
CN110465944B (zh) * | 2019-08-09 | 2021-03-16 | 琦星智能科技股份有限公司 | 基于平面视觉下的工业机器人坐标的计算方法 |
CN110465944A (zh) * | 2019-08-09 | 2019-11-19 | 琦星智能科技股份有限公司 | 基于平面视觉下的工业机器人坐标的计算方法 |
CN111005163A (zh) * | 2019-12-30 | 2020-04-14 | 深圳市越疆科技有限公司 | 皮料自动缝纫方法、装置、设备及计算机可读存储介质 |
CN111005163B (zh) * | 2019-12-30 | 2022-04-26 | 深圳市越疆科技有限公司 | 皮料自动缝纫方法、装置、设备及计算机可读存储介质 |
CN111142445A (zh) * | 2020-01-06 | 2020-05-12 | 上海交通大学 | 多场景通用的边缘视觉运动控制系统及方法 |
CN113282056A (zh) * | 2021-03-30 | 2021-08-20 | 深圳市世宗自动化设备有限公司 | 运动控制补偿方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106054874B (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106054874A (zh) | 视觉定位标定方法、装置及机器人 | |
Wang et al. | Interactive and immersive process-level digital twin for collaborative human–robot construction work | |
Kyrarini et al. | Robot learning of industrial assembly task via human demonstrations | |
CN110573308B (zh) | 用于机器人设备的空间编程的基于计算机的方法及系统 | |
US20180018826A1 (en) | Method for controlling an object | |
US9387589B2 (en) | Visual debugging of robotic tasks | |
KR101860200B1 (ko) | 카메라를 이용한 장치 또는 물체의 선택 | |
US8155787B2 (en) | Intelligent interface device for grasping of an object by a manipulating robot and method of implementing this device | |
Lambrecht et al. | Spatial programming for industrial robots based on gestures and augmented reality | |
Pan et al. | Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device | |
US20150273689A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
CN110603122B (zh) | 用于交互式学习应用的自动个性化反馈 | |
KR20230012057A (ko) | 로봇 데모 학습을 위한 스킬 템플릿들 | |
KR20230002942A (ko) | 로봇 데모 학습을 위한 스킬 템플릿 배포 | |
KR20220128655A (ko) | 제조 또는 산업 환경에서 협동 로봇과의 상호작용을 위한 가상/증강 현실 사용 시스템 및 방법 | |
WO2019120481A1 (en) | System and method for determining a transformation representation | |
US12030185B2 (en) | Techniques for CAD-informed robotic assembly | |
Lambrecht et al. | Markerless gesture-based motion control and programming of industrial robots | |
US20180356799A1 (en) | Method for the Simplified Modification of Application Programs for Controlling an Industrial Plant | |
Wojtynek et al. | Assisted planning and setup of collaborative robot applications in modular production systems | |
CN113795358B (zh) | 一种坐标系校准方法、装置和计算机可读介质 | |
WO2019021045A1 (en) | METHOD AND SYSTEM FOR ACTION OF AN INDUSTRIAL ROBOT BASED ON A PARAMETER | |
WO2022103573A1 (en) | Decentralized robotic operating environment optimization | |
Zamani et al. | Learning spatial representation for safe human-robot collaboration in joint manual tasks | |
Banduka | Software system for remote robot control and monitoring based on android operating system and wireless communication |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |