CN107650122A - 一种基于3d视觉识别的机器人手爪定位系统及其定位方法 - Google Patents
一种基于3d视觉识别的机器人手爪定位系统及其定位方法 Download PDFInfo
- Publication number
- CN107650122A CN107650122A CN201710642606.9A CN201710642606A CN107650122A CN 107650122 A CN107650122 A CN 107650122A CN 201710642606 A CN201710642606 A CN 201710642606A CN 107650122 A CN107650122 A CN 107650122A
- Authority
- CN
- China
- Prior art keywords
- region
- image
- telltale mark
- reference picture
- robot hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于3D视觉识别的机器人手爪定位系统,包括第一图像获取模块,用于获取定位标记的第一参考图像;第一图像识别模块,用于对获取的第一参考图像中的定位标记进行识别;第二图像获取模块,用于获取定位标记的第二参考图像;第一图像获取模块和第二图像获取模块的拍摄方向的夹角为30°;第二图像识别模块,用于对获取的第二参考图像中的定位标记进行识别;模拟模块,用于根据第一参考图像中的定位标记对第二参考图像中的定位标记进行模拟定位;定位模块,用于根据第一参考图像和第二参考图像中定位标记的位置对机器人手爪的位置进行定位。本发明能够解决现有技术的不足,减少了视觉定位过程中图像处理的运算量,提高了定位速度。
Description
技术领域
本发明涉及工业自动化技术领域,尤其是一种基于3D视觉识别的机器人手爪定位系统及其定位方法。
背景技术
工业机器人手爪是安装在机器人末端执行装置上,用于抓取目标工件的部件。机器人手爪的运动定位精度对于其准确、稳固地抓取工件是十分重要的。现有的机器人手爪通常使用各自由度上的编码器对其末端的手爪位置进行监控,这种间接的检测方式容易受到误差干扰。而通过机器人视觉进行定位虽然精度高,但是由于图像处理过程运算量大,导致定位速度较慢。
发明内容
本发明要解决的技术问题是提供一种基于3D视觉识别的机器人手爪定位系统及其定位方法,能够解决现有技术的不足,减少了视觉定位过程中图像处理的运算量,提高了定位速度。
为解决上述技术问题,本发明所采取的技术方案如下。
一种基于3D视觉识别的机器人手爪定位系统,包括,
第一图像获取模块,用于获取定位标记的第一参考图像;安装在机器人手爪上;
第一图像识别模块,用于对获取的第一参考图像中的定位标记进行识别;
第二图像获取模块,用于获取定位标记的第二参考图像;安装在机器人手爪上,第一图像获取模块和第二图像获取模块的拍摄方向的夹角为30°;
第二图像识别模块,用于对获取的第二参考图像中的定位标记进行识别;
模拟模块,用于根据第一参考图像中的定位标记对第二参考图像中的定位标记进行模拟定位;
定位模块,用于根据第一参考图像和第二参考图像中定位标记的位置对机器人手爪的位置进行定位。
一种上述的基于3D视觉识别的机器人手爪定位系统的定位方法,包括以下步骤:
A、第一图像获取模块和第二图像获取模块同时对定位标记进行拍摄,得到3D模式的第一参考图像和第二参考图像;
B、第一图像识别模块对第一参考图像在RGB模型下进行分层,对于每一个图像层,将其包含定位标记像素点的区域进行标记,删除噪声含量超标的图像层;
C、将剩余的图形层中的标记区域图像进行合并,并对合并后的图像中定位标记进行识别;
D、模拟模块根据步骤C识别出的定位标记图像,通过第一图像获取模块和第二图像获取模块的拍摄方向的夹角,对第二图像获取模块中获取的定位标记进行模拟计算,得到第二参考图像中定位标记的模拟识别结果;
E、第二图像识别模块根据步骤D中得到的定位标记的模拟识别结果在第二参考图像中得出模拟定位标记区域,在模拟定位标记区域内对定位标记进行直接识别,对于非模拟定位标记区域,根据其像素特征与模拟定位标记区域像素特征的映射关系,对非模拟定位标记区域内的定位标记进行识别。
作为优选,步骤B中,在每个图像层中,分别计算进行标记区域和未标记区域的灰度变化梯度,若进行标记区域和未标记区域的边缘存在灰度变化梯度的方向不同且灰度变化梯度的模的大小不同的像素点,则判定此图像层噪声含量超标,进行删除;否则,保留此图像层。
作为优选,步骤C中,将标记区域图像进行合并时,对每个标记区域图像赋予合并加权系数h,
,
其中,G1为标记区域的平均灰度值,G2为标记区域的平均灰度值。
作为优选,步骤C中,对合并后的图像中定位标记进行识别包括以下步骤,
C1、将识别区域分成若干个矩形块,并根据定位标记在图像中的标准灰度以及形状确定每个矩形块的参考灰度G3;
C2、对每个矩形块的对角线上的像素点进行遍历;
C3、在遍历的像素点中,若有m个连续的像素点灰度大于G3+t,有n个连续的像素点灰度值小于G3-t,且m+n大于等于遍历像素点数量的30%时,则判定此矩形块为非定位标记区域;否则,判定此矩形块为定位标记区域;t为判定阈值。
作为优选,所述t等于定位标记在图像中的标准灰度绝对值的10%。
作为优选,步骤E中,对于模拟定位标记区域内的图像,若未出现噪声点区域面积大于面积设定阈值且噪声点总数量超过数量设定阈值的情况,则判定为定位标记图像区域;否则,判定为非定位标记图像区域;噪声点的定义为其平均灰度值与定位标记在图像中的标准灰度值的偏差大于阈值的区域。
作为优选,步骤E中,对于非模拟定位标记区域内的图像,若其像素特征与模拟定位标记区域内判定为定位标记图像区域内的任意区域的像素特征线性相关,则判定为定位标记图像区域;否则,判定为非定位标记图像区域;所述像素特征为选定图像区域内的像素灰度值矩阵。
采用上述技术方案所带来的有益效果在于:本发明改变了使用图像定位的方法,利用第一参考图像的处理结果对第二参考图像进行预处理,从而简化了第二参考图像的处理过程,提高了定位速度。对第一参考图像进行分层处理,可以对噪声图像进行快速剥离。然后通过对角线像素点遍历的识别方式可以在保证识别准确率的前提下提高图像识别速度,进一步提高定位速度。第二参考图像的识别过程通过引入定位标记的模拟识别结果,简化了识别第一参考图像过程中的多个步骤,可直接使用简单的噪声点识别方式对第二参考图像进行部分识别,然后再利用像素特征的线性相关性对其余部分进行识别,计算量相对于第一参考图像的识别大大降低,从而减少了图像识别的总时间,提高了定位速度。
附图说明
图1是本发明一个具体实施方式的结构图。
图2是本发明一个具体实施方式中滤波模块的结构图。
图中:1、第一图像获取模块;2、第一图像识别模块;3、第二图像获取模块;4、第二图像识别模块;5、模拟模块;6、定位模块;IN、输入端;OUT、输出端;R1、第一电阻;R2、第二电阻;R3第三电阻;R4、第四电阻;R5、第五电阻;R6、第六电阻;C1、第一可变电容;C2、第二电容;C3、第三可变电容;C4、第四电容、A、运算放大器;Q1、第一三极管;Q2、第二三极管。
具体实施方式
本发明中使用到的标准零件均可以从市场上购买,异形件根据说明书的和附图的记载均可以进行订制,各个零件的具体连接方式均采用现有技术中成熟的螺栓、铆钉、焊接、粘贴等常规手段,在此不再详述。
参照图1,本发明的一个具体实施方式包括第一图像获取模块1,用于获取定位标记的第一参考图像;安装在机器人手爪上;
第一图像识别模块2,用于对获取的第一参考图像中的定位标记进行识别;
第二图像获取模块3,用于获取定位标记的第二参考图像;安装在机器人手爪上,第一图像获取模块1和第二图像获取模块3的拍摄方向的夹角为30°;
第二图像识别模块4,用于对获取的第二参考图像中的定位标记进行识别;
模拟模块5,用于根据第一参考图像中的定位标记对第二参考图像中的定位标记进行模拟定位;
定位模块6,用于根据第一参考图像和第二参考图像中定位标记的位置对机器人手爪的位置进行定位。
一种上述的基于3D视觉识别的机器人手爪定位系统的定位方法,包括以下步骤:
A、第一图像获取模块1和第二图像获取模块3同时对定位标记进行拍摄,得到3D模式的第一参考图像和第二参考图像;
B、第一图像识别模块2对第一参考图像在RGB模型下进行分层,对于每一个图像层,将其包含定位标记像素点的区域进行标记,删除噪声含量超标的图像层;
C、将剩余的图形层中的标记区域图像进行合并,并对合并后的图像中定位标记进行识别;
D、模拟模块5根据步骤C识别出的定位标记图像,通过第一图像获取模块1和第二图像获取模块3的拍摄方向的夹角,对第二图像获取模块3中获取的定位标记进行模拟计算,得到第二参考图像中定位标记的模拟识别结果;
E、第二图像识别模块4根据步骤D中得到的定位标记的模拟识别结果在第二参考图像中得出模拟定位标记区域,在模拟定位标记区域内对定位标记进行直接识别,对于非模拟定位标记区域,根据其像素特征与模拟定位标记区域像素特征的映射关系,对非模拟定位标记区域内的定位标记进行识别。
步骤B中,在每个图像层中,分别计算进行标记区域和未标记区域的灰度变化梯度,若进行标记区域和未标记区域的边缘存在灰度变化梯度的方向不同且灰度变化梯度的模的大小不同的像素点,则判定此图像层噪声含量超标,进行删除;否则,保留此图像层。
步骤C中,将标记区域图像进行合并时,对每个标记区域图像赋予合并加权系数h,
,
其中,G1为标记区域的平均灰度值,G2为标记区域的平均灰度值。
步骤C中,对合并后的图像中定位标记进行识别包括以下步骤,
C1、将识别区域分成若干个矩形块,并根据定位标记在图像中的标准灰度以及形状确定每个矩形块的参考灰度G3;
C2、对每个矩形块的对角线上的像素点进行遍历;
C3、在遍历的像素点中,若有m个连续的像素点灰度大于G3+t,有n个连续的像素点灰度值小于G3-t,且m+n大于等于遍历像素点数量的30%时,则判定此矩形块为非定位标记区域;否则,判定此矩形块为定位标记区域;t为判定阈值。
t等于定位标记在图像中的标准灰度绝对值的10%。
步骤E中,对于模拟定位标记区域内的图像,若未出现噪声点区域面积大于面积设定阈值且噪声点总数量超过数量设定阈值的情况,则判定为定位标记图像区域;否则,判定为非定位标记图像区域;噪声点的定义为其平均灰度值与定位标记在图像中的标准灰度值的偏差大于阈值的区域。
步骤E中,对于非模拟定位标记区域内的图像,若其像素特征与模拟定位标记区域内判定为定位标记图像区域内的任意区域的像素特征线性相关,则判定为定位标记图像区域;否则,判定为非定位标记图像区域;所述像素特征为选定图像区域内的像素灰度值矩阵。
另外,在步骤B中,分别计算标记区域和未标记区域的灰度变化的黑塞矩阵,根据得到的黑塞矩阵的特征向量的方向计算对应位置的灰度变化梯度。这样可以减少灰度变化梯度的计算量。
在图像从获取模块传递至识别模块的过程中,通常经过滤波模块进行预处理。现有的滤波模块滤波功能性差,无法对数据包含的噪声信号进行有效的去除。为此,发明人专门设计了一款用于本发明的滤波模块,参照图2,滤波模块的输入端IN通过串联的第一电阻R1和第一可变电容C1连接至运算放大器A的正相输入端,运算放大器A的正相输入端通过第三电阻R3接地,运算放大器A的反相输入端通过第五电阻R5接地,运算放大器A的反相输入端通过第四电阻R4连接至运算放大器A的输出端,第一三极管Q1的基极和集电极共同连接至第一电阻R1和第一可变电容C1之间,第一三极管Q1的发射极通过第四电容C4连接至运算放大器A的输出端,第一三极管Q1的集电极通过第二电容C2接地,运算放大器A的正相输入端通过第六电阻R6连接至运算放大器A的输出端,运算放大器A的输出端连接至滤波模块的输出端OUT,滤波模块的输出端OUT连接至第二三极管Q2的基极,第二三极管Q2的集电极通过第二电阻R2连接至滤波模块的输出端OUT,滤波模块的输出端OUT通过第三可变电容C3接地,第二三极管Q2的发射极接地。
其中,第一可变电容C1的调整方法为:根据步骤B中删除的图像层所包含的频段,对第一可变电容C1进行调整,使这一频段信号在滤波模块中进行衰减抑制。第三可变电容C3的调整方法为:跟随第一可变电容C1同步变化,容抗变化幅度为第一可变电容C1变化幅度的20%。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (8)
1.一种基于3D视觉识别的机器人手爪定位系统,其特征在于:包括,
第一图像获取模块(1),用于获取定位标记的第一参考图像;安装在机器人手爪上;
第一图像识别模块(2),用于对获取的第一参考图像中的定位标记进行识别;
第二图像获取模块(3),用于获取定位标记的第二参考图像;安装在机器人手爪上,第一图像获取模块(1)和第二图像获取模块(3)的拍摄方向的夹角为30°;
第二图像识别模块(4),用于对获取的第二参考图像中的定位标记进行识别;
模拟模块(5),用于根据第一参考图像中的定位标记对第二参考图像中的定位标记进行模拟定位;
定位模块(6),用于根据第一参考图像和第二参考图像中定位标记的位置对机器人手爪的位置进行定位。
2.一种权利要求1所述的基于3D视觉识别的机器人手爪定位系统的定位方法,其特征在于包括以下步骤:
A、第一图像获取模块(1)和第二图像获取模块(3)同时对定位标记进行拍摄,得到3D模式的第一参考图像和第二参考图像;
B、第一图像识别模块(2)对第一参考图像在RGB模型下进行分层,对于每一个图像层,将其包含定位标记像素点的区域进行标记,删除噪声含量超标的图像层;
C、将剩余的图形层中的标记区域图像进行合并,并对合并后的图像中定位标记进行识别;
D、模拟模块(5)根据步骤C识别出的定位标记图像,通过第一图像获取模块(1)和第二图像获取模块(3)的拍摄方向的夹角,对第二图像获取模块(3)中获取的定位标记进行模拟计算,得到第二参考图像中定位标记的模拟识别结果;
E、第二图像识别模块(4)根据步骤D中得到的定位标记的模拟识别结果在第二参考图像中得出模拟定位标记区域,在模拟定位标记区域内对定位标记进行直接识别,对于非模拟定位标记区域,根据其像素特征与模拟定位标记区域像素特征的映射关系,对非模拟定位标记区域内的定位标记进行识别。
3.根据权利要求2所述的基于3D视觉识别的机器人手爪定位系统的定位方法,其特征在于:步骤B中,在每个图像层中,分别计算进行标记区域和未标记区域的灰度变化梯度,若进行标记区域和未标记区域的边缘存在灰度变化梯度的方向不同且灰度变化梯度的模的大小不同的像素点,则判定此图像层噪声含量超标,进行删除;否则,保留此图像层。
4.根据权利要求3所述的基于3D视觉识别的机器人手爪定位系统的定位方法,其特征在于:步骤C中,将标记区域图像进行合并时,对每个标记区域图像赋予合并加权系数h,
<mrow>
<mi>h</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msub>
<mi>G</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>G</mi>
<mn>2</mn>
</msub>
<mo>|</mo>
</mrow>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>G</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>G</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>&times;</mo>
<mn>100</mn>
<mi>%</mi>
<mo>,</mo>
</mrow>
,
其中,G1为标记区域的平均灰度值,G2为标记区域的平均灰度值。
5.根据权利要求2所述的基于3D视觉识别的机器人手爪定位系统的定位方法,其特征在于:步骤C中,对合并后的图像中定位标记进行识别包括以下步骤,
C1、将识别区域分成若干个矩形块,并根据定位标记在图像中的标准灰度以及形状确定每个矩形块的参考灰度G3;
C2、对每个矩形块的对角线上的像素点进行遍历;
C3、在遍历的像素点中,若有m个连续的像素点灰度大于G3+t,有n个连续的像素点灰度值小于G3-t,且m+n大于等于遍历像素点数量的30%时,则判定此矩形块为非定位标记区域;否则,判定此矩形块为定位标记区域;t为判定阈值。
6.根据权利要求5所述的基于3D视觉识别的机器人手爪定位系统的定位方法,其特征在于:t等于定位标记在图像中的标准灰度绝对值的10%。
7.根据权利要求2所述的基于3D视觉识别的机器人手爪定位系统的定位方法,其特征在于:步骤E中,对于模拟定位标记区域内的图像,若未出现噪声点区域面积大于面积设定阈值且噪声点总数量超过数量设定阈值的情况,则判定为定位标记图像区域;否则,判定为非定位标记图像区域;噪声点的定义为其平均灰度值与定位标记在图像中的标准灰度值的偏差大于阈值的区域。
8.根据权利要求7所述的基于3D视觉识别的机器人手爪定位系统的定位方法,其特征在于:步骤E中,对于非模拟定位标记区域内的图像,若其像素特征与模拟定位标记区域内判定为定位标记图像区域内的任意区域的像素特征线性相关,则判定为定位标记图像区域;否则,判定为非定位标记图像区域;所述像素特征为选定图像区域内的像素灰度值矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710642606.9A CN107650122B (zh) | 2017-07-31 | 2017-07-31 | 一种基于3d视觉识别的机器人手爪定位系统及其定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710642606.9A CN107650122B (zh) | 2017-07-31 | 2017-07-31 | 一种基于3d视觉识别的机器人手爪定位系统及其定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107650122A true CN107650122A (zh) | 2018-02-02 |
CN107650122B CN107650122B (zh) | 2019-11-05 |
Family
ID=61128160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710642606.9A Active CN107650122B (zh) | 2017-07-31 | 2017-07-31 | 一种基于3d视觉识别的机器人手爪定位系统及其定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107650122B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108845572A (zh) * | 2018-05-29 | 2018-11-20 | 盐城工学院 | 一种工业搬运机器人定位方法 |
CN111931651A (zh) * | 2020-08-11 | 2020-11-13 | 北华航天工业学院 | 一种视觉检测图像处理系统及其处理方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100303337A1 (en) * | 2009-05-29 | 2010-12-02 | Aaron Wallack | Methods and Apparatus for Practical 3D Vision System |
CN105335977A (zh) * | 2015-10-28 | 2016-02-17 | 苏州科达科技股份有限公司 | 摄像系统及目标对象的定位方法 |
CN105690393A (zh) * | 2016-04-19 | 2016-06-22 | 惠州先进制造产业技术研究中心有限公司 | 一种基于机器视觉的四轴并联机器人分拣系统及其分拣方法 |
CN106695792A (zh) * | 2017-01-05 | 2017-05-24 | 中国计量大学 | 基于机器视觉的码垛机器人跟踪监控系统及方法 |
-
2017
- 2017-07-31 CN CN201710642606.9A patent/CN107650122B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100303337A1 (en) * | 2009-05-29 | 2010-12-02 | Aaron Wallack | Methods and Apparatus for Practical 3D Vision System |
CN105335977A (zh) * | 2015-10-28 | 2016-02-17 | 苏州科达科技股份有限公司 | 摄像系统及目标对象的定位方法 |
CN105690393A (zh) * | 2016-04-19 | 2016-06-22 | 惠州先进制造产业技术研究中心有限公司 | 一种基于机器视觉的四轴并联机器人分拣系统及其分拣方法 |
CN106695792A (zh) * | 2017-01-05 | 2017-05-24 | 中国计量大学 | 基于机器视觉的码垛机器人跟踪监控系统及方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108845572A (zh) * | 2018-05-29 | 2018-11-20 | 盐城工学院 | 一种工业搬运机器人定位方法 |
CN111931651A (zh) * | 2020-08-11 | 2020-11-13 | 北华航天工业学院 | 一种视觉检测图像处理系统及其处理方法 |
CN111931651B (zh) * | 2020-08-11 | 2024-01-30 | 北华航天工业学院 | 一种视觉检测图像处理系统及其处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107650122B (zh) | 2019-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104981105B (zh) | 一种快速精确获得元件中心和偏转角度的检测及纠偏方法 | |
CN104915963B (zh) | 一种用于plcc元件的检测与定位方法 | |
CN104851104B (zh) | 采用柔性靶标高速摄相机近景大视场标定方法 | |
CN103207987B (zh) | 一种指针式仪表的示数识别方法 | |
CN106934813A (zh) | 一种基于视觉定位的工业机器人工件抓取实现方法 | |
CN106951905A (zh) | 一种基于tof相机的树上苹果识别与定位方法 | |
CN103308430A (zh) | 一种测量种子千粒重的方法及装置 | |
CN108846415A (zh) | 工业分拣机器人的目标识别装置和方法 | |
CN105631875A (zh) | 确定相机坐标与机械臂手爪坐标映射关系的方法及其系统 | |
CN110509273A (zh) | 基于视觉深度学习特征的机器人机械手检测及抓取方法 | |
CN106124034A (zh) | 基于机器视觉的薄壁件工作模态测试装置及测试方法 | |
CN109508709B (zh) | 一种基于机器视觉的单指针仪表读数方法 | |
CN109708658B (zh) | 一种基于卷积神经网络的视觉里程计方法 | |
CN108876765A (zh) | 工业分拣机器人的目标定位装置和方法 | |
CN107650122A (zh) | 一种基于3d视觉识别的机器人手爪定位系统及其定位方法 | |
CN115541030B (zh) | 高炉炉顶料面温度分布的识别方法、装置及存储介质 | |
CN106595496A (zh) | 一种人机交互零件尺寸柔性视觉测量方法 | |
CN115861217A (zh) | 一种基于视觉的背光板电路板缺陷检测系统及方法 | |
CN106570877A (zh) | 基于采煤机虚拟样机与真实图像配准的采煤机位姿定位系统及方法 | |
CN105303564A (zh) | 一种塔式起重机负荷立体摆角的视觉检测方法 | |
CN114120354A (zh) | 应用于空调的人体检测与定位方法、装置及智能感知系统 | |
CN113610786A (zh) | 一种基于视觉测量的轨道变形监测方法 | |
CN113205511A (zh) | 基于深层神经网络的电子元器件批量信息检测方法及系统 | |
CN105118069A (zh) | 一种复杂环境直线检测和筛选方法及应用该方法的机器人 | |
CN115115768A (zh) | 基于立体视觉的物体坐标识别系统及方法、装置、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |