CN110136211A - 一种基于主动双目视觉技术的工件定位方法及系统 - Google Patents
一种基于主动双目视觉技术的工件定位方法及系统 Download PDFInfo
- Publication number
- CN110136211A CN110136211A CN201910313863.7A CN201910313863A CN110136211A CN 110136211 A CN110136211 A CN 110136211A CN 201910313863 A CN201910313863 A CN 201910313863A CN 110136211 A CN110136211 A CN 110136211A
- Authority
- CN
- China
- Prior art keywords
- workpiece
- plane
- camera
- feature point
- color image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000005516 engineering process Methods 0.000 title claims abstract description 16
- 230000004807 localization Effects 0.000 title abstract 2
- 238000004364 calculation method Methods 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000006243 chemical reaction Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Algebra (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于主动双目视觉技术的工件定位方法及系统,实施本发明的有益效果是,采用RGB彩色图像和深度图像的对齐、图像坐标系到相机坐标系的转化、特征点模板创建与模板匹配技术,实现了在图像中工件的特征点较少时,通过对左右图像中的特征点进行立体匹配,提高了工件位姿的计算精度。
Description
技术领域
本发明涉及工件定位领域,更具体地说,涉及一种采用主动双目视觉技术,对工件进行精准定位的方法及系统。
背景技术
随着科学技术的不断发展,人们对自动化作业的要求不断提高,传统的人工作业方式不断受到挑战。于是出现了越来越多面向工业领域的工业机器人,它能依靠自身动力和控制能力来自动实现各种功能。而在复杂的工业现场,机器人要对工件进行加工,往往需要先对工件进行识别与定位。因此近几年,在制造生产中,利用机器视觉引导机器人作业逐渐成为一种主流趋势。
在工业生产中,工件自动上下料,工件自动分选或者自动装备等工序都需要对工件进行准确地抓取。而工件能否准确地被识别和定位,是工件能否被准确抓取的最关键技术环节之一。现有的主流方法是使用单目摄像机采集工件图像,对工件进行识别和平面定位,再把工件的图像信息传送给工业机器人,让机器人后续处理,但单目视觉得不到工件的三维信息,无法获取工件的位姿,存在一定局限性。而双目视觉则根据左右图像的视差进行三角测距,可获取工件的空间位置和姿态信息,因此双目视觉技术被越来越多地引入工业现场中。
传统的双目视觉技术常对双目相机左右图像中的特征点,如角点、圆心进行立体匹配,之后根据三角测距原理计算工具的空间位姿。但当工件表面光照不均匀、纹理较少时,如金具上的螺栓,此时较难获取螺栓图像周围的特征点,导致立体匹配不准确或失败,从而无法获取金具上螺栓的姿态信息。针对这一问题,提出了一种基于主动双目视觉技术的工件定位方法。
发明内容
本发明要解决的技术问题在于,针对当图像中工件的特征点较少时,此时较难对左右图像中的特征点进行立体匹配,导致工件定位精度低的缺陷,提供基于主动双目视觉技术的工件定位方法及系统。
本发明解决其技术问题所采用的技术方案是:构造一种基于主动双目视觉技术的工件定位方法,包括以下步骤:
S1、采用具备彩色摄像头和深度摄像头的主动双目视觉相机,对具有若干个特征点的待定位工件,进行彩色图像和深度图像获取;
S2、在彩色图像中,识别出所述待定位工件上的每个特征点,以及每个特征点在彩色图像中的平面坐标;
S3、根据步骤S2得到的每个特征点在彩色图像中的平面坐标,在深度图像中获取每个特征点的深度值;
S4、将每个特征点所在的平面坐标系转化为相机坐标系,通过构建相机投影模型,在相机坐标系中识别每个特征点的三维坐标;
S5、根据每个特征点的三维坐标,计算每个特征点所在的工件平面相对相机平面的角度值;
S6、根据从步骤S4-S5计算得到每个特征点的三维坐标,以及其所在的工件平面相对相机平面的角度值,实现工件的定位。
进一步的,在进行特征点识别之前,为保证在获取到的彩色图像中,每个像素点都有其对应的深度信息,将获取到的彩色图像与深度图像进行对齐,即将彩色图像和深度图像的像素点一一对应。
进一步的,在相机投影模型下,针对每个特征点,其对应的二维坐标(x,y)和三维坐标(X,Y,Z)之间,具有以下矩阵关系:
其中,f表示主动双目视觉相机镜头的焦距;
由于每个特征点的二维坐标通过模板匹配算法从彩色图像中计算得到,而根据每个特征点在彩色图像中的二维坐标,即可在深度图像中得到每个特征点对应的深度值W,则在已知参数f、特征点二维坐标和深度值W的情况下,根据上述矩阵关系进一步计算出每个特征点对应的三维坐标。
进一步的,步骤S5中,工件的平面角度值求解步骤为:
S51、由步骤S4计算出工件上的n个特征点的三维坐标,分别为P1、P2…、Pn;从上述n个特征点中,任选3个特征点为一组,计算上述3个特征点所在平面的法向量其中,
S52、构建一个三元一次方程组,对上述3个特征点所在工件的平面角度值进行求解,具体的计算公式为:
ni*X+nj*Y+nk*Z=K;
其中,将3个特征点中任一点的坐标带入上述计算公式求得K,即可得工件平面方程,其中即为所求工件的平面三个方向的角度值;(X,Y,Z)为特征点所对应的三维坐标;
S53、选取多组不完全相同的特征点,将求得的多个平面角度值进行求平均,所得的角度平均值,即为最终求得的工件角度信息。
进一步的,步骤S5中,工件的平面角度值求解步骤为:通过获取特征点周围一片区域的三维点云数据,通过最小二乘法拟合平面,来获得特征点所在平面相对相机平面的夹角。
进一步的,包括图像获取模块、平面坐标获取模块、三维坐标获取模块和定位模块;其中:
所述图像获取模块,用于采用具备彩色摄像头和深度摄像头的主动双目视觉相机,对具有若干个特征点的待定位工件,进行彩色图像和深度图像获取;
所述平面坐标获取模块,用于利用基于几何特征的模板匹配算法,在彩色图像中,识别出所述待定位工件上的每个特征点,得到每个特征点在彩色图像中的平面坐标;
所述三维坐标获取模块,用于将每个特征点所在的平面坐标系转化为相机坐标系,求得每个特征点对应的三维坐标;
所述工件角度信息第一计算模块,用于将从三维坐标获取模块中得到的每个特征点的三维坐标,进行平面计算,计算每个特征点所在工件平面相对相机平面的角度;
所述定位模块,用于从平面角度计算模块中获取每个特征点所在工件的平面角度值,并根据平面坐标获取模块得到的每个特征点在彩色图像中的平面坐标,实现对工件的定位。
进一步的,所述工件定位系统中,还包括工件角度信息第二计算模块;所述工件角度信息第二计算模块,用于通过获取特征点周围一片区域的三维点云数据,利用最小二乘法进行平面的拟合,进一步获得特征点所在平面相对相机平面的夹角。
在本发明述所的一种基于主动双目视觉技术的工件定位方法及系统中,运用到了RGB彩色图像和深度图像的对齐、图像坐标系到相机坐标系的转化、特征点模板创建与模板匹配等技术,实现了在图像中工件的特征点较少时,通过对左右图像中的特征点进行立体匹配,提高了工件位姿的计算精度。
实施本发明的工件定位方法及系统,具有以下有益效果:
1、使用主动双目视觉相机完成彩色图像和深度图像的对齐;其中,使用彩色图像获取工件平面信息,使用深度图像获取工件深度信息;有效的对左右图像中的特征点进行立体匹配;
2、在进行工件定位时,先获得工件上每个特征点的图像坐标,进而获得其对应的三维坐标,之后根据得到的三维坐标,进行特征点所在平面的计算,最终获得特征点姿态的;有效的提高了双目视觉定位对工件定位的精度,适用于不确定位姿的工件定位情况。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是工件定位的方法流程图;
图2是工件定位系统的结构图;
图3是采集到的原始RGB图(左)和深度图像(右);
图4是对齐的RGB图(左)和深度图像(右);
图5是模板匹配算法进行特征点识别定位的效果图;
图6是工件位姿定位结果。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
请参考图1,其为工件定位的方法流程图,本发明提出一种基于主动双目视觉技术的工件定位方法,包括以下步骤:
S1、采用具备彩色摄像头和深度摄像头的主动双目视觉相机,对具有若干个特征点的待定位工件,进行彩色图像和深度图像获取;请参考图5,在实施过程中,具体是对工件上的4个螺栓进行识别和定位。
S2、在彩色图像中,识别出所述待定位工件上的每个特征点(螺栓),以及每个特征点(螺栓)在彩色图像中的平面坐标;
具体的,本实施例中,在对工件上的4个螺栓进行识别定位的时候,考虑通过模板匹配算法,在彩色图像中,创建与螺栓相对应的识别模板;通过所述识别模板,对所述待定位工件上的每个螺栓进行识别,并进一步确定每个螺栓在彩色图像中对应的平面坐标。
S3、根据步骤S2得到的每个螺栓在彩色图像中的平面坐标点,在深度图像中获取每个螺栓的深度值;在实施过程中,在进行特征点识别之前,为了保证深度值的获取精度,即图像上的每个像素点都有其对应的深度值,则将获取到的彩色图像与深度图像进行对齐,即将彩色图像和深度图像的像素点一一对应。
S4、将每个螺栓所在的平面坐标系转化为相机坐标系,在相机坐标系中识别每个螺栓的三维坐标;其中,所述相机投影模型包括图像坐标系和相机坐标系;其中,图像坐标系以图像的中心为原点,由二维坐标(x,y)来表示图像中每个像素点的二维坐标;相机坐标系以所述主动双目视觉相机的光心为原点,用三维坐标(X,Y,Z)来表示图像中每个像素点的三维坐标,其中,以相机的光轴作为Z轴;
具体的,在相机投影模型下,针对每个螺栓,其对应的二维坐标和三维坐标之间,具有以下的矩阵关系:
其中,f表示主动双目视觉相机镜头的焦距;
由于每个螺栓的二维坐标通过模板匹配算法从彩色图像中计算得到,而根据每个螺栓在彩色图像中的二维坐标,即可在深度图像中得到其对应的深度值W,则在已知参数f、特征点的二维坐标(x,y)和深度值W的情况下,根据上述矩阵关系进一步计算出每个螺栓对应的三维坐标。
S5、根据步骤S4得到的每个特征螺栓的三维坐标,计算每个螺栓所在的工件平面相对相机平面的角度值;其中,工件的平面角度值求解步骤为:
S51、由步骤S5计算出工件上的所有螺栓的三维坐标点,其中,在所有螺栓中,任选3个螺栓点A,B,C为一组,计算所述3个螺栓点所在平面的法向量其中,
S52、得到法向量后,构建一个三元一次方程组,对3个螺栓所在工件的平面角度值进行求解,具体的计算公式为:
ni*X+nj*Y+nk*Z=K;
其中,将3个螺栓点中任一点的坐标带入上述计算公式求得K,即可得工件平面方程,其中即为所求工件的平面三个方向的角度值;S53、最后,选取多组不完全相同的特征点,将求得的多个平面角度值进行求平均,所得的角度平均值,即为最终求得的工件角度信息。
S6、根据从步骤S4-S5计算得到每个螺栓的三维坐标,以及其所在的工件平面相对相机平面的角度值,实现工件的定位。
在另一实施例中,在对工件的平面角度值进行计算的时候,可采用最小二乘法,具体为:在计算螺栓的平面角度时,也可以通过获取特征点周围一片区域的三维点云数据,通过最小二乘法拟合平面,来获得螺栓所在平面相对相机平面的夹角。
请参考图2,其为工件定位系统图,本发明提出的一种基于主动双目视觉技术的工件定位系统,包括图像获取模块L1、平面坐标获取模块L2、三维坐标获取模块L3和定位模块L4;其中:
所述图像获取模块L1用于采用具备彩色摄像头和深度摄像头的主动双目视觉相机,对具有若干个螺栓点的待定位工件,进行彩色图像和深度图像获取;
所述平面坐标获取模块L2用于利用基于几何特征的模板匹配算法,在彩色图像中,识别出所述待定位工件上的每个螺栓,得到每个螺栓在彩色图像中的平面坐标;
所述三维坐标获取模块L3用于将每个螺栓所在的平面坐标系转化为相机坐标系,求得每个螺栓对应的三维坐标;
所述工件角度信息第一计算模块,用于将从三维坐标获取模块中得到的每个螺栓的三维坐标,并进行平面计算,进一步计算得到每个螺栓所在工件平面相对相机平面的角度;
所述定位模块L4用于从平面角度计算模块中获取每个螺栓所在工件的平面角度值,并根据平面坐标获取模块得到的每个螺栓在彩色图像中的平面坐标点,实现对工件的定位。
作为一个优选的实施例,所述工件定位系统,还包括工件角度信息第二计算模块,所述工件角度信息第二计算模块,用于通过获取螺栓周围一片区域的三维点云数据,利用最小二乘法进行平面的拟合,进一步获得螺栓所在平面相对相机平面的夹角。
请参考图3-4,其分别为采集到的原始RGB图(左)和深度图像(右),以及对齐的RGB图(左)和深度图像(右)。在RGB图和深度图像未对齐的情况下,由于降低了从图形中获取特征点深度信息的精准度,因此在进行特征点识别之前,还需将两图进行对齐。
请参考图5,其为通过模板匹配算法在彩色图像中进行特征点识别的效果图,本实施例中,是对工件上的4个螺栓进行识别定位,图中可见,在通过该算法的定位下,由4个方框,分别精准的定位到了螺栓的位置,以及螺栓的中心点位置,进而获取到四个螺栓对应的二维坐标。
请参考图6,其为工件螺栓位姿定位结果,根据四个螺栓相对相机的三维坐标,进行平面计算,得到螺栓所在工件平面相对相机的平面夹角,从而得到相机坐标系下四个螺栓的位置和姿态信息。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (7)
1.一种基于主动双目视觉技术的工件定位方法,其特征在于,包括以下步骤:
S1、采用具备彩色摄像头和深度摄像头的主动双目视觉相机,对具有若干个特征点的待定位工件,进行彩色图像和深度图像获取;
S2、在彩色图像中,识别出所述待定位工件上的每个特征点,以及每个特征点在彩色图像中的平面坐标;
S3、根据步骤S2得到的每个特征点在彩色图像中的平面坐标,在深度图像中获取每个特征点的深度值;
S4、将每个特征点所在的平面坐标系转化为相机坐标系,通过构建相机投影模型,在相机坐标系中识别每个特征点的三维坐标;
S5、根据每个特征点的三维坐标,计算每个特征点所在的工件平面相对相机平面的角度值;
S6、根据从步骤S4-S5计算得到每个特征点的三维坐标,以及其所在的工件平面相对相机平面的角度值,实现工件的定位。
2.根据权利要求1所述的工件定位方法,其特征在于,在进行特征点识别之前,为保证在获取到的彩色图像中,每个像素点都有其对应的深度信息,将获取到的彩色图像与深度图像进行对齐,即将彩色图像和深度图像的像素点一一对应。
3.根据权利要求1所述的工件定位方法,其特征在于,在相机投影模型下,针对每个特征点,其对应的二维坐标(x,y)和三维坐标(X,Y,Z)之间,具有以下矩阵关系:
其中,f表示主动双目视觉相机镜头的焦距;
由于每个特征点的二维坐标通过模板匹配算法从彩色图像中计算得到,而根据每个特征点在彩色图像中的二维坐标,即可在深度图像中得到每个特征点对应的深度值W,则在已知参数f、特征点二维坐标和深度值W的情况下,根据上述矩阵关系进一步计算出每个特征点对应的三维坐标。
4.根据权利要求1所述的工件定位方法,其特征在于,步骤S5中,工件的平面角度值求解步骤为:
S51、由步骤S4计算出工件上的n个特征点的三维坐标,分别为P1、P2…、Pn;从上述n个特征点中,任选3个特征点为一组,计算上述3个特征点所在平面的法向量其中,
S52、构建一个三元一次方程组,对上述3个特征点所在工件的平面角度值进行求解,具体的计算公式为:
ni*X+nj*Y+nk*Z=K;
其中,将3个特征点中任一点的坐标带入上述计算公式求得K,即可得工件平面方程,其中即为所求工件的平面三个方向的角度值;(X,Y,Z)为特征点所对应的三维坐标;
S53、选取多组不完全相同的特征点,将求得的多个平面角度值进行求平均,所得的角度平均值,即为最终求得的工件角度信息。
5.根据权利要求1所述的工件定位方法,其特征在于,步骤S5中,工件的平面角度值求解步骤为:通过获取特征点周围一片区域的三维点云数据,通过最小二乘法拟合平面,来获得特征点所在平面相对相机平面的夹角。
6.一种基于主动双目视觉技术的工件定位系统,其特征在于,包括图像获取模块、平面坐标获取模块、三维坐标获取模块和定位模块;其中:
所述图像获取模块,用于采用具备彩色摄像头和深度摄像头的主动双目视觉相机,对具有若干个特征点的待定位工件,进行彩色图像和深度图像获取;
所述平面坐标获取模块,用于利用基于几何特征的模板匹配算法,在彩色图像中,识别出所述待定位工件上的每个特征点,得到每个特征点在彩色图像中的平面坐标;
所述三维坐标获取模块,用于将每个特征点所在的平面坐标系转化为相机坐标系,求得每个特征点对应的三维坐标;
所述工件角度信息第一计算模块,用于将从三维坐标获取模块中得到的每个特征点的三维坐标,进行平面计算,计算每个特征点所在工件平面相对相机平面的角度;
所述定位模块,用于从平面角度计算模块中获取每个特征点所在工件的平面角度值,并根据平面坐标获取模块得到的每个特征点在彩色图像中的平面坐标,实现对工件的定位。
7.根据权利要求6所述的工件定位方法,其特征在于,所述工件定位系统中,还包括工件角度信息第二计算模块;所述工件角度信息第二计算模块,用于通过获取特征点周围一片区域的三维点云数据,利用最小二乘法进行平面的拟合,进一步获得特征点所在平面相对相机平面的夹角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910313863.7A CN110136211A (zh) | 2019-04-18 | 2019-04-18 | 一种基于主动双目视觉技术的工件定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910313863.7A CN110136211A (zh) | 2019-04-18 | 2019-04-18 | 一种基于主动双目视觉技术的工件定位方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110136211A true CN110136211A (zh) | 2019-08-16 |
Family
ID=67570359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910313863.7A Pending CN110136211A (zh) | 2019-04-18 | 2019-04-18 | 一种基于主动双目视觉技术的工件定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110136211A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110455189A (zh) * | 2019-08-26 | 2019-11-15 | 广东博智林机器人有限公司 | 一种大尺寸物料的视觉定位方法和搬运机器人 |
CN110889845A (zh) * | 2019-11-29 | 2020-03-17 | 深圳市商汤科技有限公司 | 测量方法及装置、电子设备和存储介质 |
CN111192235A (zh) * | 2019-12-05 | 2020-05-22 | 中国地质大学(武汉) | 一种基于单目视觉模型和透视变换的图像测量方法 |
CN111415388A (zh) * | 2020-03-17 | 2020-07-14 | Oppo广东移动通信有限公司 | 一种视觉定位方法及终端 |
CN111640156A (zh) * | 2020-05-26 | 2020-09-08 | 中国地质大学(武汉) | 针对室外弱纹理目标的三维重建方法、设备及存储设备 |
CN113393383A (zh) * | 2021-08-17 | 2021-09-14 | 常州市新创智能科技有限公司 | 一种双深度相机拍照图像的拼接方法 |
CN113850815A (zh) * | 2021-11-29 | 2021-12-28 | 季华实验室 | 工件点云获取方法、装置、电子设备及存储介质 |
CN116258838A (zh) * | 2023-05-15 | 2023-06-13 | 青岛环球重工科技有限公司 | 一种用于管片模具合模系统的智能视觉引导方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966284A (zh) * | 2015-05-29 | 2015-10-07 | 北京旷视科技有限公司 | 基于深度数据获得对象尺寸信息的方法及设备 |
CN105045263A (zh) * | 2015-07-06 | 2015-11-11 | 杭州南江机器人股份有限公司 | 一种基于Kinect的机器人自定位方法 |
CN106570903A (zh) * | 2016-10-13 | 2017-04-19 | 华南理工大学 | 一种基于rgb‑d摄像头的视觉识别与定位方法 |
CN108510530A (zh) * | 2017-02-28 | 2018-09-07 | 深圳市朗驰欣创科技股份有限公司 | 一种三维点云匹配方法及其系统 |
CN108555908A (zh) * | 2018-04-12 | 2018-09-21 | 同济大学 | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 |
CN108694741A (zh) * | 2017-04-07 | 2018-10-23 | 杭州海康威视数字技术股份有限公司 | 一种三维重建方法及装置 |
CN109146939A (zh) * | 2018-09-07 | 2019-01-04 | 中科新松有限公司 | 一种工件抓取模板的生成方法及系统 |
-
2019
- 2019-04-18 CN CN201910313863.7A patent/CN110136211A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966284A (zh) * | 2015-05-29 | 2015-10-07 | 北京旷视科技有限公司 | 基于深度数据获得对象尺寸信息的方法及设备 |
CN105045263A (zh) * | 2015-07-06 | 2015-11-11 | 杭州南江机器人股份有限公司 | 一种基于Kinect的机器人自定位方法 |
CN106570903A (zh) * | 2016-10-13 | 2017-04-19 | 华南理工大学 | 一种基于rgb‑d摄像头的视觉识别与定位方法 |
CN108510530A (zh) * | 2017-02-28 | 2018-09-07 | 深圳市朗驰欣创科技股份有限公司 | 一种三维点云匹配方法及其系统 |
CN108694741A (zh) * | 2017-04-07 | 2018-10-23 | 杭州海康威视数字技术股份有限公司 | 一种三维重建方法及装置 |
CN108555908A (zh) * | 2018-04-12 | 2018-09-21 | 同济大学 | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 |
CN109146939A (zh) * | 2018-09-07 | 2019-01-04 | 中科新松有限公司 | 一种工件抓取模板的生成方法及系统 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110455189A (zh) * | 2019-08-26 | 2019-11-15 | 广东博智林机器人有限公司 | 一种大尺寸物料的视觉定位方法和搬运机器人 |
CN110889845B (zh) * | 2019-11-29 | 2022-11-11 | 深圳市商汤科技有限公司 | 测量方法及装置、电子设备和存储介质 |
CN110889845A (zh) * | 2019-11-29 | 2020-03-17 | 深圳市商汤科技有限公司 | 测量方法及装置、电子设备和存储介质 |
CN111192235A (zh) * | 2019-12-05 | 2020-05-22 | 中国地质大学(武汉) | 一种基于单目视觉模型和透视变换的图像测量方法 |
CN111415388A (zh) * | 2020-03-17 | 2020-07-14 | Oppo广东移动通信有限公司 | 一种视觉定位方法及终端 |
CN111415388B (zh) * | 2020-03-17 | 2023-10-24 | Oppo广东移动通信有限公司 | 一种视觉定位方法及终端 |
CN111640156A (zh) * | 2020-05-26 | 2020-09-08 | 中国地质大学(武汉) | 针对室外弱纹理目标的三维重建方法、设备及存储设备 |
CN113393383A (zh) * | 2021-08-17 | 2021-09-14 | 常州市新创智能科技有限公司 | 一种双深度相机拍照图像的拼接方法 |
CN113393383B (zh) * | 2021-08-17 | 2021-11-16 | 常州市新创智能科技有限公司 | 一种双深度相机拍照图像的拼接方法 |
CN113850815A (zh) * | 2021-11-29 | 2021-12-28 | 季华实验室 | 工件点云获取方法、装置、电子设备及存储介质 |
CN113850815B (zh) * | 2021-11-29 | 2022-03-08 | 季华实验室 | 工件点云获取方法、装置、电子设备及存储介质 |
CN116258838A (zh) * | 2023-05-15 | 2023-06-13 | 青岛环球重工科技有限公司 | 一种用于管片模具合模系统的智能视觉引导方法 |
CN116258838B (zh) * | 2023-05-15 | 2023-09-19 | 青岛环球重工科技有限公司 | 一种用于管片模具合模系统的智能视觉引导方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136211A (zh) | 一种基于主动双目视觉技术的工件定位方法及系统 | |
CN113524194B (zh) | 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法 | |
CN108555908B (zh) | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 | |
CN105729468B (zh) | 一种基于多深度摄像机增强的机器人工作台 | |
CN111089569B (zh) | 一种基于单目视觉的大型箱体测量方法 | |
CN105021124B (zh) | 一种基于深度图的平面零件三维位置和法向量计算方法 | |
CN113379849B (zh) | 基于深度相机的机器人自主识别智能抓取方法及系统 | |
CN110751691B (zh) | 一种基于双目视觉的管件自动抓取方法 | |
CN110555878B (zh) | 物体空间位置形态的确定方法、装置、存储介质及机器人 | |
JP2022516852A (ja) | オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置 | |
CN111897349A (zh) | 一种基于双目视觉的水下机器人自主避障方法 | |
CN105563481B (zh) | 一种用于轴孔装配的机器人视觉引导方法 | |
CN113284179B (zh) | 一种基于深度学习的机器人多物体分拣方法 | |
CN112419429B (zh) | 一种基于多视角的大型工件表面缺陷检测标定方法 | |
Zheng et al. | Industrial part localization and grasping using a robotic arm guided by 2D monocular vision | |
CN112017248B (zh) | 一种基于点线特征的2d激光雷达相机多帧单步标定方法 | |
Hsu et al. | Development of a faster classification system for metal parts using machine vision under different lighting environments | |
CN113500593B (zh) | 一种抓取轴类工件指定部位进行上料的方法 | |
WO2020133888A1 (zh) | 一种三维图像的尺度不变深度图映射方法 | |
JPH055041B2 (zh) | ||
CN111583342A (zh) | 一种基于双目视觉的目标快速定位方法及装置 | |
CN114001651B (zh) | 一种基于双目视觉测量和先验检测数据的大型细长筒类构件位姿原位测量方法 | |
CN113012238A (zh) | 一种多深度相机快速标定与数据融合的方法 | |
CN112785647A (zh) | 一种三目立体图像检测方法和系统 | |
Li et al. | Workpiece intelligent identification and positioning system based on binocular machine vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190816 |
|
RJ01 | Rejection of invention patent application after publication |