CN113103226A - 一种面向陶瓷素坯加工制造的视觉引导机器人系统 - Google Patents

一种面向陶瓷素坯加工制造的视觉引导机器人系统 Download PDF

Info

Publication number
CN113103226A
CN113103226A CN202110250634.2A CN202110250634A CN113103226A CN 113103226 A CN113103226 A CN 113103226A CN 202110250634 A CN202110250634 A CN 202110250634A CN 113103226 A CN113103226 A CN 113103226A
Authority
CN
China
Prior art keywords
point cloud
workpiece
difference
processing
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110250634.2A
Other languages
English (en)
Inventor
张剑
章珈豪
马启航
张云瞻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202110250634.2A priority Critical patent/CN113103226A/zh
Publication of CN113103226A publication Critical patent/CN113103226A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种面向陶瓷素坯加工制造的视觉引导机器人系统,包括机器人本体,机器人本体上设有多个模块,包括3D结构采集模块,通过结构光系统获取主坯和从坯的表面几何结构和定位信息的3D点云数据,并进行滤波处理和特征提取;点云特征处理和配准模块,将局部特征和全局特征进行划分得到工件点云集与目标点云集,进行配准得到相似特征配准点云对;差异点云对提取模块,根据特征差异提取差异点云对;点云分割模块,分割差异点云对,并记录分割点云集;视觉引导机器人模块,获取结构光系统与机器人本体之间的相对位置变换矩阵,根据分割点云集,计算得到点云数据的视觉信息。与现有技术相比,本发明具有提高陶瓷加工的加工效率和加工质量等优点。

Description

一种面向陶瓷素坯加工制造的视觉引导机器人系统
技术领域
本发明涉及机械加工技术领域,尤其是涉及一种面向陶瓷素坯加工制造的视觉引导机器人系统。
背景技术
对于待加工零件,抛光打磨是一项重要的基础工序,然而传统的人工磨抛作业存在严重的缺陷,例如作业时间长、无法有效控制产品质量、长期在充满粉尘和噪声的恶劣作业环境中严重影响工人的身心健康。因此综合效率、质量和工人等方面考虑,采用自动化技术来进行智能磨抛。
机器视觉是一种非接触式的信息采集方式,可高效、高精度的获取受检测物体的外观信息,为机器人添加视觉系统,并采用合适的视觉模块和相关算法,能显著提高机器人的智能程度和运算效率。市面上已经出现基于机器视觉、多轴机器人、物联网等技术的智能制造模式,并且,随着高效、智能、经济的柔性精密加工工艺装备的需求越来越多,基于机器视觉的磨抛机器人的视觉引导系统具有广阔的应用前景。然而传统的通过示教机器人获得磨抛轨迹的编程方法效率低下,无法应对当下行业中大量柔性制造需求的现状。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种面向陶瓷素坯加工制造的视觉引导机器人系统,通过获取陶瓷素胚表面信息,提取匹配特征,并根据点云匹配算法技术得到主从坯之间的变换关系来控制机器人动作,提高陶瓷加工的加工效率和加工质量。
本发明的目的可以通过以下技术方案来实现:
一种面向陶瓷素坯加工制造的视觉引导机器人系统,包括机器人本体,所述机器人本体上设有多个模块,包括:
3D结构采集模块,通过结构光系统获取待加工工件和样本工件的主坯和从坯的表面几何结构和定位信息的3D点云数据,并进行滤波处理和特征提取;
点云特征处理和配准模块,将特征提取得到的局部特征和全局特征进行划分得到工件点云集与目标点云集,将工件点云集与目标点云集进行配准得到多个相似特征配准点云对;
差异点云对提取模块,根据特征差异从多个相似特征配准点云对中提取差异点云对;
点云分割模块,分割差异点云对,并记录分割点云集;
视觉引导机器人模块,获取结构光系统与机器人本体之间的相对位置变换矩阵,根据分割点云集,计算得到基于主坯和从坯的3D点云数据的视觉信息,机器人本体根据所述视觉信息进行抓取,完成对陶瓷素坯的加工。
所述结构光系统包括投影仪和2D相机,所述投影仪投射特定的光信息到待加工工件的表面后及背景后,所述2D相机采集并根据光信号的变化来计算待加工工件的位置和深度,进而复原待加工工件所在的三维空间。
所述滤波处理具体为下采样处理,通过下采样处理降低图像显示数据大小、减少后端运算量、生成对应图像的缩略图。
进一步地,所述下采样处理采用体素栅格滤波,通过建立三维体素栅格,在每个体素内用体素中所有点的重心来近似显示体素中其他点。
所述3D结构采集模块中提取的特征具体为以曲率变化明显的位置点或定位精度较高的孔柱为代表的局部特征和外观几何形状规则的全局特征,建立描述性明显、鲁棒性强的特征描述子。
所述点云特征处理和配准模块采用的配准方法包括粗配准和精配准。
进一步地,所述粗配准采用SURF算法,所述SURF算法采用harr特征以及积分图像,是对SIFT算法的加强版,同时加速和具有鲁棒性的特征,在多幅图片下具有更好的鲁棒性;精配准采用迭代最近点(ICP)算法,所述ICP算法是一种点集对点集精配准的方法,用于点云配准,找到两部分点云之间的刚体变化关系。
所述差异点云对提取模块的特征差异具体以欧式距离作为差异值,并对工件点云集进行区域划分,提取每个区域中差异值最大的点云对作为差异点云对。
所述点云分割模块具体的分割过程为计算差异点云对的最小包络盒,转换成立方体,并依据最长边进行等分分割得到多个分割体,计算并记录每个分割体的质心点云。
所述视觉引导机器人模块的视觉信息包括待加工工件的最优加工轨迹。
进一步地,所述最优加工轨迹具体是以机器人本体与待加工工件的接触点处的点云为起始点,通过选取接触点预设范围内的质心点云,根据点云间的欧式距离,以方向作为权重计算得到。
与现有技术相比,本发明具有以下有益效果:
本发明通过结构光系统获取陶瓷素胚表面信息,在点云层面进行特征提取和滤波处理,将工件点云集与目标点云集进行粗配准和精配准并选取差异值最大的差异点云对,通过等分分割得到分割体,并记录每个分割体的质心点云,以机器人本体与待加工工件的接触点处的点云为起始点,通过选取接触点预设范围内的质心点云,根据点云间的欧式距离,以方向作为权重计算得到最优加工轨迹。整个过程自动化程度高、工艺集约化程度强。不仅提高了陶瓷素胚加工的加工效率,同时也大幅度提高了陶瓷加工的加工质量。
附图说明
图1为本发明的结构示意图;
图2为本发明的流程示意图;
图3为本发明实施例中机器人本体的结构示意图;
图4为本发明结构光系统基本原理的示意图。
附图标记:
1-机器人本体;2-结构光系统。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例
如图1所示,一种面向陶瓷素坯加工制造的视觉引导机器人系统,包括机器人本体,机器人本体上设有多个模块,包括:
3D结构采集模块,通过结构光系统获取待加工工件和样本工件的主坯和从坯的表面几何结构和定位信息的3D点云数据,并进行滤波处理和特征提取;
点云特征处理和配准模块,将特征提取得到的局部特征和全局特征进行划分得到工件点云集与目标点云集,将工件点云集与目标点云集进行配准得到多个相似特征配准点云对;
差异点云对提取模块,根据特征差异从多个相似特征配准点云对中提取差异点云对;
点云分割模块,分割差异点云对,并记录分割点云集;
视觉引导机器人模块,获取结构光系统与机器人本体之间的相对位置变换矩阵,根据分割点云集,计算得到基于主坯和从坯的3D点云数据的视觉信息,机器人本体根据视觉信息进行抓取,完成对陶瓷素坯的加工。本实施例中,视觉引导机器人模块采用改进型同步防扰动随机逼近算法计算视觉信息。
如图2所示,根据以上单元模块,基于机器视觉的磨抛机器人的加工轨迹智能规划方法具体包括以下步骤:
步骤S1、点云采集:使用结构光系统实时获取待加工工件和样本工件的3D结构和定位的点云数据;
步骤S2、滤波处理:使用滤波器对上述数据进行数据处理;
步骤S3、特征处理:根据相应的配准算法进行相应特征提取;
步骤S4、点云配准:将特征提取得到的局部特征和全局特征进行划分得到工件点云集与目标点云集,将工件点云集与目标点云集进行配准得到多个相似特征配准点云对;
步骤S5、差异点云对提取:对配准好的点云对进行特征最大差异点云对提取;
步骤S6、点云分割:分割差异点云对,并记录分割点云集;
步骤S7、路径引导:根据相关算法智能选取加工路径。
如图3所示,本实施例中,机器人本体1为EFORT Intelligence Equipment Co.,Ltd制造,型号为ER3A-C60的磨抛机器人,负载3Kg,工作范围1.256m,重复定位精度±0.02mm,结构光系统2的2D相机固定在在磨抛机器人的第四关节上。
点云采集阶段,2D相机跟随刀具,并结合结构光系统2实时动态地采集工件表面结构和质量信息来获得相关点云数据。
如图4所示,结构光系统包括投影仪、2D相机和计算机,投影仪投射特定的光信息到待加工工件的表面后及背景后,2D相机采集并根据光信号的变化来计算待加工工件的位置和深度,进而复原待加工工件所在的三维空间,具体步骤如下:
S11、参考平面标定。测量一个相位周期的光栅投影到参考平面后上的光栅长度,并获取参考平面在相机成像的相位置;
S12、标定后的计算。物体表面点P的投影相位θP=θB,θB是点P在投影仪照片中的相位,而θA则是点P在相机中成像位置(up,vp)对应的标定时获取的参考平面在(up,vp)处成像的相位值,最终表达式如下:
Figure BDA0002965904510000051
其中,l为投影平面和参考平面之间的距离,d为相机与投影仪之间的距离。
滤波处理具体为下采样处理,通过下采样处理降低图像显示数据大小、减少后端运算量、生成对应图像的缩略图。
下采样处理采用体素栅格滤波,通过建立三维体素栅格,三维体素栅格的数量与体积成反比,在每个体素内用体素中所有点的重心来近似显示体素中其他点,具体计算公式如下所示:
Figure BDA0002965904510000052
其中,n为一个三维体素栅格内所包含的点云个数,(xi,yi,zi)为当前体素内点的标值,(Xα,Yα,Zα)为每个三维体素的质心。
3D结构采集模块中提取的特征具体为以曲率变化明显的位置点或定位精度较高的孔柱为代表的局部特征和外观几何形状规则的全局特征,建立描述性明显、鲁棒性强的特征描述子。
点云特征处理和配准模块采用的配准方法包括粗配准和精配准,使点云处理的各项阶段的时间复杂度较小,在提高效率的同时,保证点云处理质量。
粗配准采用SURF算法,SURF算法采用harr特征以及积分图像,是对SIFT算法的加强版,同时加速和具有鲁棒性的特征,在多幅图片下具有更好的鲁棒性;粗配准通过图像配准计算出转换方程,然后对点云集进行矩阵转换在进行精配准来进一步保证精度,具体步骤如下:
S41、构建黑塞矩阵(Hessian),生成所有的兴趣点,用于特征的提取;
S42、定位特征点;
S43、构造变换矩阵;
S44、将各子图片对应点云做相应的位姿变换。
黑塞矩阵的表达式具体如下所示:
Figure BDA0002965904510000061
其中,(x,y)为点云数据的坐标。
在构造Hessian矩阵前需要对图像进行高斯滤波,具体公式如下:
Figure BDA0002965904510000062
在离散数字图像中,一阶导数是相邻像素的灰度差,二阶导数是对一阶导数的再次求导,具体公式如下:
Dx=f(x+1,y)-f(x,y)
Dxx=[f(x+1,y)-f(x,y)]-[f(x,y)-f(x-1,y)]
det(H)=Dxx*Dyy-Dxy*Dxy
其中,det(H)为Hessian矩阵的判别式,当Hessian矩阵的判别式取得局部极大值时,判定当前点是比周围邻域内其他点更亮或更暗的点,由此来定位关键点的位置,然后构建尺度空间。
步骤S42中,将经过hessian矩阵处理过的每个像素点与其3维领域的26个点进行大小比较,如果它是这26个点中的最大值或者最小值,则保留下来,当作初步的特征点。然后,采用3维线性插值法得到亚像素级的特征点,同时也去掉小于阈值的点,增加极值使检测到的特征点数量减少,检测最终的特征最强点。
步骤S43中,基于特征最强点的坐标和灰度,与目标工件点云采集中所依赖的图片进行配准,然后构建位姿变换矩阵对该图片对应点云集进行位姿变换。具体采用局部位姿矩阵求解,即将图片分为9份,以各部分中心点坐标为坐标系原点,x轴和y轴与相机光心坐标平行,取各部分4角点做交叉向量,通过交叉向量来求解位姿变换矩阵。
粗配准的最终目的是在所有变换中找到一组最优的变换,使得误差函数的值最小,此时的变换即为最终的配准变换矩阵,进一步可得到配准结果。
精配准采用迭代最近点(ICP)算法,ICP算法是一种点集对点集精配准的方法,基于SVD,用于点云配准,找到两部分点云之间的刚体变化关系,具体步骤如下所示:
S45、将初始配准后的两片点云P'(经过坐标变换后的源点云)和Q,作为精配准的初始点集;
S46、对源点云P'中的每一点pi',在目标点云Q中寻找距离最近的对应点q'i,作为该点在目标点云中的对应点,组成初始对应点对(pi',qi);
S47、通过使对应点集之间的均方误差E最小,来计算旋转矩阵R和平移向量T,具体公式如下所示:
qi=R·pi'+T
Figure BDA0002965904510000071
S48、对点云Pi'使用S47求得的平移和旋转参数,得到新的变换点集;
S49、设定某一阈值ε=dk-dk-1和最大迭代次数NMAX,将上一步得到的刚体变换作用于源点云P',得到新点云P”,计算P”和Q的距离误差,如果两次迭代的误差小于阈值ε或者当前迭代次数大于NMAX,则迭代结束,否则将初始配准的点集更新为P”和Q,继续重复上述步骤,直至满足收敛条件。
步骤S46中,采用方向向量阈值剔除错误的对应点对。
差异点云对提取模块的特征差异具体以欧式距离作为差异值,并对工件点云集进行区域划分,提取每个区域中差异值最大的点云对作为差异点云对,具体步骤如下所示:
S51、根据输入的点云数据创建一个三维体素栅格;
S52、每个体素网格内的点做FPFH特征提取;
S53、在样本点云Q中,根据此特征值选取对应点云片;
S54、以欧式距离作为特征值,选取点云片对内特征值最大的点云对最为目标差异点云对,具体计算公式如下所示:
Figure BDA0002965904510000081
其中,d'为欧式距离,pi为源点云集中的点,qi为目标点云中的点。
点云分割模块具体的分割过程为计算差异点云对的最小包络盒,转换成立方体,并依据最长边进行等分分割得到多个分割体,计算并记录每个分割体的质心点云。
视觉引导机器人模块的视觉信息包括待加工工件的最优加工轨迹。
最优加工轨迹具体是以机器人本体与待加工工件的接触点处的点云为起始点,通过选取接触点预设范围内的质心点云,根据点云间的欧式距离,以方向作为权重计算得到。
本发明运用了机器视觉、结构光和特征算法,提供一种视觉引导系统,通过一定算法对结构光系统采集的加工工件表面信息,以及预存的目标工件点云数据进行处理,而获得对机器人引导的轨迹,并且这种轨迹是实时动态变化的,可以根据工件的实时表面信息及时的调整,不仅有助于缩短机器人轨迹的规划周期,同时还能保证加工质量。
此外,需要说明的是,本说明书中所描述的具体实施例,所取名称可以不同,本说明书中所描述的以上内容仅仅是对本发明结构所做的举例说明。凡依据本发明构思的构造、特征及原理所做的等效变化或者简单变化,均包括于本发明的保护范围内。本发明所属技术领域的技术人员可以对所描述的具体实例做各种各样的修改或补充或采用类似的方法,只要不偏离本发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。

Claims (10)

1.一种面向陶瓷素坯加工制造的视觉引导机器人系统,包括机器人本体,其特征在于,所述机器人本体上设有多个模块,包括:
3D结构采集模块,通过结构光系统获取待加工工件和样本工件的主坯和从坯的表面几何结构和定位信息的3D点云数据,并进行滤波处理和特征提取;
点云特征处理和配准模块,将特征提取得到的局部特征和全局特征进行划分得到工件点云集与目标点云集,将工件点云集与目标点云集进行配准得到多个相似特征配准点云对;
差异点云对提取模块,根据特征差异从多个相似特征配准点云对中提取差异点云对;
点云分割模块,分割差异点云对,并记录分割点云集;
视觉引导机器人模块,获取结构光系统与机器人本体之间的相对位置变换矩阵,根据分割点云集,计算得到基于主坯和从坯的3D点云数据的视觉信息,机器人本体根据所述视觉信息进行抓取,完成对陶瓷素坯的加工。
2.根据权利要求1所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述结构光系统包括投影仪和2D相机,所述投影仪投射特定的光信息到待加工工件的表面后及背景后,所述2D相机采集并根据光信号的变化来计算待加工工件的位置和深度,进而复原待加工工件所在的三维空间。
3.根据权利要求1所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述滤波处理具体为下采样处理。
4.根据权利要求3所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述下采样处理采用体素栅格滤波,通过建立三维体素栅格,在每个体素内用体素中所有点的重心来近似显示体素中其他点。
5.根据权利要求1所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述点云特征处理和配准模块采用的配准方法包括粗配准和精配准。
6.根据权利要求5所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述粗配准采用SURF算法,精配准采用ICP算法。
7.根据权利要求1所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述差异点云对提取模块的特征差异具体以欧式距离作为差异值,并对工件点云集进行区域划分,提取每个区域中差异值最大的点云对作为差异点云对。
8.根据权利要求1所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述点云分割模块具体的分割过程为计算差异点云对的最小包络盒,转换成立方体,并依据最长边进行等分分割得到多个分割体,计算并记录每个分割体的质心点云。
9.根据权利要求1所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述视觉引导机器人模块的视觉信息包括待加工工件的最优加工轨迹。
10.根据权利要求9所述的一种面向陶瓷素坯加工制造的视觉引导机器人系统,其特征在于,所述最优加工轨迹具体是以机器人本体与待加工工件的接触点处的点云为起始点,通过选取接触点预设范围内的质心点云,根据点云间的欧式距离,以方向作为权重计算得到。
CN202110250634.2A 2021-03-08 2021-03-08 一种面向陶瓷素坯加工制造的视觉引导机器人系统 Pending CN113103226A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110250634.2A CN113103226A (zh) 2021-03-08 2021-03-08 一种面向陶瓷素坯加工制造的视觉引导机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110250634.2A CN113103226A (zh) 2021-03-08 2021-03-08 一种面向陶瓷素坯加工制造的视觉引导机器人系统

Publications (1)

Publication Number Publication Date
CN113103226A true CN113103226A (zh) 2021-07-13

Family

ID=76711569

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110250634.2A Pending CN113103226A (zh) 2021-03-08 2021-03-08 一种面向陶瓷素坯加工制造的视觉引导机器人系统

Country Status (1)

Country Link
CN (1) CN113103226A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170314A (zh) * 2021-12-07 2022-03-11 深圳群宾精密工业有限公司 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法
CN117162098A (zh) * 2023-10-07 2023-12-05 合肥市普适数孪科技有限公司 一种狭小空间机器人姿态自主规划系统及方法
CN117162098B (zh) * 2023-10-07 2024-05-03 合肥市普适数孪科技有限公司 一种狭小空间机器人姿态自主规划系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124714A1 (en) * 2015-11-03 2017-05-04 The Boeing Company Locating a feature for robotic guidance
CN107607040A (zh) * 2017-08-11 2018-01-19 天津大学 一种适用于强反射表面的三维扫描测量装置及方法
CN108789414A (zh) * 2018-07-17 2018-11-13 五邑大学 基于三维机器视觉的智能机械臂系统及其控制方法
CN108830902A (zh) * 2018-04-19 2018-11-16 江南大学 一种基于点云处理的散乱工件识别与定位方法
CN110992410A (zh) * 2019-11-29 2020-04-10 广东技术师范大学 基于rgb-d数据融合的机器人视觉引导方法和装置
CN111515945A (zh) * 2020-04-10 2020-08-11 广州大学 机械臂视觉定位分拣抓取的控制方法、系统及装置
CN112070818A (zh) * 2020-11-10 2020-12-11 纳博特南京科技有限公司 基于机器视觉的机器人无序抓取方法和系统及存储介质
CN112435342A (zh) * 2020-11-24 2021-03-02 华侨大学 一种异型曲面的区域划分方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124714A1 (en) * 2015-11-03 2017-05-04 The Boeing Company Locating a feature for robotic guidance
CN107607040A (zh) * 2017-08-11 2018-01-19 天津大学 一种适用于强反射表面的三维扫描测量装置及方法
CN108830902A (zh) * 2018-04-19 2018-11-16 江南大学 一种基于点云处理的散乱工件识别与定位方法
CN108789414A (zh) * 2018-07-17 2018-11-13 五邑大学 基于三维机器视觉的智能机械臂系统及其控制方法
CN110992410A (zh) * 2019-11-29 2020-04-10 广东技术师范大学 基于rgb-d数据融合的机器人视觉引导方法和装置
CN111515945A (zh) * 2020-04-10 2020-08-11 广州大学 机械臂视觉定位分拣抓取的控制方法、系统及装置
CN112070818A (zh) * 2020-11-10 2020-12-11 纳博特南京科技有限公司 基于机器视觉的机器人无序抓取方法和系统及存储介质
CN112435342A (zh) * 2020-11-24 2021-03-02 华侨大学 一种异型曲面的区域划分方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MUHOVIC, J;MANDELJC, R; BOVCON, B; KRISTAN, M; PERS, J: "Obstacle Tracking for Unmanned Surface Vessels Using 3-D Point Cloud", 《IEEE JOURNAL OF OCEANIC ENGINEERING》 *
徐鑫; 封龙高; 吴名陵: "基于3D视觉引导的拆装模机器人系统设计", 《起重运输机械》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170314A (zh) * 2021-12-07 2022-03-11 深圳群宾精密工业有限公司 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法
CN117162098A (zh) * 2023-10-07 2023-12-05 合肥市普适数孪科技有限公司 一种狭小空间机器人姿态自主规划系统及方法
CN117162098B (zh) * 2023-10-07 2024-05-03 合肥市普适数孪科技有限公司 一种狭小空间机器人姿态自主规划系统及方法

Similar Documents

Publication Publication Date Title
CN109544456B (zh) 基于二维图像和三维点云数据融合的全景环境感知方法
CN110264567B (zh) 一种基于标记点的实时三维建模方法
CN107301654B (zh) 一种多传感器的高精度即时定位与建图方法
CN107833270B (zh) 基于深度相机的实时物体三维重建方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN107063228B (zh) 基于双目视觉的目标姿态解算方法
CN107588721A (zh) 一种基于双目视觉的零件多尺寸的测量方法及系统
CN107767456A (zh) 一种基于rgb‑d相机的物体三维重建方法
CN108225319B (zh) 基于目标特征的单目视觉快速相对位姿估计系统及方法
CN111897349A (zh) 一种基于双目视觉的水下机器人自主避障方法
CN107862735B (zh) 一种基于结构信息的rgbd三维场景重建方法
CN109470149B (zh) 一种管路位姿的测量方法及装置
CN112067233B (zh) 一种用于风洞模型六自由度运动捕获方法
CN112001926B (zh) 基于多维语义映射rgbd多相机标定方法、系统及应用
CN108765495B (zh) 一种基于双目视觉检测技术的快速标定方法及系统
CN110516639B (zh) 一种基于视频流自然场景的人物三维位置实时计算方法
CN106952262B (zh) 一种基于立体视觉的船板加工精度分析方法
CN108519102A (zh) 一种基于二次投影的双目视觉里程计算方法
Eichhardt et al. Affine correspondences between central cameras for rapid relative pose estimation
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
CN112263052A (zh) 一种基于视觉数据自动映射鞋面喷胶路径的方法及系统
CN111127556B (zh) 基于3d视觉的目标物体识别和位姿估算方法以及装置
CN114170284B (zh) 基于主动标志点投射辅助的多视图点云配准方法
CN114022542A (zh) 一种基于三维重建的3d数据库制作方法
CN111127613A (zh) 基于扫描电子显微镜的图像序列三维重构方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210713