CN116967846A - 一种智能机器人视觉定位系统及方法 - Google Patents
一种智能机器人视觉定位系统及方法 Download PDFInfo
- Publication number
- CN116967846A CN116967846A CN202311238974.9A CN202311238974A CN116967846A CN 116967846 A CN116967846 A CN 116967846A CN 202311238974 A CN202311238974 A CN 202311238974A CN 116967846 A CN116967846 A CN 116967846A
- Authority
- CN
- China
- Prior art keywords
- value
- machining
- contour
- module
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000003754 machining Methods 0.000 claims abstract description 130
- 238000012545 processing Methods 0.000 claims abstract description 126
- 238000001514 detection method Methods 0.000 claims abstract description 68
- 230000000007 visual effect Effects 0.000 claims abstract description 49
- 238000004458 analytical method Methods 0.000 claims abstract description 42
- 238000013461 design Methods 0.000 claims description 12
- 230000002950 deficient Effects 0.000 claims description 9
- 230000005484 gravity Effects 0.000 claims description 4
- 238000012797 qualification Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012372 quality testing Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23Q—DETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
- B23Q17/00—Arrangements for observing, indicating or measuring on machine tools
- B23Q17/22—Arrangements for observing, indicating or measuring on machine tools for indicating or measuring existing or desired position of tool or work
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23Q—DETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
- B23Q15/00—Automatic control or regulation of feed movement, cutting velocity or position of tool or work
- B23Q15/007—Automatic control or regulation of feed movement, cutting velocity or position of tool or work while the tool acts upon the workpiece
- B23Q15/12—Adaptive control, i.e. adjusting itself to have a performance which is optimum according to a preassigned criterion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23Q—DETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
- B23Q15/00—Automatic control or regulation of feed movement, cutting velocity or position of tool or work
- B23Q15/007—Automatic control or regulation of feed movement, cutting velocity or position of tool or work while the tool acts upon the workpiece
- B23Q15/14—Control or regulation of the orientation of the tool with respect to the work
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23Q—DETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
- B23Q17/00—Arrangements for observing, indicating or measuring on machine tools
- B23Q17/20—Arrangements for observing, indicating or measuring on machine tools for indicating or measuring workpiece characteristics, e.g. contour, dimension, hardness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Manipulator (AREA)
Abstract
本发明涉及视觉定位领域,具体涉及一种智能机器人视觉定位系统及方法,用于解决现有的零件加工机器人无法对加工位置进行智能化识别定位,而且无法对加工前后的零件进行质量检测的问题;该系统包括图纸输入模块、零件加工平台、零件检测模块、信息分析模块、零件分类模块、视觉收集模块以及视觉定位模块;该系统能够智能化对需要加工的零件的加工位置进行视觉定位,提高了零件加工的效率与质量;该系统能够在零件加工前后进行两次质量检测,能够保证加工前的零件质量达标,避免无用功的进行,提高零件加工效率,还能够保证加工后的零件质量,提高产品合格率,同时能够及时发生加工过程中出现的加工误差,及时调整,避免造成严重的经济损失。
Description
技术领域
本发明涉及视觉定位领域,具体涉及一种智能机器人视觉定位系统及方法。
背景技术
随着科技的进步,智能机器人在各个领域得到了广泛应用。视觉定位系统是智能机器人的重要组成部分,能够通过视觉传感器和图像处理技术识别和定位目标物体。目前的智能机器人对零件进行加工的过程中,通常需要先将零件进行固定,之后使用加工刀具直接对零件进行加工,但是对零件进行固定时由于零件的形状不同,导致对零件的固定后加工位置存在误差,而智能机器人无法对加工位置进行智能化识别定位,导致生产的零件误差大,次品率高,而且无法对加工前后的零件进行质量检测,对不合格的零件加工导致无用功的进行,影响零件加工效率,无法保证加工后的零件质量,产品合格率不高,同时无法对加工过程中出现的加工误差及时发现并作出调整,易于造成经济损失。
如何改善现有的零件加工机器人无法对加工位置进行智能化识别定位,而且无法对加工前后的零件进行质量检测是本发明的关键,因此,亟需一种智能机器人视觉定位系统及方法来解决以上问题。
发明内容
为了克服上述的技术问题,本发明的目的在于提供一种智能机器人视觉定位系统及方法:通过视觉收集模块采集零件加工台上的待加工零件加工面的照片,并将其标记为比对对象,通过图纸输入模块根据比对对象和参照对象获得零件轮廓和参照轮廓,并根据零件轮廓和参照轮廓获得比差系数,并根据比差系数获得选中参照,通过视觉定位模块根据选中参照、零件轮廓获得参重点和轮重点,并根据参重点和轮重点获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台,过零件检测模块对待加工零件进行检测,获取待加工零件的零件误差信息,零件误差信息包括质差值、裂纹值以及表面值,通过信息分析模块根据零件误差信息获得零件误差系数,通过零件加工平台根据零件误差系数将待加工零件分类为不合格零件或者预合格零件,通过零件检测模块对预合格零件进行检测,获取预合格零件的加工误差信息,加工误差信息包括裂纹值、表面值以及比差系数,通过信息分析模块根据加工误差信息获得加工误差系数,通过零件加工平台根据加工误差系数将预合格零件分类为不合格零件或者合格零件,解决了现有的零件加工机器人无法对加工位置进行智能化识别定位,而且无法对加工前后的零件进行质量检测的问题。
本发明的目的可以通过以下技术方案实现:
一种智能机器人视觉定位系统,包括:
视觉收集模块,用于接收到视觉收集信号后采集零件加工台上的待加工零件加工面的照片,并将其标记为比对对象,并将比对对象发送至图纸输入模块;
图纸输入模块,用于根据比对对象和参照对象i获得零件轮廓和参照轮廓,并根据零件轮廓和参照轮廓获得比差系数BCi,并根据比差系数BCi获得选中参照,并将选中参照、零件轮廓发送至视觉定位模块;
视觉定位模块,用于根据选中参照、零件轮廓获得参重点和轮重点,并根据参重点和轮重点获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台。
作为本发明进一步的方案:所述图纸输入模块获得选中参照的具体过程如下:
接收到比对对象后获取待加工零件的轮廓,并将其标记为零件轮廓;
获取参照对象i的轮廓,并将其标记为参照轮廓;
获取零件轮廓和参照轮廓的面积,获得两者之间的面积差,并将其标记为积差值JC;
获取零件轮廓和参照轮廓的周长,获得两者之间的周长差,并将其标记为周差值ZC;
将积差值JC、周差值ZC代入公式得到比差系数BCi,其中,c1、c2分别为积差值JC、周差值ZC的预设比例系数,且c1+c2=1,0<c2<c1<1,取c1=0.53,c2=0.47;
将最小的比差系数BCi所对应的参照轮廓标记为选中参照;
将选中参照、零件轮廓发送至视觉定位模块。
作为本发明进一步的方案:所述视觉定位模块获得模拟加工点的坐标的具体过程如下:
获取选中参照、零件轮廓的重心,并将其分别标记为参重点和轮重点,令零件轮廓向选中参照移动,直至参重点和轮重点重合,并保持选中参照位置固定,零件轮廓以轮重点为圆心进行旋转,获得选中参照、零件轮廓的重合面积最大的位置,保持零件轮廓位置固定;
获取选中参照上的加工位置,并以选中参照上的加工位置对零件轮廓进行标注,得到模拟加工点;
以轮重点为原点建立直角坐标系,获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台。
作为本发明进一步的方案:还包括零件检测模块,用于接收到零件检测信号对待加工零件进行检测,获取待加工零件的零件误差信息,并将零件误差信息发送至信息分析模块;其中,零件误差信息包括质差值ZC、裂纹值LW以及表面值BM;所述零件检测模块获取零件误差信息的具体过程如下:
接收到零件检测信号对输送机上的待加工零件进行检测;
获取待加工零件的质量和预设的标准质量之间的差值,并将其标记为质差值ZC;
获取待加工零件表面裂纹条数,并将其裂数值LS,获取待加工零件表面最大面积的裂纹的面积值和最大长度的裂纹的长度值,并将其分别标记为裂面值LM和裂长值LC,将裂数值LS、裂面值LM以及裂长值LC代入公式得到裂纹值LW,其中,w1、w2以及w3分别为裂数值LS、裂面值LM以及裂长值LC的预设比例系数,且w1+w2+w3=1,0<w1<w3<w2<1,取w1=0.28,w2=0.38,w3=0.34;
获取待加工零件表面最高点位置和最低点位置,获取两者之间的高度差,并将其标记为高差值GC,获取待加工零件表面凸起与凹坑的总数量,并将其分别标记为凸数值TS和凹数值AS,将高差值GC、高差值GC以及凹数值AS代入公式得到表面值BM,其中,m1、m2以及m3分别为高差值GC、高差值GC以及凹数值AS的预设比例系数,且m1+m2+m3=1,0<m3<m2<m1<1,取m1=0.37,m2=0.34,m3=0.29;
将质差值ZC、裂纹值LW以及表面值BM发送至信息分析模块。
作为本发明进一步的方案:所述零件检测模块还用于接收到零件续检信号对预合格零件进行检测,获取预合格零件的加工误差信息,并将加工误差信息发送至信息分析模块;其中,加工误差信息包括裂纹值LW、表面值BM以及比差系数BCi;所述零件检测模块获取加工误差信息的具体过程如下:
接收到零件续检信号对输送机上的预合格零件进行检测;
获取预合格零件的裂纹值LW、表面值BM;
获取预合格零件和选中参照上的加工位置的边缘轮廓,获得两者的比差系数BCi;
将裂纹值LW、表面值BM以及比差系数BCi发送至信息分析模块。
作为本发明进一步的方案:还包括信息分析模块,用于根据零件误差信息获得零件误差系数LJ,并将零件误差系数LJ发送至零件加工平台;所述信息分析模块获得零件误差系数LJ的具体过程如下:
将质差值ZC、裂纹值LW以及表面值BM代入公式得到零件误差系数LJ,其中,π为数学常数,k为误差调节因子,取k=1.133,α1、α2、α3分别为质差值ZC、裂纹值LW以及表面值BM的预设权重系数,且α2>α3>α1>1.174,取α1=1.26,α2=1.91,α3=1.55;
将零件误差系数LJ发送至零件加工平台。
作为本发明进一步的方案:所述信息分析模块还用于根据加工误差信息获得加工误差系数JW,并将加工误差系数JW发送至零件加工平台;所述信息分析模块获得加工误差系数JW的具体过程如下:
将裂纹值LW、表面值BM以及比差系数BCi代入公式得到加工误差系数JW,其中,e为数学常数,u为误差调节因子,取u=0.985,β1、β2、β3分别为裂纹值LW、表面值BM以及比差系数BCi的预设权重系数,且β3>β1>β2>1.358,取β1=1.88,β2=1.62,β3=2.15;
将加工误差系数JW发送至零件加工平台。
作为本发明进一步的方案:一种智能机器人视觉定位的方法,包括以下步骤:
步骤一:图纸输入模块将用户上传的零件加工设计图进行储存,并将其标记为参照对象i;
步骤二:零件加工平台在零件加工智能机器人启动时生成零件检测信号,并将零件检测信号发送至零件检测模块;
步骤三:零件检测模块接收到零件检测信号对待加工零件进行检测,获取待加工零件的零件误差信息,并将零件误差信息发送至信息分析模块;其中,零件误差信息包括质差值ZC、裂纹值LW以及表面值BM;
步骤四:信息分析模块根据零件误差信息获得零件误差系数LJ,并将零件误差系数LJ发送至零件加工平台;
步骤五:零件加工平台根据零件误差系数LJ将待加工零件分类为不合格零件或者预合格零件,并将不合格零件或者预合格零件发送至零件分类模块;
步骤六:零件分类模块接收到不合格零件后将不合格零件转移至次品区进行收集,接收到预合格零件后将预合格零件转移至零件加工台进行加工,待零件加工台到达零件加工台并进行固定时,生成视觉收集信号,并将视觉收集信号发送至视觉收集模块;
步骤七:视觉收集模块接收到视觉收集信号后采集零件加工台上的待加工零件加工面的照片,并将其标记为比对对象,并将比对对象发送至图纸输入模块;
步骤八:图纸输入模块根据比对对象和参照对象i获得零件轮廓和参照轮廓,并根据零件轮廓和参照轮廓获得比差系数BCi,并根据比差系数BCi获得选中参照,并将选中参照、零件轮廓发送至视觉定位模块;
步骤九:视觉定位模块根据选中参照、零件轮廓获得参重点和轮重点,并根据参重点和轮重点获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台;
步骤十:零件加工平台根据模拟加工点的坐标对预合格零件进行零件加工,同时生成零件续检信号,并将零件续检信号发送至零件检测模块;
步骤十一:零件检测模块接收到零件续检信号对预合格零件进行检测,获取预合格零件的加工误差信息,并将加工误差信息发送至信息分析模块;其中,加工误差信息包括裂纹值LW、表面值BM以及比差系数BCi;
步骤十二:信息分析模块根据加工误差信息获得加工误差系数JW,并将加工误差系数JW发送至零件加工平台;
步骤十三:零件加工平台根据加工误差系数JW将预合格零件分类为不合格零件或者合格零件,并将不合格零件或者合格零件发送至零件分类模块;
步骤十四:零件分类模块接收到不合格零件后将不合格零件转移至次品区进行收集,接收到合格零件后将合格零件转移至合格区进行收集。
本发明的有益效果:
本发明的一种智能机器人视觉定位系统及方法,通过视觉收集模块采集零件加工台上的待加工零件加工面的照片,并将其标记为比对对象,通过图纸输入模块根据比对对象和参照对象获得零件轮廓和参照轮廓,并根据零件轮廓和参照轮廓获得比差系数,并根据比差系数获得选中参照,通过视觉定位模块根据选中参照、零件轮廓获得参重点和轮重点,并根据参重点和轮重点获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台;该智能机器人视觉定位系统利用将比对对象和参照对象进行比对,获得比差系数,比差系数用于衡量比对对象和参照对象的相似程度,且比差系数越小相似程度越高,能够智能识别所需要加工的零件的零件加工设计图,从而能够快速了解零件加工类型,且在加工不同零件时能够智能化识别与加工,无需人工操作甚至停机更换设计图,提高了零件加工效率,而且通过将选中参照上的加工位置模拟至零件轮廓,从而获得模拟加工点的坐标,并根据模拟加工点的坐标的对零件进行加工,提高了零件加工的精确度,避免因零件加工台对零件进行固定出现误差导致加工位置不能智能识别与更换,导致加工的零件误差大,废品率高;该智能机器人视觉定位系统能够智能化对需要加工的零件的加工位置进行视觉定位,提高了零件加工的效率与质量;
本发明的一种智能机器人视觉定位系统及方法,通过零件检测模块对待加工零件进行检测,获取待加工零件的零件误差信息,零件误差信息包括质差值、裂纹值以及表面值,通过信息分析模块根据零件误差信息获得零件误差系数,通过零件加工平台根据零件误差系数将待加工零件分类为不合格零件或者预合格零件,通过零件检测模块对预合格零件进行检测,获取预合格零件的加工误差信息,加工误差信息包括裂纹值、表面值以及比差系数,通过信息分析模块根据加工误差信息获得加工误差系数,通过零件加工平台根据加工误差系数将预合格零件分类为不合格零件或者合格零件;该智能机器人视觉定位系统首先在零件加工之前获取零件误差信息,并根据零件误差信息获得的零件误差系数能够综合衡量零件存在生产误差的程度,且零件误差系数越大表示生产误差程度越高,表示零件在生产过程中存在质量问题,从而剔除不合格零件,无需对其进行加工,之后在零件加工之后获取加工误差信息,并根据加工误差信息获得的加工误差系数能够综合衡量零件存在加工误差的程度,且加工误差系数越大表示加工误差程度越高,表示零件在加工过程中存在质量问题,从而剔除不合格零件,对合格零件进行收集;该智能机器人视觉定位系统能够在零件加工前后进行两次质量检测,能够保证加工前的零件质量达标,避免无用功的进行,提高零件加工效率,还能够保证加工后的零件质量,提高产品合格率,同时能够及时发生加工过程中出现的加工误差,及时调整,避免造成严重的经济损失。
附图说明
下面结合附图对本发明作进一步的说明。
图1是本发明中一种智能机器人视觉定位系统的原理框图。
具体实施方式
下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例1:
请参阅图1所示,本实施例为一种智能机器人视觉定位系统,包括以下模块:图纸输入模块、零件加工平台、零件检测模块、信息分析模块、零件分类模块、视觉收集模块以及视觉定位模块;
其中,所述图纸输入模块用于将用户上传的零件加工设计图进行储存,并将其标记为参照对象i;还用于根据比对对象和参照对象i获得零件轮廓和参照轮廓,并根据零件轮廓和参照轮廓获得比差系数BCi,并根据比差系数BCi获得选中参照,并将选中参照、零件轮廓发送至视觉定位模块;
其中,所述零件加工平台用于零件加工智能机器人启动时生成零件检测信号,并将零件检测信号发送至零件检测模块;还用于根据零件误差系数LJ将待加工零件分类为不合格零件或者预合格零件,并将不合格零件或者预合格零件发送至零件分类模块;还用于根据模拟加工点的坐标对预合格零件进行零件加工,同时生成零件续检信号,并将零件续检信号发送至零件检测模块;还用于根据加工误差系数JW将预合格零件分类为不合格零件或者合格零件,并将不合格零件或者合格零件发送至零件分类模块;
其中,所述零件检测模块用于接收到零件检测信号对待加工零件进行检测,获取待加工零件的零件误差信息,并将零件误差信息发送至信息分析模块;其中,零件误差信息包括质差值ZC、裂纹值LW以及表面值BM;还用于接收到零件续检信号对预合格零件进行检测,获取预合格零件的加工误差信息,并将加工误差信息发送至信息分析模块;其中,加工误差信息包括裂纹值LW、表面值BM以及比差系数BCi;
其中,所述信息分析模块用于根据零件误差信息获得零件误差系数LJ,并将零件误差系数LJ发送至零件加工平台;还用于根据加工误差信息获得加工误差系数JW,并将加工误差系数JW发送至零件加工平台;
其中,所述零件分类模块用于接收到不合格零件后将不合格零件转移至次品区进行收集,接收到预合格零件后将预合格零件转移至零件加工台进行加工,并生成视觉收集信号,并将视觉收集信号发送至视觉收集模块;还用于接收到不合格零件后将不合格零件转移至次品区进行收集,接收到合格零件后将合格零件转移至合格区进行收集;
其中,所述视觉收集模块用于接收到视觉收集信号后采集零件加工台上的待加工零件加工面的照片,并将其标记为比对对象,并将比对对象发送至图纸输入模块;
其中,所述视觉定位模块用于根据选中参照、零件轮廓获得参重点和轮重点,并根据参重点和轮重点获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台。
实施例2:
本实施例为一种智能机器人视觉定位的方法,包括以下步骤:
步骤一:图纸输入模块将用户上传的零件加工设计图进行储存,并将其标记为参照对象i;具体过程为:
用户将零件加工设计图上传至图纸输入模块的图纸储存区中进行储存,并将其标记为参照对象i,i=1、……、n,n为自然数;
步骤二:零件加工平台在零件加工智能机器人启动时生成零件检测信号,并将零件检测信号发送至零件检测模块;
步骤三:零件检测模块接收到零件检测信号对待加工零件进行检测,获取待加工零件的零件误差信息,零件误差信息包括质差值ZC、裂纹值LW以及表面值BM,并将零件误差信息发送至信息分析模块;具体过程为:
零件检测模块接收到零件检测信号对输送机上的待加工零件进行检测;
零件检测模块获取待加工零件的质量和预设的标准质量之间的差值,并将其标记为质差值ZC;
零件检测模块获取待加工零件表面裂纹条数,并将其裂数值LS,获取待加工零件表面最大面积的裂纹的面积值和最大长度的裂纹的长度值,并将其分别标记为裂面值LM和裂长值LC,将裂数值LS、裂面值LM以及裂长值LC代入公式得到裂纹值LW,其中,w1、w2以及w3分别为裂数值LS、裂面值LM以及裂长值LC的预设比例系数,且w1+w2+w3=1,0<w1<w3<w2<1,取w1=0.28,w2=0.38,w3=0.34;
零件检测模块获取待加工零件表面最高点位置和最低点位置,获取两者之间的高度差,并将其标记为高差值GC,获取待加工零件表面凸起与凹坑的总数量,并将其分别标记为凸数值TS和凹数值AS,将高差值GC、高差值GC以及凹数值AS代入公式得到表面值BM,其中,m1、m2以及m3分别为高差值GC、高差值GC以及凹数值AS的预设比例系数,且m1+m2+m3=1,0<m3<m2<m1<1,取m1=0.37,m2=0.34,m3=0.29;
零件检测模块将质差值ZC、裂纹值LW以及表面值BM发送至信息分析模块;
步骤四:信息分析模块根据零件误差信息获得零件误差系数LJ,并将零件误差系数LJ发送至零件加工平台;具体过程为:
信息分析模块将质差值ZC、裂纹值LW以及表面值BM代入公式得到零件误差系数LJ,其中,π为数学常数,k为误差调节因子,取k=1.133,α1、α2、α3分别为质差值ZC、裂纹值LW以及表面值BM的预设权重系数,且α2>α3>α1>1.174,取α1=1.26,α2=1.91,α3=1.55;
信息分析模块将零件误差系数LJ发送至零件加工平台;
步骤五:零件加工平台根据零件误差系数LJ将待加工零件分类为不合格零件或者预合格零件,并将不合格零件或者预合格零件发送至零件分类模块;具体过程为:
零件加工平台将零件误差系数LJ与预设的零件误差阈值LWy进行比较:
若零件误差系数LJ≥零件误差阈值LWy,则将零件误差系数LJ所对应的待加工零件标记为不合格零件;
若零件误差系数LJ<零件误差阈值LWy,则将零件误差系数LJ所对应的待加工零件标记为预合格零件;将不合格零件或者预合格零件发送至零件分类模块;
步骤六:零件分类模块接收到不合格零件后将不合格零件转移至次品区进行收集,接收到预合格零件后将预合格零件转移至零件加工台进行加工,待零件加工台到达零件加工台并进行固定时,生成视觉收集信号,并将视觉收集信号发送至视觉收集模块;
步骤七:视觉收集模块接收到视觉收集信号后采集零件加工台上的待加工零件加工面的照片,并将其标记为比对对象,并将比对对象发送至图纸输入模块;
步骤八:图纸输入模块根据比对对象和参照对象i获得零件轮廓和参照轮廓,并根据零件轮廓和参照轮廓获得比差系数BCi,并根据比差系数BCi获得选中参照,并将选中参照、零件轮廓发送至视觉定位模块;具体过程为:
图纸输入模块接收到比对对象后获取待加工零件的轮廓,并将其标记为零件轮廓;
图纸输入模块获取参照对象i的轮廓,并将其标记为参照轮廓;
图纸输入模块获取零件轮廓和参照轮廓的面积,获得两者之间的面积差,并将其标记为积差值JC;
图纸输入模块获取零件轮廓和参照轮廓的周长,获得两者之间的周长差,并将其标记为周差值ZC;
图纸输入模块将积差值JC、周差值ZC代入公式得到比差系数BCi,其中,c1、c2分别为积差值JC、周差值ZC的预设比例系数,且c1+c2=1,0<c2<c1<1,取c1=0.53,c2=0.47;
图纸输入模块将最小的比差系数BCi所对应的参照轮廓标记为选中参照;
图纸输入模块将选中参照、零件轮廓发送至视觉定位模块;
步骤九:视觉定位模块根据选中参照、零件轮廓获得参重点和轮重点,并根据参重点和轮重点获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台;具体过程为:
视觉定位模块获取选中参照、零件轮廓的重心,并将其分别标记为参重点和轮重点,令零件轮廓向选中参照移动,直至参重点和轮重点重合,并保持选中参照位置固定,零件轮廓以轮重点为圆心进行旋转,获得选中参照、零件轮廓的重合面积最大的位置,保持零件轮廓位置固定;
视觉定位模块获取选中参照上的加工位置,并以选中参照上的加工位置对零件轮廓进行标注,得到模拟加工点;
视觉定位模块以轮重点为原点建立直角坐标系,获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台;
步骤十:零件加工平台根据模拟加工点的坐标对预合格零件进行零件加工,同时生成零件续检信号,并将零件续检信号发送至零件检测模块;具体过程为:
零件加工平台控制零件加工智能机器人的刀具向模拟加工点的坐标移动,并沿着模拟加工点的坐标对预合格零件进行零件加工,加工完成将预合格零件转移至输送机,同时生成零件续检信号,并将零件续检信号发送至零件检测模块;
步骤十一:零件检测模块接收到零件续检信号对预合格零件进行检测,获取预合格零件的加工误差信息,加工误差信息包括裂纹值LW、表面值BM以及比差系数BCi,并将加工误差信息发送至信息分析模块;具体过程为:
零件检测模块接收到零件续检信号对输送机上的预合格零件进行检测;
零件检测模块获取预合格零件的裂纹值LW、表面值BM;
零件检测模块获取预合格零件和选中参照上的加工位置的边缘轮廓,获得两者的比差系数BCi;
零件检测模块将裂纹值LW、表面值BM以及比差系数BCi发送至信息分析模块;
步骤十二:信息分析模块根据加工误差信息获得加工误差系数JW,并将加工误差系数JW发送至零件加工平台;具体过程为:
信息分析模块将裂纹值LW、表面值BM以及比差系数BCi代入公式得到加工误差系数JW,其中,e为数学常数,u为误差调节因子,取u=0.985,β1、β2、β3分别为裂纹值LW、表面值BM以及比差系数BCi的预设权重系数,且β3>β1>β2>1.358,取β1=1.88,β2=1.62,β3=2.15;
信息分析模块将加工误差系数JW发送至零件加工平台;
步骤十三:零件加工平台根据加工误差系数JW将预合格零件分类为不合格零件或者合格零件,并将不合格零件或者合格零件发送至零件分类模块;具体过程为:
零件加工平台将加工误差系数JW与预设的加工误差系数JW进行比较:若加工误差系数JW≥加工误差阈值JWy,则将加工误差系数JW所对应的预合格零件标记为不合格零件;若加工误差系数JW<加工误差阈值JWy,则将加工误差系数JW所对应的预合格零件标记为合格零件;
零件加工平台将不合格零件或者合格零件发送至零件分类模块;
步骤十四:零件分类模块接收到不合格零件后将不合格零件转移至次品区进行收集,接收到合格零件后将合格零件转移至合格区进行收集。
本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上内容仅仅是对本发明所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。
Claims (6)
1.一种智能机器人视觉定位系统,其特征在于,包括:
视觉收集模块,用于接收到视觉收集信号后采集零件加工台上的待加工零件加工面的照片,并将其标记为比对对象,并将比对对象发送至图纸输入模块;
图纸输入模块,用于根据比对对象和参照对象i获得零件轮廓和参照轮廓,并根据零件轮廓和参照轮廓获得比差系数BCi,并根据比差系数BCi获得选中参照,并将选中参照、零件轮廓发送至视觉定位模块;其中,所述图纸输入模块获得选中参照的具体过程如下:
接收到比对对象后获取待加工零件的轮廓,并将其标记为零件轮廓;
获取参照对象i的轮廓,并将其标记为参照轮廓;
获取零件轮廓和参照轮廓的面积,获得两者之间的面积差,并将其标记为积差值JC;
获取零件轮廓和参照轮廓的周长,获得两者之间的周长差,并将其标记为周差值ZC;
将积差值JC、周差值ZC代入公式 得到比差系数BCi,其中,c1、c2分别为积差值JC、周差值ZC的预设比例系数,且c1+c2=1,0<c2<c1<1,取c1=0.53,c2=0.47;
将最小的比差系数BCi所对应的参照轮廓标记为选中参照;
将选中参照、零件轮廓发送至视觉定位模块;
视觉定位模块,用于根据选中参照、零件轮廓获得参重点和轮重点,并根据参重点和轮重点获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台;其中,所述视觉定位模块获得模拟加工点的坐标的具体过程如下:
获取选中参照、零件轮廓的重心,并将其分别标记为参重点和轮重点,令零件轮廓向选中参照移动,直至参重点和轮重点重合,并保持选中参照位置固定,零件轮廓以轮重点为圆心进行旋转,获得选中参照、零件轮廓的重合面积最大的位置,保持零件轮廓位置固定;
获取选中参照上的加工位置,并以选中参照上的加工位置对零件轮廓进行标注,得到模拟加工点;
以轮重点为原点建立直角坐标系,获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台。
2.根据权利要求1所述的一种智能机器人视觉定位系统,其特征在于,还包括零件检测模块,用于接收到零件检测信号对待加工零件进行检测,获取待加工零件的零件误差信息,并将零件误差信息发送至信息分析模块;其中,零件误差信息包括质差值ZC、裂纹值LW以及表面值BM;所述零件检测模块获取零件误差信息的具体过程如下:
接收到零件检测信号对输送机上的待加工零件进行检测;
获取待加工零件的质量和预设的标准质量之间的差值,并将其标记为质差值ZC;
获取待加工零件表面裂纹条数,并将其裂数值LS,获取待加工零件表面最大面积的裂纹的面积值和最大长度的裂纹的长度值,并将其分别标记为裂面值LM和裂长值LC,将裂数值LS、裂面值LM以及裂长值LC代入公式得到裂纹值LW,其中,w1、w2以及w3分别为裂数值LS、裂面值LM以及裂长值LC的预设比例系数,且w1+w2+w3=1,0<w1<w3<w2<1,取w1=0.28,w2=0.38,w3=0.34;
获取待加工零件表面最高点位置和最低点位置,获取两者之间的高度差,并将其标记为高差值GC,获取待加工零件表面凸起与凹坑的总数量,并将其分别标记为凸数值TS和凹数值AS,将高差值GC、高差值GC以及凹数值AS代入公式得到表面值BM,其中,m1、m2以及m3分别为高差值GC、高差值GC以及凹数值AS的预设比例系数,且m1+m2+m3=1,0<m3<m2<m1<1,取m1=0.37,m2=0.34,m3=0.29;
将质差值ZC、裂纹值LW以及表面值BM发送至信息分析模块。
3.根据权利要求2所述的一种智能机器人视觉定位系统,其特征在于,所述零件检测模块还用于接收到零件续检信号对预合格零件进行检测,获取预合格零件的加工误差信息,并将加工误差信息发送至信息分析模块;其中,加工误差信息包括裂纹值LW、表面值BM以及比差系数BCi;所述零件检测模块获取加工误差信息的具体过程如下:
接收到零件续检信号对输送机上的预合格零件进行检测;
获取预合格零件的裂纹值LW、表面值BM;
获取预合格零件和选中参照上的加工位置的边缘轮廓,获得两者的比差系数BCi;
将裂纹值LW、表面值BM以及比差系数BCi发送至信息分析模块。
4.根据权利要求1所述的一种智能机器人视觉定位系统,其特征在于,还包括信息分析模块,用于根据零件误差信息获得零件误差系数LJ,并将零件误差系数LJ发送至零件加工平台;所述信息分析模块获得零件误差系数LJ的具体过程如下:
将质差值ZC、裂纹值LW以及表面值BM代入公式得到零件误差系数LJ,其中,π为数学常数,k为误差调节因子,取k=1.133,α1、α2、α3分别为质差值ZC、裂纹值LW以及表面值BM的预设权重系数,且α2>α3>α1>1.174,取α1=1.26,α2=1.91,α3=1.55;
将零件误差系数LJ发送至零件加工平台。
5.根据权利要求4所述的一种智能机器人视觉定位系统,其特征在于,所述信息分析模块还用于根据加工误差信息获得加工误差系数JW,并将加工误差系数JW发送至零件加工平台;所述信息分析模块获得加工误差系数JW的具体过程如下:
将裂纹值LW、表面值BM以及比差系数BCi代入公式得到加工误差系数JW,其中,e为数学常数,u为误差调节因子,取u=0.985,β1、β2、β3分别为裂纹值LW、表面值BM以及比差系数BCi的预设权重系数,且β3>β1>β2>1.358,取β1=1.88,β2=1.62,β3=2.15;
将加工误差系数JW发送至零件加工平台。
6.一种智能机器人视觉定位的方法,其特征在于,包括以下步骤:
步骤一:图纸输入模块将用户上传的零件加工设计图进行储存,并将其标记为参照对象i;
步骤二:零件加工平台在零件加工智能机器人启动时生成零件检测信号,并将零件检测信号发送至零件检测模块;
步骤三:零件检测模块接收到零件检测信号对待加工零件进行检测,获取待加工零件的零件误差信息,并将零件误差信息发送至信息分析模块;其中,零件误差信息包括质差值ZC、裂纹值LW以及表面值BM;
步骤四:信息分析模块根据零件误差信息获得零件误差系数LJ,并将零件误差系数LJ发送至零件加工平台;
步骤五:零件加工平台根据零件误差系数LJ将待加工零件分类为不合格零件或者预合格零件,并将不合格零件或者预合格零件发送至零件分类模块;
步骤六:零件分类模块接收到不合格零件后将不合格零件转移至次品区进行收集,接收到预合格零件后将预合格零件转移至零件加工台进行加工,并生成视觉收集信号,并将视觉收集信号发送至视觉收集模块;
步骤七:视觉收集模块接收到视觉收集信号后采集零件加工台上的待加工零件加工面的照片,并将其标记为比对对象,并将比对对象发送至图纸输入模块;
步骤八:图纸输入模块根据比对对象和参照对象i获得零件轮廓和参照轮廓,并根据零件轮廓和参照轮廓获得比差系数BCi,并根据比差系数BCi获得选中参照,并将选中参照、零件轮廓发送至视觉定位模块;
步骤九:视觉定位模块根据选中参照、零件轮廓获得参重点和轮重点,并根据参重点和轮重点获得模拟加工点的坐标,并将模拟加工点的坐标发送至零件加工平台;
步骤十:零件加工平台根据模拟加工点的坐标对预合格零件进行零件加工,同时生成零件续检信号,并将零件续检信号发送至零件检测模块;
步骤十一:零件检测模块接收到零件续检信号对预合格零件进行检测,获取预合格零件的加工误差信息,并将加工误差信息发送至信息分析模块;其中,加工误差信息包括裂纹值LW、表面值BM以及比差系数BCi;
步骤十二:信息分析模块根据加工误差信息获得加工误差系数JW,并将加工误差系数JW发送至零件加工平台;
步骤十三:零件加工平台根据加工误差系数JW将预合格零件分类为不合格零件或者合格零件,并将不合格零件或者合格零件发送至零件分类模块;
步骤十四:零件分类模块接收到不合格零件后将不合格零件转移至次品区进行收集,接收到合格零件后将合格零件转移至合格区进行收集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311238974.9A CN116967846B (zh) | 2023-09-25 | 2023-09-25 | 一种智能机器人视觉定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311238974.9A CN116967846B (zh) | 2023-09-25 | 2023-09-25 | 一种智能机器人视觉定位系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116967846A true CN116967846A (zh) | 2023-10-31 |
CN116967846B CN116967846B (zh) | 2023-12-12 |
Family
ID=88473521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311238974.9A Active CN116967846B (zh) | 2023-09-25 | 2023-09-25 | 一种智能机器人视觉定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116967846B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118089667A (zh) * | 2024-04-08 | 2024-05-28 | 深圳市领志光机电自动化系统有限公司 | 基于2d相机的机器人三维空间定位引导系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063074A (ja) * | 2003-08-08 | 2005-03-10 | Ricoh Co Ltd | 曲面加工方法および装置ならびに光学素子 |
CN110084177A (zh) * | 2019-04-24 | 2019-08-02 | 珠海格力电器股份有限公司 | 定位系统、方法、控制系统以及空调、存储介质 |
CN110853018A (zh) * | 2019-11-13 | 2020-02-28 | 燕山大学 | 一种基于计算机视觉的振动台疲劳裂纹在线检测系统及检测方法 |
CN113771045A (zh) * | 2021-10-15 | 2021-12-10 | 广东工业大学 | 视觉引导的直角机器人手机中框高适应定位抓取方法 |
CN113947754A (zh) * | 2021-10-15 | 2022-01-18 | 大连海事大学 | 一种基于视觉的船舶机械运行状态监测方法、系统及存储介质 |
CN114888692A (zh) * | 2022-06-14 | 2022-08-12 | 广东天太机器人有限公司 | 一种抛光打磨机械臂控制系统及方法 |
CN115682985A (zh) * | 2022-10-29 | 2023-02-03 | 宁波公运车辆检测有限公司 | 一种汽车车身外观检测方法、系统、存储介质及智能终端 |
CN116012291A (zh) * | 2022-11-21 | 2023-04-25 | 南京工业大学 | 工业零件图像缺陷检测方法及系统、电子设备和存储介质 |
-
2023
- 2023-09-25 CN CN202311238974.9A patent/CN116967846B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063074A (ja) * | 2003-08-08 | 2005-03-10 | Ricoh Co Ltd | 曲面加工方法および装置ならびに光学素子 |
CN110084177A (zh) * | 2019-04-24 | 2019-08-02 | 珠海格力电器股份有限公司 | 定位系统、方法、控制系统以及空调、存储介质 |
CN110853018A (zh) * | 2019-11-13 | 2020-02-28 | 燕山大学 | 一种基于计算机视觉的振动台疲劳裂纹在线检测系统及检测方法 |
CN113771045A (zh) * | 2021-10-15 | 2021-12-10 | 广东工业大学 | 视觉引导的直角机器人手机中框高适应定位抓取方法 |
CN113947754A (zh) * | 2021-10-15 | 2022-01-18 | 大连海事大学 | 一种基于视觉的船舶机械运行状态监测方法、系统及存储介质 |
CN114888692A (zh) * | 2022-06-14 | 2022-08-12 | 广东天太机器人有限公司 | 一种抛光打磨机械臂控制系统及方法 |
CN115682985A (zh) * | 2022-10-29 | 2023-02-03 | 宁波公运车辆检测有限公司 | 一种汽车车身外观检测方法、系统、存储介质及智能终端 |
CN116012291A (zh) * | 2022-11-21 | 2023-04-25 | 南京工业大学 | 工业零件图像缺陷检测方法及系统、电子设备和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118089667A (zh) * | 2024-04-08 | 2024-05-28 | 深圳市领志光机电自动化系统有限公司 | 基于2d相机的机器人三维空间定位引导系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116967846B (zh) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109969736B (zh) | 一种大型运载皮带跑偏故障智能检测方法 | |
CN116967846B (zh) | 一种智能机器人视觉定位系统及方法 | |
CN111537517B (zh) | 一种无人智能化冲压缺陷识别方法 | |
CN101837351B (zh) | 基于图像检测法的油封弹簧全自动分选系统及方法 | |
CN110146017B (zh) | 工业机器人重复定位精度测量方法 | |
CN105563481B (zh) | 一种用于轴孔装配的机器人视觉引导方法 | |
CN112497219B (zh) | 一种基于目标检测和机器视觉的柱状工件分类定位方法 | |
CN102252611A (zh) | 几何定位方法 | |
CN112598651A (zh) | 一种智能机器人加工生产检测系统 | |
CN105478363A (zh) | 一种基于三维图形的不良品检测分类方法及系统 | |
CN110728657A (zh) | 一种基于深度学习的环状轴承外表面缺陷检测方法 | |
CN113910237B (zh) | 多夹具的机械臂无序夹取方法及系统 | |
CN114571287A (zh) | 一种基于大数据的机床工件在线检测分析系统 | |
CN108627103A (zh) | 一种零部件高度尺寸的2d激光测量方法 | |
CN111389750B (zh) | 一种视觉测量系统及测量方法 | |
CN209680591U (zh) | 一种基于智能视觉的电容字符检测装置 | |
CN108168456B (zh) | 一种激光扫描检测中的取点方法 | |
CN114227378B (zh) | 一种夹具状态的检测方法、装置、终端和存储介质 | |
CN115200513A (zh) | 一种旋转体夹具同轴度跳动检测分析控制系统 | |
CN110021027B (zh) | 一种基于双目视觉的切边点计算方法 | |
CN114454179A (zh) | 一种智能机器手关节自动校正系统及方法 | |
CN110567422B (zh) | 一种起重机吊钩扭转角自动检测方法 | |
CN111080623B (zh) | 一种用于圆形零件缺失的视觉检测装置及方法 | |
CN113894793A (zh) | 一种零件与视觉传感器相对位姿关系的获取方法 | |
CN218723949U (zh) | 一种基于机器视觉的工件平面度测量系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |