CN116912241B - 基于机器学习的cnc调机优化方法及系统 - Google Patents
基于机器学习的cnc调机优化方法及系统 Download PDFInfo
- Publication number
- CN116912241B CN116912241B CN202311166820.3A CN202311166820A CN116912241B CN 116912241 B CN116912241 B CN 116912241B CN 202311166820 A CN202311166820 A CN 202311166820A CN 116912241 B CN116912241 B CN 116912241B
- Authority
- CN
- China
- Prior art keywords
- radius
- value
- cluster
- tool
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000005457 optimization Methods 0.000 title claims abstract description 29
- 238000010801 machine learning Methods 0.000 title claims abstract description 21
- 238000012795 verification Methods 0.000 claims abstract description 130
- 238000012545 processing Methods 0.000 claims abstract description 100
- 230000008859 change Effects 0.000 claims abstract description 16
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 238000003754 machining Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 208000015181 infectious disease Diseases 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000003746 surface roughness Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002458 infectious effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003801 milling Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 239000011265 semifinished product Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Probability & Statistics with Applications (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及数据处理技术领域,具体涉及基于机器学习的CNC调机优化方法及系统,方法包括:首先根据相邻帧差分图像内工具停留点与非工具停留点之间的距离差异获得半径序列,分析半径的待选簇内相切圆与对应边缘圆之间的像素值差异确定半径的邻域密度验证值;进而分析邻域密度验证值变化确定待选半径范围,进而获得待选半径的验证值,实现最优聚类半径及其对应的聚类密度的获取,获得准确的实时加工区域。再分析实时加工区域与历史帧加工图像的加工区域之间的性能关系获得匹配帧加工图像,最后根据匹配帧加工图像的工具所处状态获得实时的工具所处状态,实现对CNC调机优化情况的判断,增强判断结果的准确率,同时提高工作效率。
Description
技术领域
本发明涉及数据处理技术领域,具体涉及基于机器学习的CNC调机优化方法及系统。
背景技术
CNC加工通常是指计算机数字化控制精密机械加工,CNC加工车床、CNC加工铣床等均是通过设置好的指令数控程式,使机床执行设定好的动作,加工毛坯料制成半成品或成品零件和工件。CNC调机指的是在毛坯料加工过程中,通过技术人员经验或预定方案对刀具、加工方式、加工路线等进行调整。CNC加工过程总是执行固定的指令动作,在批量生产时,总会存在机床零件金属疲劳的问题,而每一个动作执行时间和参数是固定的。因此,随着生产的进行,同机床、同工具、同加工流程下加工效果也会存在差异。
现有技术中,利用改进粒子群优化BP神经网络,进行模型训练,输出优化后的BP神经网络的最佳权值和阈值,进而根据最佳权值和阈值对区域数据进行预测,获得对应加工区域,该加工区域中含有较多噪声数据,噪声数据对最终结果会产生负面影响,影响后续CNC调机优化的效果,会产生较大误差。仅根据加工参数的差异获得判断数控机床CNC系统的调机情况,没有将工具在不同工作状态下对加工工件的加工区域产生的加工效果进行区分,对工件区域的获取不够准确,且忽略工件上加工区域的具体性能特征,导致数控机床CNC系统的调机结果产生较大误差。
发明内容
为了解决现有技术中工件图像内加工区域的获取不准确的技术问题,本发明的目的在于提供基于机器学习的CNC调机优化方法及系统,所采用的技术方案具体如下:
本发明提供了基于机器学习的CNC调机优化方法,所述方法包括:
获得连续帧工件图像;工件图像中包含固定位置的一个工具停留点;根据实时工件图像与相邻帧工件图像的灰度差异构建相邻帧差分图像;根据相邻帧差分图像内工具停留点与非工具停留点之间的距离获得半径序列;
获得半径序列内每个半径下与工具停留点相切的待选簇内相切圆,及以工具停留点为中心的边缘圆;根据相邻帧差分图像内每个半径下的待选簇内相切圆与对应边缘圆之间的像素值差异获得对应半径的邻域密度验证值;
根据半径序列内所有半径的邻域密度验证值变化获得待选半径范围;根据待选半径范围内每个待选半径和待选半径范围内邻域密度验证值的数值特征获得对应待选半径的验证值;根据每个待选半径对应的验证值和邻域密度验证值获取最优聚类半径及其对应的聚类密度;根据最优聚类半径和聚类密度将相邻帧差分图像进行聚类,获得实时加工区域;
获得实时加工区域的性能信息;将实时加工区域与历史帧工件图像内加工区域的性能信息进行匹配,获得匹配帧工件图像;根据匹配帧工件图像的工具更换区间获取实时工件图像的状态概率值;根据实时工件图像的状态概率值判断CNC的调机优化情况。
进一步地,所述半径序列的获取方法包括:
将相邻帧差分图像中工具停留点与每个非工具停留点相连,分别获取每个非工具停留点与工具停留点之间的欧氏距离和连线角度;
将欧氏距离按照从小到大的顺序将非工具停留点与工具停留点之间的连线进行排序,获取第一排序组;将第一排序组中欧氏距离相同的连线作为第二排序组,将连线角度按照子排序特征从小到大的顺序将每组第二排序组内的连线进行排序,对第一排序组进行修正;将修正后的第一排序组作为半径序列。
进一步地,所述半径的邻域密度验证值的获取方法包括:
对任意一个半径,获取同一个半径下的所有待选簇内相切圆和对应边缘圆;根据相邻帧差分图像分别获得每个待选簇内相切圆的平均像素值和对应边缘圆的平均像素值;将每个待选簇内相切圆和对应边缘圆的平均像素值的差值作为对应待选簇内相切圆的像素值差异;将所有像素值差异的最大值作为对应半径的邻域密度验证值,邻域密度验证值对应的待选簇内相切圆作为对应半径的簇内相切圆。
进一步地,所述待选半径范围的获取方法包括:
建立平面直角坐标系,所述平面直角坐标系的横坐标为半径,纵坐标为邻域密度验证值;根据半径序列内所有半径的邻域密度验证值及其对应半径获得坐标系下的数据点,对所有数据点使用最小二乘法进行拟合,获得邻域密度验证值变化曲线;对所述曲线每个数据点进行求导,获得导数序列;当导数序列中首次出现连续预设衰减次数个不大于预设衰减值的导数时,迭代停止;
将首次连续预设衰减数个不大于预设衰减值的导数中第一个导数对应数据点的半径作为待选半径范围的最大值,将半径序列中最小的半径作为待选半径范围的最小值;根据待选半径范围的最大值和最小值获得待选半径范围。
进一步地,所述待选半径的验证值的获取方法包括:
获取待选半径范围获得最大待选半径和最小待选半径,将最大待选半径与最小待选半径的差值作为第二半径差值;对待选半径范围中的待选半径进行遍历,将每个待选半径与最小待选半径的差值作为第一半径差值;将第一半径差值与第二半径差值的比值作为半径差异;使用数值一减去半径差异获得半径特征;
获得待选半径范围内邻域密度验证值的极差,将所述极差与半径特征的乘积作为数值特征;将数值特征与邻域密度验证值的最小值的和作为对应待选半径的验证值。
进一步地,所述最优聚类半径及其对应聚类密度的获取方法包括:
根据待选半径从小到大的顺序依次将每个待选半径的邻域密度验证值与待选半径的验证值进行比较,将首个大于验证值的邻域密度验证值作为预期邻域密度验证值;
将预期邻域密度验证值对应的待选半径作为最优聚类半径;将最优聚类半径对应簇内相切圆的平均差分值作为聚类密度。
进一步地,所述对相邻帧差分图像聚类的方法为DBSCAN密度聚类。
进一步地,所述状态概率值的获取方法包括:
根据匹配帧工件图像的工具更换区间获取对应工具更换区间的区间总帧数和工具更换帧;将工具更换帧与匹配帧工件图像对应帧的差值作为更换比例帧数;获取更换比例帧数与区间总帧数的比值,使用数值一减去所述比值获得状态概率值。
进一步地,所述根据实时工件图像的状态概率值判断CNC的调机优化情况,包括:
若实时工件图像的状态概率值不小于预设更换阈值,则实时工件图像对应的工具需要被更换;若实时工件图像的状态概率值小于预设更换阈值,则实时工件图像对应的工具不需要被更换。
本发明还提出了基于机器学习的CNC调机优化系统,包括存储器和处理器,所述处理器执行所述存储器存储的计算机程序,以实现如上述的基于机器学习的CNC调机优化方法。
本发明具有如下有益效果:
本发明通过根据相邻帧差分图像内工具停留点与非工具停留点之间的距离差异获得半径序列,对工具停留点与非工具停留点之间的位置特征进行分析,以使工具停留点估测聚类算法参数的方式更为科学、合理,极大减少了由于参数不正导致聚类结果失真的问题,减少后续分析的误差。根据相邻帧差分图像内待选簇内相切圆与对应边缘圆之间的像素值差异获得对应半径的邻域密度验证值,通过待选簇内相切圆与对应边缘圆之间像素值的差异特征,准确表现出待选簇内相切圆的传染能力,即待选簇内相切圆内数据点密度符合假设聚簇的密度要求的合格程度,为后续获得聚类半径和聚类密度提供依据。根据半径序列中所有半径的邻域密度验证值变化获得待选半径范围,待选半径范围能够缩小聚类半径的范围,进而在后续的分析中才能提高获取最优聚类半径的准确性。根据待选半径范围内每个待选半径和待选半径范围内邻域密度验证值的数值特征获得对应待选半径的验证值,进而获取最优聚类半径及其对应的聚类密度,对聚类半径和聚类密度的范围进行约束,根据验证值能够筛选出最优效果的最优聚类半径和聚类密度,进而得到准确的加工区域,从而减少后续分析误差。将实时加工区域与历史帧工件图像内加工区域的性能信息进行匹配,获得匹配帧工件图像,匹配帧工件图像的加工区域与实时加工区域的性能信息之间的相似程度最大,可根据匹配帧工件图像的加工区域的工具所处状态间接获得实时加工区域的工具所处状态,不仅能减少资源浪费,还能减少误差。根据匹配帧工件图像的工具更换区间获取实时工件图像的状态概率值,根据实时工件图像的状态概率值判断CNC的调机优化情况。本发明通过自适应获取最优聚类参数实现加工区域的准确识别,通过准确的加工区域可获得参考性强的性能信息,进而结合历史数据实现对CNC调机优化情况的判断,增强判断结果的准确率,同时提高工作效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例所提供的基于机器学习的CNC调机优化方法流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的基于机器学习的CNC调机优化方法及系统,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的基于机器学习的CNC调机优化方法及系统的具体方案。
请参阅图1,其示出了本发明一个实施例提供的基于机器学习的CNC调机优化方法流程图,该方法包括:
步骤S1:获得连续帧工件图像;工件图像中包含固定位置的一个工具停留点;根据实时工件图像与相邻帧工件图像的灰度差异构建相邻帧差分图像;根据相邻帧差分图像内边界点与非边界点之间的距离获得边界点的半径序列。
本发明利用机器学习算法智能识别加工件表面加工效果,并结合历史数据对车机刀片进行准确调机。因此需要对加工过程中工件图像进行获取具体包括:
使用工业相机对CNC机床的加工过程进行检测,预设时间间隔为拍摄间隔。由于毛坯料在夹具的作用下固定不变,因此只要确保相机安装稳定不动,其拍摄的工件加工图像总是在一个固定的区域内,将工件加工图像进行灰度化,根据预设框选范围获取工件加工图像内的监测区域,将监测区域获得连续帧工件图像。将连续帧工件图像输入分析模块进行处理,能够减少计算量。在本发明实施例中,实施者可根据具体加工过程中的设备作业范围对预设框选范围进行具体设置。需要说明的是,对图像进行灰度化处理的方法为本领域技术人员熟知的技术手段,在此不再赘述,并且实施者可根据具体场景选用灰度化处理方法。
若要预测实时工件图像中工具的金属疲劳程度或者说预测工具距离更换节点的临近程度,则需要用实时工件图像中加工区域与历史帧工件图像中加工区域进行对比,无论是历史帧工件图像还是实时工件图像,每一次加工区域的加工步骤、形状均不一致。因此,需要提取实时工件图像的加工区域,再进行对工具更换预测。
实时工件图像中可以呈现当前时刻工件的加工进程和形变情况,加工件图像随着加工的进行会逐步发生变化,而工具图像必然不变。由于工业相机正对工件加工面且位置固定,则工件图像中包含固定位置的一个工具停留点,工具停留点为工具作用在实时工件图像的加工区域边缘上的点,在本发明实施例中,通过调整相机拍摄视野与工具的相对位置关系,将工具停留点设置在图像中心点。
为了能方便对实时工件图像的加工区域的获取,需要工具在实时工件图像及其相邻帧工件图像的作业区域,进而需要对实时工件图像及其相邻帧工件图像的作业区域之间的像素值差异进行判断。因此,根据实时工件图像与相邻帧工件图像的灰度差异构建相邻帧差分图像具体包括:
编程工具的模板图像,利用模板匹配和图像识别算法分割实时工件图像中的工具图像,标记工具末端端点的坐标位置,视为工具在工料上的停留位置,工具在实时工件图像上的停留位置必然在其刚完成工作区域的边缘线上。获取分割后的实时工件图像与其相邻帧工件图像中同坐标位置的像素点的灰度差值,每个坐标位置对应一个灰度差值,进而得到相邻帧差分图像。需要说明的是,模板匹配和图像识别算法均为本领域技术人员熟知的技术手段,在此不再赘述。实时工件图像与其相邻帧工件图像内对应的没有发生变化的像素点在相邻帧差分图像中对应像素值差值大小为零,实时工件图像与其相邻帧工件图像内对应的发生变化的像素点在相邻帧差分图像中对应像素值差值非零,可用像素值差值大小表征相邻帧差分图像中的区域密度。因此,在后续步骤中获取最优聚类半径之后,可将最优聚类半径的搜索范围的平均像素值差值作为对应最优聚类半径的聚类密度。
实时工件图像与其相邻帧工件图像之间的外轮廓形变差异和表面切削痕迹差异,均可通过相邻帧差分图像中灰度差值的数值大小来体现,灰度差值越大,说明对应实时工件图像的外轮廓形变越大且表面切削痕迹越明显。由于实时工件图像与相邻帧工件图像之间未变化的区域不可能完全相同,也存在一定差异,尤其工业相机运行时间较长的情况下会产生噪点,当工件图像中存在噪点时,相邻帧差分图像中噪点位置也可能出现较大的灰度差值。因此,相邻帧差分图像中还存在离散的干扰点,会影响加工区域的识别结果。灰度差值为0的点为工件图像中的背景像素点,例如工具像素点、车床像素点等无关像素点。
在本发明实施例的后续步骤中,实时加工区域的获取需要对相邻帧差分图像使用DBSCAN密度聚类的方法。需要说明的是,DBSCAN密度聚类为本领域技术人员熟知的技术手段,在此不多赘述,仅简述DBSCAN密度聚类算法的基础原理:根据DBSCAN密度聚类的原理,可以获得在聚类过程中相邻帧差分图像的核心点、边界点及聚簇区域;核心点具有传染能力,能够对其相邻点进行标记;边界点不具有传染能力,但边界点位于核心点的搜索范围内;聚簇区域的范围能够表示加工区域的大致范围。在本发明实施例中工具停留点为DBSCAN密度聚类获得的加工区域的边界点。传统DBSCAN算法是由核心向边缘逐步完成聚类的,但需要提前设置预设半径和预设密度,而最终DBSCAN聚类结果受预设半径数值和预设密度数值的直接影响。
由于工具停留点为工具作用在实时工件图像的加工区域边缘上的点,可以确定工具停留点为加工区域的一个边缘点,则实时工件图像的加工区域可视为进行聚类后的聚簇区域。为了消除相邻帧差分图像中干扰点对结果的影响,根据工具停留点对聚类半径的范围进行迭代获取,进而获取准确的最优聚类半径和聚类密度。首先需要将聚类半径的范围进行确定,因此根据相邻帧差分图像内工具停留点与非工具停留点之间的距离获得工具停留点的半径序列具体包括:
将每个核心点为圆心且半径为预设半径的圆形搜索范围作为一个核心区域。已知工具停留点,则聚簇区域内部必定存在至少一个与该工具停留点相切的核心区域,同时必然存在一个核心点,该核心点位于该工具停留点的邻域范围内,核心点与工具停留点之间的连线距离必为预设半径,因此可以根据工具停留点与非工具停留点之间的距离对聚类半径进行反推。将相邻帧差分图像中工具停留点与每个非工具停留点相连,分别获取每个非工具停留点与工具停留点之间的欧氏距离和连线角度。将欧氏距离按照从小到大的顺序将非工具停留点与工具停留点之间的连线进行排序,获取第一排序组。第一排序组中欧氏距离相同的连线作为第二排序组,将连线角度按照子排序特征从小到大的顺序将每组第二排序组内的连线进行排序,对第一排序组进行修正。将修正后的第一排序组作为工具停留点的半径序列。
经过步骤S1的分析,工具停留点的半径序列中的每个半径均有成为聚类半径的可能,在后续步骤中还需要针对半径序列中每个半径的特征进行分析。
步骤S2:获得半径序列内每个半径下与工具停留点相切的待选簇内相切圆,及以工具停留点为中心的边缘圆;根据相邻帧差分图像内每个半径下的待选簇内相切圆与对应边缘圆之间的像素值差异获得对应半径的邻域密度验证值。
为了分析工具停留点的半径序列中的每个半径均有成为聚类半径的可能性的情况,需要将每个半径进行映射。因此,获得半径序列内每个半径下与工具停留点相切的待选簇内相切圆,及以工具停留点为中心的边缘圆。每个半径的待选簇内相切圆中含有对应半径的簇内相切圆,簇内相切圆具有传染能力,其圆内的像素点密度符合聚类的密度要求;边缘圆不具有传染能力,其圆内的像素点密度不符合聚类的密度要求。
对半径序列中任意一个半径,将每个半径的待选簇内相切圆内数据点密度与对应边缘圆内数据密度进行比较,由于具体的密度差值条件未知。为了能够将待选簇内相切圆与对应边缘圆之间的密度差值特征进一步表现,通过相邻帧差分图像上待选簇内相切圆与对应边缘圆之间的像素值变化获得对应密度特征,从而保证密度特征较大且非离散。首先分别获得待选簇内相切圆与对应边缘圆的平均像素值,若待选簇内相切圆的平均像素值小于对应边缘圆的平均像素值,则将对应待选簇内相切圆进行剔除。
相邻帧差分图像为差分图像,因此相邻帧差分图像中像素值为0的点为背景像素点,像素值不为0的点为加工区域像素点和噪声点,因此一个区域内的平均像素值越大,说明该区域内的非背景像素点越多,即区域内的平均像素值大小能够表征一个区域内非背景像素点的密度信息。因为工具停留点一定为加工区域的边界点,所以待选簇内相切圆的平均像素值与对应边缘圆的平均像素值之间的差异关系能够体现对应半径作为聚类半径的可能性。平均像素值差异越大说明对应半径作为聚类半径的可能性越大。因此,根据相邻帧差分图像内每个半径下的待选簇内相切圆与对应边缘圆之间的像素值差异获得对应半径的邻域密度验证值,在本发明实施例中具体包括:
由于半径序列中可能含有多个相同半径,则相同半径对应多个待选簇内相切圆。由于待选簇内相切圆与对应边缘圆的平均像素值差异能反映对应半径作为聚类半径的可能性越大,平均像素值差异与对应半径成为聚类半径的可能性成正比关系。因此,对半径序列中任意一个半径,获取同一个半径下的所有待选簇内相切圆和对应边缘圆;根据相邻帧差分图像分别获得每个待选簇内相切圆的平均像素值和对应边缘圆的平均像素值;将每个待选簇内相切圆和对应边缘圆的平均像素值的差值作为对应待选簇内相切圆的像素值差异;将所有像素值差异的最大值作为对应半径的邻域密度验证值,邻域密度验证值对应的待选簇内相切圆作为对应半径的簇内相切圆。以半径序列中的半径为例,获取半径/>的邻域密度验证值的公式具体包括:
式中,表示半径/>的邻域密度验证值,/>表示半径/>中第/>个待选簇内相切圆内的像素点数量,/>表示第/>个待选簇内相切圆内第/>个像素点的像素值,/>表示半径/>中第/>个待选簇内相切圆对应边缘圆内的像素点数量,/>表示第/>个待选簇内相切圆对应边缘圆内第/>个像素点的像素值,/>表示求取最大值函数。
在半径的邻域密度验证值的公式中,/>表示半径/>中第/>个待选簇内相切圆的平均像素值,/>表示半径/>中第/>个待选簇内相切圆对应边缘圆的平均像素值,/>表示半径/>中第/>个待选簇内相切圆与对应边缘圆的像素值差异,像素值差异与邻域密度验证值成正比关系,差异越大说明对应半径作为聚类半径的可能性越大。使用最大值函数获取半径/>的最大像素值差异,将每个半径的最大像素值差异作为对应半径成为聚类半径的可能性指标,能够提高后续分析的准确性。
由于半径序列中包含不同的半径,每个半径对应一个邻域密度验证值。邻域密度验证值表示邻域密度验证值对应半径成为聚类半径的可能性指标。若邻域密度验证值过大或过小,则对应半径成为聚类半径的可能性均较低;若邻域密度验证值偏小,则对应半径成为聚类半径的可能性较高。具体聚类半径的邻域密度验证值的合适范围还需要经过后续步骤进行进一步判断。
经过步骤S2的分析,对工具停留点的半径序列中任意一个半径均可获得一个对应的邻域密度验证值,且每个半径均有对应的一个簇内相切圆。
步骤S3:根据半径序列内所有半径的邻域密度验证值变化获得待选半径范围;根据待选半径范围内每个待选半径和待选半径范围内邻域密度验证值的数值特征获得对应待选半径的验证值;根据每个待选半径对应的验证值和邻域密度验证值获取最优聚类半径及其对应的聚类密度;根据最优聚类半径和聚类密度将相邻帧差分图像进行聚类,获得实时加工区域。
将每个待选半径的簇内相切圆的数据密度与对应边缘圆的数据密度进行比较,由于目标密度差异值未知,而且最终的聚簇区域即加工区域在相邻帧差分图像上需要满足像素值差异较大且非离散,因此,每个待选半径的数据密度可用对应的邻域密度验证值表征,其搜索范围可用待选半径的簇内相切圆表征,而簇内相切圆的平均像素值均大于对应边缘圆的平均像素值,因此还需要根据是否满足聚类半径具备的约束条件对邻域密度验证值对应的半径进行进一步判断。因此,首先设置聚类半径必须具备的两个约束条件为:
约束条件一为对应的邻域密度验证值尽可能最大,才能保证DBSCAN邻域搜索范围越准确。
约束条件二为聚类半径对应簇内相切圆的范围偏小且不能是极小。聚类半径对应簇内相切圆的范围及搜索范围不可以太大,因为搜索范围偏大会导致无法消除干扰点,进而使聚类结果失真;同样,簇内相切圆的范围也不能过小,过小会导致存在算法运行时间过长及遗漏核心点的问题。在本发明实施例中,聚类半径是根据对应簇内相切圆的特征进行逐步迭代获取,簇内相切圆的半径本就是边缘点和邻域点之间的连线,因此核心点遗漏的影响有限,聚类半径对应簇内相切圆的范围可以偏小。
由于邻域密度验证值为对应半径为聚类半径的可能性,而还需要对半径为聚类半径的筛选条件进行进一步设置,从半径序列的所有半径中提取待选半径,待选半径成为聚类半径的可能性必非待选半径成为聚类半径的可能性高。可以通过建立平面坐标系获取邻域密度验证值的变化特征,邻域密度验证值的变化特征能够反映半径为待选半径的可能性程度,进而对所有半径进行进一步判断获得比较准确的待选半径范围。因此,根据半径序列内所有半径的邻域密度验证值变化获得待选半径范围,在本发明实施例中具体包括:
建立平面直角坐标系,所述平面直角坐标系的横坐标为半径,纵坐标为邻域密度验证值;根据半径序列内所有半径的邻域密度验证值及其对应半径获得坐标系下的数据点。
需要说明的是,因为工具停留点的半径序列中每个半径对应一个邻域密度验证值,进而对每个半径的邻域密度验证值的变化特征进行分析才能获得待选半径。因此,对所有数据点使用最小二乘法进行拟合,获得邻域密度验证值变化曲线;对曲线每个数据点进行求导,获得导数序列;当导数序列中首次出现连续预设衰减次数个不大于预设衰减值的导数时,迭代停止。设定当导数不大于预设衰减值时,说明坐标系中对应数据点的邻域密度验证值的变化为不再变化或者开始变小,即对应半径成为待选半径的可能性较小,后续过大的半径不再具有参考意义。因此通过预设衰减次数对所有半径进行进一步判断,能够获得比较准确的待选半径范围。
将首次连续预设衰减数个不大于预设衰减值的导数中第一个导数对应数据点的半径作为待选半径范围的最大值,将半径序列中最小的半径作为待选半径范围的最小值;根据待选半径范围的最大值和最小值获得待选半径范围。
在本发明实施例中,预设衰减次数为3,预设衰减值为0,具体预设衰减次数和预设衰减值的数值均可根据具体实施方式具体设置。
待选半径范围中的待选半径作为聚类半径可能性更高,但是为了提高对实时加工区域获取的准确性,还需要去待选半径进行进一步筛选。根据约束条件对待选半径以及对应邻域密度验证值的范围进行进一步约束。因此,根据待选半径范围内每个待选半径和待选半径范围内邻域密度验证值的数值特征获得对应待选半径的验证值,在本发明实施例中具体包括:
获取待选半径范围获得最大待选半径和最小待选半径,将最大待选半径与最小待选半径的差值作为第二半径差值;对待选半径范围中的待选半径进行遍历,将每个待选半径与最小待选半径的差值作为第一半径差值;将第一半径差值与第二半径差值的比值作为半径差异;使用数值一减去半径差异获得半径特征;获得待选半径范围内邻域密度验证值的极差,将所述极差与半径特征的乘积作为数值特征;将数值特征与邻域密度验证值的最小值的和作为对应待选半径的验证值。以待选半径为例,获取待选半径/>的验证值的公式具体包括:
式中,表示待选半径/>的验证值,/>表示所有待选半径中对应邻域密度验证值的最小值,/>表示所有待选半径中对应邻域密度验证值的最小值,/>表示待选半径/>的数值,/>表示待选半径范围内的最小待选半径,/>表示待选半径范围内的最大待选半径。
在待选半径的验证值的公式中,表示第二半径差值,/>表示第一半径差值,第一半径差值与验证值呈反比关系,第一半径差值越小说明对应待选半径与最小待选半径之间的差异就越小,对应待选半径的数值越符合聚类半径的约束条件。表示将第一半径差值将归一化并进行负相关映射,获得半径特征,半径特征与验证值呈正比关系,当待选半径偏小时,对应半径特征的数值会偏大,则对应待选半径的数值越符合聚类半径的约束条件。使用/>来修正半径特征的数值范围,对邻域密度验证值的数值范围进行约束,/>越大,说明对应待选半径的数值及其邻域密度验证值的数值越符合聚类半径的约束条件。使用能够控制将验证值的数值范围控制在0至1之间,进而方便后续待选半径的邻域密度验证值与验证值之间的关系对比。
验证值表示待选半径达到聚类半径的约束条件的程度。若验证值过大或过小,则对应待选半径达到聚类半径的约束条件的程度越低;若验证值偏小,则对应待选半径达到聚类半径的约束条件的程度越高。同样,验证值还需要与对应邻域密度验证值的大小进行对比才能获得最符合聚类半径的约束条件的待选半径。
每个待选半径的验证值与对应邻域密度验证值之间的关系可以判断对应待选半径为最优聚类半径的可能性。若邻域密度验证值不大于对应验证值,则对应待选半径未达到聚类半径的约束条件;若邻域密度验证值远大于对应验证值,则对应待选半径同样未达到聚类半径的约束条件;邻域密度验证值远大于对应验证值,且二者的差值越小,说明对应待选半径达到聚类半径的约束条件的程度越高,即对应待选半径为最优聚类半径的可能性越大。因此,根据每个待选半径对应的验证值和邻域密度验证值获取最优聚类半径及其对应的聚类密度,在本发明实施例中具体包括:
根据待选半径从小到大的顺序依次将每个待选半径的邻域密度验证值与待选半径的验证值进行比较,将首个大于验证值的邻域密度验证值作为预期邻域密度验证值。预期邻域密度验证值对应待选半径达到约束条件的程度与其他待选半径相比最高,因此将预期邻域密度验证值对应的待选半径作为最优聚类半径,将最优聚类半径对应簇内相切圆的平均像素差异作为聚类密度。
进一步地,根据最优聚类半径和聚类密度将相邻帧差分图像进行聚类,获得实时加工区域,聚类方法为DBSCAN密度聚类。需要说明的是,DBSCAN密度聚类为本领域技术人员熟知的技术手段,在此不再赘述。
经过步骤S3的分析,获取实时加工区域,后续可以根据实时加工区域的特征进行分析。
步骤S4:获得实时加工区域的性能信息;将实时加工区域与历史帧工件图像内加工区域的性能信息进行匹配,获得匹配帧工件图像;根据匹配帧工件图像的工具更换区间获取实时工件图像的状态概率值;根据实时工件图像的状态概率值判断CNC的调机优化情况。
根据步骤S1、步骤S2和步骤S3的分析,获得实时工件图像的加工区域,还需要提取加工区域的性能信息才能确定实时加工区域与历史帧工件图像的加工区域之间的关系,进而根据历史帧工件图像的工具更换区间获得实时工件图像的工具使用状况。因此,获得实时加工区域的性能信息,在本发明实施例中,性能信息包括实时加工区域的区域形状和表面粗糙度,采用链码的方式表征区域形状,获取加工区域表面的灰度熵值表征表面粗糙度。使用同样方法获得历史帧工件图像的加工区域的性能信息。需要说明的是,链码和获取灰度熵值均为为本领域技术人员熟知的技术手段,在此不再赘述。
由于工具的工作状态表示工具的更换程度,工具的工作状态与工件图像中的加工区域的性能信息相关,若任意两个工件图像中的加工区域的性能信息越相似,则认为该两个工件图像的对应工具之间的工作状态越相似。可以根据加工区域的性能信息表示对应工具的工作状态进行判断,获取与实时加工区域的性能信息相似的历史帧加工区域的性能信息,进而通过对历史帧加工区域对应的历史帧工件图像所处的工具更换区间对实时工件图像的工具更换情况进行判断。因此,将实时加工区域与历史帧工件图像内加工区域的性能信息进行匹配,获得匹配帧工件图像,匹配过程具体包括:将实时加工区域与历史帧工件图像内加工区域的性能信息进行匹配度计算,即计算余弦相似度。将与实时加工区域的最大余弦相似度最大对应的历史帧工件图像的加工区域作为匹配帧加工区域,将匹配帧加工区域对应的工件图像作为匹配帧工件图像。
进一步地,根据匹配帧工件图像的工具更换区间获取实时工件图像的状态概率值,在本发明实施例中具体包括:
根据匹配帧工件图像的工具更换区间获取对应工具更换区间的区间总帧数和工具更换帧;将工具更换帧与匹配帧工件图像对应帧的差值作为更换比例帧数;获取更换比例帧数与区间总帧数的比值,使用数值一减去所述比值获得状态概率值。其中,实时工件图像的状态概率值的公式具体包括:
式中,表示实时工件图像的状态概率值,/>表示匹配帧工件图像对应工具更换区间的工具更换帧,/>表示匹配帧工件图像的对应帧,/>表示匹配帧工件图像对应工具更换区间的区间总帧数。
在状态概率值的公式中,为更换比例帧数,更换比例帧数表示匹配帧工件图像距离工具更换帧之间的差距帧数,更换比例帧数与状态概率值呈反比关系,更换比例帧数越小说明匹配帧工件图像对应的工具的工作状态越接近需要被更换的状态,即实时加工区域对应的工具越需要被更换。/>表示更换比例帧数位于对应工具更换区间的帧数占比,帧数占比越小说明匹配帧工件图像对应工具的工作状态越接近需要被更换的状态。/>中使用数值一减去/>的目的是将/>进行负相关映射获得状态概率值,若状态概率值越大,则匹配帧工件图像对应工具的工作状态越接近需要被更换的状态,即实时加工区域对应的工具越需要被更换;若状态概率值越小,则匹配帧工件图像对应工具的工作状态越不接近需要被更换的状态,即实时加工区域对应的工具越不需要被更换。
进一步地,根据实时工件图像的状态概率值判断CNC的调机优化情况,判断过程具体包括:
若实时工件图像的状态概率值不小于预设更换阈值,则实时工件图像对应的工具需要被更换,不然会产生工件成品报废的问题或其他不稳定因素的出现;若实时工件图像的状态概率值小于预设更换阈值,则实时工件图像对应的工具不需要被更换。
在本发明实施例中,预设更换阈值为0.95,具体预设更换阈值的数值可根据具体实施方式具体设置。
综上所述,本发明通过根据相邻帧差分图像内工具停留点与非工具停留点之间的距离差异获得半径序列。根据相邻帧差分图像内待选簇内相切圆与对应边缘圆之间的像素值差异获得对应半径的邻域密度验证值。根据半径序列中所有半径的邻域密度验证值变化获得待选半径范围。根据待选半径范围内每个待选半径和待选半径范围内邻域密度验证值的数值特征获得对应待选半径的验证值,进而获取最优聚类半径及其对应的聚类密度。将实时加工区域与历史帧工件图像内加工区域的性能信息进行匹配,获得匹配帧工件图像。根据匹配帧工件图像的工具更换区间获取实时工件图像的状态概率值,根据实时工件图像的状态概率值判断CNC的调机优化情况。本发明通过自适应获取最优聚类参数实现加工区域的准确识别,通过准确的加工区域可获得参考性强的性能信息,进而结合历史数据实现对CNC调机优化情况的判断,增强判断结果的准确率,同时提高工作效率。
本发明还提出了基于机器学习的CNC调机优化系统,包括存储器和处理器,所述处理器执行所述存储器存储的计算机程序,以实现如上述的基于机器学习的CNC调机优化方法。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
Claims (5)
1.基于机器学习的CNC调机优化方法,其特征在于,该方法包括以下步骤:
获得连续帧工件图像;工件图像中包含固定位置的一个工具停留点;根据实时工件图像与相邻帧工件图像的灰度差异构建相邻帧差分图像;根据相邻帧差分图像内工具停留点与非工具停留点之间的距离获得半径序列;
获得半径序列内每个半径下与工具停留点相切的待选簇内相切圆,及以工具停留点为中心的边缘圆;根据相邻帧差分图像内每个半径下的待选簇内相切圆与对应边缘圆之间的像素值差异获得对应半径的邻域密度验证值;
根据半径序列内所有半径的邻域密度验证值变化获得待选半径范围;根据待选半径范围内每个待选半径和待选半径范围内邻域密度验证值的数值特征获得对应待选半径的验证值;根据每个待选半径对应的验证值和邻域密度验证值获取最优聚类半径及其对应的聚类密度;根据最优聚类半径和聚类密度将相邻帧差分图像进行聚类,获得实时加工区域;
获得实时加工区域的性能信息;将实时加工区域与历史帧工件图像内加工区域的性能信息进行匹配,获得匹配帧工件图像;根据匹配帧工件图像的工具更换区间获取实时工件图像的状态概率值;根据实时工件图像的状态概率值判断CNC的调机优化情况;
所述半径序列的获取方法包括:
将相邻帧差分图像中工具停留点与每个非工具停留点相连,分别获取每个非工具停留点与工具停留点之间的欧氏距离和连线角度;
将欧氏距离按照从小到大的顺序将非工具停留点与工具停留点之间的连线进行排序,获取第一排序组;将第一排序组中欧氏距离相同的连线作为第二排序组,将连线角度按照子排序特征从小到大的顺序将每组第二排序组内的连线进行排序,对第一排序组进行修正;将修正后的第一排序组作为半径序列;
所述半径的邻域密度验证值的获取方法包括:
对任意一个半径,获取同一个半径下的所有待选簇内相切圆和对应边缘圆;根据相邻帧差分图像分别获得每个待选簇内相切圆的平均像素值和对应边缘圆的平均像素值;将每个待选簇内相切圆和对应边缘圆的平均像素值的差值作为对应待选簇内相切圆的像素值差异;将所有像素值差异的最大值作为对应半径的邻域密度验证值,邻域密度验证值对应的待选簇内相切圆作为对应半径的簇内相切圆;
所述待选半径的验证值的获取方法包括:
获取待选半径范围获得最大待选半径和最小待选半径,将最大待选半径与最小待选半径的差值作为第二半径差值;对待选半径范围中的待选半径进行遍历,将每个待选半径与最小待选半径的差值作为第一半径差值;将第一半径差值与第二半径差值的比值作为半径差异;使用数值一减去半径差异获得半径特征;
获得待选半径范围内邻域密度验证值的极差,将所述极差与半径特征的乘积作为数值特征;将数值特征与邻域密度验证值的最小值的和作为对应待选半径的验证值;
所述状态概率值的获取方法包括:
根据匹配帧工件图像的工具更换区间获取对应工具更换区间的区间总帧数和工具更换帧;将工具更换帧与匹配帧工件图像对应帧的差值作为更换比例帧数;获取更换比例帧数与区间总帧数的比值,使用数值一减去所述比值获得状态概率值;
所述根据实时工件图像的状态概率值判断CNC的调机优化情况,包括:
若实时工件图像的状态概率值不小于预设更换阈值,则实时工件图像对应的工具需要被更换;若实时工件图像的状态概率值小于预设更换阈值,则实时工件图像对应的工具不需要被更换。
2.根据权利要求1所述的基于机器学习的CNC调机优化方法,其特征在于,所述待选半径范围的获取方法包括:
建立平面直角坐标系,所述平面直角坐标系的横坐标为半径,纵坐标为邻域密度验证值;根据半径序列内所有半径的邻域密度验证值及其对应半径获得坐标系下的数据点,对所有数据点使用最小二乘法进行拟合,获得邻域密度验证值变化曲线;对所述曲线每个数据点进行求导,获得导数序列;当导数序列中首次出现连续预设衰减次数个不大于预设衰减值的导数时,迭代停止;
将首次连续预设衰减数个不大于预设衰减值的导数中第一个导数对应数据点的半径作为待选半径范围的最大值,将半径序列中最小的半径作为待选半径范围的最小值;根据待选半径范围的最大值和最小值获得待选半径范围。
3.根据权利要求1所述的基于机器学习的CNC调机优化方法,其特征在于,所述最优聚类半径及其对应聚类密度的获取方法包括:
根据待选半径从小到大的顺序依次将每个待选半径的邻域密度验证值与待选半径的验证值进行比较,将首个大于验证值的邻域密度验证值作为预期邻域密度验证值;
将预期邻域密度验证值对应的待选半径作为最优聚类半径;将最优聚类半径对应簇内相切圆的平均差分值作为聚类密度。
4.根据权利要求1所述的基于机器学习的CNC调机优化方法,其特征在于,对相邻帧差分图像聚类的方法为DBSCAN密度聚类。
5.基于机器学习的CNC调机优化系统,包括存储器和处理器,其特征在于,所述处理器执行所述存储器存储的计算机程序,以实现如权利要求1-4任一项所述的基于机器学习的CNC调机优化方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311166820.3A CN116912241B (zh) | 2023-09-12 | 2023-09-12 | 基于机器学习的cnc调机优化方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311166820.3A CN116912241B (zh) | 2023-09-12 | 2023-09-12 | 基于机器学习的cnc调机优化方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116912241A CN116912241A (zh) | 2023-10-20 |
CN116912241B true CN116912241B (zh) | 2023-12-12 |
Family
ID=88360582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311166820.3A Active CN116912241B (zh) | 2023-09-12 | 2023-09-12 | 基于机器学习的cnc调机优化方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116912241B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63105866A (ja) * | 1986-10-17 | 1988-05-11 | キャリア・コーポレイション | 数値制御工作機械による機械加工法 |
US4818925A (en) * | 1986-02-04 | 1989-04-04 | Index-Werke Kg Hahn & Tessky | Device for setting the working point of a tool in an NC machine tool |
CN107738140A (zh) * | 2017-09-30 | 2018-02-27 | 深圳吉兰丁智能科技有限公司 | 一种监控刀具状态的方法、系统以及处理设备 |
CN110109415A (zh) * | 2019-04-26 | 2019-08-09 | 华中科技大学 | 一种基于密度聚类的多网格刀轴优化方法 |
CN111273607A (zh) * | 2018-12-04 | 2020-06-12 | 沈阳高精数控智能技术股份有限公司 | 基于Spark的数控机床运行状态监测方法 |
CN112035978A (zh) * | 2020-09-03 | 2020-12-04 | 哈尔滨理工大学 | 一种刀具参数优化设计方法及系统 |
JP6901612B1 (ja) * | 2020-07-28 | 2021-07-14 | Dmg森精機株式会社 | 画像処理装置及び工作機械 |
CN113962511A (zh) * | 2021-09-07 | 2022-01-21 | 河海大学 | 一种融合工艺设计意图的工艺数据结构化表征方法 |
CN115311604A (zh) * | 2022-09-29 | 2022-11-08 | 江苏海舟安防科技有限公司 | 一种基于物联网的消防方法 |
CN115690405A (zh) * | 2022-12-29 | 2023-02-03 | 中科航迈数控软件(深圳)有限公司 | 一种基于机器视觉的加工轨迹优化方法及相关设备 |
CN115690108A (zh) * | 2023-01-04 | 2023-02-03 | 山东元旺电工科技有限公司 | 一种基于图像处理的铝合金杆生产质量评估方法 |
-
2023
- 2023-09-12 CN CN202311166820.3A patent/CN116912241B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4818925A (en) * | 1986-02-04 | 1989-04-04 | Index-Werke Kg Hahn & Tessky | Device for setting the working point of a tool in an NC machine tool |
JPS63105866A (ja) * | 1986-10-17 | 1988-05-11 | キャリア・コーポレイション | 数値制御工作機械による機械加工法 |
CN107738140A (zh) * | 2017-09-30 | 2018-02-27 | 深圳吉兰丁智能科技有限公司 | 一种监控刀具状态的方法、系统以及处理设备 |
CN111273607A (zh) * | 2018-12-04 | 2020-06-12 | 沈阳高精数控智能技术股份有限公司 | 基于Spark的数控机床运行状态监测方法 |
CN110109415A (zh) * | 2019-04-26 | 2019-08-09 | 华中科技大学 | 一种基于密度聚类的多网格刀轴优化方法 |
JP6901612B1 (ja) * | 2020-07-28 | 2021-07-14 | Dmg森精機株式会社 | 画像処理装置及び工作機械 |
CN112035978A (zh) * | 2020-09-03 | 2020-12-04 | 哈尔滨理工大学 | 一种刀具参数优化设计方法及系统 |
CN113962511A (zh) * | 2021-09-07 | 2022-01-21 | 河海大学 | 一种融合工艺设计意图的工艺数据结构化表征方法 |
CN115311604A (zh) * | 2022-09-29 | 2022-11-08 | 江苏海舟安防科技有限公司 | 一种基于物联网的消防方法 |
CN115690405A (zh) * | 2022-12-29 | 2023-02-03 | 中科航迈数控软件(深圳)有限公司 | 一种基于机器视觉的加工轨迹优化方法及相关设备 |
CN115690108A (zh) * | 2023-01-04 | 2023-02-03 | 山东元旺电工科技有限公司 | 一种基于图像处理的铝合金杆生产质量评估方法 |
Non-Patent Citations (3)
Title |
---|
On-line contour error estimation and control for corner smoothed five-axis tool paths;Hu Qin et al.;《INTERNATIONAL JOURNAL OF MECHANICAL SCIENCES》;第171卷;第1-11页 * |
基于均值漂移与自适应阈值分割的刀具磨损检测方法;奚昌泽;《机械制造》;第59卷(第05期);第71-75页 * |
基于密度峰值快速搜索聚类算法的高光加工刀具状态监测研究;刘乐星;《中国优秀硕士学位论文全文数据库工程科技Ⅰ辑》;第B022-348页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116912241A (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116823826B (zh) | 一种数控机床刀具崩刃异常检测方法 | |
CN113538486B (zh) | 一种提高汽车钣金工件的识别与定位精度的方法 | |
CN115984271B (zh) | 基于角点检测的金属毛刺识别方法 | |
CN107133565B (zh) | 基于线激光的激光刻型线特征提取方法 | |
CN111862037A (zh) | 基于机器视觉的精密孔类零件几何特征检测方法及系统 | |
CN111062940B (zh) | 一种基于机器视觉的螺钉定位与识别方法 | |
CN110942107B (zh) | 基于零件工程图像的复合磨削加工特征自动识别方法 | |
CN108445838A (zh) | 一种数控机床加工质量分析方法、分类器及设备 | |
CN112906215B (zh) | 一种基于SolidWorks二次开发的管材刀路生成方法 | |
CN114708587B (zh) | 一种基于图像识别的数控机床工件加工余量确定方法 | |
CN115240146B (zh) | 基于计算机视觉的机床装配智能验收方法 | |
CN111311618A (zh) | 一种基于高精度几何基元提取的圆弧工件匹配与定位方法 | |
CN113752086A (zh) | 一种用于数控机床刀具状态检测的方法和装置 | |
CN107423770B (zh) | 一种面向高速生产线的机器人视觉定位方法 | |
CN117921197B (zh) | 激光精密切割异形槽板制造方法、系统、设备及介质 | |
CN117047569A (zh) | 基于传感器数据交互的工具钳打磨方法及装置 | |
CN118081767A (zh) | 一种铸件机器人后处理加工自主编程系统及方法 | |
CN116912241B (zh) | 基于机器学习的cnc调机优化方法及系统 | |
CN111695582A (zh) | 一种颤振纹理的检测方法及其装置 | |
CN117764893A (zh) | 一种数控机床刀具磨损识别方法及系统 | |
CN117269168A (zh) | 一种新能源汽车精密零配件表面缺陷检测装置及检测方法 | |
CN116700149A (zh) | 一种数控加工刀具路径的自适应滤波优化方法 | |
CN115511884A (zh) | 基于计算机视觉的冲孔复合模表面质量检测方法 | |
Xiong et al. | Local deformable template matching in robotic deburring | |
CN114972948A (zh) | 一种基于神经检测网络的识别定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |