CN114897214A - 一种基于图形化处理的金属增材制造时间预测系统和方法 - Google Patents
一种基于图形化处理的金属增材制造时间预测系统和方法 Download PDFInfo
- Publication number
- CN114897214A CN114897214A CN202210349423.9A CN202210349423A CN114897214A CN 114897214 A CN114897214 A CN 114897214A CN 202210349423 A CN202210349423 A CN 202210349423A CN 114897214 A CN114897214 A CN 114897214A
- Authority
- CN
- China
- Prior art keywords
- data
- training
- layer
- model
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 62
- 238000012545 processing Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 32
- 239000000654 additive Substances 0.000 title claims abstract description 31
- 230000000996 additive effect Effects 0.000 title claims abstract description 31
- 239000002184 metal Substances 0.000 title claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 162
- 238000007781 pre-processing Methods 0.000 claims abstract description 45
- 238000003754 machining Methods 0.000 claims abstract description 25
- 238000013500 data storage Methods 0.000 claims abstract description 14
- 238000013075 data extraction Methods 0.000 claims abstract description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 34
- 230000001537 neural effect Effects 0.000 claims description 26
- 238000012706 support-vector machine Methods 0.000 claims description 19
- 230000008014 freezing Effects 0.000 claims description 11
- 238000007710 freezing Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 11
- 230000001965 increasing effect Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 8
- 238000007639 printing Methods 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 7
- 230000007797 corrosion Effects 0.000 claims description 6
- 238000005260 corrosion Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 238000013526 transfer learning Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000035945 sensitivity Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims 2
- 230000003628 erosive effect Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000007769 metal material Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000012620 biological material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229910052755 nonmetal Inorganic materials 0.000 description 1
- 238000000016 photochemical curing Methods 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005245 sintering Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B22—CASTING; POWDER METALLURGY
- B22F—WORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
- B22F10/00—Additive manufacturing of workpieces or articles from metallic powder
- B22F10/80—Data acquisition or data processing
- B22F10/85—Data acquisition or data processing for controlling or regulating additive manufacturing processes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
- B33Y50/02—Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/247—Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Materials Engineering (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Manufacturing & Machinery (AREA)
- Human Resources & Organizations (AREA)
- Evolutionary Biology (AREA)
- Development Economics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Game Theory and Decision Science (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
Abstract
本发明涉及金属增材制造领域,尤其涉及一种基于图形化处理的金属增材制造时间预测系统和方法,所述系统包括数据提取存储模块、预处理模块、加工时间预测模块;所述数据提取存储模块包括数据采集单元和数据存储单元;所述预处理模块用于对数据信息进行预处理,得到预处理数据,并将所有训练零件每层的预处理信息与对应的加工时间信息关联,构成训练数据库;所述加工时间预测模块用于根据预处理数据模块构建的训练数据库预测待加工零件的加工时间。本发明能够有效解决现有技术中零件的截面各不相同,层制造的时间预测难度大的问题,有效降低了预测难度,提高了预测的精度。
Description
技术领域
本发明涉及金属增材制造领域,尤其涉及一种基于图形化处理的金属增材制造时间预测系统和方法。
背景技术
快速增材制造是由数字化模型直接驱动快速制造任意复杂形状三维物理实体的快速成型技术的统称。快速增材制造是基于“分层制造、逐层叠加”的制造思想,是一种绿色智能化“加法”制造,区别于传统“减法”制造模式。增材制造将虚拟设计和数字化制造集成于一体,以在计算机上构造的三维模型为基础,通过软件与数控系统将专用的金属材料、非金属材料或医用生物材料,按照挤压、烧结、熔融、光固化、喷射等方式逐层堆积,制造出实体物品,快速增材制造能够在短时间内制造出产品,与采用传统的机械加工机床和模具制造相比,具有成本低、周期短、修改简单、尺寸稳定等诸多优点。
当前增材制造技术一般是根据零件的体积、高度、XY轴的长度、投影面积等数据,粗略估计零件的制造时间,但是在实际的增材制造过程中,零件的摆放、扫描线的走向和顺序、辅助机构的工作时间波动等都会影响到零件制造的时间,若根据软件预设时间来进行制造,会导致成品与设计模型存在差异,例如金属增材制造过程中,由于应力的存在,需将加工区域分割成很多小区域,并进行跳跃式的扫描,大大增加了时间预测的难度,时间预测准确度较低,导致成品与设计模型存在较大的差异,产品合格率较低,生产成本较高。
发明内容
本发明针对现有技术的不足,提供一种基于图形化处理的金属增材制造时间预测系统,包括数据提取存储模块、预处理模块、加工时间预测模块和数据输出模块。
所述数据提取存储模块包括数据采集单元和数据存储单元,所述数据采集单元用于导入训练零件或待加工零件,并采集训练零件或待加工零件的数据信息、训练零件的加工时间信息,所述数据信息包括训练零件或待加工零件的各层扫描路径信息,所述数据信息的格式例如为图片;所述数据存储单元用于存储数据采集单元采集的数据信息和时间信息。
所述预处理模块用于对数据信息进行预处理,得到预处理数据,其还用于将所有训练零件每层的预处理信息与对应的加工时间信息关联,构成训练数据库。
所述加工时间预测模块用于根据预处理数据模块构建的训练数据库预测待加工零件的加工时间,所述加工时间包括待加工零件每层的加工时间和总加工时间。
所述加工时间预测模块包括至少一个模块训练单元,所述模块训练单元用于对当前导入的训练零件的预处理数据和加工时间进行训练并得到相应的预测模型,预测模型根据待加工零件的预处理数据预测待加工零件每层的加工时间和总加工时间。
所述模块训练单元包括卷积神经模型训练单元和SVM模型训练单元,所述卷积神经模型训练单元用于对训练零件的预处理数据和加工时间进行训练,得到卷积网络模型;
所述SVM模型训练单元用于根据训练零件的预处理数据和加工时间进行训练,得到SVM模型。
优选地,所述卷积神经模型训练单元和卷积网络模型均包括从前至后依次串联的输入层、第一卷积层、修正线性单元层、局部响应归一化层、第二卷积层、完全连接层和Softmax层。
所述卷积网络模型用于根据待加工零件的预处理数据,预测每一层的分类类别并输出对应的分类概率,所述SVM模型用于根据待加工零件每一层的预处理数据和分类概率进行回归预测,得到每一层的加工时间。
所述输出模块用于输出加工时间预测模块预测的每层的加工时间和加工的总时间。
根据本发明的实施方案,所述采集单元包括截屏软件、相机、手机、电脑或其他具有成像功能的软件或器件,对各层扫描路径进行成像,例如为截屏软件或相机。
根据本发明的实施方案,所述采集单元还包括计时器,所述计时器用于对训练零件每层的加工时间进行计时。
根据本发明的实施方案,所述预处理模块包括预处理单元、分类单元和平衡单元。
根据本发明的实施方案,所述预处理单元用于将数据信息的格式调整至相同,优选将图形进行二值化分割,双三次差值缩放至得到大小为1200像素*1200像素的二值图像。
优选地,所述预处理单元还包括将数据信息进行校正和去噪。
根据本发明的实施方案,所述校正包括矫正图片畸变、裁剪出实际打印区域,所述去噪包括对二值图像进行三次膨胀和三次腐蚀操作,例如所述膨胀和腐蚀均使用3*3的像素窗口进行。
优选地,所述分类单元用于根据数据信息中的图形的形状对预处理后的数据信息进行分类,例如分为实心、中空、多轮廓分散、细长四类。
优选地,所述平衡单元用于将不同类的数据信息的数量调整至均衡,例如将四类数据信息数量调整为1:1:1:1。
根据本发明的实施方案,所述平衡单元通过随机过采样算法调整数量,所述随机过采样算法用于增加数量较少类数据的数量,减少不同类数据之间的不平衡,得到不同类数据数量均衡的预处理数据。
本发明还提供一种基于上述系统的金属增材制造时间预测方法,包括如下步骤:
步骤1:采集训练零件的数据信息和时间信息,采集待加工零件的数据信息。
步骤2:将数据信息和时间信息导入卷积神经模型训练单元进行训练,得到卷积神经模型;将数据信息和时间信息输入卷积神经模型,输出分类类别和相应的概率;将数据信息、时间信息、分类类别和相应的概率作为SVM训练数据,将SVM训练数据导入支持向量模型进行训练,得到SVM模型,将待加工零件的数据信息导入卷积神经模型和SVM模型,得到预测的每层的加工时间和加工的总时间。
根据本发明的实施方案,步骤1采集所述训练零件、待加工零件的数据信息包括:使用成像设备采集训练零件、待加工零件各层扫描路径数据并存储为图片。
所述成像设备具有如上所述的定义。
根据本发明的实施方案,步骤1和步骤2之间还包括以下步骤:对各层的数据信息进行预处理。
根据本发明的实施方案,所述预处理包括如下步骤:
步骤a:对图像畸变进行校正,裁剪出实际打印区域。
步骤b:对打印区域的图像进行二值化分割,使用双三次差值进行缩放,得到尺寸一致的二值图形,例如所述二值图像的大小为1200像素*1200像素。
步骤c:对二值图像进行至少一次膨胀和至少一次腐蚀操作,去除噪声,得到预处理数据,优选地,所述膨胀的次数大于等于2,所述腐蚀的次数大于等于2,例如进行三次膨胀和三次腐蚀。
优选地,步骤c中膨胀和腐蚀均使用3*3的像素窗口进行。
根据本发明的实施方案,所述预处理之后,步骤2之前,还包括如下步骤:增加预处理数据中少数类数据的数量至所有类别的数据量达到均衡。
根据本发明的实施方案,增加预处理数据中少数类数据的数量的步骤为:判断各类预处理数据的数量,采用随机过采样法,随机复制少数类的数据,减少不同类预处理之间的不平衡,从而增加对少数类的敏感性。
优选地,使所有类别的数据量之比均为1:1。
优选地,步骤2之前还包括以下步骤:将训练数据库随机分为训练集、验证集和测试集,所述训练集、验证集和测试集中数据量的比例为6:2:2。
根据本发明的实施方案,步骤2中将数据信息和时间信息导入卷积神经模型训练单元进行训练,得到卷积网络模型包括以下步骤:
步骤21:将训练数据库中的关联数据输入卷积神经模型训练单元进行训练,得到卷积网络模型,所述卷积网络模型的输出层输出训练数据的分类类别,以及每个分类类别对应的概率;
步骤22:将分类类别和相应的概率加入到训练数据库中,作为支持向量机模型的训练数据集进行训练,得到SVM模型。
根据本发明的实施方案,步骤21包括如下步骤:
步骤211:从训练数据库训练集的关联数据(一个训练零件对应的数据)中选择一组多尺度的子图像组成多尺度数据(包括训练零件所有层的图像)作为卷积神经模型训练单元的输入数据,将卷积神经模型训练单元的各个层冻结或定义为不可训练,仅训练新分类器层的权重,使用双线性插值将小图像块和大图像块都调整为227像素×227像素,利用迁移学习的方式,进行冻结训练,得到冻结模型。
步骤212:将冻结模型中的各个层定义为可训练,将训练数据库测试集和验证集的关联数据依次输入到冻结模型中进行训练,得到卷积网络模型,卷积网络模型的Softmax层输出训练数据的分类类别和每个分类类别的概率。
优选地,所述子图像由两种大小不同的若干图像块组成,小图像块为100像素×100像素的图像区域,大图像块为1200像素×1200像素的图像区域;使用双线性插值将小图像块和大图像块都调整为227像素×227像素。
优选地,所述卷积神经模型训练单元采用经过预训练的AlexNet架构卷积神经网络构成模型,卷积神经网络模型包括从前至后依次串联的输入层、第一卷积层、修正线性单元层(ReLU层)、局部响应归一化层(LRN层)、第二卷积层、完全连接层(FC层)和Softmax层。
优选所述新分类器层包括FC层和Softmax层。
优选地,所述第一卷积层的移动步幅为4,所述第二卷积层的移动步幅为6。
根据本发明的实施方案,卷积神经网络模型训练数据包括如下步骤:
步骤311:利用卷积神经网络模型单元的第一卷积层对每一层调整后的图像的全深度进行操作,得到第一卷积层输出。
步骤312:将第一卷积层的输出输入到修正线性单元层,得到ReLU层的输出,将ReLU层输出输入到局部响应归一化层,得到归一化数据。
步骤313:利用第二卷积层对归一化数据进行操作,得到第二卷积层输出。然后将第二卷积层输出输入到一个完全连接(FC)层。
步骤314:使用Softmax层将FC层的输出转换为每个分类类别的概率,响应最大的分类类别具有最高的概率,所有分类的概率总和等于1。
根据本发明的实施方案,所述第一卷积层操作包括提取低级特征,如线、边缘等,所述第二卷积层的操作包括提取高级特征,如面积、角度等。
根据本发明的实施方案,步骤22包括如下步骤:
步骤221:将卷积网络模型输出的分类类别和对应的概率,作为每个层的特征数据,加入到训练数据库的层数据中,得到扩展数据库。
步骤222:将扩展数据库中的数据作为训练集输入到支持向量机模型中,对支持向量机模型进行训练,根据支持向量机模型的预测制造时间与扩增数据库中相应的实际制造时间的误差值,调整支持向量机模型参数,得到训练后的SVM模型。
本发明还提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,实现所述的方法。
本发明还提供了一种设备,包括所述的存储介质和处理器,所述处理器执行所述存储介质上的计算机程序时实现所述方法的步骤。
有益效果
1,本发明的基于图形化处理的金属增材制造时间预测方法,利用截屏或相机采集打印零件的各层扫描路径,通过多尺度卷积神经网络对数据进行特征提取并分类,将分类类别和概率加入到数据库中,最后利用训练后的SVM模型预测每一层制造时间,同时得到整个零件的制造时间,通过上述方法,在零件未加工时就可以快速的预测出每一层制造时间与整个零件的制造时间。
2,本发明的方法利用截屏或相机采集打印零件各层扫描路径数据,增加该方法兼容性,使的该方法不仅适用于开源的增材制造设备,也适用于控制软件相对封闭的增材制造设备。
3,通过随机过采样(ROS),利用随机复制少数类的数据,来减少多个类之间的不平衡,以增加对少数类的敏感性,从而可以利用较少的训练数据,就能训练出准确度较高的模型,减少了训练数据的使用量,提高了预测的效率。
4,本发明的方法利用先分类,再回归预测的方法,有效解决现有技术中零件的截面各不相同,层制造的时间预测难度大的问题,有效降低了预测难度,提高了预测的精度。
附图说明
图1为本发明实施例一种基于数据融合的金属增材制造时间预测方法流程图;
图2为本发明实施例一种基于数据融合的金属增材制造时间预测系统结构的结构框图;
图3为本发明实施例中图片数据常见的分类。
具体实施方式
下文将结合具体实施例对本发明的系统和方法做更进一步的详细说明。应当理解,下列实施例仅为示例性地说明和解释本发明,而不应被解释为对本发明保护范围的限制。凡基于本发明上述内容所实现的技术均涵盖在本发明旨在保护的范围内。
实施例1
如图1所示,一种基于数据融合的金属增材制造时间预测方法,包括如下步骤:
步骤1:利用截屏或相机采集训练零件的各层扫描路径数据,存储为图片,利用计时器配合采集训练零件各层的制造时间。
具体地,优先利用截屏的方式采集训练零件的各层扫描路径数据并存储为图片;对无法进行截屏软件安装的增材制造设备,采用相机采集各层扫描路径数据并存储为图片。
根据训练零件的形状,将图片数据分为实心、中空、多轮廓分散、细长四个类别。
这种数据采集方法的兼容性较高,使的该方法可以适用于大多数的增材制造设备。
步骤2:导入训练零件各层扫描路径数据的图片,导入对应的加工参数(加工时间),对各层的图片数据进行预处理,采用随机过采样(ROS)增加预处理数据中少数类数据的数量,减少不同类数据之间的不平衡,使各类的比例接近1:1:1:1,得到平衡图像数据,将每个平衡图像数据与对应的扫描时间关联,得到关联数据,所有关联数据构成训练数据库。
对各层的图片数据进行预处理,具体包括如下步骤:
步骤21:对图像畸变进行校正,裁剪出实际打印区域。
步骤22:对打印区域的图像进行二值化分割,使用双三次差值进行缩放,得到大小为1200像素*1200像素的二值图像,记录缩放比例。
步骤23:对二值图像进行三次膨胀和三次腐蚀操作,去除噪声,得到预处理数据。其中,膨胀和腐蚀均使用3*3的像素窗口进行。
采用随机过采样(ROS)增加预处理数据中少数类数据的数量包括:判断各类预处理数据的数量,采用随机过采样(ROS),利用随机复制少数类的数据,减少不同类预处理之间的不平衡,从而增加对少数类的敏感性。
本步骤通过图像预处理,使图像数据具有统一的大小,去除了图像中的噪声,得到有效的图像信息。通过改变类不平衡,可以利用较少的训练数据,就能训练出准确度较高的模型,减少了训练数据的使用量,提高了预测的效率。
步骤3:将训练数据库划分为训练集、验证集、测试集,比例为6:2:2。利用训练集中的关联数据对多尺度的卷积神经网络单元进行训练,将卷积神经模型训练单元的各个层冻结或定义为不可训练,仅训练新分类器层的权重,使用双线性插值将小图像块和大图像块都调整为227像素×227像素,利用迁移学习的方式,进行冻结训练,得到冻结模型。
步骤4:将冻结模型中的各个层定义为可训练,将训练数据库测试集和验证集的关联数据依次输入到冻结模型中进行训练,得到卷积网络模型,卷积网络模型的Softmax层输出训练数据的分类类别和每个分类类别的概率。
微调网络层参数(例如仅调整分类器参数)以提高性能,利用测试集和验证集对卷积神经网络单元进行优化,卷积网络模型的输出层输出训练数据的分类类别,以及对应每个分类类别的概率。
本实施例中,多尺度的卷积神经网络单元选用经过预训练的AlexNet架构卷积神经网络构成的模型,以下简称CNN模型,CNN模型包括从前至后依次串联的输入层、第一卷积层、修正线性单元层(ReLU层)、局部响应归一化层(LRN层)、第二卷积层、完全连接层(FC层)和Softmax层。
利用训练数据库中的关联数据对多尺度的卷积神经网络单元(本实施例中,)进行训练包括如下步骤:
步骤31:从训练数据库的关联数据中选择一组多尺度的子图像组成多尺度的卷积神经网络的输入数据,子图像由两种大小不同的若干图像块组成,小图像块为100像素×100像素的图像区域,大图像块为1200像素×1200像素的图像区域,小图像块的数量大于等于1000,大图像块的数量大于等于10。
步骤32:使用双线性插值将小图像块和大图像块都调整为227像素×227像素,利用迁移学习的方式进行训练,利用卷积神经网络模型的第一卷积层对层的全深度(即图像的所有三个通道)进行操作,第一卷积层的移动步幅为4,得到第一卷积层输出。
步骤33:将第一卷积层输出输入到修正线性单元(ReLU)层,得到ReLU层的输出,将ReLU层输出输入到局部响应归一化(LRN)层,得到归一化数据。
步骤34:利用卷积神经网络模型的第二卷积层对归一化数据进行操作,第二卷积层的移动步幅为6,得到第二卷积层输出;第一卷积层提取低级特征,如线、边缘等,第二卷积层提取高级特征,如面积、角度等。然后将第二卷积层输出输入到一个完全连接(FC)层。
步骤35:使用Softmax层将FC层的输出转换为每个分类类别的概率,响应最大的分类类别具有最高的概率,所有分类的概率总和等于1。
本步骤的有益效果是:通过多尺度的子图像,确保了细节信息与全局信息都能被完整的提取到,利用迁移学习的方式,采用预训练模型,可以用较少的数据产生较好的预测结果,应用LRN,提高了对空间小特征的检测灵敏度。
步骤4具体包括如下步骤:
步骤41:将多尺度的卷积神经网络输出的分类类别和相应的概率,作为每个层的特征数据,加入到训练数据库的层数据中,得到扩展数据库。
步骤42:将扩展数据库中的数据作为训练集输入到支持向量机模型中,对支持向量机模型进行训练,根据支持向量机模型的预测制造时间与扩增数据库中相应的实际制造时间的误差值,调整支持向量机模型参数,得到SVM模型。
本发明先对层数据进行分类,将分类的类别概率加入到数据库中,再利用这些数据对层的制造时间进行回归预测,可以进一步提高预测的精度,增强预测的稳定性。
步骤5:将待预测零件的数据参数依次输入训练后的卷积网络模型和SVM模型中,得到每一层制造时间的预测结果,同时得到整个零件的制造时间。具体地,导入采集到的待预测零件数据,程序自动运行,最后自动输出零件各层的预估时间,以及整个零件的制造时间。
在迁移学习的情况下,使用已经训练过的CNN模型的特征作为初始化,以训练得到用于实际分类的CNN,CNN使用预先训练的权重实例化,并应用到新的分类器(分类器用于对图形进行分类)中,如本发明中的实心、中空、多轮廓分散、细长四个类别的分类。
在使用数据训练CNN模型之前,将CNN模型的各个层冻结或定义为不可训练,以便在新的训练周期中不会再次更新预训练权重,否则会破坏先前学习的特征。仅训练添加到CNN模型的新分类器层的权重,如本实施例中仅训练FC层和Softmax层的权重。
第一次的冻结训练结束后,CNN模型在原模型基础上进行了微调(仅FC层和Softmax层的权重在训练中自行调整)。此后,将CNN模型的各个层定义为可训练的,用于特征提取,将测试集和验证集中的数据输入进行第二次训练,得到卷积神经模型。在这种操作下,重新更新了之前CNN模型的预训练特征,使其与新的分类问题更相关,能够更好地对零件图像进行分类。
由于预先训练的AlexNet架构卷积神经网络构成模型的输入层是227像素×227像素,当将迁移学习应用到预先训练过的CNN时,CNN的架构,包括输入层的大小,必须保持不变,因此要使用双线性插值将输入图像调整为227像素×227像素,第一卷积层使用的滤波器大小为11像素×11像素×3像素,最终第一卷积层的输出为55像素×55像素×96像素,ReLU不改变数据量的大小,即ReLU层的输出大小为55像素×55像素×96像素,LRN层也不改变数据量的大小,即LRN层的输出大小为55像素×55像素×96像素,最后构建的FC层尺寸为1像素×1像素×4像素。
如图2所示,本发明还提供一种基于数据融合的金属增材制造时间预测系统,包括数据提取存储模块、预处理模块、加工时间预测模块、数据输出模块。
数据提取存储模块包括数据采集单元和数据存储单元,数据采集单元用于导入训练零件或待预测零件,利用截屏或相机采集用于训练的零件各层扫描路径数据,存储为图片,作为数据信息,利用计时器配合采集训练零件各层的制造时间,作为时间信息,并将数据信息和时间信息进行存储。
零件数据预处理模块,用于对各层的图片数据进行预处理,将时间信息与预处理后的数据信息进行关联,构成训练的数据库。
加工时间预测模块包括多尺度卷积神经网络模型训练单元和支持向量机模型训练,多尺度卷积神经网络模型训练单元用于利用数据库中的数据对多尺度的卷积神经网络模型进行训练,以得到神经网络模型,支持向量机模型训练单元用于利用数据库中的数据对支持向量机模型进行训练,以得到支持向量机模型。
神经网络模型和支持向量机模型用于对待预测零件的制造时间进行预测,输出每一层的制造时间,输出零件整体制造总时间。
数据输出模块,用于输出每一层预测的制造时间,输出待预测零件整体制造总时间。
以上,对本发明的实施方式进行了说明。但是,本发明不限定于上述实施方式。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于图形化处理的金属增材制造时间预测系统,其特征在于,包括数据提取存储模块、预处理模块、加工时间预测模块;
所述数据提取存储模块包括数据采集单元和数据存储单元,所述数据采集单元用于导入训练零件或待加工零件,并采集训练零件或待加工零件的数据信息、训练零件的加工时间信息,所述数据信息包括训练零件或待加工零件的各层扫描路径信息;所述数据存储单元用于存储数据采集单元采集的数据信息和时间信息;
所述预处理模块用于对数据信息进行预处理,得到预处理数据,并将所有训练零件每层的预处理信息与对应的加工时间信息关联,构成训练数据库;
所述加工时间预测模块用于根据预处理数据模块构建的训练数据库预测待加工零件的加工时间,所述加工时间包括待加工零件每层的加工时间和总加工时间。
优选地,所述预测系统还包括数据输出模块,所述数据输出模块用于输出加工时间预测模块预测的每层的加工时间和加工的总时间。
2.根据权利要求1所述的基于图形化处理的金属增材制造时间预测系统,其特征在于,所述加工时间预测模块包括至少一个模块训练单元,所述模块训练单元用于对当前导入的训练零件的预处理数据和加工时间进行训练并得到相应的预测模型,预测模型根据待加工零件的预处理数据预测待加工零件每层的加工时间和总加工时间;
优选地,所述模块训练单元包括卷积神经模型训练单元和SVM模型训练单元,所述卷积神经模型训练单元用于对训练零件的预处理数据和加工时间进行训练,得到卷积网络模型;
所述SVM模型训练单元用于根据训练零件的预处理数据和加工时间进行训练,得到SVM模型。
优选地,所述卷积神经模型训练单元和卷积网络模型均包括从前至后依次串联的输入层、第一卷积层、修正线性单元层、局部响应归一化层、第二卷积层、完全连接层和Softmax层。
优选地,所述卷积网络模型用于根据待加工零件的预处理数据,预测每一层的分类类别并输出对应的分类概率,所述SVM模型用于根据待加工零件每一层的预处理数据和分类概率进行回归预测,得到每一层的加工时间。
优选地,所述采集单元包括截屏软件、相机、手机、电脑或其他具有成像功能的软件或器件,对各层扫描路径进行成像。
优选地,所述采集单元还包括计时器,所述计时器用于对训练零件每层的加工时间进行计时。
3.根据权利要求1或2所述的基于图形化处理的金属增材制造时间预测系统,其特征在于,所述预处理模块包括预处理单元、分类单元和平衡单元;
所述预处理单元用于将数据信息的格式调整至相同,优选将图形进行二值化分割,双三次差值缩放至得到大小为1200像素*1200像素的二值图像。
优选地,所述分类单元用于根据数据信息中的图形的形状对预处理后的数据信息进行分类。
优选地,所述平衡单元用于将不同类的数据信息的数量调整至均衡。
优选地,所述预处理单元还包括将数据信息进行校正和去噪;所述校正包括矫正图片畸变、裁剪出实际打印区域,所述去噪包括对二值图像进行三次膨胀和三次腐蚀操作。
优选地,所述平衡单元通过随机过采样算法调整数量,所述随机过采样算法用于增加数量较少类数据的数量,减少不同类数据之间的不平衡,得到不同类数据数量均衡的预处理数据。
4.一种基于权利要求1至3任一项所述系统的金属增材制造时间预测方法,其特征在于,包括如下步骤:
步骤1:采集训练零件的数据信息和时间信息,采集待加工零件的数据信息;
步骤2:将数据信息和时间信息导入卷积神经模型训练单元进行训练,得到卷积神经模型;将数据信息和时间信息输入卷积神经模型,输出分类类别和相应的概率;将数据信息、时间信息、分类类别和相应的概率作为SVM训练数据,将SVM训练数据导入支持向量模型进行训练,得到SVM模型,将待加工零件的数据信息导入卷积神经模型和SVM模型,得到预测的每层的加工时间和加工的总时间。
5.根据权利要求4所述的金属增材制造时间预测方法,其特征在于,步骤1采集所述训练零件、待加工零件的数据信息包括:使用成像设备采集训练零件、待加工零件各层扫描路径数据并存储为图片。
优选地,步骤1和步骤2之间还包括以下步骤:对各层的数据信息进行预处理。
优选地,所述预处理包括如下步骤:
步骤a:对图像畸变进行校正,裁剪出实际打印区域。
步骤b:对打印区域的图像进行二值化分割,使用双三次差值进行缩放,得到尺寸一致的二值图形。
步骤c:对二值图像进行至少一次膨胀和至少一次腐蚀操作,去除噪声,得到预处理数据。
6.根据权利要求4或5所述的金属增材制造时间预测方法,其特征在于,所述预处理之后,步骤2之前,还包括如下步骤:增加预处理数据中少数类数据的数量至所有类别的数据量达到均衡。
优选地,增加预处理数据中少数类数据的数量的步骤为:判断各类预处理数据的数量,采用随机过采样法,随机复制少数类的数据,减少不同类预处理之间的不平衡,从而增加对少数类的敏感性。
优选地,步骤2之前还包括以下步骤:将训练数据库随机分为训练集、验证集和测试集。
优选地,步骤2中将数据信息和时间信息导入卷积神经模型训练单元进行训练,得到卷积网络模型包括以下步骤:
步骤21:将训练数据库中的关联数据输入卷积神经模型训练单元进行训练,得到卷积网络模型,所述卷积网络模型的输出层输出训练数据的分类类别,以及每个分类类别对应的概率;
步骤22:将分类类别和相应的概率加入到训练数据库中,作为支持向量机模型的训练数据集进行训练,得到SVM模型。
7.根据权利要求6所述的金属增材制造时间预测方法,其特征在于,步骤21包括如下步骤:
步骤211:从训练数据库训练集的关联数据中选择一组多尺度的子图像组成多尺度数据作为卷积神经模型训练单元的输入数据,将卷积神经模型训练单元的各个层冻结或定义为不可训练,仅训练新分类器层的权重,使用双线性插值将小图像块和大图像块都调整为227像素×227像素,利用迁移学习的方式,进行冻结训练,得到冻结模型;
步骤212:将冻结模型中的各个层定义为可训练,将训练数据库测试集和验证集的关联数据依次输入到冻结模型中进行训练,得到卷积网络模型,卷积网络模型的Softmax层输出训练数据的分类类别和每个分类类别的概率;
优选地,所述子图像由两种大小不同的若干图像块组成,小图像块为100像素×100像素的图像区域,大图像块为1200像素×1200像素的图像区域;使用双线性插值将小图像块和大图像块都调整为227像素×227像素。
8.根据权利要求4或5所述的金属增材制造时间预测方法,其特征在于,所述卷积神经模型训练单元采用经过预训练的AlexNet架构卷积神经网络构成模型,卷积神经网络模型包括从前至后依次串联的输入层、第一卷积层、修正线性单元层、局部响应归一化层、第二卷积层、完全连接层和Softmax层。
优选地,所述卷积神经网络模型训练数据包括如下步骤:
步骤311:利用卷积神经网络模型单元的第一卷积层对每一层调整后的图像的全深度进行操作,得到第一卷积层输出。
步骤312:将第一卷积层的输出输入到修正线性单元层,得到ReLU层的输出,将ReLU层输出输入到局部响应归一化层,得到归一化数据。
步骤313:利用第二卷积层对归一化数据进行操作,得到第二卷积层输出。然后将第二卷积层输出输入到一个完全连接(FC)层。
步骤314:使用Softmax层将FC层的输出转换为每个分类类别的概率,响应最大的分类类别具有最高的概率,所有分类的概率总和等于1。
优选地,步骤22包括如下步骤:
步骤221:将卷积网络模型输出的分类类别和对应的概率,作为每个层的特征数据,加入到训练数据库的层数据中,得到扩展数据库。
步骤222:将扩展数据库中的数据作为训练集输入到支持向量机模型中,对支持向量机模型进行训练,根据支持向量机模型的预测制造时间与扩增数据库中相应的实际制造时间的误差值,调整支持向量机模型参数,得到训练后的SVM模型。
9.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,实现权利要求4-8任一项所述的方法。
10.一种设备,包括权利要求9所述的存储介质和处理器,所述处理器执行所述存储介质上的计算机程序时实现权利要求4-8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210349423.9A CN114897214A (zh) | 2022-04-01 | 2022-04-01 | 一种基于图形化处理的金属增材制造时间预测系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210349423.9A CN114897214A (zh) | 2022-04-01 | 2022-04-01 | 一种基于图形化处理的金属增材制造时间预测系统和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114897214A true CN114897214A (zh) | 2022-08-12 |
Family
ID=82714762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210349423.9A Pending CN114897214A (zh) | 2022-04-01 | 2022-04-01 | 一种基于图形化处理的金属增材制造时间预测系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114897214A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115383273A (zh) * | 2022-08-19 | 2022-11-25 | 清华大学 | 电子束多熔丝原位增材制造冶金时长闭环控制方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521442A (zh) * | 2011-12-06 | 2012-06-27 | 南京航空航天大学 | 基于特征样本的飞机结构件神经网络加工时间预测方法 |
WO2017152990A1 (en) * | 2016-03-11 | 2017-09-14 | Telecom Italia S.P.A. | Convolutional neural networks, particularly for image analysis |
CN113341883A (zh) * | 2021-08-05 | 2021-09-03 | 山东豪泉软件技术有限公司 | 一种用于机床加工工时预测的方法及设备 |
CN113791579A (zh) * | 2021-09-17 | 2021-12-14 | 深圳模德宝科技有限公司 | 线切割加工时间预测方法、装置、计算机设备和存储介质 |
-
2022
- 2022-04-01 CN CN202210349423.9A patent/CN114897214A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521442A (zh) * | 2011-12-06 | 2012-06-27 | 南京航空航天大学 | 基于特征样本的飞机结构件神经网络加工时间预测方法 |
WO2017152990A1 (en) * | 2016-03-11 | 2017-09-14 | Telecom Italia S.P.A. | Convolutional neural networks, particularly for image analysis |
CN113341883A (zh) * | 2021-08-05 | 2021-09-03 | 山东豪泉软件技术有限公司 | 一种用于机床加工工时预测的方法及设备 |
CN113791579A (zh) * | 2021-09-17 | 2021-12-14 | 深圳模德宝科技有限公司 | 线切割加工时间预测方法、装置、计算机设备和存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115383273A (zh) * | 2022-08-19 | 2022-11-25 | 清华大学 | 电子束多熔丝原位增材制造冶金时长闭环控制方法及系统 |
CN115383273B (zh) * | 2022-08-19 | 2023-09-29 | 清华大学 | 电子束多熔丝原位增材制造冶金时长闭环控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977943B (zh) | 一种基于yolo的图像目标识别方法、系统和存储介质 | |
CN112052787B (zh) | 基于人工智能的目标检测方法、装置及电子设备 | |
CN106960195B (zh) | 一种基于深度学习的人群计数方法及装置 | |
CN110163213B (zh) | 基于视差图和多尺度深度网络模型的遥感图像分割方法 | |
CN111209858B (zh) | 一种基于深度卷积神经网络的实时车牌检测方法 | |
CN110781980B (zh) | 目标检测模型的训练方法、目标检测方法及装置 | |
WO2023206944A1 (zh) | 一种语义分割方法、装置、计算机设备和存储介质 | |
CN110378916B (zh) | 一种基于多任务深度学习的tbm图像出渣分割方法 | |
CN112906794A (zh) | 一种目标检测方法、装置、存储介质及终端 | |
CN110807362A (zh) | 一种图像检测方法、装置和计算机可读存储介质 | |
CN110852199A (zh) | 一种基于双帧编码解码模型的前景提取方法 | |
CN110826457A (zh) | 一种复杂场景下的车辆检测方法及装置 | |
CN111597845A (zh) | 一种二维码检测方法、装置、设备及可读存储介质 | |
CN111931572B (zh) | 一种遥感影像的目标检测方法 | |
WO2024041108A1 (zh) | 图像矫正模型训练及图像矫正方法、装置和计算机设备 | |
CN111339950B (zh) | 一种遥感图像目标检测方法 | |
CN115908833A (zh) | 一种基于改进YOLOv3的轻量级垃圾检测方法 | |
CN114240822A (zh) | 基于YOLOv3及多尺度特征融合的棉布瑕疵检测方法 | |
WO2023086198A1 (en) | Robustifying nerf model novel view synthesis to sparse data | |
CN114897214A (zh) | 一种基于图形化处理的金属增材制造时间预测系统和方法 | |
CN111027472A (zh) | 一种基于视频光流和图像空间特征权重融合的视频识别方法 | |
CN111104855A (zh) | 一种基于时序行为检测的工作流识别方法 | |
CN113536896B (zh) | 基于改进Faster RCNN的绝缘子缺陷检测方法、装置及存储介质 | |
CN117911437A (zh) | 一种改进YOLOv5x的荞麦籽粒粘连分割方法 | |
CN116579409A (zh) | 基于重参数化的智能相机模型剪枝加速方法及加速系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |