CN117340280B - 一种lpbf增材制造过程监测方法 - Google Patents
一种lpbf增材制造过程监测方法 Download PDFInfo
- Publication number
- CN117340280B CN117340280B CN202311651002.2A CN202311651002A CN117340280B CN 117340280 B CN117340280 B CN 117340280B CN 202311651002 A CN202311651002 A CN 202311651002A CN 117340280 B CN117340280 B CN 117340280B
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- self
- model
- molten pool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000654 additive Substances 0.000 title claims abstract description 43
- 230000000996 additive effect Effects 0.000 title claims abstract description 43
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012544 monitoring process Methods 0.000 title claims abstract description 22
- 238000000465 moulding Methods 0.000 claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000010606 normalization Methods 0.000 claims description 15
- 238000003709 image segmentation Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 238000005192 partition Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 238000007639 printing Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000010146 3D printing Methods 0.000 abstract description 2
- 230000004927 fusion Effects 0.000 abstract description 2
- 238000011176 pooling Methods 0.000 abstract description 2
- 238000003908 quality control method Methods 0.000 abstract description 2
- 239000000843 powder Substances 0.000 abstract 1
- 230000006872 improvement Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B22—CASTING; POWDER METALLURGY
- B22F—WORKING METALLIC POWDER; MANUFACTURE OF ARTICLES FROM METALLIC POWDER; MAKING METALLIC POWDER; APPARATUS OR DEVICES SPECIALLY ADAPTED FOR METALLIC POWDER
- B22F10/00—Additive manufacturing of workpieces or articles from metallic powder
- B22F10/80—Data acquisition or data processing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
Landscapes
- Chemical & Material Sciences (AREA)
- Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Materials Engineering (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种LPBF增材制造过程监测方法,属于计算机视觉技术领域,用于判断和评估激光粉末床融合3D打印成型质量,其包括:通过卡尔曼滤波器预测跟踪熔池、羽流和飞溅物图像区域;训练ViTGAN模型,通过生成器分别生成熔池、羽流和飞溅物的生成图像分块;通过ViTGAN模型,根据熔池、羽流和飞溅物参数,得到成型质量预测模型;计算预测和预设成型质量的误差;判断显微组织以及力学性能;相较于传统CNN‑LSTM模型在不使用卷积或池化的情况下,也能达到与领先于CNN‑LSTM的性能;此外,对误差容许范围进行先验,后验显微组织以及力学性能,从时间和空间上提高了增材制造成形件质量控制。
Description
技术领域
本发明属于增材制造过程监测技术领域,特别涉及一种LPBF增材制造过程监测方法。
背景技术
增材制造过程监测是判断和评估3D打印成型质量的关键技术手段,通常是对增材制造过程中的熔池、羽流和飞溅物进行检测。
激光粉末床融合技术(LPBF)是一种用于制造金属部件的普遍的增材制造(AM)技术,设计灵活、资源有效利用率高,然而LPBF的形成原理与材料去除技术不同,需要对材料的显微组织和力学行为进行评估。LPBF材料因原料限制易于形成各种类型的孔隙,易于产生疲劳行为。现有增材制造过程监测方法一般采用CNN-LSTM或者基于CNN的GAN生成对抗模型来进行过程监测,上述方法结构过于繁琐,需要较长时间训练才能收敛达到稳定,不适合需要高速实时的应用场景。
发明内容
针对现有技术中的上述不足,本发明提供的LPBF增材制造过程监测方法解决了现有的LPBF在成型过程中产生的孔隙以及疲劳问题,通过基于人工智能技术的制造过程监测,优化LPBF制造的成型质量。
为了达到上述发明目的,本发明采用的技术方案为:一种LPBF增材制造过程监测方法,包括以下步骤:
S1、采集LPBF增材制造过程的原始图像,并识别其中的熔池、羽流和飞溅物图像区域;
S2、构建ViTGAN模型,并利用熔池、羽流和飞溅物图像区域训练ViTGAN模型,将训练好的ViTGAN模型作为成型质量预测模型;
S3、计算成型质量预测模型输出的预测成型质量与预设成型质量的质量误差,并判断质量误差是否超过容许范围;其中,预测成型质量为完成训练时ViTGAN模型输出的熔池、羽流和飞溅物参数;
若是,则进入步骤S6;
若否,则进入步骤S4;
S4、根据质量误差调节LPBF增材制造的工艺参数,并判断工艺参数调整后的质量误差是否在容许范围内;
若是,则进入步骤S5;
若否,则进入步骤S6;
S5、确定当前LBPF增材的显微组织以及力学性能,并判断其是否满足成型质量要求;
若是,则返回步骤S1,循环执行LBPF增材制造过程监测流程;
若否,则进入步骤S6;
S6、停止制造的LPBF增材打印。
进一步地,所述步骤S1中,通过卡尔曼滤波器对原始图像进行预测跟踪,分别获得其中的熔池、羽流和飞溅物图像区域。
进一步地,所述步骤S2中,所述ViTGAN模型包括生成器和判别器;
训练所述ViTGAN模型的方法具体为:
S21、基于熔池、羽流和飞溅物图像区域,通过生成器分别生成熔池、羽流和飞溅物的生成图像分块;
S22、对各生成图像分块的分块图像重叠得到对应的熔池、羽流和飞溅物的重叠图像分块;
S23、基于熔池、羽流和飞溅物的重叠图像分块,通过判别器生成对应的对抗图像分块,并根据判别器的输出判断生成器和判别器是否达到纳什均衡;
若是,则完成ViTGAN模型训练,得到成型质量预测模型,输出预测成型质量;
若否,则继续采集LPBF增材制造过程的原始图像,并返回步骤S21。
进一步地,所述步骤S21具体为:
S21-1、将高斯噪声向量z通过映射网络后输出隐权重向量w;
S21-2、将隐权重向量w经过外部自调制层计算自调制层范数后,输入至生成器的Transformer编码器中;
S21-3、将熔池、羽流和飞溅物图像区域分别经过傅里叶嵌入后,以位置嵌入序列输入到Transformer编码器;
S21-4、基于输入的自调制层范数,在通过Transformer编码器中,通过各嵌入分块根据对熔池、羽流和飞溅物图像区域的位置嵌入序列进行图像分块,并经过多层感知器的展开处理,得到熔池、羽流和飞溅物的生成图像分块。
进一步地,在所述生成器的Transformer编码器中,其第一个嵌入分块表示为:
;
第l-1个嵌入分块,并迭代至第l-1个图像分块迭代后的自注意力结果表示为:
;
第l个嵌入分块表示hl为:
;
通过嵌入分块进行图像分块嵌入的表达式为:
;
经过多层感知器展开后,重构得到的生成图像分块表示为:
式中,Epos为一维位置嵌入,L为有效序列长度,l为分块数量即产生的隐藏层数量,D为维度,W为图像分块的宽度,P为图像分块的边长,为图像高度,/>为图像的RGB通道数,RL×D为L×D维实数域,RD表示D维实数域,/>为P2×D维实数域,RH×W×C表示H×W×C维实数域,w为隐权重向量,MSA(.)为多头自注意力函数,SLN(.)为自调制层范数,MLP(.)为多层感知器,y为图像分块嵌入,yl~yL为图像分块嵌入得到的图像分块,x为完整的图像,/>为图像分块序列,Efou为傅里叶嵌入,/>表示一个2层的多层感知器。
进一步地,在所述生成器中,所述Transformer编码器中多头自注意通过串联和线性投影的方式聚合来自个自注意力头部的信息,其表达式为:
;
式中,MSA(X)为多头自注意力函数,为1到/>个自注意力头部进行张量拼接,/>为自注意力头部个数,/>为Transformer编码器中隐藏层自注意力函数,/>为ViTGAN模型生成器的隐权重向量,b为ViTGAN模型生成器超平面的截距。
进一步地,所述步骤S21-2中,外部自调制层根据隐权重向量w的学习仿射变换来计算自调制层范数,其表达式为:
;
式中,SLN(.)为自调制层范数,hl为Transformer编码器中的第l个嵌入分块,w为隐权重向量,w=MLP(z),和/>为由高斯噪声向量z得到的潜在向量控制的自适应归一化参数,/>为元素级的点积,/>和/>为跟踪层内求和输入的平均值和方差。
进一步地,所述Transformer编码器中的自调制层的规范结构包括依次连接的词嵌入转化层、第一相加并归一化层、多头注意力层、第二相加并归一化层以及多层感知器层;所述词嵌入转化层的输出端还通过拼接操作与多头注意力层的输出端连接,所述第二相加并归一化层的输入端还通过拼接操作与多层感知器的输出端连接;
其中,所述第一相加并归一化层和第二相加并归一化层还分别连接一个外部自调制层,所述隐权重向量同时输入至两个外部自调制层中。
进一步地,所述步骤S23具体为:
S23-1、将各重叠图像分块分别展开并进行图像分块预测;
S23-2、将分块预测后的图像输入至判别器的Transformer编码器中,并输出对抗图像分块;
S23-3、判断对抗图像分块和生成图像分块是否达到纳什均衡;
若是,则完成ViTGAN模型训练,将Transformer编码器的输出经过MLP多层感知器后输出熔池、羽流和飞溅物参数作为成型质量预测模型输出的预测成型质量;
S23-4、若否,则继续采集LPBF增材制造过程的原始图像,并返回步骤S21。
本发明的有益效果为:
(1)本发明通过采用ViTGAN模型确保其训练稳定性和提高其收敛性,达到与领先于传统采用CNN-LSTM进行增材制造过程监测的性能,以提高熔池、羽流、飞溅物的检测精度。
(2)本发明提出的LPBF增材制造过程监测方法通过计算预测和预设成型质量的误差,以及对误差容许范围进行先验,后验显微组织以及力学性能,超过误差范围自动停止打印,从时间和空间上提高了增材制造成形件质量控制。
附图说明
图1为本发明提供的LPBF增材制造过程监测方法流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
本发明实施例提供了一种LPBF增材制造过程监测方法,如图1所示,包括以下步骤:
S1、采集LPBF增材制造过程的原始图像,并识别其中的熔池、羽流和飞溅物图像区域;
S2、构建ViTGAN模型,并利用熔池、羽流和飞溅物图像区域训练ViTGAN模型,将训练好的ViTGAN模型作为成型质量预测模型;
S3、计算成型质量预测模型输出的预测成型质量与预设成型质量的质量误差,并判断质量误差是否超过容许范围;其中,预测成型质量为完成训练时ViTGAN模型输出的熔池、羽流和飞溅物参数;
若是,则进入步骤S6;
若否,则进入步骤S4;
S4、根据质量误差调节LPBF增材制造的工艺参数,并判断工艺参数调整后的质量误差是否在容许范围内;
若是,则进入步骤S5;
若否,则进入步骤S6;
S5、确定当前LBPF增材的显微组织以及力学性能,并判断其是否满足成型质量要求;
若是,则返回步骤S1,循环执行LBPF增材制造过程监测流程;
若否,则进入步骤S6;
S6、停止制造的LPBF增材打印。
在本发明实施例的步骤S1中,首先通过高速相机监测LBPF增材的制造过程,然后通过卡尔曼滤波器对原始图像进行预测跟踪,分别获得其中的熔池、羽流和飞溅物图像区域。
在本发明实施例的步骤S2中,本发明提出的ViTGAN模型包括生成器和判别器;本实施例中训练ViTGAN模型的方法具体为:
S21、基于熔池、羽流和飞溅物图像区域,通过生成器分别生成熔池、羽流和飞溅物的生成图像分块;
S22、对各生成图像分块的分块图像重叠得到对应的熔池、羽流和飞溅物的重叠图像分块;
S23、基于熔池、羽流和飞溅物的重叠图像分块,通过判别器生成对应的对抗图像分块,并根据判别器的输出判断生成器和判别器是否达到纳什均衡;
若是,则完成ViTGAN模型训练,得到成型质量预测模型,输出预测成型质量;
若否,则继续采集LPBF增材制造过程的原始图像,并返回步骤S21。
本发明实施例提供的ViTGAN模型是一种基于视觉Transformer模型的GAN生成对抗网络,相较于传统CNN-LSTM模型在不使用卷积或池化的情况下,也能达到与领先于CNN-LSTM的性能。
本发明实施例中的ViTGAN模型中的生成器用于得到熔池、羽流、飞溅物的生成图像分块,基于此,本实施例步骤S21具体为:
S21-1、将高斯噪声向量z通过映射网络后输出隐权重向量w;
S21-2、将隐权重向量w经过外部自调制层计算自调制层范数后,输入至生成器的Transformer编码器中;
S21-3、将熔池、羽流和飞溅物图像区域分别经过傅里叶嵌入后,以位置嵌入序列输入到Transformer编码器;
S21-4、基于输入的自调制层范数,在通过Transformer编码器中,通过各嵌入分块根据对熔池、羽流和飞溅物图像区域的位置嵌入序列进行图像分块,并经过多层感知器的展开处理,得到熔池、羽流和飞溅物的生成图像分块。
进一步地,若要生成像素值,线性投影在ViTGAN模型中都学习了将一个D维输出嵌入到一个形状的图像分块,/>的序列图像分块/>最终被重塑成一个完整的图像x。基于此,本实施例中的生成器中的Transformer编码器中,其第一个嵌入分块h0表示为:
;
第l-1个嵌入分块,并迭代至第l-1个图像分块迭代后的自注意力结果表示为:
;
第l个嵌入分块表示hl为:
;
通过嵌入分块进行图像分块嵌入的表达式为:
;
经过多层感知器展开后,重构得到的生成图像分块表示为:
;
式中,Epos为一维位置嵌入,L为有效序列长度,l为分块数量即产生的隐藏层数量,D为维度,W为图像分块的宽度,P为图像分块的边长,为图像高度,/>为图像的RGB通道数,RL×D为L×D维实数域,RD表示D维实数域,/>为P2×D维实数域,RH×W×C表示H×W×C维实数域,w为隐权重向量,MSA(.)为多头自注意力函数,SLN(.)为自调制层范数,MLP(.)为多层感知器,y为图像分块嵌入,yl~yL为图像分块嵌入得到的图像分块,x为完整的图像,/>为图像分块序列,Efou为傅里叶嵌入,/>表示一个2层的多层感知器。
在本实施例中,在生成器中相较于传统模型包括以下改进:
改进一:在Transformer编码器中的多头自注意通过串联和线性投影的方式聚合来自个自注意力头部的信息,其表达式为:
;
式中,MSA(X)为多头自注意力函数,为1到/>个自注意力头部进行张量拼接,/>为自注意力头部个数,/>为Transformer编码器中隐藏层自注意力函数,为ViTGAN模型生成器的隐权重向量,b为ViTGAN模型生成器超平面的截距。
进一步地,使用隐式神经表示来从分块嵌入中学习连续映射像素值,当与傅里叶特征或正弦激活函数耦合时,隐式表示可以将生成的样本空间约束在平滑变化的自然信号空间内。实际上,/>,/>是傅里叶编码,空间位置和/>是一个2层的多层感知器。
在本实施例中,生成器和判别器可以有不同的图像网格,因此也可以有不同的序列长度。当将模型缩放到更高分辨率的图像时,通常只增加判别器的序列长度或特征维数就足够了。
改进二:本发明采用的ViTGAN模型没有将噪声向量z作为输入发送到ViT,使用z来运算调制层范数,这被称为自调制,因为调制不依赖于外部信息,基于此,在步骤S21-2中,外部自调制层根据隐权重向量w的学习仿射变换来计算自调制层范数,其表达式为:
;
式中,SLN(.)为自调制层范数,hl为Transformer编码器中的第l个嵌入分块,w为隐权重向量,w=MLP(z),和/>为由高斯噪声向量z得到的潜在向量控制的自适应归一化参数,/>为元素级的点积,/>和/>为跟踪层内求和输入的平均值和方差。
在本发明实施例中,在所述生成器中,所述Transformer编码器中的自调制层的规范结构包括依次连接的词嵌入转化层、第一相加并归一化层、多头注意力层、第二相加并归一化层以及多层感知器层;所述词嵌入转化层的输出端还通过拼接操作与多头注意力层的输出端连接,所述第二相加并归一化层的输入端还通过拼接操作与多层感知器的输出端连接;
其中,所述第一相加并归一化层和第二相加并归一化层还分别连接一个外部自调制层,所述隐权重向量同时输入至两个外部自调制层中。
在本实施例中,步骤S23具体为:
S23-1、将各重叠图像分块分别展开并进行图像分块预测;
S23-2、将分块预测后的图像输入至判别器的Transformer编码器中,并输出对抗图像分块;
S23-3、判断对抗图像分块和生成图像分块是否达到纳什均衡;
若是,则完成ViTGAN模型训练,将Transformer编码器的输出经过MLP多层感知器后输出熔池、羽流和飞溅物参数作为成型质量预测模型输出的预测成型质量;
S23-4、若否,则继续采集LPBF增材制造过程的原始图像,并返回步骤S21。
本发明提出了一种采用VITGAN模型的LPBF增材制造过程监测方法,通过确保其训练稳定性和提高其收敛性,达到与领先于传统采用CNN-LSTM进行增材制造过程监测的性能,以提高熔池、羽流、飞溅物的检测精度。
在本发明的描述中,需要理解的是,术语“中心”、“厚度”、“上”、“下”、“水平”、“顶”、“底”、“内”、“外”、“径向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的设备或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或隐含指明的技术特征的数量。因此,限定由“第一”、“第二”、“第三”的特征可以明示或隐含地包括一个或者更多个该特征。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (1)
1.一种LPBF增材制造过程监测方法,其特征在于,包括以下步骤:
S1、采集LPBF增材制造过程的原始图像,并识别其中的熔池、羽流和飞溅物图像区域;
S2、构建ViTGAN模型,并利用熔池、羽流和飞溅物图像区域训练ViTGAN模型,将训练好的ViTGAN模型作为成型质量预测模型;
S3、计算成型质量预测模型输出的预测成型质量与预设成型质量的质量误差,并判断质量误差是否超过容许范围;其中,预测成型质量为完成训练时ViTGAN模型输出的熔池、羽流和飞溅物参数;
若是,则进入步骤S6;
若否,则进入步骤S4;
S4、根据质量误差调节LPBF增材制造的工艺参数,并判断工艺参数调整后的质量误差是否在容许范围内;
若是,则进入步骤S5;
若否,则进入步骤S6;
S5、确定当前LBPF增材的显微组织以及力学性能,并判断其是否满足成型质量要求;
若是,则返回步骤S1,循环执行LBPF增材制造过程监测流程;
若否,则进入步骤S6;
S6、停止制造的LPBF增材打印;
所述步骤S2中,所述ViTGAN模型为基于视觉Transformer模型的GAN生成对抗网络,包括生成器和判别器;
训练所述ViTGAN模型的方法具体为:
S21、基于熔池、羽流和飞溅物图像区域,通过生成器分别生成熔池、羽流和飞溅物的生成图像分块;
S22、对各生成图像分块的分块图像重叠得到对应的熔池、羽流和飞溅物的重叠图像分块;
S23、基于熔池、羽流和飞溅物的重叠图像分块,通过判别器生成对应的对抗图像分块,并根据判别器的输出判断生成器和判别器是否达到纳什均衡;
若是,则完成ViTGAN模型训练,得到成型质量预测模型,输出预测成型质量;
若否,则继续采集LPBF增材制造过程的原始图像,并返回步骤S21;
所述步骤S21具体为:
S21-1、将高斯噪声向量z通过映射网络后输出隐权重向量w;
S21-2、将隐权重向量w经过外部自调制层计算自调制层范数后,输入至生成器的Transformer编码器中;
S21-3、将熔池、羽流和飞溅物图像区域分别经过傅里叶嵌入后,以位置嵌入序列输入到Transformer编码器;
S21-4、基于输入的自调制层范数,在通过Transformer编码器中,通过各嵌入分块根据对熔池、羽流和飞溅物图像区域的位置嵌入序列进行图像分块,并经过多层感知器的展开处理,得到熔池、羽流和飞溅物的生成图像分块;
所述步骤S23具体为:
S23-1、将各重叠图像分块分别展开并进行图像分块预测;
S23-2、将分块预测后的图像输入至判别器的Transformer编码器中,并输出对抗图像分块;
S23-3、判断对抗图像分块和生成图像分块是否达到纳什均衡;
若是,则完成ViTGAN模型训练,将Transformer编码器的输出经过MLP多层感知器后输出熔池、羽流和飞溅物参数作为成型质量预测模型输出的预测成型质量;
S23-4、若否,则继续采集LPBF增材制造过程的原始图像,并返回步骤S21;
所述步骤S1中,通过卡尔曼滤波器对原始图像进行预测跟踪,分别获得其中的熔池、羽流和飞溅物图像区域
在所述生成器的Transformer编码器中,其第一个嵌入分块表示为:
;
第l-1个嵌入分块,并迭代至第l-1个图像分块迭代后的自注意力结果表示为:
;
第l个嵌入分块表示hl为:
;
通过嵌入分块进行图像分块嵌入的表达式为:
;
经过多层感知器展开后,重构得到的生成图像分块表示为:
;
式中,Epos为一维位置嵌入,L为有效序列长度,l为分块数量即产生的隐藏层数量,D为维度,W为图像分块的宽度,P为图像分块的边长,为图像高度,/>为图像的RGB通道数,RL×D为L×D维实数域,RD表示D维实数域,/>为P2×D维实数域,RH×W×C表示H×W×C维实数域,w为隐权重向量,MSA(.)为多头自注意力函数,SLN(.)为自调制层范数,MLP(.)为多层感知器,y为图像分块嵌入,yl~yL为图像分块嵌入得到的图像分块,x为完整的图像,/>为图像分块序列,Efou为傅里叶嵌入,/>表示一个2层的多层感知器;
在所述生成器中,所述Transformer编码器中多头自注意通过串联和线性投影的方式聚合来自个自注意力头部的信息,其表达式为:
;
式中,MSA(X)为多头自注意力函数,为1到/>个自注意力头部进行张量拼接,为自注意力头部个数,/>为Transformer编码器中隐藏层自注意力函数,/>为ViTGAN模型生成器的隐权重向量,b为ViTGAN模型生成器超平面的截距;
所述步骤S21-2中,外部自调制层根据隐权重向量w的学习仿射变换来计算自调制层范数,其表达式为:
;
式中,SLN(.)为自调制层范数,hl为Transformer编码器中的第l个嵌入分块,w为隐权重向量,w=MLP(z),和/>为由高斯噪声向量z得到的潜在向量控制的自适应归一化参数,/>为元素级的点积,/>和/>为跟踪层内求和输入的平均值和方差;
在所述生成器中,所述Transformer编码器中的自调制层的规范结构包括依次连接的词嵌入转化层、第一相加并归一化层、多头注意力层、第二相加并归一化层以及多层感知器层;所述词嵌入转化层的输出端还通过拼接操作与多头注意力层的输出端连接,所述第二相加并归一化层的输入端还通过拼接操作与多层感知器的输出端连接;
其中,所述第一相加并归一化层和第二相加并归一化层还分别连接一个外部自调制层,所述隐权重向量同时输入至两个外部自调制层中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311651002.2A CN117340280B (zh) | 2023-12-05 | 2023-12-05 | 一种lpbf增材制造过程监测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311651002.2A CN117340280B (zh) | 2023-12-05 | 2023-12-05 | 一种lpbf增材制造过程监测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117340280A CN117340280A (zh) | 2024-01-05 |
CN117340280B true CN117340280B (zh) | 2024-02-13 |
Family
ID=89371426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311651002.2A Active CN117340280B (zh) | 2023-12-05 | 2023-12-05 | 一种lpbf增材制造过程监测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117340280B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110363716A (zh) * | 2019-06-25 | 2019-10-22 | 北京工业大学 | 一种基于条件生成对抗网络复合降质图像高质量重建方法 |
CN110789128A (zh) * | 2019-10-24 | 2020-02-14 | 汕头大学 | 一种增材制造制件成形质量预测与控制系统及方法 |
CN111398271A (zh) * | 2020-01-10 | 2020-07-10 | 武汉大学 | 一种针对激光近净成形缺陷的检测优化系统及方法 |
WO2020215093A1 (en) * | 2019-04-19 | 2020-10-22 | Nanotronics Imaging, Inc. | Systems, methods, and media for artificial intelligence process control in additive manufacturing |
CN111815555A (zh) * | 2020-05-22 | 2020-10-23 | 武汉大学深圳研究院 | 对抗神经网络结合局部二值的金属增材制造图像检测方法及装置 |
WO2020253635A1 (en) * | 2019-06-17 | 2020-12-24 | Luxcreo (Beijing) Inc. | Systems and methods for three-dimensional printing |
CN112257785A (zh) * | 2020-10-23 | 2021-01-22 | 中科院合肥技术创新工程院 | 基于记忆巩固机制与gan模型的序列化任务完成方法及系统 |
CN112801091A (zh) * | 2021-01-26 | 2021-05-14 | 汕头大学 | 一种基于深度学习的增材制造制件成形质量监控与预测方法 |
CN113290302A (zh) * | 2021-03-15 | 2021-08-24 | 南京理工大学 | 一种电弧焊增材制造的余高定量预测方法 |
CN115861614A (zh) * | 2022-11-29 | 2023-03-28 | 浙江大学 | 一种基于羽绒服图像的自动生成语义分割图的方法和装置 |
CN116596046A (zh) * | 2023-05-19 | 2023-08-15 | 西安电子科技大学 | 一种利用脑电信号和视觉特征进行图像重构的方法 |
CN116704267A (zh) * | 2023-08-01 | 2023-09-05 | 成都斐正能达科技有限责任公司 | 一种基于改进yolox算法的深度学习3d打印缺陷检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112010003406B4 (de) * | 2009-08-27 | 2021-05-06 | Ihi Inspection & Instrumentation Co., Ltd. | Laserschweißgütebestimmungs-Verfahren und -Vorrichtung |
US20180296343A1 (en) * | 2017-04-18 | 2018-10-18 | Warsaw Orthopedic, Inc. | 3-d printing of porous implants |
US10994337B2 (en) * | 2018-12-12 | 2021-05-04 | Lawrence Livermore National Security, Llc | Controlling AM spatter and conduction |
EP4264518A1 (en) * | 2020-12-18 | 2023-10-25 | Strong Force VCN Portfolio 2019, LLC | Robot fleet management and additive manufacturing for value chain networks |
US20220219402A1 (en) * | 2021-01-14 | 2022-07-14 | Rn Technologies, Llc | Methods and apparatus for additive manufacturing based on multi-dimensional build platforms |
-
2023
- 2023-12-05 CN CN202311651002.2A patent/CN117340280B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113728285A (zh) * | 2019-04-19 | 2021-11-30 | 纳米电子成像有限公司 | 用于增材制造中人工智能过程控制的系统、方法以及介质 |
WO2020215093A1 (en) * | 2019-04-19 | 2020-10-22 | Nanotronics Imaging, Inc. | Systems, methods, and media for artificial intelligence process control in additive manufacturing |
WO2020253635A1 (en) * | 2019-06-17 | 2020-12-24 | Luxcreo (Beijing) Inc. | Systems and methods for three-dimensional printing |
CN110363716A (zh) * | 2019-06-25 | 2019-10-22 | 北京工业大学 | 一种基于条件生成对抗网络复合降质图像高质量重建方法 |
CN110789128A (zh) * | 2019-10-24 | 2020-02-14 | 汕头大学 | 一种增材制造制件成形质量预测与控制系统及方法 |
CN111398271A (zh) * | 2020-01-10 | 2020-07-10 | 武汉大学 | 一种针对激光近净成形缺陷的检测优化系统及方法 |
CN111815555A (zh) * | 2020-05-22 | 2020-10-23 | 武汉大学深圳研究院 | 对抗神经网络结合局部二值的金属增材制造图像检测方法及装置 |
CN112257785A (zh) * | 2020-10-23 | 2021-01-22 | 中科院合肥技术创新工程院 | 基于记忆巩固机制与gan模型的序列化任务完成方法及系统 |
CN112801091A (zh) * | 2021-01-26 | 2021-05-14 | 汕头大学 | 一种基于深度学习的增材制造制件成形质量监控与预测方法 |
CN113290302A (zh) * | 2021-03-15 | 2021-08-24 | 南京理工大学 | 一种电弧焊增材制造的余高定量预测方法 |
CN115861614A (zh) * | 2022-11-29 | 2023-03-28 | 浙江大学 | 一种基于羽绒服图像的自动生成语义分割图的方法和装置 |
CN116596046A (zh) * | 2023-05-19 | 2023-08-15 | 西安电子科技大学 | 一种利用脑电信号和视觉特征进行图像重构的方法 |
CN116704267A (zh) * | 2023-08-01 | 2023-09-05 | 成都斐正能达科技有限责任公司 | 一种基于改进yolox算法的深度学习3d打印缺陷检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117340280A (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105741316B (zh) | 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 | |
CN109669049B (zh) | 一种基于卷积神经网络的粒子图像测速方法 | |
CN111724478A (zh) | 一种基于深度学习的点云上采样方法 | |
CN110223324A (zh) | 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法 | |
CN102982555B (zh) | 基于自适应流形粒子滤波的制导红外小目标跟踪方法 | |
CN109584271A (zh) | 基于高置信度更新策略的高速相关滤波跟踪方法 | |
CN114556421A (zh) | 使用图像处理的场景表示 | |
CN113436217A (zh) | 基于深度学习的无人车环境检测方法 | |
CN114091628B (zh) | 基于双分支网络的三维点云上采样方法及系统 | |
CN113674218B (zh) | 焊缝特征点提取方法、装置、电子设备与存储介质 | |
CN116401794B (zh) | 基于注意力引导的深度点云配准的叶片三维精确重建方法 | |
CN113281718A (zh) | 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法 | |
CN117340280B (zh) | 一种lpbf增材制造过程监测方法 | |
CN115578574A (zh) | 一种基于深度学习和拓扑感知的三维点云补全方法 | |
CN116958420A (zh) | 一种数字人教师三维人脸的高精度建模方法 | |
CN114842196A (zh) | 一种雷达射频图像目标检测方法 | |
Ahmed et al. | Vision-based autonomous navigation for unmanned surface vessel in extreme marine conditions | |
CN117456001B (zh) | 一种基于点云配准的工件姿态检测方法 | |
CN114627156A (zh) | 消费级无人机视频运动目标精准追踪方法 | |
CN107507139A (zh) | 基于Facet方向导数特征的样例双重稀疏图像修复方法 | |
Xu et al. | Shipwrecks detection based on deep generation network and transfer learning with small amount of sonar images | |
CN115775214A (zh) | 一种基于多阶段分形组合的点云补全方法及系统 | |
CN116167947A (zh) | 一种基于噪声水平估计的图像降噪方法 | |
CN113850719B (zh) | 基于联合隐式图像函数的rgb图像引导深度图超分辨率方法 | |
Cha et al. | A novel defect classification scheme based on convolutional autoencoder with skip connection in semiconductor manufacturing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |