CN117250914A - 制造过程捕获的测量数据训练机器学习模型的方法和系统 - Google Patents

制造过程捕获的测量数据训练机器学习模型的方法和系统 Download PDF

Info

Publication number
CN117250914A
CN117250914A CN202310713383.6A CN202310713383A CN117250914A CN 117250914 A CN117250914 A CN 117250914A CN 202310713383 A CN202310713383 A CN 202310713383A CN 117250914 A CN117250914 A CN 117250914A
Authority
CN
China
Prior art keywords
measurement data
machine learning
learning model
nodes
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310713383.6A
Other languages
English (en)
Inventor
F·J·卡布里塔孔德萨
D·T·维尔莫特
I·巴塔洛夫
J·D·西米多
林婉怡
J·柯尔特
J·汤姆森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN117250914A publication Critical patent/CN117250914A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32339Object oriented modeling, design, analysis, implementation, simulation language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

用在制造过程期间捕获的测量数据训练机器学习模型的方法和系统。接收关于多个制造零件的物理特性的测量数据,所述物理特性由各个制造站处的多个传感器测量。时间序列动力学机器学习模型将测量数据编码到具有多个节点的潜在空间中。每个节点与制造站之一处的制造零件之一的测量数据相关联。可以构建一批测量数据,所述批包括第一节点和经由第一边直接连接到第一节点并且在时间上早于第一节点被测量的第一多个节点。预测机器学习模型可以基于所述批的节点的潜在空间来预测第一制造零件的测量。

Description

制造过程捕获的测量数据训练机器学习模型的方法和系统
技术领域
本公开涉及用制造数据训练机器学习模型的方法和系统。在实施例中,制造数据包括表格、时间序列和聚合统计。
背景技术
监督机器学习已经在许多领域展现了成功,例如图像分类、自动语音识别、视觉问答和文本到文本的翻译。然而,为每个新任务训练监督模型需要一大组标记的示例,这限制了这种模型的适用性。然而,一些任务或数据类型对于人工注释可能是困难的或非常昂贵的,例如,时间序列异常和文本摘要。相反,如果一个领域中有大量未标记的数据,就有可能学习数据的相关性和表示,而不需要使用高度表达的模型。
在制造环境中,可以在制造设施的每个站对制造零件进行测量。一个或多个传感器可用于测量制造零件的物理质量、尺寸、强度、粗糙度或其他所需特性。
发明内容
在一个实施例中,一种用在制造过程期间捕获的测量数据来训练机器学习模型的计算机实现的方法包括以下步骤:接收关于多个制造零件的物理特性的测量数据,所述物理特性由各个制造站处的多个传感器测量;经由时间序列动力学机器学习模型,将测量数据编码到具有多个节点的潜在空间中,每个节点与在制造站之一处测量的制造零件之一的测量数据相关联;经由预测机器学习模型,基于不包括对应于第一制造站处的第一制造零件的测量数据的至少一些测量数据的潜在空间,确定第一制造站处的第一制造零件的预测测量;经由机器学习模型,将第一制造零件的预测测量与第一制造站处的第一制造零件的测量数据进行比较;基于预测测量和实际测量数据之间的差异,更新机器学习模型的参数直到收敛;以及基于所述收敛,输出具有更新后的参数的经训练的机器学习模型。
在另一个实施例中,提供了一种用在制造过程期间捕获的测量数据来训练机器学习模型的系统。所述系统包括位于多个制造站的多个传感器,每个传感器被配置成产生测量数据,所述测量数据指示传过相应一个制造站的多个制造零件的物理特性。所述系统还包括至少一个处理器,所述至少一个处理器被编程为进行以下操作:执行时间序列动力学机器学习模型,以将测量数据编码到具有多个节点的潜在空间中,每个节点与在制造站之一处测量的制造零件之一的测量数据相关联;执行预测机器学习模型,以基于不包括对应于第一制造站处的第一制造零件的测量数据的至少一些测量数据的潜在空间,确定第一制造站处的第一制造零件的预测测量;将第一制造零件的预测测量与在第一制造站处测量的第一制造零件的测量数据进行比较;基于预测测量和实际测量数据之间的差异,更新机器学习模型的参数直到收敛;以及基于所述收敛,输出具有更新后的参数的经训练的机器学习模型。
在又一个实施例中,一种用在制造过程期间捕获的测量数据来训练机器学习模型的计算机实现的方法包括以下步骤:接收关于多个制造零件的物理特性的测量数据,所述物理特性由各个制造站处的多个传感器测量;经由时间序列动力学机器学习模型,将测量数据编码到具有多个节点的潜在空间中,每个节点与在制造站之一处测量的制造零件之一的测量数据相关联;对测量数据进行批处理,以构建包括第一多个节点和第二多个节点的批,第一多个节点经由第一边直接连接到第一节点并且在时间上早于第一节点被测量,其中第二多个节点中的每一个节点经由第二边直接连接到第一多个节点中相应的一个节点并且在时间上早于所述相应的一个节点被测量;以及经由预测机器学习模型,基于所述批的节点的潜在空间,确定第一制造站处的第一制造零件的预测测量。
附图说明
图1示出了根据实施例的用于训练神经网络的系统。
图2示出了根据实施例的时间排序的有向图模型的示意图,其中节点标示与特定站处的特定零件相关联的测量或记录。
图3示出了根据实施例的图形机器学习模型的示意图,该模型用于基于特定零件和站的实际零件测量数据和潜在空间表示来预测特定站处的特定零件的测量。
图4示出了计算平台的示意图,该计算平台可用于实现本文公开的模型,例如图3的图形机器学习模型。
具体实施方式
本文描述了本公开的实施例。然而,应当理解,所公开的实施例仅仅是示例,并且其他实施例可以采取各种和替代形式。附图不一定是按比例的;一些特征可以被放大或最小化以示出特定组件的细节。因此,本文公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为教导本领域技术人员以各种方式采用实施例的代表性基础。如本领域普通技术人员将理解的,参考任一附图图示和描述的各种特征可以与一个或多个其他附图中图示的特征相结合,以产生没有明确图示或描述的实施例。所示特征的组合提供了典型应用的代表性实施例。然而,对于特定的应用或实现,可能期望与本公开的教导一致的特征的各种组合和修改。
监督机器学习已经在许多领域展现了成功,例如图像分类、自动语音识别、视觉问答和文本到文本的翻译。然而,为每个新任务训练监督模型需要一大组标记的示例,这限制了这种模型的适用性。然而,一些任务或数据类型对于人工注释可能是困难的或非常昂贵的,例如,时间序列异常和文本摘要。相反,如果一个领域中有大量未标记的数据,就有可能学习数据的相关性和表示,而不需要使用高度表达的模型。
这种学习到的相关性和表示可以直接使用,或者可以针对下游任务进行微调(例如,与终端用户相关的一组任务,对于该组任务,模型没有被直接训练)。这种方法可以显著优于从随机初始化端到端地训练模型。这种性能增益对于诸如自然语言处理(NLP)的序列模型和具有更大容量的模型尤为显著。若干预先训练的模型可用于感知数据(例如,自然语言和图像),但是对于在多维序列上建模的多模态结构制造数据,没有这样的模型。
根据本文描述的各种实施例,本公开提供了通过训练无监督的自回归图形模型来学习制造数据的代表性特征的系统和方法。多模态结构化数据(包括但不限于表格、时间序列和聚合统计)在多类型有向图上建模。序列模型可以从单维(文本序列)扩展到多维(有向图)。有向图的顶点(节点)表示与物理组件传过制造站相关联的记录(例如,通过激光蚀刻组件、组件的光学检查结果、组件的应力-应变曲线等相关联的记录)。如果两个节点对应于(1)与访问连续站的特定组件相关联的记录,或者(2)与经过同一站的连续组件相关联的记录,则这两个节点通过有向边连接。这两种边构造机制是构造与制造过程相关联的二维双向图的基础。
所公开的系统和方法依赖于机器学习模型,例如神经网络(例如,深度神经网络(DNN)、图形神经网络(GNN)、深度卷积网络(DCN)、卷积神经网络(CNN)等)等。图1示出了用于训练神经网络,例如图形神经网络的系统100。在此图示和描述的神经网络仅仅是可以使用的机器学习网络或神经网络类型的示例。系统100可以包括用于访问神经网络的训练数据102的输入接口。例如,如图1所示,输入接口可以由数据存储接口104构成,数据存储接口104可以从数据存储装置106访问训练数据102。例如,数据存储接口104可以是存储器接口或永久存储接口,例如硬盘或SSD接口,但也可以是个人、局域网或广域网接口,例如蓝牙、Zigbee或Wi-Fi接口或以太网或光纤接口。数据存储装置106可以是系统100的内部数据存储装置,例如硬盘驱动器或SSD,但也可以是外部数据存储装置,例如网络可访问的数据存储装置。
在一些实施例中,数据存储装置106还可以包括神经网络的未训练版本的数据表示108,其可以由系统100从数据存储装置106访问。然而,将理解,未训练神经网络的训练数据102和数据表示108也可以各自从不同的数据存储装置中访问,例如,通过数据存储接口104的不同子系统。每个子系统可以是如上所述的数据存储接口104的类型。在其他实施例中,未训练神经网络的数据表示108可以由系统100基于神经网络的设计参数在内部生成,并因此可以不明确地存储在数据存储装置106上。系统100还可以包括处理器子系统110,该处理器子系统110可以被配置为在系统100的操作期间,提供迭代函数作为待训练的神经网络的叠层的替代。这里,被替换的叠层的各个层可以具有相互共享的权重,并且可以接收前一层的输出作为输入,或者对于叠层的第一层,接收初始激活和叠层的一部分输入作为输入。处理器子系统110还可以被配置成使用训练数据102迭代地训练神经网络。这里,处理器子系统110的训练迭代可以包括前向传播部分和后向传播部分。处理器子系统110可被配置成通过以下操作来执行前向传播部分:在定义可被执行的前向传播部分的其他操作中确定迭代函数的平衡点,并提供平衡点作为神经网络中叠层的输出的替代,在该平衡点处迭代函数收敛到固定点,其中确定平衡点包括使用数值求根算法来找到迭代函数减去其输入的根解。
系统100还可以包括输出接口,用于输出经训练的神经网络的数据表示112。该数据也可以被称为经训练模型数据112。例如,也如图1所示,输出接口可以由数据存储接口104构成,在这些实施例中,所述接口是输入/输出(“IO”)接口,通过该接口,经训练模型数据112可以存储在数据存储装置106中。例如,定义“未训练”神经网络的数据表示108可以在训练期间或之后至少部分地被经训练的神经网络的数据表示112代替,因为神经网络的参数,例如神经网络的权重、超参数和其他类型的参数,可以适于反映对训练数据102的训练。这也在图1中由参考数字108、112示出,参考数字108、112指代数据存储装置106上的相同数据记录。在其他实施例中,数据表示112可以与定义“未训练”神经网络的数据表示108分开存储。在一些实施例中,输出接口可以与数据存储接口104分离,但是通常可以是如上针对数据存储接口104所述的类型。
系统100的结构是可以用来训练这里描述的神经网络的系统的一个示例。用于操作和训练机器学习模型的附加结构在稍后描述的图4中示出。
关于制造过程,在零件完全完成或制造之前,最终产品可能要经过几个工作站。例如,在生产最终产品之前,可能首先需要将其与其他子组件组装在一起、进行喷漆、激光蚀刻、进行强度测试或其他制造任务。在每个站完成其任务后,可以对零件进行测量以产生测量数据。这可确保零件充分运转、充分连接、尺寸足够等。测量数据可以包括进行测量的站是何种类型、被测量的零件是何种类型以及测量的内容。测量数据可以是二进制值、强度值、时间序列值(例如,对压力响应的测量)、浮点精度数、数字串、整数、布尔值、统计的聚合等,其表示零件的物理状态或特性。该测量数据可以是多模态的(例如,可以包括多种类型的测量,例如上面作为示例列出的那些)。该多模态测量数据可以被输入到这里描述的神经网络中。根据在该站进行的测量,该系统可以确定零件是否足够,或者代之以应该被装箱或丢弃。
输入到图形神经网络中的该多模态测量数据可以产生各种益处,并且可以产生大量信息,这些信息可以帮助制造提前期和物流。例如,神经网络的输出可以产生关于零件是否将足以用于生产或组装到另一个系统中的预测、关于站是否将需要离线的预测、预测产出时间、以及关于故障可能已经沿着制造线发生在哪里的预测、故障为什么发生的预测等。在另一个示例中,神经网络的输出可以在沿着制造线的任何站产生预测的测量;给定该信息,可以移除专用于测量正在制造的组件的站(或该站内的程序)。这可以节省测量的时间和金钱。
此外,对沿制造线制造的零件的预测性测量可以降低与报废组件相关联的成本。如果可以在制造线内(例如,在每个制造站处或在每个制造站之间)估计组件的测量,这可以导致更精确地确定制造中何时发生故障或失误。这可能意味着在制造过程中更早地报废组件,以免报废组件变得更昂贵。此外,根据在制造过程期间实际测量组件的时间,在实际测量组件之前预测组件的测量允许组件在制造过程中更早报废。
根据在此描述的系统,模型可以被提供有制造零件和每个零件被测量所在的站的潜在表示。图2示出了该数据的网格或图形表示200。每次特定零件到达站时,系统都会更新潜在表示。这里,每个黑色圆圈标示与传过站的零件相关联的多模态测量或记录。每个黑色圆圈还被提供有时间戳,指示在该特定站测量每个特定零件的时间。在图示的场景中,发生以下测量:在9:00在站2测量零件1,并且在9:05在站3测量零件1;在9:10在站2测量零件2,并且在9:30在站4测量零件2;在9:00在站1测量零件3,并且在9:15在站3测量零件3;在9:30在站2测量零件4,并且在9:40在站4测量零件4;在9:05在站1测量零件5,并且在9:20在站3测量零件5。在测量每个零件之前,它处于其初始化状态,并且然后与站2的潜在状态一起工作,以产生上面解释的多模态测量。该数据的该图示的图形表示可能只是所进行的全部测量的一部分;可以测量多于或少于五个零件,并且可以提供多于或少于四个进行测量的站。图中的箭头示出了每个零件(从上到下)和每个站(从左到右)的时间进展。零件5和站4相交处的黑色圆圈可以标示本公开所基于的自回归问题——给定过去的表示,能够预测与零件5传过站4相关联的测量或记录。
本文所述的机器学习系统可以取得该数据——在图2中以图形形式表示——来估计任何特定站处任何特定零件的测量。根据实施例,可以从示例集合(x1,x2,…,xn)执行无监督分布估计,每个示例由在相应站出现的多模态结构测量的可变长度序列组成((m1,s1),...,(mk,sk)),其中m是测量,并且s是站。示例序列x表示产品或零件按时间顺序经过制造站。从序列建模的角度来看,站处的测量的联合概率可以因式分解如下:
学习这样的概率分布允许对具有子序列的模型进行简单的查询或采样:P(x>=i|x<i)。
这里公开的模型允许从站的角度将数据视为序列。例如,再次参考图2,来自站2的数据可以被建模,因为数据在9:00(来自零件1)、9:10(来自零件2)和9:30(来自零件4)被依次捕获。通过这样做,可以对从特定站进行的测量建模,并且变量是传过该站的特定零件。这在不是每个零件都经过每个站并且不是每个站都测量每个零件的环境(例如图2所示的示例)中可能是重要的。因此,建模的概率分布P(x)依赖于在x实际出现之前集合x中包括的所有零件和在站处的相应测量。换句话说,为了估计特定站处对特定零件的测量,模型使用在特定站处特定零件被执行的实际测量之前对零件和站进行的过去时间测量作为输入。以图2为例,零件5的序列的概率依赖于零件3在站1的测量;零件1和零件3在站3的测量;零件2和零件4在站4的测量;以及零件1、零件2和零件4在站2的测量。以站2处的零件1为例。零件5的序列依赖于该节点,因为站3处的零件5依赖于站3在时间戳9:20处的潜在状态,该潜在状态对零件5到达站3之前经过站3的零件子序列进行编码。但是站3处的零件1依赖于时间戳9:05处的零件1的潜在状态,该潜在状态对零件1到达站3之前零件1的子序列进行编码(并因此依赖于零件1的子序列),这意味着零件1在9:05处的潜在状态依赖于站2处的零件1。
为了减少训练时的存储器和计算消耗,并缩短推断时间,本文公开的实施例可以使用潜在空间将零件p的序列的子序列x<i编码为潜在状态hp i=Encoder(x<i)。这将在下面关于批处理进一步描述。在实施例中,利用自回归编码器,即,hp i=hp i-1+Encoder(xi)。类似地,系统可以将直到第j个零件的站子序列编码为潜在状态hs j。假设零件p是由站si测量的第i个零件,可以应用下面的等式:
图3图示了机器学习模型300,该模型根据这里提供的描述被训练,用于优化这里描述的基于时间的顺序制造数据。根据一个实施例,机器学习模型300可以是无监督的自回归图形模型。机器学习模型300对多模态结构化数据建模,所述多模态结构化数据包括多类型有向图上的表格、时间序列和聚合统计。在站对零件执行的测量或测量分布(也称为测量数据)被用作训练模型的目标,并且该零件和站的编码子序列(即潜在空间)被用作输入。这些子序列或数据集D可以是没有注释的制造多模态序列数据集。D中的每个零件序列包含与零件类型、零件标识符、该零件经过的站序列以及每个站处的测量或记录相关的信息。所取得的测量可以是与零件的尺寸或强度相关的二进制值,或者是时间序列值,例如零件对压力的响应的测量。所取得的测量的其他示例包括其摩擦质量、重量分布、密度、裂纹或缺陷的存在,以及制造设施中通常包括的其他测量,以确保制造零件适合于进一步的组装或生产。
该测量数据被输入到图形模型fθ中。根据实施例,该模型包括三个子模型或三个独立的机器学习模型:嵌入模型、动力学模型和预测模型。这些机器学习模型中的每一个都可以是GNN、CNN等形式的神经网络或子网络。
因为该系统的实施例对零件和站状态信息使用自回归编码器,所以当没有观察到测量时,为两种状态导出初始化。这接收零件的属性或制造站的属性,以生成零件或站的初始状态。例如,特定零件在特定站经受动作之前的特定大小尺寸。
嵌入模型可以被称为嵌入网络或其中B是批大小的(批处理过程在下面进一步描述)。该模型被配置成将一组测量数据(例如,上述不同类型的数据,诸如浮点精度数、字符串、整数、布尔值、时间序列测量、统计的聚合等)嵌入动力学模型可以消耗的浮点阵列或向量。根据测量数据的类型,嵌入模型可以有不同的架构。例如,如果测量数据都是浮点数或整数,B可以简单地是多层感知器。在另一个示例中,如果测量数据包括时间序列数据,则可以应用1维卷积网络来提取特征。
动力学模型可以被称为动力学网络或其中D同样可以是编码到潜在空间中的零件/站子序列数据集。任何具有潜在状态的时间序列模型都可以用于该模型,例如递归神经网络。动力学模型中的每个零件序列包含与零件类型、零件标识符、该零件经过的站序列相关的信息。动力学模型的输入可以是上文等式(2)的当前嵌入的测量(xi)以及零件和站的当前状态,即上文等式(2)的/>动力学模型包括更新后的零件和站状态,即
预测模型可以被称为预测网络或预测模型将零件和站的潜在状态/>作为输入,并预测(1)站si(xi)处零件p的测量,或者(2)分位(quantiled)测量(如果测量为浮点值的话)。预测分位测量允许经学习的模型预测测量分布的每个分位的可能性,并允许从模型中采样。
整体模型fθ的输出是预测的测量,例如图2中的一个节点的预测。模型fθ可以继续操作直到收敛,产生经训练的机器学习模型,该模型可以基于先前的时间测量和制造零件和站的潜在空间表示来预测零件的测量。
在动力学模型中,一个节点的制造零件状态和站状态进入动力学模型以产生测量,以及更新状态本身。动力学模型被配置为对图2所示的图(例如,从零件1到零件5,以及从站1到站4)建模。这是利用子序列建模来完成的,包括通过取得制造零件和站的潜在空间来建模。因此,参考图2作为示例,在9:00针对零件1、站2捕获的测量数据用于确定在9:05在零件1、站3示出的节点的所预测测量。特别地,站3的潜在状态(如果之前没有使用,则处于其初始化状态,或者在先前测量之后处于其更新后的状态)用于预测将在9:05发生的零件1的测量。这产生了站3处零件1的所预测测量。并且,在产生每个所预测的测量之后,可以更新和训练模型。因为测量数据包括真实测量,并且模型产生所预测测量,所以图形模型可以导出真实测量数据和所预测测量之间的差异。根据上述训练方法,实际测量数据和所预测测量之间的该差异可用于更新图形模型的参数,以最小化差异。然后,该过程可以重复,以连续的步骤导出所预测的测量,将所预测的测量与从传感器取得的实际测量数据进行比较,并使用实际测量和估计测量之间的差异来更新模型的参数。该过程可以重复,直到模型达到预定的性能水平(例如,所预测的测量和实际测量数据之间的~100%一致),或者收敛(例如,发生设定次数的迭代,或者差异足够小(例如,迭代中近似概率的变化正以小于阈值的变化量改变),或者其他收敛条件)。
一些制造设施可能有大量的站,或许多不同类型的被测量零件。这可能导致大量的数据。为了用如此大量的数据训练本文所述的神经网络,可以用数据样本训练神经网络。按时间处理所有节点可能是一项巨大的任务——例如,在9:00获取测量数据,然后训练模型,然后预测9:05的测量,然后将其与9:05的实际测量数据进行比较,然后比较差异,然后更新模型,并对所有节点重复此过程。可能优选的是同时用至少一些数据(节点)来执行机器学习模型。
但是系统的训练需要独立于实际测量数据进行估计测量,并且估计测量受到更新模型的先前测量和估计的影响。因此,参考图2作为示例,系统可以不被配置为通过同时预测零件1、站2和零件2、站2处的节点的测量来训练——零件2、站2处的所预测测量依赖于零件1、站2处的节点的较早模型执行和实际数据测量。换句话说,零件1、站2处9:00节点是零件2、站2处9:10节点的父节点。因此,模型处理零件1、站2的测量,然后更新站2的潜在状态,并且只有这样才然后可以在站2处理零件2。因此可以说,由于机器学习模型在其被执行时更新每个节点处的数据,所以当机器学习模型正在处理时,在时间上位于较早被更新的节点影响较晚被估计的节点,因此图中的所有数据点可以不同时被执行。
因此,系统可以抓取一些互不依赖的节点来执行批处理。例如,零件1、站2处的节点和零件3、站1处的节点互不依赖;每个节点处的测量将不会影响模型在其他节点处的执行。(事实上,这两个节点的时间戳是相同的,都是9:00,尽管这并不是批处理的要求,但进一步说明了这两个节点并不相互依赖。)对于零件1、站3和零件2、站2处的节点也可以是如此。使用批处理可以有助于降低处理器功率输出、存储器限制和成本。
在称为标准批处理的过程中,可以构建依赖图,每个测量连接到前一个测量。该图可以基于节点的父节点和依赖关系来构建。例如,如果选择的节点在零件2、站2,则可以从该站和零件在时间上向后看以查看有哪些父节点(例如,如果由模型执行来更新和训练,哪些节点将影响模型在选择的节点处的执行)来构建图。所选节点的直接父节点可以通过从所选节点沿着垂直边向上线性行进(时间上向后)直到到达另一个节点,以及通过从所选节点沿着水平边向左线性行进(时间上向后)直到到达另一个节点来确定。然后可以重复该过程,找到这些节点的直接父节点,以此类推,来构建图。在遍历时,批处理模型可以将块号cv分配给每个节点或顶点v,其中如果cv中的顶点数小于批大小B,v=max(所有v的父节点的块号)+1;否则,将块号cv+1分配给v。然后,一批将是一组连续的块。这确保了所有测量或记录仅在满足所有直接依赖关系之后才被处理(例如,与访问站的组件相关联的测量序列和与零件访问的站相关联的测量序列都被考虑)。
在批处理的另一个实施例中,可以利用完整零件序列批处理。虽然标准批处理确保一组测量的所有依赖关系都已预先编码,但由于存储器约束和数据收集范围的原因(例如,在短时间范围内生产了太多零件),一些零件序列并未完全加载到一批中。当零件序列未完全加载到一批中时,动力学模型可以只对加载的子序列进行优化。另一方面,站潜在状态可能以比零件潜在状态更慢的动力学变化,即在零件的整个生产时间跨度期间站状态变化小。因此,对于标准批中包含在批中的每个零件(但不是其完整零件序列),系统可以添加另一批,在所述另一批中包括此类零件的完整零件序列。例如,参考图4,可以构建批,使得它包括所有向上的节点或顶点,直到第一次测量特定零件,使得特定零件的整个节点序列被包括在批处理过程中。
因此,图3所示的机器学习模型的训练可以通过如下批处理来执行。对于D中的所有数据样本,系统可以向每个测量集合(例如,特定站处的特定零件)分配批号或块号。对于第k批,系统可以将块号在(k-1)*B到k*B范围内的所有测量集合加载到存储器中。如果系统正在使用完整序列批处理,则系统可以在B个块之后附加具有完整序列的批。系统可以使用测量(测量数据)或分位测量作为目标,并通过图形机器学习模型fθ并行运行每个块。然后,在所有的B个块已经向前传过fθ之后,如果零件没有到达它们序列的末端,系统可以用fθ的梯度更新θ,并更新零件和站潜在状态。这在整个数据集中重复,直到收敛,或者直到预定数量的时期。
本文描述的一个或多个实施例的神经网络算法和/或方法使用计算平台来实现,例如图4中所示的计算平台400。计算平台400可以包括存储器402、处理器404和非易失性存储装置406。处理器404可以包括从高性能计算(HPC)系统中选择的一个或多个设备,包括高性能内核、微处理器、微控制器、数字信号处理器、微型计算机、中央处理单元、现场可编程门阵列、可编程逻辑器件、状态机、逻辑电路、模拟电路、数字电路或基于驻留在存储器402中的计算机可执行指令来操纵信号(模拟或数字)的任何其他设备。存储器402可以包括单个存储器设备或多个存储器设备,包括但不限于随机存取存储器(RAM)、易失性存储器、非易失性存储器、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、闪存、高速缓冲存储器或任何其他能够存储信息的设备。非易失性存储器406可以包括一个或多个永久数据存储设备,例如硬盘驱动器、光盘驱动器、磁带驱动器、非易失性固态设备、云存储或能够永久存储信息的任何其他设备。
处理器404可被配置成读入存储器402并执行计算机可执行指令,所述计算机可执行指令驻留在非易失性存储装置406的嵌入模型408中,并体现了本文公开的一个或多个实施例的嵌入算法和/或方法。处理器404还可以被配置成读入存储器402并执行计算机可执行指令,所述计算机可执行指令驻留在非易失性存储装置406的动力学模型410中,并体现本文所述的动力学算法和/或方法。处理器404还可以被配置为读入存储器402并执行计算机可执行指令,所述计算机可执行指令驻留在非易失性存储装置406的预测模型412中,并体现本文描述的预测算法和/或方法。模型408-412可以包括操作系统和应用程序。模型408-412可以从使用各种编程语言和/或技术创建的计算机程序编译或解释,包括但不限于(并且单独或组合的)Java、C、C++、C#、Objective C、Fortran、Pascal、Java Script、Python、Perl和PL/SQL。
在由处理器404执行时,模型408-412的计算机可执行指令可以使计算平台400实现这里公开的一个或多个神经网络算法和/或方法。如本文所述,非易失性存储装置406还可以包括测量数据414和表示每个节点处的零件和站的标识的数据416。测量数据414可以包括从位于制造过程中特定站的传感器捕获或取得的数据。传感器可以是图像传感器、激光测量传感器或被配置成产生表示被测量零件的物理质量、状态或特性的数据的任何其他类型的传感器。
存储在计算机可读介质中的计算机可读程序指令可用于指导计算机、其他类型的可编程数据处理装置或其他设备以特定方式运作,使得存储在计算机可读介质中的指令产生包括实现流程图或图表中指定的功能、动作和/或操作的指令的制品。在某些替代实施例中,流程图和图表中指定的功能、动作和/或操作可以根据一个或多个实施例被重新排序、串行处理和/或并发处理。此外,任何流程图和/或图表可以包括比根据一个或多个实施例所示的那些更多或更少的节点或块。
虽然上面描述了示例性实施例,但并不意图这些实施例描述了权利要求所包含的所有可能的形式。说明书中使用的词语是描述性的词语,而不是限制性的,并且应当理解,在不脱离本公开的精神和范围的情况下,可以进行各种改变。如前所述,各种实施例的特征可以被组合以形成可能没有被明确描述或说明的本发明的进一步实施例。虽然各种实施例可能已经被描述为在一个或多个期望的特性方面提供优势或优于其他实施例或现有技术实现,但是本领域的普通技术人员认识到,一个或多个特征或特性可以被折衷以实现期望的整体系统属性,这依赖于特定的应用和实现。这些属性可以包括但不限于成本、强度、耐用性、生命周期成本、适销性、外观、包装、大小、适用性、重量、可制造性、组装容易度等。因此,就任何实施例被描述为在一个或多个特性方面不如其他实施例或现有技术实现合乎期望而言,这些实施例不在本公开的范围之外,并且对于特定应用可能是合乎期望的。

Claims (20)

1.一种用在制造过程期间捕获的测量数据来训练机器学习模型的计算机实现的方法,所述方法包括:
接收关于多个制造零件的物理特性的测量数据,所述物理特性由各个制造站处的多个传感器测量;
经由时间序列动力学机器学习模型,将测量数据编码到具有多个节点的潜在空间中,每个节点与在制造站之一处测量的制造零件之一的测量数据相关联;
经由预测机器学习模型,基于不包括对应于第一制造站处的第一制造零件的测量数据的至少一些测量数据的潜在空间,确定第一制造站处的第一制造零件的预测测量;
经由机器学习模型,将第一制造零件的预测测量与第一制造站处的第一制造零件的测量数据进行比较;
基于预测测量和实际测量数据之间的差异,更新机器学习模型的参数直到收敛;以及
基于所述收敛,输出具有更新后的参数的经训练的机器学习模型。
2.根据权利要求1所述的计算机实现的方法,还包括:
批处理测量数据以供预测机器学习模型处理,其中批处理包括构建一批节点,所述一批节点经由边直接连接到第一节点,并且在第一节点之前打时间戳。
3.根据权利要求2所述的计算机实现的方法,其中预测步骤是在所述一批节点上执行的。
4.根据权利要求2所述的计算机实现的方法,其中批处理还包括为所述批选择附加节点,其中附加节点包括在第一节点之前打时间戳的与第一制造零件相关联的所有节点。
5.根据权利要求4所述的计算机实现的方法,其中附加节点不包括在第一节点之前打时间戳的与第一制造站相关联的所有节点。
6.根据权利要求1所述的计算机实现的方法,其中测量数据是多模态测量数据,并且预测测量是多模态预测测量。
7.根据权利要求1所述的计算机实现的方法,还包括:
利用嵌入神经网络将测量数据嵌入到阵列中,所述阵列被配置为由时间序列动力学机器学习模型执行。
8.一种用在制造过程期间捕获的测量数据来训练机器学习模型的系统,所述系统包括:
位于多个制造站的多个传感器,每个传感器被配置成产生测量数据,所述测量数据指示传过相应一个制造站的多个制造零件的物理特性,
至少一个处理器,其被编程为:
执行时间序列动力学机器学习模型,以将测量数据编码到具有多个节点的潜在空间中,每个节点与在制造站之一处测量的制造零件之一的测量数据相关联,
执行预测机器学习模型,以基于不包括对应于第一制造站处的第一制造零件的测量数据的至少一些测量数据的潜在空间,确定第一制造站处的第一制造零件的预测测量,
将第一制造零件的预测测量与在第一制造站处测量的第一制造零件的测量数据进行比较,
基于预测测量和实际测量数据之间的差异,更新机器学习模型的参数直到收敛,以及
基于所述收敛,输出具有更新后的参数的经训练的机器学习模型。
9.根据权利要求8所述的系统,其中至少一个处理器还被编程为:
构建一批测量数据以供预测机器学习模型处理,其中所述批包括经由边直接连接到第一节点并在第一节点之前打时间戳的选定节点。
10.根据权利要求9所述的系统,其中至少一个处理器还被编程为用所述批的节点执行预测机器学习模型。
11.根据权利要求9所述的系统,其中所述批的构建还包括为所述批选择附加节点,其中附加节点包括在第一节点之前打时间戳的与第一制造零件相关联的所有节点。
12.根据权利要求11所述的系统,其中附加节点不包括在第一节点之前打时间戳的与第一制造站相关联的所有节点。
13.根据权利要求8所述的系统,其中测量数据是多模态测量数据,并且预测测量是多模态预测测量。
14.根据权利要求8所述的系统,其中至少一个处理器还被编程为:
执行嵌入神经网络以将测量数据嵌入到阵列中,所述阵列被配置为由时间序列动力学机器学习模型执行。
15.一种用在制造过程期间捕获的测量数据来训练机器学习模型的计算机实现的方法,所述方法包括:
接收关于多个制造零件的物理特性的测量数据,所述物理特性由各个制造站处的多个传感器测量;
经由时间序列动力学机器学习模型,将测量数据编码到具有多个节点的潜在空间中,每个节点与在制造站之一处测量的制造零件之一的测量数据相关联;
对测量数据进行批处理,以构建包括第一多个节点和第二多个节点的批,第一多个节点经由第一边直接连接到第一节点并且在时间上早于第一节点被测量,其中第二多个节点中的每一个节点经由第二边直接连接到第一多个节点中相应的一个节点并且在时间上早于所述相应的一个节点被测量;以及
经由预测机器学习模型,基于所述批的节点的潜在空间,确定第一制造站处的第一制造零件的预测测量。
16.根据权利要求15所述的计算机实现的方法,还包括:
经由机器学习模型,将第一制造零件的预测测量与第一制造站处的第一制造零件的测量数据进行比较;
基于预测测量和实际测量数据之间的差异,更新机器学习模型的参数直到收敛;以及
基于所述收敛,输出经训练的机器学习模型。
17.根据权利要求16所述的计算机实现的方法,其中批处理还包括为所述批选择附加节点,其中附加节点包括时间上在第一节点之前测量的与第一制造零件相关联的所有节点。
18.根据权利要求17所述的计算机实现的方法,其中附加节点不包括时间上在第一节点之前测量的与第一制造站相关联的所有节点。
19.根据权利要求16所述的计算机实现的方法,其中测量数据是多模态测量数据,并且预测测量是多模态预测测量。
20.根据权利要求15所述的计算机实现的方法,还包括:
利用嵌入神经网络将测量数据嵌入到阵列中,所述阵列被配置为由时间序列动力学机器学习模型执行。
CN202310713383.6A 2022-06-16 2023-06-15 制造过程捕获的测量数据训练机器学习模型的方法和系统 Pending CN117250914A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/842041 2022-06-16
US17/842,041 US20230409916A1 (en) 2022-06-16 2022-06-16 Methods and systems for training a machine learning model with measurement data captured during manufacturing process

Publications (1)

Publication Number Publication Date
CN117250914A true CN117250914A (zh) 2023-12-19

Family

ID=88974721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310713383.6A Pending CN117250914A (zh) 2022-06-16 2023-06-15 制造过程捕获的测量数据训练机器学习模型的方法和系统

Country Status (3)

Country Link
US (1) US20230409916A1 (zh)
CN (1) CN117250914A (zh)
DE (1) DE102023205594A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12009269B2 (en) 2021-06-28 2024-06-11 Sandisk Technologies Llc Virtual metrology for feature profile prediction in the production of memory devices
US20220413036A1 (en) * 2021-06-28 2022-12-29 Sandisk Technologies Llc Virtual quality control interpolation and process feedback in the production of memory devices

Also Published As

Publication number Publication date
DE102023205594A1 (de) 2023-12-21
US20230409916A1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
CN111191841B (zh) 一种电力负荷预测方法、装置、计算机设备及存储介质
CN111124840B (zh) 业务运维中告警的预测方法、装置与电子设备
CN117250914A (zh) 制造过程捕获的测量数据训练机器学习模型的方法和系统
US11650968B2 (en) Systems and methods for predictive early stopping in neural network training
CN111860982A (zh) 一种基于vmd-fcm-gru的风电场短期风电功率预测方法
US10853554B2 (en) Systems and methods for determining a configuration for a microarchitecture
US20200167659A1 (en) Device and method for training neural network
US11226893B2 (en) Computer program for performance testing of models
KR20210107584A (ko) 학습 데이터 관리 방법
Ayodeji et al. Causal augmented ConvNet: A temporal memory dilated convolution model for long-sequence time series prediction
CN109471698B (zh) 云环境下虚拟机异常行为检测系统和方法
CN117785522A (zh) 利用经训练机器学习模型执行根本原因分析的方法和系统
CN115204463A (zh) 一种基于多注意力机制的剩余使用寿命不确定性预测方法
CN116861694A (zh) 一种基于人工智能的电缆温度预测方法
CN115564155A (zh) 一种分散式风电机组功率预测方法及相关设备
Leke et al. Proposition of a theoretical model for missing data imputation using deep learning and evolutionary algorithms
KR20210074269A (ko) 입력 데이터의 처리를 위한 최적의 어노말리 감지 모델 결정 방법
CN116665798A (zh) 一种空气污染趋势预警方法及相关装置
KR102287673B1 (ko) 비정상 데이터 생성 방법
Alam et al. Remaining useful life estimation using event data
Khumprom et al. A hybrid evolutionary CNN-LSTM model for prognostics of C-MAPSS aircraft dataset
CN115577618B (zh) 高压换流阀厅环境因子预测模型构建方法与预测方法
Zhang et al. Sequential information bottleneck network for RUL prediction
Li et al. CapsNet-Enabled Multimodal Data Fusion: A Case Study in RUL Estimation of Turbofan Engine
CN117494573B (zh) 一种风速预测方法、系统及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication