CN115699039A - 用于分散机群分析的技术 - Google Patents

用于分散机群分析的技术 Download PDF

Info

Publication number
CN115699039A
CN115699039A CN202080101281.3A CN202080101281A CN115699039A CN 115699039 A CN115699039 A CN 115699039A CN 202080101281 A CN202080101281 A CN 202080101281A CN 115699039 A CN115699039 A CN 115699039A
Authority
CN
China
Prior art keywords
machine learning
learning model
cloud service
computing device
plant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080101281.3A
Other languages
English (en)
Inventor
米森·P·阿查亚
杰弗里·哈丁
卡尔·埃里克·哈珀
奥尔多·达格尼诺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Schweiz AG
Original Assignee
ABB Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Schweiz AG filed Critical ABB Schweiz AG
Publication of CN115699039A publication Critical patent/CN115699039A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Manufacturing & Machinery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

公开了用于分散机群分析的技术。在至少一个实施例中,工厂站点处的本地云服务构建与工厂站点相关联的一个或多个第一数据流的第一机器学习模型。本地云服务将第一机器学习模型发送给与工厂站点和其他工厂站点相连接的云服务。本地云服务从云服务接收第二机器学习模型。第二机器学习模型根据第一机器学习模型和由其他工厂站点建立的一个或多个机器学习模型而被训练。本地云服务基于第二机器学习模型来更新第一机器学习模型。

Description

用于分散机群分析的技术
相关申请的交叉引用
本申请要求于2020年3月18日提交的美国专利申请号16/822,293的优先权,其全部公开内容通过引用并入本文。
技术领域
本公开涉及用于分散机群(fleet)分析的技术,包括分析来自一个或多个实体的工厂或安装的机群的数据。
背景技术
机群分析通常涉及将数据从机群中的每个工厂收集到集中位置,例如每个工厂所连接的云服务提供商,并分析数据以得到适用于机群的机器学习模型。因此,各个工厂然后可以使用这些机器学习模型分析随后获得的数据。例如,得到的机器学习模型可以可靠地预测给定的随后获得的数据的某些结果。此外,云服务提供商可以使用该随后获得的数据来周期性地重新训练机器学习模型。
然而,使用集中位置的方法有几个问题。例如,因为该方法是集中式的,所以在各个工厂产生的所有数据都招致网络流量和开销成本。特别地,由给定工厂发送的数据可能是大量的,如果发送到云服务器,这将导致高存储成本。此外,在一些情况下,工厂可能不具有到云服务器的可靠连接,这将导致向云服务器发送全部数据的显著网络开销。另一个问题是,特别是在工厂由不同实体拥有的机群中,例如在实体是单个客户的情况下,实体可能不愿意与云服务器共享数据,因为数据本质上可能是敏感的。
发明内容
本文提出的实施例公开了一种用于分析多个工厂站点中的一个工厂站点中的数据的计算机实现的方法。该方法通常包括由计算设备构建与多个工厂站点中的一个工厂站点相关联的一个或多个第一数据流的第一机器学习模型。该方法通常还包括由计算设备将第一机器学习模型发送给云服务。该方法通常还包括由计算设备从云服务接收第二机器学习模型。根据第一机器学习模型和由多个工厂站点中的其他工厂站点构建的一个或多个机器学习模型来训练第二机器学习模型。该方法通常还包括由计算设备基于第二机器学习模型来更新第一机器学习模型。
本文提出的另一实施例公开了一种存储多个指令的计算机可读存储介质,当在处理器上执行所述指令时,使计算设备分析多个工厂站点中的一个工厂站点中的数据。这些指令还使计算设备建立与多个工厂站点中的一个工厂站点相关联的一个或多个第一数据流的第一机器学习模型。这些指令还使得计算设备将第一机器学习模型发送给云服务并从云服务接收第二机器学习模型。根据第一机器学习模型和由多个工厂站点中的其他工厂站点构建的一个或多个机器学习模型来训练第二机器学习模型。所述指令还使得所述计算设备基于所述第二机器学习模型来更新所述第一机器学习模型。
本文给出的又一实施例公开了一种具有处理器和存储器的计算设备。所述存储器存储多个指令,当在所述处理器上执行所述指令时,所述指令使所述计算设备分析多个工厂站点中的一个工厂站点中的数据。这些指令还使计算设备建立与多个工厂站点中的一个工厂站点相关联的一个或多个第一数据流的第一机器学习模型。这些指令还使得计算设备将第一机器学习模型发送给云服务并从云服务接收第二机器学习模型。根据第一机器学习模型和由多个工厂站点中的其他工厂站点构建的一个或多个机器学习模型来训练第二机器学习模型。所述指令还使得所述计算设备基于所述第二机器学习模型来更新所述第一机器学习模型。
附图说明
在附图中通过示例而非限制的方式示出了本文所述的概念。为了说明的简单和清楚,图中所示的元件不必按比例绘制。在认为适当的地方,在附图中重复参考标号以指示对应或类似的元件。
图1是提供分散机群分析的计算环境的至少一个实施例的简化框图;
图2是被配置为将数据流作为输入发送给本地机器学习模型的图1的边缘设备之一的至少一个实施例的简化框图;
图3是图1的计算设备的至少一个实施例的简化框图,该计算设备被配置成为一组工厂站点提供分散分析;
图4和图5是可由工厂站点处的计算设备执行的用于生成在分散机群分析中使用的本地机器学习数据的方法的至少一个实施例的简化流程图;以及
图6是可由云服务提供方的计算设备执行的用于根据从多个工厂系统获得的一个或多个机器学习模型生成机群分析的方法的至少一个实施例的简化流程图。
具体实施方式
尽管本公开的概念易于进行各种修改和备选形式,但其特定实施例已通过附图中的示例示出并将在本文详细描述。然而,应当理解,并不意图将本公开的概念限制为所公开的特定形式,相反,意图是覆盖与本公开和所附权利要求一致的所有修改、等同物和备选。
说明书中对“一个实施例”、“实施例”、“说明性实施例”等的引用表示所描述的实施例可以包括特定特征、结构或特性,但是每个实施例可以或可以不必包括该特定特征、结构或特性。此外,这些短语不一定指同一实施例。此外,当结合实施例描述特定特征,结构或特性时,应认为结合其他实施例实现此类特征,结构或特性(无论是否明确描述)在本领域技术人员的知识范围内。另外,应当理解,以“至少一个A、B和C”的形式包括在列表中的项目可以意指(A);(B);(C):(A和B);(B和C);(A和C);或(A,B和C)。类似地,以“A,B或C中的至少一个”的形式列出的项目可以意指(A);(B);(C):(A和B);(B和C);(A或C);或(A,B和C)。
在一些情况下,所公开的实施例可以以硬件、固件、软件或其任意组合来实现。所公开的实施例还可被实现为由一个或多个瞬态或非瞬态机器可读(例如,计算机可读)存储介质携带或存储在其上的指令,所述指令可由一个或多个处理器读取和执行。机器可读存储介质可以实现为用于以机器可读的形式存储或传输信息的任何存储设备,机制或其他物理结构(例如,易失性或非易失性存储器、介质盘或其他介质设备)。
在附图中,一些结构或方法特征可以以特定的布置和/或顺序示出。然而,应当理解,可以不需要这样的特定布置和/或顺序。相反,在一些实施例中,这些特征可以以与说明性附图中所示不同的方式和/或顺序来布置。另外,在特定附图中包括结构或方法特征并不意味着暗示这样的特征在所有实施例中都是必需的,并且在一些实施例中,可以不包括这样的特征或者可以与其他特征组合。
本文提供的实施例公开了用于向机群中的单个工厂和工厂部件提供机群分析的技术。更具体地,实施例提供了一种基于从机群中的每个单独工厂(或被监控设备的单元)输出的机器学习模型来提供机群分析的分散方法。如本文进一步描述的,每个单独工厂中的系统根据源自工厂的数据流建立机器学习模型。然后,每个单独的工厂将数据流(例如,由传感器、监督和控制系统获得的、以及来自工厂内的部件的其他观测数据)作为输入提供给相应的机器学习模型。这样做使得机器学习模型输出作为数据流的函数的结果。然后,工厂将机器学习模型和结果输出发送给与机群相关联的云服务器。此后,云服务器可以至少部分地根据机群中工厂的传输数据生成机器学习模型。一旦生成,云服务器可以将生成的机器学习模型发送给每个工厂。工厂可以使用生成的机器学习模型进行本地分析。
有利地,本文公开的实施例允许单个实体使用其现有的边缘或内部部署(on-premise)分析和基础设施。此外,该方法不需要实体发送在工厂传感器处获得的数据流,工厂传感器在性质上可能是敏感的并且也是庞大的。相反,实体可以发送用于获得分析和结果数据的机器学习模型,然而在该方法下,这允许实体受益于由云资源提供的机群和计算能力的集体知识。
现在参考图1,用于提供分散机群分析的计算环境100包括云服务提供商102和工厂系统110、124和138。云服务提供商102和工厂系统110、124和138中的每一个经由网络152(例如,互联网)互连。云服务提供商102是通常向用户提供在线服务的实体。云服务提供商102可以由对用户按需可用的物理资源(例如,计算、存储、存储器)组成。例如,在一个实施例中,云服务提供商102的物理资源可以包括计算设备104,其从工厂系统110、124和138发送的数据生成分析(例如,通过一个或多个机器学习(ML)模型106)。
在一个实施例中,工厂系统110、124、138(在此也统称为“机群”)各自表示在给定位置中的工业工厂。在一些情况下,工厂系统110、124、138可以彼此关联(例如,作为组织的不同工厂)或者可以是作为云服务提供商102的分析服务的用户的完全分离的实体。如图所示,每个工厂系统110、124、138分别包括本地云服务112、126、140。本地云服务112、126、140可实现为与相应工厂系统110、124、138相关联的物理资源的集合(例如,位于工厂系统110、124、138自身或另一地理位置内)。例如,在一个实施例中,本地云服务112、126、140可以包括各自的计算设备114、128、142,其用于根据从工厂系统的传感器设备收集的数据来生成分析(例如,分别使用ML模型116、130、144)。工厂系统内的边缘设备可以配置有这种传感器设备,或者也可以接收来自其他设备(例如,发电机、焊接机器人、温度传感器等)、监督和控制系统的传感器数据,或者由一些其他装置收集的观测数据。示例性地,工厂系统110包括边缘设备118、120、122;工厂系统124包括边缘设备132、134、136;并且设备系统138包括边缘设备146、148和150。
转向工厂系统110作为示例,边缘设备118可以对应于具有各种视觉和音频传感器的工厂中的相机系统,边缘设备120可以对应于从热传感器获得数据的热控制单元,并且边缘设备122可以对应于从工厂系统110内的其他设备收集来自各种传感器的数据的计算设备。边缘设备118、120、122中的每一个将所收集的数据作为数据流(或以周期性地发送的成批数据)发送;λ架构允许将两种方法应用于本地云服务112。进而,本地云服务112可以通过向ML模型116输入所收集的数据来生成各种分析。例如,分析可以包括基于给定输入的数据的预测结果。
此外,ML模型116、130、144可以依赖于从工厂系统110、124、138获得的集合数据流得到的知识,以对在每个工厂系统处收集的新数据流产生更可靠的分析。同时,一些用户可能希望在相应的工厂系统中保持数据的保密性以及在工厂系统中保持网络容量。为了解决这些问题,在一个实施例中,计算设备104接收ML模型116、130、144并从其产生结果以更新ML模型116、130、144中的每一个。具体地,计算设备104可以使用集成机器学习技术来基于给定的接收到的ML模型116、130、144和ML模型106生成ML模型。因为生成的ML模型是ML模型106和给定ML模型116、130、144的组合,所以生成的ML模型的预测能力至少等于给定ML模型116、130、144的预测能力。此后,计算设备104可以将所生成的ML模型发送给工厂系统110、124、138。有利地,将生成的ML模型用于随后获得的数据允许工厂系统116、124、138受益于对整个机群的分析和洞察。
此外,在一个实施例中,工厂系统110、124、138可以将来自使用所生成的ML模型的结果和关键性能指标(KPI)发送给云服务提供方102。例如,给定计算设备114、128、142可将KPI数据输入到标记语言格式(例如,以可扩展标记语言(XML)格式)并将数据输出到云服务提供方102。这样做允许计算设备104更新所生成的ML模型并且还生成用户可访问的机群分析仪表板(例如,通过在计算设备114、128、142上执行的管理控制台)。
注意,以上将工厂系统110、124、138称为机群。然而,本领域技术人员将认识到,机群还可以包括与单个工厂或用户相关联的设备的集合。例如,机群可以对应于将致动器数据传输到本地云服务112的工厂系统110的焊接机器人。机群还可以包括切割工具和与工厂系统100内的那些切割工具相关的监视设备。本文提出的实施例还可以适用于设备机群。
现在参考图2,示出了边缘设备200。边缘设备200表示相对于图1描述的边缘设备118、120、122、132、134、136、146、148和150中的任何一个。说明性边缘设备200包括计算引擎210、输入/输出(I/O)子系统216、通信电路系统218和一个或多个数据存储设备222。当然,在其他实施例中,边缘设备200可以包括其他或附加组件,诸如在计算机中常见的那些组件(例如,显示器、外围设备等)。另外,在一些实施例中,一个或多个说明性组件可并入另一组件中或以其他方式形成另一组件的一部分。当然,图2中描绘的组件仅作为示例提供以说明本文公开的实施例。实际上,实际的边缘设备200可以包括附加的或更少的部件。
计算引擎210可以实现为能够执行下述各种计算功能的任何类型的设备或设备集合。在一些实施例中,计算引擎210可以实现为单个设备,例如集成电路、嵌入式系统、现场可编程门阵列(FPGA)、片上系统(SOC)或其他集成系统或设备。另外,在一些实施例中,计算引擎210包括或实现为处理器212和存储器214。处理器212可以实现为一个或多个处理器,每个处理器是能够执行本文描述的功能的类型。例如,处理器212可以实现为单核或多核处理器,微控制器或其他处理器或处理/控制电路。在一些实施例中,处理器212可以实现为,包括或耦合到FPGA、ASIC、可重新配置的硬件或硬件电路系统、或其他专用硬件,以便于执行本文描述的功能。
存储器214可实施为能够执行本文所述功能的任何类型的易失性存储器(例如,动态随机存取存储器等)或非易失性存储器(例如,字节可寻址存储器)或数据存储装置。易失性存储器可以是需要功率来维持由介质存储的数据的状态的存储介质。易失性存储器的非限制性实例可包括各种类型的随机存取存储器(RAM),例如DRAM或静态随机存取存储器(SRAM)。可用于存储器模块中的一种特定类型的DRAM是同步动态随机存取存储器(SDRAM)。在特定实施例中,存储器组件的DRAM可符合JEDEC发布的标准,例如用于DDRSDRAM的JESD79F,用于DDR2SDRAM的JESD79-2F,用于DDR3SDRAM的JESD79-3F,用于DDR4SDRAM的JESD79-4A,用于低功率DDR(LPDDR)的JESD209,用于LPDDR2的JESD209-2,用于LPDDR3的JESD209-3和用于LPDDR4的JESD209-4。这样的标准(和类似的标准)可以被称为基于DDR的标准,并且实现这样的标准的存储设备的通信接口可以被称为基于DDR的接口。在一些实施例中,存储器214的全部或一部分可以集成到处理器212中。
计算引擎210经由I/O子系统216与计算环境100的其他组件通信地耦合,I/O子系统216可以被实现为便于与计算引擎210(例如,与处理器212和/或存储器214)和边缘设备200的其他组件进行输入/输出操作的电路系统和/或组件。例如,I/O子系统216可以实现为或以其他方式包括存储器控制器集线器、输入/输出控制集线器、集成传感器集线器、固件设备、通信链路(例如,点对点链路、总线链路、导线、电缆、光导、印刷电路板迹线等)、和/或便于输入/输出操作的其他组件和子系统。在一些实施例中,I/O子系统216可以形成片上系统(SoC)的一部分,并且与处理器212、存储器214和边缘设备200的其他组件中的一个或多个一起并入计算引擎210中。
通信电路系统218可以实现为能够实现边缘设备200与诸如计算设备114、128、142等其他设备之间的网络上的通信的任何通信电路、设备或其集合。通信电路系统218可以被配置成使用任何一种或多种通信技术(例如,有线或无线通信)和相关联的协议(例如,以太网、
Figure BDA0003955399920000091
WiMAX等)来实现这种通信。
说明性通信电路系统218包括网络接口控制器(NIC)220,其也可被称为主机结构接口(HFI)。NIC 220是将边缘设备200连接到计算机网络的硬件组件。NIC 220实现用于使用给定物理层和数据链路层标准(例如,以太网、WiFi等)进行通信的电路系统。这样做提供了允许在其他设备之间进行通信的完整网络协议栈的基础。NIC 220可实现为一个或多个插件板、子卡、控制器芯片、芯片组或可由边缘设备200用于与远程设备进行网络通信的其他设备。例如,NIC 220可以实现为通过诸如PCI Express的扩展总线耦合到I/O子系统216的扩展卡。
一个或多个说明性数据存储设备222可以被实现为被配置用于数据的短期或长期存储的任何类型的设备、存储设备和电路、存储卡、硬盘驱动器(HDD)、固态驱动器(SSD)或其他数据存储设备。每个数据存储设备222可以包括用于存储数据存储设备222的数据和固件代码的系统分区。每个数据存储设备222还可以包括存储用于操作系统的数据文件和可执行程序的操作系统分区。
附加地或可选地,边缘设备200可以包括一个或多个传感器224。每个传感器224可以实现为从工厂系统的设备收集数据的任何装置或电路系统。例如,传感器224可包括视觉传感器230、音频传感器232、热传感器234、泄漏传感器236和其他传感器238。此外,边缘设备200可以包括一个或多个致动器226。一个或多个致动器226可以实现为控制工厂系统处的机构或系统的任何装置或电路系统。致动器226可包括电动致动器240、气动致动器242、液压致动器244和其他致动器246。
附加地或可选地,边缘设备200可以包括一个或多个外围设备228。这样的外围设备228可以包括在计算设备中常见的任何类型的外围设备,诸如显示器、扬声器、鼠标、键盘和/或其他输入/输出设备、接口设备和/或其他外围设备。
如上所述,边缘设备200说明性地经由网络152进行通信,网络152可以实现为任何类型的有线或无线通信网络,包括全球网络(例如,互联网)、局域网(LAN)或广域网(WAN)、蜂窝网络(例如,全球移动通信系统(GSM)、3G、长期演进(LTE)、全球微波接入互操作性(WiMAX)等)、数字用户线(DSL)网络、电缆网络(例如,同轴网络、光纤网络等)或其任何组合。
现在参考图3,示出了计算设备104的组件。说明性计算设备104包括计算引擎310、输入/输出(I/O)子系统316、通信电路系统318和一个或多个数据存储设备322。当然,在其他实施例中,边缘设备200可以包括其他或附加组件,诸如在计算机中常见的那些组件(例如,显示器、外围设备等)。另外,在一些实施例中,一个或多个说明性组件可并入另一组件中或以其他方式形成另一组件的一部分。当然,图3中描绘的组件仅作为示例提供以说明本文公开的实施例。实际上,实际计算设备104可以包括附加的或更少的组件。
计算引擎310可以实现为能够执行下述各种计算功能的任何类型的设备或设备集合。在一些实施例中,计算引擎310可以实现为单个设备,例如集成电路、嵌入式系统、现场可编程门阵列(FPGA),片上系统(SOC)或其他集成系统或设备。另外,在一些实施例中,计算引擎310包括或实现为处理器312和存储器314。处理器312可以实现为一个或多个处理器,每个处理器是能够执行本文描述的功能的类型,并且可以由与相对于图2描述的处理器212类似的组件组成。
存储器314可实施为能够执行本文所述功能的任何类型的易失性存储器(例如,动态随机存取存储器等)或非易失性存储器(例如,字节可寻址存储器)或数据存储装置,且可由与相对于图2所述的存储器214类似的组件组成。此外,存储器314可以包括ML引擎315。ML引擎315可以被实现为被配置为对从机群或工厂系统或工厂系统装备接收的数据执行一种或多种ML技术的任何设备或电路系统。ML技术通常可以包括预测分析、在线学习技术、集成机器学习技术、神经网络、行进机器学习器技术等。
计算引擎310经由I/O子系统316与计算环境100的其他组件通信地耦合,I/O子系统316可以被实现为便于与计算引擎310(例如,与处理器312和/或存储器314)和计算设备104的其他组件进行输入/输出操作的电路系统和/或组件。I/O子系统316可以由与相对于图2描述的I/O子系统216类似的组件组成。
通信电路系统318可以被实现为能够实现计算设备104与诸如计算设备114、128、142等其他设备之间的网络上的通信的任何通信电路、设备或其集合。通信电路系统318可以被配置成使用任何一种或多种通信技术(例如,有线或无线通信)和相关联的协议(例如,以太网、
Figure BDA0003955399920000111
WiMAX等)来实现这种通信。说明性通信电路系统318包括网络接口控制器(NIC)320,其包括与相对于图2描述的NIC 220类似的组件。
一个或多个说明性数据存储设备322可以被实现为被配置用于数据的短期或长期存储的任何类型的设备,例如存储设备和电路、存储卡、硬盘驱动器(HDD)、固态驱动器(SSD)或其他数据存储设备,并且可以包括与相对于图2描述的数据存储设备222类似的组件。
附加地或替换地,计算设备104可以包括一个或多个外围设备324。这样的外围设备324可以包括计算设备中常见的任何类型的外围设备,诸如显示器、扬声器、鼠标、键盘和/或其他输入/输出设备、接口设备和/或其他外围设备。
如上所述,计算设备104说明性地经由网络152通信,网络152可以被实现为任何类型的有线或无线通信网络,包括全球网络(例如,互联网)、局域网(LAN)或广域网(WAN)、蜂窝网络(例如,全球移动通信系统(GSM)、3G,长期演进(LTE)、全球微波接入互操作性(WiMAX)等)、数字用户线(DSL)网络、电缆网络(例如,同轴网络,光纤网络等)或其任何组合。
现在参考图4和图5,示出了用于提供分散机群分析的方法400。更具体地,方法400涉及初始化工厂系统处的本地云服务上的机器学习模型,以发送给云服务提供方102。如图所示,方法400开始于框402,其中本地云服务确定来自工厂系统的当前数据流(或批次)是否可用。如果不是,则在框404,本地云服务检索对工厂系统可用的一个或多个历史数据流。历史数据流与可能在先前时间点从工厂系统获得的历史数据有关。本地云服务可以“引导(bootstrap)”历史数据以构建工厂机器学习模型(在框406)。否则,在框408中,如果当前数据流可用,则本地云服务可从当前数据流构建工厂机器学习模型。更具体地,本地云服务可以使用在线机器学习技术来将其本地机器学习模型连同当前数据流的结果和该数据流在本地机器学习模型上的准确性一起输出到云服务提供商102。可以以诸如预测模型标记语言(PMML)格式的标准描述格式来编写机器学习模型,并将其得到到云服务提供商102。
在框410,本地云服务从工厂系统中的本地边缘设备接收数据流。在框412,使用机器学习技术,本地云服务分析数据流。例如,在框414中,本地云服务将每个接收到的数据流作为输入提供给与机器学习模型相关联的机器学习功能。在框416中,本地云服务从机器学习功能生成一个或多个结果。在框418中,本地云服务根据一个或多个结果更新工厂机器学习模型。在框420中,本地云服务可递增用于收集流中的数据的定时器。在框422,本地云服务确定定时器是否超过指定阈值。如果不是,则方法400返回到块410以继续在工厂系统处收集和分析数据流。然而,如果定时器超过阈值,则在框424中,本地云服务重置定时器。然后在框426,本地云服务向云服务提供方102发送机器学习模型、与机器学习模型相关联的结果、以及与到机器学习模型的数据流相关联的准确度。
在框428中,作为返回,本地云服务可从云服务提供方102接收机器学习模型。根据发送给云服务提供方102的机器学习模型以及从一个或多个其他工厂系统接收的机器学习模型来训练从云服务提供方102接收的机器学习模型。在框430,本地云服务可更新从云服务提供方102接收的本地机器学习模型。方法400可以返回到框410,以继续从工厂系统收集数据,以使用更新的机器学习模型进一步分析那些数据流。
现在参考图6,示出了用于提供分散机群分析的方法600。更具体地,方法600涉及云服务提供方102从机群的工厂系统提供的机器学习模型和洞察力生成机器学习模型。如图所示,方法600开始于框602,其中云服务提供商102确定历史工厂数据是否可用。历史工厂数据可以源自机群中的一个或多个工厂系统。如果是,则在框604中,云服务提供方102根据历史工厂数据来训练云机器学习模型。这样做允许云服务提供商102例如在工厂系统没有向云服务提供商102发送任何当前数据流的情况下“引导”历史数据以初始化机器学习模型。
在框606中,云服务提供方102可从给定工厂系统接收机器学习模型、从数据流生成的结果、以及数据流到机器学习模型的准确性。在框608中,云服务提供方102可以用所接收的数据来训练云机器学习模型。例如,在框610中,云服务提供方102可根据云学习模型、所接收的模型和来自其他工厂系统的机器学习模型数据(例如,包括结果和洞察力)对工厂机器学习模型执行集成技术。为此,云服务提供商102可以执行各种集成机器学习技术。
例如,云服务提供商102可以应用打包(bagging)集成技术,例如组合多个决策树的随机森林技术。打包集成技术涉及从用于以给定权重投票的工厂系统接收的每个机器学习模型。例如,如果给定的工厂系统机器学习模型是二进制分类器(例如,提供“是”或“否”输出的分类器),则每个机器学习模型可以用所分配的给定权重投票是或否,并且由云服务提供方102生成的总体模型可以从工厂系统和云服务提供方102的机器学习模型(例如,ML模型106)中获得多数投票。给定模型的权重可以是模型在数据流上的准确度、数据流的大小和数据流的期望质量的函数。如果工厂系统的给定机器学习模型是回归量,则由云服务提供方102生成的总体模型可以取得来自工厂系统和云服务提供方102的机器学习模型的回归输出的加权平均。注意,从工厂系统接收的机器学习模型可以都是不同类型的机器学习模型。例如,来自给定工厂系统的机器学习模型可以是决策树,来自另一给定工厂系统的机器学习模型可以是神经网络,来自又一给定工厂系统的机器学习模型可以是支持向量机,等等。
作为另一示例,云服务提供商102可以执行叠加(stacking)集成技术。使用这样的技术,集成机器学习模型可以通过用云服务提供方102上的数据训练ML模型106来生成,其中从工厂系统接收的机器学习模型对云上的数据的预测作为ML模型106的附加输入。
作为又一示例,云服务提供方102可以执行行进(Traveling)机器学习(TML)技术。通常,TML利用两个特性。一个特征是机器学习模型可以在数据的微批次上递增地训练和更新。第二个特性是机器学习模型可以从工厂系统得到。TML模型可以在云服务提供商102中发起,并且从云服务提供商102中的任何数据递增地训练。然后,TML模型可以行进(例如,经由模型输出命令)到第一工厂系统并从该工厂系统处的数据训练。第一工厂系统可以将其机器学习模型更新为TML模型。所得到的TML模型然后“行进”到第二工厂系统(例如,通过将TML模型发送给云服务提供方102,云服务提供方102又将TML模型发送给第二工厂系统)。第二工厂系统可以将其机器学习模型更新为TML模型,并以类似的方式以循环方式将该过程执行到其他连续的工厂系统。如果工厂系统彼此连接,则TML模型可在工厂之间行进(例如,跳过将中间TML模型完全传送到云服务提供方102)。然而,在这种情况下,TML模型可能不会受益于由云服务提供商102提供的数据。
在框612,云服务提供方102可通过工厂机器学习模型以及其他工厂系统的工厂机器学习模型来递增地更新云机器学习模型。在框614,云服务提供方102可将经训练的云机器学习模型发送给工厂系统。这样做允许工厂系统用所发送的云机器学习模型来更新其机器学习模型。
尽管已经在附图和前面的描述中详细描述了某些示例性实施例,但是这样的图示和描述应当被认为是示例性的而非限制性的,应当理解,仅示出和描述了示例性实施例,并且期望保护落入本公开的精神内的所有改变和修改。本公开的多个优点源于本文所述的方法、系统和制品的各种特征。应注意,本公开的方法、系统和制品的替代实施例可不包括所描述的所有特征,但仍受益于此类特征的至少一些优点。本领域的普通技术人员可以容易地设计结合了本公开的一个或多个特征的方法、系统和制品的它们自己的实现。

Claims (21)

1.一种用于分析多个工厂站点中的一个工厂站点中的数据的计算机实现的方法,所述方法包括:
由计算设备构建与所述多个工厂站点中的所述一个工厂站点相关联的一个或多个第一数据流的第一机器学习模型;
由所述计算设备将所述第一机器学习模型发送给云服务;
由所述计算设备从所述云服务接收第二机器学习模型,所述第二机器学习模型根据所述第一机器学习模型和由所述多个工厂站点中的其他工厂站点构建的一个或多个机器学习模型而被训练;以及
由所述计算设备基于所述第二机器学习模型来更新所述第一机器学习模型。
2.根据权利要求1所述的方法,其中构建所述第一机器学习模型包括:
由所述计算设备将所述一个或多个第一数据流中的每个第一数据流作为输入提供给与所述第一机器学习模型相关联的机器学习函数;
由所述计算设备从所述机器学习函数生成一个或多个结果;以及
由所述计算设备基于所述一个或多个结果来更新所述第一机器学习模型。
3.根据权利要求2所述的方法,其中将所述第一机器学习模型发送给所述云服务包括将所述第一机器学习模型和所述一个或多个结果发送给所述云服务。
4.根据前述权利要求中任一项所述的方法,还包括:由所述计算设备确定一个或多个历史数据流是否可用于所述多个工厂站点中的所述一个工厂站点,其中构建所述第一机器学习模型还基于所述历史数据流。
5.根据前述权利要求中任一项所述的方法,还包括:由所述计算设备从所述多个工厂站点中的所述一个工厂站点中的多个边缘设备中的每个边缘设备接收一个或多个数据流。
6.根据前述权利要求中任一项所述的方法,其中从所述云服务接收所述第二机器学习模型包括:接收所述第二机器学习模型,所述第二机器学习模型根据所述机器学习模型和所述多个工厂站点中的所述其他工厂站点的所述一个或多个机器学习模型在所述机器学习模型上使用集成技术而被训练。
7.根据前述权利要求中任一项所述的方法,其中从所述云服务接收所述第二机器学习模型包括:接收所述第二机器学习模型,所述第二机器学习模型由所述多个工厂站点中的所述其他工厂站点中的每个工厂站点递增地训练。
8.一种计算机可读存储介质,所述计算机可读存储介质包括多个指令,所述多个指令在处理器上被执行时,使在多个工厂站点中的一个工厂站点处的计算设备:
构建与所述多个工厂站点中的所述一个工厂站点相关联的一个或多个第一数据流的第一机器学习模型;
将所述第一机器学习模型发送给云服务;
从所述云服务接收第二机器学习模型,所述第二机器学习模型根据所述第一机器学习模型和由所述多个工厂站点中的其他工厂站点构建的一个或多个机器学习模型而被训练;以及
基于所述第二机器学习模型来更新所述第一机器学习模型。
9.根据权利要求8所述的计算机可读存储介质,其中构建第一机器学习模型包括:
将所述一个或多个第一数据流中的每个第一数据流作为输入提供给与所述第一机器学习模型相关联的机器学习函数;
从所述机器学习函数生成一个或多个结果;以及
基于所述一个或多个结果来更新所述第一机器学习模型。
10.根据权利要求9所述的计算机可读存储介质,其中将所述第一机器学习模型发送给所述云服务包括将所述第一机器学习模型和所述一个或多个结果发送给所述云服务。
11.根据权利要求8至10中任一项所述的计算机可读存储介质,其中所述多个指令还使所述计算设备确定一个或多个历史数据流是否可用于所述多个工厂站点中的所述一个工厂站点,其中构建所述第一机器学习模型还基于所述历史数据流。
12.根据权利要求8至11中任一项所述的计算机可读存储介质,其中所述多个指令还使所述计算设备从所述多个工厂站点中的所述一个工厂站点中的多个边缘设备中的每个边缘设备接收一个或多个数据流。
13.根据权利要求8至12中任一项所述的计算机可读存储介质,其中从所述云服务接收所述第二机器学习模型包括:接收所述第二机器学习模型,所述第二机器学习模型根据所述机器学习模型和所述多个工厂站点中的所述其他工厂站点的所述一个或多个机器学习模型在所述机器学习模型上使用集成技术而被训练。
14.根据权利要求8至13中任一项所述的计算机可读存储介质,其中从所述云服务接收所述第二机器学习模型包括:接收所述第二机器学习模型,所述第二机器学习模型由所述多个工厂站点中的所述其他工厂站点中的每个工厂站点递增地训练。
15.一种多个工厂站点中的一个工厂站点的计算设备,所述计算设备包括:
处理器;以及
存储多个指令的存储器,所述多个指令在所述处理器上被执行时,使所述计算设备:
构建与所述多个工厂站点中的所述一个工厂站点相关联的一个或多个第一数据流的第一机器学习模型;
将所述第一机器学习模型发送给云服务;
从所述云服务接收第二机器学习模型,所述第二机器学习模型根据所述第一机器学习模型和由所述多个工厂站点中的其他工厂站点构建的一个或多个机器学习模型而被训练;以及
基于所述第二机器学习模型来更新所述第一机器学习模型。
16.根据权利要求15的所述计算设备,其中构建第一机器学习模型包括:
将所述一个或多个第一数据流中的每个第一数据流作为输入提供给与所述第一机器学习模型相关联的机器学习函数;
从所述机器学习函数生成一个或多个结果;以及
基于所述一个或多个结果来更新所述第一机器学习模型。
17.根据权利要求16所述的计算设备,其中将所述第一机器学习模型发送给所述云服务包括将所述第一机器学习模型和所述一个或多个结果发送给所述云服务。
18.根据权利要求15至17中任一项所述的计算设备,其中所述多个指令还使所述计算设备确定一个或多个历史数据流是否可用于所述多个工厂站点中的所述一个工厂站点,其中构建所述第一机器学习模型还基于所述历史数据流。
19.根据权利要求15至18中任一项所述的计算设备,其中所述多个指令还使所述计算设备从所述多个工厂站点中的所述一个工厂站点中的多个边缘设备中的每个边缘设备接收一个或多个数据流。
20.根据权利要求15至19中任一项所述的计算设备,其中从所述云服务接收所述第二机器学习模型包括:接收所述第二机器学习模型,所述第二机器学习模型根据所述机器学习模型和所述多个工厂站点中的所述其他工厂站点的所述一个或多个机器学习模型在所述机器学习模型上使用集成技术而被训练。
21.根据权利要求15至20中任一项所述的计算设备,其中从所述云服务接收所述第二机器学习模型包括:接收所述第二机器学习模型,所述第二机器学习模型由所述多个工厂站点中的所述其他工厂站点中的每个工厂站点递增地训练。
CN202080101281.3A 2020-03-18 2020-11-18 用于分散机群分析的技术 Pending CN115699039A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/822,293 2020-03-18
US16/822,293 US20210295215A1 (en) 2020-03-18 2020-03-18 Technologies for decentralized fleet analytics
PCT/US2020/060951 WO2021188160A1 (en) 2020-03-18 2020-11-18 Technologies for decentralized fleet analytics

Publications (1)

Publication Number Publication Date
CN115699039A true CN115699039A (zh) 2023-02-03

Family

ID=73835733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080101281.3A Pending CN115699039A (zh) 2020-03-18 2020-11-18 用于分散机群分析的技术

Country Status (4)

Country Link
US (1) US20210295215A1 (zh)
EP (1) EP4121914A1 (zh)
CN (1) CN115699039A (zh)
WO (1) WO2021188160A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11488422B1 (en) * 2021-06-22 2022-11-01 Samsara Inc. Fleet metrics analytics reporting system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9984337B2 (en) * 2014-10-08 2018-05-29 Nec Corporation Parallelized machine learning with distributed lockless training
US20170308802A1 (en) * 2016-04-21 2017-10-26 Arundo Analytics, Inc. Systems and methods for failure prediction in industrial environments
US10382466B2 (en) * 2017-03-03 2019-08-13 Hitachi, Ltd. Cooperative cloud-edge vehicle anomaly detection
US11151472B2 (en) * 2017-03-31 2021-10-19 At&T Intellectual Property I, L.P. Dynamic updating of machine learning models
US11012513B2 (en) * 2017-05-19 2021-05-18 Veniam, Inc. Data-driven managed services built on top of networks of autonomous vehicles
US11683831B2 (en) * 2017-12-01 2023-06-20 Woven Planet North America, Inc. Systems and methods for providing resource analysis for autonomous mobility on demand
US11205137B2 (en) * 2018-06-15 2021-12-21 International Business Machines Corporation Distributed training in a parameter dataset
US11989634B2 (en) * 2018-11-30 2024-05-21 Apple Inc. Private federated learning with protection against reconstruction
US11328222B1 (en) * 2019-05-10 2022-05-10 Innovium, Inc. Network switch with integrated gradient aggregation for distributed machine learning
US10929337B2 (en) * 2019-05-24 2021-02-23 Intel Corporation Distributed error and anomaly communication architecture for analog and mixed-signal systems
US11599671B1 (en) * 2019-12-13 2023-03-07 TripleBlind, Inc. Systems and methods for finding a value in a combined list of private values
WO2021158313A1 (en) * 2020-02-03 2021-08-12 Intel Corporation Systems and methods for distributed learning for wireless edge dynamics
US11948096B2 (en) * 2020-03-13 2024-04-02 International Business Machines Corporation Adaptively adjusting influence in federated learning model updates
US20230016827A1 (en) * 2021-07-08 2023-01-19 Rakuten Mobile, Inc. Adaptive offloading of federated learning

Also Published As

Publication number Publication date
US20210295215A1 (en) 2021-09-23
WO2021188160A1 (en) 2021-09-23
EP4121914A1 (en) 2023-01-25

Similar Documents

Publication Publication Date Title
US11048498B2 (en) Edge computing platform
KR102611454B1 (ko) 분산 기계 학습을 위한 저장 장치 및 그것의 기계 학습 방법
US10007513B2 (en) Edge intelligence platform, and internet of things sensor streams system
US10208947B2 (en) Cloud-level analytics for boiler networks
US20180173205A1 (en) Industrial internet connected control system
US20200236162A1 (en) Network of intelligent nodes for mesh distributed network adaptable to industrial or service applications
CN104636421A (zh) 使用云计算的工业监视
CN113176948B (zh) 边缘网关、边缘计算系统及其配置方法
CN113179190B (zh) 边缘控制器、边缘计算系统及其配置方法
Lovas et al. Orchestrated platform for cyber-physical systems
CN115699039A (zh) 用于分散机群分析的技术
Shih et al. Implementation and visualization of a netflow log data lake system for cyberattack detection using distributed deep learning
Gilbert The role of artificial intelligence for network automation and security
EP4042327A1 (en) Event detection in a data stream
US20240160164A1 (en) Industrial automation data quality and analysis
US20240160169A1 (en) Conditional industrial data source connection
US20240160811A1 (en) Industrial data extraction
US20240160193A1 (en) Industrial automation data staging and transformation
US20220230077A1 (en) Machine Learning Model Wildfire Prediction
WO2017205248A1 (en) Reference architecture for market forecasting using real-time analytics
Patidar et al. IoT Data Stream Handling, Analysis, Communication and Security Issues: A Systematic Survey
CN116051072A (zh) 设备巡检方法、装置、电子设备及存储介质
Gilbert et al. Network Data and Optimization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination