CN113886001A - 用于关于网络的预测的机器学习流水线 - Google Patents

用于关于网络的预测的机器学习流水线 Download PDF

Info

Publication number
CN113886001A
CN113886001A CN202011007538.7A CN202011007538A CN113886001A CN 113886001 A CN113886001 A CN 113886001A CN 202011007538 A CN202011007538 A CN 202011007538A CN 113886001 A CN113886001 A CN 113886001A
Authority
CN
China
Prior art keywords
model
data
models
network
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011007538.7A
Other languages
English (en)
Inventor
S·杰登
M·C·达玛拉杰
A·卡尔
H·N·奇塔利亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juniper Networks Inc
Original Assignee
Juniper Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juniper Networks Inc filed Critical Juniper Networks Inc
Publication of CN113886001A publication Critical patent/CN113886001A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/04Processing captured monitoring data, e.g. for logfile generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/46Interconnection of networks
    • H04L12/4641Virtual LANs, VLANs, e.g. virtual private networks [VPN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本申请的实施例涉及用于关于网络的预测的机器学习流水线。本公开描述了包括使用被自动训练的机器学习系统来生成预测的技术。在一个示例中,本公开描述了一种方法,该方法包括:基于针对预测的请求:训练多个机器学习(ML)模型中的每个相应ML模型,以生成多个训练阶段预测中的相应训练阶段预测;基于针对多个ML的评估指标来自动确定多个ML模型中的所选择的ML模型;以及应用所选择的ML模型,以基于从包括多个网络设备的网络收集的数据来生成预测。

Description

用于关于网络的预测的机器学习流水线
技术领域
本公开涉及计算机网络的分析。
背景技术
虚拟化数据中心正在成为现代信息技术(IT)基础设施的核心基础。特别地,现代数据中心已经广泛利用了虚拟化环境,其中诸如虚拟机或容器等虚拟主机部署在物理计算设备的基础计算平台上并且在其上执行。
大型数据中心内的虚拟化可以提供多个优势,包括有效利用计算资源和简化网络配置。因此,企业IT员工除了具有虚拟化所带来的效率和更高的投资回报率(ROI)之外,还因为其管理优势而通常更喜欢数据中心中的虚拟化计算集群。但是,在分析、评估和/或排除网络运行故障时,虚拟化可能会带来一些挑战。
发明内容
本公开描述了包括收集针对网络的数据以及使用所收集的数据来训练和利用机器学习(ML)模型,以生成关于网络的预测的技术。预测可以提供对网络的一个或多个方面的见解,诸如预测的业务水平、CPU利用率、业务异常等。如本文所述,用于网络的网络分析系统可以训练预定的多个ML模型中的每个相应ML模型,以基于数据来生成多个训练阶段预测中的相应训练阶段预测。网络分析系统可以基于评估指标来确定预定的多个ML模型中的所选择的ML模型。此外,网络分析系统可以应用所选择的ML模型,以基于数据来生成预测。本文中描述的技术可以提供一种或多种技术优势。例如,本文中描述的技术可以降低网络分析系统的复杂性并且可以简化用于获取预测的过程。
在一些示例中,本发明描述了根据本公开的一个或多个方面由网络分析系统或其他网络系统执行的操作。在一个特定示例中,本公开描述了一种方法,该方法包括基于针对预测的请求:由计算系统训练预定的多个机器学习(ML)模型中每个相应ML模型,以生成多个训练阶段预测中的相应训练阶段预测;由计算系统基于针对多个ML 模型的评估指标来自动确定多个ML模型中的所选择的ML模型;以及由计算系统应用所选择的ML模型,以基于从包括多个网络设备的网络收集的数据来生成预测。
在另一示例中,本公开描述了一种系统,该系统包括:被配置为存储从包括多个网络设备的网络收集的数据的数据存储库;以及处理电路,该处理电路被配置为:基于针对预测的请求:训练预定的多个机器学习(ML)模型中的每个相应ML模型,以生成多个训练阶段预测中的相应训练阶段预测;基于针对预定的多个ML模型的评估指标来自动确定预定的多个ML模型中的所选择的ML模型;以及应用所选择的ML模型,以基于从包括多个网络设备的网络收集的数据来生成预测。
在另一示例中,本公开描述了一种包括指令的非暂态计算机可读存储介质,该指令在被执行时将计算系统的处理电路配置为执行操作,该操作包括:基于针对预测的请求:训练预定的多个机器学习 ML模型中的每个相应ML模型,以生成多个训练阶段预测中的相应训练阶段预测;基于针对预定的多个ML模型的评估指标来自动确定预定的多个ML模型中的所选择的ML模型;以及应用所选择的ML 模型,以基于从包括多个网络设备的网络收集的数据来生成预测。
附图说明
图1A是示出根据本公开的一个或多个方面的包括用于分析网络的机器学习(ML)系统的示例网络的概念图;
图1B是示出根据本公开的一个或多个方面的用于分析网络的系统的示例组件的概念图;
图2是示出根据本公开的一个或多个方面的用于分析网络的示例网络的框图;
图3是示出根据本公开的一个或多个方面的机器学习(ML)系统的示例组件的概念图;
图4是示出根据本公开的一个或多个方面的示例训练工作流的概念图;
图5是示出根据本公开的一个或多个方面的示例生产工作流的概念图;
图6是示出根据本公开的一个或多个方面的示例模型对象的概念图;
图7是示出根据本公开的一个或多个方面的示例组件对象的概念图;以及
图8是示出根据本公开的一个或多个方面的网络分析系统的操作的流程图。
具体实施方式
使用虚拟化环境(其中诸如虚拟机或容器等虚拟主机部署在物理计算设备的基础计算平台上并且在其上执行)的数据中心可以提供效率、成本和组织优势。但是,获取对应用、节点和链路工作负载的有意义的见解对于管理任何数据中心结构可能仍然很重要。从网络设备收集业务样本可以有助于提供这样的见解。在本文中描述的各种示例中,业务样本被收集,并且然后由分析算法进行处理以生成各种类型的预测。预测可以包括指示网络内的特定通信链路或设备的利用率、网络内的特定流的量等的数据。预测可以与网络的未来或当前状况有关。
此外,网络管理员可能希望获取关于网络的预测。例如,网络管理员可能希望获取关于在将来的特定时间或特定时间段内将通过网络内的特定通信链路传输多少数据的预测。在另一示例中,网络管理员可能希望获取关于在将来的特定时间或特定时间段内将通过特定虚拟网络传输多少数据的预测。在另一示例中,网络管理员可能希望知道特定节点或节点集(或链路或链路集)是否会超过资源利用率阈值。
可能希望使用机器学习(ML)模型来生成这种预测。可以训练 ML模型,以基于从网络收集的数据(诸如流数据)生成预测。可能需要不同的ML模型来生成不同类型的预测。此外,不同类型的ML 模型可能比其他类型的ML模型更适合于生成特定类型的预测。因此,网络管理员可以将网络的ML系统配置为在临时基础上使用ML模型以获取不同的预测。临时添加ML模型可能会增加ML系统的复杂性和存储要求。例如,可能需要在ML系统上安装各种软件包以支持各种ML模型。这些软件包的数目和大小可能事先未知。此外,由于用于训练ML模型的ML系统中不统一,因此可能会增加ML系统的复杂性。此外,从网络管理员或客户端的角度来看,可能难以预先确定哪种类型的ML模型最适合于生成特定类型的网络见解。确定ML模型的类型并且训练ML模型,以生成特定网络见解可能是一个充满挑战和耗时的过程。
本公开的技术可以解决上述一个或多个挑战。例如,根据本公开的示例,诸如流控制器等计算系统可以为具有多个网络设备的网络收集数据。例如,计算系统可以从网络收集流数据。流数据可以包括底层流数据、叠加流数据、和/或其他类型的流数据。计算系统可以将数据存储在数据库中。此外,基于由计算系统接收的针对预测的请求, ML系统可以训练预定的多个ML模型中的每个相应ML模型,以生成多个训练阶段预测中的相应训练阶段预测。网络分析系统可以基于针对多个ML模型的评估指标来自动确定多个ML模型中的所选择的 ML模型。另外,网络分析系统可以应用所选择的ML模型,以基于从网络收集的数据来生成预测。
通过训练一组预定ML模型中的多个ML模型,可以降低网络分析系统的复杂度,例如,因为可能不需要临时添加ML模型。此外,通过自动选择ML模型,管理员可以更容易选择合适的ML模型来生成预测。在一些示例中,网络分析系统可以能够仅基于针对预测的请求来自动训练ML模型、选择ML模型并且提供预测。
图1A是示出根据本公开的一个或多个方面的包括用于分析网络的ML系统138的示例网络的概念图。图1A示出了网络系统100和数据中心101的一种示例实现,该网络系统100和数据中心101托管一个或多个计算网络、计算域或项目、和/或基于云的计算网络(在本文中通常被称为云计算集群)。基于云的计算集群可以共同位于共同的整体计算环境中,诸如单个数据中心,也可以分布在整个环境中,诸如在不同的数据中心之间。基于云的计算集群可以例如是不同的云环境,诸如OpenStack云环境、Kubernetes云环境或其他计算集群、域、网络等的各种组合。在其他情况下,网络系统100和数据中心101 的其他实现可能是合适的。这样的实现可以包括图1A的示例中包括的组件的子集,和/或可以包括图1A中未示出的附加组件。
在图1A的示例中,数据中心101为通过服务提供方网络106耦合到数据中心101的客户104提供用于应用和服务的操作环境。图1A 可以被示出为分布在图1A中的多个设备之间,在其他示例中,归因于图1A中的一个或多个设备的特征和技术可以由一个或多个这样的设备的本地组件在内部执行。类似地,一个或多个这样的设备可以包括某些组件,并且执行在本文中描述为归因于一个或多个其他设备的各种技术。此外,某些操作、技术、特征和/或功能可以结合图1A进行描述,或者由特定组件、设备和/或模块执行。在其他示例中,这样的操作、技术、特征和/或功能可以由其他组件、设备或模块执行。因此,归因于一个或多个组件、设备或模块的一些操作、技术、特征和 /或功能也可以归因于其他组件、设备和/或模块,即使本文中没有以这种方式具体描述。
数据中心101托管基础设施设备,诸如网络和存储系统、冗余电源和环境控件。服务提供方网络106可以耦合到由其他提供方管理的一个或多个网络,并且因此可以形成例如互联网等大规模公共网络基础设施的一部分。
在一些示例中,数据中心101可以表示很多地理分布的网络数据中心之一。如图1A的示例中所示,数据中心101是为客户104提供网络服务的设施。客户104可以是集体实体,诸如企业和政府或个人。例如,网络数据中心可以为若干企业和最终用户托管网络服务。其他示例性服务可以包括数据存储、虚拟专用网、流量工程、文件服务、数据挖掘、科学或超级计算等。在一些示例中,数据中心101是单独的网络服务器、网络对等方等。
在图1A的示例中,数据中心101包括一组存储系统、应用服务器、计算节点或其他设备,包括网络设备110A至网络设备110N(被统称为“网络设备110”,表示任何数目的网络设备)。设备110可以经由由一层或多层物理网络交换机和路由器提供的高速交换结构 121互连。在一些示例中,设备110可以被包括在结构121内,但是为了便于说明而被分开示出。网络设备110可以是很多不同类型的网络设备(核心交换机、脊柱网络设备、分支网络设备、边缘网络设备或其他网络设备)中的任何一种个,但是在某些示例中,一个或多个设备110可以用作数据中心的物理计算节点。例如,设备110中的一个或多个可以提供用于执行一个或多个客户特定虚拟机或其他虚拟化实例(诸如容器)的操作环境。在这样的示例中,设备110中的一个或多个可以备选地被称为主机计算设备或更简单地被称为主机。网络设备110从而可以执行一个或多个虚拟化实例,诸如虚拟机、容器、或用于运行一个或多个服务(诸如虚拟网络功能(VNF))的其他虚拟执行环境。
通常,每个网络设备110可以是可以在网络上运行并且可以生成通过遥测或其他方式可访问的数据(例如,流数据,诸如sFlow数据) 的任何类型的设备,其可以包括任何类型的计算设备、传感器、相机、节点、监测设备或其他设备。此外,一些或全部网络设备110可以表示另一设备的组件,其中这种组件可以生成通过遥测或其他方式可收集的数据。例如,一些或全部网络设备110可以表示物理或虚拟网络设备,诸如交换机、路由器、集线器、网关、安全设备(诸如防火墙、入侵检测和/或入侵防御设备)。
尽管未具体示出,但是交换结构121可以包括耦合到机箱交换机的分布层的架顶式(TOR)交换机,并且数据中心101可以包括一个或多个非边缘交换机、路由器、集线器、网关、安全设备(诸如防火墙、入侵检测和/或入侵防御设备)、服务器、计算机终端、笔记本电脑、打印机、数据库、无线移动设备(诸如蜂窝电话或个人数字助理)、无线接入点、网桥、电缆调制解调器、应用加速器或其他网络设备。交换结构121可以执行第3层路由,以通过服务提供方网络106在数据中心101与客户104之间路由网络业务。网关108用来在交换结构 121与服务提供方网络106之间转发和接收分组。
根据本公开的一个或多个示例,软件定义网络(“SDN”)控制器132提供逻辑上的并且在某些情况下是物理上的集中式控制器,以促进数据中心101内的一个或多个虚拟网络的操作。在一些示例中, SDN控制器132响应于经由北向API 131从编排引擎130接收的配置输入而操作,北向API 131又可以响应于从与用户接口设备129交互和/或操作用户接口设备129的管理员128接收的配置输入而操作。
用户接口设备129可以被实现为用于呈现输出和/或接受用户输入的任何合适的设备。例如,用户接口设备129可以包括显示器。用户接口设备129可以是计算系统,诸如由用户和/或管理员128操作的移动或非移动计算设备。根据本公开的一个或多个方面,用户接口设备129可以例如表示工作站、膝上型计算机或笔记本计算机、台式计算机、平板计算机、或可以由用户操作和/或呈现用户接口的任何其他计算设备。在一些示例中,用户接口设备129可以与控制器201物理上分离和/或在与控制器201不同的位置。在这样的示例中,用户接口设备129可以通过网络或其他通信方式与控制器201通信。在其他示例中,用户接口设备129可以是控制器201的本地外围设备,或者可以集成到控制器201中。
在一些示例中,编排引擎130管理数据中心101的功能,诸如计算、存储、联网和应用资源。例如,编排引擎130可以为数据中心101 内或跨数据中心的租户创建虚拟网络。编排引擎130可以将虚拟机 (VM)附接到租户的虚拟网络。编排引擎130可以将租户的虚拟网络连接到外部网络,例如互联网或VPN。编排引擎130可以跨一组 VM或到租户网络的边界实现安全策略。编排引擎130可以在租户的虚拟网络中部署网络服务(例如,负载均衡器)。
在一些示例中,SDN控制器132管理诸如负载均衡、安全性等网络和联网服务,并且可以经由南向API 133将来自用作主机设备的设备110的资源分配给各种应用。也就是说,南向API 133表示SDN 控制器132用来使网络的实际状态等于由编排引擎130指定的期望状态的一组通信协议。例如,SDN控制器132可以通过配置物理交换机来实现编排引擎130的高级请求,例如,TOR开关、机箱开关和交换结构121;物理路由器;物理服务节点,诸如防火墙和负载均衡器;以及VM中的诸如虚拟防火墙等虚拟服务。SDN控制器132在状态数据库内维持路由、网络和配置信息。
策略控制器140与设备110(和/或其他设备)中的一个或多个交互,以跨数据中心101和/或网络系统100收集数据。所收集的数据可以包括流数据。这样的流数据可以包括底层流数据和叠加流数据。在一些示例中,底层流数据可以通过在OSI模型的第2层收集的流数据的样本来收集。叠加流数据可以是从跨网络系统100内建立的一个或多个虚拟网络的叠加业务导出的数据(例如,数据样本)。叠加流数据可以例如包括标识源虚拟网络和目的地虚拟网络的信息。其他类型的收集数据可以包括与计算资源(诸如处理器、内存、存储空间、链路带宽等)的利用有关的数据、物理机或虚拟机的分组吞吐量信息、功耗信息等。
根据本公开的一个或多个方面,图1A的策略控制器140可以将设备110中的每个配置为收集数据。例如,在可以参考图1A描述的示例中,策略控制器140向每个设备110输出信号。每个设备110接收信号并且将信号解释为收集数据的命令。此后,每个设备110将数据传递给策略控制器140。策略控制器140接收数据,响应于分析查询而准备数据以供使用,并且存储数据。在图1A的示例中,其他网络设备(包括交换结构121内的网络设备(未具体示出))也可以被配置为收集数据,诸如底层流数据、叠加流数据或其他类型的数据。
策略控制器140可以接收对关于网络系统100的信息的请求。例如,在所描述的示例中,用户接口设备129检测输入并且将关于该输入的信息输出到策略控制器140。策略控制器140确定该信息对应对关于网络系统100的信息的请求,诸如来自用户接口设备129的用户或其他来源的请求。策略控制器140可以使用ML系统138来处理请求。策略控制器140可以生成对请求的响应,并且将关于该响应的信息输出到用户接口设备129。
在图1A的示例中,ML系统138在与策略控制器140分离的计算系统中实现。例如,在一个示例中,ML系统138可以在由数据中心101提供的服务的用户的驻地的计算系统中实现,并且策略控制器 140可以在基于云的计算系统中实现。策略控制器140可以在由数据中心101提供的服务的用户的驻地的计算系统中实现,并且ML系统 138可以在基于云的计算系统中实现。在其他示例中,ML系统138 和策略控制器140可以在同一计算系统上实现。此外,在一些示例中, ML系统138可以形成策略控制器140的一部分。
根据本发明的一种或多种技术,响应于针对预测的请求,ML系统138可以训练预定的多个ML模型中的每个相应ML模型,以生成多个训练阶段预测中的相应训练阶段预测。另外,ML系统138可以基于针对预定的多个ML模型的评估指标来自动确定预定的多个ML 模型中的所选择的ML模型。ML系统138可以应用所选择的ML模型,以基于从包括多个网络设备(例如,设备110)的网络(例如,网络系统100)收集的数据来生成预测。在一些示例中,ML系统138 可以将预测提供给策略控制器140。策略控制器140可以处理该预测以生成对请求的响应。
图1B是示出根据本公开的一个或多个方面的用于分析网络的系统的示例组件的概念图。图1B包括结合图1A描述的很多相同的元素。图1B所示的元素可以对应于在图1A中由相同标号的附图标记标识的图1A所示的元素。通常,这种相似编号的元素可以按照与结合图1A提供的对应元素的描述相一致的方式而被实现,尽管在一些示例中,这样的元素可能涉及具有更多、更少和/或不同的能力和属性的备选实现。
图1B示出了策略控制器140的示例组件。策略控制器140被示出为包括负载均衡器141、(多个)收集器模块142、队列和事件存储库143、拓扑和指标来源144、数据存储库145以及API 146。本公开还可以将数据存储库145称为时间序列数据库,并且可以将API 146 称为决策端点。通常,策略控制器140和策略控制器140的组件被设计和/或配置为确保高可用性以及处理大量数据(诸如流数据)的能力。在一些示例中,策略控制器140的组件的多个实例可以被编排(例如,通过编排引擎130)为在不同的物理服务器上执行,以确保策略控制器140的任何组件都没有单点故障。在一些示例中,策略控制器140 或其组件可以独立地和水平地缩放,以使得能够对期望的业务量(例如,流数据)进行高效和/或有效的处理。
与图1A中一样,图1B的策略控制器140将每个设备110配置为收集数据,诸如流数据或其他类型的数据。例如,策略控制器140可以向每个设备110输出信号以将每个设备110配置为收集数据。设备 110中的一个或多个此后可以收集数据并且将这样的数据报告给策略控制器140。
在图1B中,策略控制器140的负载均衡器141从设备110接收数据。负载均衡器141可以跨多个收集器模块142分配所接收的数据,以确保收集器模块的主动/主动故障转移策略。在一些示例中,可能需要多个负载均衡器141以确保高可用性和可缩放性。
(多个)收集器模块142从负载均衡器141收集数据。(多个) 收集器模块142将数据向上游发送到队列和事件存储库143。在数据包括流数据的一些示例中,(多个)收集器模块142可以寻址、处理和/或容纳来自sFlows、NetFlow v9、IPFIX、jFlow、Contrail Flow和其他格式的统一数据。(多个)收集器模块142可以能够从sFlow分组和其他数据流分组中解析内部报头。(多个)收集器模块142可以能够处理消息溢出,用拓扑信息(例如,AppFormix拓扑信息)丰富流记录。(多个)收集器模块142还可以能够在将数据写入或发送到队列和事件存储库143之前将数据转换为二进制格式。“sFlow”类型的底层流数据(它是指“采样流”)是用于在OSI模型的第2层进行分组导出的标准。sFlow提供了一种导出截断分组的方法、以及用于网络监测目的的接口计数器。
队列和事件存储库143处理所收集的数据。例如,队列和事件存储库143可以从一个或多个收集器模块142接收数据,存储数据,并且使数据可用于数据存储库145中的摄取。在一些示例中,这使得能够分离将接收和存储大量数据的任务与索引数据和准备数据以进行分析查询的任务分离。在一些示例中,队列和事件存储库143还可以使得独立用户能够直接消费数据。在一些示例中,队列和事件存储库 143可以用于发现异常并且实时产生警报。在数据包括流数据的一些示例中,流数据可以通过读取封装的分组来解析,包括VXLAN、基于UDP的MPLS、和基于GRE的MPLS。例如,队列和事件存储库 143从内部(底层)分组中解析源IP、目的地IP、源端口、目的地端口和协议。某些类型的流数据(包括sFlow数据)仅包括采样网络业务的一部分(例如,前128个字节),因此在某些情况下,流数据可能并非包括所有内部字段。在这样的示例中,这样的数据可以被标记为丢失。
拓扑和指标来源144可以利用拓扑信息和/或指标信息来丰富或扩充数据。例如,拓扑和指标来源144可以提供网络拓扑元数据,网络拓扑元数据可以包括所标识的节点或网络设备、配置信息、配置、所建立的链路、以及关于这样的节点和/或网络设备的其他信息。在一些示例中,拓扑和指标来源144可以使用AppFormix拓扑数据,或者可以是执行中的AppFormix模块。从拓扑和指标来源144接收的信息可以用于丰富由(多个)收集器模块142收集的数据,并且在处理数据存储库145的查询时支持API 146。
数据存储库145可以被配置为以索引格式存储从队列和事件存储库143以及拓扑和指标来源144接收的数据,从而实现快速聚合查询和快速随机访问数据取回。在一些示例中,数据存储库145可以通过分片和复制数据来实现容错和高可用性。
API 146可以处理由一个或多个用户接口设备129发送的请求。例如,在一些示例中,API 146可以通过HTTP POST请求从用户接口设备129接收请求。在一些示例中,API 146可以实现代表性状态转移(REST)API。
根据本公开的一种或多种技术,API 146可以接收针对预测的请求。预测可以包括关于网络系统100的未来状况的一个或多个预测,可以包括关于网络系统100的当前或过去状况的数据,或者可以包括至少部分从由(多个)收集器模块142收集的数据中导出的其他类型的数据。预测的示例类型可以包括关于后续时间段中的工作负载的预测、关于网络的容量需求的预测等。
基于请求,ML系统138可以训练多个ML模型中的每个相应ML 模型以(例如,基于存储在数据存储库145中的数据或所提供的训练数据)生成多个训练阶段预测中的相应训练阶段预测。ML系统138 可以基于用于多个ML模型的评估指标来自动确定多个ML模型中的所选择的ML模型。在选择ML模型之后,ML系统138可以应用所选择的ML模型,以基于数据存储库145中存储的数据来生成预测。
API 146可以基于预测将响应返回给UI设备129。在一些示例中, API 146可以处理预测以确定是否生成警报。例如,API 146可以基于预测中的一个或多个值与对应阈值的比较来确定是否生成警报。API 146可以例如以弹出通知、电子邮件消息、即时消息、用户接口中的文本或图形消息的形式、或以其他形式向UI设备129提供警报。警报的示例类型可以包括网络业务异常警报。在一些示例中,编排引擎 130、SDN控制器132或其他系统可以响应于预测而执行自动决策执行。
通过实现本公开的技术,可以使生成预测的过程正规化。例如,与在逐案例的基础上生成的一组临时ML模型相反,ML系统138可以从预定的一组ML模型选择ML模型。通过使用预定的一组ML模型,可以简化ML系统138的存储要求,因为可能不需要存储、支持和维持支持临时添加的个体ML模型所需要的各种软件包。在一些示例中,ML系统138实现对于请求的标准化训练工作流和生产工作流。工作流在本公开的其他地方更详细地描述。使用这样的标准化训练工作流可以简化软件基础设施,否则将需要使用该软件基础设施来支持 Adhoc ML模型的使用。简化软件基础设施可以减少ML系统138的数据存储要求。本公开的技术还可以使得能够更容易为用户生成预测。为每个新案例创建临时模型需要大量的研究和理解以为预测创建准确的模型。本公开的技术可以使用多种主要的广泛公知的算法,训练并且选择用于预测的准确的ML模型,这可以为任何未知的指标预测节省时间和精力。
图2是示出根据本公开的一个或多个方面的用于分析网络的示例网络的框图。图2的网络系统200可以被描述为图1A或图1B的网络系统100的示例或备选实现。图2的一个或多个方面在本文中可以在图1的上下文中被描述。
尽管诸如图1A、图1B和图2所示的数据中心可以由任何实体来操作,但是某些数据中心可以由服务提供方来操作,其中这种服务提供方的商业模型将为其客户提供计算能力。因此,数据中心通常包含大量计算节点或主机设备。为了有效地运行,这些主机具有彼此连接以及与外部世界连接的能力,并且该能力是通过物理网络设备来提供的,该物理网络设备可以按照叶脊柱拓扑互连。这些物理设备(例如,网络设备和主机)的集合形成底层网络。
这种数据中心中的每个主机设备通常在其上运行有多个虚拟机,这些虚拟机被称为工作负载。数据中心的客户端通常可以访问这些工作负载,并且可以使用这用的工作负载来安装应用并且执行其他操作。在不同主机设备上运行但由一个特定客户端可访问的工作负载被组织成一个虚拟网络。每个客户端通常具有至少一个虚拟网络。这些虚拟网络也被称为叠加网络。在某些情况下,数据中心的客户端可能会遇到在不同工作负载上运行的两个应用之间的连接问题。由于工作负载在大型多租户数据中心的部署,因此对这样的问题进行故障排除通常会变得很复杂。
在图2的示例中,网络205连接策略控制器140、主机设备210A、主机设备210B和主机设备210N。策略控制器140可以对应于图1A 和图1B所示的策略控制器140的示例或备选实现。主机设备210A、 210B至210N可以被统称为“主机设备210”,表示任何数目的主机设备210。
每个主机设备210可以是图1A和图1B的设备110的示例,但是在图2的示例中,与网络设备相反,每个主机设备210被实现为服务器或主机设备,该服务器或主机设备用作虚拟化数据中心的计算节点。因此,在图2的示例中,每个主机设备210执行多个虚拟计算实例,诸如虚拟机228。
还连接到网络205的是用户接口设备129,如图1A和图1B所示,用户接口设备129可以由管理员128操作。在一些示例中,用户接口设备129可以在与用户接口设备129相关联的显示设备上呈现一个或多个用户接口,其中一些用户接口可以具有类似于用户接口262的形式。
图2还示出了在网络系统200内流动的底层流数据204和叠加流数据206。特别地,底层流数据204被示出为离开脊柱设备202A并且流向策略控制器140。类似地,叠加流数据206被示出为离开主机设备210A并且在网络205上流动。在一些示例中,如本文所述,叠加流数据206通过网络205传送到策略控制器140。为了简单起见,图2示出了底层流数据204的单个实例和叠加流数据206的单个实例。然而,应当理解,脊柱设备202和叶设备203中的每个可以生成底层流数据204并且将其传送给策略控制器140,并且在一些示例中,每个主机设备210(和/或其他设备)可以生成底层流程数据204,并且通过网络205将这样的数据传送给策略控制器140。此外,应当理解,每个主机设备210(和/或其他设备)可以生成叠加流数据206,并且通过网络205将这样的数据传送给策略控制器140。
网络205可以对应于图1A和图1B的交换结构121和/或服务提供方网络106中的任何一个,或者备选地,可以对应于交换结构121、服务提供方网络106和/或另一网络的组合。网络205还可以包括图 1A和图1B的一些组件,包括网关108、SDN控制器132和编排引擎130。
在网络205中示出的是脊柱设备202A和202B(被统称为“脊柱设备202”,表示任何数目的脊柱设备202)、以及叶设备203A、203B 和叶设备203C(被统称为“叶设备203”并且还表示任何数目的叶设备203)。尽管网络205被示出为具有脊柱设备202和叶设备203,但是其他类型的网络设备可以被包括在网络205中,包括核心交换机、边缘网络设备、架顶式设备和其他网络设备。
通常,网络205可以是互联网,或者可以包括或表示任何公共或专用通信网络或其他网络。例如,网络205可以是蜂窝、
Figure BDA0002696478540000151
ZigBee、Bluetooth、近场通信(NFC)、卫星、企业、服务提供方、和/或能够在计算系统、服务器和计算设备之间进行数据传输的其他类型的网络。客户端设备、服务器设备或其他设备中的一个或多个可以使用任何合适的通信技术在网络205上发射和接收数据、命令、控制信号和/或其他信息。网络205可以包括一个或多个网络集线器、网络交换机、网络路由器、卫星天线或任何其他网络设备。这样的设备或组件可以可操作地相互耦合,从而提供计算机、设备或其他组件之间 (例如,一个或多个客户端设备或系统与一个或多个服务器设备或系统之间)的信息交换。图2所示的每个设备或系统可以使用一个或多个网络链路可操作地耦合到网络205。将这样的设备或系统耦合到网络205的链路可以是以太网、异步传输模式(ATM)或其他类型的网络连接,并且这样的连接可以是无线和/或有线连接。图2所示的网络205上的设备或系统中的一个或多个等可以相对于一个或多个其他示出的设备或系统处于远程位置。
策略控制器140可以实现为任何合适的计算系统,诸如一个或多个服务器计算机、工作站、大型机、设备、云计算系统、和/或能够执行根据本公开的一个或多个方面而描述的操作和/或功能的其他计算系统。在一些示例中,策略控制器140表示向客户端设备和其他设备或系统提供服务的云计算系统、服务器场和/或服务器集群(或其一部分)。在其他示例中,策略控制器140可以表示数据中心、云计算系统、服务器场和/或服务器群集的一个或多个虚拟化计算实例(例如,虚拟机、容器),或者通过其而被实现。
在图2的示例中,策略控制器140可以包括电源241、一个或多个处理器243、一个或多个通信单元245、一个或多个输入设备246 以及一个或多个输出设备247。存储设备250可以包括一个或多个收集器模块252、用户接口模块254、API 146、数据存储库259和ML 相关数据库260。在一些示例中,ML相关数据库260与策略控制器 140分离。例如,ML相关数据库260可以被包括在ML系统138中。此外,在一些示例中,ML相关数据库260可以是元数据存储库。
策略控制器140的设备、模块、存储区域或其他组件中的一个或多个可以互连以实现组件间通信(物理上、通信上和/或操作上)。在一些示例中,这种连接可以通过通信信道(例如,通信信道242)、系统总线、网络连接、进程间通信数据结构、或用于传送数据的任何其他方法来提供。
电源241可以向策略控制器140的一个或多个组件提供电力。电源241可以从数据中心、建筑物、家庭或其他位置的主交流(AC) 电源接收电力。在其他示例中,电源241可以是电池或供应直流电 (DC)的设备。在另外的示例中,策略控制器140和/或电源241可以从另一电源接收电力。策略控制器140内示出的设备或组件中的一个或多个可以连接到电源241,和/或可以从电源241接收电力。电源 241可以具有智能电源管理或消耗能力,并且这样的特征可以由策略控制器140的一个或多个模块和/或由一个或多个处理器243控制、访问或调节以智能地消耗、分配、供应或以其他方式管理电力。
策略控制器140的一个或多个处理器243可以实现与策略控制器 140相关联或与本文中示出和/或本文中描述的一个或多个模块相关联的功能和/或执行与策略控制器140相关联或与本文中示出和/或本文中描述的一个或多个模块相关联的指令。一个或多个处理器243可以是执行根据本公开的一个或多个方面的操作的处理电路,可以是这样的处理电路一部分,和/或可以包括这样的处理电路。处理器243 的示例包括微处理器、应用处理器、显示控制器、辅助处理器、一个或多个传感器集线器、以及被配置为用作处理器、处理单元或处理设备的任何其他硬件。策略控制器140可以使用一个或多个处理器243 来使用驻留在策略控制器140处和/或在策略控制器140处执行的软件、硬件、固件或硬件、软件和固件的混合来执行根据本公开的一个或多个方面的操作。
策略控制器140的一个或多个通信单元245可以通过发射和/或接收数据来与策略控制器140外部的设备通信,并且在某些方面可以用作输入设备和输出设备。在一些示例中,通信单元245可以通过网络与其他设备通信。在其他示例中,通信单元245可以在诸如蜂窝无线电网络等无线电网络上发送和/或接收无线电信号。通信单元245的示例包括网络接口卡(例如,诸如以太网卡)、光收发器、射频收发器、 GPS接收器、或可以发送和/或接收信息的任何其他类型的设备。通信单元245的其他示例可以包括能够通过
Figure BDA0002696478540000171
GPS、NFC、 ZigBee和蜂窝网络(例如,3G、4G、5G)、以及在移动设备以及通用串行总线(USB)控制器等中发现的
Figure BDA0002696478540000172
无线电设备进行通信的设备。这样的通信可以遵循、实现或遵守适当的协议,包括传输控制协议/互联网协议(TCP/IP)、以太网、Bluetooth、NFC或其他技术或协议。
一个或多个输入设备246可以表示本文中没有另外描述的策略控制器140的任何输入设备。一个或多个输入设备246可以从能够检测来自人或机器的输入的任何类型的设备生成、接收和/或处理输入。例如,一个或多个输入设备246可以生成、接收和/或处理以电、物理、音频、图像和/或视觉输入形式的输入(例如,外围设备、键盘、麦克风、相机等)。
一个或多个输出设备247可以表示本文中没有另外描述的策略控制器140的任何输出设备。一个或多个输出设备247可以从能够检测来自人或机器的输入的任何类型的设备生成、接收和/或处理输入。例如,一个或多个输出设备247可以生成、接收和/或处理以电和/或物理输出形式的输出(例如,外围设备、致动器等)。
策略控制器140中的一个或多个存储设备250可以存储用于在策略控制器140的操作期间进行处理的信息。存储设备250可以存储与根据本公开的一个或多个方面而描述的一个或多个模块相关联的程序指令和/或数据。一个或多个处理器243和一个或多个存储设备250 可以为这样的模块提供操作环境或平台,其可以被实现为软件,但是在一些示例中可以包括硬件、固件和软件的任何组合。一个或多个处理器243可以执行指令,并且一个或多个存储设备250可以存储一个或多个模块的指令和/或数据。处理器243和存储设备250的组合可以取回、存储和/或执行一个或多个应用、模块或软件的指令和/或数据。处理器243和/或存储设备250还可以可操作地耦合到一个或多个其他软件和/或硬件组件,包括但不限于策略控制器140的一个或多个组件和/或被示出为连接到策略控制器140的一个或多个设备或系统。
在一些示例中,一个或多个存储设备250通过临时存储器而被实现,这可能表示,一个或多个存储设备的主要目的不是长期存储。策略控制器140的存储设备250可以被配置用于作为易失性存储器进行信息的短期存储,并且因此如果被停用则不保留所存储的内容。易失性存储器的示例包括随机存取存储器(RAM)、动态随机存取存储器 (DRAM)、静态随机存取存储器(SRAM)、以及本领域已知的其他形式的易失性存储器。在一些示例中,存储设备250还包括一个或多个计算机可读存储介质。存储设备250可以被配置为与易失性存储器相比存储更大量的信息。存储设备250还可以被配置用于作为非易失性存储空间进行信息的长期存储,并且在激活/关闭周期之后保留信息。非易失性存储器的示例包括磁性硬盘、光盘、闪存、或电可编程存储器(EPROM)或电可擦除可编程(EEPROM)存储器的形式。
(多个)收集器模块252可以执行与接收底层流数据204和叠加流数据206两者有关的功能,并且根据需要执行负载均衡以确保用于收集这样的流数据的高可用性、吞吐量和可缩放性。收集器模块252 可以处理数据以准备数据以存储在数据存储库259中。在一些示例中, (多个)收集器模块252可以将数据存储在数据存储库259中。数据存储库259可以等同于数据存储库145(图1B)。
用户接口模块254可以执行与生成用于呈现由API 146执行的分析查询的结果的用户接口有关的功能。在一些示例中,用户接口模块 254可以生成足以生成一组用户接口的信息,并且引起通信单元215 在网络205上输出这样的信息,以供用户接口设备129使用以在与用户接口设备129相关联的显示设备处呈现一个或多个用户接口。
API 146可以执行涉及存储在数据存储库259中的数据的分析查询,该数据是从底层流数据204、叠加流数据206和/或其他类型的数据的集合中导出的。在一些示例中,API146可以按照从HTTP POST 请求中导出的信息的形式接收请求,并且作为响应,可以使用ML系统138来获取响应于该请求的预测。在一些示例中,该请求包括查询或另一数据结构,该查询或另一数据结构指定要被包括在预测中的数据。此外,在一些示例中,API 146可以取回与设备110有关的拓扑信息,并且执行分析,包括数据重复数据删除、叠加底层相关、业务路径标识、和热图业务计算。
数据存储库259可以表示用于存储与数据流信息有关的信息的任何合适的数据结构或存储介质,包括从底层流数据204和叠加流数据 206导出的数据的存储。数据存储库259可以负责以索引格式存储数据,以实现快速数据取回和查询执行。存储在数据存储库259中的信息可以是可搜索的和/或分类的,使得策略控制器140内的一个或多个模块可以提供从数据存储库259请求信息的输入,并且响应于该输入,接收存储在数据存储库259内的信息。数据存储库259可以主要由(多个)收集器模块252维持。数据存储库259可以通过多个硬件设备而被实现,并且可以通过分片和复制数据来实现容错和高可用性。在一些示例中,数据存储库259可以使用开源的ClickHouse面向列的数据库管理系统而被实现。
每个主机设备210表示为虚拟主机、虚拟机、容器和/或其他虚拟化计算资源提供执行环境的物理计算设备或计算节点。在一些示例中,每个主机设备210可以是向客户端设备和其他设备或系统提供服务的云计算系统、服务器场、和/或服务器集群(或其一部分)的组件。
主机设备210的某些方面在本文中关于主机设备210A来描述。其他主机设备210(例如,主机设备210B至210N)可以类似地描述,并且还可以包括相同、相似或对应的组件、设备、模块、功能和/或其他特征。因此,本文中关于主机设备210A的描述可以相应地应用于一个或多个其他主机设备210(例如,主机设备210B至主机设备 210N)。
在图2的示例中,主机设备210A包括底层物理计算硬件,包括电源211、一个或多个处理器213、一个或多个通信单元215、一个或多个输入设备216、一个或多个输出设备217、以及一个或多个存储设备220。存储设备220可以包括管理程序221,管理程序221包括内核模块222、虚拟路由器模块224和代理模块226。虚拟机228A至 228N(被统称为“虚拟机228”并且表示任何数目的虚拟机228)在管理程序221之上执行或者由管理程序221控制。类似地,虚拟路由器代理229可以在管理程序221上或在管理程序221的控制下执行。主机设备210的一个或多个设备、模块、存储区域或其他组件可以互连以实现组件间通信(物理上、通信上和/或操作上)。在一些示例中,这种连接可以通过通信信道(例如,通信信道212)、系统总线、网络连接、进程间通信数据结构、或用于传送数据的任何其他方法来提供。
电源211可以向主机设备210的一个或多个组件提供电力。处理器213可以实现与主机设备210相关联的功能和/或执行与主机设备 210相关联的指令。通信单元215可以代表主机设备210与其他设备或系统通信。一个或多个输入设备216和输出设备217可以表示与主机设备210相关联的任何其他输入和/或输出设备。存储设备220可以存储用于在主机设备210A的操作期间进行处理的信息。每个这样的组件可以按照与本文中结合策略控制器140等而描述的方式相似的方式而被实现。
管理程序221可以用作在基础主机硬件设备上实例化、创建和/ 或执行一个或多个虚拟机228的模块或系统。在某些情况下,管理程序221可以被称为虚拟机管理器(VMM)。管理程序221可以在由存储设备220和处理器213提供的执行环境中或在操作系统内核(例如,内核模块222)之上执行。在一些示例中,管理程序221是在硬件平台(例如,主机210)上执行以为虚拟机228和/或其他类型的虚拟计算实例提供虚拟化操作环境和编排控制器的操作系统级组件。在其他示例中,管理程序221可以是软件和/或固件层,该软件和/或固件层提供轻量级内核并且操作以为虚拟机228和/或其他类型的虚拟计算实例提供虚拟化操作环境和编排控制器。管理程序221可以结合内核模块222的功能(例如,作为“类型1管理程序”),如图2所示。在其他示例中,管理程序221可以在内核上执行(例如,作为“类型2管理程序”)。
虚拟路由器模块224可以为数据中心101中的对应虚拟网络执行多个路由实例,并且可以将分组路由到在由设备110提供的操作环境中执行的适当虚拟机。虚拟路由器模块224还可以负责收集叠加流数据,诸如在使用Contrail SDN的基础设施中使用时的Contrail Flow数据。因此,每个主机设备210可以包括虚拟路由器。例如,由主机设备210A的虚拟路由器模块224从底层物理网络结构接收的分组可以包括外部报头,以允许物理网络结构将有效载荷或“内部分组”隧穿到主机设备210A的网络接口的物理网络地址。外部报头不仅可以包括服务器的网络接口的物理网络地址,还可以包括虚拟网络标识符,诸如标识虚拟网络之一的VxLAN标签或多协议标签交换(MPLS) 标签、以及由虚拟路由器执行的对应的路由实例。内部分组包括内部报头,该内部报头具有符合由虚拟网络标识符标识的虚拟网络的虚拟网络寻址空间的目的地网络地址。
代理模块226可以作为管理程序221的一部分而执行,或者可以在内核空间内或作为内核模块222的一部分而执行。代理模块226可以监测与主机设备210A相关联的一些或全部性能指标,并且可以实现可以从策略控制器140接收的策略。代理模块226可以将虚拟路由器模块224配置为将叠加流数据传送到策略控制器140。
虚拟机228A至虚拟机228N(被统称为“虚拟机228”,表示任何数目的虚拟机228)可以表示虚拟机228的示例实例。主机设备210A 可以将由存储设备220提供的虚拟和/或物理地址空间划分为用于运行用户进程的用户空间。主机设备210A还可以将由存储设备220提供的虚拟和/或物理地址空间划分为内核空间,该内核空间受到保护并且用户进程可能无法访问。
通常,每个虚拟机228可以是任何类型的软件应用,并且可以为每个虚拟机228分配虚拟地址以在对应虚拟网络中使用,其中每个虚拟网络可以是由虚拟路由器模块224提供的不同虚拟子网。可以为每个虚拟机228分配其自己的虚拟三层(L3)IP地址,例如,用于发送和接收通信,但不知道在其上执行虚拟机的物理服务器的IP地址。以这种方式,“虚拟地址”是用于应用的地址,该地址不同于用于底层物理计算机系统(例如,图2的示例中的主机设备210A)的逻辑地址。
每个虚拟机228可以表示租户虚拟机,该租户虚拟机运行客户应用,诸如网络服务器、数据库服务器、企业应用、或托管用于创建服务链的虚拟化服务。在一些情况下,主机设备210或另一计算设备中的任何一个或多个直接(即,不作为虚拟机)托管客户应用。尽管根据虚拟机或虚拟主机描述了本公开的一个或多个方面,但是本文中对于这样的虚拟机或虚拟主机而描述的根据本公开的一个或多个方面的技术也可以应用于在主机设备210上执行的容器、应用、进程、或其他执行单元(虚拟化或非虚拟化的)。
在图2的示例中,虚拟路由器代理229被包括在主机设备210A 内,并且可以与SDN控制器132和虚拟路由器模块224通信,以控制虚拟网络的叠加并且协调主机设备210A内的数据分组的路由。通常,虚拟路由器代理229与SDN控制器132通信,SDN控制器132 生成用于控制分组通过数据中心101的路由的命令。虚拟路由器代理 229可以在用户空间中执行,并且用作虚拟机228与SDN控制器132 之间的控制平面消息的代理。例如,虚拟机228A可以请求经由虚拟路由器代理229使用其虚拟地址发送消息,而虚拟路由器代理229进而可以发送该消息并且请求接收对于发起第一消息的虚拟机228A的虚拟地址的对该消息的响应。在一些情况下,虚拟机228A可以调用由虚拟路由器代理229的应用程序编程接口呈现的过程或功能调用,并且在这样的示例中,虚拟路由器代理229也处理消息的封装,包括寻址。
策略控制器140可以将诸如底层流数据204和叠加流数据206等数据存储在数据存储库259中。例如,在图2中,(多个)收集器模块252将信息输出到数据存储库259。数据存储库259可以按照索引格式存储数据,从而实现快速聚合查询和快速随机访问数据取回。在一些示例中,数据存储库259可以通过跨多个存储设备分片和复制数据来实现容错和高可用性,该多个存储设备可以位于多个物理主机之间。
策略控制器140可以接收请求。例如,用户接口设备129检测输入并且通过网络205输出从该输入中导出的信号。策略控制器140的通信单元215检测信号并且将关于该信号的信息输出到API 146。API 146确定该信号对应于来自用户接口设备129的用户的请求,该请求是关于给定时间窗内的有关网络系统200的信息。例如,用户接口设备129的用户(例如,管理员128)可能希望获取关于在将来的特定时间段内由特定主机设备210发送的网络业务的预期水平的预测。例如,如果特定主机设备托管视频流服务,给定网络205上的过去的业务模式,用户可能想知道特定主机设备可能在即将到来的周日晚上发送多少网络业务。
在一些示例中,策略控制器140的API 146在没有人参与的情况下从诸如软件系统或设备等系统接收请求。例如,在用户接口设备 129、策略控制器140的设备、或另一设备上运行的应用或其他类型的程序可以自动发送请求。在这样的示例中,策略控制器140可以在周期性或事件驱动的基础上接收相同的请求。在一些示例中,API 146 可以接收来自编排引擎130(例如,对于虚拟机或容器分析)、SDN 控制器132(例如,对于交换结构或连接性分析和管理)或其他系统的请求。
API 146可以使用ML系统138来处理针对预测的请求。为了处理该请求,ML系统138可以确定是否已经为该请求选择了ML模型。例如,ML系统138可以将先前接收的请求、先前处理的查询、或其他类型的数据存储在ML相关数据库260中。在该示例中,ML系统 138可以将该请求与先前接收的请求的库进行比较以确定是否已经为请求选择了ML模型。
如果已经为请求选择了ML模型,则ML系统138可以应用所选择的ML模型,以基于数据存储库259中存储的数据来生成预测。在某些示例中,如果ML系统138已经选择了对于该请求的ML模型, ML系统138可以发起生产工作流。在这样的示例中,生产工作流是使用先前为该请求而选择的ML模型来生成预测的过程。本公开例如关于图5在本公开的其他地方更详细地描述了生产工作流。
另一方面,如果ML系统138先前尚未为请求选择ML模型,则 ML系统138发起训练工作流。训练工作流是其中ML系统138训练多个ML模型,以基于数据存储库259中存储的数据来生成训练阶段预测的过程。由于(多个)收集器模块252继续收集数据并且继续将数据存储在数据存储库259中,所以在训练工作流期间由多个ML模型用来生成训练阶段预测的数据可以不同于在生产工作流期间由所选择的ML模型用来生成预测的数据。此外,当执行训练工作流时, ML系统138基于针对预定的多个ML模型的评估指标来自动确定预定的多个ML模型中的所选择的ML模型。本公开例如关于图4在本公开的其他地方更详细地描述了生产工作流。
API 146可以被配置为使用ML系统138来处理各种类型的请求。请求的示例类型可以包括但不限于最佳模型预测请求、统计模型预测请求、深度学习模型预测请求和微调请求。当ML系统138处理最佳模型预测请求时,ML系统138可以返回由被ML系统138选择为请求的最佳ML模型的ML模型生成的预测。用于处理最佳模型预测请求的所选择的ML模型可以不限于特定类型的模型,诸如统计ML模型或深度学习ML模型。当ML系统138处理统计模型请求时,ML 系统138可以返回由ML系统138从多种预定类型的统计ML模型选择的统计ML模型生成的预测。类似地,当ML系统138处理深度学习模型请求时,ML系统138可以返回由ML系统138从多种预定类型的深度学习ML模型选择的深度学习ML模型生成的预测。
当ML系统138处理微调请求时,ML系统138可以执行微调过程以改善已经训练的ML模型。在一些示例中,API 146或ML系统 138自动生成微调请求或发起微调过程。例如,可以在每晚,每小时或根据另一时间表或事件驱动的基础自动发起微调过程。示例微调过程在本公开的其他地方更详细地描述。
策略控制器140可以引起包含基于预测的数据的用户接口262被呈现在用户接口设备129处。例如,API 146可以从ML系统138接收预测并且将预测输出到用户接口模块254。用户接口模块254可以使用来自API 146的预测来生成足以创建用户接口262的至少一部分的数据。例如,用户接口模块254可以生成JavaScript对象标记法 (JSON)对象,该对象包含足以创建用户接口262的至少一部分的数据。用户接口模块254引起通信单元245通过网络205或另一网络输出信号。用户接口设备129检测信号并且处理该信号以生成用户接口262。用户接口设备129在与用户接口设备129相关联的显示器上呈现用户接口262。图2的示例所示的用户接口262的内容可以有所不同。
图2所示的模块和系统(例如,虚拟路由器模块224、代理模块 226、(多个)收集器模块252、用户接口模块254、API 146、ML系统138)和/或在本公开的其他地方示出或描述的模块和系统可以执行使用驻留在一个或多个计算设备处中和/或在一个或多个计算设备处执行的软件、硬件、固件、或硬件、软件和固件的混合而描述的操作。例如,计算设备或一组计算设备可以用多个处理器或多个设备执行一个或多个这样的模块。计算设备可以执行一个或多个这样的模块作为在基础硬件上执行的虚拟机。这些模块中的一个或多个可以作为操作系统或计算平台的一个或多个服务来执行。一个或多个这样的模块可以在计算平台的应用层作为一个或多个可执行程序来执行。在其他示例中,由模块提供的功能可以由专用硬件设备而被实现。
尽管一个或多个存储设备中包括的某些模块、数据存储库、组件、程序、可执行文件、数据项、功能单元和/或其他项可以分别示出,但是这些项中的一个或多个可以作为单个模块、组件、程序、可执行文件、数据项或功能单元组合和操作。例如,一个或多个模块或数据存储库可以组合或部分组合,以使得它们作为单个模块操作或提供功能。此外,一个或多个模块可以彼此交互和/或结合操作,以使得例如一个模块用作另一模块的服务或扩展。而且,存储设备内示出的每个模块、数据存储库、组件、程序、可执行文件、数据项、功能单元或其他项可以包括未示出的多个组件、子组件、模块、子模块、数据存储库和/或其他组件或模块或数据存储库。
此外,存储设备内示出的每个模块、数据存储库、组件、程序、可执行文件、数据项、功能单元或其他项可以按照各种方式而被实现。例如,存储设备内示出的每个模块、数据存储库、组件、程序、可执行文件、数据项、功能单元或其他项可以被实现为可下载或预先安装的应用或“app”。在其他示例中,存储设备内示出的每个模块、数据存储库、组件、程序、可执行文件、数据项、功能单元或其他项可以被实现为在计算设备上执行的操作系统的一部分。
图3是示出根据本公开的一个或多个方面的ML系统138的示例组件的概念图。在图3的示例中,ML系统138包括数据处理单元300、训练工作流单元302、生产工作流单元304和模型监测单元306。在其他示例中,ML系统138可以包括更多、更少或不同的单元。图3 的每个组件可以用在诸如一个或多个服务器、处理器或虚拟化执行单元(例如,容器或虚拟机)等计算环境上运行的软件而被实现。
数据处理单元300被配置为处理来自数据存储库259的数据以用于在一个或多个ML模型中使用。例如,数据处理单元300可以对数据执行降维。例如,输入数据可以包括大小为N×M的矩阵,其中N 是条目数,M是每个条目的维数。在该示例中,如果一个或多个ML 模型的所需要的输入大小是K,假定M>K,则数据处理单元300可以使用诸如自动编码器等降维算法将输入数据从N×M整形为N×K。
在一些示例中,数据处理单元300可以执行数据预处理。数据预处理的示例类型可以包括填写非数字(NaN)值、对数据进行归一化或缩放、消除噪声(例如,使用自动编码器或其他工具)、零位居中、最小/最大归一化、主成分分析、或用于使数据准备好可供一个或多个 ML模型使用的其他类型的处理。主成分分析可以用于对数据进行去相关以用于线性回归。例如,通过将协方差矩阵设置为恒等矩阵,主成分分析可以用于增白数据。在一些示例中,数据处理单元300可以执行数据增强以基于来自数据存储库259的数据来生成附加数据。例如,数据处理单元300可以使用一个或多个生成对抗网络来执行数据增强。在一些示例中,由数据处理单元300产生的数据在不同的ML 模型之间是可共享的(或者以其他方式可重用)。使数据在不同的 ML模型之间可重用可以减少ML系统138的存储要求。
训练工作流单元302被配置为执行训练ML模型,以生成对于由 ML系统138接收的特定请求的预测的训练工作流。ML系统138可以在对于请求的ML模型的初始建立期间利用训练工作流单元302。在一些示例中,ML系统138可以使用训练工作流单元302来执行微调过程,该微调过程对于特定请求改善了所选择的ML模型。在一些示例中,训练工作流单元302可以实现基于Kubernetes的机器学习流水线。
训练工作流单元302可以能够训练各种类型的ML模型。例如,在一些示例中,训练工作流单元302被配置为训练基线ML模型。基线ML模型可以是除深度学习ML模型和统计ML模型以外的另一种 ML模型。基线ML模型可以能够基于有限量的数据来生成预测。例如,基线ML模型可以能够基于少于1小时的数据来生成预测(例如,每小时预测)。基线ML模型的示例类型可以包括指数加权移动平均 (EWMA)模型、隐马尔可夫模型等。
在一些示例中,训练工作流单元302被配置为训练统计ML模型。统计模型的示例类型包括Holt-Winters模型、自回归综合移动平均值 (ARIMA)模型、季节性ARIMA模型、向量自回归(VAR)模型、 Facebook PROPHET模型等。在一些示例中,当有更多的数据可用于进行预测时,统计ML模型可以比基本ML模型具有更大的效用。例如,当超过24小时的数据可用时,可以使用用于生成每小时预测的统计ML模型。
在一些示例中,训练工作流单元302被配置为训练深度学习ML 模型。深度学习ML模型可能比基本ML模型或统计ML模型需要更多的数据,但是可以能够提供更复杂的预测类型。深度学习ML模型的示例类型可以包括长短期记忆(LSTM)模型、双向LSTM模型、递归神经网络、或包括多个层的其他类型的神经网络。在其他示例中, ML系统138可以使用除深度学习ML模型以外的神经网络模型。
ML模型可以被分组为基于回归的ML模型、基于分类的ML模型和无监督学习模型。这些组中的每个组可以都有基线、统计和深度学习ML。在一些示例中,对于基于回归的ML模型,训练工作流单元302可以使用Hodrick-Prescott过滤器来执行ML模型选择的初始水平。具体地,Hodrick-Prescott过滤器将时间序列数据(y_t)分解为趋势分量和周期性分量c_t:y_t=tou_t(趋势)+c_t(周期性)。时间序列数据是ML模型用于生成预测的数据。通过将时间序列数据分成趋势分量和周期性分量,训练工作流单元302可以能够确定时间序列数据具有更多的周期特性还是更多的趋势特性。如果训练工作流单元302确定时间序列数据具有比趋势特性更多的周期特性,则训练工作流单元302可以消除对具有趋势特性的时间序列数据表现更好的 ML模型。相反,如果训练工作流单元302确定时间序列数据具有比周期特性更多的趋势特性,则训练工作流单元302可以消除对具有周期特性的时间序列数据表现更好的ML模型。例如,EWMA模型和 Holts-Winter模型对具有周期特性的时间序列数据表现更好。ARIMA 模型、VAR模型等可能会对具有趋势特性的时间序列数据表现更好。
通过执行该初始级别的ML模型选择,训练工作流单元302可以能够避免训练每个基于回归的ML模型,从而潜在地节省时间和计算资源。在一些示例中,训练工作流单元302可以基于多少数据可用来过滤基于回归的ML模型。例如,如果数据存储库259中由少于阈值时间量的数据可用(例如,24-48小时),则训练工作流单元302可以仅训练基于回归的基线ML模型。否则,如果数据存储库259中有多于阈值时间量的数据可用,则训练工作流单元302可以附加地或备选地训练其他类型的基于回归的ML模型,诸如统计模型或低容量深度学习ML模型。
基于回归的基线ML模型的示例类型可以包括隐马尔可夫模型和季节趋势分解方法。基于回归的统计ML模型的示例类型可以包括误差趋势季节(ETS)模型(包括指数平滑模型、趋势方法模型和ETS 分解)、EWMA模型(包括简单移动平均值和EWMA)、Holt Winters 模型、ARIMA模型、SARIMA模型、向量自回归模型、季节性趋势自回归(STAR)模型和FacebookPROPHET模型。基于回归的深度学习ML模型的示例类型可以包括LSTM架构(包括单层LSTM、深度LSTM、双向LSTM)、RNN和门控循环单元(GRU)。基于分类的基线ML模型的示例类型可以包括逻辑回归模型和K近邻模型。基于分类的统计ML模型的示例类型可以包括支持向量机和Boosting集成算法(例如,XGBoost)。基于分类的深度学习ML模型的示例类型可以包括LSTM架构、RNN架构、GRU架构和人工神经网络架构。无监督ML模型的示例类型可以包括K均值聚类模型、高斯聚类模型和基于密度的空间聚类。
在一些示例中,训练工作流单元302开始训练工作流,作为ML 流水线的初始建立的一部分。ML流水线是生成对请求的预测的过程。因此,当ML系统138接收到新请求时,ML系统138执行ML流水线的初始建立过程,以生成对新请求的预测。
在一些示例中,训练工作流单元302响应于先前接收的请求的新实例而开始训练工作流。例如,通过基本ML模型或统计ML模型可以最佳地生成对某些类型请求的某些预测。例如,对请求的预测可以包括基于过去一小时的通信链路上的通信量来预测下一小时网络205 中的通信链路上的通信量。在该示例中,基本ML模型可能足以生成预测。因此,在该示例中,响应于请求的新实例,训练工作流单元302 可以在过去一个小时的数据上对一个或多个基本ML模型进行重新训练以生成关于下一小时的预测。类似地,训练工作流单元302可以例如响应于同一请求的每日/每晚实例来重新训练一个或多个统计ML 模型。
在一些示例中,训练工作流单元302可以确定用于训练的可用 ML模型的子集。换言之,训练工作流单元302可以被配置为训练X 个ML模型,但是训练工作流单元302可以确定由Y个ML模型组成的子集,其中Y小于X。训练工作流单元302可以对于请求来训练可用ML模型的子集中的每个相应ML模型,但不对于请求来训练不在请求子集中的其余ML模型。训练工作流单元302可以按照多种方式之一来确定子集。例如,训练工作流单元302可以应用Hodrick-Prescott 过滤器来选择一个基线ML模型和一个统计ML模型以用于训练和/ 或微调。
训练工作流单元302可以执行模型评估过程和模型选择过程。在模型评估过程中,训练工作流单元302可以训练ML模型并且生成 ML模型的评估指标。在模型选择过程中,训练工作流单元302可以使用ML模型的评估指标来确定所选择的ML模型。本公开关于图4 提供了关于模型评估过程和模型选择过程的示例细节。
此外,关于图3的示例,生产工作流单元304处理生产工作流。生产工作流单元304可以生成生产工作流以使用对于请求的所选择的 ML模型来生成预测。本公开关于图5提供了关于生产工作流的示例细节。在一些示例中,生产工作流单元304可以实现基于Kubernetes 的机器学习流水线。
另外,在图3的示例中,模型监测单元306监测由对于请求的所选择的ML模型而生成的预测。例如,模型监测单元306可以监测所选择的ML模型中的漂移,并且可以自动触发训练工作流,该训练工作流使用随后收集的数据重新训练所选择的ML模型。换言之,模型监测单元306可以对所选择的ML模型发起微调过程。因此,在所选择的ML模型生成预测之后,模型监测单元306可以连续或重复地监测所选择的ML模型的性能。
因此,在一些示例中,由所选择的ML模型生成的预测可以包括关于网络205中的网络业务流的预测。此外,在这样的示例中,模型监测单元306可以生成关于网络205中的网络业务流的真实数据。真实数据对应于在预测中正在预测的实际值。模型监测单元306可以基于存储在数据存储库259中的数据(例如,流数据)来生成真实数据。另外,模型监测单元306可以基于预测和真实数据的比较来确定是否重新训练所选择的ML模型。基于确定需要重新训练所选择的ML模型,模型监测单元306可以自动重新训练所选择的ML模型。重新训练工作流可以包括使用其他训练数据来更新所选择的ML模型。例如,在选择的ML模型是深度学习ML模型的示例中,训练工作流单元302 可以从存储在数据存储库259中的新数据生成新的输入预期输出对,并且使用新的输入预期输出对进一步训练深度学习ML模型。
在一些示例中,为了确定是否重新训练所选择的ML模型,模型监测单元306可以基于特定预测与对应于特定预测的真实数据的比较来确定误差值。在一些示例中,误差值指示真实数据中的值与预测中的对应值之间的差值之和。模型监测单元306可以基于误差值越过置信区间的阈值来做出重新训练所选择的ML模型的确定。
图4是示出根据本公开的一个或多个方面的示例训练工作流单元 302的概念图。在图4的示例中,训练工作流单元302包括模型训练单元400、参数存储装置402、模型评估单元404、模型和权重更新单元406、以及模型选择单元408。在其他示例中,训练工作流单元302 可以包括更多、更少、或其他单元。
模型训练单元400可以执行用于训练ML模型的过程。更具体地,模型训练单元400可以训练ML模型,以生成请求所请求的类型的预测。因此,在一些示例中,模型训练单元400可以训练预定的多个 ML模型中的每个ML模型,以基于存储在数据存储库259中的数据来生成多个训练阶段预测中的相应训练阶段预测。
作为训练ML模型的一部分,模型训练单元400可以从参数存储装置402中取回ML模型的参数。此外,模型训练单元400可以更新 ML模型的参数,作为训练过程的一部分。模型训练单元400可以将 ML模型的已更新的参数存储回参数存储装置402。ML模型的参数的示例类型可以包括用于深度学习ML模型的神经元的权重和偏差值。支持向量机(SVM)模型的参数的示例类型可以包括表征分离一个或多个类的一个或多个超平面的数据。基于回归的ML模型的参数的示例类型可以包括表征回归函数的系数。
在一些示例中,模型训练单元400可以更新某些类型的ML模型的超参数。例如,在模型训练单元400正在训练深度学习ML模型的示例中,模型训练单元400可以更新超参数,诸如学习速率、最小批量大小、拓扑参数等。在模型训练单元400正在训练SVM模型的示例中,模型训练单元400可以更新正则化常数和内核超参数。当训练统计ML模型时,模型训练单元400可以使用网格搜索或其他技术来更新超参数。当训练深度学习ML模型时,模型训练单元400可以分阶段执行交叉验证。在第一阶段,模型训练单元400可以在较短时间内训练深度学习ML模型,以确定可行的超参数的近似值。在第二阶段,模型训练单元400可以在更长的时间段内训练深度学习ML模型以微调超参数。
在一些示例中,ML系统138可以被配置为应用多个ML模型,但是模型训练单元400可以从多个ML模型选择ML模型的子集(例如,基于Hodrick-Prescott过滤器,如本公开中其他地方所述)。在一些示例中,多个ML模型可以包括先前已经被训练和/或微调的ML 模型。
模型训练单元400可以按照不同方式训练不同类型的ML模型。例如,在一个示例中,在模型训练单元400正在训练深度学习ML模型的情况下,请求可以包括查询和输入数据标准。查询可以描述对请求的预测。输入数据标准可以指定用于生成预测的数据(例如,流数据)。此外,在该示例中,模型训练单元400可以生成多个输入预期输出对。每个输入预期输出对包括输入数据集和预期输出数据集。输入数据集可以包括被存储在数据存储库259中的数据并且满足输入数据标准。预期输出数据集包括响应于查询的数据。换言之,模型训练单元400可以对过去的时间段的数据运行查询以生成预期输出数据集。在该示例中,模型训练单元400可以基于输入预期输出对来训练一个或多个ML模型。例如,模型训练单元400可以使用监督学习过程基于输入输出对来训练一个或多个ML模型。以这种方式,模型训练单元400可以能够训练一个或多个ML模型而无需从寻求预测的用户明确接收输入预期输出数据集。这可以帮助自动化获取预测的过程。
在图4的示例中,模型训练单元400可以使用模型评估单元404 作为训练ML模型的过程的一部分。模型评估单元404可以负责实际使用ML模型来生成预测。例如,在其中ML模型是深度学习ML模型的示例中,模型评估单元404可以对深度学习ML模型执行前向遍历以生成输出数据(例如,训练阶段预测)。在该示例中,模型评估单元404可以将输出数据与预期输出数据进行比较(例如,使用误差函数)以生成误差值。模型评估单元404可以使用误差值执行反向传播过程。反向传播过程可以更新深度学习ML模型的权重。模型和权重更新单元406可以将已更新的权重存储回参数存储装置402。
在一些示例中,模型评估单元404可以确定由一个或多个评估的 ML模型生成的预测的置信区间。例如,在一些示例中,模型评估单元404将ML模型应用于包括与预期预测相关联的验证输入数据的验证数据集。对于每个ML模型,模型评估单元404可以为验证数据集计算由ML模型生成的预测的标准偏差。然后,模型评估单元404可以使用标准偏差来确定ML模型的置信区间。在一些示例中,置信区间可以用于ML模型的选择。
在一些示例中,模型训练单元400可以生成增强数据并且在训练特定类型的ML模型时将增强数据用作验证数据。模型训练单元400 可以使用一个或多个生成对抗网络以基于存储在数据存储库259中的数据来生成增强数据。
模型选择单元408可以基于为请求而训练的ML模型的评估指标来自动确定预定的多个ML模型中的所选择的ML模型。模型选择单元408可以使用ML模型的各种评估指标来确定所选择的ML模型。例如,对于基于回归的ML模型,模型选择单元408可以使用诸如 ML模型的均方根误差(RMSE)、ML模型的均方误差(MSE)、平均绝对误差(MAE)、相应ML模型的Akaike信息标准(AIC)、 AICc、Mallows Cp、置信区间回归、相应ML模型的贝叶斯信息标准 (BIC)或其他类型的数据等评估指标。对于基于分类的ML模型(例如,统计模型、深度学习ML模型等),评估指标可以包括准确性、特异性、召回率、F1得分(接收者工作特性(ROC)/曲线下面积(AUC) 等。对于使用无监督学习训练的ML模型,模型选择单元408可以使用Silhouette得分作为评估指标。在一些示例中,模型选择单元408 可以将ML模型的评估指标进行比较,并且选择具有最低(或最高) 评估指标的ML模型。在一些示例中,模型选择单元408使用多个评估指标来确定所选择的ML模型。例如,模型选择单元408可以使用加权指标评估方法来确定所选择的ML模型。指标可以被加权以向特定指标赋予更多或更少重视。在该示例中,对于每个ML模型,模型选择单元408可以确定ML模型的加权评估指标的总和,并且选择总和最低(或最高)的ML模型。在模型选择单元408确定所选择的 ML模型之后,模型选择单元408可以将所选择的ML模型的参数(例如,权重、偏差值、系数等)存储在参数存储装置402中以供以后使用。在一些示例中,模型选择单元408从选择ML模型的多个ML模型可以包括用于该请求的一个或多个先前训练的ML模型。
图5是示出根据本公开的一个或多个方面的示例生产工作流单元 304的概念图。在图5的示例中,生产工作流单元304包括模型训练单元400、参数存储装置402、模型评估单元404、模型选择单元408、模型预测单元500和模型服务单元502。
模型预测单元500可以从模型选择单元408获取用于请求的所选择的ML模型的指示。另外,模型预测单元500可以从参数存储装置 402获取用于所选择的ML单元的参数。模型预测单元500可以应用所选择的ML模型,以生成(例如,基于数据存储259中的数据)对请求的预测。在某些示例中,请求本身可以指定数据存储库259中的哪些数据要用作ML模型的输入以训练和/或生成生产工作流预测。例如,该请求可以指定对要用作输入的数据的查询。在一些示例中,可以将专用训练数据提供给ML系统138,以训练ML模型,以基于请求来生成预测。标记可以用于向ML系统138指示是否提供了专用训练数据或者请求本身指定了数据存储库259中的数据以用作训练ML 模型和/或生成生产工作流预测的输入。
模型服务单元502还可以处理通过应用所选择的ML模型而生成的预测。例如,模型服务单元502可以处理预测以提供置信区间以及预测。
在一些示例中,每当ML系统138接收到特定请求时,生产工作流单元304使用模型训练单元400、模型评估单元404、模型选择单元408和模型服务单元502。在一些这样的示例中,训练、评估和选择ML模型作为用于请求的生产工作流的一部分的选项(并且因此每次ML系统138接收到请求时,训练、评估和选择ML模型的选项) 可以由生成请求的用户或程序指定。作为生产流程的一部分来训练、评估和选择ML模型在以下情况下特别有用:随着时间的推移,随着更多输入数据变为可用,所选择的ML模型发生变化,或者输入数据中的信息趋于以某种方式变化以使得选择不同ML模型是有利的。
在其他示例中,每次ML系统138每次接收到特定请求时,生产工作流单元304都不使用模型训练单元400、模型评估单元404和模型选择单元408。例如,如果相同的所选择的ML模型对于请求多次有用(例如,在相同类型的输入数据上,但具有不同的时间范围),则每次ML系统138接收到请求的实例时,生产工作流单元304不使用模型训练单元400、模型评估单元404或模型选择单元408。可能特别常见的是,当所选择的ML模型是深度学习模型时,每当ML系统138接收到请求的实例时,生产工作流单元304不训练、评估或选择ML模型。
图6是示出根据本公开的一个或多个方面的示例模型对象600的概念图。在本公开的一些示例中,ML系统138可以使用诸如模型对象600等模型对象来管理诸如训练工作流和生产工作流等ML工作流中的ML模型。模型对象600可以是面向对象的编程软件对象。ML 系统138可以将模型对象600用于ML模型的持久性、有效存储和取回。
在图6的示例中,模型对象600包括模型标识符602、模型状态数据604、数据取回器606、数据转换器608和训练器610。模型标识符602标识ML模型。例如,模型标识符602可以是在ML系统138 中全局标识ML模型的标识符。在某些示例中,模型标识符602可以用作在对ML流水线(例如,训练工作流或生产工作流)的内部和外部API调用中标识模型对象600的参考。
模型状态数据604可以指示ML模型是处于新状态(例如,未训练状态)、已训练状态、已评估状态、已部署状态还是过时状态。当 ML模型处于已训练状态时,可以至少部分训练ML模型,以生成对请求的预测。当ML模型处于已评估状态时,可能已考虑选择ML模型,但是未选择该模型。当ML模型处于已部署状态时,可能已选择 ML模型作为请求的ML模型。当ML模型处于过时状态时,ML系统138不再使用ML模型,并且ML系统138将不考虑将ML模型用于后续选择或用作所选择的ML模型。模型对象600可以绑定到训练工作流或生产工作流。训练工作流可以在新的、已训练、已评估和已部署状态之间转换模型对象600。当模型状态数据604指示ML模型处于已部署状态时,生产工作流可以使用与模型对象600相关联的 ML模型。
ML系统138可以使用模型对象600的数据取回器606来取回由 ML模型使用的输入数据,例如流数据。在一些示例中,数据取回器 606是包括用于取回输入数据的功能的软件对象。例如,如下面关于图7所述,数据取回器606可以被实现为组件对象。在一些示例中,数据取回器606指定用于取回输入数据的查询。
ML系统138可以在将输入数据提供给ML模型之前使用数据转换器608来转换输入数据。例如,ML系统138的数据处理单元300 (图3)可以使用数据取回器606来预处理输入数据。在一些示例中,数据转换器608是包括转换输入数据的功能的软件对象。例如,如下面关于图7所述,数据转换器608可以被实现为组件对象。在一些示例中,数据转换器608指定指示如何转换输入数据的数据。
ML系统138可以使用模型对象600的训练器610来执行ML模型的训练过程。例如,训练器610可以是或可以指示用于训练ML模型的一个或多个程序、脚本、参数或其他数据。
图7是示出根据本公开的一个或多个方面的示例组件对象700的概念图。诸如组件对象700等组件对象可以是形成工作流的基本单元的可重复使用的、预定义的、容器化的操作/任务。在图7的示例中,组件对象700包括驱动器702、执行器704和发布方706。组件对象700可以使用元数据存储库708。在其他示例中,组件对象可以包括更多、更少或不同的单元。
驱动器702消耗输入,诸如驱动组件的元数据。这样的元数据可以存储在元数据存储库710中。执行器704可以执行组件的动作或任务。发布方706将由组件生成的伪像写回元数据存储库710以供对象操作使用。例如,当组件对象700是数据取回器(例如,数据取回器606)时,驱动器702可以获取指定执行器704将执行以便取回ML 对象的输入数据的动作的元数据。在该示例中,发布方706可以将由执行者704取回的输入数据写回元数据存储库710(例如,以供ML 系统138在应用ML模型时使用)。
在组件对象700是数据转换器(例如,数据转换器608)的示例中,驱动器702可以获取指定用于转换输入数据的动作的元数据。执行器704然后可以应用动作。在该示例中,发布方706可以将转换后的输入数据写回元数据存储库710中(例如,以供ML系统138在应用ML模型时使用)。
组件对象可以通过元数据存储库710彼此通信。元数据存储库 710可以实现一个或多个API以记录和取回来自存储后端(例如,数据存储库259、参数存储装置402等)的元数据。在一些示例中,元数据包括通过工作流的组件/步骤生成的伪像。此外,在一些示例中,元数据包括关于这些组件/步骤的执行的信息。在一些示例中,元数据包括关于流水线的信息和相关联的沿袭信息。例如,ML系统138可以生成关于在ML模型上运行的工作流的元数据。这包括但不限于运行的特定标识符、运行期间生成的组件级伪像、以及过去在该模型上运行以实现更好可调试性和日志记录的流水线工作流中的相关沿袭信息。元数据存储库710还可以包含由组件对象(诸如组件对象700) 生成的伪像。伪像可以是抽象实体,该抽象实体具有通过客户端API 在元数据存储库710中即时注册的ArtifactType。ArtifactType指示这样的类型的实例的属性。
图8是示出根据本公开的一个或多个方面的策略控制器140的操作的流程图。在图8的示例中,策略控制器140(例如,网络分析系统的收集器模块252)可以为网络205收集诸如流数据或其他类型的数据等数据(800)。网络205包括多个网络设备(例如,脊柱设备202、叶设备203、主机设备210等)。策略控制器140可以将数据存储在诸如数据存储259等数据库中(802)。
此外,在图8的示例中,策略控制器140可以接收针对预测的请求(804)。例如,策略控制器140可以从用户接口设备129或另一源接收请求。
基于由策略控制器140接收的针对预测的请求,ML系统138可以训练预定的多个ML模型中的每个相应ML模型,以生成(例如,基于从网络205收集的数据或所提供的训练数据)多个训练阶段预测中的相应训练阶段预测(806)。训练ML模型的示例在本公开的其他地方提供。在一些示例中,预定的多个ML模型是第一多个ML模型,并且ML系统138可以被配置为应用第二多个ML模型,该第二多个ML模型包括第一多个ML模型和一个或多个附加ML模型。然而,代替训练第二多个ML模型中的每个,ML系统138可以从第二多个ML模型选择第一多个ML模型。例如,ML系统138可以使用 Hodrick-Prescott过滤器来确定输入数据是否具有主要的周期特性或趋势特性,并且从第二多个ML模型选择适合于输入数据的周期特性或趋势特性的ML模型。
此外,ML系统138可以基于针对预定的多个ML模型的评估指标来自动确定预定的多个ML模型中的所选择的ML模型(808)。在一些示例中,作为选择ML模型的一部分,针对预定的多个ML模型中的每个相应ML模型,ML系统138可以基于由相应ML模型生成的预测来确定针对相应ML模型的一个或多个评估指标的相应集合。另外,ML系统138可以基于针对相应ML模型的一个或多个评估指标的集合来确定针对相应ML模型的得分。例如,为了确定针对相应ML模型的得分,针对预定的多个ML模型中的每个相应ML模型,ML系统138可以将针对相应ML模型的得分确定为针对相应ML模型的ML指标的加权平均值。ML系统138可以比较针对ML 模型的得分,以确定所选择的预测。在一些示例中,ML系统138可以归一化评估指标,使得评估指标处于例如(0到10、0到100等) 的公共尺度。在一些示例中,针对相应ML模型的评估指标包括以下一项或多项:相应ML模型的均方根误差、相应ML模型的均方误差、相应ML模型的平均绝对误差、相应ML模型的Akaike信息标准 (AIC)、或相应ML模型的贝叶斯信息标准(BIC)。某些类型的评估指标可能更适合于选择特定类型的ML模型。例如,平方根误差、AIC和BIC可能非常适合在基于回归的ML模型中进行选择。
ML系统138可以应用所选择的ML模型,以基于从网络205收集的数据来生成预测(810)。例如,在所选择的ML模型是深度学习ML模型的示例中,ML系统138可以执行通过深度学习ML模型的前向通过以生成预测。ML系统138或策略控制器140可以关于预测执行各种操作。例如,在一些示例中,ML系统138或策略控制器 140可以基于该预测来确定是否生成警报。在该示例中,ML系统138 或策略控制器140可以基于生成警报的确定来生成警报。
对于本文中(包括在任何流程图或流程图中)描述的过程、装置和其他示例或说明,本文中描述的任何技术中包括的某些操作、动作、步骤或事件可以按照不同顺序执行,可以完全添加、合并或省去(例如,并非所有描述的动作或事件对于实施该技术都是必需的)。此外,在某些示例中,操作、动作、步骤或事件可以例如通过多线程处理、中断处理或多个处理器同时而不是顺序地执行。即使未明确标识为自动执行,其他某些操作、动作、步骤或事件也可以自动执行。而且,被描述为自动执行的某些操作、动作、步骤或事件可以备选地不自动执行,而是在一些示例中,这样的操作、动作、步骤或事件可以响应于输入或另一事件而执行。
为了便于说明,在图和/或或本文中引用的其他说明中仅示出了有限数目的设备(例如,用户接口设备129、脊柱设备202、叶设备203、主机设备210、策略控制器140以及其他设备)。然而,根据本公开的一个或多个方面的技术可以用更多的这样的系统、组件、设备、模块和/或其他项目来执行,并且对这样的系统、组件、设备、模块和/ 或其他项目的集体引用可以表示任何数目的这样的系统、组件、设备、模块和/或其他项目。
本文中包括的附图各自示出了本公开的一方面的至少一个示例实现。然而,本公开的范围不限于这样的实现。因此,除了附图中所示的之外的在本文中描述的系统、方法或技术的其他示例或备选实现在其他情况下可能是合适的。这样的实现可以包括在附图中包括的设备和/或组件的子集,和/或可以包括在附图中未示出的附加设备和/或组件。
上面阐述的详细描述旨在作为各种配置的描述,而非旨在表示可以实践本文中描述的概念的唯一配置。为了提供对各种概念的充分理解,详细描述包括特定细节。但是,可以在没有这些特定细节的情况下实践这些概念。在某些情况下,公知的结构和组件在附图中以框图形式示出了,以避免使这些概念模糊。
因此,尽管可以参考特定附图描述各种系统、设备和/或组件的一个或多个实现,这样的系统、设备和/或组件但是可以按照多种不同方式而被实现。例如,在本文中的附图中示出为单独设备的一个或多个设备可以备选地实现为单个设备;例如,示出为单独组件的一个或多个组件可以备选地被实现为单个组件。而且,在一些示例中,在本文中的附图中生成为单个设备的一个或多个设备可以备选地被实现为多个设备;示出为单个组件的一个或多个组件可以备选地被实现为多个组件。这样的多个设备和/或组件中的每个可以经由有线或无线通信直接耦合,和/或经由一个或多个网络远程耦合。而且,可以在本文中的各个附图中示出的一个或多个设备或组件可以备选地实现为在这样的附图中未示出的另一设备或组件的一部分。以这种和其他方式,本文中描述的一些功能可以通过两个或更多个设备或组件的分布式处理来执行。
此外,某些操作、技术、特征和/或功能在本文中可以描述为由特定组件、设备和/或模块执行。在其他示例中,这样的操作、技术、特征和/或功能可以由不同的组件、设备或模块执行。因此,在其他示例中,可以在本文中描述为归因于一个或多个组件、设备或模块的一些操作、技术、特征和/或功能可以归因于其他组件、设备和/或模块,即使本文中没有以这种方式具体描述。
尽管已经结合一些示例的描述标识出了特定的优点,但是各种其他示例可以包括所列举的优点中的一些、全部或没有一个。从本公开中,技术或其他方面的其他优点对于本领域的普通技术人员可能变得很清楚。此外,尽管本文中已经公开了特定示例,但是本公开的各个方面可以使用任何数目的技术而被实现,无论当前是否已知,并且因此,本公开不限于本公开中具体描述和/或示出的示例。
在一个或多个示例中,所描述的功能可以按照硬件、软件、固件或其任何组合而被实现。如果以软件实现,则功能可以作为一个或多个指令或代码存储在计算机可读介质上和/或通过计算机可读介质传输并且由基于硬件的处理单元执行。计算机可读介质可以包括计算机可读存储介质(其对应于诸如数据存储介质等有形介质)、或者通信介质(其包括有助于将计算机程序从一个地方转移到另一地方(例如,根据通信协议)的任何介质)。以这种方式,计算机可读介质通常可以对应于(1)非暂态的有形的计算机可读存储介质,或者(2)诸如信号或载波等通信介质。数据存储介质可以是可以由一个或多个计算机或一个或多个处理器访问以取回指令、代码和/或数据结构以实现本公开中描述的技术的任何可用介质。计算机程序产品可以包括计算机可读介质。
作为示例而非限制,这种计算机可读存储介质可以包括RAM、 ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁性存储设备、闪存、或者可以用于以指令或数据结构形式存储期望的程序代码并且可以由计算机访问的任何其他介质。而且,任何连接都被适当地称为计算机可读介质。例如,如果使用同轴电缆、光纤电缆、双绞线、数字用户线(DSL)或无线技术(诸如红外、无线电和微波) 从网站、服务器或其他远程源发送指令,则介质的定义包括同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电和微波等)。但是,应当理解,计算机可读存储介质和数据存储介质不包括连接、载波、信号或其他瞬态介质,而是涉及非暂态的有形的存储介质。所使用的磁盘和光盘包括压缩盘(CD)、光盘,数字多功能光盘(DVD) 和蓝光光盘,其中磁盘通常以磁性方式复制数据,而光盘则通过激光以光学方式复制数据。上述的组合也应当被包括在计算机可读介质的范围内。
指令可以由一个或多个处理器执行,诸如一个或多个数字信号处理器(DSP)、通用微处理器、专用集成电路(ASIC)、现场可编程逻辑阵列(FPGA)、或其他等效的集成或分立逻辑电路。因此,本文中使用的术语“处理器”或“处理电路”可以分别指任何前述结构或适合于实现所描述的技术的任何其他结构。另外,在一些示例中,所描述的功能可以在专用硬件和/或软件模块内提供。同样,该技术可以在一个或多个电路或逻辑元件中完全实现。
本公开的技术可以在包括集成电路(IC)或一组IC(例如,芯片组)在内的多种设备或装置中实现。本公开中描述了各种组件、模块或单元以强调被配置为执行所公开技术的设备的功能方面,但不一定需要由不同硬件单元而被实现。而是,如上所述,各种单元可以组合在硬件单元中,或者由互操作的硬件单元(包括上述一个或多个处理器)的集合与合适的软件和/或固件相结合来提供。

Claims (20)

1.一种方法,包括:
基于针对预测的请求:
由计算系统训练预定的多个机器学习ML模型中的每个相应ML模型,以生成多个训练阶段预测中的相应训练阶段预测;
由所述计算系统基于针对所述预定的多个ML模型的评估指标来自动确定所述预定的多个ML模型中的所选择的ML模型;以及
由所述计算系统应用所述所选择的ML模型,以基于从包括多个网络设备的网络收集的数据来生成所述预测。
2.根据权利要求1所述的方法,其中自动确定所述所选择的ML模型包括:
针对所述预定的多个ML模型中的每个相应ML模型:
基于由所述相应ML模型生成的所述预测来确定针对所述相应ML模型的一个或多个评估指标的相应集合;
基于针对所述相应ML模型的所述一个或多个评估指标的集合来确定针对所述相应ML模型的得分;以及
比较针对所述ML模型的所述得分,以确定所述所选择的ML模型。
3.根据权利要求2所述的方法,其中针对所述相应ML模型的所述评估指标包括以下一项或多项:所述相应ML模型的均方根误差、所述相应ML模型的均方误差、所述相应ML模型的平均绝对误差、所述相应ML模型的Akaike信息标准AIC、或所述相应ML模型的贝叶斯信息标准BIC。
4.根据权利要求2所述的方法,其中确定针对所述相应ML模型的所述得分包括:针对所述预定的多个ML模型中的每个相应ML模型,由所述网络分析系统将针对所述相应ML模型的所述得分确定为针对所述相应ML模型的所述指标的加权平均值。
5.根据权利要求1至4中的任一项所述的方法,其中:
所述预定的多个ML模型是第一多个ML模型,
所述计算系统被配置为应用包括所述第一多个ML模型和一个或多个附加ML模型的第二多个ML模型,
所述方法还包括由所述计算系统从所述第二多个ML模型选择所述第一多个ML模型。
6.根据权利要求1至4中的任一项所述的方法,其中所述方法还包括:
由所述网络分析系统生成关于所述网络的真实数据;
由所述网络分析系统基于所述预测和所述真实数据的比较来确定是否重新训练所述所选择的ML模型;以及
基于重新训练所述所选择的ML模型的所述确定,自动重新训练所述所选择的ML模型。
7.根据权利要求6所述的方法,其中:
所述真实数据包括与所述预测相对应的真实数据,并且
确定是否重新训练所述所选择的ML模型包括:
由所述计算系统基于所述预测与对应于所述预测的所述真实数据集的比较来确定误差值;以及
由所述计算系统基于所述误差值越过置信区间的阈值来做出重新训练所述所选择的ML模型的所述确定。
8.根据权利要求1至4中的任一项所述的方法,其中所述方法还包括:
由所述计算系统基于所述预测来确定是否生成警报;以及
由所述计算系统基于生成所述警报的确定来生成所述警报。
9.根据权利要求1至4中的任一项所述的方法,其中:
所述请求包括查询并且指示输入数据标准,并且
训练所述ML模型中的每个ML模型包括:
由所述计算系统生成多个输入输出对,其中:
所述输入预期输出对中的每个输入预期输出对包括输入数据集和预期输出数据集,
所述输入数据集包括被存储在所述数据库中并且满足所述输入数据标准的数据,
所述预期输出数据集包括响应于所述查询的数据;以及
由所述计算系统基于所述输入输出对来训练所述预定的多个ML模型。
10.根据权利要求1至4中的任一项所述的方法,其中所述数据包括流数据。
11.一种系统,包括:
数据存储库,被配置为存储从包括多个网络设备的网络收集的数据;以及
处理电路,被配置为:
基于针对预测的请求:
训练预定的多个机器学习ML模型中的每个相应ML模型,以生成多个训练阶段预测中的相应训练阶段预测;
基于针对所述预定的多个ML模型的评估指标来自动确定所述预定的多个ML模型中的所选择的ML模型;以及
应用所述所选择的ML模型,以基于从所述网络收集的所述数据来生成所述预测。
12.根据权利要求11所述的系统,其中所述处理电路被配置为使得作为自动确定所述所选择的ML模型的一部分,所述处理电路:
针对所述预定的多个ML模型中的每个相应ML模型:
基于由所述相应ML模型生成的所述预测来确定针对所述相应ML模型的一个或多个评估指标的相应集合;
基于针对所述相应ML模型的所述一个或多个评估指标的集合来确定针对所述相应ML模型的得分;以及
比较针对所述ML模型的所述得分,以确定所述所选择的ML模型。
13.根据权利要求12所述的系统,其中针对所述相应ML模型的所述评估指标包括以下一项或多项:所述相应ML模型的均方根误差、所述相应ML模型的均方误差、所述相应ML模型的平均绝对误差、所述相应ML模型的Akaike信息标准AIC、或所述相应ML模型的贝叶斯信息标准BIC。
14.根据权利要求12所述的系统,其中所述处理电路被配置为使得作为确定针对所述相应ML模型的所述得分的一部分,所述处理电路针对所述预定的多个ML模型中的每个相应ML模型,将针对所述相应ML模型的所述得分确定为针对所述相应ML模型的所述指标的加权平均值。
15.根据权利要求11至14中的任一项所述的系统,其中:
所述预定的多个ML模型是第一多个ML模型,
所述处理电路被配置为应用包括所述第一多个ML模型和一个或多个附加ML模型的第二多个ML模型,
所述处理电路还被配置为从所述第二多个ML模型选择所述第一多个ML模型。
16.根据权利要求11至14中的任一项所述的系统,其中所述处理电路还被配置为:
生成关于所述网络的真实数据;
基于所述预测和所述真实数据的比较来确定是否重新训练所述所选择的ML模型;以及
基于重新训练所述所选择的ML模型的所述确定,自动重新训练所述所选择的ML模型。
17.根据权利要求16所述的系统,其中:
所述真实数据包括与所述预测相对应的真实数据,并且
所述处理电路被配置为使得作为确定是否重新训练所述所选择的ML模型的一部分,所述处理电路:
基于所述预测与对应于所述预测的所述真实数据集的比较来确定误差值;以及
基于所述误差值越过置信区间的阈值来做出重新训练所述所选择的ML模型的所述确定。
18.根据权利要求11至14中的任一项所述的系统,其中所述处理电路还被配置为:
基于所述预测来确定是否生成警报;以及
基于生成所述警报的确定来生成所述警报。
19.根据权利要求11至14中的任一项所述的系统,其中:
所述请求包括查询并且指示输入数据标准,并且
所述处理电路被配置为使得作为训练所述ML模型中的每个ML模型的一部分,所述处理电路:
生成多个输入输出对,其中:
所述输入预期输出对中的每个输入预期输出对包括输入数据集和预期输出数据集,
所述输入数据集包括被存储在所述数据库中并且满足所述输入数据标准的数据,
所述预期输出数据集包括响应于所述查询的数据;以及
基于所述输入输出对来训练所述预定的多个ML模型。
20.一种计算机可读存储介质,编码有用于引起一个或多个可编程处理器执行根据权利要求1至10中的任一项所述的方法的指令。
CN202011007538.7A 2020-07-02 2020-09-23 用于关于网络的预测的机器学习流水线 Pending CN113886001A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/920,113 2020-07-02
US16/920,113 US11501190B2 (en) 2020-07-02 2020-07-02 Machine learning pipeline for predictions regarding a network

Publications (1)

Publication Number Publication Date
CN113886001A true CN113886001A (zh) 2022-01-04

Family

ID=72658998

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011007538.7A Pending CN113886001A (zh) 2020-07-02 2020-09-23 用于关于网络的预测的机器学习流水线

Country Status (3)

Country Link
US (2) US11501190B2 (zh)
EP (1) EP3933701A1 (zh)
CN (1) CN113886001A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114662129A (zh) * 2022-03-25 2022-06-24 中国电信股份有限公司 数据分片安全评估方法、装置、存储介质及电子设备

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11501190B2 (en) * 2020-07-02 2022-11-15 Juniper Networks, Inc. Machine learning pipeline for predictions regarding a network
US11823021B2 (en) 2020-07-31 2023-11-21 Yahoo Assets Llc System and method for ensemble expert diversification via bidding
US11915114B2 (en) 2020-07-31 2024-02-27 Yahoo Assets Llc System and method for ensemble expert diversification
US20220036249A1 (en) * 2020-07-31 2022-02-03 Oath Inc. System and Method for Ensemble Expert Diversification and Control Thereof
US20220051049A1 (en) * 2020-08-11 2022-02-17 International Business Machines Corporation Using meta-learning to optimize automatic selection of machine learning pipelines
CN112202736B (zh) * 2020-09-15 2021-07-06 浙江大学 基于统计学习和深度学习的通信网络异常分类方法
US11924375B2 (en) * 2021-10-27 2024-03-05 Khoros, Llc Automated response engine and flow configured to exchange responsive communication data via an omnichannel electronic communication channel independent of data source
KR102308751B1 (ko) * 2021-02-19 2021-10-05 주식회사 에스아이에이 딥러닝 기반의 강수량 예측 방법
US11961099B2 (en) * 2021-03-15 2024-04-16 Accenture Global Solutions Limited Utilizing machine learning for optimization of planning and value realization for private networks
US20220391239A1 (en) * 2021-06-02 2022-12-08 Salesforce.Com, Inc. Application programming interface for spinning up machine learning inferencing server on demand
US20230161596A1 (en) * 2021-11-22 2023-05-25 Oracle Financial Services Software Limited Unified pipeline flow with common and phase-specific paths
US11782798B2 (en) * 2022-02-11 2023-10-10 Dell Products, L.P. Method and apparatus for predicting and exploiting aperiodic backup time windows on a storage system
US11526261B1 (en) * 2022-02-18 2022-12-13 Kpmg Llp System and method for aggregating and enriching data
US11777818B1 (en) * 2022-04-04 2023-10-03 Oracle International Corporation Drift resolver for enterprise applications
CN114978956B (zh) * 2022-04-11 2024-04-09 北京邮电大学 智慧城市网络设备性能异常突变点检测方法及装置
CN115600770B (zh) * 2022-12-09 2023-04-07 成都睿的欧科技有限公司 基于时序饱和预测的无线信号设备故障预警方法和系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2514833A (en) * 2013-06-07 2014-12-10 Ibm Portable computer monitoring
JP6163954B2 (ja) * 2013-08-08 2017-07-19 富士通株式会社 パケット解析プログラム、パケット解析装置およびパケット解析方法
US10469329B1 (en) 2014-09-10 2019-11-05 Amazon Technologies, Inc. Computing service capacity management
US20180015370A1 (en) * 2015-02-10 2018-01-18 Shahar SOREK System and method for retaining a strategy video game player by predicting the player game satisfaction using player game behavior data
US20210157312A1 (en) * 2016-05-09 2021-05-27 Strong Force Iot Portfolio 2016, Llc Intelligent vibration digital twin systems and methods for industrial environments
US20200225655A1 (en) * 2016-05-09 2020-07-16 Strong Force Iot Portfolio 2016, Llc Methods, systems, kits and apparatuses for monitoring and managing industrial settings in an industrial internet of things data collection environment
US20200348662A1 (en) * 2016-05-09 2020-11-05 Strong Force Iot Portfolio 2016, Llc Platform for facilitating development of intelligence in an industrial internet of things system
US11038906B1 (en) * 2017-02-03 2021-06-15 Level 3 Communications, Llc Network threat validation and monitoring
GB2566257A (en) * 2017-08-29 2019-03-13 Sky Cp Ltd System and method for content discovery
US10686872B2 (en) * 2017-12-19 2020-06-16 Xilinx, Inc. Network interface device
AR109623A1 (es) * 2018-02-16 2019-01-09 Pescarmona Enrique Menotti Proceso y sistema de análisis y gestión hidrológica para cuencas
WO2019236997A1 (en) * 2018-06-08 2019-12-12 Zestfinance, Inc. Systems and methods for decomposition of non-differentiable and differentiable models
KR102162350B1 (ko) * 2019-02-14 2020-10-06 국방과학연구소 다중 통신 제어 장치 및 방법
US11354804B1 (en) * 2019-09-27 2022-06-07 Verily Life Sciences Llc Transforming multispectral images to enhanced resolution images enabled by machine learning
US11501190B2 (en) * 2020-07-02 2022-11-15 Juniper Networks, Inc. Machine learning pipeline for predictions regarding a network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114662129A (zh) * 2022-03-25 2022-06-24 中国电信股份有限公司 数据分片安全评估方法、装置、存储介质及电子设备
CN114662129B (zh) * 2022-03-25 2023-11-14 中国电信股份有限公司 数据分片安全评估方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
US20230031889A1 (en) 2023-02-02
US20220004897A1 (en) 2022-01-06
US11501190B2 (en) 2022-11-15
EP3933701A1 (en) 2022-01-05
US11823079B2 (en) 2023-11-21

Similar Documents

Publication Publication Date Title
US11823079B2 (en) Machine learning pipeline for predictions regarding a network
US11949703B2 (en) Systems and methods for multivariate anomaly detection in software monitoring
US10262019B1 (en) Distributed management optimization for IoT deployments
US10230597B2 (en) Optimizations for application dependency mapping
US10685283B2 (en) Demand classification based pipeline system for time-series data forecasting
US10671445B2 (en) Cost-optimal cluster configuration analytics package
US11765014B2 (en) Intent-based distributed alarm service
JP2023549277A (ja) Paasクラウド環境における演算子の成功の蓋然性を予測する為の機械学習モデル
Tuli et al. AI augmented Edge and Fog computing: Trends and challenges
Donta et al. The promising role of representation learning for distributed computing continuum systems
Ramya et al. Traffic-aware dynamic controller placement in SDN using NFV
US20230053575A1 (en) Partitioning and placement of models
Wijesekara et al. A comprehensive survey on knowledge-defined networking
Hosamani et al. Elastic provisioning of Hadoop clusters on OpenStack private cloud
US20230336447A1 (en) Machine learning for metric collection
Roy et al. A proposal for optimization of horizontal scaling in big data environment
Li et al. Machine learning empowered intelligent data center networking: A survey
US11403200B2 (en) Provisioning resources for monitoring hosts based on defined functionalities of hosts
Girish et al. Data analytics in SDN and NFV: Techniques and Challenges
KR20200063343A (ko) Trvn 인프라구조의 운용 관리 장치 및 방법
EP4261689A1 (en) Machine learning for rule evaluation
EP4261752A1 (en) Machine learning for rule recommendation
Mitropoulou et al. Detect resource related events in a cloud-edge infrastructure using knowledge graph embeddings and machine learning
EP4261751A1 (en) Machine learning for metric collection
Wang et al. Machine Learning Empowered Intelligent Data Center Networking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination