CN112534777B - 基于人工智能的分层业务感知引擎 - Google Patents
基于人工智能的分层业务感知引擎 Download PDFInfo
- Publication number
- CN112534777B CN112534777B CN201980051129.6A CN201980051129A CN112534777B CN 112534777 B CN112534777 B CN 112534777B CN 201980051129 A CN201980051129 A CN 201980051129A CN 112534777 B CN112534777 B CN 112534777B
- Authority
- CN
- China
- Prior art keywords
- model
- dec
- models
- upf
- flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/34—Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0813—Configuration setting characterised by the conditions triggering a change of settings
- H04L41/082—Configuration setting characterised by the conditions triggering a change of settings the condition being updates or upgrades of network functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/40—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
提供了使用基于人工智能(AI)的分层业务感知引擎在网络中识别通信流量流中的应用的系统和方法。解码等效类(DEC)可以用于提供关于应用的信息。DEC对应于映射到人工智能(AI)模型的一类流量,该AI模型关联于与该类流量有关的参数。可以将DEC信息馈入AI模型集合,并且可以从AI模型集合中与DEC对应的AI模型导出推理模型。推理模型可以被提供给网络中的网关,以识别通信流中的业务的特定应用。在各个实施例中,在训练AI模型时,网关可以提供AI模型集合的DEC信息,以将从网络接收的数据流量流分类成DEC。
Description
相关申请的交叉引用
本申请要求于2018年8月10日提交的发明名称为“基于人工智能的分层业务感知引擎”、申请号为No.16/101,092的美国非临时专利申请的优先权,该申请以引入的方式并入本文。
技术领域
本公开涉及数据通信,尤其涉及数据通信中的业务感知。
背景技术
移动设备的移动应用数量呈指数增长。同时,服务运营商希望网络能够识别哪些是服务运营商认为重要的应用,以针对这些应用提供不同的业务处理。例如,某些运营商可能会提供打包业务,其中可能包括针对特定应用的免费数据使用。对于这种类型的供应,例如,运营商可能希望网络能够在少于十个的数据包中检测到特定的应用,以便进行计费。
一些应用提供商具有许多应用。例如,GoogleTM托管许多应用,例如GmailTM、Google DriveTM、YoutubeTM、Google MapTM、Google HangoutTM等。这些应用可以共享公用的内容交付网络(content delivery network,CDN)服务器。通过这种共享,几乎实时地识别一个应用(例如Google map应用)变得非常困难。另外,流量的加密正在增加。据预测,到2019年,80%的网络流量将被加密。随着最新版本的传输层安全性(transport layersecurity,TLS)的部署(这是一种通过网络提供通信安全性的加密协议)以及快速UDP(userdatagram protocol,用户数据报协议)互联网连接(quick UDPinternet connection,QUIC)的部署(这是一种传输层网络协议),准确识别应用变得更加困难。
发明内容
提供了使用基于人工智能(artificial intelligence,AI)的分层业务感知引擎识别网络中的通信流量流的应用的系统和方法。在分层业务感知引擎中,与AI模型和参数对应的解码等效类(decode equivalent class,DEC)可以用于识别数量流中的应用。可以提供DEC信息以训练AI模型,从AI模型中生成推理模型。推理模型可以由网络中的网关用于识别网关中的数据流中的应用,允许运营商在网关处对与识别的应用相关联的通信流应用业务处理。从在网络中的网关中使用DEC得到的结果可以用于进一步训练AI模型,其中,该AI模型向网关提供推理模型以及推理模型的更新。
根据本公开的一个方面,提供了一种系统,该系统包括:存储器,包括指令;以及与存储器通信的一个或多个处理器,其中,该一个或多个处理器执行上述指令以:从自网络接收的数据流量获得解码等效类(DEC)信息;基于获得的DEC信息的结果,将接收的数据流量的各部分馈入人工智能(AI)模型集合,每个部分与该AI模型集合中的AI模型相关联;使用AI模型集合中的每个AI模型导出对应于与每个AI模型相关联的DEC的推理模型,该推理模型识别业务和该业务的特定应用;以及将一个或多个推理模型部署到一个或多个用户面功能(user plane function,UPF)网关。
可选地,在任一前述方面中,该方面的另一实施方式提供了,一个或多个处理器执行指令以在生成推理模型更新时触发将推理模型更新部署到一个或多个UPF网关。
可选地,在任一前述方面中,该方面的另一实施方式提供了,一个或多个处理器执行指令以从新增的UPF网关接收UPF网关信息。
可选地,在任一前述方面中,该方面的另一实施方式提供了,接收的UPF网关信息包括新增的UPF网关的通信方式信息。
可选地,在任一前述方面中,该方面的另一实施方式提供了,上述指令可由上述一个或多个处理器执行,以执行作为DEC控制器的操作,以管理多个UPF网关和AI模型集合。
可选地,在任一前述方面中,该方面的另一实施方式提供了,作为DEC控制器的操作包括以下操作:获得关于感兴趣应用的输入以及与该感兴趣应用相关联的AI模型的输入;在系统中创建AI模型,以将该AI模型包括在AI模型集合中,该AI模型对应于与该感兴趣应用相关联的参数;以及在一个或多个UPF网关设置规则以包括该感兴趣应用,以在一个或多个UPF网关处进行DEC分类。
可选地,在任一前述方面中,该方面的另一实施方式提供了,作为DEC控制器的操作包括在UPF网关中创建或删除推理模型的操作。
可选地,在任一前述方面中,该方面的另一实施方式提供了,获得所述DEC信息包括,读取包头以提取DEC信息,或使用机器学习推导出DEC信息。
可选地,在任一前述方面中,该方面的另一实施方式提供了,获得DEC信息包括,读取具有在超文本传输协议(hypertext transfer protocol,HTTP)自定义头中列出的上述DEC的包。
根据本公开的一个方面,提供了一种网关,该网关包括:存储器,包括指令;以及与存储器通信的一个或多个处理器,其中,该一个或多个处理器执行指令以:将从自网络接收的数据流量流分类成解码等效类(DEC);基于流的分类,选择性地将流引导至网关外部的系统中的人工智能(AI)模型;基于流的分类,将流连同与推理模型集合中的每个推理模型对应的DEC信息发送至网关中的推理模型集合,每个推理模型识别业务以及该业务的特定应用;以及响应于接收到每个推理模型的更新,管理推理模型集合中的每个推理模型。
可选地,在任一前述方面中,该方面的另一实施方式提供了,上述一个或多个处理器基于存储的策略中的信息对数据流量流进行分类,该存储的策略指定要分类的应用的类型。
可选地,在任一前述方面中,该方面的另一实施方式提供了,上述一个或多个处理器经由正则表达式检查,基于域名系统消息将数据流分类成DEC。
可选地,在任一前述方面中,该方面的另一实施方式提供了,上述一个或多个处理器通过将流的一部分发送到AI模型,选择性地将流引导至AI模型。
可选地,在任一前述方面中,该方面的另一实施方式提供了,到AI模型的流包括单个流的包头,该包头具有与该单个流相关联的DEC信息,或者,流包括单个流的超文本传输协议(HTTP)自定义头,该HTTP自定义头具有与该单个流对应的DEC。
根据本公开的一个方面,提供了一种计算机实现的方法,该方法用于操作系统以识别网络数据流中的应用,该计算机实现的方法包括:使用一个或多个处理器从自网络接收的数据流量获得解码等效类(DEC)信息;基于获得的DEC信息的结果,使用一个或多个处理器将接收的数据流量的各部分馈入人工智能(AI)模型集合,每个部分与AI模型集合中的AI模型相关联;使用AI模型集合中的每个AI模型导出对应于与每个AI模型相关联的DEC的推理模型,该推理模型识别业务和该业务的特定应用;以及使用一个或多个处理器将一个或多个推理模型部署到一个或多个用户面功能(UPF)网关。
可选地,在任一前述方面中,该方面的另一实施方式提供了,上述计算机实现的方法包括在生成推理模型更新时触发将推理模型更新部署到所述一个或多个UPF网关。
可选地,在任一前述方面中,该方面的另一实施方式提供了,上述计算机实现的方法包括从新增的UPF网关接收UPF网关信息。
可选地,在任一前述方面中,该方面的另一实施方式提供了,上述计算机实现的方法包括执行作为DEC控制器的操作以管理多个UPF网关和AI模型集合。
可选地,在任一前述方面中,该方面的另一实施方式提供了,执行作为DEC控制器的操作包括:获得关于感兴趣应用的输入以及与该感兴趣应用相关联的AI模型的输入;在系统中创建AI模型,以将该AI模型包括在AI模型集合中,该AI模型对应于与该感兴趣应用相关联的参数;以及在一个或多个UPF网关设置规则以包括该感兴趣应用,以在一个或多个UPF网关处进行DEC分类。
可选地,在任一前述方面中,该方面的另一实施方式提供了,执行作为DEC控制器的操作包括在UPF网关中创建或删除推理模型。
在本公开的范围内,前述示例中的任何一个可以与其他前述示例中的任何一个或多个组合以创建新的实施例。
附图说明
图1示出了根据示例实施例的基于人工智能的分层业务感知引擎的高层架构的示例。
图2示出了根据示例实施例的基于解码等效类的分类框架的示例。
图3是根据示例实施例的用于业务感知引擎的基于云或集中式人工智能模型的示例实施方式的表示。
图4是根据示例实施例的示例用户面功能网关,该用户面功能网关可以与其中布置有人工智能模型的云一起操作。
图5是根据示例实施例的示例解码等效类控制器的图示,该解码等效类控制器与人工智能模型交互并与多个用户面功能网关交互。
图6示出了根据示例实施例的携带来自包头的解码等效类标识的示例方法。
图7是根据示例实施例的操作系统以实现网络数据流中的应用的识别的示例方法的流程图。
图8是根据示例实施例的操作网关的示例方法的流程图,该网关能够识别网络数据流中的应用。
图9是示出根据示例实施例的用于实现算法和执行提供基于人工智能的分层业务感知的方法的设备的电路的框图。
具体实施方式
在下面的描述中,参考形成其一部分的附图,并且在附图中通过图示的方式示出了可以实践的特定实施例。足够详细地描述了这些实施例,以使本领域技术人员能够实践这些实施例,并且应当理解,可以利用其他实施例,并且可以进行结构、逻辑、和电气改变。因此,对示例实施例的以下描述不应被认为是限制性的。
在实施例中,本文描述的功能或算法可以用软件实现。该软件可以包括存储在计算机可读介质或计算机可读存储设备上的计算机可执行指令,诸如一个或多个非暂时性存储器或本地或联网的其他类型的基于硬件的存储设备。此外,这些功能对应于模块,其可以是软件、硬件、固件、或其任何组合。可以根据需要在一个或多个模块中执行多种功能,并且所描述的实施例仅是示例。可以在数字信号处理器、ASIC、微处理器或在诸如个人计算机、服务器、或其他计算机系统之类的计算机系统上运行的其他类型的处理器上执行该软件,从而将该计算机系统转变为专门编程的机器。
计算机可读非暂时性介质包括所有类型的计算机可读介质,包括磁存储介质、光存储介质、和固态存储介质,并且特别地排除信号。应该理解的是,该软件可以被安装在如本文所教导的处理事件流的设备中并与设备一起出售。可替代地,可以获取软件并将其加载到此类设备中,包括经由盘介质或从任何方式的网络或分发系统获取软件,包括例如从软件创建者拥有的服务器或从软件创建者不拥有但由软件创建者使用的服务器获取软件。例如,该软件可以存储在服务器上,以便通过互联网进行分发。
在各个实施例中,可以实施基于AI的分层业务感知(service awareness,SA)引擎,以提高SA准确度,实现识别业务的短推理时间,并实现下一代移动网络中的实时部署。AI是包括多个子领域的机器智能,包括机器学习和各种形式的神经网络。AI实际上包括机器对人类智能过程的模拟,其中,这些过程包括学习(获取信息和使用信息的规则)、推理(使用规则得出近似或确定的结论)、以及自我校正。业务感知是对正在处理的流量流中携带的业务类型的识别。业务感知引擎是实现业务感知的机制。提供了将应用分类为解码等效类(decoder equivalent class,DEC)的框架。DEC对应于映射到AI模型的一类流量,该AI模型关联于与该类流量有关的参数。通过为每个单独的DEC分配具有与该单独DEC相关联的参数的AI模型,相比于单个AI模型用于所有对应的流量类别,可以实现对每个DEC的AI模型简化。为每个单独的DEC实施AI模型可以减少训练时间和推理时间,并且实现高准确度。上述框架可以包括AI模型的基于云的训练、集中式模型库、以及每网关(gateway,GW)部署,以实现快速响应时间并满足核心网要求。
图1示出了基于AI的分层SA引擎的高层架构的示例的实施例。在该附图中,基于分层SA引擎的架构用于第五代(fifth generation,5G)无线网络100。5G网络100可以包括云105,云105与多个下一代节点B(next generation Node B,gNB)132-1、132-2…132-R和多个网关120-0、120-1、120-2...120-M通信。节点B是用于表示通用移动通信系统(universalmobile telecommunications system,UMTS)术语中的基站的术语。节点B负责移动用户和网络的固定部分之间的无线链路。在5G的术语中,网关可以称为UPF,UPF是用户面功能(user plane function,UPF)的简称。用户面功能支持促进用户面操作的特征和能力,例如包路由和转发、包检测、QoS处理、策略执行、数据缓存、以及到数据网络的互连等。UPF 120-0可以设为云105的一部分,并且可以耦合到GiLAN,GiLAN是业务的运营商主机。
基于AI的分层SA引擎可以包括具有相关联参数的AI训练模型115-1、115-2、115-3...115-N以及推理(inference,IF)模型。具有相关联参数的AI训练模型可以部署在云105或其他集中位置,IF模型可以部署在网关120-0、120-1、120-2...120-M。在5G网络中,UPF可以部署在移动核心网中或部署在多接入边缘计算(multi-access edge computing,MEC)环境中。MEC是一种网络架构的方式,能够在网络(例如但不限于蜂窝网络)的边缘实现计算能力和信息技术(information technology,IT)业务环境。可以实施MEC以更接近于网络客户而运行应用并执行相关处理任务,这可以减少网络拥塞和提高应用性能。可以在蜂窝基站或其他边缘节点实施MEC技术,并且MEC技术能够为客户灵活且迅速地部署新应用和业务。组合信息技术和电信联网的元素,MEC还允许蜂窝运营商开放其无线接入网(radio accessnetwork,RAN)以对第三方(例如应用开发者和内容提供商)进行授权。
如本文所教导的,分层SA引擎基于DEC进行操作。感兴趣应用可以基于其特征被分类为不同的DEC。来自每个DEC的应用可以经由AI模型加上该AI模型的参数进行分类。AI模型的输出可以是可以在网关中使用的最终分类的应用,但还可以进行训练以用于更新。多个AI模型115-1、115-2、115-3...115-N(其可以是SA引擎的一部分)可以用于向UPF 120-0、120-1、120-2...120-M提供IF模型,其中,这些IF模型可以根据持续被训练的AI模型115-1、115-2、115-3...115-N进行更新。在UPF 120-0、120-1、120-2...120-M,IF模型可以用于识别活动流量(live traffic)中的应用,以允许运营商针对在活动流量中识别的应用提供业务处理。UPF 120-0、120-1、120-2...120-M可以提供实时应用数据以用于AI模型115-1、115-2、115-3...115-N的继续训练。可以实施DEC控制器110以至少针对DEC操作管理多个UPF 120-0、120-1、120-2...120-M和多个AI模型115-1、115-2、115-3...115-N。
图2示出了基于DEC的分类框架的示例的实施例。多个应用212可以被分类为多个不同的DEC 213-1、213-2、213-3...213-N。DEC 213-1可以与AI模型215-1加参数216-1相关。DEC 213-2可以与AI模型215-2加参数216-2相关。DEC 213-3可以与AI模型215-3加参数216-3相关。DEC 213-N可以与AI模型215-N加参数216-N相关。每个DEC可以对应于不同的应用源。例如,DEC(1)213-1可以被分配给来自GoogleTM的应用。DEC(2)213-2可以被分配给来自FacebookTM的应用。DEC(3)213-3可以被分配给用于传输层安全性(TLS)的应用。DECs213-N可以被分配给混杂应用。来自一个源的所有应用可以是一个DEC的一部分。例如,所有Google应用可以被分配给一个DEC。
在一些实例中,两个或更多个DEC可以共享同一模型,但其参数可以是不同的。参数是用于定义或分类AI模型中的特定应用的特征。参数可以包括超参数。超参数的值是在特定AI模型开始训练(训练即学习过程)之前设置的。该特定AI模型的其他参数的值是经由训练导出的,即,给定这些超参数,训练过程学习附加参数或修改来自特定AI模型的数据输入的参数。这一结构提供了分层结构,其中,应用按应用源被分类成DEC,每个DEC与AI模型相关联,该AI模型可以具有用于该应用源的不同应用的参数。
通过将感兴趣应用划分为小的DEC,可以实施用于每个类的AI模型,该AI模型相对于解决多个类的AI模型减少了复杂度。例如,DEC(1)213-1可以被分配给来自GoogleTM的应用,仅解决Google应用。这种简化可以减少训练时间和推理时间,同时实现高准确度。现有研究表明,随着应用数量的增加,用于这些应用的单个AI模型变得更加复杂,训练时间和推理时间也增加,并且准确度变低。
不同的DEC可以使用不同的AI模型。例如,如果能够毫无疑义地识别来自应用提供商的一组给定应用,则传统的随机森林(random forest,RF)算法(其为可以用于分类和回归分析的有监督学习算法)可以很好地解决这些类型的应用。在其他情况下,来自应用提供商的应用使用具有相同统一资源定位符(uniform resource locator,URL)的相同CDN服务器,则传统的AI模型可能不适合这种类型的应用。研究表明,长短期记忆(long short-termmemory,LSTM)网络或一维(one dimensional,1D)卷积神经网络(convolutional neuralnetwork,CNN)可能是更适合的技术,其中,LSTM是由LSTM单元组成的一种循环神经网络(recurrent neural network,RNN)。另外,随着加密流量的增长,传统AI模型可能不满足由加密提供的挑战。传统AI模型可以包括RF、SAE(堆栈自编码器,Stacked AutoEncoder)、集成学习技术等。LSTM和1D CNN可以很好地检测序列数据,并且,基于初始发明人研究,这些技术比其他技术更适合执行加密流量分析。然而,LSTM和1D CNN在应用数量增加时可能表现得不好。如本文所教导的,可以实施分层方法以缩减每个模型处理的应用数量。分层方法的第一层可以针对应用类别的分类,第二层可以使用AI技术以对给定类别下的单个应用进行分类。该AI技术可以是LSTM、1D CNN、或其他AI技术。第一层的算法可以包括使用正则表达式技术、基于策略的技术、甚至某些简单的机器学习算法。
在创建图1的架构100的AI模型集合114中的AI模型115-1、115-2、115-3...115-N时,可以实现多种不同类型的AI,这些AI可以包括机器学习(machine learning,ML)程序。架构100的工作流程序可以包括来自UPF 120-0、120-1、120-2...120-M的用于云105中的AI模型115-1、115-2、115-3...115-N的数据流以及来自云105中的AI模型115-1、115-2、115-3...115-N的用于UPF 120-0、120-1、120-2...120-M的数据流。多个UPF 120-0、120-1、120-2...120-M可以持续地将相关的实时应用数据馈入云中的相应训练AI模型115-1、115-2、115-3...115-N。上述持续馈入可以是连续馈入、周期地馈入、轮询地馈入,或可以以某些其他形式的循环方式提供馈入。为了实现这种能力,可以构建每个UPF内的模块以根据DEC调度流。这里的模块是存储器部件中的多个不同但相关的软件单元,根据这些软件单元可以构建程序,或在这些软件单元中可以分析复杂的活动。上述模块通常包括由与存储器通信的一个或多个处理器执行的指令,并且可以包括与相关的软件单元相关联的硬件。
对于能够被持续训练的AI模型,AI模型集合114中的AI模型115-1、115-2、115-3...115-N也是AI训练模型115-1、115-2、115-3...115-N。AI模型115-1、115-2、115-3...115-N中的多个模型可以并行运行,以利用云105的多核CPU架构来处理多个DEC。使用来自UPF 120-0、120-1、120-2...120-M的相关实时应用数据,AI训练模型115-1、115-2、115-3...115-N可以生成IF模型。IF模型部署在UPF 120-0、120-1、120-2...120-M处。随着相关实时应用数据被持续地馈入AI训练模型115-1、115-2、115-3...115-N,AI训练模型115-1、115-2、115-3...115-N可以基于流量更新来保持更新IF模型。如果IF模型(作为相应AI模型的输出)通过AI训练模型115-1、115-2、115-3...115-N获得了更新,则更新后的IF模型可以从云105推送到UPF 120-0、120-1、120-2...120-M。在各个实施例中,UPF 120-0、120-1、120-2...120-M中的某个UPF与AI模型集合的关系可以与其他UPF不同。UPF的这种独立关系可以包括从AI模型集合114生成的、在该UPF中设置和更新的IF模型的数量,该数量与在UPF 120-0、120-1、120-2...120-M中的其他UPF中设置和更新的IF的数量不同。在其他实施例中,UPF 120-0、120-1、120-2...120-M中的每个UPF可以接收源自AI模型集合114的同一组IF模型。
图3是用于SA引擎的基于云或集中式AI模型的示例实施方式的实施例的表示。AI训练模型315-1、315-2...315-N的AI模型集合可以设置在云305中。设置在云305中的AI模型集合314可以由设置在图1的云105中的AI模型集合114来实现,或者等于或类似于AI模型集合114。除了AI模型集合314以外,云305可以包括流调度器312、模型库318、以及GW部署模块317。
流调度器312可以是DEC驱动的流调度器,并且可以实现为云305中的模块。在接收到活动流量时,流调度器模块312可以从接收的活动流量获得DEC信息。上述获得可以包括使用多种公共解析技术中的一种或多种来解析接收的活动流量。机器学习算法可以用于推导该DEC信息的应用类别。基于获得的DEC信息,流调度器模块312可以将输入的活动流量馈入合适的AI训练模型。要接收输入的活动流量的合适AI训练模型是与该DEC信息中标识的DEC相关的模型。例如,对于接收到的一组包,一些包可以包括标识与一个源的应用相关联的DEC的信息,其他包可以包括标识与其他源的应用相关联的DEC的信息。
基于流分配器312获得的DEC信息的结果,AI模型集合314中的每个AI训练模型315-1、315-2…315-N接收云305所接收的数量流量的一部分,作为来自流分配器312的单独馈入。每一部分与AI模型集合314中的AI模型相关联,该AI模型对应于从活动流量中获得的DEC信息中发现的DEC。在接收来自流分配器312的输入时,AI模型集合314中的每个AI模型可以导出对应于与该AI模型相关联的DEC的IF模型。该IF模型是用于识别业务和该业务的特定应用以及用于处理该特定应用的模型。AI模型集合314中的AI模型导出IF模型可以基于与该AI模型相关联的DEC的历史数据以及与该DEC相关联的活动流量。给定相关联的DEC,AI训练模型315-1、315-2...315-N中的每个AI训练模型导出对应的IF模型。
AI训练模型315-1、315-2...315-N的输出可以存储在模型库(model repository,MR)318中。AI训练模型315-1、315-2...315-N的输出将用作一个或多个UPF的IF模型。MR318可以被构造为执行多个功能。通过AI训练模型315-1、315-2...315-N接收与关联于AI训练模型315-1、315-2...315-N的DEC相关的活动流量,AI训练模型315-1、315-2...315-N使用新接收的活动流量和历史数据生成新的输出以更新IF模型。当AI训练模型315-1、315-2...315-N被更新从而得到更新的IF模型时,MR 318可以触发将IF模型的更新部署到与IF模型对应的UPF,或者将更新的IF模型部署到与IF模型对应的UPF。当新的UPF加入由云305服务的网络时,可以为新的UPF从MR 318提取IF模型。提取的IF模型可以是最新的IF模型。在各个实施例中,MR 318可以维持一段时间内的AI训练模型315-1、315-2...315-N的多个版本,以提供历史数据。
GW部署模块317可以与MR 318交互以将存储在MR 318中的一个或多个IF模型部署到一个或多个UPF。GW部署模块317可以基于每UPF将一个或多个IF模型部署到UPF。当UPF部署在由可由云305操作的网络定义的域中时,关于该新部署的UPF的信息可以用作该GW部署模块317的输入。提供的信息可以包括关于IF模块的通信被传输到部署的UPF的方式的信息。GW部署模块317可以将一个或多个最新的IF模型更新推送到UPF。
图4是可以与云405一起操作的示例UPF网关420的实施例,其中,AI模型415-1、415-2...415-N设置在云405中。AI训练模型415-1、415-2...415-N可以设置在云405中,并且可以由设置在图1的云105中的AI训练模型115-1、115-2...115-N实现,或等同于或类似于设置在图1的云105中的AI训练模型115-1、115-2...115-N。UPF 420或等同于或类似于UPF 420的UPF可以实现为图1的UPF 120-0、120-1,120-2...120-M中的一个或多个。UPF420可以包括DEC分类(DEC classification,DECC)模块425、流量转向模型426、以及IF模型427。
DECC模块425提供了基于策略提供的信息将感兴趣流分类成DEC的机制。这里,策略包括待分类的应用类型的说明。例如,如果来自应用源(例如Google)的应用是感兴趣应用,则DECC模块425可以将流分类到定义了DEC的Google应用组中。DECC模块415可以基于域名系统(domain name system,DNS)消息经由正则表达式检查执行分类。DNS是用于计算机、业务、或与互联网或专用网络连接的其他资源的分层分散式命名系统,其中,DNS将各种信息与分配给每个参与的实体的域名相关联。正则表达式可以输入作为命令的一部分,并且可以是由表示用于匹配的输入字符串的符号、字母、和数字组成的模式。将字符串匹配到特定模式称为模式匹配。为了识别DEC以进行分类,也可以应用模式识别或机器学习。
基于DECC模块425执行的DEC分类的结果,流量转向模块426可以选择性地将感兴趣流发送到云405中的AI训练模型415-1、415-2...415-N或发送到集中位置并发送到UPF420中的IF模块427。流量转向可以是DEC驱动的。在被发送以由AI训练模块415-1、415-2...415-N使用的流量中,DEC信息可以添加到发送的流量。在被发送用于推理模块427的流量中,该流量可以根据在DECC模块425的操作中识别的DEC进行划分。为了减少被发送以由AI训练模块415-1、415-2...415-N使用的流量中的开销,仅感兴趣流的一部分被发送到训练模块415-1、415-2...415-N。对于发送给IF模块427的感兴趣流,与每个感兴趣流相关联的DEC信息也与感兴趣流一起发送给IF模块427,以由本地IF模型428-1、428-2...428-N使用。UPF 420中的IF模型的数量可以等于云405中的AI模型的数量。在一些UPF中,IF模型的数量可以少于云405中的AI模型的数量。在与AI模型的另一集合相关联的一些UPF中,IF模型的数量可以大于云405中的AI模型的数量,其中,额外的IF模型可以用于不同的源。
IF模块427可以将来自流量转向模块426的输入流调度到IF模型428-1、428-2...428-N中的对应IF模型。另外,IF模块427可以管理IF模型428-1、428-2...428-N。在从云405接收到对特定IF模型的更新时,IF模块427可以更新该特定IF模型。接收的上述更新可以是对该特定IF模型的各部分的更新,或是该特定IF模型的新版本。除了UPF 420中的IF模型的更新以外,IF模块427还可以参与以下中的一项或多项:创建UPF 420中的IF模型、以及从UPF删除IF模型。
图5是示例DEC控制器510的实施例的图示,该示例DEC控制器510与AI模型515-1...515-N交互并与多个UPF 520-0、520-1、520-2...520-M交互。DEC控制器510可以驻留在云505或集中位置中。AI模型可以设置在云505中,并且可以通过图1中的设置在云105中的AI训练模型115-1、115-2...115-N、图3中的设置在云305中的AI训练模型315-1、315-2...315-N、以及图4中的设置在云405中的AI训练模型415-1、415-2...415-N之一来实现,或者可以等同于或类似于以上AI训练模型之一。UPF 520-0、520-1、520-2...520-M可以实现为等同于或类似于图4的UPF 410,并且可以由图1中的UPF 120-0、120-1、120-2...120-M来实现,或等同于或类似于图1中的UPF 120-0、120-1、120-2...120-M。DEC控制器510可以在云505中实现。
DEC控制器510可以管理多个UPF 520-0、520-1、520-2...520-M和多个AI模型515-1...515-N。多个UPF 520-0、520-1、520-2...520-M中的每个UPF可以包括DEC分类模块525,DEC分类模块525基于识别的DEC对输入流量进行分类,并为IF模块527中的IF模型528-1、528-2…528-N提供输入流量以及DEC信息。DEC分类模块525、IF模型528-1、528-2…528-N、以及IF模块527可以实现为等同于或类似于图4中的DEC分类模块425、IF模型428-1、428-2…428-N、以及IF模型427。
DEC控制器可以获得关于感兴趣应用以及用于该感兴趣应用的所需AI模型的输入。该所需AI模型的参数可以包括在关于AI模型的输入中。上述信息可以由与云505的设备(instrument)相关联的用户接口提供。使用该信息,DEC控制器510可以在云505中创建AI模块,其中创建的AI模型对应于感兴趣应用。例如,AI模型515-1...515-N可以是由DEC控制器510创建的。在创建时,AI模型是训练AI模型,并且,在阈值数量的训练之后,训练AI模型变成操作/推理AI模型。然而,可以向操作AI模型提供可以用于进一步训练该操作AI模型的数据,使得该操作模型也是训练AI模型。训练AI模型515-1...515-N提供输出,这些输出用作一个或多个UPF 520-0、520-1、520-2...520-M中的IF模型428-1、428-2…428-N。
通过设置关于待识别应用以及该应用所映射到的相关联DEC的信息,DEC控制器510可以相对于应用识别管理UPF520-0,520-1、520-2...520-M。该信息可以包括用于具有相关联DEC的每个应用的所需规则。DEC控制器510可以提供发送到DEC分类模块525的信息,以在UPF处的DEC分类模块525中设置与对应于该UPF的DEC有关的规则。由DEC控制器510输入DEC分类模块525中的规则可以基于每应用类别和/或基于每UPF。DEC控制器510还可以操作以在IF模块527中创建IF以及在IF模块中删除IF(例如,通过控制此类操作)。
如本文所教导的,可以利用其他附图中的相应结构的特征来实现在每个附图1-5中讨论的结构。另外,如本文所论述的,UPF中的单独模块可以被集成到UPF中的单个模块中,并且如本文所讨论的,云中的单独模块可以被集成到云中的单个模块中。例如,图3的流调度器312可以与图1的DEC控制器110或图5的DEC控制器510集成到单个模块中。GW部署模块317可以集成到MR 318中。DEC分类模块425和流量转向模块426可以集成到单个模块中。DEC分类模块425和/或流量转向模块426可以与IF模块427集成到单个模块中。
如相对图1和图4所讨论的,DEC信息可以在流量转向模块426、IF模块427、云105和405之间共享。可以随流量流一起携带DEC信息。图6示出了携带来自包头的DEC标识的方法。该包头可以是相对于当前包括在通信包中的头的可选头。添加到可选包头中的DEC信息可以在云端(例如图1的云105、图3的云305、图4的云405、以及图5的云505)和IF模块(例如图4的IF模块427和图5的IF模块527)处提取。
包括DEC信息的标识的头670可以包括在互联网地址672和时间戳674之上的栈中。头670可以布置为四个字节625-1、625-2、625-3、625-4。字节625-4的八个比特可以被分配用于溢出指示器和标志位,这取决于包。字节625-3和625-2的八个比特可以分别被分配用于指针和长度。DEC标识可以包括在字节625-1的八个比特内。字节625-1的比特0可以用于指示不复制或复制。字节625-1的比特1和2可以用于标识一个或四个可能的类:控制、保留、调试和测量、以及DEC。通过将比特1和2都设为“1”(这表示二进制的三),与三对应的比特1和2的条目可以用于标识头670提供DEC信息。在比特1和2的条目对应于三的情况下,字节625-1中的五个比特3至7提供了标识特定DEC的码。DEC信息的发射模块和具有头670的包的接收模块都可以包括表或其他存储格式,该表或其他存储格式将字节625-1中的五个比特3至7映射到特定DEC。其他格式或技术可以用于在包中提供DEC信息。
其他机制可以用于传输DEC信息。可以利用超文本传输协议(hypertext transferprotocol,HTTP)的特征。当使用HTTP协议检索某个对象时,该协议允许在发送时提供关于该对象的信息。对于外部通信,提供了支持以在HTTP元数据中启用DEC信息。元数据可以用作属于给定DEC的包的HTTP可选头。例如,属于一个或多个应用的源的包可以使该源的名称在HTTP可选自定义头中列出。例如,包的可选自定义头可以包括DEC ID:源名称。可以向包添加值以指示该包具有某些属性。云内的模块可以被构造为支持这样的机制,以读取用于AI训练模型的DEC信息。该模块可以是DEC控制器的一部分,例如图1的DEC控制器110或图5的DEC控制器510。云内的这种模块可以是流分配器的一部分,例如图3的流分配器312。
对于关于UPF内的DEC信息共享的通信,可以使用内部消息或可选IP头。可选IP头可以等同于或类似于图6的头670。可以使用其他头格式。可以实施将DEC信息与通信流量结合的其他技术。
图7是操作系统以实现网络数据流中的应用的识别的示例方法700的实施例的流程图。方法700可以实现为计算机实现的方法,该方法使用包括指令的存储器以及与存储器通信的一个或多个处理器实现,其中,该一个或多个处理器执行存储器的指令。在操作710中,获得来自从网络接收的数据流量的DEC信息。DEC对应于映射到AI模型的一类流量,该AI模型关联于与该类流量有关的参数。上述获得可以包括使用多个公共解析技术中的一个或多个技术来解析接收到的数据流量。获得DEC信息可以包括读取包头以提取DEC信息、读取具有在HTTP自定义头中列出的DEC的包、或者使用机器学习以推导DEC信息。
在操作720,基于获得的DEC信息的结果,将接收的数据流量的各部分馈入AI模型集合,其中,每个部分与AI模型集合中的AI模型相关联。在操作730,使用AI模型集合中的每个AI模型,导出对应于与每个AI模型相关联的DEC的IF模型,其中,该IF模型识别业务以及该业务的特定应用。由其对应AI模型导出的每个IF模型可以存储到模型库。在740,将一个或多个IF模型部署到一个或多个UPF网关。
方法700的变型或类似于方法700的方法可以包括多个不同的实施例,这些不同的实施例可以根据这些方法的应用和/或在其中实现这些方法的系统的架构进行组合。这样的方法可以包括在生成IF模型的更新时,触发将IF模型更新部署到一个或多个UPF网关。生成IF模型更新可以由对应的AI模型执行。变型可以包括从新增的UPF网关接收UPF网关信息。该UPF网关信息可以包括关于与该UPF网关进行通信的方式的信息。
方法700的变型或类似于方法700的方法可以包括执行作为DEC控制器的操作以管理多个UPF网关和AI模型集合。执行作为DEC控制器的操作可以包括:获取关于感兴趣应用的输入以及与该感兴趣应用相关联的AI模型的输入;在系统中创建对应于与感兴趣应用相关联的参数的AI模型,以将该AI模型包括在AI模型集合中;以及在一个或多个UPF网关处设置规则以包括感兴趣应用,以在一个或多个UPF网关处进行DEC分类。执行作为DEC控制器的操作可以包括在UPF网关中创建或删除IF模型。
图8是操作网关的示例方法800的实施例的流程图,该网关能够识别网络数据流中的应用。方法800可以实现为计算机实现的方法,该方法使用包括指令的存储器和与存储器通信的一个或多个处理器实现,其中,该一个或多个处理器执行存储器的指令。在操作810,在网关中,将从自网络接收的数据流量流分类成DEC。如前所述,DEC对应于映射到AI模型的一类流量,该AI模型关联于与该类流量有关的参数。数据流量流的分类可以基于存储的策略中的信息,该策略指定要分类的应用类型。在应用类别分类的一个选项中,数据流可以基于域名系统消息经由正则表达式检查被分类成DEC。可以实现用于应用类别分类的其他机制。
在820,基于流的分类,将上述流选择性地引导至网关外部的系统中的AI模型。到AI模型的流可以包括单个流的包头(具有与该单个流相关联的DEC信息)或者单个流的超文本传输协议(HTTP)自定义头(具有与该单个流对应的DEC)。选择性地将流引导至AI模型可以包括仅将流的一部分发送到AI模型。
在830,基于流量的分类,将上述流与DEC信息一起发送到网关中的IF模型集合,该DEC信息对应于IF模型集合中的每个IF模型,其中,每个IF模型识别业务和该业务的特定应用。在840,响应于接收到每个IF模型的更新,管理IF模型集合中的每个IF模型。
在各个实施例中,非暂时性机器可读存储设备(例如计算机可读非暂时性介质)可以包括存储在其上的指令,当由机器的部件执行时,该指令使得该机器执行操作,其中,该操作包括一个或多个特征,这些特征类似于或等同于相对于方法700、方法800、这些方法的变型、和/或本文教导的其他方法的特征所描述的(例如与图1-图6相关联的)方法和技术的特征。这些指令的物理结构可以在一个或多个处理器上操作。例如,执行这些物理结构可以使机器执行包括以下的操作:使用一个或多个处理器获得来自从网络接收的数据流量的DEC信息,其中,DEC对应于映射到AI模型的一类流量,该AI模型关联于与该类流量有关的参数;基于获得的DEC信息的结果,使用一个或多个处理器将接收的数据流量的各部分馈入AI模型集合,每一部分与AI模型集合中的AI模型相关联;使用AI模型集合中的每个AI模型导出对应于与每个AI模型相关联的DEC的IF模型,该IF模型识别业务以及该业务的特定应用;以及使用一个或多个处理器将一个或多个IF模型部署到一个或多个UPF网关。
在另一示例中,使用另一机器的一个或多个处理器,执行该另一机器的非暂时性机器可读存储设备的物理结构可以使该机器执行包括以下的操作:在网关中将从自网络接收的数据流量流分类成DEC,其中,DEC对应于映射到AI模型的一类流量,该AI模型关联于与该类流量有关的参数;基于流的分类,选择性地将流引导至网关外部的系统中的AI模型;基于流的分类,将流与对应于IF模型集合中的每个IF模型的DEC信息一起发送到网关中的IF模型集合,每个IF模型识别业务以及该业务的特定应用;以及响应于接收到每个IF模型的更新,管理IF模型集合中的每个IF模型。
图9是示出根据本文的教导的用于实现算法和执行提供基于AI的分层业务感知的方法的设备的电路的框图。图9示出了设备900,设备900具有与总线920耦合的存储指令的非暂时性存储器901、高速缓存907、和处理单元902。处理单元902可包括可操作地与非暂时性存储器901和高速缓存907通信的一个或多个处理器。一个或多个处理器可以被构造为执行指令以根据本文教导的任何方法操作设备900。设备900可以在云中构造,云可与一个或多个UPF一起操作(该一个或多个UPF与一个或多个网络相关联),以使得能够在一个或多个UPF中进行应用识别以进行业务感知。可以在UPF中构造设备900以结合云提供应用识别以进行业务感知。
在云设备(cloud instrumentation)中,上述一个或多个处理器可以被构造为执行指令以:从自网络接收的数据流量中获得DEC信息,其中,DEC对应于映射到AI模型的一类流量,该AI模型关联于与该类流量有关的参数;基于获得的DEC信息的结果,将接收的数据流量的各部分馈入AI模型集合,每一部分与AI模型集合中的AI模型相关联;使用AI模型集合中的每个AI模型导出对应于与每个AI模型相关联的DEC的IF模型,该IF模型识别业务以及该业务的特定应用;以及将一个或多个IF模型部署到一个或多个UPF网关。如本文所教导的,云仪器中的一个或多个处理器可以执行其他基于云的功能。
在UPF中,上述一个或多个处理器可以被构造为执行指令以:将从自网络接收的数据流量流分类成解码等效类(DEC),其中,DEC对应于映射到人工智能(AI)模型的一类流量,该AI模型关联于与该类流量有关的参数;基于流的分类,选择性地将流引导至网关外部的系统中的AI模型;基于流的分类,将流连同对应于推理模型集合中的每个推理模型的DEC信息一起发送到网关中的推理模型集合,每个推理模型识别业务以及该业务的特定应用;以及响应于接收到每个推理模型的更新,管理推理模型集合中的每个推理模型。如本文所教导的,UPF中的一个或多个处理器可以执行其他基于UPF的功能。
设备900可以包括通信接口916,该通信接口916可操作为在与设备900所关联的云相关联的设备和系统之间进行通信。通信接口916可以是数据总线的一部分,该数据总线可以用于接收数据流量以进行处理。
非暂时性存储器901可以实现为机器可读介质,例如计算机可读介质,并且可以包括易失性存储器914或非易失性存储器908。设备900可以包括或可以访问包括多种机器可读介质的计算环境,机器可读介质包括作为计算机可读介质,例如易失性存储器914、非易失性存储器908、可移动存储器911、或不可移动存储器922。这样的机器可读介质可与由设备900执行的一个或多个程序918中的指令一起使用。高速缓存907可实现为单独的存储器部件,或者易失性存储器914、非易失性存储器908、可移动存储器911、或不可移动存储922中的一个或多个的一部分。存储器可以包括随机存取存储器(random access memory,RAM)、只读存储器(read only memory,ROM)、可擦可编程只读存储器(erasableprogrammable read-only memory,EPROM)、电可擦可编程只读存储器(electricallyerasable programmable read-only memory,EEPROM)、闪存或其他存储技术、光盘只读存储器(compact disc read-only memory,CD ROM)、数字通用磁盘(digital versatiledisks,DVD)或其他光盘存储设备、磁带、盒式磁带、磁带、磁盘存储设备或其他磁性存储设备、或任何其他能够存储计算机可读指令的介质。
设备900可以包括或可以访问包括输入接口926和输出接口924的计算环境。输出接口924可以包括诸如触摸屏的显示设备,触摸屏也可以用作输入设备。输入接口926可以包括触摸屏、触摸板、鼠标、键盘、照相机、一个或多个设备特定的按钮、集成在设备900中或经由有线或无线数据连接耦合到设备900的一个或多个传感器、以及其他输入设备中的一个或多个。
设备900可以使用通信连接在联网环境中操作以连接到一个或多个远程的其他设备。这样的远程设备可以与设备900相同或相似,或者可以是具有与设备900的特征相似或相同的特征或本文所教导的其他特征的不同类型的设备,以处理业务感知处理。远程设备可以包括计算机,例如数据库服务器。这样的远程计算机可以包括个人计算机(personalcomputer,PC)、服务器、路由器、网络PC、对等设备、或其他公共网络节点等。通信连接可以包括局域网(local area network,LAN)、广域网(wide area network,WAN)、蜂窝网络、WiFi、蓝牙、或其他网络。
机器可读指令(例如存储在计算机可读介质上的计算机可读指令)可以由设备900的处理单元902执行。硬盘驱动器、CD-ROM、和RAM是包括非暂时性计算机可读介质(例如存储设备)的物品的一些示例。在认为载波是暂时的情况下,术语机器可读介质、计算机可读介质、和存储设备不包括载波。存储还可以包括网络存储,例如存储区域网络(storagearea network,SAN)。
在不同实施例中,设备900可以实现为不同形式的计算设备,作为诸如SDN/IoT网络之类的网络的一部分。例如,设备900可以是智能手机、平板电脑、智能手表、其他计算设备、或具有无线通信能力的其他类型的设备,其中,如本文所教导的,这些设备包括用于进行内容项的分发和存储的组件。诸如智能电话、平板电脑、智能手表之类的设备以及具有无线通信能力的其他类型的设备通常被统称为移动设备或用户设备。另外,这些设备中的一些可以被认为是用于实现其功能和/或应用的系统。此外,尽管各种数据存储元件被示为设备900的一部分,但是该存储还可以或可替代地包括可经由网络访问的基于云的存储,例如基于互联网或服务器的存储。
此外,本文中的机器可读存储设备(例如计算机可读非暂时性介质)是存储由各个设备内的物理结构表示的数据的物理设备。这样的物理设备是非暂时性设备。机器可读存储设备的示例可以包括但不限于只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储设备、光学存储设备、闪存或其他电子的、磁性的和/或光学存储设备。机器可读设备可以是机器可读介质,诸如图9的存储器901。诸如“存储器”、“存储器模块”、“机器可读介质”、“机器可读设备”之类的术语以及类似术语应包括所有形式的存储介质,这些介质的形式为单个介质(或者设备)或多个介质(或设备)。例如,这样的结构可以被实现为集中式数据库、分布式数据库、相关联的高速缓存、和服务器;一个或多个存储设备,例如存储驱动器(包括但不限于电子、磁性、和光盘驱动器和存储机制),以及存储设备或模块的一个或多个实例(无论是主存储器;高速缓存(在处理器内部或外部);或缓冲区)。诸如“存储器”、“存储器模块”、“机器可读介质”、和“机器可读设备”之类的术语应被认为包括能够存储或编码指令序列的任何有形非暂时性介质,该指令序列由机器执行并且使机器执行本文所教导的任何一种方法。参考“机器可读设备”、“介质”、“存储介质”,“设备”、或“存储设备”使用的术语“非暂时性”明确包括所有形式的存储驱动器(光、磁、电等)和所有形式的存储设备(例如DRAM、(所有存储设计的)闪存、SRAM、MRAM、相变等)以及设计用于存储任何类型的数据以供以后检索的所有其他结构。
在示例实施例中,设备900包括获得模块、馈入模块、导出模块、以及部署模块,该获得模块从自网络接收的数据流量中获得解码等效类(DEC)信息,该馈入模块基于获得的DEC信息的结果将接收的数据流量的各部分馈入人工智能(AI)模型集合,每一部分与AI模型集合中的AI模型相关联,该导出模块使用AI模型集合中的每个AI模型导出对应于与每个AI模型相关联的DEC的推理模型,该推理模型识别业务以及该业务的特定应用,该部署模块将一个或多个推理模型部署到一个或多个用户面(UPF)网关。在一些实施例中,设备900可以包括其他或额外的模块,以执行实施例中描述的任一步骤或其组合。此外,如任何附图中所示或任何权利要求中所引用的方法的任何其他或替代实施例或方面也被认为包括相似的模块。
在各个实施例中,可以实施系统以实现数据流量中的应用识别,以进行业务感知。此类系统可以包括存储器(其包括指令)和与存储器通信的一个或多个处理器。该一个或多个处理器可以执行指令以:从自网络接收的数据流量中获得DEC信息,其中,DEC对应于映射到AI模型的一类流量,该AI模型关联于与该类流量有关的参数;基于获得的DEC信息的结果,将接收的数据流量的各部分馈入AI模型集合,每一部分与AI模型集合中的AI模型相关联;使用AI模型集合中的每个AI模型导出对应于与每个AI模型相关联的DEC的IF模型,该IF模型识别业务以及该业务的特定应用;以及将一个或多个IF模型部署到一个或多个UPF网关。
此类系统的变型或类似系统可以包括多个可以组合的不同实施例,这取决于此类系统的应用和实施此类系统的架构。此类系统可以包括一个或多个处理器,该一个或多个处理器用于执行指令以:在生成IF模型更新时,触发将IF模型更新部署到一个或多个UPF网关。该一个或多个处理器可以执行指令以:从新增的UPF网关接收UPF网关信息。接收的UPF网关信息可以包括用于新增的UPF网关的通信方式信息。
此类系统的变型或类似系统可以包括指令,该指令可以由一个或多个处理器执行,以执行作为DEC控制器的操作,以管理多个UPF网关和AI模型集合。作为DEC控制器的操作可以包括以下操作:获得关于感兴趣应用的输入以及与该感兴趣应用相关联的AI模型的输入;在系统中创建AI模型,以将该AI模型包括在AI模型集合中,该AI模型对应于与该感兴趣应用相关联的参数;以及在一个或多个UPF网关设置规则以包括该感兴趣应用,以在一个或多个UPF网关处进行DEC分类。作为DEC控制器的操作可以包括在UPF网关中创建或删除IF模型的操作。
此类系统的变型或类似系统可以包括通过以下执行DEC信息的获得:使用多种公共解析技术中的一种或多种技术来解析接收的数据流量。DEC信息的获得可以通过读取包头以提取DEC信息来执行。其他获得技术可以包括使用机器学习以推导DEC信息,或读取具有在超文本传输协议(HTTP)自定义头中列出的DEC的包。
在各个实施例中,可以实施UPF,以用于数据流量中的应用识别,以进行业务感知。这样的UPF可以包括存储器(其包括指令)以及与该存储器通信的一个或多个处理器。该一个或多个处理器可以执行指令以:将从自网络接收的数据流量流分类成DEC,其中,DEC对应于映射到AI模型的一类流量,该AI模型关联于与该类流量有关的参数;基于流的分类,选择性地将流引导至网关外部的系统中的AI模型;基于流的分类,将流发送至网关中的IF模型集合,并发送与IF模型集合中的每个IF模型对应的DEC信息,每个IF模型识别业务以及该业务的特定应用;以及响应于接收到IF模型的更新,管理IF模型集合中的每个IF模型。
此类UPF的变型或类似UPF可以包括多个可以组合的不同实施例,这取决于此类UPF的应用和实施此类UPF的架构。此类UPF可以包括一个或多个处理器,该一个或多个处理器用于:基于存储的策略中的信息对数据流量流进行分类,该存储的策略指定要分类的应用的类型。此类UPF可以包括用于以下的一个或多个处理器:经由正则表达式检查,基于域名系统消息将数据流分类成DEC。此类UPF可以包括用于以下的一个或多个处理器:通过将流的一部分发送到AI模型,选择性地将流引导至AI模型。此类UPF可以包括:到AI模型的流包括单个流的包头,该包头具有与该单个流相关联的DEC信息,或者,到AI模型的流包括单个流的超文本传输协议(HTTP)自定义头,该HTTP自定义头具有与该单个流对应的DEC。
如本文所教导的,使用基于AI的分层SA引擎实施的设备、系统、以及方法可以提供网络中的应用的实时识别。该实施方式可以提供网络中的SA部署。此类网络可以是移动核心网。即使网络中支持的移动应用的数量增加,该实施方式也可以实现高准确度的实时识别。
在分层SA引擎中,可以使用与AI模型和参数对应的DEC来识别应用。在网络中的网关中使用DEC的结果可以用于进一步训练AI模型,其中,AI模型又向网络中的网关提供IF模型。网关可以使用IF模型识别通信流量流中的应用,为网关处的运营商提供了对与识别的应用相关联的通信流应用业务处理的机制。网关可以按分布式方式部署在网络中。网关可以是移动网络中的UPF网关。如本文所教导的,SA引擎的结构可以允许IF模型在网关处的及时更新,提高了对通信流量流中的特定应用的实时识别能力。
尽管已经参考本公开的特定特征和实施例描述了本公开,但是显而易见的是,可以在不脱离本公开的范围的情况下对其进行各种修改和组合。因此,说明书和附图应仅被视为由所附权利要求书限定的本公开的说明,并且可以预期地涵盖落入本公开范围内的任何和所有修改、变化、组合、或等同物。
Claims (11)
1.一种网关,包括:
存储器,包括指令;以及
与所述存储器通信的一个或多个处理器,其中,所述一个或多个处理器执行所述指令以:
将从自网络接收的数据流量流分类成解码等效类(DEC);
基于所述流的所述分类,选择性地将所述流引导至所述网关外部的系统中的人工智能(AI)模型;
基于所述流的所述分类,将所述流连同与推理模型集合中的每个推理模型对应的DEC信息,发送至所述网关中的推理模型集合,每个推理模型识别业务以及所述业务的特定应用;以及
响应于接收到每个推理模型的更新,管理所述推理模型集合中的每个推理模型。
2.根据权利要求1所述的网关,其中,所述一个或多个处理器基于存储的策略中的信息对所述数据流量流进行分类,所述存储的策略指定要分类的应用的类型。
3.根据权利要求1-2中任一项所述的网关,所述一个或多个处理器经由正则表达式检查,基于域名系统消息将数据流分类成DEC。
4.根据权利要求1-2中任一项所述的网关,其中,所述一个或多个处理器通过将所述流的一部分发送到所述AI模型,选择性地将所述流引导至所述AI模型。
5.根据权利要求1-2中任一项所述的网关,其中,到所述AI模型的所述流包括单个流的包头,所述包头具有与所述单个流相关联的DEC信息,或者,所述流包括单个流的超文本传输协议(HTTP)自定义头,所述HTTP自定义头具有与所述单个流对应的DEC。
6.一种计算机实现的方法,用于操作系统以识别网络数据流中的应用,所述计算机实现的方法包括:
使用一个或多个处理器从自网络接收的数据流量获得解码等效类(DEC)信息;
基于获得的所述DEC信息的结果,使用所述一个或多个处理器将接收的所述数据流量的各部分馈入人工智能(AI)模型集合,每个部分与所述AI模型集合中的AI模型相关联;
使用所述AI模型集合中的每个AI模型导出对应于与每个AI模型相关联的DEC的推理模型,所述推理模型识别业务和所述业务的特定应用;以及
使用所述一个或多个处理器将一个或多个推理模型部署到一个或多个用户面功能(UPF)网关。
7.根据权利要求6所述的计算机实现的方法,其中,所述计算机实现的方法包括:在生成推理模型更新时,触发将所述推理模型更新部署到所述一个或多个UPF网关。
8.根据权利要求6-7中任一项所述的计算机实现的方法,其中,所述计算机实现的方法包括:从新增的UPF网关接收UPF网关信息。
9.根据权利要求6-7中任一项所述的计算机实现的方法,其中,所述计算机实现的方法包括:执行作为DEC控制器的操作以管理多个UPF网关和所述AI模型集合。
10.根据权利要求9所述的计算机实现的方法,其中,执行作为所述DEC控制器的操作包括:
获得关于感兴趣应用的输入以及与所述感兴趣应用相关联的AI模型的输入;
在所述系统中创建所述AI模型,以将所述AI模型包括在所述AI模型集合中,所述AI模型对应于与所述感兴趣应用相关联的参数;以及
在所述一个或多个UPF网关设置规则以包括所述感兴趣应用,以在所述一个或多个UPF网关处进行DEC分类。
11.根据权利要求9所述的计算机实现的方法,其中,执行作为所述DEC控制器的操作包括在UPF网关中创建或删除推理模型。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/101,092 US10708363B2 (en) | 2018-08-10 | 2018-08-10 | Artificial intelligence based hierarchical service awareness engine |
US16/101,092 | 2018-08-10 | ||
PCT/CN2019/098330 WO2020029832A1 (en) | 2018-08-10 | 2019-07-30 | Artificial intelligence based hierarchical service awareness engine |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112534777A CN112534777A (zh) | 2021-03-19 |
CN112534777B true CN112534777B (zh) | 2021-10-26 |
Family
ID=69407294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980051129.6A Active CN112534777B (zh) | 2018-08-10 | 2019-07-30 | 基于人工智能的分层业务感知引擎 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10708363B2 (zh) |
CN (1) | CN112534777B (zh) |
WO (1) | WO2020029832A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11641406B2 (en) * | 2018-10-17 | 2023-05-02 | Servicenow, Inc. | Identifying applications with machine learning |
US11824732B2 (en) * | 2018-12-28 | 2023-11-21 | Intel Corporation | Techniques for artificial intelligence capabilities at a network switch |
EP3906508B1 (en) * | 2018-12-31 | 2024-03-13 | Intel Corporation | Securing systems employing artificial intelligence |
US11461231B2 (en) * | 2019-10-18 | 2022-10-04 | International Business Machines Corporation | Fractal based content delivery network layouts |
EP4197133A1 (en) * | 2020-08-19 | 2023-06-21 | Huawei Technologies Co., Ltd. | Entities and methods for supporting distributed data analysis in a communication network |
CN112163594B (zh) * | 2020-08-28 | 2022-07-26 | 南京邮电大学 | 一种网络加密流量识别方法及装置 |
US11617093B1 (en) | 2021-03-05 | 2023-03-28 | T-Mobile Usa, Inc. | Prioritizing an issue reported by a user of a wireless telecommunication network |
CN113222170B (zh) * | 2021-03-30 | 2024-04-23 | 新睿信智能物联研究院(南京)有限公司 | 一种用于物联网ai协同服务平台的智能算法和模型 |
CN113301141B (zh) * | 2021-05-20 | 2022-06-17 | 北京邮电大学 | 人工智能支持框架的部署方法和系统 |
US11671375B2 (en) * | 2021-07-15 | 2023-06-06 | Verizon Patent And Licensing Inc. | Systems and methods for software defined hybrid private and public networking |
CN115174313A (zh) * | 2022-06-07 | 2022-10-11 | 深兰科技(上海)有限公司 | 带算力的trdp网关设备 |
CN115277073B (zh) * | 2022-06-20 | 2024-02-06 | 北京邮电大学 | 信道传输的方法、装置、电子设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106454900A (zh) * | 2016-11-01 | 2017-02-22 | 合肥工业大学 | 基于智能终端的移动通信网络用户感知分析优化系统 |
CN107463997A (zh) * | 2017-08-02 | 2017-12-12 | 来噻信息技术(上海)有限公司 | 基于大数据和机器学习实现人工智能对冲投资配置功能的模型架构系统 |
CN107682189A (zh) * | 2017-09-29 | 2018-02-09 | 锐捷网络股份有限公司 | 一种基于神经网络识别网络需求的方法及网络设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020032591A1 (en) * | 2000-09-08 | 2002-03-14 | Agentai, Inc. | Service request processing performed by artificial intelligence systems in conjunctiion with human intervention |
US8732098B2 (en) * | 2006-02-10 | 2014-05-20 | Numenta, Inc. | Hierarchical temporal memory (HTM) system deployed as web service |
US20070192267A1 (en) * | 2006-02-10 | 2007-08-16 | Numenta, Inc. | Architecture of a hierarchical temporal memory based system |
US7644052B1 (en) * | 2006-03-03 | 2010-01-05 | Adobe Systems Incorporated | System and method of building and using hierarchical knowledge structures |
CN101102207A (zh) * | 2006-07-05 | 2008-01-09 | 李树德 | 基于智能代理的开发平台 |
US8587402B2 (en) * | 2008-03-07 | 2013-11-19 | Palm, Inc. | Context aware data processing in mobile computing device |
US8700620B1 (en) * | 2010-04-27 | 2014-04-15 | Jeremy Lieberman | Artificial intelligence method and apparatus |
US8775341B1 (en) * | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US20140324395A1 (en) * | 2012-05-08 | 2014-10-30 | David Silverman | Data Driven Placemaking |
US10445507B2 (en) * | 2016-09-23 | 2019-10-15 | International Business Machines Corporation | Automated security testing for a mobile application or a backend server |
WO2018119423A1 (en) * | 2016-12-22 | 2018-06-28 | Surround. Io Corporation | Method and system for providing artificial intelligence analytic (aia) services for performance prediction |
US10878314B2 (en) * | 2017-03-09 | 2020-12-29 | Alphaics Corporation | System and method for training artificial intelligence systems using a SIMA based processor |
CN110825436B (zh) * | 2018-08-10 | 2022-04-29 | 昆仑芯(北京)科技有限公司 | 应用于人工智能芯片的计算方法和人工智能芯片 |
-
2018
- 2018-08-10 US US16/101,092 patent/US10708363B2/en active Active
-
2019
- 2019-07-30 CN CN201980051129.6A patent/CN112534777B/zh active Active
- 2019-07-30 WO PCT/CN2019/098330 patent/WO2020029832A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106454900A (zh) * | 2016-11-01 | 2017-02-22 | 合肥工业大学 | 基于智能终端的移动通信网络用户感知分析优化系统 |
CN107463997A (zh) * | 2017-08-02 | 2017-12-12 | 来噻信息技术(上海)有限公司 | 基于大数据和机器学习实现人工智能对冲投资配置功能的模型架构系统 |
CN107682189A (zh) * | 2017-09-29 | 2018-02-09 | 锐捷网络股份有限公司 | 一种基于神经网络识别网络需求的方法及网络设备 |
Also Published As
Publication number | Publication date |
---|---|
US20200053155A1 (en) | 2020-02-13 |
US10708363B2 (en) | 2020-07-07 |
CN112534777A (zh) | 2021-03-19 |
WO2020029832A1 (en) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112534777B (zh) | 基于人工智能的分层业务感知引擎 | |
US10979522B2 (en) | Data management in an edge network | |
Isyaku et al. | Software defined networking flow table management of openflow switches performance and security challenges: A survey | |
US9118638B2 (en) | Content delivery using multiple sources over heterogeneous interfaces | |
US11870649B2 (en) | Multi-access edge computing based visibility network | |
US11005965B2 (en) | Contextual services in a network using a deep learning agent | |
US11659066B2 (en) | Dynamic computation in an information centric network | |
US10187297B2 (en) | Classification with a switch | |
US20220255867A1 (en) | Enabling quality of service (qos) in information centric networking (icn) | |
Wijesekara et al. | A comprehensive survey on knowledge-defined networking | |
US11233707B2 (en) | Metadata-based information provenance | |
Sazonov et al. | Identification system model for energy-efficient long range mesh network based on digital object architecture | |
Serpanos et al. | IoT System Architectures | |
Bakonyi et al. | Classification Based Load Balancing in Content Delivery Networks | |
Seydali et al. | Streaming traffic classification: a hybrid deep learning and big data approach | |
Wu et al. | Algorithms for replica placement and update in tree network | |
US12003404B2 (en) | Information centric network protocol for federated learning | |
EP4020925B1 (en) | Information centric network protocol for federated learning | |
US20240146685A1 (en) | Capability discovery in an information centric network | |
Chahid et al. | Artificial Intelligence approaches for IoT Security: State of Art | |
Alcantara | Evaluating Flow Features for Network Application Classification | |
Gosch | Exploration of 5G Traffic Models using Machine Learning | |
Yasar et al. | Mobile sensor networks applications and confidentiality | |
Huang et al. | Ubiquitous Hierarchical Generalized-Sensor Network: Architecture and Application | |
Šimek et al. | Assignment of bachelor’s thesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |