CN111866175A - 边缘计算设备的组网,及其和后端服务器的通信方法 - Google Patents

边缘计算设备的组网,及其和后端服务器的通信方法 Download PDF

Info

Publication number
CN111866175A
CN111866175A CN202010771832.9A CN202010771832A CN111866175A CN 111866175 A CN111866175 A CN 111866175A CN 202010771832 A CN202010771832 A CN 202010771832A CN 111866175 A CN111866175 A CN 111866175A
Authority
CN
China
Prior art keywords
edge
model
partition
server
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010771832.9A
Other languages
English (en)
Inventor
律方成
金潮伟
王胜辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North China Electric Power University
Original Assignee
North China Electric Power University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North China Electric Power University filed Critical North China Electric Power University
Priority to CN202010771832.9A priority Critical patent/CN111866175A/zh
Publication of CN111866175A publication Critical patent/CN111866175A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1029Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers using data related to the state of servers by a load balancer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1014Server selection for load balancing based on the content of a request
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1031Controlling of the operation of servers by a load balancer, e.g. adding or removing servers that serve requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer And Data Communications (AREA)

Abstract

为了将程序处理适当地分配给边缘计算系统中的边缘服务器,边缘服务器被连接并与发送输入数据的一个或多个设备进行通信,并且边缘服务器包括分区信息获取单元,该分区信息获取单元从后端服务器获取优先级,所述优先级表示获取相同的分区模型的多个边缘服务器中的哪个边缘服务器优先执行该分区模型的信息,以及管理所连接和通信的设备的数量的管理单元。管理单元将设备数量与预定阈值进行比较,并根据比较结果请求其他边缘服务器更新优先级信息。

Description

边缘计算设备的组网,及其和后端服务器的通信方法
技术领域
本公开涉及边缘计算系统,尤其涉及边缘计算设备的组网,及其和后端服务器的通信方法。
背景技术
最近,使用物联网(IoT)技术构建了各种系统。这些系统通过使用云计算来收集和处理各种设备(智能手机,平板电脑终端,各种类型的传感器等)的数据。然而,存在诸如数据流量增加和设备通信延迟的问题。为此,边缘计算作为解决这些问题的技术引起了人们的关注。边缘计算是一种将小型边缘服务器分布到设备附近的位置并在每个边缘服务器(而不是云)中执行处理,以减少通信负载和延迟的发生的技术。通常,将从设备获取的数据和通过机器学习获得的用于数据分析的模型存储在边缘服务器上。
在边缘计算中,所连接的设备的放置和配置取决于各种因素而变化,例如执行用于提供需要瞬时响应的服务的处理或用于提供需要与另一系统协作的服务的处理。因此,用于数据分析的模型需要根据环境适当地分配并分配给边缘服务器。但对此目前的技术仅限于简单数据分区和存储技术,其不处理诸如预训练模型的程序的适当分配。
因此,目前仍需要一种能够将程序处理适当地分配给边缘计算系统中的边缘服务器的技术。
发明内容
鉴于上述,本说明书中公开的实施例要实现的目的之一是提供一种边缘计算系统,包括:多个边缘服务器;后端服务器,其中所述后端服务器包括模型划分单元,所述模型划分单元被配置为将模型划分为多个分区的模型,所述模型是对输入数据执行包括多个处理步骤的计算的程序;分区模型分配单元,其被配置为将所述每个分区的模型分配给一个或多个边缘服务器;优先级创建单元,其被配置为创建优先级信息,该优先级信息指示被分配了相同分区模型的多个边缘服务器中的哪个边缘服务器优先执行该分区模型;分区信息发送单元,其被配置为将所述分区模型,指示包括所述分区模型之后的处理步骤的所述分区模型的分配目的地的传送目的地信息,以及基于分区模型分配单元的分配的优先级信息发送至所述边缘服务器,每个边缘服务器都连接并与一个或多个传输输入数据的设备通信,每个边缘服务器都包括一个分区信息获取单元,该分区信息获取单元被配置为从后端服务器获取分区模型,传输目的地信息和优先级信息;管理单元,用于管理连接和通信的设备的数量;计算单元,被配置为使用所述分区模型执行计算;计算结果传输单元,用于将计算单元的计算结果传输至基于传输目的地信息和优先级信息而指定的另一台边缘服务器,管理单元将设备数量与预定阈值进行比较,以及请求其他边缘服务器根据比较结果更新优先级信息。进一步地,所述管理单元还管理其自己的服务器的资源,并根据所述资源的使用状态来请求其他边缘服务器更新所述优先级信息。
进一步地,当没有来自传送目的地的响应时,所述计算结果传送单元请求所述其他边缘服务器在所述优先级信息中降低所述边缘服务器在所述传送目的地处的优先级。
进一步地,所述分区模型分配单元向所述边缘服务器分配与每个所述边缘服务器的设备数量相对应的一定数量的分区模型。
进一步地,所述分区模型分配单元将需要输入所述输入数据的分区模型分配给与发送所述输入数据的设备连接并进行通信的边缘服务器。
附图说明
当结合附图时,根据某些示例性实施例的以下描述,本公开的以上和其他方面,特征和优点将变得更加明显,其中:
图1示出了根据实施例的概述的边缘计算系统的配置的示例框图。
图2示出了根据实施例的边缘计算系统的配置的示例框图。
图3示出了根据实施例的后端服务器和边缘服务器的硬件配置的示例框图。
图4示出了根据实施例的后端服务器的功能配置的示例框图。
图5示出了通过模型进行的数据分析处理的概况的示意图。
图6示出了根据实施例的后端服务器中的操作的示例流程图。
图7示出了分区模型管理信息的示例图。
图8示出了边缘服务器管理信息的示例图。
图9示出了初始分区模型信息的示例图。
图10示出了分配列表的示例图。
具体实施方式
以下阐述的实施例表示使得本领域技术人员能够实践本公开的必要信息,并且示出了实践本公开的最佳模式。在根据附图阅读以下描述时,本领域技术人员将理解本公开的概念并且将认识到这里未特别提出的这些概念的应用。应该理解,这些概念和应用都落入本公开和所附权利要求的范围内。
在详细描述实施例之前,在下文中描述实施例的概述。
图1示出了根据实施例的概述的边缘计算系统1的配置的示例的框图。边缘计算系统1包括后端服务器2和能够与后端服务器2通信的多个边缘服务器3。每个边缘服务器3被连接并与一个或多个传输数据的设备通信(未在图1中示出)。
边缘计算系统1是使用模型对输入数据进行计算的系统。该模型是程序,其接收由上述设备发送的数据作为输入数据,并且对该输入数据执行包括多个处理步骤的计算。该模型可以包括例如通过机器学习等训练的模型。
边缘计算系统1在多个边缘服务器3上以模型的方式执行计算。例如,在边缘计算系统1中,第一边缘服务器3执行特定处理步骤的计算,并使用该计算结果,第二边缘服务器3执行后续处理步骤的计算。以这种方式执行所有处理步骤的计算。总之,每个边缘服务器3执行模型的部分处理步骤,从而整个系统执行整个模型的计算。
后端服务器2包括模型划分单元21,分区模型分配单元22,优先级创建单元23和分区信息发送单元24。
模型划分单元21将上述模型划分为分区模型。分区模型是通过分区进行分段的部分模型。
分区模型分配单元22将每个分区模型分配给一个或多个边缘服务器3。分区模型分配单元22确定哪个边缘服务器3将通过分区模型执行计算。注意,当将相同的分区模型分配给多个边缘服务器3时,任何一个边缘服务器3都可以通过该分区模型进行计算。
优先级创建单元23创建优先级信息,该优先级信息指示被分配了相同分区模型的多个边缘服务器3中的哪个边缘服务器优先执行该分区模型。
分区信息发送单元24基于由服务器的分配,将分区模型,作为包括对该分区模型的后续处理步骤在内的指示分区模型的分配目的地的信息的传递目的地信息,以及优先级信息发送至边缘服务器3。分区模型分配单元22。传递目的地信息是换句话说,指示将要通过分区模型进行的计算结果传递给边缘服务器3中的哪一个以便在一系列处理步骤中进行处理的信息。因此,传输目的地信息是指示边缘服务器3中的哪个边缘服务器3 可能在随后的处理步骤中执行计算的信息。
每个边缘服务器3包括分区信息获取单元31,管理单元32,计算单元33和计算结果传输单元34。
分区信息获取单元31从后端服务器2获取分区模型,传输目的地信息和优先级信息。
管理单元32管理连接到边缘服务器3并与之通信的设备的数量。注意,管理单元32可以进一步管理边缘服务器3等的资源状态,但不限于设备的数量。
计算单元33使用从后端服务器2获取的分区模型执行计算。
计算结果传送单元34将计算单元33的计算结果传送到基于传送目的地信息和优先级信息指定的另一边缘服务器3。由此,在该另一边缘服务器3中执行随后的处理步骤。注意,如前所述,存在将相同的分区模型分配给多个边缘服务器3的情况。在这种情况下,通过该分区模型进行计算是由那些边缘服务器3中的任何一个基于优先级信息执行。因此,计算结果传送单元34基于传送目的地信息和优先级信息来指定传送目的地。
管理单元32以预定的阈值比较与边缘服务器3连接并进行通信的设备的数量,并且根据比较结果请求其他边缘服务器3更新优先级信息。具体地,例如,当设备数量超过预定阈值时,管理单元32请求降低其自身的服务器(即,设备数量超过预定阈值的边缘服务器3)的优先级。随着连接设备的数量增加,从设备向边缘服务器3传输的数据量增加,并且处理负荷相应地增加。因此,通过更新优先级信息,可以防止由边缘服务器 3执行具有一定处理负担的,由某个边缘服务器3执行的处理步骤之后的处理步骤。因此,根据边缘计算系统1,可以根据系统环境适当地将程序处理分配给边缘服务器3。
实施例的细节
接下来描述实施例的细节。
图2示出了根据实施例的边缘计算系统100的配置的示例的框图。参照图2,边缘计算系统100包括后端服务器200,多个边缘服务器300和多个设备400。后端服务器200等同于图1中的后端服务器2。边缘服务器300与图1中的边缘服务器3等同。
后端服务器200通过诸如WAN(广域网)或因特网的网络500连接到多个边缘服务器300,并且管理边缘服务器300。每个边缘服务器300 被连接以与一个或多个通信。设备400以有线或无线方式。注意,边缘服务器300和设备400之间的拓扑是例如根据设备的通信特征的拓扑。边缘服务器300是如下所述的通过分区模型执行计算的设备。边缘服务器300 可以以有线或无线方式彼此通信。设备400是诸如各种类型的传感器,致动器或智能电话的设备,并获取要处理的数据。设备的数量和种类因每个边缘服务器300而异。
在下文中描述作为本实施例中的主要元件的后端服务器200和边缘服务器300。
图3示出了后端服务器200和边缘服务器300的硬件配置的示例的框图。如图3所示,后端服务器200和边缘服务器300中的每一个例如包括网络接口50,存储器51和处理器52。
网络接口50用于与另一设备通信。网络接口50可以包括例如网络接口卡(NIC)。
存储器51由易失性存储器和非易失性存储器的组合构成。除了存储器51之外,后端服务器200和边缘服务器300还可包括诸如硬盘的存储设备。
存储器51用于存储包含由处理器52执行的一个或多个指令的软件(计算机程序)。
可以使用任何类型的非暂时性计算机可读介质来存储程序并将其提供给计算机。非暂时性计算机可读介质包括任何类型的有形存储介质。非暂时性计算机可读介质的示例包括磁存储介质(例如软盘,磁带,硬盘驱动器等),光磁存储介质(例如磁光盘),CD-ROM(光盘只读存储器), CD-R(可刻录光盘),CD-R/W(可擦写光盘)和半导体存储器(例如掩模ROM,PROM(可编程ROM),EPROM(可擦除PROM),闪存ROM,RAM(随机存取)内存等)。可以使用任何类型的瞬时计算机可读介质将程序提供给计算机。瞬态计算机可读介质的示例包括电信号,光信号和电磁波。临时计算机可读介质可以经由有线通信线(例如电线和光纤)或无线通信线将程序提供给计算机。
处理器52从存储器51加载并执行软件(计算机程序),从而执行后端服务器200的每个处理或边缘服务器300的每个处理,这将在后面描述。以这种方式,后端服务器200和边缘服务器300具有作为计算机的功能。处理器52可以是例如微处理器,MPU(微处理器单元)或CPU(中央处理单元)。处理器52可以包括多个处理器。
存储器51或存储设备可以用作数据存储单元206或数据存储单元 302。
注意,设备400还具有与图3所示的相同的硬件配置,具有计算机功能。
图4示出了后端服务器200的功能配置的示例的框图。参照图4,后端服务器200包括模型划分单元201,分区模型加密单元202,分区模型分配单元203,传送目的地列表创建单元204,边缘通信单元205和数据存储单元206。
模型划分单元201与图1中的模型划分单元21等效,并且将模型(该模型是对输入数据执行包括多个处理步骤的计算的程序)划分为分区模型。模型划分单元21参照存储在数据存储部206中的分区前的模型,对该模型进行划分而生成分区后的模型。
在下文中描述模型的划分。
图5示出了通过模型进行的数据分析处理的概况的示意图。该模型从原始数据中提取要分析的信息,并对提取的信息进行分析。原始数据是从设备400传输到边缘服务器300的数据,并且也称为输入数据。
对于分析处理,例如使用预先通过机器学习等进行训练的模型(以下称为预训练模型)。具体地,参照图5,根据本实施例的模型进行的数据分析处理通过将从原始数据中提取的信息用作预训练模型的输入来执行中间处理(分析处理),从而获得输出,该输出是处理原始数据的结果。
从原始数据中提取要分析的信息以及从预训练模型的输入获得输出的中间处理中的每一个都可以表示为彼此独立的分区模型。当从原始数据中提取信息的分区模型为M(1)且执行N-1次中间处理时每个中间处理的分区模型为M(2)至M(N)时,通过携带获得最终输出对原始数据进行分区模型M(1)到M(N)的计算。在该实施例中,以这种方式将模型划分为分区模型M(1)至M(N)。然后,将每个分区模型分配给边缘服务器300,以通过在多个边缘服务器300之间进行处理的切换来实现整个模型的处理。注意,可以由后端服务器200预先创建预训练模型。换句话说,模型的训练可以由后端服务器200完成。
分区模型加密单元202对通过模型划分单元201进行分区而获得的分区模型进行加密。注意,分区模型加密单元202以使得每个分区模型解密所需的解密密钥不同的方式执行加密。
分区模型分配单元203相当于图1中的分区模型分配单元22,并且,其将由模型划分单元201生成的分区模型分配给边缘服务器300。具体地,分区模型分配单元203将每个分区模型分配给一个或多个边缘服务器300。注意,分区模型分配单元203可以是向多个边缘服务器300分配一些分区模型或所有分区模型。
因为模型是用于分析特定原始数据(输入数据)的,所以它可以与发送该特定原始数据的设备400相关联。与特定设备400相关联的模型可以有多种类型。后端服务器200具有有关边缘服务器300连接到的设备400 的信息,因此后端服务器200可以在边缘服务器300和边缘服务器300之间建立关联。具体地,后端服务器200可以识别哪些边缘服务器300具有与特定模型相关联的原始数据。分区模型分配单元203基于关于具有要输入到模型的原始数据的边缘服务器300的信息以及连接到边缘服务器300 的设备400的数量来确定分配。注意,稍后将描述确定分配的特定方法。
转移目的地列表创建单元204根据由分区模型分配单元203确定的分区模型的分配来创建转移目的地列表。转移目的地列表是包含上述转移目的地信息和优先级信息的列表。传送目的地列表创建单元204等同于图1中的优先级创建单元23。
边缘通信单元205通过网络500与边缘服务器300通信。边缘通信单元205将分区模型,解密该分区模型所需的解密密钥,传输目的地列表等发送到边缘服务器300。边缘通信单元205等同于图1中的分区信息发送单元24,此外,边缘通信单元205获取从边缘服务器300发送的信息。
数据存储单元206在后端服务器200中存储处理所需的各种数据,例如存储分区之前的模型,边缘列表,边缘服务器管理信息,分区的模型,分区的模型管理信息,初始分区的模型信息,分配列表,传送目的地列表等。
注意,边缘列出了构成边缘计算系统100的所有边缘服务器300的列表。此外,边缘服务器管理信息是指示边缘服务器300与连接到该边缘服务器300的设备400之间的对应关系的信息(参见图8)。分区模型管理信息是针对每个模型指示分区模型的顺序关系以及分区模型与解密密钥之间的对应关系的信息(参见图7)。初始分区模型信息是指示设备400具有与输入原始数据(输入数据)的分区模型(即,M(1))相对应的数据类型的发送数据的信息(参见图9)。分配列表是指示每个分区模型的分配目的地的信息(每个分区模型被分配到的边缘服务器300的标识信息)(参见图10)。
应当注意,本公开不限于上述实施例,并且可以在本公开的范围内以许多方式改变。例如,在上述实施例中,基于后端服务器200中的连接设备的数量来确定分区模型的分配。此外,可以根据由边缘获取的原始数据的数据类型来确定分区模型的分配。例如,服务器300。例如,可以禁止将除了处理原始数据的分区模型(即,M(1))以外的分区模型分配给从服务器400接收诸如图像数据和音频数据之类的大尺寸数据的边缘服务器300。然后,可以将更大数量的分区模型分配给接收诸如文本数据之类的轻量数据的边缘服务器300。以这种方式,分区模型分配单元203可以根据从与边缘服务器300连接并与之通信的设备400发送的原始数据的类型来调整要分配给边缘服务器300的分区模型的数量。考虑到由数据类型引起的处理负载来实现分配。注意,可以代替上述规则2而执行根据数据类型的分配,或者可以与规则2相结合地执行根据数据类型的分配。此外,尽管基于边缘服务器300的数量来动态地改变优先级。另外,在上述实施方式中,可以根据装置的种类或资源使用率来进行优先级的变更,也可以代替它们或与它们组合来进行优先级的变更。
接下来描述后端服务器200的操作。图6示出了后端服务器200中的操作的示例的流程图。在下文中,参照图6描述后端服务器200的操作。
在步骤100(S100)中,模型划分单元201对存储在数据存储单元 206中的模型进行划分。具体而言,模型划分单元201生成分区模型M (1)至M(N)。此外,模型划分单元201将分区模型之间的顺序关系作为分区模型管理信息存储到数据存储单元206(参见图7)中。具体地,模型划分单元201将分区模型M(n)与在M(n)之后要执行的分区模型(即,分区模型M(n+1))之间的对应信息存储为分区模型管理信息。注意,n是1以上且小于N的整数。
接下来,在步骤101(S101)中,分区模型加密单元202对每个分区模型执行加密并生成解密密钥。分区模型加密单元202将加密的分区模型和解密密钥存储到数据存储单元206中。此外,分区模型加密单元202 将分区模型和解密密钥之间的对应关系添加到分区模型管理信息。
以图7为例,通过步骤100和101中的处理生成的分区模型管理信息是如图2所示的格式的信息。虽然图7仅示出了模型X的分区模型的顺序关系和关键信息,当存在多个模型时,除了模型X以外,以相同的方式创建分区模型管理信息。
然后,在步骤102(S102)中,边缘通信单元205从每个边缘服务器300获取边缘服务器300与连接到该边缘服务器300的设备400之间的对应信息以及指示从每个设备400发送的数据类型的信息。边缘通信单元 205将边缘服务器300与设备400之间的对应信息作为边缘服务器管理信息存储到数据存储单元206中。以图8为例,数据存储单元206中存储的边缘服务器管理信息是以下格式的信息。此外,在步骤102中,边缘通信单元205将已经向后端服务器200发送了信息的所有边缘服务器300的标识信息作为边缘列表存储到数据存储单元206中。此外,边缘通信单元 205存储了边缘服务器300的标识信息。基于在步骤102中获得的信息和在步骤100中的划分结果而创建的初始分区模型信息到数据存储单元206 中。以图9为例,存储在数据存储单元206中的初始分区模型信息是如图2所示的格式的信息。
之后,在步骤103(S103)中,分区模型分配单元203基于存储在数据存储单元206中的信息来确定每个分区模型的分配目的地。分区模型分配单元203例如遵循以下规则。注意,分区模型分配单元203可以根据下述规则1至3中的一些或全部来进行分配。
<规则1>分配从原始数据(即M(1))中提取待分析数据的分区模型给连接到发送该原始数据的设备400的所有边缘服务器300。
以这种方式,分区模型分配单元203向与发送原始数据的设备400连接并与之通信的边缘服务器300分配需要输入该原始数据的分区模型。
从而可以避免由于在边缘服务器300之间传输原始数据而引起的通信负荷。
<规则2>将较少数量的分区模型分配给与大量设备400连接的边缘服务器300
具体地,例如,分区模型分配单元203向连接数超过预定阈值的边缘服务器300分配不超过预定数量的分区模型。以这种方式,分区模型分配单元203将与每个边缘服务器300的设备数量相对应的一定数量的分区模型分配给边缘服务器300。
从而可以防止处理集中在边缘服务器300上,在边缘服务器300上由于大量连接的设备而从原始数据提取分析目标数据的负担很重。
<规则3>不将连续的分区模型M(n)和M(n+1)分配给同一边缘服务器300
分区模型分配单元203将第一分区模型和第二分区模型分配给不同的边缘服务器300。第二分区模型是包括在第一分区模型之后的处理步骤的分区模型。
从而,与在同一边缘服务器300中存储连续的分区模型的情况相比,当不正确地获取存储在边缘服务器300中的信息时,可以减少由于关于模型的信息的泄漏而造成的损害。
作为根据规则2和规则3进行分配的示例,可以使用分配连续的分区模型时的风险值。在使用风险值的分配方法中,将更多连续的分区模型分配给同一边缘服务器300,设置给该边缘服务器300的风险值越高。分区模型分配单元203考虑风险值和连接设备的数量进行分配,从而进行分区模型的分配。
例如,分区模型分配单元203将M(n+1)分配给分配了M(n)的边缘服务器300(称为边缘服务器A)时的风险值设为1。分区模型分配单元203在将M(n+1)分配给分配了M(n-1)和M(n)的边缘服务器300(称为边缘服务器B)时,设置风险值到2.在这种情况下,当边缘服务器A和边缘服务B之间的连接设备的数量的差为预定阈值或更小时,分区模型分配单元203将M(n+1)分配给边缘服务器A。具有较低的风险值。另一方面,当边缘服务器A的连接设备的数量比边缘服务器B 的连接设备的数量大预定值或更大时,期望从服务器中的原始数据提取处理的负荷。边缘服务器A很重。因此,分区模型分配单元203将M(n+ 1)分配给边缘服务器B。此外,当某个边缘服务器300的风险值高于预定阈值时,分区模型分配单元203不连续分配。不论边缘服务器300的连接设备数是多少,都将模型划分给该边缘服务器300。
以图10为例,分区模型分配单元203将通过根据上述规则执行分配而获得的分区模型与边缘服务器300之间的对应表作为分配列表存储在数据存储单元206中。在步骤103中创建的分配列表是信息以如图10所示的格式。
在步骤104(S104),传送目的地列表创建单元204创建传送目的地列表。具体地,如下创建转移目的地列表。
当根据上述规则3确定分区模型的分配目的地时,在不同的边缘服务器300上执行M(n)和M(n+1)。因此,需要将计算结果传递M (n)到具有M(n+1)的边缘服务器300。为此,转移目的地列表创建单元204将关于具有分区模型M(n+1)的边缘服务器300的信息添加到转移目的地列表,该边缘服务器300包括作为转移目的地的,在分区模型 M(n)之后的处理步骤。并将该列表存储到数据存储单元206中。
此外,接收由M(n)的计算结果的数据的边缘服务器300(即,传送目的地边缘服务器300)需要知道该数据应通过哪个分区模型来处理。因此,传输目的地列表创建单元204从存储在数据存储单元206中的分区模型管理信息中提取在M(n)之后要执行的分区模型的信息,将该信息添加到传输目的地列表中,并将该列表存储到数据存储单元206中。
然后,在步骤105(S105),传送目的地列表创建单元204通过添加优先级信息来更新在步骤104中创建的传送目的地列表。具体地,为了通过M(n)唯一地识别计算结果的数据的传送目的地,传送目的地列表创建单元204为分区模型的每个传送目的地设置传送优先级,并更新存储在模型中的传送目的地列表。数据存储单元206。注意,考虑到随着连接设备的数量增加边缘服务器300上的负载变大的事实,转移目的地列表创建单元204向边缘服务器300设置更高的转移优先级。连接的设备数量更少。换句话说,传输目的地列表创建单元204根据用于每个边缘服务器 300的设备的数量来确定传输优先级。从而可以防止处理集中在负载较大的边缘服务器300上。
在步骤106(S106)中,边缘通信单元205将划分的模型,传输目的地列表,初始划分的模型信息和边缘列表发送到边缘服务器300。注意,在该步骤中发送的划分的模型如上所述被加密。从后端服务器200发送的那些信息由边缘服务器300的后端通信单元301接收。
之后,在步骤107(S107)中,边缘通信单元205将用于对在步骤 106中发送的分区模型进行解密的解密密钥发送到边缘服务器300。但是,请注意,除了边缘服务器之外的边缘服务器300具有最高优先级的传输目的地300不必使用在步骤106中发送的分区模型来执行计算。因此,边缘通信单元205将用于分区模型的解密密钥发送至具有最高优先级的边缘服务器300,并且如果没有最高优先级,则不将解密密钥发送到边缘服务器300。因为不以较低的优先级将解密密钥发送给边缘服务器300,所以减少了解密密钥泄漏的可能性。注意,边缘通信单元205还将解密密钥发送到分配了输入原始数据(即,M(1))的分区模型的边缘服务器 300。
应当注意,本公开不限于上述实施例,并且可以在本公开的范围内以许多方式改变。例如,在上述实施例中,基于后端服务器200中的连接设备的数量来确定分区模型的分配。此外,可以根据由边缘获取的原始数据的数据类型来确定分区模型的分配。例如,服务器300。例如,可以禁止将除了处理原始数据的分区模型(即,M(1))以外的分区模型分配给从服务器400接收诸如图像数据和音频数据之类的大尺寸数据的边缘服务器300。然后,可以将更大数量的分区模型分配给接收诸如文本数据之类的轻量数据的边缘服务器300。以这种方式,分区模型分配单元203可以根据从与边缘服务器300连接并与之通信的设备400发送的原始数据的类型来调整要分配给边缘服务器300的分区模型的数量。考虑到由数据类型引起的处理负载来实现分配。注意,可以代替上述规则2而执行根据数据类型的分配,或者可以与规则2相结合地执行根据数据类型的分配。此外,尽管基于边缘服务器300的数量来动态地改变优先级。另外,在上述实施方式中,可以根据装置的种类或资源使用率来进行优先级的变更,也可以代替它们或与它们组合来进行优先级的变更。

Claims (5)

1.一种边缘计算系统,包括:多个边缘服务器;
后端服务器,所述后端服务器包括模型划分单元,所述模型划分单元被配置为将模型划分为多个分区的模型,所述模型是对输入数据执行包括多个处理步骤的计算的程序;
分区模型分配单元,其被配置为将所述每个分区的模型分配给一个或多个边缘服务器;
优先级创建单元,其被配置为创建优先级信息,该优先级信息指示被分配了相同分区模型的多个边缘服务器中的哪个边缘服务器优先执行该分区模型;
分区信息发送单元,其被配置为将所述分区模型,指示包括所述分区模型之后的处理步骤的所述分区模型的分配目的地的传送目的地信息,以及基于分区模型分配单元的分配的优先级信息发送至所述边缘服务器,每个边缘服务器都连接并与一个或多个传输输入数据的设备通信,每个边缘服务器都包括一个分区信息获取单元,该分区信息获取单元被配置为从后端服务器获取分区模型,传输目的地信息和优先级信息;
管理单元,用于管理连接和通信的设备的数量;
计算单元,被配置为使用所述分区模型执行计算;
计算结果传输单元,用于将计算单元的计算结果传输至基于传输目的地信息和优先级信息而指定的另一台边缘服务器,管理单元将设备数量与预定阈值进行比较,以及请求其他边缘服务器根据比较结果更新优先级信息。
2.根据权利要求1所述的边缘计算系统,其特征在于,所述管理单元还管理其自己的服务器的资源,并根据所述资源的使用状态来请求其他边缘服务器更新所述优先级信息。
3.根据权利要求1所述的边缘计算系统,其特征在于,当没有来自传送目的地的响应时,所述计算结果传送单元请求所述其他边缘服务器在所述优先级信息中降低所述边缘服务器在所述传送目的地处的优先级。
4.根据权利要求1所述的边缘计算系统,其特征在于,所述分区模型分配单元向所述边缘服务器分配与每个所述边缘服务器的设备数量相对应的一定数量的分区模型。
5.根据权利要求1所述的边缘计算系统,其特征在于,所述分区模型分配单元将需要输入所述输入数据的分区模型分配给与发送所述输入数据的设备连接并进行通信的边缘服务器。
CN202010771832.9A 2020-08-04 2020-08-04 边缘计算设备的组网,及其和后端服务器的通信方法 Pending CN111866175A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010771832.9A CN111866175A (zh) 2020-08-04 2020-08-04 边缘计算设备的组网,及其和后端服务器的通信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010771832.9A CN111866175A (zh) 2020-08-04 2020-08-04 边缘计算设备的组网,及其和后端服务器的通信方法

Publications (1)

Publication Number Publication Date
CN111866175A true CN111866175A (zh) 2020-10-30

Family

ID=72953270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010771832.9A Pending CN111866175A (zh) 2020-08-04 2020-08-04 边缘计算设备的组网,及其和后端服务器的通信方法

Country Status (1)

Country Link
CN (1) CN111866175A (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190260827A1 (en) * 2018-02-21 2019-08-22 Nec Corporation Edge computing system, edge server, and system control method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190260827A1 (en) * 2018-02-21 2019-08-22 Nec Corporation Edge computing system, edge server, and system control method

Similar Documents

Publication Publication Date Title
US20190260827A1 (en) Edge computing system, edge server, and system control method
CN110896355B (zh) 一种网络切片的选择方法及装置
US9825875B2 (en) Method and apparatus for provisioning resources using clustering
US9712402B2 (en) Method and apparatus for automated deployment of geographically distributed applications within a cloud
CN108052615B (zh) 访问请求的处理方法、装置、介质及电子设备
US9465641B2 (en) Selecting cloud computing resource based on fault tolerance and network efficiency
CN108512672B (zh) 业务编排方法、业务管理方法及装置
US20220182874A1 (en) Systems and methods for distribution of application logic in digital networks
US11489735B2 (en) Dynamic network allocation apparatus, dynamic network allocation method and non-transitory computer-readable medium
CN105791254B (zh) 网络请求处理方法、装置及终端
US11706630B2 (en) Spectrum management device, system and method, and computer-readable storage medium
EP3465966B1 (en) A node of a network and a method of operating the same for resource distribution
CN112486860A (zh) 管理存储系统的地址映射的方法、设备和计算机程序产品
JP2016024612A (ja) データ処理制御方法、データ処理制御プログラムおよびデータ処理制御装置
US20230039620A1 (en) Lte resource allocation controller
JPWO2018061825A1 (ja) 分散処理システム、分散処理方法、及び記録媒体
JP2012238084A (ja) データ負荷分散配置システムおよびデータ負荷分散配置方法
CN111866175A (zh) 边缘计算设备的组网,及其和后端服务器的通信方法
CN108810130B (zh) 一种分配请求规划的方法和装置
CN113904871B (zh) 网络切片的接入方法、pcf实体、终端和通信系统
KR101364456B1 (ko) M2m 클라우드 환경에서 통신망 자원 활용 방법 및 그 시스템
US20210286896A1 (en) Methods and systems for data management in communication network
CN115604273A (zh) 用于管理计算系统的方法、设备和程序产品
CN114579185A (zh) 用于迁移应用的方法、电子设备和计算机程序产品
US11558301B2 (en) Method, device, and computer program product for accessing application system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201030

RJ01 Rejection of invention patent application after publication