CN118332016A - 机器学习方案选择的方法及装置、电子设备和存储介质 - Google Patents

机器学习方案选择的方法及装置、电子设备和存储介质 Download PDF

Info

Publication number
CN118332016A
CN118332016A CN202410507493.1A CN202410507493A CN118332016A CN 118332016 A CN118332016 A CN 118332016A CN 202410507493 A CN202410507493 A CN 202410507493A CN 118332016 A CN118332016 A CN 118332016A
Authority
CN
China
Prior art keywords
time delay
different processing
processing schemes
data set
state information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410507493.1A
Other languages
English (en)
Inventor
季忠铭
赵兴华
徐军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Suzhou Software Technology Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Suzhou Software Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Suzhou Software Technology Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN202410507493.1A priority Critical patent/CN118332016A/zh
Publication of CN118332016A publication Critical patent/CN118332016A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Supply And Distribution Of Alternating Current (AREA)

Abstract

本公开提供了一种机器学习方案选择的方法及装置、电子设备和存储介质,获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。与相关技术相比,本公开实施例通过构建不同处理方案对应的时延评估模型,并考虑系统功率约束进行优化求解,可以确保在满足系统性能要求,节省了能源和计算资源。

Description

机器学习方案选择的方法及装置、电子设备和存储介质
技术领域
本公开涉及边缘计算技术领域,尤其涉及一种机器学习方案选择的方法及装置、电子设备和存储介质。
背景技术
随着物联网和智能设备的普及,边缘计算已成为解决计算延迟、数据隐私和带宽限制等问题的重要手段。边缘计算的核心是将数据处理和计算任务推向网络边缘,以便更快地响应终端用户的需求。在此背景下,机器学习在边缘计算中的应用逐渐兴起,尤其是在处理复杂和对延迟敏感的任务时。
现有的边缘计算场景中的现有机器学习解决方案面临两大挑战。首先,大多数方案只关注机器学习模型的学习精度和数据隐私的保护,而忽视了对方案在整个系统功耗限制下的时延性能的评估。对于许多实时应用来说,时延是评估系统性能的重要指标。其次,边缘计算环境中的任务多种多样、特点不一。单一、固定的机器学习方案很难满足所有任务的最佳性能要求。例如,虽然边缘学习方案能减少终端的计算负荷,但由于裸数据通常包含丰富的细节,其数据规模相对于经过特征提取或模型推断后的数据要大得多,上传过程中通信开销可能会很高。联邦学习方案虽然通过分布式本地学习避免了裸数据的传输,但性能可能会受到计算性能低的终端的限制。
因此,如何在满足系统总功率约束的同时,选择出最适合特定任务集的机器学习方案,以优化任务集的平均时延,成为当前边缘计算领域亟待解决的问题。
发明内容
本公开提供了一种机器学习方案选择的方法及装置、电子设备和存储介质。其主要目的在于实现在满足系统总功率约束的同时,选择出最适合特定任务集的机器学习方案,以优化任务集的平均时延。
根据本公开的第一方面,提供了一种机器学习方案选择的方法,包括:
获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;
根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;
将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。
在一些实施例中,所述根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,包括:
对每个处理方案进行分析处理,确定按照不同处理方案处理任务数据集时延最长的时延类型;
根据每个处理方案时延最长的时延类型,构建不同处理方案各自对应的时延评估模型。
在一些实施例中,所述根据每个处理方案时延最长的时延类型,构建不同处理方案各自对应的时延评估模型,包括:
基于所述时延类型,确定不同处理方案各自时延评估模型的对应的模型参数,其中,所述不同处理方案各自时延评估模型的对应的模型参数从对应的所述设备状态信息、所述任务数据集信息及所述通信状态信息中获取;
利用所述不同处理方案各自时延评估模型的对应的模型参数,构建不同处理方案各自对应的时延评估模型。
在一些实施例中,所述根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数,包括:
获取边缘计算系统的系统总功率,基于所述系统总功率生成不同处理方案的所述系统功率约束;
基于所述不同处理方案的系统功率约束,对所述时延评估模型进行优化求解得到所述不同处理方案各自对应的时延评估函数。
在一些实施例中,所述基于所述不同处理方案的系统功率约束,对所述时延评估模型进行优化求解得到所述不同处理方案各自对应的时延评估函数,包括:
利用预设约束条件对所述时延评估模型在所述不同处理方案的系统功率约束下进行最优值求解,得到所述不同处理方案各自对应的时延评估函数。
在一些实施例中,所述将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案,包括:
基于所述不同处理方案的时延评估函数构建时延差函数,并基于所述设备状态信息、所述任务数据集信息及所述通信状态信息计算所述时延差函数;
根据所述时延差函数的计算结果,选择所述终端设备处理所述任务数据集的处理方案。
根据本公开的第二方面,提供了一种机器学习方案选择的装置,包括:
获取单元,用于获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;
优化单元,用于根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;
选择单元,用于将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。
在一些实施例中,所述优化单元包括:
分析模块,用于对每个处理方案进行分析处理,确定按照不同处理方案处理任务数据集时延最长的时延类型;
构建模块,用于根据每个处理方案时延最长的时延类型,构建不同处理方案各自对应的时延评估模型。
在一些实施例中,所述构建模块还用于:
基于所述时延类型,确定不同处理方案各自时延评估模型的对应的模型参数,其中,所述不同处理方案各自时延评估模型的对应的模型参数从对应的所述设备状态信息、所述任务数据集信息及所述通信状态信息中获取;
利用所述不同处理方案各自时延评估模型的对应的模型参数,构建不同处理方案各自对应的时延评估模型。
在一些实施例中,所述优化单元还包括:
生成模块,用于获取边缘计算系统的系统总功率,基于所述系统总功率生成不同处理方案的所述系统功率约束;
优化模块,用于基于所述不同处理方案的系统功率约束,对所述时延评估模型进行优化求解得到所述不同处理方案各自对应的时延评估函数。
在一些实施例中,所述优化模块还用于:
利用预设约束条件对所述时延评估模型在所述不同处理方案的系统功率约束下进行最优值求解,得到所述不同处理方案各自对应的时延评估函数。
在一些实施例中,所述选择单元包括:
计算模块,用于基于所述不同处理方案的时延评估函数构建时延差函数,并基于所述设备状态信息、所述任务数据集信息及所述通信状态信息计算所述时延差函数;
选择模块,用于根据所述时延差函数的计算结果,选择所述终端设备处理所述任务数据集的处理方案。
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面所述的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行前述第一方面所述的方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如前述第一方面所述的方法。
本公开提供了一种机器学习方案选择的方法及装置、电子设备和存储介质,获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。与相关技术相比,本公开实施例通过构建不同处理方案对应的时延评估模型,并考虑系统功率约束进行优化求解,一方面可以确保在满足系统性能要求的同时,也最大程度地节省能源和计算资源;另一方面还可以适应不同的任务需求和环境变化,当新的处理方案或新的任务类型出现时,只需要添加相应的时延评估模型,即可完成机器学习方案的选择。通过精确的时延评估和优化处理方案选择,可以减少不必要的资源消耗和额外的运营成本。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开实施例所提供的一种机器学习方案选择的方法的流程示意图;
图2为一种边缘学习方案的原理示意图;
图3为一种联邦学习方案的原理示意图;
图4为本公开实施例所提供的另一种机器学习方案选择的方法的流程示意图;
图5为一种机器学习方案择策略示意图;
图6为本公开实施例所提供的一种机器学习方案评估系统结构示意图;
图7为本公开实施例提供的一种机器学习方案选择的装置的结构示意图;
图8为本公开实施例提供的另一种机器学习方案选择的装置的结构示意图;
图9为本公开实施例提供的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
随着物联网技术的发展,网络边缘端的数据量呈现出快速的增长。特别是在热门区域,众多基于数据的业务请求层出不穷。在这些业务请求中,机器学习任务显得尤为重要,它们为边缘场景中的众多智能业务提供了预测、分类、识别等关键服务。近年来,边缘计算概念的兴起,使得大量的机器学习任务能够在边缘节点得到更快速的处理。为了满足这一需求,针对边缘计算场景的分布式机器学习方案也应运而生。这些方案通过优化数据处理和算法,实现了在边缘设备上高效执行机器学习任务的目标。
边缘场景中的时延是十分重要的性能指标。边缘计算提出的目的便是更邻近终端用户,为大量时延敏感型任务提供更迅速的协助计算。而现有边缘计算场景下的机器学习方案关注于机器学习训练精度、对数据隐私的保护,忽略了系统总功率约束下的方案时延性能评估。另外,在边缘计算场景中的任务繁多且特性各异。对于给定的任务集,单一的给所有任务选择固定的某一种方案将难以保证性能的最优。
下面参考附图描述本公开实施例的机器学习方案选择的方法及装置、电子设备和存储介质。
图1为本公开实施例所提供的一种机器学习方案选择的方法的流程示意图。
如图1所示,该方法包含以下步骤:
步骤101,获取终端设备的设备状态信息、任务数据集信息以及通信状态信息。
在本公开的实施例中,根据获取终端设备的设备状态信息、终端设备要处理的任务数据集信息以及终端设备与边缘节点之间的通信状态信息,通过对这些信息的分析处理能够准确的评估终端设备的当前状态,从而制定出更加精准和有效的任务执行策略。
不同的机器学习方案对于终端设备的算力、通信等方面的要求不一。图2为一种边缘学习方案的原理示意图,边缘学习方案是将边缘节点周边的终端将终端自身的数据上传到边缘节点,边缘节点对这些数据进行汇聚后形成训练数据集,运行在边缘节点上的机器学习算法基于此数据集进行机器学习模型的训练。因此,边缘学习方案对于终端设备的算力要求较低,但由于裸数据上传过程,通信开销可能会很高。图3为一种联邦学习方案的原理示意图,联邦学习方案无需终端上传自身的数据到边缘节点,而是终端在本地基于自身数据进行模型的训练,每轮训练后再向边缘节点上传自身的模型参数,边缘节点汇总后进行模型参数的广播,系统再进行下一轮的模型更新,直至机器学习模型训练完成。与边缘学习方案相比,联邦学习方案通过分布式本地学习避免了裸数据的传输,但性能可能会受到计算性能低的终端的限制。需要说明的是,本公开实施例按照具有代表性的边缘学习方案及联邦学习方案进行示例性说明,这并不构成对本公开机器学习方案选择方法的限定。
终端设备的设备状态信息包括但不限于终端当前的算力信息(例如内存占用、处理器负载等性能参数)、硬件配置信息等。终端设备中不同的任务各自拥有独特的处理特点,这是由任务本身的性质、性能需求以及所处理的数据集所决定的。通过对任务数据集信息分析,能够准确地制定任务处理方式,提高处理效率。通信状态信息的获取对于保障设备间的正常通信和数据传输至关重要。这可以包括但不限于终端设备的网络连接状态、信号强度、数据传输速率等信息。通过对这些信息的实时监测,可以评估当前的通信状态是否能满足对通信要求较高的学习方案。
步骤102,根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数。
在本公开的实施例中,为了准确评估当前设备状态信息、任务数据集信息以及通信状态信息对不同机器学习方案的影响,通过为每一种方案分别构建了对应的时延评估模型。时延作为衡量机器学习方案性能的重要指标,对于确保任务的高效执行和实时响应至关重要。
根据任务数据集的不同处理方案,分别构建了各自对应的时延评估模型。这些模型充分考虑了不同处理方案在数据处理、传输、计算等方面的特点和差异,以确保能够准确反映各种方案在实际运行中的时延表现。可以通过分析数据集的大小、结构、复杂性以及处理过程中所需的计算资源以及通信开销等因素,为每个处理方案生成了时延评估模型。
为了进一步优化并求解这些时延评估模型,本公开还考虑了系统功率的约束条件。在实际应用中,系统功率的消耗不仅关系到能源利用效率,还影响到设备的稳定性和可持续运行。因此,在构建时延评估模型时,需要考虑系统功率对不同处理方案的影响,确保在满足功率约束的前提下,寻求最优的时延表现。通过复杂的优化求解过程,可以得到不同处理方案各自对应的时延评估函数。这些函数不仅能够准确反映不同方案在特定条件下的时延性能,还提供了选择最佳处理方案的依据。
步骤103,将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。
在本公开的实施例中,在确定了不同处理方案的时延评估函数后,进一步利用这些函数来评估各种处理方案在实际应用中的性能。这一过程需要综合考虑设备状态信息、任务数据集信息以及通信状态信息等多个维度的数据。
将这些信息输入到不同处理方案的时延评估函数中,进行计算和比较。通过评估计算,可以得到每个处理方案在特定条件下的预期时延值。这些时延值反映了处理方案的性能优劣。根据评估计算的结果,将选择最适合当前设备状态、任务数据集和通信状态的处理方案。这一方案将能够在满足任务需求以及系统功率约束的同时,最大限度地降低时延,提高处理效率。通过这种方式,能够确保终端设备在处理任务数据集时能够选择到最优的处理方案,从而实现更高效、更准确的机器学习任务执行。
本公开提供了一种机器学习方案选择的方法,获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。与相关技术相比,本公开实施例通过构建不同处理方案对应的时延评估模型,并考虑系统功率约束进行优化求解,可以确保在满足系统性能要求的同时,也最大程度地节省了能源和计算资源;可以适应不同的任务需求和环境变化,当新的处理方案或新的任务类型出现时,只需要添加相应的时延评估模型,即可完成机器学习方案的选择。通过精确的时延评估和优化处理方案选择,可以减少不必要的资源消耗和额外的运营成本。
为了清楚的说明本公开的实施例,本实施例提供了另一种机器学习方案选择的方法的流程示意图。
如图4所示,该方法包含以下步骤:
步骤201,获取终端设备的设备状态信息、任务数据集信息以及通信状态信息。
具体在步骤201中,终端设备的设备状态信息包括但不限于终端当前的算力信息(例如内存占用、处理器负载等性能参数)、硬件配置信息等。终端设备中不同的任务各自拥有独特的处理特点,这是由任务本身的性质、性能需求以及所处理的数据集所决定的。通过对任务数据集信息分析,能够准确地制定任务处理方式,提高处理效率。通信状态信息的获取对于保障设备间的正常通信和数据传输至关重要。这可以包括但不限于终端设备的网络连接状态、信号强度、数据传输速率等信息。通过对这些信息的实时监测,可以评估当前的通信状态是否能满足对通信要求较高的学习方案。
在边缘学习方案中,如图2所示,考虑一个边缘计算场景,其中边缘节点服务周边的多个终端用户,此终端用户集用表示。表示终端k的数据集,Dk表示该数据集的大小。对于一个机器学习任务而言,需要基于训练数据集来最小化损失函数,从而进行模型参数的更新。针对参数向量w与数据样本j的损失函数表示为fj(w)。在边缘学习中,边缘节点执行全局模型的训练,其任务是实现如下损失函数的最小化:
其中,表示边缘节点汇聚到的总数据集,D=∑kDk表示该数据集的大小。
在联邦学习方案中,如图3所示,对于终端k而言,定义在其本地数据集上的损失函数为
其中wk表示终端的本地模型参数向量。根据联邦学习中广泛采用的FedAvg算法,全局模型参数向量定义为
步骤202,对每个处理方案进行分析处理,确定按照不同处理方案处理任务数据集时延最长的时延类型。
步骤203,根据每个处理方案时延最长的时延类型,构建不同处理方案各自对应的时延评估模型。
进一步地,在确定每个处理方案对应的时延类型之后需要构建每个处理方案对应的时延评估模型。所述根据每个处理方案时延最长的时延类型,分别构建不同处理方案各自对应的时延评估模型,可以采用但不限于以下方式:
基于所述时延类型,确定不同处理方案各自时延评估模型的对应的模型参数,其中,所述不同处理方案各自时延评估模型的对应的模型参数从对应的所述设备状态信息、所述任务数据集信息及所述通信状态信息中获取;利用所述不同处理方案各自时延评估模型的对应的模型参数,构建不同处理方案各自对应的时延评估模型。
具体在步骤202至步骤203中,边缘学习方案能减少终端的计算负荷,但由于裸数据上传过程,通信开销可能会很高。联邦学习方案通过分布式本地学习避免了裸数据的传输,但性能可能会受到计算性能低的终端的限制。通过分析可以确定边缘学习方案的时延主要是受到通信时延影响,而联邦学习方案主要时受到终端的处理时延影响。
对于边缘学习方案,其总时延由数据上传时延与全局模型训练时延组成。基于边缘节点可配备有多张计算性能强大的GPU,这里仅考虑数据上传时延。假设终端与边缘节点依附的基站端均配备有单天线,每个终端与边缘节点之间的通信链路相互正交。因此,方案总时延TE取决于最慢的终端数据上传时延,即 表示终端的数据上传时延,其表达式为:
其中B表示每条通信链路的带宽,表示分配给终端k的传输功率,gk=|hk|2/N0表示终端k与边缘节点之间的信道增益,N0表示加性高斯白噪声的方差,hk表示终端k与边缘节点之间的信道响应。上述表达式为边缘学习方案对应的时延评估模型的表达式。
对于联邦学习方案,联邦学习总时延由本地模型训练时延、参数汇聚时延、模型广播时延这三部分组成。而针对边缘端大量轻量化的机器学习网络模型(如MobileNet)而言,其模型参数较少,相比于终端的模型训练时延,参数汇聚与模型广播时延可忽略。由于每个终端在本地端并行的进行模型训练,联邦学习总时延取决于最慢的本地模型训练时延其中,N表示联邦学习的训练轮次,表示终端k每轮的模型训练时延。对于给定的机器学习任务、模型训练算法以及每轮本地迭代的次数,联邦学习中每个终端的每一轮模型训练的计算量(单位为CPU的轮次)与其本地数据集大小成正比。因此,终端k每一轮的计算量为Wk=CDk,其中常数C表示每训练1比特的数据所需的CPU轮次。进一步地,
其中,mk表示CPU的频率(轮次每秒)。对于终端k而言,其计算功率与CPU频率有如下关系:
其中,表示终端k的有效电容系数,取决于具体的芯片架构。上述表达式为联邦学习方案对应的时延评估模型的表达式。
步骤204,获取边缘计算系统的系统总功率,基于所述系统总功率生成不同处理方案的所述系统功率约束。
步骤205,基于所述不同处理方案的系统功率约束,对所述时延评估模型进行优化求解得到所述不同处理方案各自对应的时延评估函数。
进一步地,本实施例提供了一种对时延评估模型优化求解的方式,所述基于所述不同处理方案的系统功率约束,对所述时延评估模型进行优化求解得到所述不同处理方案各自对应的时延评估函数,可以采用但不限于以下方式:利用预设约束条件对所述时延评估模型在所述不同处理方案的系统功率约束下进行最优值求解,得到所述不同处理方案各自对应的时延评估函数。
具体在步骤204至步骤205中,对于边缘学习方案,设定边缘机器学习场景下系统的总功率受限于P,可以构建出如下时延优化问题P1:
为了求解优化问题可以做如下的问题转化:
C1,C2,
其中,T为引入的变量,其最优值即为功率约束下最优的边缘学习总时延。由于优化问题P2为凸优化问题,可以利用KKT条件(预设约束条件)进行最优值的求解。进一步可得边缘学习的最优时延T*满足在频谱效率较低的场景下,可以得出最优时延T*的近似闭式解:
其中
对于联邦学习方案,系统功率约束下的联邦学习时延优化问题可构建如下:
引入变量T,对上述优化问题P3进行如下转化:
C4,C5.
由于优化问题为凸优化问题,可以利用KKT条件进行最优值的求解,结果为:其中
步骤206,基于所述不同处理方案的时延评估函数构建时延差函数,并基于所述设备状态信息、所述任务数据集信息及所述通信状态信息计算所述时延差函数。
步骤207,根据所述时延差函数的计算结果,选择所述终端设备处理所述任务数据集的处理方案。
具体在步骤206至步骤207中,基于时延性能评估算法得出的时延结果进行边缘学习与联邦学习的对比,并从中选择不同情况下更优的方案。首先构建出如下时延差函数:
该函数的变量为基于此,定义对比函数:
其中,指示函数I=N2C2A3-A1。该对比函数表征了边缘学习与联邦学习两种方案的时延性能差,其取值正负将决定方案的选择。定义交叉点功率为
图5给出了提出的方案选择策略示意图,其中“EL”和“FL”分别表示边缘学习方案与联邦学习方案,Dmax表示所有终端数据集的规模上限。对于给定的任务集合,在基于系统参数获得指示函数I与交叉点功率Pc后,方案选择策略可总结为如下两种情形:
当系统参数满足I≤0或I>0且P∈(0,Pc),则表明边缘学习的通信开销过大,从时延性能角度考虑时,应优先选择联邦学习方案;
当系统参数满足I>0且P∈(Pc,+∞),则表明联邦学习的计算开销过大,从时延性能角度考虑时,应优先选择边缘学习方案。
为了对本实施例有一个更为清晰的认识,本实施例提供了一种机器学习方案评估系统结构示意图,如图6所示。终端设备首先将系统参数(包括设备状态信息、任务数据集信息以及通信状态信息等)上传至边缘节点;接着边缘节点运行内置的时延性能评估算法与方案选择策略(请参考上述实施例);最后,在得出机器学习方案选择结果后由边缘节点将结果下发告知各终端,终端与边缘节点根据所选定的方案执行机器学习任务。在本系统中,时延性能评估算法与方案选择策略是两个主要部分。在时延性能评估算法部分,基于边缘学习与联邦学习方案各自的特点,对时延进行建模分析,构建并求解出系统功率约束下两种方案的最优时延性能。在方案选择策略部分,基于两种机器学习方案的时延性能评估,给出优化任务集平均时延的选择策略。
需要说明的是,本公开的实施例中可以包括多个步骤,为了便于描述,这些步骤被进行了编号,但是这些标号并非是对步骤之间执行时隙、执行顺序的限定;这些步骤可以以任意的顺序被实施,本公开实施例并不对此作出限定。
与上述的机器学习方案选择的方法相对应,本发明还提出一种机器学习方案选择的装置。由于本发明的装置实施例与上述的方法实施例相对应,对于装置实施例中未披露的细节可参照上述的方法实施例,本发明中不再进行赘述。
图7为本公开实施例提供的一种机器学习方案选择的装置的结构示意图,如图7所示,包括:
获取单元31,用于获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;
优化单元32,用于根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;
选择单元33,用于将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。
本公开提供了一种机器学习方案选择的装置,获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。与相关技术相比,本公开实施例通过构建不同处理方案对应的时延评估模型,并考虑系统功率约束进行优化求解,可以确保在满足系统性能要求的同时,也最大程度地节省了能源和计算资源;可以适应不同的任务需求和环境变化,当新的处理方案或新的任务类型出现时,只需要添加相应的时延评估模型,即可完成机器学习方案的选择。通过精确的时延评估和优化处理方案选择,可以减少不必要的资源消耗和额外的运营成本。
进一步地,在本实施例一种可能的实现方式中,如图8所示,所述优化单元32包括:
分析模块321,用于对每个处理方案进行分析处理,确定按照不同处理方案处理任务数据集时延最长的时延类型;
构建模块322,用于根据每个处理方案时延最长的时延类型,构建不同处理方案各自对应的时延评估模型。
进一步地,在本实施例一种可能的实现方式中,所述构建模块322还用于:
基于所述时延类型,确定不同处理方案各自时延评估模型的对应的模型参数,其中,所述不同处理方案各自时延评估模型的对应的模型参数从对应的所述设备状态信息、所述任务数据集信息及所述通信状态信息中获取;
利用所述不同处理方案各自时延评估模型的对应的模型参数,分别构建不同处理方案各自对应的时延评估模型。
进一步地,在本实施例一种可能的实现方式中,如图8所示,所述优化单元32还包括:
生成模块323,用于获取边缘计算系统的系统总功率,基于所述系统总功率生成不同处理方案的所述系统功率约束;
优化模块324,用于基于所述不同处理方案的系统功率约束,对所述时延评估模型进行优化求解得到所述不同处理方案各自对应的时延评估函数。
进一步地,在本实施例一种可能的实现方式中,所述优化模块324还用于:
利用预设约束条件对所述时延评估模型在所述不同处理方案的系统功率约束下进行最优值求解,得到所述不同处理方案各自对应的时延评估函数。
进一步地,在本实施例一种可能的实现方式中,如图8所示,所述选择单元33包括:
计算模块331,用于基于所述不同处理方案的时延评估函数构建时延差函数,并基于所述设备状态信息、所述任务数据集信息及所述通信状态信息计算所述时延差函数;
选择模块332,用于根据所述时延差函数的计算结果,选择所述终端设备处理所述任务数据集的处理方案。
需要说明的是,前述对方法实施例的解释说明,也适用于本实施例的装置,原理相同,本实施例中不再限定。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备400的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备400包括计算单元401,其可以根据存储在ROM(Read-OnlyMemory,只读存储器)402中的计算机程序或者从存储单元408加载到RAM(Random AccessMemory,随机访问/存取存储器)403中的计算机程序,来执行各种适当的动作和处理。在RAM403中,还可存储设备400操作所需的各种程序和数据。计算单元401、ROM 402以及RAM 403通过总线404彼此相连。I/O(Input/Output,输入/输出)接口405也连接至总线404。
设备400中的多个部件连接至I/O接口405,包括:输入单元406,例如键盘、鼠标等;输出单元407,例如各种类型的显示器、扬声器等;存储单元408,例如磁盘、光盘等;以及通信单元409,例如网卡、调制解调器、无线通信收发机等。通信单元409允许设备400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元401可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元401的一些示例包括但不限于CPU(Central Processing Unit,中央处理单元)、GPU(Graphic Processing Units,图形处理单元)、各种专用的AI(Artificial Intelligence,人工智能)计算芯片、各种运行机器学习模型算法的计算单元、DSP(DigitalSignal Processor,数字信号处理器)、以及任何适当的处理器、控制器、微控制器等。计算单元401执行上文所描述的各个方法和处理,例如机器学习方案选择的方法。例如,在一些实施例中,机器学习方案选择的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元408。在一些实施例中,计算机程序的部分或者全部可以经由ROM402和/或通信单元409而被载入和/或安装到设备400上。当计算机程序加载到RAM 403并由计算单元401执行时,可以执行上文描述的方法的一个或多个步骤。备选地,在其他实施例中,计算单元401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行前述机器学习方案选择的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、FPGA(Field Programmable Gate Array,现场可编程门阵列)、ASIC(Application-Specific Integrated Circuit,专用集成电路)、ASSP(Appl ication SpecificStandard Product,专用标准产品)、SOC(System On Chip,芯片上系统的系统)、CPLD(Complex Programmable Logic Device,复杂可编程逻辑设备)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、RAM、ROM、EPROM(Electrically Programmable Read-Only-Memory,可擦除可编程只读存储器)或快闪存储器、光纤、CD-ROM(Compact Di sc Read-Only Memory,便捷式紧凑盘只读存储器)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode-Ray Tube,阴极射线管)或者LCD(Liquid Crystal Display,液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:LAN(LocalArea Network,局域网)、WAN(Wide Area Network,广域网)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
其中,需要说明的是,人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
本公开中涉及的第一、第二等各种数字编号仅为描述方便进行的区分,并不用来限制本公开实施例的范围,也表示先后顺序。
本公开中的至少一个还可以描述为一个或多个,多个可以是两个、三个、四个或者更多个,本公开不做限制。在本公开实施例中,对于一种技术特征,通过“第一”、“第二”、“第三”、“A”、“B”、“C”和“D”等区分该种技术特征中的技术特征,该“第一”、“第二”、“第三”、“A”、“B”、“C”和“D”描述的技术特征间无先后顺序或者大小顺序。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (10)

1.一种机器学习方案选择的方法,其特征在于,包括:
获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;
根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;
将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。
2.根据权利要求1所述的方法,其特征在于,所述根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,包括:
对每个处理方案进行分析处理,确定按照不同处理方案处理任务数据集时延最长的时延类型;
根据每个处理方案时延最长的时延类型,构建不同处理方案各自对应的时延评估模型。
3.根据权利要求2所述的方法,其特征在于,所述根据每个处理方案时延最长的时延类型,构建不同处理方案各自对应的时延评估模型,包括:
基于所述时延类型,确定不同处理方案各自时延评估模型的对应的模型参数,其中,所述不同处理方案各自时延评估模型的对应的模型参数从对应的所述设备状态信息、所述任务数据集信息及所述通信状态信息中获取;
利用所述不同处理方案各自时延评估模型的对应的模型参数,构建不同处理方案各自对应的时延评估模型。
4.根据权利要求1所述的方法,其特征在于,所述根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数,包括:
获取边缘计算系统的系统总功率,基于所述系统总功率生成不同处理方案的系统功率约束;
基于所述不同处理方案的系统功率约束,对所述时延评估模型进行优化求解得到所述不同处理方案各自对应的时延评估函数。
5.根据权利要求4所述的方法,其特征在于,所述基于所述不同处理方案的系统功率约束,对所述时延评估模型进行优化求解得到所述不同处理方案各自对应的时延评估函数,包括:
利用预设约束条件对所述时延评估模型在所述不同处理方案的系统功率约束下进行最优值求解,得到所述不同处理方案各自对应的时延评估函数。
6.根据权利要求1所述的方法,其特征在于,所述将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案,包括:
基于所述不同处理方案的时延评估函数构建时延差函数,并基于所述设备状态信息、所述任务数据集信息及所述通信状态信息计算所述时延差函数;
根据所述时延差函数的计算结果,选择所述终端设备处理所述任务数据集的处理方案。
7.一种机器学习方案选择的装置,其特征在于,包括:
获取单元,用于获取终端设备的设备状态信息、任务数据集信息以及通信状态信息;
优化单元,用于根据任务数据集的不同处理方案分别构建不同处理方案各自对应的时延评估模型,并根据系统功率约束对时延评估模型进行优化,求解得到不同处理方案各自对应的时延评估函数;
选择单元,用于将所述设备状态信息、所述任务数据集信息及所述通信状态信息,与所述不同处理方案的时延评估函数进行评估计算,根据评估计算结果选择所述终端设备处理所述任务数据集的处理方案。
8.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
9.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行根据权利要求1-6中任一项所述的方法。
10.一种计算机程序产品,其特征在于,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-6中任一项所述的方法。
CN202410507493.1A 2024-04-25 2024-04-25 机器学习方案选择的方法及装置、电子设备和存储介质 Pending CN118332016A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410507493.1A CN118332016A (zh) 2024-04-25 2024-04-25 机器学习方案选择的方法及装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410507493.1A CN118332016A (zh) 2024-04-25 2024-04-25 机器学习方案选择的方法及装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN118332016A true CN118332016A (zh) 2024-07-12

Family

ID=91781869

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410507493.1A Pending CN118332016A (zh) 2024-04-25 2024-04-25 机器学习方案选择的方法及装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN118332016A (zh)

Similar Documents

Publication Publication Date Title
CN113343803A (zh) 模型训练方法、装置、设备和存储介质
CN112580733B (zh) 分类模型的训练方法、装置、设备以及存储介质
US20220130495A1 (en) Method and Device for Determining Correlation Between Drug and Target, and Electronic Device
CN114065864B (zh) 联邦学习方法、联邦学习装置、电子设备以及存储介质
CN113645637B (zh) 超密集网络任务卸载方法、装置、计算机设备和存储介质
CN116166405A (zh) 异构场景下的神经网络任务调度策略确定方法及装置
CN115222046A (zh) 神经网络结构搜索方法、装置、电子设备及存储介质
CN113657468A (zh) 预训练模型的生成方法、装置、电子设备和存储介质
CN117371508A (zh) 模型压缩方法、装置、电子设备以及存储介质
CN116151374B (zh) 分布式模型推理方法、装置、设备、存储介质以及程序产品
CN116884211A (zh) 一种交通序列预测方法、装置、电子设备及存储介质
CN115906987A (zh) 深度学习模型的训练方法、虚拟形象驱动方法和装置
CN118332016A (zh) 机器学习方案选择的方法及装置、电子设备和存储介质
CN115983372A (zh) 一种神经网络训练方法、装置、计算设备及存储介质
CN114217933A (zh) 多任务调度方法、装置、设备以及存储介质
CN114217881A (zh) 任务卸载方法及相关装置
CN113570067A (zh) 分布式系统的同步方法、装置及程序产品
CN113963433B (zh) 运动搜索方法、装置、电子设备及存储介质
CN116416500B (zh) 图像识别模型训练方法、图像识别方法、装置及电子设备
US12038989B2 (en) Methods for community search, method for training community search model, and electronic device
CN115860055B (zh) 性能确定方法、性能优化方法、装置、电子设备以及介质
CN115034388B (zh) 排序模型的量化参数的确定方法、装置及电子设备
CN115860077B (zh) 状态数据的处理方法、装置、设备以及存储介质
CN115829053B (zh) 模型运行策略确定方法、装置、电子设备以及存储介质
CN115578583B (zh) 图像处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication