CN115827232A - 一种为业务模型确定配置的方法、装置、系统及设备 - Google Patents

一种为业务模型确定配置的方法、装置、系统及设备 Download PDF

Info

Publication number
CN115827232A
CN115827232A CN202211572990.7A CN202211572990A CN115827232A CN 115827232 A CN115827232 A CN 115827232A CN 202211572990 A CN202211572990 A CN 202211572990A CN 115827232 A CN115827232 A CN 115827232A
Authority
CN
China
Prior art keywords
model
data
configuration
test data
historical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211572990.7A
Other languages
English (en)
Inventor
吴庭
唐勇
熊伟
王铮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Wangdao Holding Co ltd
Original Assignee
Hangzhou Wangdao Holding Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Wangdao Holding Co ltd filed Critical Hangzhou Wangdao Holding Co ltd
Priority to CN202211572990.7A priority Critical patent/CN115827232A/zh
Publication of CN115827232A publication Critical patent/CN115827232A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

本申请公开了一种为业务模型确定配置的方法、装置、系统及设备,涉及人工智能的技术领域,通过采集业务模型运行时所占用的数据作为算力测试数据,再根据采集的算力测试数据和自监督模型,获得配置分配策略,最后,根据配置分配策略对业务模型进行配置,配置后的业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。由于分配资源的过程是采用神经网络模型,可以根据业务模型的实时数据进行灵活的分配,从而提高业务模型的资源利用率。

Description

一种为业务模型确定配置的方法、装置、系统及设备
技术领域
本申请涉及人工智能的技术领域,特别是涉及一种为业务模型确定配置的方法、装置、系统及设备。
背景技术
随着科学技术的发展,人工智能技术逐渐应用于人们的生活中,目前人工智能的算法往往是复杂的网络计算,则就对计算机的计算能力的需求较大,同时也对计算机的硬件需求很高,例如,图形计算卡(GraphicsProcessingUnit,GPU)算力、图形计算卡内存、网络和中央处理单元(CentralProcessingUnit,CPU)算力等资源。随着人工智能算法的应用范围不断扩大,通常需要联合多台计算机的资源进行服务,在这种情况下,业务模型的算力资源的调度就显得尤为重要。
目前,通常使用机器学习平台中相关的配置调度系统,但是在实际应用时,由于各个业务模型的数据或算法不一致,现有的配置调度系统无法灵活地适配各个业务模型,无法高效地配置各个业务模型的算力资源,造成算力资源的浪费。
发明内容
本申请提供了一种为业务模型确定配置的方法、装置、系统及设备,利用神经网络模型可以灵活地对业务模型的算力资源进行配置,从而提高运行业务模型时的资源利用率。
第一方面,本申请提供了一种为业务模型确定配置的方法,该方法包括:
采集业务模型的算力测试数据,所述算力测试数据用于体现业务模型运行时的资源、服务和模型的相关数据;
基于算力测试数据和自监督模型,确定配置分配策略,所述自监督模型为训练完成的神经网络模型,所述自监督模型的训练样本包括多个历史算力数据和多个历史算力数据中每个历史算力数据对应的训练调整量;
根据配置分配策略对业务模型进行配置,配置后业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
可选地,基于算力测试数据和自监督模型,确定配置分配策略之前,该方法还包括:
判断算力测试数据是否在预设的警戒范围;
基于所述算力测试数据和自监督模型,确定配置分配策略,包括:
若确定算力测试数据在预设的警戒范围,则,执行基于所述算力测试数据和自监督模型,确定配置分配策略。
可选地,基于算力测试数据和自监督模型,确定配置分配策略,包括:
将算力测试数据输入到自监督模型中,获得算力测试数据中各指标的调整量;
根据各指标的调整量确定配置分配策略。
可选地,自监督模型的训练过程包括:
获得多个业务模型的多个历史算力数据;
利用数学模型对多个历史算力数据分别进行数学计算,获得多个历史算力数据中每个历史算力数据对应的训练调整量;
将多个历史算力数据以及多个历史算力数据中每个历史算力数据对应的训练调整量作为训练样本,对初始模型进行训练,获得自监督模型。
可选地,该方法还包括:
将算力测试数据和配置分配策略保存到数据库中,所述数据库中的数据用于对自监督模型进行优化训练。
可选地,算力测试数据包括下述数据中的至少一项:业务模型运行时占用的资源数据、业务模型运行时占用的服务数据和业务模型的模型数据。
第二方面,本申请提供了一种为业务模型确定配置的系统,该系统包括采集模块、决策模块和执行模块,
采集模块,用于采集业务模型的算力测试数据,并向决策模块传输算力测试数据,所述算力测试数据用于体现业务模型运行时的资源、服务和模型的相关数据;
决策模块,用于基于算力测试数据和自监督模型,确定配置分配策略,并向执行模块发送配置分配策略,所述自监督模型为训练完成的神经网络模型,所述自监督模型的训练样本包括多个历史算力数据和多个历史算力数据中每个历史算力数据对应的训练调整量;
执行模块,用于根据配置分配策略对业务模型进行配置,配置后业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
第三方面,本申请提供了一种为业务模型确定配置的装置,该装置包括:
采集单元,用于采集业务模型的算力测试数据,所述算力测试数据用于体现业务模型运行时的资源、服务和模型的相关数据;
决策单元,用于基于算力测试数据和自监督模型,确定配置分配策略,所述自监督模型为训练完成的神经网络模型,所述自监督模型的训练样本包括多个历史算力数据和多个历史算力数据中每个历史算力数据对应的训练调整量;
处理单元,用于根据配置分配策略对业务模型进行配置,配置后业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
第四方面,本申请提供了一种电子设备,该电子设备包括存储器和处理器:
存储器用于存储计算机程序;
处理器用于根据计算机程序执行上述第一方面提供的方法。
第五方面,本申请还提供了一种计算机可读存储介质,计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行上述第一方面提供的方法。
由此可见,本申请具有如下有益效果:
本申请提供了一种为业务模型确定配置的方法,首先采集业务模型运行时所占用的数据作为算力测试数据,再根据采集的算力测试数据和自监督模型,获得配置分配策略,最后,根据配置分配策略对业务模型进行配置,配置后的业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。由于分配资源的过程是采用神经网络模型,可以根据业务模型的实时数据进行灵活的分配,并且对于同一个业务模型,还可以不断优化该模型的配置分配策略,从而提高业务模型的资源利用率,一定程度上也可以提高业务模型的运行效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例中一种为业务模型确定配置的方法的流程示意图;
图2为本申请实施例中一种为业务模型确定配置的系统200的结构示意图;
图3为本申请实施例中一种为业务模型确定配置的方法的一实施例的流程示意图;
图4为本申请实施例中一种为业务模型确定配置的装置400的结构示意图;
图5为本申请实施例中一种电子设备500的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例中提到的“第一算力测试数据”、“第一训练样本”等名称中的“第一”只是用来做名字标识,并不代表顺序上的第一。该规则同样适用于“第二”、“第三”等。
目前,为业务模型确定配置的系统为运行业务模型平台自带的配置系统,由于配置系统的内部配置是不允许用户进行根据业务模型进行相应的改变,造成配置系统不会对不同的业务模型进行针对性地合理配置,无法合理地为业务模型确定配置,造成运行业务模型时算力资源不足或算力资源浪费。
本申请实施例中,通过采集业务模型的算力测试数据,再基于算力测试数据和自监督模型确定更加合理的配置分配策略,使得对业务模型进行针对性配置成为可能。具体实现时,该方法例如可以包括:首先采集业务模型运行时的算力测试数据,再基于算力测试数据和自监督模型,可以确定配置分配策略,最后根据配置分配策略对该业务模型进行配置,配置后业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。可见,本申请实施提供的方法,借助训练好的自监督模型对业务模型的算力测试数据进行处理,可以使得为业务模型配置分配的过程更加灵活,可以为业务模型有针对性地、合理地配置算力资源,从而提高算力资源的利用率。
为便于理解本申请实施例提供的为业务模型确定配置的方法的具体实现,下面将结合附图进行说明。
需要说明的是,实施该为业务模型确定配置的方法的主体可以为本申请实施例提供的为业务模型确定配置的系统,也可以为本申请实施例提供的为业务模型确定配置的装置,该为业务模型确定配置的装置可以承载于电子设备或电子设备的功能模块中。本申请实施例中的电子设备,可以是任意的能够实施本申请实施例中的为业务模型确定配置的设备,例如可以是物联网(InternetofThings,IoT)设备。
图1为本申请实施例提供的一种为业务模型确定配置的方法的流程示意图。该方法可以应用于为业务模型确定配置的系统,该为业务模型确定配置的系统例如可以是图2所示的为业务模型确定配置的系统200;该方法也可以应用于为业务模型确定配置的装置,该为业务模型确定配置的装置例如可以是如图4所示的为业务模型确定配置的装置400,或者,该为业务模型确定配置的装置也可以由集成于图5所示的电子设备500中的功能模块。
如图1所示,该方法包括以下S101~S103:
S101:采集业务模型的算力测试数据,所述算力测试数据用于体现业务模型运行时的资源、服务和模型的相关数据。
业务模型为计算机用作业务服务的人工智能模型,为了使得业务模型的配置分配策略合理化,首先需要采集业务模型的算力测试数据,再基于算力测试数据和自监督模型,确定该业务模型的配置分配策略,最后根据配置分配策略对该业务模型进行配置,因此,本申请实施例通过S101采集业务模型的算力测试数据,为获得配置分配策略提供了前置条件。
业务模型在运行时,会占用计算机的资源数据和服务数据,同时业务模型本身也会产生模型数据,则,S101中的算力测试数据包括上述数据中的至少一项。其中,资源数据可以包括三个部分:CPU数据、内存数据和GPU数据,服务数据可以包括两个部分:无状态服务的资源数据和无状态服务的进程数据。
其中,CPU数据例如可以包括:CPU的负载数据和CPU的占用率数据;内存数据例如可以包括:内存的总内存数据、内存的空闲内存数据、内存的剩余可用内存数据以及内存的占用率数据;GPU数据例如可以包括:GPU的功率数据、GPU的温度数据、GPU的总内存数据、GPU的空闲内存数据、GPU的占用率数据以及GPU的进程数据。
其中,无状态服务的资源数据例如可以包括:该服务的内存占用数据和显卡占用数据;无状态服务的进程数据例如可以包括:服务的调用量数据、服务的调用耗时(计算耗时和网络耗时)数据以及服务的调用网络流量数据。
其中,业务模型的模型数据可以包括:业务模型的浮点运算数(floating-pointoperations,FLOPs)、业务模型运行时显卡内存占用数据、业务模型过去一段时间内计算耗时数据以及业务模型的失败率数据。
S102:基于所述算力测试数据和自监督模型,确定配置分配策略,所述自监督模型为训练完成的神经网络模型,所述自监督模型的训练样本包括多个历史算力数据和多个历史算力数据中每个历史算力数据对应的训练调整量。
作为一个示例,S102之前可以包括:判断算力测试数据是否在预设的警戒范围内,若确定算力测试数据在该预设的警戒范围内,则执行S102。
其中,对于算力测试数据有预先设置相应的警戒范围,在业务模型运行时,如果该算力测试数据在该警戒范围内,则表征所述业务模型在实际运行时,没有经过本申请实施例干预时使用的算力资源不够合理,需要通过本申请实施例提供的方法为业务模型进行重新的配置,使得干预后为该业务模型分配的算力资源更加合理(即干预后该业务模型的算力测试数据在预设的警戒范围内),这样,后续运行业务模型时,提高了该业务模型对算力资源的利用率。此外,如果算力测试数据不在该预设的警戒范围,可以表征所述业务模型在实际运行时,没有经过本申请实施例干预时使用的算力资源相对合理,可以不通过本申请实施例提供的方法进行干预,即,可以不对该业务模型执行S102。
作为一个示例,S102可以包括:将算力测试数据输入到自监督模型中,获得算力测试数据中各指标的调整量,并根据各指标的调整量确定配置分配策略。
其中,自监督模型的训练过程包括:获得多个业务模型的多个历史算力数据;利用数学模型对多个历史算力数据分别进行数学计算,获得多个历史算力数据中每个历史算力数据对应的训练调整量;将多个历史算力数据以及多个历史算力数据中每个历史算力数据对应的训练调整量作为训练样本,对初始模型进行训练,获得自监督模型。其中,历史算力数据可以是数据库中保存的各业务模型运行时的算力测试数据。
基于训练样本训练初始模型获得自监督模型的具体过程例如可以包括:将训练样本1中历史算力数据1输入初始模型,则将初始模型的输出调整量1与训练样本1的训练调整量1进行比较获得比较结果0,基于比较结果0调整该初始模型,获得自监督模型1;将训练样本2中的历史算力数据2输入自监督模型1,将自监督模型1的输出调整量2与训练样本2的训练调整量2进行比较获得比较结果1,基于比较结果1调整自监督模型1,获得自监督模型2;以此类推,直到所获得的自监督模型满足预设条件,则将满足所述预设条件时的自监督模型记作训练好的自监督模型(即S102中的自监督模型)。
其中,利用数学模型对多个历史算力数据分别进行数据计算的过程中运用的算法可以包括反向传播算法。
S103:根据所述配置分配策略对所述业务模型进行配置,配置后所述业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
需要说明的是,将算力测试数据和配置分配策略保存到数据库中,根据实际需求,可以周期性或者其他预设的优化配置分配策略,基于数据库中的数据对自监督模型进行优化训练,从而更新自监督模型对于不同业务模型的配置分配策略,使得可以更好地为业务模型确定配置。
保存在数据库中的算力测试数据作为历史数据,算力测试数据对应的配置分配策略作为历史配置分配策略。历史配置分配策略可以根据不同的周期,划分为不同的历史配置分配策略,从而构建不同时间维度的历史配置分配策略,使得分析历史配置分配策略可以更加的直观。
可见,本申请实施例的方法,首先采集业务模型运行时的算力测试数据,再基于算力测试数据和自监督模型,可以确定配置分配策略,最后根据配置分配策略对该业务模型进行配置,配置后业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数,从而实现根据业务模型的数据灵活地为业务模型确定配置并且进行相应的操作,提高该业务模型运行时算力资源的利用率。
本申请实施例中的系统例如可以参见图2所示的为业务模型确定配置的系统200,例如可以包括:
采集模块201,用于采集业务模型的算力测试数据,并将算力测试数据传输至决策模块202;
决策模块202,用于基于算力测试数据和自监督模型,确定配置分配策略,并将包含配置分配策略的消息发送至执行模块203;
执行模块203,用于根据配置分配策略对业务模型进行配置,配置后业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
可选地,决策模块202还包括:
自监督模型2021,用于基于算力测试数据输出配置分配策略。
可选地,决策模块202还可以用于:
将算力测试数据和配置分配策略保存到数据库中,所述数据库中的数据用于对自监督模型进行优化训练;
将数据库中的数据按时间维度进行分类,获得分类后的配置分配策略。
为了使得本申请实施例提供的方法更加清楚且易于理解,下面结合图3对该方法应用于图2所示的为业务模型确定配置的系统200的一个具体实例进行说明。
如图3所示,该实施例如可以包括:
S301:采集模块201采集业务模型的第一算力测试数据,并传输至决策模块202,所述第一算力数据用于体现业务模型运行时的资源、服务和模型的相关数据。
S302:决策模块202确定当第一算力测试数据在预设的警戒值范围内,则执行S303。
决策模块接收到由采集模块发送的第一算力测试数据,首先判断第一算力测试数据是否在预设的警戒值范围内,如果不在,则说明该业务模型的配置分配属于合理的配置分配策略,无需重新进行配置;如果在,则说明需要重新对该业务模型进行配置,以便之后的配置分配达到合理的配置分配策略。
S303:决策模块202将第一算力测试数据输入训练好的自监督模型,获得第一输出调整量,并基于第一输出调整量确定第一配置分配策略。
训练自监督模型的训练样本中,利用数学模型对历史算力数据进行数学计算,获得该历史算力数据对应的训练调整量。其中,数学模型例如可以是多个线性模型。
作为一个示例,自监督模型的训练样本可以包括采集模块采集的多个历史算力数据以及多个历史算力数据中每个历史算力数据对应的训练调整量。根据初始模型获得的多个输出调整量和多个训练调整量进行比较,反复调整初始模型,直到调整初始模型满足预设条件,则将满足预设条件的初始模型记作训练好的自监督模型。其中,预设条件可以包括:输出调整量和训练调整量之间的差距小于10%,或者,训练样本都用于一次训练。
对于训练好的自监督模型,第一算力测试数据对应的第一输出调整量,与利用数学模型对第一算力测试数据进行数学计算获得的训练调整量可以近似看作相等,为较为合理的对业务模型的算力进行配置分配的依据。
S304:决策模块202将第一算力测试数据和第一配置分配策略保存到数据库中。
为了将自监督模型进行优化训练,需要将算力测试数据和配置分配策略保存至数据库。除此之外,数据库中的配置分配策略还可以根据时间维度进行分类,构建为不同时间类别的配置分配策略,以便可以直观地分析数据。
S305:决策模块202将第一配置分配策略传输至执行模块203。
需要说明的是,本申请实施例中S304与S305的执行顺序不作限定,可以是先执行S304再执行S305,也可以先执行S305再执行S304,还可以同时执行S304与S305。
S306:执行模块203根据第一配置分配策略对业务模型进行配置,配置后所述业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
本实施例提供了一种为业务模型确定配置的方法,首先采集模块201采集业务模型的算力测试数据,并将第一算力测试数据传输至决策模块202;决策模块202判断若第一算力测试数据在预设的警戒值内,则,将第一算力测试数据输入训练好的自监督模型中,获得第一输出调整量,并基于第一输出调整量确定第一配置分配策略;决策模块202将第一算力测试数据和第一配置分配策略保存至数据库中,可以使自监督模型进行优化训练;决策模块202将第一配置分配策略传输至执行模块203,执行模块203根据第一配置分配策略对业务模型进行配置。
这样,本申请实施例通过采集模块201采集业务模型的算力测试数据,再通过决策模块202中的自监督模型将算力测试数据进行深度学习和调整量训练,得到配置分配策略,实现对数据集中化处理统计,使得为业务模型配置分配的过程更加灵活,可以合理地配置算力资源,提高算力资源的利用率,并且获得配置分配策略之后,可以触发相应的操作工作,可以自动新增服务实例并注册上线,从而实现相应资源的自动扩容和降容。
参见图4,本申请实施例提供一种为业务模型确定配置的装置400,该装置包括:
采集单元401,用于采集业务模型的算力测试数据,所述算力测试数据用于体现业务模型运行时的资源、服务和模型的相关数据;
决策单元402,用于基于算力测试数据和自监督模型,确定配置分配策略,所述自监督模型为训练完成的神经网络模型,所述自监督模型的训练样本包括多个历史算力数据和多个历史算力数据中每个历史算力数据对应的训练调整量;
第一处理单元403,用于根据配置分配策略对业务模型进行配置,配置后业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
可选地,该装置400还包括:
第二处理单元,用于判断算力测试数据是否在预设的警戒范围,若确定算力测试数据在预设的警戒范围,则,执行基于算力测试数据和自监督模型,确定配置分配策略。
可选地,决策单元402具体用于:
将算力测试数据输入到自监督模型中,获得算力测试数据中各指标的调整量;根据各指标的调整量确定配置分配策略。
可选地,该装置400还包括:
保存单元,用于将算力测试数据和配置分配策略保存到数据库中,所述数据库中的数据用于对自监督模型进行优化训练。
需要说明的是,该装置400的具体实现方式以及达到的效果,可以参见上述图1或图3提供的方法中的相关描述,这里不再赘述。
本申请实施例还提供了一种电子设备500,如图5所示,所述设备500包括存储器501以及处理器502:
存储器501用于存储计算机程序;
处理器502用于根据计算机程序执行上述图1或图3提供的方法。
此外,本申请还提供了一种计算机可读存储介质,计算机可读存储介质用于存储计算机程序,计算机程序用于执行图1或图3提供的方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如只读存储器(英文:read-only memory,ROM)/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如路由器等网络通信设备)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目标。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本申请示例性的实施方式,并非用于限定本申请的保护范围。

Claims (10)

1.一种为业务模型确定配置的方法,其特征在于,所述方法包括:
采集业务模型的算力测试数据,所述算力测试数据用于体现业务模型运行时的资源、服务和模型的相关数据;
基于所述算力测试数据和自监督模型,确定配置分配策略,所述自监督模型为训练完成的神经网络模型,所述自监督模型的训练样本包括多个历史算力数据和多个历史算力数据中每个历史算力数据对应的训练调整量;
根据所述配置分配策略对所述业务模型进行配置,配置后所述业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
2.根据权利要求1所述的方法,其特征在于,所述基于所述算力测试数据和自监督模型,确定配置分配策略之前,所述方法还包括:
判断所述算力测试数据是否在预设的警戒范围;
所述基于所述算力测试数据和自监督模型,确定配置分配策略,包括:
若确定所述算力测试数据在所述预设的警戒范围,则,执行所述基于所述算力测试数据和所述自监督模型,确定所述配置分配策略。
3.根据权利要求1所述的方法,其特征在于,所述基于所述算力测试数据和自监督模型,确定配置分配策略,包括:
将所述算力测试数据输入到所述自监督模型中,获得所述算力测试数据中各指标的调整量;
根据所述各指标的调整量确定所述配置分配策略。
4.根据权利要求1所述的方法,其特征在于,所述自监督模型的训练过程包括:
获得多个业务模型的多个历史算力数据;
利用数学模型对所述多个历史算力数据分别进行数学计算,获得所述多个历史算力数据中每个历史算力数据对应的训练调整量;
将所述多个历史算力数据以及所述多个历史算力数据中每个历史算力数据对应的训练调整量作为训练样本,对初始模型进行训练,获得所述自监督模型。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述方法还包括:
将所述算力测试数据和所述配置分配策略保存到数据库中,所述数据库中的数据用于对所述自监督模型进行优化训练。
6.根据权利要求1-4任一项所述的方法,其特征在于,所述算力测试数据包括下述数据中的至少一项:所述业务模型运行时占用的资源数据、所述业务模型运行时占用的服务数据和所述业务模型的模型数据。
7.一种为业务模型确定配置的系统,其特征在于,所述系统包括:采集模块、决策模块和执行模块,
所述采集模块,用于采集业务模型的算力测试数据,并向所述决策模块传输所述算力测试数据,所述算力测试数据用于体现业务模型运行时的资源、服务和模型的相关数据;
所述决策模块,用于基于所述算力测试数据和自监督模型,确定配置分配策略,并向所述执行模块发送所述配置分配策略,所述自监督模型为训练完成的神经网络模型,所述自监督模型的训练样本包括多个历史算力数据和多个历史算力数据中每个历史算力数据对应的训练调整量;
所述执行模块,用于根据所述配置分配策略对所述业务模型进行配置,配置后所述业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
8.一种为业务模型确定配置的装置,其特征在于,所述装置包括:
采集单元,用于采集业务模型的算力测试数据,所述算力测试数据用于体现业务模型运行时的资源、服务和模型的相关数据;
决策单元,用于基于所述算力测试数据和自监督模型,确定配置分配策略,所述自监督模型为训练完成的神经网络模型,所述自监督模型的训练样本包括多个历史算力数据和多个历史算力数据中每个历史算力数据对应的训练调整量;
处理单元,用于根据所述配置分配策略对所述业务模型进行配置,配置后所述业务模型的资源、服务和模型分别对应资源配置参数、服务配置参数和模型配置参数。
9.一种电子设备,其特征在于,所述设备包括存储器和处理器,所述处理器用于执行所述存储器中存储的程序,运行如权利要求1-6任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行权利要求1-6任一项所述的方法。
CN202211572990.7A 2022-12-08 2022-12-08 一种为业务模型确定配置的方法、装置、系统及设备 Pending CN115827232A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211572990.7A CN115827232A (zh) 2022-12-08 2022-12-08 一种为业务模型确定配置的方法、装置、系统及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211572990.7A CN115827232A (zh) 2022-12-08 2022-12-08 一种为业务模型确定配置的方法、装置、系统及设备

Publications (1)

Publication Number Publication Date
CN115827232A true CN115827232A (zh) 2023-03-21

Family

ID=85544661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211572990.7A Pending CN115827232A (zh) 2022-12-08 2022-12-08 一种为业务模型确定配置的方法、装置、系统及设备

Country Status (1)

Country Link
CN (1) CN115827232A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116501501A (zh) * 2023-06-21 2023-07-28 亚信科技(中国)有限公司 算力资源管理和编排方法、装置、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116501501A (zh) * 2023-06-21 2023-07-28 亚信科技(中国)有限公司 算力资源管理和编排方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
Bhattacharjee et al. Barista: Efficient and scalable serverless serving system for deep learning prediction services
CN109992404A (zh) 集群计算资源调度方法、装置、设备及介质
CN113037877B (zh) 云边端架构下时空数据及资源调度的优化方法
CN110991875A (zh) 一种平台用户质量评估系统
CN112685170A (zh) 备份策略的动态优化
CN113900921B (zh) 法院信息系统运行状态评估方法、装置、设备及存储介质
CN110445939B (zh) 容量资源的预测方法及装置
CN111985851B (zh) 银行网点资源调度方法及装置
CN112598443A (zh) 一种基于深度学习的线上渠道业务数据处理方法及系统
CN110210980A (zh) 一种驾驶行为评估方法、装置和存储介质
CN115827232A (zh) 一种为业务模型确定配置的方法、装置、系统及设备
CN111752706A (zh) 资源配置方法、装置及存储介质
CN103442087B (zh) 一种基于响应时间趋势分析的Web服务系统访问量控制装置和方法
CN113204692A (zh) 数据处理任务执行进度的监测方法及装置
Tuli et al. Optimizing the performance of fog computing environments using ai and co-simulation
CN115883392A (zh) 算力网络的数据感知方法、装置、电子设备及存储介质
CN113572802B (zh) 对象流量的控制方法、装置及介质
CN113570114B (zh) 一种资源服务智能匹配方法、系统和计算机设备
CN114936089A (zh) 资源调度方法、系统、设备及存储介质
CN114401195A (zh) 服务器的容量调整方法及装置、存储介质及电子设备
CN111598275B (zh) 一种电动汽车信用分评测方法、装置、设备和介质
CN113762972A (zh) 数据存储控制方法及装置、电子设备、存储介质
CN114327925A (zh) 一种电力数据实时计算调度优化方法及系统
Aljulayfi et al. Towards elastic edge computing environments: an investigation of adaptive approaches
Rozehkhani et al. Efficient cloud data center: An adaptive framework for dynamic Virtual Machine Consolidation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination