CN114239844A - 算力的计算方法、装置、终端设备和存储介质 - Google Patents

算力的计算方法、装置、终端设备和存储介质 Download PDF

Info

Publication number
CN114239844A
CN114239844A CN202111281679.2A CN202111281679A CN114239844A CN 114239844 A CN114239844 A CN 114239844A CN 202111281679 A CN202111281679 A CN 202111281679A CN 114239844 A CN114239844 A CN 114239844A
Authority
CN
China
Prior art keywords
neural network
task
training
model
different
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111281679.2A
Other languages
English (en)
Inventor
黄茗
杨军
王滨
钱宝生
原鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 15 Research Institute
Original Assignee
CETC 15 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 15 Research Institute filed Critical CETC 15 Research Institute
Priority to CN202111281679.2A priority Critical patent/CN114239844A/zh
Publication of CN114239844A publication Critical patent/CN114239844A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种算力的计算方法、装置、终端设备和存储介质,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。

Description

算力的计算方法、装置、终端设备和存储介质
技术领域
本发明涉及计算机技术领域,尤其涉及一种算力的计算方法、装置、终端设备和存储介质。
背景技术
随着人工智能领域的快速发展,各种基于深度学习模型的应用不断被开发,如何高效地为用户提供智能服务是IT从业者们关心的问题。硬件是其中一个比较关键的问题。目前,国内有许多针对智能计算而开发的NPU加速卡,这些加速卡的算力不能简单通过硬件数据进行计算。而且,通过硬件数据计算出来的算力仅是理想值,实际算力需要根据具体的深度学习应用来测试。
MLPerf是一套用于测量和提高机器学习软硬件性能的通用基准,主要用来测量训练和推理不同神经网络所需要的时间。但是MLPerf对部分NPU加速卡并不适用,无法对用户任务的算力进行预测。
发明内容
本发明意在提供一种算力的计算方法、装置、终端设备和存储介质,以解决现有技术中存在的不足,本发明要解决的技术问题通过以下技术方案来实现。
第一个方面,本发明实施例提供一种算力的计算方法,所述方法包括:
获取待预测算力的用户任务,其中,所述用户任务至少包括目标任务类型和目标任务量;
根据预先建立的预训练模型,对与所述目标任务类型的用户任务进行模型推理,确定执行所述用户任务所需要的与所述目标任务量对应的算力信息,其中,所述预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,所述目标神经网络模型是预设神经网络处理器经过转换得到的,其中,所述预设神经网络处理器包括NPU加速卡或CPU与NPU加速卡的组合。
可选地,所述预先建立的预训练模型通过如下方式得到:
获取不同任务类型对应的训练样本集,其中,所述不同任务类型至少包括:图像分类任务、物体识别任务、推荐任务、语音识别任务、文本识别任务或强化学习任务;
采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型;
根据不同类型的预设神经网络处理器,对所述初始神经网络模型进行转换,确定与所述预设神经网络处理器相对应的预训练模型。
可选地,所述获取不同任务类型对应的训练样本集,包括:
通过ImageNet数据库、COCO数据库或Wikipedia数据库,获取不同任务类型对应的训练样本集。
可选地,所述采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型,包括:
根据图像分类样本集对VGG19模型进行训练,得到初始图像分类神经网络模型;
根据物体识别样本集对yolov3模块进行训练,得到初始物体识别神经网络模型;
根据推荐任务样本集对DLRM模型进行训练,得到初始推荐任务神经网络模型;
根据语音识别样本集对RNN-T模型进行训练,得到初始语音识别神经网络模型;
根据文本识别样本集对BERT模型进行训练,得到初始文本识别神经网络模型;
根据强化学习样本集对MINIGO模型进行训练,得到初始强化学习神经网络模型。
可选地,所述根据不同类型的预设神经网络处理器,对所述初始神经网络模型进行转换,确定与所述预设神经网络处理器相对应的预训练模型,包括:
获取深度学习样本集;
采用深度学习框架建立网络架构,其中,所述深度学习框架至少包括tensorflow、pytorch中的一种;
根据所述深度学习样本集,对所述不同类型的预设神经网络处理器对应的初始神经网络模型进行训练,得到训练结果;
若所述训练结果满足预设条件,则将与不同类型的预设神经网络处理器对应的初始神经网络模型,确定为所述预训练模型。
第二个方面,本发明实施例提供一种算力的计算装置,所述装置包括:
获取模块,用于获取待预测算力的用户任务,其中,所述用户任务至少包括目标任务类型和目标任务量;
计算模块,用于根据预先建立的预训练模型,对与所述目标任务类型的用户任务进行模型推理,确定执行所述用户任务所需要的与所述目标任务量对应的算力信息,其中,所述预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,所述目标神经网络模型是预设神经网络处理器经过转换得到的,其中,所述预设神经网络处理器包括NPU加速卡或CPU与NPU加速卡的组合。
可选地,所述装置还包括训练模块,所述训练模块用于:
获取不同任务类型对应的训练样本集,其中,所述不同任务类型至少包括:图像分类任务、物体识别任务、推荐任务、语音识别任务、文本识别任务或强化学习任务;
采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型;
根据不同类型的预设神经网络处理器,对所述初始神经网络模型进行转换,确定与所述预设神经网络处理器相对应的预训练模型。
可选地,所述训练模块用于:
通过ImageNet数据库、COCO数据库或Wikipedia数据库,获取不同任务类型对应的训练样本集。
可选地,所述训练模块具体用于:
根据图像分类样本集对VGG19模型进行训练,得到初始图像分类神经网络模型;
根据物体识别样本集对yolov3模块进行训练,得到初始物体识别神经网络模型;
根据推荐任务样本集对DLRM模型进行训练,得到初始推荐任务神经网络模型;
根据语音识别样本集对RNN-T模型进行训练,得到初始语音识别神经网络模型;
根据文本识别样本集对BERT模型进行训练,得到初始文本识别神经网络模型;
根据强化学习样本集对MINIGO模型进行训练,得到初始强化学习神经网络模型。
可选地,所述训练模块具体用于:
获取深度学习样本集;
采用深度学习框架建立网络架构,其中,所述深度学习框架至少包括tensorflow、pytorch中的一种;
根据所述深度学习样本集,对所述不同类型的预设神经网络处理器对应的初始神经网络模型进行训练,得到训练结果;
若所述训练结果满足预设条件,则将与不同类型的预设神经网络处理器对应的初始神经网络模型,确定为所述预训练模型。
第三个方面,本发明实施例提供一种终端设备,包括:至少一个处理器和存储器;
所述存储器存储计算机程序;所述至少一个处理器执行所述存储器存储的计算机程序,以实现第一个方面提供的算力的计算方法。
第四个方面,本发明实施例提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,所述计算机程序被执行时实现第一个方面提供的算力的计算方法。
本发明实施例包括以下优点:
本发明实施例提供的算力的计算方法、装置、终端设备和存储介质,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。
附图说明
图1是本发明的一种算力的计算方法实施例的步骤流程图;
图2是本发明的又一种算力的计算方法实施例的步骤流程图;
图3是本发明的再一种算力的计算方法实施例的步骤流程图;
图4是本发明的预训练模型建立的步骤流程图;
图5是本发明的一种算力的计算装置实施例的结构框图;
图6是本发明的一种终端设备的结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
本发明一实施例提供一种算力的计算方法,用于对用户任务进行算力预测。本实施例的执行主体为算力的计算装置,设置在终端设备上,例如,终端设备至少包括手机终端、平板终端和计算机终端等。
参照图1,示出了本发明的一种算力的计算方法实施例的步骤流程图,该方法具体可以包括如下步骤:
S101、获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;
具体地,在对终端设备的算力进行预测时,单纯依靠终端设备上的硬件设备NPU加速卡进行计算,是不准确,需要一些辅助的软件进行更加精确的计算,因此,MLPerf是一套用于测量和提高机器学习软硬件性能的通用基准,主要用来测量训练和推理不同神经网络所需要的时间。MLPerf测试集包含了不同领域的Benchmark子项,主要包括图像分类、物体识别、翻译、推荐、语音识别、情感分析以及强化学习。
但是MLPerf对国内的部分NPU(Neural-Network Processing Unit,神经网络处理器)加速卡并不适用,这些NPU加速卡不支持训练,只能进行推理应用。对于推理的预训练模型,需要先进行转换才能使用。同时,MLPerf没有其他类型CPU(Central Processing Unit/Processor,中央处理器)的运算结果,无法对比不同CPU和NPU组合设备的算力区别。因此,本发明实施例提供一种算力的计算方法,终端设备上安装有不同类型的CPU和/或NPU加速卡,终端设备获取到待预测算力的用户任务,该用户任务包括目标任务类型和目标任务量。
具体地,根据不同的深度学习领域以及用户常用的应用,确定用户任务的目标任务类型,具体方式如下:
通过爬取网络新闻和各种人工智能领域的信息,同时对用户进行需求调研,得到深度学习领域的不同任务类型,包括:图像分类、目标识别、推荐、语音、文本和强化学习。
示例性的,用户任务为对100张图像进行目标物的识别。
S102、根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,其中,所述预设神经网络处理器包括NPU加速卡或CPU与NPU加速卡的组合。
具体的,在终端设备上预先建立的预训练模型,该预训练模型是根据不同的任务类型训练得到的目标神经网络模型,由于在终端设备上会安装预设神经网络处理器,其中,预设神经网络处理器至少包括各种不同类型的CPU和/或NPU加速卡,例如,预设神经网络处理器可以是NPU加速卡,也可以是CPU和NPU加速卡的组合,因此,该目标神经网络模型是不同的CPU或NPU加速卡经过转换得到的,该目标神经网络模型是CPU或NPU可以识别的。
终端设备在获取到用户输入的用户任务后,通过终端设备上的CPU和/或NPU上的预训练模型,根据目标任务类型选择对应的神经网络模型,通过该对应的神经网络模型对该用户任务中的目标任务量进行计算,得到用户任务对应的算力信息。
其中,该预训练模型在训练过程中,通过不断增加任务量,来计算不同的算力信息,最终,确定能够最大程度利用加速卡的性能,选择稳定运行状态下的最优算力结果的预训练模型。
本发明实施例提供的算力的计算方法,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。
本发明又一实施例对上述实施例提供的算力的计算方法做进一步补充说明。
可选地,预先建立的预训练模型通过如下方式得到:
步骤A1、获取不同任务类型对应的训练样本集,其中,不同任务类型至少包括:图像分类任务、物体识别任务、推荐任务、语音识别任务、文本识别任务或强化学习任务;
步骤A2、采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型;
步骤A3、根据不同类型的预设神经网络处理器,对初始神经网络模型进行转换,确定与预设神经网络处理器相对应的预训练模型。
可选地,获取不同任务类型对应的训练样本集,包括:
通过ImageNet数据库、COCO数据库或Wikipedia数据库,获取不同任务类型对应的训练样本集。
可选地,采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型,包括:
根据图像分类样本集对VGG19模型进行训练,得到初始图像分类神经网络模型;
根据物体识别样本集对yolov3模块进行训练,得到初始物体识别神经网络模型;
根据推荐任务样本集对DLRM模型进行训练,得到初始推荐任务神经网络模型;
根据语音识别样本集对RNN-T模型进行训练,得到初始语音识别神经网络模型;
根据文本识别样本集对BERT模型进行训练,得到初始文本识别神经网络模型;
根据强化学习样本集对MINIGO模型进行训练,得到初始强化学习神经网络模型。
具体地,收集不同的数据集和构建神经网络结构,具体方式如下:
在人工智能领域,不同的应用对于数据的需求差别很大,因此需要针对每个应用找到特定的数据集。同时,需要设置与该不同的数据集即样本集对应的深度神经网络,以发挥加速卡的性能。在本发明实施例中通过ImageNet、COCO、Wikipedia等数据集获取样本集,并存储到数据仓库。
在本发明实施例中还需要进行网络模型构建,为每个领域构建不同的深度神经网络模型,即初始神经网络模型:
(1)图像分类-VGG19
VGG19(Visual Geometry Group)采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5),包含了19个隐藏层(16个卷积层和3个全连接层);
(2)目标识别-YOLO
Yolo使用了darknet-53的前面的52层,yolov3是一个全卷积网络,大量使用残差的跳层连接,并且为了降低池化带来的梯度负面效果,直接摒弃了POOLing,用conv的stride来实现降采样。
(3)DLRM深度学习推荐模型
DLRM模型用embeddings来处理表示分类数据的稀疏特征,用MLP来处理稠密特征,然后将这些特征显示的用24中的统计技术进行交叉。最后通过另一个MLP后处理交叉结果来找到事件概率。
(4)文本-BERT(Bidirectional Encoder Representation from Transformers,文本训练模型)
BERT是一个预训练的语言表征模型。它采用新的MLM结构,以致能生成深度的双向语言表征。
(5)语音-RNN-T强大的端到端语音识别框架
RNN-T使得模型具有了端到端联合优化、具有语言建模能力、便于实现Online语音识别等突出的优点,更加适合语音任务。
(6)强化学习-MINIGO
MINIGO用的是强化学习,解决的是策略问题,分析当前所处环境,依据现在已有的经验,选择价值更高的行为,此后将会在一定时间内得到回馈。
如图4所示,图4是本发明的预训练模型建立的步骤流程图;可选地,根据不同类型的预设神经网络处理器,对初始神经网络模型进行转换,确定与预设神经网络处理器相对应的预训练模型,包括:
步骤B1、获取深度学习样本集;
步骤B2、采用深度学习框架建立网络架构,其中,深度学习框架至少包括tensorflow、pytorch中的一种;
步骤B3、根据深度学习样本集,对不同类型的预设神经网络处理器对应的初始神经网络模型进行训练,得到训练结果;
步骤B4、若训练结果满足预设条件,则将与不同类型的预设神经网络处理器对应的初始神经网络模型,确定为预训练模型。
具体的,在本发明实施例中采用的深度学习框架有tensorflow、pytorch等。部分的NPU加速卡不支持训练,而推理过程支持绝大多数的深度学习框架,因此使用常用的深度学习框架和英伟达显卡进行训练,待训练效果达到目标质量后,保留预训练模型。
图2是本发明的又一种算力的计算方法实施例的步骤流程图,如图2所示,本发明实施例提出了一种基于模型推理的NPU加速卡算力测试方法,在组合设备即终端设备上安装有不同类型的CPU和NPU加速卡,其中,CPU可以包括ARM处理芯片或X86处理芯片,在该组合设备上安装有预训练模型,其中该预训练模型是对初始神经网络模型经过NPU加速技术栈进行转换后得到。
组合设备通过得到的预训练模型进行模型推理计算,在不断改变输入数值的情况下,以能够最大程度利用加速卡的性能,最后选择稳定运行状态下的最优算力结果。
本发明实施例提供的算力计算方法包括定义任务类型,根据实际应用确定深度学习的应用领域,比如图像分类、目标识别、推荐、语音、文本和强化学习;收集相关任务需要的数据集和并设计相应的网络模型;使用英伟达加速卡进行模型训练,存储预训练模型;使用加速栈工具包将预训练模型转化,并使用不同CPU和NPU加速卡组合设备,进行模型推理并收集算力信息。
图3是本发明的再一种算力的计算方法实施例的步骤流程图,如图3所示,该算力的计算方法包括:
S1、任务定义,根据不同的深度学习领域以及用户常用的应用,确定相应的智能应用;
S2、对于不同的深度学习模型,需要收集不同的数据集和构建相应的神经网络结构;
S3、使用英伟达显卡进行深度学习模型训练,根据构建的深度神经网络使用数据集进行训练,达到相应的目标质量,并存储预训练模型;
S4、使用NPU加速栈转换预训练模型,并在不同的CPU和NPU加速卡设备中进行推理运算,收集算力信息。
具体地,不同的NPU加速卡有不同的加速栈来对初始神经网络模型进行转换,目的是将初始神经网络模型转换成加速卡能够运行的内容,即得到预训练模型。
首先使用不同的CPU和NPU加速卡进行组合,形成特定的服务设备,其中CPU有分别以x86和arm为架构的不同芯片,NPU加速卡也有各种国产品牌;接着使用所选NPU加速卡的特定加速栈进行转化;然后运行模型,在算力计算过程中,不断调整模型的输入,以能够最大程度利用加速卡的性能,最后选择稳定运行状态下的最优算力结果。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
本发明实施例提供的算力的计算方法,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。
本发明另一实施例提供一种算力的计算装置,用于执行上述实施例提供的算力的计算方法。
参照图5,示出了本发明的一种算力的计算装置实施例的结构框图,该装置具体可以包括如下模块:获取模块501和计算模块502,其中:
获取模块501用于获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;
计算模块502用于根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的。
本发明实施例提供的算力的计算装置,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。
本发明又一实施例对上述实施例提供的算力的计算装置做进一步补充说明。
可选地,装置还包括训练模块,训练模块用于:
获取不同任务类型对应的训练样本集,其中,不同任务类型至少包括:图像分类任务、物体识别任务、推荐任务、语音识别任务、文本识别任务或强化学习任务;
采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型;
根据不同类型的预设神经网络处理器,对初始神经网络模型进行转换,确定与预设神经网络处理器相对应的预训练模型。
可选地,训练模块用于:
通过ImageNet数据库、COCO数据库或Wikipedia数据库,获取不同任务类型对应的训练样本集。
可选地,训练模块具体用于:
根据图像分类样本集对VGG19模型进行训练,得到初始图像分类神经网络模型;
根据物体识别样本集对yolov3模块进行训练,得到初始物体识别神经网络模型;
根据推荐任务样本集对DLRM模型进行训练,得到初始推荐任务神经网络模型;
根据语音识别样本集对RNN-T模型进行训练,得到初始语音识别神经网络模型;
根据文本识别样本集对BERT模型进行训练,得到初始文本识别神经网络模型;
根据强化学习样本集对MINIGO模型进行训练,得到初始强化学习神经网络模型。
可选地,训练模块具体用于:
获取深度学习样本集;
采用深度学习框架建立网络架构,其中,深度学习框架至少包括tensorflow、pytorch中的一种;
根据深度学习样本集,对不同类型的预设神经网络处理器对应的初始神经网络模型进行训练,得到训练结果;
若训练结果满足预设条件,则将与不同类型的预设神经网络处理器对应的初始神经网络模型,确定为预训练模型。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明实施例提供的算力的计算装置,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。
本发明再一实施例提供一种终端设备,用于执行上述实施例提供的算力的计算方法。
图6是本发明的一种终端设备的结构示意图,如图6所示,该终端设备包括:至少一个处理器601和存储器602;
存储器存储计算机程序;至少一个处理器执行存储器存储的计算机程序,以实现上述实施例提供的算力的计算方法。
本实施例提供的终端设备,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。
本申请又一实施例提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,计算机程序被执行时实现上述任一实施例提供的算力的计算方法。
根据本实施例的计算机可读存储介质,通过获取待预测算力的用户任务,其中,用户任务至少包括目标任务类型和目标任务量;根据预先建立的预训练模型,对与目标任务类型的用户任务进行模型推理,确定执行用户任务所需要的与目标任务量对应的算力信息,其中,预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,目标神经网络模型是预设神经网络处理器经过转换得到的,通过本发明实施例中在终端设备上建立预训练模型,这样,在输入用户任务时,不论终端设备上的预设神经网络处理器是什么类型的,都可以对用户任务进行算力预测。
应该指出,上述详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语均具有与本申请所属技术领域的普通技术人员的通常理解所相同的含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式。此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,以便这里描述的本申请的实施方式能够以除了在这里图示或描述的那些以外的顺序实施。
此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了便于描述,在这里可以使用空间相对术语,如“在……之上”、“在……上方”、“在……上表面”、“上面的”等,用来描述如在图中所示的一个器件或特征与其他器件或特征的空间位置关系。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其他器件或构造之下”。因而,示例性术语“在……上方”可以包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位,如旋转90度或处于其他方位,并且对这里所使用的空间相对描述作出相应解释。
在上面详细的说明中,参考了附图,附图形成本文的一部分。在附图中,类似的符号典型地确定类似的部件,除非上下文以其他方式指明。在详细的说明书、附图及权利要求书中所描述的图示说明的实施方案不意味是限制性的。在不脱离本文所呈现的主题的精神或范围下,其他实施方案可以被使用,并且可以作其他改变。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种算力的计算方法,其特征在于,所述方法包括:
获取待预测算力的用户任务,其中,所述用户任务至少包括目标任务类型和目标任务量;
根据预先建立的预训练模型,对与所述目标任务类型的用户任务进行模型推理,确定执行所述用户任务所需要的与所述目标任务量对应的算力信息,其中,所述预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,所述目标神经网络模型是预设神经网络处理器经过转换得到的,其中,所述预设神经网络处理器包括NPU加速卡或CPU与NPU加速卡的组合。
2.根据权利要求1所述的方法,其特征在于,所述预先建立的预训练模型通过如下方式得到:
获取不同任务类型对应的训练样本集,其中,所述不同任务类型至少包括:图像分类任务、物体识别任务、推荐任务、语音识别任务、文本识别任务或强化学习任务;
采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型;
根据不同类型的预设神经网络处理器,对所述初始神经网络模型进行转换,确定与所述预设神经网络处理器相对应的预训练模型。
3.根据权利要求2所述的方法,其特征在于,所述获取不同任务类型对应的训练样本集,包括:
通过ImageNet数据库、COCO数据库或Wikipedia数据库,获取不同任务类型对应的训练样本集。
4.根据权利要求2所述的方法,其特征在于,所述采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型,包括:
根据图像分类样本集对VGG19模型进行训练,得到初始图像分类神经网络模型;
根据物体识别样本集对yolov3模块进行训练,得到初始物体识别神经网络模型;
根据推荐任务样本集对DLRM模型进行训练,得到初始推荐任务神经网络模型;
根据语音识别样本集对RNN-T模型进行训练,得到初始语音识别神经网络模型;
根据文本识别样本集对BERT模型进行训练,得到初始文本识别神经网络模型;
根据强化学习样本集对MINIGO模型进行训练,得到初始强化学习神经网络模型。
5.根据权利要求4所述的方法,其特征在于,所述根据不同类型的预设神经网络处理器,对所述初始神经网络模型进行转换,确定与所述预设神经网络处理器相对应的预训练模型,包括:
获取深度学习样本集;
采用深度学习框架建立网络架构,其中,所述深度学习框架至少包括tensorflow、pytorch中的一种;
根据所述深度学习样本集,对所述不同类型的预设神经网络处理器对应的初始神经网络模型进行训练,得到训练结果;
若所述训练结果满足预设条件,则将与不同类型的预设神经网络处理器对应的初始神经网络模型,确定为所述预训练模型。
6.一种算力的计算装置,其特征在于,所述装置包括:
获取模块,用于获取待预测算力的用户任务,其中,所述用户任务至少包括目标任务类型和目标任务量;
计算模块,用于根据预先建立的预训练模型,对与所述目标任务类型的用户任务进行模型推理,确定执行所述用户任务所需要的与所述目标任务量对应的算力信息,其中,所述预先建立的预训练模型至少包括多个不同任务类型的目标神经网络模型,所述目标神经网络模型是预设神经网络处理器经过转换得到的,其中,所述预设神经网络处理器包括NPU加速卡或CPU与NPU加速卡的组合。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括训练模块,所述训练模块用于:
获取不同任务类型对应的训练样本集,其中,所述不同任务类型至少包括:图像分类任务、物体识别任务、推荐任务、语音识别任务、文本识别任务或强化学习任务;
采用不同的训练样本集对不同的神经网络模型进行训练,得到不同的初始神经网络模型;
根据不同类型的预设神经网络处理器,对所述初始神经网络模型进行转换,确定与所述预设神经网络处理器相对应的预训练模型。
8.根据权利要求7所述的装置,其特征在于,所述训练模块用于:
通过ImageNet数据库、COCO数据库或Wikipedia数据库,获取不同任务类型对应的训练样本集。
9.一种终端设备,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机程序;所述至少一个处理器执行所述存储器存储的计算机程序,以实现权利要求1-5中任一项所述的算力的计算方法。
10.一种计算机可读存储介质,其特征在于,该计算机可读存储介质中存储有计算机程序,所述计算机程序被执行时实现权利要求1-5中任一项所述的算力的计算方法。
CN202111281679.2A 2021-11-01 2021-11-01 算力的计算方法、装置、终端设备和存储介质 Pending CN114239844A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111281679.2A CN114239844A (zh) 2021-11-01 2021-11-01 算力的计算方法、装置、终端设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111281679.2A CN114239844A (zh) 2021-11-01 2021-11-01 算力的计算方法、装置、终端设备和存储介质

Publications (1)

Publication Number Publication Date
CN114239844A true CN114239844A (zh) 2022-03-25

Family

ID=80743398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111281679.2A Pending CN114239844A (zh) 2021-11-01 2021-11-01 算力的计算方法、装置、终端设备和存储介质

Country Status (1)

Country Link
CN (1) CN114239844A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115543911A (zh) * 2022-10-26 2022-12-30 中国电子技术标准化研究院 一种异构计算设备计算能力测算的方法
CN115952009A (zh) * 2023-03-15 2023-04-11 北京泰尔英福科技有限公司 基于算网融合特征的数据中心推荐方法及装置
CN116244159A (zh) * 2023-05-08 2023-06-09 浪潮电子信息产业股份有限公司 一种训练时长预测方法、装置、多元异构计算设备及介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115543911A (zh) * 2022-10-26 2022-12-30 中国电子技术标准化研究院 一种异构计算设备计算能力测算的方法
CN115543911B (zh) * 2022-10-26 2023-08-01 中国电子技术标准化研究院 一种异构计算设备计算能力测算的方法
CN115952009A (zh) * 2023-03-15 2023-04-11 北京泰尔英福科技有限公司 基于算网融合特征的数据中心推荐方法及装置
CN116244159A (zh) * 2023-05-08 2023-06-09 浪潮电子信息产业股份有限公司 一种训练时长预测方法、装置、多元异构计算设备及介质
CN116244159B (zh) * 2023-05-08 2023-08-11 浪潮电子信息产业股份有限公司 一种训练时长预测方法、装置、多元异构计算设备及介质

Similar Documents

Publication Publication Date Title
CN114239844A (zh) 算力的计算方法、装置、终端设备和存储介质
CN112036577B (zh) 基于数据形式的应用机器学习的方法、装置和电子设备
CN109034206A (zh) 图像分类识别方法、装置、电子设备及计算机可读介质
Öztürk Which type of metrics are useful to deal with class imbalance in software defect prediction?
CN109948807A (zh) 一种主动学习方法及装置
CN112420125A (zh) 分子属性预测方法、装置、智能设备和终端
Qian et al. FESSD: SSD target detection based on feature fusion and feature enhancement
CA3135466A1 (en) User loan willingness prediction method and device and computer system
CN113627422A (zh) 一种图像分类方法及其相关设备
CN113704389A (zh) 一种数据评估方法、装置、计算机设备及存储介质
CN113449840A (zh) 神经网络训练方法及装置、图像分类的方法及装置
WO2023050143A1 (zh) 一种推荐模型训练方法及装置
CN113065634B (zh) 一种图像处理方法、神经网络的训练方法以及相关设备
CN112966592A (zh) 手部关键点检测方法、装置、设备和介质
CN116910357A (zh) 一种数据处理方法及相关装置
CN116186295A (zh) 基于注意力的知识图谱链接预测方法、装置、设备及介质
CN113850686B (zh) 投保概率确定方法、装置、存储介质及电子设备
CN113010687B (zh) 一种习题标签预测方法、装置、存储介质以及计算机设备
CN109285559B (zh) 角色转换点检测方法及装置、存储介质、电子设备
Wei et al. Structured network pruning via adversarial multi-indicator architecture selection
CN111800535A (zh) 终端运行状态的评估方法、装置、存储介质及电子设备
CN116415137B (zh) 基于多模态特征的情绪定量方法、装置、设备及存储介质
CN116310677A (zh) 一种图像处理方法及其相关设备
CN117251487A (zh) 一种项目推荐方法及其相关设备
CN116362301A (zh) 一种模型的量化方法以及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination