CN113420880A - 网络模型训练方法、装置、电子设备及可读存储介质 - Google Patents
网络模型训练方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN113420880A CN113420880A CN202110971264.1A CN202110971264A CN113420880A CN 113420880 A CN113420880 A CN 113420880A CN 202110971264 A CN202110971264 A CN 202110971264A CN 113420880 A CN113420880 A CN 113420880A
- Authority
- CN
- China
- Prior art keywords
- target
- data
- model
- delay
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 143
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000004913 activation Effects 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 9
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000000126 substance Substances 0.000 description 6
- 230000001934 delay Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种网络模型训练方法、装置、电子设备及计算机可读存储介质,该方法包括获取训练数据,并将训练数据输入初始模型,得到输出数据;其中,初始模型包括嵌入层,嵌入层基于预设网络层延迟信息构建,预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据,各类延迟数据对应于不同的设备类型;将当前设备类型、初始模型中目标网络层的目标网络层类型输入嵌入层,得到其他设备类型对应的目标延迟数据;利用目标延迟数据、训练数据和输出数据计算目标损失值,并利用目标损失值对初始模型进行参数调节;若满足训练完成条件,则基于初始模型得到目标模型;该方法使得目标模型在其他设备类型对应的设备上运行时具有最小的延迟。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种网络模型训练方法、网络模型训练装置、电子设备及计算机可读存储介质。
背景技术
当前,为了提高网络模型的训练速度,网络模型通常在服务器等计算能力强的电子设备上构建和训练,在训练完毕后将其发送至手机、个人电脑等终端设备上运行;或者根据需要指定在一种设备上训练,在另一种设备上执行。由于服务器设备与终端设备对于同一类型的网络层的计算能力不同,因此同一个网络中各个的网络层在不同种类的设备上的执行延迟通常不同,这使得在一种设备上训练好的网络模型在另一种设备上运行时延迟较大。
发明内容
有鉴于此,本申请的目的在于提供一种网络模型训练方法、网络模型训练装置、电子设备及计算机可读存储介质,使得最终训练得到的目标模型在其他设备类型对应的设备上运行时具有最小的延迟。
为解决上述技术问题,本申请提供了一种网络模型训练方法,包括:
获取训练数据,并将所述训练数据输入初始模型,得到输出数据;
其中,所述初始模型包括嵌入层,所述嵌入层基于预设网络层延迟信息构建,所述预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据,各类所述延迟数据对应于不同的设备类型;
将当前设备类型、所述初始模型中目标网络层的目标网络层类型输入所述嵌入层,得到其他设备类型对应的目标延迟数据;
利用所述目标延迟数据、所述训练数据和所述输出数据计算目标损失值,并利用所述目标损失值对所述初始模型进行参数调节;
若满足训练完成条件,则基于所述初始模型得到目标模型。
可选地,所述预设网络层延迟信息的生成过程,包括:
确定若干个网络层,以及具有各个所述网络层的若干个预设网络模型;
将各个所述预设网络模型在各个所述设备类型对应的设备上进行训练,得到各个所述设备类型对应第一延迟数据;
利用所述第一延迟数据得到与所述网络层对应的第二延迟数据;
利用所述第二延迟数据、所述网络层的网络层类型、所述设备类型之间的对应关系,生成所述预设网络层延迟信息。
可选地,所述利用所述目标延迟数据、所述训练数据和所述输出数据计算目标损失值,包括:
利用所述训练数据和所述输出数据得到精度损失值;
利用所述精度损失值和所述目标延迟数据进行加权求和,得到所述目标损失值。
可选地,所述初始模型为基于神经网络模型训练规则,利用搜索空间构建得到的超参数网络,所述初始模型的网络架构与目标有向无环图对应,所述目标有向无环图具有若干个有向边,各个所述有向边具有若干个分支;
所述将所述训练数据输入初始模型,得到输出数据,包括:
确定目标参数;
根据目标参数,确定各个所述有向边对应的激活分支,并利用所述激活分支对所述训练数据进行处理,得到所述输出数据;
相应的,所述利用所述目标损失值对所述初始模型进行参数调节,包括:
利用所述目标损失值对所述激活分支对应的所述目标参数进行更新;其中,上一次更新的历史参数与所述目标参数的参数类型不同。
可选地,所述根据目标参数,确定各个所述有向边对应的激活分支,包括:
若所述目标参数为权重参数,则随机确定所述激活分支;
若所述目标参数为架构参数,则根据多项式分布采样原则选择所述激活分支。
可选地,所述利用所述目标损失值对所述激活分支对应的目标参数进行更新,包括:
若所述目标参数为权重参数,则利用所述目标损失值,利用随机梯度下降法更新所述激活分支的权重参数;
若所述目标参数为架构参数,则利用所述目标损失值,按照预设更新规则计算更新参数,并利用所述更新参数更新所述激活分支的架构参数。
可选地,所述基于所述初始模型得到目标模型,包括:
利用架构参数和权重参数计算各个所述分支对应的分支权重;
确定各个所述有向边的最高分支权重,并裁剪所述初始模型中非最高分支权重对应的分支,得到所述目标模型。
可选地,所述将当前设备类型、所述初始模型中目标网络层的目标网络层类型输入所述嵌入层,得到其他设备类型对应的目标延迟数据,包括:
将所述当前设备类型、各个所述目标网络层类型以及目标数据输入所述嵌入层,得到与所述目标数据对应的所述目标延迟数据;其中,所述目标数据包括输入数据尺度和/或目标设备类型。
本申请提供了一种网络模型训练装置,包括:
输入模块,用于获取训练数据,并将所述训练数据输入初始模型,得到输出数据;
其中,所述初始模型包括嵌入层,所述嵌入层基于预设网络层延迟信息构建,所述预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据,各类所述延迟数据对应于不同的设备类型;
延迟获取模块,用于将当前设备类型、所述初始模型中目标网络层的目标网络层类型输入所述嵌入层,得到其他设备类型对应的目标延迟数据;
参数调节模块,用于利用所述目标延迟数据、所述训练数据和所述输出数据计算目标损失值,并利用所述目标损失值对所述初始模型进行参数调节;
模型生成模块,用于若满足训练完成条件,则基于所述初始模型得到目标模型。
本申请提供了一种电子设备,包括存储器和处理器,其中:
所述存储器,用于保存计算机程序;
所述处理器,用于执行所述计算机程序,以实现上述的网络模型训练方法。
本申请提供了一种计算机可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现上述的网络模型训练方法。
本申请提供的网络模型训练方法,获取训练数据,并将训练数据输入初始模型,得到输出数据;其中,初始模型包括嵌入层,嵌入层基于预设网络层延迟信息构建,预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据,各类延迟数据对应于不同的设备类型;将当前设备类型、初始模型中目标网络层的目标网络层类型输入嵌入层,得到其他设备类型对应的目标延迟数据;利用目标延迟数据、训练数据和输出数据计算目标损失值,并利用目标损失值对初始模型进行参数调节;若满足训练完成条件,则基于初始模型得到目标模型。
可见,该方法中,初始模型包括嵌入层,嵌入层基于预设网络层延迟信息构建,预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据。在对初始模型进行训练时,需要对其中的参数进行调节,损失值即为调节参数的基准。由于不同设备对不同类型的网络层的执行延迟不同,在当前设备上进行训练时,为了得到能够在其他设备上延迟较小的目标模型,可以将当前设备类型、初始模型中各个目标网络层的网络层类型输入嵌入层,以便嵌入层根据预设网络层延迟信息,得到在非当前设备上目标网络层对应的目标延迟数据,进而利用目标延迟数据参与目标损失值的计算。即,在计算目标损失值时,并不基于初始模型在当前设备上对训练数据处理时产生的真实延迟,而是利用理论上初始模型在其它设备类型对应的设备上对训练数据处理时产生的理论延迟替代真实延迟。由于采用的目标延迟数据并不与当前设备类型对应,而是与其它设备类型相匹配。因此利用其得到的目标损失值能够反映初始模型在其他设备类型对应的设备上的执行延迟,利用其对初始模型进行参数调整,能够使得初始模型能够与其他设备类型对应的设备更加匹配,起到模拟在其他设备类型对应设备上直接训练初始模型的效果,使得最终训练得到的目标模型在其他设备类型对应的设备上运行时具有最小的延迟。解决了相关技术存在的延迟较大的问题。
此外,本申请还提供了一种网络模型训练装置、电子设备及计算机可读存储介质,同样具有上述有益效果。
附图说明
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的一种网络模型训练方法流程图;
图2为本申请实施例提供的一种具体的神经网络架构搜索过程示意图;
图3为本申请实施例提供的一种网络模型训练装置的结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参考图1,图1为本申请实施例提供的一种网络模型训练方法流程图。该方法包括:
S101:获取训练数据,并将训练数据输入初始模型,得到输出数据。
需要说明的是,本申请中,目标模型在某一类设备上训练得到,在另一类设备上被调用,且训练模型的设备与调用模型的设备具有不同的设备类型。目标模型的类型、结构以及应用场景不做限定,因此,与目标模型相对应的初始模型的结构以及类型同样不做限定。初始模型,是指训练未完成的目标模型,在初始模型的训练过程或者初始模型自身满足训练完成条件后,则可以将其确定为目标模型。在一种实施方式中,初始模型为结构固定的模型,在这种情况下,目标模型的结构也固定不变;在另一种实施方式中,初始模型为神经网络架构搜索过程的初始超参数网络模型,在这种情况下,目标模型与初始模型的结构不同,初始模型经过神经网络架构搜索后的模型结构即为目标模型的结构。
对于训练数据的具体内容,可以理解的是,根据目标模型的应用场景不同,训练数据的内容和类型可以不同。具体的,可以根据目标性的用途将其分类,例如目标模型具体可以为用于进行图像处理的图像处理模型,或者可以为用于进行音频处理的音频处理模型,或者可以为用于进行分类的分类模型,或者可以为用于进行聚类的聚类模型,或者可以为用于进行推荐的推荐模型等。根据目标模型的用途不同,训练数据的内容可以不同,例如可以为图像、音频或符合模型用途需求的数据等。
其中,随着深度学习的繁荣,尤其是神经网络的发展,颠覆了传统机器学习特征工程的时代,将人工智能的浪潮推到了历史最高点。然而,尽管各种神经网络模型层出不穷,但往往模型性能越高,对超参数的要求也越来越严格,稍有不同就无法复现论文的结果。而网络结构作为一种特殊的超参数,在深度学习整个环节中扮演着举足轻重的角色。在图像分类任务上大放异彩的ResNet模型、在机器翻译任务上称霸的Transformer模型等网络结构无一不来自专家的精心设计。这些精细的网络结构的背后是深刻的理论研究和大量广泛的实验,这无疑给人们带来了新的挑战。神经网络架构搜索(Neural ArchitectureSearch,NAS)是一种自动设计神经网络的技术,可以通过算法根据样本集自动设计出高性能的网络结构,可以有效的降低神经网络的使用和实现成本。
将训练数据作为初始模型的输入,利用初始模型对其进行处理,得到输出数据。输出数据可以仅包括初始模型最终输出的数据,在另一种实施方式中,输出数据还可以包括初始模型对训练数据的处理过程中得到的中间数据。
S102:将当前设备类型、初始模型中目标网络层的目标网络层类型输入嵌入层,得到其他设备类型对应的目标延迟数据。
其中,初始模型包括嵌入层,嵌入层基于预设网络层延迟信息构建,预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据,各类延迟数据对应于不同的设备类型。即,预设网络层延迟信息包括多组信息,每组信息记录了至少两类延迟数据,以及与这两类延迟数据对应的网络层类型之间的对应关系。需要说明的是,延迟数据,是指表征网络层类型在对应的设备上运行时的延迟的数据,其具体形式不做限定。由于同一类型的网络层在不同的电子设备上运行的延迟不同,且网络层的参数对运行延迟同样有影响。当一个模型在A设备上训练时,通常会根据各个网络层在A设备上的执行的延迟对模型进行调整,因此在训练结束后,该模型在与A设备类型不同的B设备上运行时,运行的延迟通常无法达到最小延迟。
为了解决上述问题,使得在A设备上训练的模型在B设备上也能达到最小延迟,本申请预先生成了预设网络层延迟信息,并基于其构建了嵌入层。嵌入层位于初始模型中,其可以根据当前设备类型以及初始模型中各个目标网络层的目标网络层类型,得到其他设备类型对应的目标延迟数据,以便在后续利用目标延迟数据构建目标损失值,进而利用目标损失值对模型参数进行调节。
其中,当前设备类型,是指用于训练初始模型得到目标模型的设备的类型,其具体形式不做限定,例如可以为服务器、个人电脑等;或者可以为某一型号的服务器、某一型号的个人电脑等。目标网络层,是指初始模型中的网络层,目标网络层类型是指目标网络层的具体类型,例如可以为3*3卷积层,或者可以为池化层等。预设网络层延迟信息可以经过映射处理得到对应的一维数组,相当于将预设网络层延迟信息对应的稀疏矩阵进行降维,并基于该向量构建嵌入层。嵌入层可以根据输入的信息进行检索映射,得到对应的其他设备类型的目标延迟数据。其它设备类型,是指非当前设备类型。
在一种实施方式中,预设网络层延迟信息中仅包括两类延迟数据,在这种情况下,在输入当前设备类型后,仅剩一类延迟数据可以作为目标延迟数据。在另一种实施方式中,预设网络层延迟信息中可以包括大于等于两类的延迟数据,在这种情况下,输入当前设备类型后,还剩余至少两类延迟数据可以作为目标延迟数据。此时,还可以根据需要在这至少两类延迟数据中选择一类作为目标延迟数据。具体的,将当前设备类型、初始模型中目标网络层的目标网络层类型输入嵌入层,得到其他设备类型对应的目标延迟数据的过程可以包括如下步骤:
步骤11:将当前设备类型、各个目标网络层类型以及目标数据输入嵌入层,得到与目标数据对应的目标延迟数据。
在本实施方式中,除了将当前设备类型以及目标网络层类型输入嵌入层后,还可以将目标数据输入嵌入层,以便根据需要选择合适的目标延迟数据。其中,目标数据包括输入数据尺度和/或目标设备类型。目标设备类型,是指目标网络被调用的设备的类型。由于输入数据的尺度不同同样会影响网络层的延迟,因此目标数据还可以包括输入数据尺度,以便获取更加准确地目标延迟数据。
可以理解的是,在基于预设网络层延迟信息够贱嵌入层之前,需要先获取各个设备类型、网络层类型以及对应的延迟,以便生成预设网络层延迟信息。具体的,预设网络层延迟信息的生成过程,包括:
步骤21:确定若干个网络层,以及具有各个网络层的若干个预设网络模型。
步骤22:将各个预设网络模型在各个设备类型对应的设备上进行训练,得到各个设备类型对应第一延迟数据。
步骤23:利用第一延迟数据得到与网络层对应的第二延迟数据。
步骤24:利用第二延迟数据、网络层的网络层类型、设备类型之间的对应关系,生成预设网络层延迟信息。
由于网络层的执行延迟受到其参数影响,因此无法直接利用单个网络层进行确定其延迟,需要调用整个网络模型来确定。具体的,选择若干个类型网络层用于生成预设网络层延迟信息,一个类型的网络层可能被多个不同类型的网络模型所有,因此在确定网络层后,可以基于网络层进一步确定具有该网络层的若干个预设网络模型。通过将预设网络模型在若干个不同类型的设备上进行训练,可以确定各个设备上各个预设网络模型的总体调用延迟。第一延迟数据,是指预设网络模型的调用延迟数据。网络层的延迟为第一眼吃数据中的一部分,可以利用第一延迟数据得到各个类型的网络层对应的第二延迟数据。在得到第二延迟数据后,利用其与网络层的网络层类型、设备类型之间的对应关系,生成预设网络层延迟信息。
例如,对于conv3*3(即3*3卷积层)这一网络层来说,其在R-CNN(Region-CNN,CNN是指Convolutional Neural Networks,卷积神经网络)、Fast R-CNN(R-CNN算法的升级版)等模型中存在,在这种情况下,可以将具有conv3*3的模型确定为预设网络模型。在本实施例中,为了得到更准确的目标延迟数据,还可以将各个预设网络模型中具有不同的输入数据尺度的conv3*3视为不同类型的网络层。对于图像来说,输入数据尺度可以包括通道数(C-channel)、高(H-height)、宽(W-width)和深(D-depth)。通过训练可以得到各类conv3*3对应的延迟(Latency),将其进行统计可以如表1所示:
表1 conv3*3的延迟统计
其中,L server 表示服务器端延迟,L user 表示客户端延迟,二者均为第二延迟数据。表1示出的设备类型共有两种,分别为客户端以及服务器端,层数统计一栏中,不同网络层的输入数据尺度不同,即R-CNN-1 conv3*3这一网络层与R-CNN-2 conv3*3这一网络层的输入数据尺度不同。基于上述方式,对其他选择的网络层进行同样的处理,得到完整的预设网络层延迟信息。
S103:利用目标延迟数据、训练数据和输出数据计算目标损失值,并利用目标损失值对初始模型进行参数调节。
在得到目标延迟数据后,可以利用其与训练数据和输出数据计算目标损失值,进而利用目标损失值对初始模型进行参数调节。对于目标损失值的具体计算方式,本实施例不做限定,例如可以利用训练数据和输出数据计算精度损失值,并利用精度损失值和目标延迟数据生成目标损失值,即利用目标延迟数据、训练数据和输出数据计算目标损失值的过程包括:
步骤31:利用训练数据和输出数据得到精度损失值。
步骤32:利用精度损失值和目标延迟数据进行加权求和,得到目标损失值。
本实施方式中,通过加权求和的方式计算目标损失值。在其他的实施方式中,还可以采用其他的计算方式生成目标损失值。
S104:若满足训练完成条件,则基于初始模型得到目标模型。
训练完成条件,是指确定初始模型训练过程结束的条件,其可以对初始模型本身进行限定,或者可以对初始模型的训练过程进行限定。例如,可以为对初始模型的收敛程度、识别准确率等进行限制的条件,或者可以为对训练时长、训练轮次等进行限制的条件。若满足训练完成条件,则可以基于初始模型得到目标模型,本实施例并不限定得到目标模型的具体方式,例如,可以将初始模型中的嵌入层去除,得到目标模型。
应用本申请实施例提供的网络模型训练方法,初始模型包括嵌入层,嵌入层基于预设网络层延迟信息构建,预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据。在对初始模型进行训练时,需要对其中的参数进行调节,损失值即为调节参数的基准。由于不同设备对不同类型的网络层的执行延迟不同,在当前设备上进行训练时,为了得到能够在其他设备上延迟较小的目标模型,可以将当前设备类型、初始模型中各个目标网络层的网络层类型输入嵌入层,以便嵌入层根据预设网络层延迟信息,得到在非当前设备上目标网络层对应的目标延迟数据,进而利用目标延迟数据参与目标损失值的计算。即,在计算目标损失值时,并不基于初始模型在当前设备上对训练数据处理时产生的真实延迟,而是利用理论上初始模型在其它设备类型对应的设备上对训练数据处理时产生的理论延迟替代真实延迟。由于采用的目标延迟数据并不与当前设备类型对应,而是与其它设备类型相匹配。因此利用其得到的目标损失值能够反映初始模型在其他设备类型对应的设备上的执行延迟,利用其对初始模型进行参数调整,能够使得初始模型能够与其他设备类型对应的设备更加匹配,起到模拟在其他设备类型对应设备上直接训练初始模型的效果,使得最终训练得到的目标模型在其他设备类型对应的设备上运行时具有最小的延迟。解决了相关技术存在的延迟较大的问题。
基于上述实施例,在一种具体的实施方式中,初始模型为基于神经网络模型训练规则,利用搜索空间构建得到的超参数网络,初始模型的网络架构与目标有向无环图对应,目标有向无环图具有若干个有向边,各个有向边具有若干个分支。初始模型训练过程中,可以评估各个分支,最终从中选择裁剪,得到目标模型。
神经网络模型训练规则,是指用于在进行网络架构搜索时生成最初始的模型,即初始模型。搜索空间,是指可以搜索的神经网络的类型,同时也定义了如何描述神经网络结构。在一种实施方式中,搜索空间包含MBConv3*3_1(表示卷积核为3*3,步长为1),MBConv3*3_2,MBConv3*3_3,MBConv3*3_4,MBConv3*3_5,MBConv3*3_6,MBConv5*5_1,MBConv5*5_2,MBConv5*5_3,MBConv5*5_4,MBConv5*5_5,MBConv5*5_6,MBConv7*7_1,MBConv7*7_2,MBConv7*7_3,MBConv7*7_4,MBConv7*7_5,MBConv7*7_6,Identity,Zero等网络层,其中,Identity为占位层,Zero为零操作层。通过在搜索空间中添加0操作层,可以允许采用跳跃连接的方式构建更深的网络,保持网络深度和宽度的平衡,二者的平衡使得模型能够具有更高的精度。
其中,初始模型可以被定义为N(e 1 ,…,e n ),其中e i 表示有向无环图的特定的边,O={o i },i∈(1,N)代表𝑁个可选基础操作,即N个分支。为了构建一个包含搜索空间的所有架构的超参数化的网络,本实施例使用每个边来定义基础操作的方法,把每个边定义为含有N条平行路径的一系列混合操作,可以记作m o ,整个初始模型记作N(e 1 =m o 1 ,…,e n =m o n ),则对于输入x来说,混合操作m o 可以定义为N条路径的输出,即:
其中,m o NAS (x)即为输出。其中,a i 为架构参数,架构参数,是指用于进行模型架构选择的参数,其参与分支的选择裁剪。每个分支对应一个架构参数。可以看出,训练普通的网络模型仅需要对一个分支进行计算和存储,和对上述初始模型采用传统的训练方式进行训练时,需要处采用N倍的GPU(graphics processing unit,图形处理单元)显存和GPU计算时长。
当前,由于模型的分支较多,在训练时,为了减少训练时间和训练资源的消耗,通常训练单一的模块,并利用代理任务的少量训练数据对该模块中的各个分支进行训练。在训练完毕后,对该模块进行重复利用,得到最终的模型,然而即便训练的模块相比模型的规模更小,采用少量训练数据进行训练的资源消耗较少,模型的生成过程仍会消耗较多的计算资源。
请参考图2,图2为本申请实施例提供的一种具体的神经网络架构搜索过程示意图。为了解决上述问题,本申请在对上述的超参数网络进行训练时,将训练数据输入初始模型,得到输出数据的过程可以包括:
步骤41:确定目标参数。
步骤42:根据目标参数,确定各个有向边对应的激活分支,并利用激活分支对训练数据进行处理,得到输出数据。
其中,目标参数可以为权重参数或架构参数,权重参数,是指表示分支权重的参数,其用于与架构参数相配合进行分支选择。在每次训练时,选择本次训练需要被更新的参数为目标参数。在确定目标参数后,从各个有向边的各个分支中选择一个作为激活分支,并利用激活分支对训练数据进行处理,得到输出数据。具体的,可以利用二值化门函数对分支进行选择和激活。具体的,二值化门函数为:
其中,p 1 至p n 为利用各个分支的架构参数生成的概率值,p为用于选择激活函数的参数。根据p值与概率值的关系,确定g的具体内容,进而利用其对各个分支是否激活进行表示。利用二值化门函数对混合操作m o 函数进行简化后可得:
m o binary (x)为简化后的m o NAS (x)。其中,p的具体选择方式可以根据目标参数的类型而不同,例如在一种实施方式中,根据目标参数,确定各个有向边对应的激活分支的过程包括:
步骤51:若目标参数为权重参数,则随机确定激活分支。
步骤52:若目标参数为架构参数,则根据多项式分布采样原则选择激活分支。
若目标参数为架构参数,则随机选择激活分支。具体的,可以利用随机数生成器,p 1 至p n 在组成的集合中随机选择一个值作为p值,进而确定二值化门函数的值g,完成激活分支的选择。若目标参数为架构参数,则可以根据多项式分布采样原则对激活函数进行选择,每次从N个分支中选择两个作为激活分支,对其他的分支进行掩膜处理。
相应的,利用目标损失值对初始模型进行参数调节的过程可以包括:
步骤43:利用目标损失值对激活分支对应的目标参数进行更新。
其中,上一次更新的历史参数与目标参数的参数类型不同,即权重参数和架构参数交替更新。可以理解的是,通过保证激活分支数量远小于所有分支的数量,使得初始模型的训练过程所需的消耗降低至训练普通网络模型的水平,降低了计算资源的消耗。
可以理解的是,对于不同类型的目标模型,可以采用不同的方式进行参数更新。具体的,利用目标损失值对激活分支对应的目标参数进行更新的过程包括:
步骤61:若目标参数为权重参数,则利用目标损失值,利用随机梯度下降法更新激活分支的权重参数。
步骤62:若目标参数为架构参数,则利用目标损失值,按照预设更新规则计算更新参数,并利用更新参数更新激活分支的架构参数。
具体的,若目标参数为权重参数,则可以采用随机梯度下降法更新。若目标参数为架构参数,预设有预设更新规则,该预设更新规则规定了更新参数的具体计算方式。本实施例并不限定预设更新规则的具体内容,在一种实施方式中,其具体为:
其中,当i=j时,δ ij =1,当i≠j时,δ ij =0。L为目标损失值。
具体的,目标损失值的具体计算过程可以如下:
以表1所示的情况为例,对于嵌入层来说,其作用为根据输入得到客户端延迟,即:
其中,T为网络层类型,f(T,C,H,W,D)为预设网络层延迟信息形成的映射矩阵,其实质为所有网络层的查找表。
经过上述映射,对于初始模型中的一个模块来说,该模块的延迟为:
E[latency i ]表示第i个模块的延迟,F表示上述映射矩阵,F(o i j )表示预测延迟。
在本实施例中,由于采用嵌入层进行目标延迟数据的确定,因此E[latency i ]可以等效于:
Embedding表示嵌入层处理。因此,对于所有的模块构成的延迟总量,即目标延迟数据来说,其等于:
E[latency]为目标延迟数据。在得到目标延迟数据后,本申请综合延迟损失和精度损失,同时加入权重衰减,生成目标损失值。目标损失值具体为:
其中,loss即为上述L,即目标损失值。λ 1和λ 2为权重值,ω为权重衰减常数,lossCE为精度损失。
在满足训练完成条件后,基于初始模型得到目标模型的过程可以包括:
步骤71:利用架构参数和权重参数计算各个分支对应的分支权重。
步骤72:确定各个有向边的最高分支权重,并裁剪初始模型中非最高分支权重对应的分支,得到目标模型。
本实施例并不限定分支权重的具体计算方式,例如可以为架构参数与权重参数相乘得到。在得到分支权重后,其中最高分支权重对应的分支组成的模型结构最佳,因此将非最高分支权重对应的分支裁减掉,剩余的分支所构成的模型即为目标模型。
需要说明的是,由于本申请提到的神经网络架构搜索过程所消耗的计算资源较少,因此可以无需采用代理任务的训练方式,而是直接采用目标模型所需要完成的目标任务对应的全量训练数据进行训练,提高目标模型的性能。
例如,在使用CIFAR10和ImageNet数据集进行图像分类任务时,不同于传统NAS方式先在CIFAR10上进行少量模块训练,然后迁移至ImageNet数据集并且堆砌模块构成模型的方式,本申请提供的NAS方式可直接在CIFAR10数据集或者ImageNet数据集及目标硬件上进行网络架构搜索。
超参数化网络的backbone网络(即主干网络)选用PyramidNet、DenseNet、MobileNet或者其他经典网络,同时对其做有益的改动,如,将PyramidNet网络中的3*3Conv层(3*3卷积层)优化为树结构(tree-structured),其深度为3,叶子节点的分支数为2。
在本实施例中,随机采样数千张图像,以0.7比0.3的比例划分训练集与验证集,进行网络架构搜索,采用的优化器可选Adam、SGD、Momentum、NAG、AdaGrad等算法,使用基于梯度的算法求导损失函数,进行超参数化网络和架构参数的迭代更新。
下面对本申请实施例提供的网络模型训练装置进行介绍,下文描述的网络模型训练装置与上文描述的网络模型训练方法可相互对应参照。
请参考图3,图3为本申请实施例提供的一种网络模型训练装置的结构示意图,包括:
输入模块110,用于获取训练数据,并将训练数据输入初始模型,得到输出数据;
其中,初始模型包括嵌入层,嵌入层基于预设网络层延迟信息构建,预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据,各类延迟数据对应于不同的设备类型;
延迟获取模块120,用于将当前设备类型、初始模型中目标网络层的目标网络层类型输入嵌入层,得到其他设备类型对应的目标延迟数据;
参数调节模块130,用于利用目标延迟数据、训练数据和输出数据计算目标损失值,并利用目标损失值对初始模型进行参数调节;
模型生成模块140,用于若满足训练完成条件,则基于初始模型得到目标模型。
可选地,包括:
预设网络模型确定模块,用于确定若干个网络层,以及具有各个网络层的若干个预设网络模型;
第一延迟数据获取模块,用于将各个预设网络模型在各个设备类型对应的设备上进行训练,得到各个设备类型对应第一延迟数据;
第二延迟数据获取模块,用于利用第一延迟数据得到与网络层对应的第二延迟数据;
预设网络层延迟信息生成模块,用于利用第二延迟数据、网络层的网络层类型、设备类型之间的对应关系,生成预设网络层延迟信息。
可选地,参数调节模块130,包括:
精度损失值计算单元,用于利用训练数据和输出数据得到精度损失值;
加权求和单元,用于利用精度损失值和目标延迟数据进行加权求和,得到目标损失值。
可选地,初始模型为基于神经网络模型训练规则,利用搜索空间构建得到的超参数网络,初始模型的网络架构与目标有向无环图对应,目标有向无环图具有若干个有向边,各个有向边具有若干个分支;
输入模块110,包括:
参数确定单元,用于确定目标参数;
分支激活单元,用于根据目标参数,确定各个有向边对应的激活分支,并利用激活分支对训练数据进行处理,得到输出数据;
相应的,参数调节模块130,包括:
更新单元,用于利用目标损失值对激活分支对应的目标参数进行更新;其中,上一次更新的历史参数与目标参数的参数类型不同。
可选地,分支激活单元,包括:
随机激活子单元,用于若目标参数为权重参数,则随机确定激活分支;
分布采样子单元,用于若目标参数为架构参数,则根据多项式分布采样原则选择激活分支。
可选地,更新单元,包括:
随机梯度更新子单元,用于若目标参数为权重参数,则利用目标损失值,利用随机梯度下降法更新激活分支的权重参数;
规则更新子单元,用于若目标参数为架构参数,则利用目标损失值,按照预设更新规则计算更新参数,并利用更新参数更新激活分支的架构参数。
可选地,模型生成模块140,包括:
权重计算单元,用于利用架构参数和权重参数计算各个分支对应的分支权重;
裁剪单元,用于确定各个有向边的最高分支权重,并裁剪初始模型中非最高分支权重对应的分支,得到目标模型。
可选地,预设网络层延迟信息生成模块,包括:
延迟数据选择单元,用于将当前设备类型、各个目标网络层类型以及目标数据输入嵌入层,得到与目标数据对应的目标延迟数据;其中,目标数据包括输入数据尺度和/或目标设备类型。
下面对本申请实施例提供的电子设备进行介绍,下文描述的电子设备与上文描述的网络模型训练方法可相互对应参照。
请参考图4,图4为本申请实施例提供的一种电子设备的结构示意图。其中电子设备100可以包括处理器101和存储器102,还可以进一步包括多媒体组件103、信息输入/信息输出(I/O)接口104以及通信组件105中的一种或多种。
其中,处理器101用于控制电子设备100的整体操作,以完成上述的网络模型训练方法中的全部或部分步骤;存储器102用于存储各种类型的数据以支持在电子设备100的操作,这些数据例如可以包括用于在该电子设备100上操作的任何应用程序或方法的指令,以及应用程序相关的数据。该存储器102可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,SRAM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、只读存储器(Read-OnlyMemory,ROM)、磁存储器、快闪存储器、磁盘或光盘中的一种或多种。
多媒体组件103可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器102或通过通信组件105发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口104为处理器101和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件105用于电子设备100与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near Field Communication,简称NFC),2G、3G或4G,或它们中的一种或几种的组合,因此相应的该通信组件105可以包括:Wi-Fi部件,蓝牙部件,NFC部件。
电子设备100可以被一个或多个应用专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、数字信号处理器(Digital Signal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field ProgrammableGate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述实施例给出的网络模型训练方法。
下面对本申请实施例提供的计算机可读存储介质进行介绍,下文描述的计算机可读存储介质与上文描述的网络模型训练方法可相互对应参照。
本申请还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述的网络模型训练方法的步骤。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本领域技术人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应该认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系属于仅仅用来将一个实体或者操作与另一个实体或者操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语包括、包含或者其他任何变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (11)
1.一种网络模型训练方法,其特征在于,包括:
获取训练数据,并将所述训练数据输入初始模型,得到输出数据;
其中,所述初始模型包括嵌入层,所述嵌入层基于预设网络层延迟信息构建,所述预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据,各类所述延迟数据对应于不同的设备类型;
将当前设备类型、所述初始模型中目标网络层的目标网络层类型输入所述嵌入层,得到其他设备类型对应的目标延迟数据;
利用所述目标延迟数据、所述训练数据和所述输出数据计算目标损失值,并利用所述目标损失值对所述初始模型进行参数调节;
若满足训练完成条件,则基于所述初始模型得到目标模型。
2.根据权利要求1所述的网络模型训练方法,其特征在于,所述预设网络层延迟信息的生成过程,包括:
确定若干个网络层,以及具有各个所述网络层的若干个预设网络模型;
将各个所述预设网络模型在各个所述设备类型对应的设备上进行训练,得到各个所述设备类型对应第一延迟数据;
利用所述第一延迟数据得到与所述网络层对应的第二延迟数据;
利用所述第二延迟数据、所述网络层的网络层类型、所述设备类型之间的对应关系,生成所述预设网络层延迟信息。
3.根据权利要求1所述的网络模型训练方法,其特征在于,所述利用所述目标延迟数据、所述训练数据和所述输出数据计算目标损失值,包括:
利用所述训练数据和所述输出数据得到精度损失值;
利用所述精度损失值和所述目标延迟数据进行加权求和,得到所述目标损失值。
4.根据权利要求1至3任一项所述的网络模型训练方法,其特征在于,所述初始模型为基于神经网络模型训练规则,利用搜索空间构建得到的超参数网络,所述初始模型的网络架构与目标有向无环图对应,所述目标有向无环图具有若干个有向边,各个所述有向边具有若干个分支;
所述将所述训练数据输入初始模型,得到输出数据,包括:
确定目标参数;
根据目标参数,确定各个所述有向边对应的激活分支,并利用所述激活分支对所述训练数据进行处理,得到所述输出数据;
相应的,所述利用所述目标损失值对所述初始模型进行参数调节,包括:
利用所述目标损失值对所述激活分支对应的所述目标参数进行更新;其中,上一次更新的历史参数与所述目标参数的参数类型不同。
5.根据权利要求4所述的网络模型训练方法,其特征在于,所述根据目标参数,确定各个所述有向边对应的激活分支,包括:
若所述目标参数为权重参数,则随机确定所述激活分支;
若所述目标参数为架构参数,则根据多项式分布采样原则选择所述激活分支。
6.根据权利要求5所述的网络模型训练方法,其特征在于,所述利用所述目标损失值对所述激活分支对应的目标参数进行更新,包括:
若所述目标参数为权重参数,则利用所述目标损失值,利用随机梯度下降法更新所述激活分支的权重参数;
若所述目标参数为架构参数,则利用所述目标损失值,按照预设更新规则计算更新参数,并利用所述更新参数更新所述激活分支的架构参数。
7.根据权利要求4所述的网络模型训练方法,其特征在于,所述基于所述初始模型得到目标模型,包括:
利用架构参数和权重参数计算各个所述分支对应的分支权重;
确定各个所述有向边的最高分支权重,并裁剪所述初始模型中非最高分支权重对应的分支,得到所述目标模型。
8.根据权利要求1所述的网络模型训练方法,其特征在于,所述将当前设备类型、所述初始模型中目标网络层的目标网络层类型输入所述嵌入层,得到其他设备类型对应的目标延迟数据,包括:
将所述当前设备类型、各个所述目标网络层类型以及目标数据输入所述嵌入层,得到与所述目标数据对应的所述目标延迟数据;其中,所述目标数据包括输入数据尺度和/或目标设备类型。
9.一种网络模型训练装置,其特征在于,包括:
输入模块,用于获取训练数据,并将所述训练数据输入初始模型,得到输出数据;
其中,所述初始模型包括嵌入层,所述嵌入层基于预设网络层延迟信息构建,所述预设网络层延迟信息包括相互对应的网络层类型和至少两类延迟数据,各类所述延迟数据对应于不同的设备类型;
延迟获取模块,用于将当前设备类型、所述初始模型中目标网络层的目标网络层类型输入所述嵌入层,得到其他设备类型对应的目标延迟数据;
参数调节模块,用于利用所述目标延迟数据、所述训练数据和所述输出数据计算目标损失值,并利用所述目标损失值对所述初始模型进行参数调节;
模型生成模块,用于若满足训练完成条件,则基于所述初始模型得到目标模型。
10.一种电子设备,其特征在于,包括存储器和处理器,其中:
所述存储器,用于保存计算机程序;
所述处理器,用于执行所述计算机程序,以实现如权利要求1至8任一项所述的网络模型训练方法。
11.一种计算机可读存储介质,其特征在于,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述的网络模型训练方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110971264.1A CN113420880B (zh) | 2021-08-24 | 2021-08-24 | 网络模型训练方法、装置、电子设备及可读存储介质 |
PCT/CN2021/127535 WO2023024252A1 (zh) | 2021-08-24 | 2021-10-29 | 网络模型训练方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110971264.1A CN113420880B (zh) | 2021-08-24 | 2021-08-24 | 网络模型训练方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113420880A true CN113420880A (zh) | 2021-09-21 |
CN113420880B CN113420880B (zh) | 2021-11-19 |
Family
ID=77719530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110971264.1A Active CN113420880B (zh) | 2021-08-24 | 2021-08-24 | 网络模型训练方法、装置、电子设备及可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113420880B (zh) |
WO (1) | WO2023024252A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113742089A (zh) * | 2021-11-04 | 2021-12-03 | 苏州浪潮智能科技有限公司 | 异构资源中神经网络计算任务的分配方法、装置和设备 |
CN115081628A (zh) * | 2022-08-15 | 2022-09-20 | 浙江大华技术股份有限公司 | 一种深度学习模型适配度的确定方法及装置 |
WO2023024252A1 (zh) * | 2021-08-24 | 2023-03-02 | 苏州浪潮智能科技有限公司 | 网络模型训练方法、装置、电子设备及可读存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116684480B (zh) * | 2023-07-28 | 2023-10-31 | 支付宝(杭州)信息技术有限公司 | 信息推送模型的确定及信息推送的方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106062786A (zh) * | 2014-09-12 | 2016-10-26 | 微软技术许可有限责任公司 | 用于训练神经网络的计算系统 |
CN108305296A (zh) * | 2017-08-30 | 2018-07-20 | 深圳市腾讯计算机系统有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN111787066A (zh) * | 2020-06-06 | 2020-10-16 | 王科特 | 一种基于大数据、ai的物联网数据平台 |
CN112016666A (zh) * | 2019-05-31 | 2020-12-01 | 微软技术许可有限责任公司 | 深度学习模型的执行 |
US20210012239A1 (en) * | 2019-07-12 | 2021-01-14 | Microsoft Technology Licensing, Llc | Automated generation of machine learning models for network evaluation |
CN113159284A (zh) * | 2021-03-31 | 2021-07-23 | 华为技术有限公司 | 一种模型训练方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11080596B1 (en) * | 2017-06-14 | 2021-08-03 | Amazon Technologies, Inc. | Prediction filtering using intermediate model representations |
CN111723901B (zh) * | 2019-03-19 | 2024-01-12 | 百度在线网络技术(北京)有限公司 | 神经网络模型的训练方法及装置 |
CN111667024B (zh) * | 2020-06-30 | 2023-09-05 | 腾讯科技(深圳)有限公司 | 内容推送方法、装置、计算机设备和存储介质 |
CN113420880B (zh) * | 2021-08-24 | 2021-11-19 | 苏州浪潮智能科技有限公司 | 网络模型训练方法、装置、电子设备及可读存储介质 |
-
2021
- 2021-08-24 CN CN202110971264.1A patent/CN113420880B/zh active Active
- 2021-10-29 WO PCT/CN2021/127535 patent/WO2023024252A1/zh unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106062786A (zh) * | 2014-09-12 | 2016-10-26 | 微软技术许可有限责任公司 | 用于训练神经网络的计算系统 |
CN108305296A (zh) * | 2017-08-30 | 2018-07-20 | 深圳市腾讯计算机系统有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN112016666A (zh) * | 2019-05-31 | 2020-12-01 | 微软技术许可有限责任公司 | 深度学习模型的执行 |
US20210012239A1 (en) * | 2019-07-12 | 2021-01-14 | Microsoft Technology Licensing, Llc | Automated generation of machine learning models for network evaluation |
CN111787066A (zh) * | 2020-06-06 | 2020-10-16 | 王科特 | 一种基于大数据、ai的物联网数据平台 |
CN113159284A (zh) * | 2021-03-31 | 2021-07-23 | 华为技术有限公司 | 一种模型训练方法及装置 |
Non-Patent Citations (2)
Title |
---|
QING SUN等: "Implementation Study of an Analog Spiking Neural Network for Assisting Cardiac Delay Prediction in a Cardiac Resynchronization Therapy Device", 《IEEE》 * |
孙胜等: "面向异构IoT设备协作的DNN推断加速研究", 《计算机研究与发展》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023024252A1 (zh) * | 2021-08-24 | 2023-03-02 | 苏州浪潮智能科技有限公司 | 网络模型训练方法、装置、电子设备及可读存储介质 |
CN113742089A (zh) * | 2021-11-04 | 2021-12-03 | 苏州浪潮智能科技有限公司 | 异构资源中神经网络计算任务的分配方法、装置和设备 |
CN113742089B (zh) * | 2021-11-04 | 2022-02-18 | 苏州浪潮智能科技有限公司 | 异构资源中神经网络计算任务的分配方法、装置和设备 |
CN115081628A (zh) * | 2022-08-15 | 2022-09-20 | 浙江大华技术股份有限公司 | 一种深度学习模型适配度的确定方法及装置 |
CN115081628B (zh) * | 2022-08-15 | 2022-12-09 | 浙江大华技术股份有限公司 | 一种深度学习模型适配度的确定方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113420880B (zh) | 2021-11-19 |
WO2023024252A1 (zh) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113420880B (zh) | 网络模型训练方法、装置、电子设备及可读存储介质 | |
JP7210531B2 (ja) | ニューラルアーキテクチャ検索 | |
KR102302609B1 (ko) | 신경망 아키텍처 최적화 | |
US10958748B2 (en) | Resource push method and apparatus | |
US11651259B2 (en) | Neural architecture search for convolutional neural networks | |
JP7043596B2 (ja) | ニューラルアーキテクチャ検索 | |
EP3992857A1 (en) | Method and device for generating neural network model, and computer-readable storage medium | |
JP2020512639A (ja) | 強化学習を用いたデバイス配置最適化 | |
CN111242310B (zh) | 特征有效性评估方法、装置、电子设备及存储介质 | |
CN111881343A (zh) | 信息推送方法、装置、电子设备及计算机可读存储介质 | |
CN113901799B (zh) | 模型训练、文本预测方法、装置、电子设备及介质 | |
CN110663049A (zh) | 神经网络优化器搜索 | |
CN111369324B (zh) | 一种目标信息确定方法、装置、设备及可读存储介质 | |
CN108229572A (zh) | 一种参数寻优方法及计算设备 | |
JP2024504179A (ja) | 人工知能推論モデルを軽量化する方法およびシステム | |
US20220019869A1 (en) | Hardware-optimized neural architecture search | |
JP2021163424A (ja) | Aiシステム開発シミュレータ及びハイパーパラメータ最適化方法 | |
CN111898389B (zh) | 信息确定方法、装置、计算机设备及存储介质 | |
CN115168644A (zh) | 基于复杂网络的音乐影响因素分析方法、装置及设备 | |
CN113723014A (zh) | 一种材料的晶体结构搜索方法及装置 | |
CN117376410A (zh) | 业务推送方法、装置、计算机设备和存储介质 | |
CN110738510A (zh) | 模型生成方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |