CN110826344B - 神经网络模型压缩方法、语料翻译方法及其装置 - Google Patents

神经网络模型压缩方法、语料翻译方法及其装置 Download PDF

Info

Publication number
CN110826344B
CN110826344B CN201911019142.1A CN201911019142A CN110826344B CN 110826344 B CN110826344 B CN 110826344B CN 201911019142 A CN201911019142 A CN 201911019142A CN 110826344 B CN110826344 B CN 110826344B
Authority
CN
China
Prior art keywords
model
training
teacher
models
teacher model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911019142.1A
Other languages
English (en)
Other versions
CN110826344A (zh
Inventor
李响
孙于惠
姜佳良
崔建伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Intelligent Technology Co Ltd
Original Assignee
Beijing Xiaomi Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201911019142.1A priority Critical patent/CN110826344B/zh
Application filed by Beijing Xiaomi Intelligent Technology Co Ltd filed Critical Beijing Xiaomi Intelligent Technology Co Ltd
Priority to KR1020207002213A priority patent/KR102433834B1/ko
Priority to JP2020502271A priority patent/JP2022509892A/ja
Priority to PCT/CN2019/120801 priority patent/WO2021077529A1/zh
Priority to RU2020102388A priority patent/RU2749970C1/ru
Priority to US16/785,062 priority patent/US11556723B2/en
Publication of CN110826344A publication Critical patent/CN110826344A/zh
Priority to EP20160494.9A priority patent/EP3812969A1/en
Application granted granted Critical
Publication of CN110826344B publication Critical patent/CN110826344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/06Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for physics
    • G09B23/08Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for physics for statics or dynamics
    • G09B23/10Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for physics for statics or dynamics of solid bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Optimization (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Abstract

本公开是关于一种神经网络模型压缩方法、语料翻译方法及其装置。其中神经网络模型压缩方法,包括:获取包括多个训练样本对的训练样本集,每一个训练样本对包括源数据和与源数据对应的目标数据;以源数据为输入,以目标数据为验证,训练原始教师模型;基于训练样本集以及原始教师模型,训练中间教师模型,一个或多个中间教师模型组成教师模型集;基于训练样本集、原始教师模型和教师模型集,训练多个候选学生模型,多个候选学生模型组成学生模型集;根据多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型。通过引入多个教师模型,实现多级指导学生模型训练,从而提高了学生模型的质量。

Description

神经网络模型压缩方法、语料翻译方法及其装置
技术领域
本公开涉及机器翻译领域,尤其涉及用于机器翻译的神经网络模型压缩方法、语料翻译方法及其装置,以及电子装置和计算机可读存储介质。
背景技术
随着人工智能技术的发展,基于神经网络的深度学习已经在图像分类,机器翻译和语音识别等多个机器学习任务上取得良好了的性能。
当前,为了获得最佳的网络模型输出结果,通常采用包含多个网络层和超大规模的参数的深层神经网络模型,尽管这种复杂的网络结构显著提升了模型的输出结果,但是也导致难以在存储空间较小的移动设备上部署,另一方面也导致在计算性能较差的低功耗移动设备上的推理延迟过大而难以具有实用价值。因此,对复杂神经网络模型进行高效压缩从而降低模型存储开销,提高模型推理速度,同时尽可能减少压缩对翻译质量的损害,成为将网络模型实际应用于移动端设备上的关键技术,也是当前学术界和工业界研究的热点。
对于神经网络模型压缩,常用的方法包括参数量化,矩阵分解,模型剪枝和知识蒸馏,其中知识蒸馏方法既可以压缩模型减小模型复杂度,又可以同时缓解模型压缩导致的预测精度下降的问题,成为目前主流的神经网络模型压缩方法。在知识蒸馏模型压缩方法中,一般将具有庞大规模参数和复杂网络结构的模型称为“教师模型”,将具有较少参数和结构相对简单的模型称为“学生模型”,通过获得教师模型在网络中间层的输出信息或者输出层的分类信息,利用教师模型产生的这些额外知识来指导学生模型的训练,其中训练一般采用KL散度等作为知识蒸馏的优化目标。
但是在知识蒸馏训练过程中都是采用一个教师模型指导一个学生模型这种单级知识蒸馏方法,由于教师模型的预测精度一般远优于学生模型,导致难以通过单级知识蒸馏将教师模型的知识有效迁移到学生模型,因此难以获得一个预测精度更优的神经网络学生模型用于移动端部署。
发明内容
为克服相关技术中存在的问题,本公开的第一方面,提供一种神经网络模型压缩方法,包括:获取包括多个训练样本对的训练样本集,每一个训练样本对包括源数据和与源数据对应的目标数据;以源数据为输入,以目标数据为验证,训练原始教师模型;基于训练样本集以及原始教师模型,训练一个或多个中间教师模型,一个或多个中间教师模型组成教师模型集;基于训练样本集、原始教师模型和教师模型集,训练多个候选学生模型,多个候选学生模型组成学生模型集;根据多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型。
在一实施例中,其中任一中间教师模型的模型参数总数少于原始教师模型的模型参数总数。
在一实施例中,基于训练样本集以及原始教师模型,训练一个或多个中间教师模型,一个或多个中间教师模型组成教师模型集,包括:以源数据为输入,以复杂教师模型输出的伪目标数据为验证,训练每一个待训练的中间教师模型,其中,复杂教师模型为已完成训练的原始教师模型,或已完成训练且模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
在一实施例中,其中教师模型集中的一个或多个中间教师模型按各自的模型参数总数进行降序分级排列,使得后一级中间教师模型的模型参数总数少于前一级中间教师模型的模型参数总数,并且其中用于训练当前级的中间教师模型的复杂教师模型为已完成训练的原始教师模型或已完成训练的前面任一级中间教师模型。
在一实施例中,基于训练样本集、原始教师模型和教师模型集,训练多个候选学生模型,多个候选学生模型组成学生模型集,包括:确定多条训练路径,多条训练路径与多个候选学生模型一一对应,并且训练路径为以原始教师模型为起点直接到达相应的候选学生模型,或者以原始教师模型为起点且经过至少一个中间教师模型后到达相应的候选学生模型;以每一条训练路径上的模型排列顺序,训练该训练路径上相应的候选学生模型,或者训练该训练路径上相应的至少一个中间教师模型和相应的候选学生模型。
在一实施例中,以每一条训练路径上的模型排列顺序,训练该训练路径上相应的候选学生模型,或者训练该训练路径上相应的至少一个中间教师模型和相应的候选学生模型包括:当训练路径为以原始教师模型为起点直接到达相应的候选学生模型时,已源数据为输入,以已完成训练的原始教师模型输出的伪目标数据作为相应的候选学生模型的验证;或者,当训练路径为以原始教师模型为起点且经过至少一个中间教师模型后到达相应的候选学生模型时,以源数据作为输入,以训练路径上相邻在前的复杂教师模型输出的伪目标数据为验证,训练各个中间教师模型,并且以训练路径上与候选学生模型相邻在前的中间教师模型输出的伪目标数据作为候选学生模型的验证,训练候选学生模型;其中,复杂教师模型为已完成训练的原始教师模型,或已完成训练且模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
在一实施例中,根据多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型,包括:通过验证集检测多个候选学生模型的输出结果准确率,根据准确率选取得到目标学生模型。
在一实施例中,任一中间教师模型的模型参数总数少于原始教师模型的模型参数总数包括:任一中间教师模型的模型层数少于原始教师模型的模型层数。
在一实施例中,获取训练样本集,包括:获取第一语言语料作为源数据,获取与第一语言语料具有相同意思的第二语言语料作为目标数据。
在一实施例中,以源数据为输入,以目标数据为验证,训练原始教师模型,包括:将第一语言语料和第二语言语料分词,分别得到多个第一语言词语和多个第二语言词语;分别对多个第一语言词语和多个第二语言词语进行向量化的对应的多个第一语言词语向量和多个第二语言词语向量;基于第一语言词语向量,通过编码器和注意力机制,得到第一语言语料向量;基于第二语言词语向量,通过解码器和注意力机制,得到第二语言语料向量;根据第一语言语料向量与第二语言语料向量,训练原始教师模型。
根据本公开实施例的第二方面,提供一种语料翻译方法,方法包括:获取语料;通过神经网络模型对语料进行翻译,其中,神经网络模型为通过第一方面的神经网络模型压缩方法得到的目标学生模型;输出翻译结果。
根据本公开实施例的第三方面,提供一种神经网络模型压缩装置,装置包括:训练样本获取单元,用于获取包括多个训练样本对的训练样本集,每一个训练样本对包括源数据和与源数据对应的目标数据;原始模型训练单元,用于以源数据为输入,以目标数据为验证,训练原始教师模型;中间模型训练单元,用于基于训练样本集以及原始教师模型,训练一个或多个中间教师模型,一个或多个中间教师模型组成教师模型集;学生模型训练单元,用于基于训练样本集、原始教师模型和教师模型集,训练多个候选学生模型,多个候选学生模型组成学生模型集;目标模型选取单元,用于根据多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型。
在一实施例中,其中任一中间教师模型的模型参数总数少于原始教师模型的模型参数总数。
在一实施例中,中间模型训练单元还用于:以源数据为输入,以复杂教师模型输出的伪目标数据为验证,训练每一个待训练的中间教师模型,其中,复杂教师模型为已完成训练的原始教师模型,或已完成训练且模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
在一实施例中,其中教师模型集中的一个或多个中间教师模型按各自的模型参数总数进行降序分级排列,使得后一级中间教师模型的模型参数总数少于前一级中间教师模型的模型参数总数,并且其中用于训练当前级的中间教师模型的复杂教师模型为已完成训练的原始教师模型或已完成训练的前面任一级中间教师模型。
在一实施例中,学生模型训练单元还包括:路径确认子单元:用于确定多条训练路径,多条训练路径与多个候选学生模型一一对应,并且训练路径为以原始教师模型为起点直接到达相应的候选学生模型,或者以原始教师模型为起点且经过至少一个中间教师模型后到达相应的候选学生模型;训练子单元:用于以每一条训练路径上的模型排列顺序,训练该训练路径上相应的候选学生模型,或者训练该训练路径上相应的至少一个中间教师模型和相应的候选学生模型。
在一实施例中,训练子单元还用于:当训练路径为以原始教师模型为起点直接到达相应的候选学生模型时,已源数据为输入,以已完成训练的原始教师模型输出的伪目标数据作为相应的候选学生模型的验证;或者,当训练路径为以原始教师模型为起点且经过至少一个中间教师模型后到达相应的候选学生模型时,以源数据作为输入,以训练路径上相邻在前的复杂教师模型输出的伪目标数据为验证,训练各个中间教师模型,并且以训练路径上与候选学生模型相邻在前的中间教师模型输出的伪目标数据作为候选学生模型的验证,训练候选学生模型;其中,复杂教师模型为已完成训练的原始教师模型,或已完成训练且模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
在一实施例中,目标模型选取单元还用于:通过验证集检测多个候选学生模型的输出结果准确率,根据准确率选取得到目标学生模型。
在一实施例中,任一中间教师模型的模型参数总数少于原始教师模型的模型参数总数包括:任一中间教师模型的模型层数少于原始教师模型的模型层数。
在一实施例中,训练样本获取单元还用于:获取第一语言语料作为源数据,获取与第一语言语料具有相同意思的第二语言语料作为目标数据。
在一实施例中,原始模型训练单元还用于:将第一语言语料和第二语言语料分词,分别得到多个第一语言词语和多个第二语言词语;分别对多个第一语言词语和多个第二语言词语进行向量化的对应的多个第一语言词语向量和多个第二语言词语向量;基于第一语言词语向量,通过编码器和注意力机制,得到第一语言语料向量;基于第二语言词语向量,通过解码器和注意力机制,得到第二语言语料向量;根据第一语言语料向量与第二语言语料向量,训练原始教师模型。
根据本公开实施例的第四方面,提供一种语料翻译装置,包括:接收单元,用于获取语料;处理单元,用于通过神经网络模型对语料进行翻译,其中,神经网络模型为通过第一方面的神经网络模型压缩方法得到的目标学生模型;输出单元,用于输出翻译结果。
根据本公开实施例的第五方面,提供一种电子设备,包括:存储器,用于存储指令;以及处理器,用于调用存储器存储的指令执行第一方面的神经网络模型压缩方法或第二方面的语料翻译方法。
根据本公开实施例的第六方面,提供一种计算机可读存储介质,存储有指令,指令被处理器执行时,执行第一方面的神经网络模型压缩方法或第二方面的语料翻译方法。
本公开的实施例提供的技术方案可以包括以下有益效果:通过额外引入多个参数总数更少的中间教师模型,实现以多种路径的方式指导学生模型训练,从而可以将原始教师模型的知识更有效的逐渐迁移到学生模型,可以根据多条路径产生的多个学生模型选择质量最佳的作为最终的目标学生模型,从而提高了目标学生模型的质量。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种神经网络模型压缩方法的流程示意图。
图2是根据一示例性实施例示出另一实施例的一种神经网络模型压缩方法的流程示意图。
图3是根据一示例性实施例示出的一种神经网络模型架构的示意框图。
图4是根据一示例性实施例示出的一种学生模型不同训练路径的示意框图。
图5是根据一示例性实施例示出的一种语料翻译方法的流程示意图。
图6是根据一示例性实施例示出的一种神经网络模型压缩装置的示意框图。
图7是根据一示例性实施例示出的一种语料翻译装置的示意框图。
图8是根据一示例性实施例示出的一种装置的示意框图。
图9是根据一示例性实施例示出的一种电子装置的示意框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
为了能够在学生模型的训练效果,本公开实施例提供了一种神经网络模型压缩方法10,参见图1,一种神经网络模型压缩方法10,包括步骤S11-S15,以下对各个步骤进行详细说明:
步骤S11,获取包括多个训练样本对的训练样本集,每一个训练样本对包括源数据和与源数据对应的目标数据。
可以根据实际模型的应用场景,获取训练样本,训练样本中的源数据用于输入神经网络模型,而目标数据用于验证神经网络模型的输出,并根据验证结果可以通过计算损失等方式调整神经网络模型的参数,从而达到训练目的。如,在图像识别领域,获取原始图像以及原始图像的标准分类;在语音识别领域,获取原始音频以及原始音频的标准文本;在一实施例中,在语料翻译领域,获取第一语言语料作为原始数据,获取与第一语言语料具有相同意思的第二语言语料作为目标数据。
步骤S12,以源数据为输入,以目标数据为验证,训练原始教师模型。
根据实际网络模型的结构对原始教师模型进行训练,可以通过将源数据输入原始教师模型,通过原始教师模型对源数据进行特征提取并得到输出结果,根据输出结果以及目标数据计算得到损失值,根据损失值调整原始教师模型的参数,直至输出的结果满足一定条件,完成训练。
如图2所示,在一实施例中,步骤S12可以包括:步骤S121将第一语言语料和第二语言语料分词,分别得到多个第一语言词语和多个第二语言词语;步骤S122分别对多个第一语言词语和多个第二语言词语进行向量化的对应的多个第一语言词语向量和多个第二语言词语向量;步骤S123基于第一语言词语向量,通过编码器和注意力机制,得到第一语言语料向量;步骤S124基于第二语言词语向量,通过解码器和注意力机制,得到第二语言语料向量;步骤S125根据第一语言语料向量与第二语言语料向量,训练原始教师模型。
在语料翻译模型,通过向量化、特征提取以及注意力机制得到语料的向量,在通过与标准语义的生成的向量进行比对进行训练。
在上述实施例中,原始教师模型的架构可以如图3所示,第一语言语料通过分词得到多个第一语言词语xn,通过源语言词向量表示层,将词语第一语言词语进行向量化,得到第一语言词语向量,再经过多个编码器层,进行特征提取,再通过注意力机制(AttentionMechanism)得到第一语言语料向量;再另一侧,第二语言语料通过分词得到多个第二语言词语yn,通过目标语言词向量表示层,将词语第二语言词语进行向量化,得到第二语言词语向量,再经过多个解码器层,进行特征提取,再通过注意力机制得到第二语言语料向量。最终,通过损失函数得到第一语言语料向量与第二语言语料向量得到损失值,基于损失值,调整原始教师模型的参数,最终得到训练后的原始教师模型。其中,编码器层和解码器层可以具有相同的层数也可以不同。
步骤S13,基于训练样本集以及原始教师模型,训练一个或多个中间教师模型,一个或多个中间教师模型组成教师模型集。
根据实际需要,可以获取多个中间教师模型,以实现多路径的对学生模型的训练,中间教师模型的模型类型和架构与原始教师模型的相同。在一实施例中,任一中间教师模型的模型参数总数少于原始教师模型的模型参数总数,换而言之,中间教师模型的比原始教师模型更加简化。在一实施例中,任一中间教师模型的模型层数少于原始教师模型的模型层数,即通过减少模型的层数,以降低模型的参数总数。通过直接减少模型参数,或通过减少层数模型参数,从而降低模型的计算量并且能够通过原始教师模型的输出进行训练。
在一具体实施例中,如原始教师模型为图3所示的模型架构,中间教师模型可以比原始教师模型具有更少的编码器层和/或更少的解码器层。
多个中间教师模型可以存在一些中间教师模型具有相同的简化程度,多个中间教师模型的简化程度可以成阶梯状,即多个中间教师模型的模型简化程度依次逐渐增加,以便于在之后的训练中能够采用多种不同模型进行监督,从而得到多种路径。
训练中间教师模型的方式可以与训练原始教师模型的方式原理相同。
在一实施例中,步骤S13可以包括:以源数据为输入,以复杂教师模型输出的伪目标数据为验证,训练每一个待训练的中间教师模型,其中,复杂教师模型为已完成训练的原始教师模型,或已完成训练且模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
在本实施例中,原始教师模型以及中间教师模型在训练完成后,再将源数据输入并得到模型的输出,即前述伪目标数据,该伪目标数据可以用于在比自身更简化的模型进行训练时作为验证。具体来说,在训练中间教师模型时,通过将源数据输入中间教师模型,通过中间教师模型得到输出结果,与完成训练的原始教师模型基于该源数据输出的伪目标数据进行比对得到损失值,或,与完成训练的且比该中间教师模型更复杂的其他一个中间教师模型基于该源数据输出的伪目标数据进行比对得到损失值,根据得到的损失值调整模型参数,最终完成本模型的训练。
在一些实施例中,教师模型集中的一个或多个中间教师模型按各自的模型参数总数进行降序分级排列,使得后一级中间教师模型的模型参数总数少于前一级中间教师模型的模型参数总数,并且其中用于训练当前级的中间教师模型的复杂模型为已完成训练的原始教师模型或已完成训练的前面任一级中间教师模型。
本实施例中,按照中间教师模型的简化程度依次进行训练,先训练相对更复杂的中间教师模型,而完成训练的中间教师模型输出的伪目标数据即可作为后续中间教师模型训练时的验证数据,因此,在一个中间教师模型训练时,可能有多个复杂模型输出的伪目标数据作为验证数据供选择,从而可以实现每个中间教师模型的监督数据来源不同,即使多个同样简化程度的中间教师模型也可以具有不同的训练路径,从而得到不同的中间教师模型。
在一些实施例中,原始教师模型可以基于集束搜索算法获取输出数据。在完成训练后,将原始数据,即第一语言语料输入原始教师模型,通过集束搜索(beam search)算法得到输出数据。
步骤S14,基于训练样本集、原始教师模型和教师模型集,训练多个候选学生模型,多个候选学生模型组成学生模型集。
为了能够在一些相对低计算能力的终端设备上部署神经网络模型,对模型的复杂程度和计算量有一定的要求,可以根据实际终端设备的条件,设置多个与原始教师模型以及中间教授模型架构相似但相比于原始教师模型以及中间教师模型都更简化的候选学生模型。在一实施例中,步骤S14可以包括获取多个相同的学生模型,且候选学生模型的模型参数和/或模型层数小于任一中间教师模型。
训练候选学生模型的方式可以与训练中间教师模型的方式原理相同。
在一实施例中,步骤S14可以包括:确定多条训练路径,多条训练路径与多个候选学生模型一一对应,并且训练路径为以原始教师模型为起点直接到达相应的候选学生模型,或者以原始教师模型为起点且经过至少一个中间教师模型后到达相应的候选学生模型;以每一条训练路径上的模型排列顺序,训练该训练路径上相应的候选学生模型,或者训练该训练路径上相应的至少一个中间教师模型和相应的候选学生模型。
在根据一个训练路径中的学生模型训练,当训练路径为以原始教师模型为起点直接到达相应的候选学生模型时,已源数据为输入,以已完成训练的原始教师模型输出的伪目标数据作为相应的候选学生模型的验证;或者,当训练路径为以原始教师模型为起点且经过至少一个中间教师模型后到达相应的候选学生模型时,以源数据作为输入,以训练路径上相邻在前的复杂教师模型输出的伪目标数据为验证,训练各个中间教师模型,并且以训练路径上与候选学生模型相邻在前的中间教师模型输出的伪目标数据作为候选学生模型的验证,训练候选学生模型;其中,复杂教师模型为已完成训练的原始教师模型,或已完成训练且模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
其中,训练路径为依次指导训练的模型形成的虚拟路径,每个训练路径均已原始教师模型为起点,以一个候选学生模型为终点,中间可以没有,也可以由有一个或多个参数不同的中间教师模型,根据模型的复杂程度,即参数总数降序排列,依次进行训练。因此,指定多个训练路径,一一对应的训练多个候选学生模型,从而可以将原始教师模型的知识更有效的逐渐迁移到学生模型,提高了学生模型的质量。
以一具体实施例来说明上述候选学生模型的训练方式,例如,如图4所示,包括一个原始教师模型TN,以及两级复杂程度依次递减的中间教师模型TN-1和TN-2。其中,原始教师模型TN通过训练样本集
Figure BDA0002246622150000091
进行训练,其中x为源数据,y为对应目标数据。在原始教师模型训练完成后,再次将源数据x输入,得到一一对应的伪目标数据yT,得到原始教师模型的伪目标数据集
Figure BDA0002246622150000092
中间教师模型TN-1由于只有一个原始教师模型TN相对比其复杂,因此,其只能通过原始教师模型TN训练,即通过原始教师模型的伪目标数据集
Figure BDA0002246622150000093
以源数据x作为输入,伪目标数据yT作为验证,在中间模型TN-1完成训练后,以同样的方式得到伪目标数据集。而中间教师模型TN-2由于比原始教师模型TN和中间教师模型TN-1均更简化,因此可以通过原始教师模型TN或中间教师模型TN-1训练得到,即可以以源数据为输入,以原始教师模型TN的伪目标数据为验证或以中间教师模型TN-1的伪目标数据为验证,进行训练。因此,中间教师模型TN-2可以具有两个,分别通过原始教师模型TN和中间教师模型TN-1训练,从而形成了不同的训练路径。在此基础上,候选学生模型S可以设置为4个,同样原理,分别通过原始教师模型TN、中间教师模型TN-1以及两个通过不同路径训练得到的中间教师模型TN-2训练。根据不同训练路径完成训练的候选学生模型具有不同的参数。
步骤S15,根据多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型。
在多个通过不同训练路径得到的候选学生模型中,选择一个候选学生模型作为目标学生模型,该目标学生模型能够满足终端设备对模型复杂程度的条件要求,同时也能满足神经网络模型的质量要求。在一实施例中,步骤S15可以包括:通过验证集检测多个候选学生模型的输出结果准确率,根据准确率选取得到目标学生模型。在完成训练的多个候选学生模型中,选择质量最优的候选学生模型作为目标学生模型,选择的方式可以是通过验证集对多个学生模型进行测试,其中验证集与训练样本集原理相同,具有测试数据和测试数据对应的标准结果数据,同时测试数据也可以相比训练样本集中的源数据增加噪声干扰,之后根据候选学生模型的输出结果与标准结果数据比对的准确率进行选择,选择准确率最高的候选学生模型作为目标学生模型。
通过上述任一实施例的神经网络模型压缩方法,能够训练得到符合简化要求的多个学生模型,并且可以从通过不同训练路径完成训练的学生模型选择最优的一个作为目标学生模型,从而能够得到更简化且质量更高的神经网络模型。
基于同一个发明构思,本公开还提供一种语料翻译方法20,参见图5,语料翻译方法20包括:步骤S21获取语料;步骤S22通过神经网络模型对语料进行翻译,其中,神经网络模型为前述任一实施例的神经网络模型压缩方法10得到的目标学生模型;步骤S23输出翻译结果。
基于同一个发明构思,图6示出了一种神经网络模型压缩装置100,如图6所示,神经网络模型压缩装置100包括:训练样本获取单元110,用于获取包括多个训练样本对的训练样本集,每一个训练样本对包括源数据和与源数据对应的目标数据;原始模型训练单元120,用于以源数据为输入,以目标数据为验证,训练原始教师模型;中间模型训练单元130,用于基于训练样本集以及原始教师模型,训练一个或多个中间教师模型,一个或多个中间教师模型组成教师模型集;学生模型训练单元140,用于基于训练样本集、原始教师模型和教师模型集,训练多个候选学生模型,多个候选学生模型组成学生模型集;目标模型选取单元150,用于根据多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型。
在一实施例中,其中任一中间教师模型的模型参数总数少于原始教师模型的模型参数总数。
在一实施例中,中间模型训练单元130还用于:以源数据为输入,以复杂教师模型输出的伪目标数据为验证,训练每一个待训练的中间教师模型,其中,复杂教师模型为已完成训练的原始教师模型,或已完成训练且模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
在一实施例中,其中教师模型集中的一个或多个中间教师模型按各自的模型参数总数进行降序分级排列,使得后一级中间教师模型的模型参数总数少于前一级中间教师模型的模型参数总数,并且其中用于训练当前级的中间教师模型的复杂模型为已完成训练的原始教师模型或已完成训练的前面任一级中间教师模型。
在一实施例中,学生模型训练单元140还包括:路径确认子单元:用于确定多条训练路径,多条训练路径与多个候选学生模型一一对应,并且训练路径为以原始教师模型为起点直接到达相应的候选学生模型,或者以原始教师模型为起点且经过至少一个中间教师模型后到达相应的候选学生模型;训练子单元:用于以每一条训练路径上的模型排列顺序,训练该训练路径上相应的候选学生模型,或者训练该训练路径上相应的至少一个中间教师模型和相应的候选学生模型。
在一实施例中,训练子单元还用于:当训练路径为以原始教师模型为起点直接到达相应的候选学生模型时,已源数据为输入,以已完成训练的原始教师模型输出的伪目标数据作为相应的候选学生模型的验证;或者,当训练路径为以原始教师模型为起点且经过至少一个中间教师模型后到达相应的候选学生模型时,以源数据作为输入,以训练路径上相邻在前的复杂教师模型输出的伪目标数据为验证,训练各个中间教师模型,并且以训练路径上与候选学生模型相邻在前的中间教师模型输出的伪目标数据作为候选学生模型的验证,训练候选学生模型;其中,复杂教师模型为已完成训练的原始教师模型,或已完成训练且模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
在一实施例中,目标模型选取单元150还用于:通过验证集检测多个候选学生模型的输出结果准确率,根据准确率选取得到目标学生模型。
在一实施例中,任一中间教师模型的模型参数总数少于原始教师模型的模型参数总数包括:任一中间教师模型的模型层数少于原始教师模型的模型层数。
在一实施例中,训练样本获取单元110还用于:获取第一语言语料作为源数据,获取与第一语言语料具有相同意思的第二语言语料作为目标数据。
在一实施例中,原始模型训练单元120还用于:将第一语言语料和第二语言语料分词,分别得到多个第一语言词语和多个第二语言词语;分别对多个第一语言词语和多个第二语言词语进行向量化的对应的多个第一语言词语向量和多个第二语言词语向量;基于第一语言词语向量,通过编码器和注意力机制,得到第一语言语料向量;基于第二语言词语向量,通过解码器和注意力机制,得到第二语言语料向量;根据第一语言语料向量与第二语言语料向量,训练原始教师模型。
关于上述实施例中的神经网络模型压缩装置100,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
基于同一个发明构思,图7示出了一种语料翻译装置200,如图7所示,语料翻译装置200包括,接收单元210,用于获取语料;处理单元220,用于通过神经网络模型对语料进行翻译,其中,神经网络模型为通过前述任一实施例的神经网络模型压缩方法10得到的目标学生模型;输出单元230,用于输出翻译结果。
关于上述实施例中的语料翻译装置200,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图8是根据一示例性实施例示出的前述任一实施例装置的示意框图。例如,装置300可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图8,装置300可以包括以下一个或多个组件:处理组件302,存储器304,电力组件306,多媒体组件308,音频组件310,输入/输出(I/O)的接口312,传感器组件314,以及通信组件316。
处理组件302通常控制装置300的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件302可以包括一个或多个处理器320来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件302可以包括一个或多个模块,便于处理组件302和其他组件之间的交互。例如,处理组件302可以包括多媒体模块,以方便多媒体组件308和处理组件302之间的交互。
存储器304被配置为存储各种类型的数据以支持在装置300的操作。这些数据的示例包括用于在装置300上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器304可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件306为装置300的各种组件提供电力。电力组件306可以包括电源管理系统,一个或多个电源,及其他与为装置300生成、管理和分配电力相关联的组件。
多媒体组件308包括在所述装置300和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件308包括一个前置摄像头和/或后置摄像头。当设备300处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件310被配置为输出和/或输入音频信号。例如,音频组件310包括一个麦克风(MIC),当装置300处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器304或经由通信组件316发送。在一些实施例中,音频组件310还包括一个扬声器,用于输出音频信号。
I/O接口312为处理组件302和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件314包括一个或多个传感器,用于为装置300提供各个方面的状态评估。例如,传感器组件314可以检测到装置300的打开/关闭状态,组件的相对定位,例如所述组件为装置300的显示器和小键盘,传感器组件314还可以检测装置300或装置300一个组件的位置改变,用户与装置300接触的存在或不存在,装置300方位或加速/减速和装置300的温度变化。传感器组件314可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件314还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件314还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件316被配置为便于装置300和其他设备之间有线或无线方式的通信。装置300可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件316经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件316还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置300可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的计算机可读存储介质,例如包括指令的存储器304,上述指令可由装置300的处理器320执行以完成上述方法。例如,所述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图9是根据一示例性实施例示出的一种电子装置400的框图。例如,装置400可以被提供为一服务器。参照图9,装置400包括处理组件422,其进一步包括一个或多个处理器,以及由存储器432所代表的存储器资源,用于存储可由处理组件422的执行的指令,例如应用程序。存储器432中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件422被配置为执行指令,以执行上述方法。
装置400还可以包括一个电源组件426被配置为执行装置300的电源管理,一个有线或无线网络接口450被配置为将装置400连接到网络,和一个输入输出(I/O)接口458。装置400可以操作基于存储在存储器432的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (20)

1.一种神经网络模型压缩方法,其特征在于,所述方法包括:
获取包括多个训练样本对的训练样本集,每一个训练样本对包括源数据和与所述源数据对应的目标数据;
以所述源数据为输入,以所述目标数据为验证,训练原始教师模型;
基于所述训练样本集以及所述原始教师模型,训练一个或多个中间教师模型,所述一个或多个中间教师模型组成教师模型集;
基于所述训练样本集、所述原始教师模型和所述教师模型集,训练多个候选学生模型,所述多个候选学生模型组成学生模型集;
根据所述多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型;
其中,所述获取包括多个训练样本对的训练样本集,包括:获取第一语言语料作为所述源数据,获取与所述第一语言语料具有相同意思的第二语言语料作为所述目标数据;
所述以所述源数据为输入,以所述目标数据为验证,训练原始教师模型,包括:
将所述第一语言语料和所述第二语言语料分词,分别得到多个第一语言词语和多个第二语言词语;
分别对多个所述第一语言词语和多个所述第二语言词语进行向量化的对应的多个第一语言词语向量和多个第二语言词语向量;
基于所述第一语言词语向量,通过编码器和注意力机制,得到第一语言语料向量;
基于所述第二语言词语向量,通过解码器和注意力机制,得到第二语言语料向量;
根据所述第一语言语料向量与所述第二语言语料向量,训练所述原始教师模型;
在训练待训练的中间教师模型时,通过将源数据输入所述待训练的中间教师模型,通过所述待训练的中间教师模型得到输出结果,与完成训练的原始教师模型基于所述源数据输出的伪目标数据进行比对得到损失值,或,与完成训练的且比该待训练的中间教师模型更复杂的其他一个中间教师模型基于该源数据输出的伪目标数据进行比对得到损失值,根据得到的损失值调整所述待训练的中间教师模型的模型参数,最终完成所述待训练的中间教师模型的训练。
2.根据权利要求1所述的神经网络模型压缩方法,其特征在于,其中任一所述中间教师模型的模型参数总数少于所述原始教师模型的模型参数总数。
3.根据权利要求2所述的神经网络模型压缩方法,其特征在于,所述基于所述训练样本集以及所述原始教师模型,训练一个或多个中间教师模型,所述一个或多个中间教师模型组成教师模型集,包括:以所述源数据为输入,以复杂教师模型输出的伪目标数据为验证,训练每一个待训练的中间教师模型,其中,所述复杂教师模型为已完成训练的所述原始教师模型,或已完成训练且所述模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
4.根据权利要求3所述的神经网络模型压缩方法,其特征在于,其中所述教师模型集中的所述一个或多个中间教师模型按各自的模型参数总数进行降序分级排列,使得后一级中间教师模型的模型参数总数少于前一级中间教师模型的模型参数总数,并且其中用于训练当前级的中间教师模型的所述复杂教师模型为已完成训练的所述原始教师模型或已完成训练的前面任一级中间教师模型。
5.根据权利要求2所述的神经网络模型压缩方法,其特征在于,所述基于所述训练样本集、所述原始教师模型和所述教师模型集,训练多个候选学生模型,所述多个候选学生模型组成学生模型集,包括:
确定多条训练路径,所述多条训练路径与所述多个候选学生模型一一对应,并且所述训练路径为以所述原始教师模型为起点直接到达相应的候选学生模型,或者以所述原始教师模型为起点且经过至少一个所述中间教师模型后到达相应的候选学生模型;
以每一条训练路径上的模型排列顺序,训练该训练路径上相应的候选学生模型,或者训练该训练路径上相应的至少一个所述中间教师模型和相应的候选学生模型。
6.根据权利要求5所述的神经网络模型压缩方法,其特征在于,所述以每一条训练路径上的模型排列顺序,训练该训练路径上相应的候选学生模型,或者训练该训练路径上相应的至少一个所述中间教师模型和相应的候选学生模型包括:
当所述训练路径为以所述原始教师模型为起点直接到达相应的候选学生模型时,已所述源数据为输入,以已完成训练的所述原始教师模型输出的伪目标数据作为相应的候选学生模型的验证;
或者,
当所述训练路径为以所述原始教师模型为起点且经过至少一个所述中间教师模型后到达相应的候选学生模型时,以所述源数据作为输入,以所述训练路径上相邻在前的复杂教师模型输出的伪目标数据为验证,训练各个中间教师模型,并且以训练路径上与候选学生模型相邻在前的中间教师模型输出的伪目标数据作为候选学生模型的验证,训练所述候选学生模型;其中,所述复杂教师模型为已完成训练的所述原始教师模型,或已完成训练且所述模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
7.根据权利要求1所述的神经网络模型压缩方法,其特征在于,所述根据所述多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型,包括:通过验证集检测所述多个候选学生模型的输出结果准确率,根据所述准确率选取得到所述目标学生模型。
8.根据权利要求2所述的神经网络模型压缩方法,其特征在于,任一所述中间教师模型的模型参数总数少于所述原始教师模型的模型参数总数包括:任一所述中间教师模型的模型层数少于所述原始教师模型的模型层数。
9.一种语料翻译方法,其特征在于,所述方法包括:
获取语料;
通过神经网络模型对所述语料进行翻译,其中,所述神经网络模型为通过权利要求1-8任一项所述的神经网络模型压缩方法得到的目标学生模型;
输出翻译结果。
10.一种神经网络模型压缩装置,其特征在于,所述装置包括:
训练样本获取单元,用于获取包括多个训练样本对的训练样本集,每一个训练样本对包括源数据和与所述源数据对应的目标数据;
原始模型训练单元,用于以所述源数据为输入,以所述目标数据为验证,训练原始教师模型;
中间模型训练单元,用于基于所述训练样本集以及所述原始教师模型,训练一个或多个中间教师模型,所述一个或多个中间教师模型组成教师模型集;
学生模型训练单元,用于基于所述训练样本集、所述原始教师模型和所述教师模型集,训练多个候选学生模型,所述多个候选学生模型组成学生模型集;
目标模型选取单元,用于根据所述多个候选学生模型的训练结果,选择一个候选学生模型作为目标学生模型;
其中,所述训练样本获取单元还用于:获取第一语言语料作为所述源数据,获取与所述第一语言语料具有相同意思的第二语言语料作为所述目标数据;
所述原始模型训练单元还用于:
将所述第一语言语料和所述第二语言语料分词,分别得到多个第一语言词语和多个第二语言词语;
分别对多个所述第一语言词语和多个所述第二语言词语进行向量化的对应的多个第一语言词语向量和多个第二语言词语向量;
基于所述第一语言词语向量,通过编码器和注意力机制,得到第一语言语料向量;
基于所述第二语言词语向量,通过解码器和注意力机制,得到第二语言语料向量;
根据所述第一语言语料向量与所述第二语言语料向量,训练所述原始教师模型;
所述中间模型训练单元,还用于在训练待训练的中间教师模型时,通过将源数据输入所述待训练的中间教师模型,通过所述待训练的中间教师模型得到输出结果,与完成训练的原始教师模型基于所述源数据输出的伪目标数据进行比对得到损失值,或,与完成训练的且比该待训练的中间教师模型更复杂的其他一个中间教师模型基于该源数据输出的伪目标数据进行比对得到损失值,根据得到的损失值调整所述待训练的中间教师模型的模型参数,最终完成所述待训练的中间教师模型的训练。
11.根据权利要求10所述的神经网络模型压缩装置,其特征在于,其中任一所述中间教师模型的模型参数总数少于所述原始教师模型的模型参数总数。
12.根据权利要求11所述的神经网络模型压缩装置,其特征在于,所述中间模型训练单元还用于:以所述源数据为输入,以复杂教师模型输出的伪目标数据为验证,训练每一个待训练的中间教师模型,其中,所述复杂教师模型为已完成训练的所述原始教师模型,或已完成训练且所述模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
13.根据权利要求12所述的神经网络模型压缩装置,其特征在于,其中所述教师模型集中的所述一个或多个中间教师模型按各自的模型参数总数进行降序分级排列,使得后一级中间教师模型的模型参数总数少于前一级中间教师模型的模型参数总数,并且其中用于训练当前级的中间教师模型的所述复杂教师模型为已完成训练的所述原始教师模型或已完成训练的前面任一级中间教师模型。
14.根据权利要求11所述的神经网络模型压缩装置,其特征在于,所述学生模型训练单元还包括:
路径确认子单元:用于确定多条训练路径,所述多条训练路径与所述多个候选学生模型一一对应,并且所述训练路径为以所述原始教师模型为起点直接到达相应的候选学生模型,或者以所述原始教师模型为起点且经过至少一个所述中间教师模型后到达相应的候选学生模型;
训练子单元:用于以每一条训练路径上的模型排列顺序,训练该训练路径上相应的候选学生模型,或者训练该训练路径上相应的至少一个所述中间教师模型和相应的候选学生模型。
15.根据权利要求14所述的神经网络模型压缩装置,其特征在于,所述训练子单元还用于:当所述训练路径为以所述原始教师模型为起点直接到达相应的候选学生模型时,已所述源数据为输入,以已完成训练的所述原始教师模型输出的伪目标数据作为相应的候选学生模型的验证;
或者,
当所述训练路径为以所述原始教师模型为起点且经过至少一个所述中间教师模型后到达相应的候选学生模型时,以所述源数据作为输入,以所述训练路径上相邻在前的复杂教师模型输出的伪目标数据为验证,训练各个中间教师模型,并且以训练路径上与候选学生模型相邻在前的中间教师模型输出的伪目标数据作为候选学生模型的验证,训练所述候选学生模型;其中,所述复杂教师模型为已完成训练的所述原始教师模型,或已完成训练且所述模型参数总数比当前待训练的中间教师模型的模型参数总数更多的其他中间教师模型。
16.根据权利要求10所述的神经网络模型压缩装置,其特征在于,所述目标模型选取单元还用于:通过验证集检测所述多个候选学生模型的输出结果准确率,根据所述准确率选取得到所述目标学生模型。
17.根据权利要求11所述的神经网络模型压缩装置,其特征在于,任一所述中间教师模型的模型参数总数少于所述原始教师模型的模型参数总数包括:任一所述中间教师模型的模型层数少于所述原始教师模型的模型层数。
18.一种语料翻译装置,其特征在于,所述装置包括:
接收单元,用于获取语料;
处理单元,用于通过神经网络模型对所述语料进行翻译,其中,所述神经网络模型为通过权利要求1-8任一项所述的神经网络模型压缩方法得到的目标学生模型;
输出单元,用于输出翻译结果。
19.一种电子装置,其特征在于,包括:
存储器,用于存储指令;以及
处理器,用于调用所述存储器存储的指令执行如权利要求1至8中任一项所述的神经网络模型压缩方法或如权利要求9所述的语料翻译方法。
20.一种计算机可读存储介质,其特征在于,存储有指令,所述指令被处理器执行时,执行如权利要求1至8中任一项所述的神经网络模型压缩方法或如权利要求9所述的语料翻译方法。
CN201911019142.1A 2019-10-24 2019-10-24 神经网络模型压缩方法、语料翻译方法及其装置 Active CN110826344B (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201911019142.1A CN110826344B (zh) 2019-10-24 2019-10-24 神经网络模型压缩方法、语料翻译方法及其装置
JP2020502271A JP2022509892A (ja) 2019-10-24 2019-11-26 ニューラルネットワークモデルを圧縮する方法及び装置、コーパス翻訳方法及び装置、電子装置、並びにプログラム及び記録媒体
PCT/CN2019/120801 WO2021077529A1 (zh) 2019-10-24 2019-11-26 神经网络模型压缩方法、语料翻译方法及其装置
RU2020102388A RU2749970C1 (ru) 2019-10-24 2019-11-26 Способ сжатия модели нейронной сети, а также способ и устройство для перевода языкового корпуса
KR1020207002213A KR102433834B1 (ko) 2019-10-24 2019-11-26 신경망 모델을 압축하는 방법 및 장치, 코퍼스 번역 방법 및 장치, 전자 장치, 프로그램 및 기록 매체
US16/785,062 US11556723B2 (en) 2019-10-24 2020-02-07 Neural network model compression method, corpus translation method and device
EP20160494.9A EP3812969A1 (en) 2019-10-24 2020-03-02 Neural network model compression method, corpus translation method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911019142.1A CN110826344B (zh) 2019-10-24 2019-10-24 神经网络模型压缩方法、语料翻译方法及其装置

Publications (2)

Publication Number Publication Date
CN110826344A CN110826344A (zh) 2020-02-21
CN110826344B true CN110826344B (zh) 2022-03-01

Family

ID=69550504

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911019142.1A Active CN110826344B (zh) 2019-10-24 2019-10-24 神经网络模型压缩方法、语料翻译方法及其装置

Country Status (7)

Country Link
US (1) US11556723B2 (zh)
EP (1) EP3812969A1 (zh)
JP (1) JP2022509892A (zh)
KR (1) KR102433834B1 (zh)
CN (1) CN110826344B (zh)
RU (1) RU2749970C1 (zh)
WO (1) WO2021077529A1 (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008305B (zh) * 2019-11-29 2023-06-23 百度在线网络技术(北京)有限公司 一种视觉搜索方法、装置以及电子设备
CN111506702A (zh) * 2020-03-25 2020-08-07 北京万里红科技股份有限公司 基于知识蒸馏的语言模型训练方法、文本分类方法及装置
CN111461212B (zh) * 2020-03-31 2023-04-07 中国科学院计算技术研究所 一种用于点云目标检测模型的压缩方法
US11354778B2 (en) 2020-04-13 2022-06-07 Google Llc Systems and methods for contrastive learning of visual representations
US11386302B2 (en) * 2020-04-13 2022-07-12 Google Llc Systems and methods for contrastive learning of visual representations
CN111598216B (zh) * 2020-04-16 2021-07-06 北京百度网讯科技有限公司 学生网络模型的生成方法、装置、设备及存储介质
US11837238B2 (en) * 2020-10-21 2023-12-05 Google Llc Assessing speaker recognition performance
CN112785887A (zh) * 2020-12-31 2021-05-11 深圳市木愚科技有限公司 一种基于教师背景的在线教育互动系统及方法
CN113569608A (zh) * 2021-02-08 2021-10-29 腾讯科技(深圳)有限公司 基于深度学习的文本识别方法、装置、设备及存储介质
CN113204633B (zh) * 2021-06-01 2022-12-30 吉林大学 一种语义匹配蒸馏方法及装置
CN113377915B (zh) * 2021-06-22 2022-07-19 厦门大学 对话篇章解析方法
CN113656644B (zh) * 2021-07-26 2024-03-15 北京达佳互联信息技术有限公司 手势语识别方法、装置、电子设备及存储介质
CN113505614A (zh) * 2021-07-29 2021-10-15 沈阳雅译网络技术有限公司 一种面向小型cpu设备的小模型训练方法
US11599794B1 (en) 2021-10-20 2023-03-07 Moffett International Co., Limited System and method for training sample generator with few-shot learning
KR102461997B1 (ko) * 2021-11-15 2022-11-04 주식회사 에너자이(ENERZAi) 신경망 모델의 경량화 방법, 신경망 모델의 경량화 장치, 및 신경망 모델의 경량화 시스템
KR102461998B1 (ko) * 2021-11-15 2022-11-04 주식회사 에너자이(ENERZAi) 신경망 모델의 경량화 방법, 신경망 모델의 경량화 장치, 및 신경망 모델의 경량화 시스템
CN114202076B (zh) 2021-12-10 2023-05-23 北京百度网讯科技有限公司 深度学习模型的训练方法、自然语言处理方法和装置
CN114663714B (zh) * 2022-05-23 2022-11-04 阿里巴巴(中国)有限公司 图像分类、地物分类方法和装置
CN115063875B (zh) * 2022-08-16 2022-12-16 北京百度网讯科技有限公司 模型训练方法、图像处理方法、装置和电子设备
CN115879446B (zh) * 2022-12-30 2024-01-12 北京百度网讯科技有限公司 文本处理方法、深度学习模型训练方法、装置以及设备
CN116416500B (zh) * 2023-03-24 2024-04-05 北京百度网讯科技有限公司 图像识别模型训练方法、图像识别方法、装置及电子设备
CN116522152B (zh) * 2023-07-05 2023-11-10 深圳须弥云图空间科技有限公司 基于回译的翻译模型训练方法及装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492318B1 (ko) * 2015-09-18 2023-01-26 삼성전자주식회사 모델 학습 방법 및 장치, 및 데이터 인식 방법
CN105843801B (zh) * 2016-03-25 2018-05-11 北京语言大学 多译本平行语料库的构建系统
KR102589637B1 (ko) * 2016-08-16 2023-10-16 삼성전자주식회사 기계 번역 방법 및 장치
WO2018126213A1 (en) * 2016-12-30 2018-07-05 Google Llc Multi-task learning using knowledge distillation
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
US11195093B2 (en) * 2017-05-18 2021-12-07 Samsung Electronics Co., Ltd Apparatus and method for student-teacher transfer learning network using knowledge bridge
US10817650B2 (en) * 2017-05-19 2020-10-27 Salesforce.Com, Inc. Natural language processing using context specific word vectors
CN108334934B (zh) * 2017-06-07 2021-04-13 赛灵思公司 基于剪枝和蒸馏的卷积神经网络压缩方法
KR102570278B1 (ko) * 2017-07-31 2023-08-24 삼성전자주식회사 교사 모델로부터 학생 모델을 트레이닝하는데 사용되는 학습 데이터를 생성하는 장치 및 방법
EP3471005B1 (en) * 2017-10-13 2021-11-03 Nokia Technologies Oy Artificial neural network
WO2019143946A1 (en) * 2018-01-19 2019-07-25 Visa International Service Association System, method, and computer program product for compressing neural network models
US10643602B2 (en) * 2018-03-16 2020-05-05 Microsoft Technology Licensing, Llc Adversarial teacher-student learning for unsupervised domain adaptation
RU2702978C1 (ru) * 2018-10-15 2019-10-14 Самсунг Электроникс Ко., Лтд. Байесовское разреживание рекуррентных нейронных сетей
CN108921294A (zh) * 2018-07-11 2018-11-30 浙江大学 一种用于神经网络加速的渐进式块知识蒸馏方法
US11741355B2 (en) * 2018-07-27 2023-08-29 International Business Machines Corporation Training of student neural network with teacher neural networks
US10963748B1 (en) * 2018-08-31 2021-03-30 Snap Inc. Generative neural network distillation
CN109492232A (zh) 2018-10-22 2019-03-19 内蒙古工业大学 一种基于Transformer的增强语义特征信息的蒙汉机器翻译方法
CN109711544A (zh) * 2018-12-04 2019-05-03 北京市商汤科技开发有限公司 模型压缩的方法、装置、电子设备及计算机存储介质
US11556778B2 (en) * 2018-12-07 2023-01-17 Microsoft Technology Licensing, Llc Automated generation of machine learning models
US10311334B1 (en) * 2018-12-07 2019-06-04 Capital One Services, Llc Learning to process images depicting faces without leveraging sensitive attributes in deep learning models
CN109448706A (zh) * 2018-12-12 2019-03-08 苏州思必驰信息科技有限公司 神经网络语言模型压缩方法及系统
CN109783824B (zh) * 2018-12-17 2023-04-18 北京百度网讯科技有限公司 基于翻译模型的翻译方法、装置及存储介质
CN109919300B (zh) * 2019-02-25 2021-03-05 北京市商汤科技开发有限公司 神经网络训练方法及装置以及图像处理方法及装置
US20200272905A1 (en) * 2019-02-26 2020-08-27 GE Precision Healthcare LLC Artificial neural network compression via iterative hybrid reinforcement learning approach
CN110070183B (zh) * 2019-03-11 2021-08-20 中国科学院信息工程研究所 一种弱标注数据的神经网络模型训练方法及装置
CN110175627A (zh) * 2019-04-18 2019-08-27 浙江大学 一种基于知识重组的复杂分类方法
CN110059323B (zh) 2019-04-22 2023-07-11 苏州大学 基于自注意力机制的多领域神经机器翻译方法
CN110162800B (zh) * 2019-05-08 2021-02-05 北京百度网讯科技有限公司 翻译模型的训练方法和装置
CN110175338B (zh) 2019-05-31 2023-09-26 北京金山数字娱乐科技有限公司 一种数据处理方法及装置
CN110263353B (zh) 2019-06-25 2023-10-13 北京金山数字娱乐科技有限公司 一种机器翻译方法及装置
CN110276413B (zh) * 2019-06-28 2023-10-31 深圳前海微众银行股份有限公司 一种模型压缩方法及装置
US11302309B2 (en) * 2019-09-13 2022-04-12 International Business Machines Corporation Aligning spike timing of models for maching learning
US11640527B2 (en) * 2019-09-25 2023-05-02 Salesforce.Com, Inc. Near-zero-cost differentially private deep learning with teacher ensembles

Also Published As

Publication number Publication date
EP3812969A1 (en) 2021-04-28
JP2022509892A (ja) 2022-01-25
RU2749970C1 (ru) 2021-06-21
KR102433834B1 (ko) 2022-08-18
US11556723B2 (en) 2023-01-17
CN110826344A (zh) 2020-02-21
WO2021077529A1 (zh) 2021-04-29
KR20210050485A (ko) 2021-05-07
US20210124881A1 (en) 2021-04-29

Similar Documents

Publication Publication Date Title
CN110826344B (zh) 神经网络模型压缩方法、语料翻译方法及其装置
CN111460150B (zh) 一种分类模型的训练方法、分类方法、装置及存储介质
US20220165288A1 (en) Audio signal processing method and apparatus, electronic device, and storage medium
CN109801644B (zh) 混合声音信号的分离方法、装置、电子设备和可读介质
CN107291690B (zh) 标点添加方法和装置、用于标点添加的装置
CN111524521B (zh) 声纹提取模型训练方法和声纹识别方法、及其装置和介质
CN110909815B (zh) 神经网络训练、图像处理方法、装置及电子设备
US20210390449A1 (en) Method and device for data processing, and storage medium
CN113362812B (zh) 一种语音识别方法、装置和电子设备
CN111126079B (zh) 用于机器翻译的神经网络模型压缩方法、装置及存储介质
CN111242303B (zh) 网络训练方法及装置、图像处理方法及装置
CN111612070A (zh) 基于场景图的图像描述生成方法及装置
JP2022522551A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN110114765B (zh) 通过共享话语的上下文执行翻译的电子设备及其操作方法
CN113707134B (zh) 一种模型训练方法、装置和用于模型训练的装置
CN112001364A (zh) 图像识别方法及装置、电子设备和存储介质
CN111753091A (zh) 分类方法、分类模型的训练方法、装置、设备及存储介质
CN115039169A (zh) 一种语音指令识别方法、电子设备以及非瞬态计算机可读存储介质
CN113535969B (zh) 语料扩充方法、装置、计算机设备及存储介质
CN113486978A (zh) 文本分类模型的训练方法、装置、电子设备及存储介质
CN113345452A (zh) 语音转换方法、语音转换模型的训练方法、装置和介质
CN117521844A (zh) 译文打分模型的训练方法及译文选取方法
CN114155849A (zh) 一种虚拟对象的处理方法、装置和介质
CN115238656A (zh) 文本生成方法、装置、电子设备及存储介质
CN113362813A (zh) 一种语音识别方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant