CN117436502A - 深度学习模型的训练方法、文本数据处理方法及装置 - Google Patents
深度学习模型的训练方法、文本数据处理方法及装置 Download PDFInfo
- Publication number
- CN117436502A CN117436502A CN202311112621.4A CN202311112621A CN117436502A CN 117436502 A CN117436502 A CN 117436502A CN 202311112621 A CN202311112621 A CN 202311112621A CN 117436502 A CN117436502 A CN 117436502A
- Authority
- CN
- China
- Prior art keywords
- text data
- training
- deep learning
- sample
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 203
- 238000013136 deep learning model Methods 0.000 title claims abstract description 153
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000003672 processing method Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 19
- 238000012937 correction Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 239000013598 vector Substances 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000003058 natural language processing Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004821 distillation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013475 authorization Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000013140 knowledge distillation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种深度学习模型的训练方法、文本数据处理方法及装置,可以应用于人工智能领域和金融科技技术领域。该方法包括:获取训练样本文本和N个预训练模型,训练样本文本包括N类样本文本数据和与样本文本数据对应的标签,N个预训练模型与N类样本文本数据一一对应,N为大于1的正整数;将N类样本文本数据输入至初始深度学习模型,输出第一预测文本数据,其中,初始深度学习模型的模型参数量大于预训练模型的模型参数量;将N类样本文本数据分别输入至与N类样本文本数据各自对应的N个预训练模型,输出N个第二预测文本数据;根据第一预测文本数据、第二预测文本数据和标签训练初始深度学习模型,得到训练后的深度学习模型。
Description
技术领域
本公开涉及人工智能领域和金融科技技术领域,尤其涉及一种深度学习模型的训练方法、文本数据处理方法、装置、设备、存储介质和程序产品。
背景技术
近年来,越来越多的企业通过利用自然语言处理大模型来完成文案编辑、智能应答等业务工作。自然语言处理大模型需要通过海量数据进行预训练,使其具备较为强大的语言理解能力和表达能力,这使得相关用户可以基于训练后的自然语言处理大模型来处理文本数据,得到与用户需求相匹配的预测文本。
发明人发现在相关技术中,大规模预训练需要消耗大量的计算资源,同时,受到数据偏差和质量问题的影响,导致模型的训练效率低下的情况,难以满足相关企业或用户的实际需求。
发明内容
鉴于上述问题,本公开提供了一种深度学习模型的训练方法、装置、设备、存储介质和程序产品。
根据本公开的第一个方面,提供了一种深度学习模型的训练方法,包括:获取训练样本文本和N个预训练模型,所述训练样本文本包括N类样本文本数据和与所述样本文本数据对应的标签,N个所述预训练模型与N类所述样本文本数据一一对应,N为大于1的正整数;
将N类所述样本文本数据输入至初始深度学习模型,输出第一预测文本数据,其中,所述初始深度学习模型的模型参数量大于所述预训练模型的模型参数量;
将N类所述样本文本数据分别输入至与N类所述样本文本数据各自对应的N个所述预训练模型,输出N个第二预测文本数据;以及
根据所述第一预测文本数据、所述第二预测文本数据和所述标签训练所述初始深度学习模型,得到训练后的深度学习模型。
根据本公开的实施例,所述样本文本数据具有数据属性类型相关联,所述第一预测文本数据和所述第二预测文本数据均通过所述数据属性类型与所述样本文本数据相关联;
其中,根据所述第一预测文本数据、所述第二预测文本数据和所述标签训练所述初始深度学习模型,得到训练后的深度学习模型包括:
根据第一损失函数处理所述第一预测文本数据和所述标签,得到第一损失值,其中,所述第一损失函数是基于第一损失参数构建得到的;
根据第二损失函数处理所述第一预测文本数据,以及与所述第一预测文本数据相关联的关联第二预测文本数据,得到第二损失值,其中,所述第二损失函数是基于第二损失参数构建得到的,所述第一损失参数是根据所述第二损失参数确定的,所述关联第二预测文本数据与所述第一预测文本数据通过所述数据属性类型相关联;
根据所述第一损失值和所述第二损失值训练所述初始深度学习模型,得到训练后的所述深度学习模型。
根据本公开的实施例,所述第二损失参数是基于当前的训练迭代频次确定的,所述当前的训练迭代频次为调整所述初始深度学习模型的模型参数的频次。
根据本公开的实施例,所述第二损失参数是基于预设修正参数和初始损失参数之间的差值确定的,所述初始损失参数是根据当前的训练迭代频次与预设的训练迭代总频次的比值确定的。
根据本公开的实施例,所述深度学习模型是基于注意力网络算法构建得到的。
根据本公开的实施例,所述深度学习模型的训练方法还包括:
根据用于表征所述样本文本数据的数据属性类型的提示信息,更新所述样本文本数据,得到更新后的样本文本数据。
根据本公开的实施例,所述数据属性类型包括以下至少一项:
描述文本类型、编程语言类型、金融属性类型。
根据本公开的实施例,所述初始深度学习模型包括N个编码层和初始预测层,N个所述编码层与N个所述数据属性类型一一对应,N个所述数据属性类型各自关联有样本编码权重;
其中,将N类所述样本文本数据输入至初始深度学习模型,输出第一预测文本数据包括:
将与目标数据属性类型相关的样本文本数据分别输入至N个所述编码层,输出N个初始样本编码数据,其中,所述目标数据属性类型是从N个所述样本文本数据属性类型中确定的;
根据与所述目标数据属性类型相关联的目标样本编码权重,更新N个所述初始样本编码数据,得到更新后的N个样本编码数据;以及
将N个所述样本编码数据输入至所述初始预测层,输出所述第一预测文本数据。
本公开的第二方面提供了一种文本数据处理方法,包括:
将获得到的初始文本数据输入至深度学习模型,输出预测的目标文本数据,其中,所述深度学习模型是基于上述任一项所述的方法训练得到的。
本公开的第三方面提供了一种深度学习模型的训练装置,包括:
文本和模型获取模块,用于获取训练样本文本和N个预训练模型,所述训练样本文本包括N类样本文本数据和与所述样本文本数据对应的标签,N个所述预训练模型与N类所述样本文本数据一一对应,N为大于1的正整数;
第一预测文本数据输出模块,用于将N类所述样本文本数据输入至初始深度学习模型,输出第一预测文本数据,其中,所述初始深度学习模型的模型参数量大于所述预训练模型的模型参数量;
第二预测文本数据输出模块,用于将N类所述样本文本数据分别输入至与N类所述样本文本数据各自对应的N个所述预训练模型,输出N个第二预测文本数据;以及
模型训练模块,用于根据所述第一预测文本数据、所述第二预测文本数据和所述标签训练所述初始深度学习模型,得到训练后的深度学习模型。
本公开的第四方面提供了一种文本数据处理装置,包括:
目标文本数据输出模块,用于将获得到的初始文本数据输入至深度学习模型,输出预测的目标文本数据,其中,所述深度学习模型是基于权利要求1至8中任一项所述的方法训练得到的。
本公开的第五方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述方法。
本公开的第六方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述方法。
本公开的第七方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述方法。
根据本公开提供的一种深度学习模型的训练方法、文本数据处理方法、装置、设备、存储介质和程序产品,通过获取训练样本文本和N个预训练模型,将N类样本文本数据输入至初始深度学习模型,从而输出第一预测文本数据,并将N类样本文本数据分别输入至与N类样本文本数据各自对应的N个预训练模型,输出N个第二预测文本数据,进而根据第一预测文本数据、第二预测文本数据和所述标签训练初始深度学习模型,得到训练后的深度学习模型,实现了降低大规模预训练中对计算资源的消耗,同时缩短了预训练的时间,较大程度上提高了预训练模型的训练效率,还可以通过训练后得到的深度学习模型来实现生成与用户需求相关度较高的文本数据,从而提升办公效率与业务发展速度。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的深度学习模型的训练方法、文本数据处理方法及装置的应用场景图;
图2示意性示出了根据本公开实施例的深度学习模型的训练方法的流程图;
图3示意性示出了根据本公开实施例的深度学习模型训练方法的流程图;
图4示意性示出了根据本公开实施例的深度学习模型的架构图;
图5示意性示出了根据本公开实施例的文本数据处理方法的流程图;
图6示意性示出了根据本公开实施例的深度学习模型的训练方法和文本数据处理方法的系统架构图;
图7示意性示出了根据本公开实施例的深度学习模型的训练装置的结构框图;
图8示意性示出了根据本公开实施例的文本数据处理装置的结构框图;以及
图9示意性示出了根据本公开实施例的适于实现深度学习模型的训练方法、文本数据处理方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本公开的技术方案中,所涉及的用户信息(包括但不限于用户个人信息、用户图像信息、用户设备信息,例如位置信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、存储、使用、加工、传输、提供、公开和应用等处理,均遵守相关国家和地区的相关法律法规和标准,采取了必要保密措施,不违背公序良俗,并提供有相应的操作入口,供用户选择授权或者拒绝。
发明人发现,在相关技术中,大规模预训练需要消耗大量的计算资源,同时,受到数据偏差和质量问题的影响,导致预训练模型的训练效率低下。鉴于此,本公开提供了一种深度学习模型的训练方法、文本数据处理方法、装置、设备、存储介质和程序产品,通过获取训练样本文本和N个预训练模型,将N类样本文本数据输入至初始深度学习模型,从而输出第一预测文本数据,并将N类样本文本数据分别输入至与N类样本文本数据各自对应的N个预训练模型,输出N个第二预测文本数据,进而根据第一预测文本数据、第二预测文本数据和所述标签训练初始深度学习模型,得到训练后的深度学习模型,实现了降低大规模预训练中对计算资源的消耗,同时缩短了预训练的时间,较大程度上提高了预训练模型的训练效率。
本公开的实施例提供了一种深度学习模型的训练方法、文本数据处理方法,该训练方法包括:获取训练样本文本和N个预训练模型,训练样本文本包括N类样本文本数据和与样本文本数据对应的标签,N个预训练模型与N类样本文本数据一一对应,N为大于1的正整数;将N类样本文本数据输入至初始深度学习模型,输出第一预测文本数据,其中,初始深度学习模型的模型参数量大于预训练模型的模型参数量;将N类样本文本数据分别输入至与N类样本文本数据各自对应的N个预训练模型,输出N个第二预测文本数据;根据第一预测文本数据、第二预测文本数据和标签训练初始深度学习模型,得到训练后的深度学习模型。
图1示意性示出了根据本公开实施例的深度学习模型的训练方法及装置的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括第一终端设备101、第二终端设备102、第三终端设备103、网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103中的至少一个通过网络104与服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102、第三终端设备103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用第一终端设备101、第二终端设备102、第三终端设备103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的深度学习模型的训练方法、文本数据处理方法一般可以由服务器105执行。相应地,本公开实施例所提供的深度学习模型的训练方法、文本数据处理装置一般可以设置于服务器105中。本公开实施例所提供的深度学习模型的训练方法、文本数据处理方法也可以由不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的深度学习模型的训练装置、文本数据处理装置也可以设置于不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的深度学习模型的训练方法的流程图。
如图2所示,该实施例的深度学习模型的训练方法包括操作S210~操作S240。
在操作S210,获取训练样本文本和N个预训练模型,训练样本文本包括N类样本文本数据和与样本文本数据对应的标签,N个预训练模型与N类样本文本数据一一对应,N为大于1的正整数。
在操作S220,将N类样本文本数据输入至初始深度学习模型,输出第一预测文本数据,其中,初始深度学习模型的模型参数量大于预训练模型的模型参数量。
在操作S230,将N类样本文本数据分别输入至与N类样本文本数据各自对应的N个预训练模型,输出N个第二预测文本数据。
在操作S240,根据第一预测文本数据、第二预测文本数据和标签训练初始深度学习模型,得到训练后的深度学习模型。
根据本公开的实施例,训练样本文本可以包括不同类型的样本文本,例如可以包括描述文本类型文本、编程语言类型文本、金融属性类型文本等。其中,描述文本类型文本可以是诗歌、歌词、小说、对话、电影剧本等文本,编程语言类型文本可以是通过使用代码仓库、开源项目、Stack Overflow等资源收集得到源代码,金融属性类型文本可以是涉及金融相关的新闻、财务公告文本等文本。与样本文本数据对应的标签可以是与样本文本数据对应的标准文本,标签可以与样本数据的类型相关联。
根据本公开的实施例,初始深度学习模型可以是自然语言处理(NLP,NaturalLanguage Processing)模型,初始深度学习模型的核心思想是使用自监督学习的方式对大量未标注样本数据进行建模,从中提取语言知识和语言表示。可以理解的是,初始深度学习模型的模型参数量大于预训练模型的模型参数量。
在一种可行的实施例中,对于获取的样本文本数据还可以进行数据处理。对于描述文本类型的样本数据,需要进行文本清洗,去除特殊字符、标点符号和不必要的空格,并可以考虑分词、去停用词以及进行词性标注等预处理步骤,以提高生成模型对语言和句法结构的理解;对于编程语言类型的样本数据,可以进行代码标准化、注释的处理和变量命名的规范化,去除不必要的换行符和空格,并进行代码语法的检查和修复,对于大型代码库,可以选择提取特定的函数、类或方法,并且保留与任务相关的内容。对于金融属性类型样本数据,可以对数据进行清洗和规范化,去除HTML标签、非文本字符和特殊记号,同时需注意数据的时间序列性,确保数据的连续性和一致性。
根据本公开的实施例,通过获取训练样本文本和N个预训练模型,将N类样本文本数据输入至初始深度学习模型,从而输出第一预测文本数据,并将N类样本文本数据分别输入至与N类样本文本数据各自对应的N个预训练模型,输出N个第二预测文本数据,进而根据第一预测文本数据、第二预测文本数据和所述标签训练初始深度学习模型,得到训练后的深度学习模型,实现了降低大规模预训练中对计算资源的消耗,同时缩短了预训练的时间,较大程度上提高了预训练模型的训练效率。
根据本公开的实施例,数据属性类型包括以下至少一项:描述文本类型、编程语言类型、金融属性类型。
根据本公开的实施例,预训练模型可以是垂直领域模型,垂直领域模型是在特定领域中训练得到的深度学习模型,相较于自然语言大模型它们具有较小的模型参数规模和计算资源需求,例如,可以根据描述文本领域、编程语言领域和金融领域的特点和要求,可以将预训练模型可分别确定为为GPT-Neo 1.3B、CodeGen2-1B、FinBert。
GPT-Neo 1.3B在自然语言处理任务用于描述文本领域(生成与创作领域),通过预训练和微调的方式进行训练,能够理解和生成自然语言。
CodeGen2-1B具有10亿个参数,用于自动代码生成。CodeGen2-1B可以根据给定的代码片段或者自然语言描述生成相应的代码,该模型通过大规模的代码数据集进行训练。
FinBert可以是一种专门用于金融领域的语言模型,基于BERT(BidirectionalEncoder Representations from Transformers)模型的改进版本,具有10亿个参数。该模型通过预训练和微调的方式进行训练,能够理解金融领域的特殊术语和语义。
根据本公开的实施例,第二预测文本数据是通过将样本文本数据输入至预训练模型获得的。可以理解的是,将描述文本类型样本文本数据输入至GPT-Neo 1.3B模型中,输出描述文本类型的第二预测文本数据;将编程语言类型样本文本数据输入至CodeGen2-1B模型,输出编程语言类型的第二预测文本数据;将金融属性类型样本文本数据输入至FinBert模型,输出金融属性类型的第二预测文本数据。
根据本公开的实施例,初始深度学习模型包括N个编码层和初始预测层,N个编码层与N个数据属性类型一一对应,N个数据属性类型各自关联有样本编码权重;其中,将N类样本文本数据输入至初始深度学习模型,输出第一预测文本数据包括:将与目标数据属性类型相关的样本文本数据分别输入至N个编码层,输出N个初始样本编码数据,其中,目标数据属性类型是从N个样本文本数据属性类型中确定的;根据与目标数据属性类型相关联的目标样本编码权重,更新N个初始样本编码数据,得到更新后的N个样本编码数据;以及将N个样本编码数据输入至初始预测层,输出第一预测文本数据。
根据本公开的实施例,编码层和初始预测层可以与数据属性类型对应,对应描述文本类型的编码层和初始预测层、编程语言类型的编码层和初始预测层,以及金融属性类型的编码层和初始预测层。将描述文本类型样本数据、编程语言类型样本数据、金融属性类型样本文本数据分别输入至初始深度学习模型,输出描述文本类型第一预测文本数据、编程语言类型第一预测文本数据,以及金融属性类型第一预测文本数据。应该说明的是预训练模型的模型参数量少于初始预测层的模型参数量。
根据本公开的实施例,对于不同类型样本文本数据(描述文本类型数据、编程语言类型数据、金融属性类型数据),分别使用GPT-Neo1.3B模型、CodeGen2-1B模型、FinBert模型对每类型数据进行向量化,。以样本数据"Finance:农村金融服务的创新发展"为例,使用GPT-Neo 1.3B的tokenizer(编码层)向量化后得到词向量EmbedingGPT,使用CodeGen2-1B的tokenizer(编码层)向量化后得到词向量EmbedingCode,使用FinBert(编码层)的tokenizer向量化后得到词向量EmbedingFin。在向量化之后,可以将词向量EmbedingGPT、EmbedingCode、EmbedingFin进行横向拼接,得到拼接后的向量Embedingall。假设词向量EmbedingGPT有n个维度,词向量EmbedingCode有m个维度,词向量EmbedingFin有k个维度,拼接后的向量Embedingall有n+m+k个维度。在拼接过程中,需要记住EmbedingGPT、EmbedingCode、EmbedingFin和Embedingall在中的位置,以便后续的权重调整。具体操作如公式(1)~(3)所示:
其中,公式(1)中:EmbedingGPT表示使用GPT-Neo 1.3B的tokenizer向量化后的矩阵,an表示词汇表中第n个词的Embedding向量。公式(2)中:EmbedingCode表示使用CodeGen2-1B的tokenizer向量化后的矩阵,bm表示词汇表中第m个词的Embedding向量。公式(3)中:EmbedingFin表示使用FinBert的tokenizer向量化后的矩阵,ck表示词汇表中第k个词的Embedding向量。
在训练过程中,根据prompt调整词向量的权重。假设prompt对应的维度是Finance,可以增加词向量EmbedingFin的权重,以突出FinBert模型的贡献。在这个过程中充分使用正确的词向量,可以避免预训练模型可能受到数据偏差和质量问题的影响,导致模型在特定领域或语料库上的性能下降。具体操作如公式(4):
EmbedingAll=α*EmbedingGPT+β*EmbedingCode+γ*EmbedingFin (4)
其中,公式(4)中:Embedingall表示上述三个向量横向拼接过后的最终输入矩阵;α,β、λ分别代表创作与生成任务权重、代码任务权重、金融任务权重,根据数据prompt判断任务类型,提高对应向量权重为0.8,其他两个分别设置为0.1。例如:对于数据"Finance:农村金融服务的创新发展",prompt为Finance:对应金融领域,因此α=0.1,β=0.1、λ=0.8。应该理解,α=0.1,β=0.1、λ=0.8可以是与金融类型相关联的目标样本编码权重。
根据本公开的实施例,通过合理调整样本编码权重,可以使得每个模型在融合中发挥出最佳的作用,预训练模型的词向量在垂直领域已经经过大量训练,因此根据不同维度调节词向量的权重,可以加快深度学习模型的训练速度,较大地节省了计算资源。
深度学习模型可以是通过知识蒸馏方式进行改进后的模型,相关技术中深度学习模型作为Teacher(教师)模型,预训练模型作为Student模型,而本公开实施例中是将预训练模型作为Teacher模型,深度学习模型作为Student模型,即学生模型进行逆蒸馏。
根据本公开的实施例,由于深度学习模型在训练过程中能够更好地捕捉复杂的模式和关系,将其作为Student模型可以提高模型的表达能力和泛化能力。同时,由于深度学习模型相对于预训练模型来说计算资源的消耗更高,将其作为Student模型可以降低训练过程中的计算资源需求,提高训练效率。逆蒸馏的另一个优势是可以在垂直领域中更好地利用预训练模型的专业知识。由于预训练模型在特定领域上的训练和经验更加丰富,将其作为Teacher模型可以提供更准确和有针对性的指导,这种垂直领域的知识传递可以帮助Student模型更好地理解和解决特定领域的任务,提高模型在特定领域的性能。
图3示意性示出了根据本公开实施例的根据第一预测文本数据、第二预测文本数据和标签训练初始深度学习模型,得到训练后的深度学习模型的流程图。
如图3所示,根据第一预测文本数据、第二预测文本数据和标签训练初始深度学习模型,得到训练后的深度学习模型包括操作S310~操作S330。
操作S310,根据第一损失函数处理第一预测文本数据和标签,得到第一损失值,其中,第一损失函数是基于第一损失参数构建得到的。
根据本公开的实施例,样本文本数据具有数据属性类型相关联,第一预测文本数据和第二预测文本数据均通过数据属性类型与样本文本数据相关联;其中,根据第一预测文本数据、第二预测文本数据和标签训练初始深度学习模型,得到训练后的深度学习模型。根据本公开的实施例,可以通过第一损失函数处理第一预测文本数据和标签,得到第一损失值,具体操作如公式(5)所示:
L1=∑(1-δ)Ls(xi,yi) (5)
其中,L1为第一损失值,xi代表Student模型(初始深度学习模型)第i个样本的预测值,yi代表第i个样本的真实值(标签),Ls代表Student模型的预测值与真实样本的损失,fmti∈(GPT/Code/Fin)代表垂直领域模型(Teacher模型)的预测值,Lt代表Student模型的预测值与Teacher模型的预测值的损失
操作S320,根据第二损失函数处理第一预测文本数据,以及与第一预测文本数据相关联的关联第二预测文本数据,得到第二损失值,其中,第二损失函数是基于第二损失参数构建得到的,第一损失参数是根据第二损失参数确定的,关联第二预测文本数据与第一预测文本数据通过数据属性类型相关联。
根据本公开的实施例,可以通过第二损失函数处理第一预测文本数据和关联第二预测文本数据,得到第二损失值,具体操作如公式(6)所示:
L2=δLt(xi,fmti∈(GPT|Code|Fin)) (6)
其中,公式(7)中δt为当前批次深度学习模型的动态权重值,bt为当前是第t个批次,ball表示当总训练批次数,其中0.7*ball代表模型只作用在训练进度的前70%,后面30%使用自监督训练,也就是δt为0。注意当δt=0是,公式(6)中的α、β、λ值调整为1∶1∶1。
根据本公开的实施例,根据第一损失值和第二损失值可以计算出最终损失值,即L=L1+L2,具体操作如公式(8)所示:
L=∑(1-δ)Ls(xi,yi)+δLt(xi,fmti∈(GPT|Code|Fin)) (8)
需要说明的是,最开始训练时,尽量多的向Teacher模型进行学习,随着预训练模型不断的训练,自身能力逐渐接近、甚至超越Teacher模型,通过动态调整δt逐步向0靠近,结束逆蒸馏,开始通用的自监督训练。
操作S330,根据第一损失值和第二损失值训练初始深度学习模型,得到训练后的深度学习模型。
根据本公开的实施例,通过第一损失值和第二损失值对初始深度学习模型进行训练,获得训练后的深度学习模型。
图4示意性示出了根据本公开实施例的深度学习模型的架构图。
如4所示,通过将样本文本数据输入至预训练模型1、预训练模型2,可以由预训练模型1、预训练模型2各自的softmax函数输出第二预测文本数据,通过对初始深度学习模型进行训练,生成了第一预测文本数据,并可根据将第一预测文本数据、第二预测文本数据和标签输入至经训练后模型的生成最终预测文本数据。
根据本公开的实施例,Teacher(教师)模型,例如预训练模型1和预训练模型2,蕴含大量的正确且已经梳理过的知识,因此向Teacher模型学习加快了预训练模型的训练速度,以及减少深度学习模型学习偏差的风险,降低了深度学习模型训练过程中产生的资源消耗,并且缩短了训练的时间,提升了训练效率和深度学习模型的模型性能。
根据本公开的实施例,第二损失参数是基于当前的训练迭代频次确定的,当前的训练迭代频次为调整初始深度学习模型的模型参数的频次。
根据本公开的实施例,在公式(6)中,bt代表当前是第t个批次,是根据当前的训练迭代频次来确定的。
根据本公开的实施例,第二损失参数是基于预设修正参数和初始损失参数之间的差值确定的,初始损失参数是根据当前的训练迭代频次与预设的训练迭代总频次的比值确定的。
根据本公开的实施例,在公式(6)中,预设设修正参数为1,当前的训练的迭代频次为bt,预设的训练迭代总频次为ball,根据当前的训练迭代频次bt与预设的训练迭代总频次ball的比值来确定初始损失参数,然后,根据预设修正参数1和初始损失参数之间的差值可以得到第二损失参数。
根据本公开的实施例,深度学习模型是基于注意力网络算法构建得到的。
根据本公开的实施例,深度学习模型可以采用GPT架构。
根据本公开的实施例,深度学习模型的训练方法还包括:根据用于表征样本文本数据的数据属性类型的提示信息,更新样本文本数据,得到更新后的样本文本数据。
根据本公开的实施例,提示信息可以是根据数据属性类型来进行设置的,包括描述文本类型、编程语言类型、金融属性类型,描述文本类型对应的提示信息为Generationand Creation、编程语言类型对应的提示信息为Code,以及金融属性类型对应的提示信息为Finance,例如,金融属性类型为例,每条数据前添加Finance,Finance:xx农村金融发展分析。
图5示意性示出了根据本公开实施例的文本数据处理方法的流程图。
如图5所示,文本数据处理方法,包括操作S510。
在操作S510,将获得到的初始文本数据输入至深度学习模型,输出预测的目标文本数据,其中,深度学习模型是基于根据本公开实施例提供的深度学习模型的训练方法训练得到的。
根据本公开的实施例,目标文本数据可以包括业务规则执行脚本、财务分析报表等任意类型的文本数据,本公开的实施例对目标文本数据的具体类型不做限定,本领域技术人员可以根据实际需求进行选择。
图6示意性示出了根据本公开实施例的深度学习模型的训练方法和文本数据处理方法的系统架构图。
根据本公开的实施例,通过获取不同类型的样本数据,包括描述文本类型数据、编程语言类型数据和金融属性类型数据,并对各类型数据进行处理,将处理后的各类型样本数据分别输入至对应的初始深度学习模型和预训练模型,输出输出第一预测文本数据和第二预测文本数据,并根据得到的第一预测文本数据、第二预测文本数据和标签训练初始深度学习模型,得到训练后的深度学习模型。
基于上述深度学习模型的训练方法,本公开还提供了一种深度学习模型的训练装置。以下将结合图7对该装置进行详细描述。
图7示意性示出了根据本公开实施例的深度学习模型的训练装置的结构框图。
如图7所示,该实施例的深度学习模型的训练装置700包括文本和模型获取模块710、第一预测文本数据输出模块720、第二预测文本数据输出模块730和模型训练模块740。
文本和模型获取模块710用于获取训练样本文本和N个预训练模型,训练样本文本包括N类样本文本数据和与样本文本数据对应的标签,N个预训练模型与N类样本文本数据一一对应,N为大于1的正整数。在一实施例中,文本和模型获取模块710可以用于执行前文描述的操作S210,在此不再赘述。
第一预测文本数据输出模块720用于将N类样本文本数据输入至初始深度学习模型,输出第一预测文本数据,其中,初始深度学习模型的模型参数量大于预训练模型的模型参数量。在一实施例中,第一预测文本数据输出模块720可以用于执行前文描述的操作S220,在此不再赘述。
第二预测文本数据输出模块730用于将N类样本文本数据分别输入至与N类样本文本数据各自对应的N个预训练模型,输出N个第二预测文本数据。在一实施例中,第二预测文本数据输出模块730可以用于执行前文描述的操作S230,在此不再赘述。
模型训练模块740,用于根据第一预测文本数据、第二预测文本数据和标签训练初始深度学习模型,得到训练后的深度学习模型。在一实施例中,模型训练模块740可以用于执行前文描述的操作S240,在此不再赘述。
根据本公开的实施例,通过文本和模型获取模块710、第一预测文本数据输出模块720、第二预测文本数据输出模块730和模型训练模块740,通过获取训练样本文本和N个预训练模型,将N类样本文本数据输入至初始深度学习模型,从而输出第一预测文本数据,并将N类样本文本数据分别输入至与N类样本文本数据各自对应的N个预训练模型,输出N个第二预测文本数据,进而根据第一预测文本数据、第二预测文本数据和所述标签训练初始深度学习模型,得到训练后的深度学习模型,实现了降低大规模预训练中对计算资源的消耗,同时缩短了预训练的时间,较大程度上提高了预训练模型的训练效率。
根据本公开的实施例,样本文本数据具有数据属性类型相关联,第一预测文本数据和第二预测文本数据均通过数据属性类型与样本文本数据相关联;其中,模型训练模块包括:数据和标签处理子模块、第二损失值获得子模块和初始深度学习模型训练子模块。
数据和标签处理子模块,用于根据第一损失函数处理第一预测文本数据和标签,得到第一损失值,其中,第一损失函数是基于第一损失参数构建得到的。
第二损失值获得子模块,用于根据第二损失函数处理第一预测文本数据,以及与第一预测文本数据相关联的关联第二预测文本数据,获得第二损失值,其中,第二损失函数是基于第二损失参数构建得到的,第一损失参数是根据第二损失参数确定的,关联第二预测文本数据与第一预测文本数据通过数据属性类型相关联。
初始深度学习模型训练子模块,用于根据第一损失值和第二损失值训练初始深度学习模型,得到训练后的深度学习模型。
根据本公开的实施例,第二损失参数是基于当前的训练迭代频次确定的,当前的训练迭代频次为调整初始深度学习模型的模型参数的频次。
根据本公开的实施例,第二损失参数是基于预设修正参数和初始损失参数之间的差值确定的,初始损失参数是根据当前的训练迭代频次与预设的训练迭代总频次的比值确定的。
根据本公开的实施例,深度学习模型是基于注意力网络算法构建得到的。
根据本公开的实施例,深度学习模型的训练装置还包括样本文本数据更新模块,用于根据用于表征样本文本数据的数据属性类型的提示信息,更新样本文本数据,得到更新后的样本文本数据。
根据本公开的实施例,数据属性类型包括以下至少一项:描述文本类型、编程语言类型、金融属性类型。
根据本公开的实施例,初始深度学习模型包括N个编码层和初始预测层,N个编码层与N个数据属性类型一一对应,N个数据属性类型各自关联有样本编码权重;其中,第一预测文本数据输出模块包括:初始样本编码数据输出子模块、初始样本编码数据更新子模块和第一预测文本数据输出子模块。
初始样本编码数据输出子模块,用于将与目标数据属性类型相关的样本文本数据分别输入至N个编码层,输出N个初始样本编码数据,其中,目标数据属性类型是从N个样本文本数据属性类型中确定的。
初始样本编码数据更新子模块,用于根据与目标数据属性类型相关联的目标样本编码权重,更新N个初始样本编码数据,得到更新后的N个样本编码数据。
第一预测文本数据输出子模块,用于将N个样本编码数据输入至初始预测层,输出第一预测文本数据。
基于上述文本数据处理方法,本公开还提供了一种文本数据处理装置。以下将结合图8对该装置进行详细描述。
图8示意性示出了根据本公开实施例的文本数据处理装置的结构框图。
如图8所示,该实施例的文本数据处理装置800包括目标文本数据输出模块810,用于将获得到的初始文本数据输入至深度学习模型,输出预测的目标文本数据,其中,深度学习模型是基于上述深度学习模型的训练方法训练得到的。
根据本公开的实施例,文本和模型获取模块710、第一预测文本数据输出模块720、第二预测文本数据输出模块730和模型训练模块740中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,文本和模型获取模块710、第一预测文本数据输出模块720、第二预测文本数据输出模块730和模型训练模块740中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,文本和模型获取模块710、第一预测文本数据输出模块720、第二预测文本数据输出模块730和模型训练模块740中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图9示意性示出了根据本公开实施例的适于实现深度学习模型的训练方法、文本数据处理方法的电子设备的方框图。
如图9所示,根据本公开实施例的电子设备900包括处理器901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。处理器901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器901还可以包括用于缓存用途的板载存储器。处理器901可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 903中,存储有电子设备900操作所需的各种程序和数据。处理器901、ROM902以及RAM 903通过总线904彼此相连。处理器901通过执行ROM 902和/或RAM 903中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 902和RAM 903以外的一个或多个存储器中。处理器901也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备900还可以包括输入/输出(I/O)接口905,输入/输出(I/O)接口905也连接至总线904。电子设备900还可以包括连接至输入/输出(I/O)接口905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至输入/输出(I/O)接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 902和/或RAM 903和/或ROM 902和RAM 903以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的物品推荐方法。
在该计算机程序被处理器901执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分909被下载和安装,和/或从可拆卸介质911被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被处理器901执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (14)
1.一种深度学习模型的训练方法,包括:
获取训练样本文本和N个预训练模型,所述训练样本文本包括N类样本文本数据和与所述样本文本数据对应的标签,N个所述预训练模型与N类所述样本文本数据一一对应,N为大于1的正整数;
将N类所述样本文本数据输入至初始深度学习模型,输出第一预测文本数据,其中,所述初始深度学习模型的模型参数量大于所述预训练模型的模型参数量;
将N类所述样本文本数据分别输入至与N类所述样本文本数据各自对应的N个所述预训练模型,输出N个第二预测文本数据;以及
根据所述第一预测文本数据、所述第二预测文本数据和所述标签训练所述初始深度学习模型,得到训练后的深度学习模型。
2.根据权利要求1所述的方法,其中,所述样本文本数据具有数据属性类型相关联,所述第一预测文本数据和所述第二预测文本数据均通过所述数据属性类型与所述样本文本数据相关联;
其中,根据所述第一预测文本数据、所述第二预测文本数据和所述标签训练所述初始深度学习模型,得到训练后的深度学习模型包括:
根据第一损失函数处理所述第一预测文本数据和所述标签,得到第一损失值,其中,所述第一损失函数是基于第一损失参数构建得到的;
根据第二损失函数处理所述第一预测文本数据,以及与所述第一预测文本数据相关联的关联第二预测文本数据,得到第二损失值,其中,所述第二损失函数是基于第二损失参数构建得到的,所述第一损失参数是根据所述第二损失参数确定的,所述关联第二预测文本数据与所述第一预测文本数据通过所述数据属性类型相关联;
根据所述第一损失值和所述第二损失值训练所述初始深度学习模型,得到训练后的所述深度学习模型。
3.根据权利要求2所述的方法,其中,所述第二损失参数是基于当前的训练迭代频次确定的,所述当前的训练迭代频次为调整所述初始深度学习模型的模型参数的频次。
4.根据权利要求2所述的方法,其中,所述第二损失参数是基于预设修正参数和初始损失参数之间的差值确定的,所述初始损失参数是根据当前的训练迭代频次与预设的训练迭代总频次的比值确定的。
5.根据权利要求1所述的方法,其中,所述深度学习模型是基于注意力网络算法构建得到的。
6.根据权利要求1所述的方法,还包括:
根据用于表征所述样本文本数据的数据属性类型的提示信息,更新所述样本文本数据,得到更新后的样本文本数据。
7.根据权利要求6所述的方法,其中,所述数据属性类型包括以下至少一项:
描述文本类型、编程语言类型、金融属性类型。
8.根据权利要求6所述的方法,所述初始深度学习模型包括N个编码层和初始预测层,N个所述编码层与N个所述数据属性类型一一对应,N个所述数据属性类型各自关联有样本编码权重;
其中,将N类所述样本文本数据输入至初始深度学习模型,输出第一预测文本数据包括:
将与目标数据属性类型相关的样本文本数据分别输入至N个所述编码层,输出N个初始样本编码数据,其中,所述目标数据属性类型是从N个所述样本文本数据属性类型中确定的;
根据与所述目标数据属性类型相关联的目标样本编码权重,更新N个所述初始样本编码数据,得到更新后的N个样本编码数据;以及
将N个所述样本编码数据输入至所述初始预测层,输出所述第一预测文本数据。
9.一种文本数据处理方法,包括:
将获得到的初始文本数据输入至深度学习模型,输出预测的目标文本数据,其中,所述深度学习模型是基于权利要求1至8中任一项所述的方法训练得到的。
10.一种深度学习模型的训练装置,包括:
文本和模型获取模块,用于获取训练样本文本和N个预训练模型,所述训练样本文本包括N类样本文本数据和与所述样本文本数据对应的标签,N个所述预训练模型与N类所述样本文本数据一一对应,N为大于1的正整数;
第一预测文本数据输出模块,用于将N类所述样本文本数据输入至初始深度学习模型,输出第一预测文本数据,其中,所述初始深度学习模型的模型参数量大于所述预训练模型的模型参数量;
第二预测文本数据输出模块,用于将N类所述样本文本数据分别输入至与N类所述样本文本数据各自对应的N个所述预训练模型,输出N个第二预测文本数据;以及
模型训练模块,用于根据所述第一预测文本数据、所述第二预测文本数据和所述标签训练所述初始深度学习模型,得到训练后的深度学习模型。
11.一种文本数据处理装置,包括:
目标文本数据输出模块,用于将获得到的初始文本数据输入至深度学习模型,输出预测的目标文本数据,其中,所述深度学习模型是基于权利要求1至8中任一项所述的方法训练得到的。
12.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~9中任一项所述的方法。
13.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~9中任一项所述的方法。
14.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311112621.4A CN117436502A (zh) | 2023-08-31 | 2023-08-31 | 深度学习模型的训练方法、文本数据处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311112621.4A CN117436502A (zh) | 2023-08-31 | 2023-08-31 | 深度学习模型的训练方法、文本数据处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117436502A true CN117436502A (zh) | 2024-01-23 |
Family
ID=89554283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311112621.4A Pending CN117436502A (zh) | 2023-08-31 | 2023-08-31 | 深度学习模型的训练方法、文本数据处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117436502A (zh) |
-
2023
- 2023-08-31 CN CN202311112621.4A patent/CN117436502A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11775761B2 (en) | Method and apparatus for mining entity focus in text | |
US20200356729A1 (en) | Generation of text from structured data | |
JP2023539532A (ja) | テキスト分類モデルのトレーニング方法、テキスト分類方法、装置、機器、記憶媒体及びコンピュータプログラム | |
CN112100332A (zh) | 词嵌入表示学习方法及装置、文本召回方法及装置 | |
CN113779225B (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
US11036996B2 (en) | Method and apparatus for determining (raw) video materials for news | |
CN113947095B (zh) | 多语种文本翻译方法、装置、计算机设备及存储介质 | |
CN114861889A (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN113887237A (zh) | 多意图文本的槽位预测方法、装置及计算机设备 | |
CN117634490A (zh) | 信息抽取方法、装置、设备、介质和程序产品 | |
CN116757224A (zh) | 意图理解方法、装置、设备和介质 | |
CN111459959B (zh) | 用于更新事件集合的方法和装置 | |
CN113033213A (zh) | 使用注意力模型分析文本信息的方法及装置、电子设备 | |
CN116956891A (zh) | 信息抽取方法、信息抽取装置、电子设备及可读存储介质 | |
CN116756281A (zh) | 知识问答方法、装置、设备和介质 | |
CN116451700A (zh) | 目标语句生成方法、装置、设备及存储介质 | |
CN114691836B (zh) | 文本的情感倾向性分析方法、装置、设备及介质 | |
CN115525781A (zh) | 多模态虚假信息检测方法、装置和设备 | |
CN117235271A (zh) | 信息抽取方法、装置、计算机存储介质及电子设备 | |
CN117436502A (zh) | 深度学习模型的训练方法、文本数据处理方法及装置 | |
CN113239215A (zh) | 多媒体资源的分类方法、装置、电子设备及存储介质 | |
CN112947928A (zh) | 代码评价的方法、装置、电子设备和存储介质 | |
CN114298004A (zh) | 复述文本生成方法、装置、设备、介质和程序产品 | |
Sun et al. | Image Description Generation Model Based on Attention Mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |