CN116050352A - 文本编码方法和装置、计算机设备及存储介质 - Google Patents

文本编码方法和装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN116050352A
CN116050352A CN202211606492.XA CN202211606492A CN116050352A CN 116050352 A CN116050352 A CN 116050352A CN 202211606492 A CN202211606492 A CN 202211606492A CN 116050352 A CN116050352 A CN 116050352A
Authority
CN
China
Prior art keywords
training
vector
coding
embedded vector
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211606492.XA
Other languages
English (en)
Inventor
王伟
张黔
陈焕坤
钟焰涛
吴志勇
林雪珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Resources Digital Technology Co Ltd
Original Assignee
China Resources Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Resources Digital Technology Co Ltd filed Critical China Resources Digital Technology Co Ltd
Priority to CN202211606492.XA priority Critical patent/CN116050352A/zh
Publication of CN116050352A publication Critical patent/CN116050352A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例提供了一种文本编码方法和装置、计算机设备及存储介质,属于人工智能技术领域。该方法包括:将训练数字输入至包括第一编码网络和第二编码网络的自然语言处理模型;通过第一编码网络对训练数字编码得到第一嵌入向量;通过第二编码网络对训练数字编码得到第二嵌入向量;根据参考向量、第一嵌入向量和第二嵌入向量构建编码损失数据;根据训练数字的嵌入向量进行上下文预测得到预测数字;根据预测数字和验证数字序列构建上下文损失数据;根据编码损失数据和上下文损失数据对自然语言处理模型进行参数调整得到目标编码模型,将待编码数字输入至目标编码模型编码得到目标向量。本申请生成符合数字的向量,提升语言处理下游的处理效果。

Description

文本编码方法和装置、计算机设备及存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种文本编码方法和装置、计算机设备及存储介质。
背景技术
目前,词向量已经成为自然语言处理领域的基本概念,所以将词汇中单词、短句映射为词向量已发展成熟。但是对于文本中的数字转换为向量则是直接将数字统一转换为特殊符号,所以未能充分捕抓到上下文中数字符号内部蕴含的语义信息,使得涉及数字自然语言处理下游任务的处理效果较差。因此,如何提高数字编码使得数字自然语言处理下游任务的处理效果,成为了亟待解决的技术问题。
发明内容
本申请实施例的主要目的在于提出一种文本编码方法和装置、计算机设备及存储介质,旨在提高数字编码输出的嵌入向量更加符合数字,且能够提升自然语言处理下游任务的处理效果。
为实现上述目的,本申请实施例的第一方面提出了一种文本编码方法,所述方法包括:
获取训练文本;其中,所述训练文本包括训练词语和训练数字,并根据所述训练数字构建验证数字序列;
将所述训练数字输入至预设的自然语言处理模型;其中,所述自然语言处理模型包括:第一编码网络和第二编码网络;
通过所述第一编码网络对所述训练数字进行编码处理,得到第一嵌入向量;
通过所述第二编码网络对所述训练数字进行编码处理,得到第二嵌入向量;
根据预设的参考向量、所述第一嵌入向量和所述第二嵌入向量进行损失计算,得到编码损失数据;
根据所述训练数字的所述第一嵌入向量和所述第二嵌入向量进行上下文预测处理,得到预测数字;
根据所述预测数字和所述验证数字序列进行损失计算,得到上下文损失数据;
根据预设的权重参数、所述编码损失数据和所述上下文损失数据对所述自然语言处理模型进行参数调整,得到目标编码模型,并将获取的待编码数字输入至所述目标编码模型进行编码处理,得到目标向量。
在一些实施例,所述获取训练文本;其中,所述训练文本包括训练词语和训练数字,并根据所述训练数字构建验证数字序列,包括:
获取训练文本;
对所述训练文本进行语句分割处理,得到训练语句;其中,每一所述训练语句包括所述训练词语和所述训练数字;
获取每一训练语句的所述训练数字的个数,得到数字个数;
根据所述数字个数将所述训练数字进行顺序排序,得到数字排序信息;
根据所述数字排序信息将所述训练数字进行序列构建,得到所述验证数字序列。
在一些实施例,所述第一编码网络包括:转换层和第一编码层;所述通过第一编码网络对所述训练数字进行编码处理,得到第一嵌入向量,包括:
通过转换层将所述训练数字进行字符串转换,得到训练字符串;
通过所述第一编码层对所述训练字符串进行编码处理,得到所述第一嵌入向量。
在一些实施例,所述第二编码网络包括:数字划分层、第二编码层、向量处理层;所述通过第二编码网络对所述训练数字进行编码处理,得到得二嵌入向量,包括:
通过所述数字划分层将所述训练数字进行数字拆分处理,得到每一数字表达式的数字片段;
通过所述第二编码层对所述数字片段进行编码处理,得到片段向量;
通过所述向量处理层对所述片段向量进行向量处理,得到所述第二嵌入向量。
在一些实施例,所述向量处理层包括:拼接层和平均层;所述通过所述向量处理层对所述片段向量进行向量处理,得到所述第二嵌入向量,包括:
通过所述拼接层对所述片段向量进行向量拼接,得到每一所述数字表达式的数字向量;
通过所述平均层对每一所述数字表达式的所述数字向量进行向量平均值计算,得到所述第二嵌入向量。
在一些实施例,所述根据预设的参考向量、所述第一嵌入向量和所述第二嵌入向量进行损失计算,得到编码损失数据,包括:
根据所述参考向量和所述第一嵌入向量进行损失计算,得到第一向量损失值;
根据所述参考向量和所述第二嵌入向量进行损失计算,得到第二向量损失值;
将所述第一向量损失值和所述第二向量损失值进行数值拼接,得到所述编码损失数据。
在一些实施例,所述根据所述预测数字和所述验证数字序列进行损失计算,得到上下文损失数据,包括:
根据所述预测数字从所述验证数字序列提取出验证数字;
获取所述验证数字位于所述验证数字序列的位置,得到验证位置;
获取所述预测数字在所述验证位置的预测概率;
根据所述预测概率进行概率损失计算,得到所述上下文损失数据。
为实现上述目的,本申请实施例的第二方面提出了一种文本编码装置,所述装置包括:
数据处理模块,用于获取训练文本;其中,所述训练文本包括训练词语和训练数字,并根据所述训练数字构建验证数字序列;
数字输入模块,用于将所述训练数字输入至预设的自然语言处理模型;其中,所述自然语言处理模型包括:第一编码网络和第二编码网络;
第一编码模块,用于通过所述第一编码网络对所述训练数字进行编码处理,得到第一嵌入向量;
第二编码模块,用于通过所述第二编码网络对所述训练数字进行编码处理,得到第二嵌入向量;
编码损失计算模块,用于根据预设的参考向量、所述第一嵌入向量和所述第二嵌入向量进行损失计算,得到编码损失数据;
上下文预测模块,用于根据所述训练数字的所述第一嵌入向量和所述第二嵌入向量进行上下文预测处理,得到预测数字;
上下文损失计算模块,用于根据所述预测数字和所述验证数字序列进行损失计算,得到上下文损失数据;
目标向量生成模块,用于根据预设的权重参数、所述编码损失数据和所述上下文损失数据对所述自然语言处理模型进行参数调整,得到目标编码模型,并将获取的待编码数字输入至所述目标编码模型进行编码处理,得到目标向量。
为实现上述目的,本申请实施例的第三方面提出了一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法。
为实现上述目的,本申请实施例的第四方面提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法。
本申请提出的文本编码方法和装置、计算机设备及存储介质,其通过结合了对比学习技术和遮掩数字预测技术以对自然语言处理模型训练,既能够增加嵌入向量的独特性,还能够考虑到数字后续的四则运算能力中的数字预测效果,以构建既能够准确输出准确表征数字的向量、且有利于提升后续语言模型四则运算能力的目标编码模型,则通过目标编码模型对待编码数字进行编码处理得到目标向量,目标向量既能够准确的表征待编码数字,还能够提升后续语言模型的四则运算能力。
附图说明
图1是本申请实施例提供的文本编码方法的流程图;
图2是图1中的步骤S101的流程图;
图3是图1中的步骤S103的流程图;
图4是图1中的步骤S104的流程图;
图5是图4中的步骤S403的流程图;
图6是图1中的步骤S105的流程图;
图7是图1中的步骤S107的流程图;
图8是本申请实施例提供的文本编码装置的结构示意图;
图9是本申请实施例提供的计算机设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(art ificia l i nte l l igence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(natura l l anguage process i ng,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息意图识别、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
对比学习:对比学习是一种基于对比思想的判别式表示学习框架(或方法),主要用来做无监督(自监督)的表示学习(对比学习也可以用于有监督学习,但这不是对比学习的优势所在,故本文不再赘述)。可类比为NLP中BERT应用的利用上下文重构遮盖词的遮盖语言模型(Masked Language Mode l),对比学习不限于某一个或一类模型,而是一种利用无标签数据进行表示学习的思想。
嵌入向量:嵌入向量是实体的一种表示(Representat i on),也可以看做从实体中提取的一套特征。自然语言处理相关问题中的样本(句子,文章)是一堆词(或者n-gram之类Token)。推荐系统的样本往往包含“人+物品”。样本中的词、人、物品等实体都可以先被转化成嵌入向量,再送交给网络的后续部分。
词向量已经成为自然语言处理领域基本的概念,通过将词汇表的单词或者短语映射为词向量,然后输入到各类神经网络模型中,通过损失函数对神经网络模型进行优化训练,再将训练好的模型用于文本分类、机器阅读、文本摘要等具体任务。相比传统离散型表征,如TF-I DF、词袋模型等,由于连续性向量蕴含了更丰富的特征,利用词向量的任务效果得到了较大的提升。
但是,对于一类特殊符号-数字,现有处理方法却显得较为粗糙。相关技术中对于词向量生成则是直接将数字过滤,并不对数字做任何处理。而其他方法则是统一把数字当成特殊符号,或者只是简单地对数字进行结构拆分。例如,将数字“1234”拆分为“1-234”、“12-34”或“123-4”。因此,相关技术中,对于数字处理的方法未能捕捉到出现在上下文的数字符号内部蕴含的语义信息,在涉及数字的自然语言处理下游任务中,很多文献已经证明这样处理的方式并不好。例如,涉及复杂数字计算的机器阅读任务,就要求模型具有进行加减乘除四则运算能力,而现有的预训练语言模型在训练时并未针对这种任务而设计的,使得最后得到的预训练语言模型在这方面表现不佳。
基于此,本申请实施例提供了一种文本编码方法和装置、计算机设备及存储介质,通过引入对比学习技术,尽可能将数字对应的嵌入向量和普通词的嵌入向量区分开,也即通过第一编码网络、第二编码网络分别对训练数字进行编码,且计算每一编码网络的损失数据,以根据损失数据对编码网络进行训练,以增加数字嵌入向量的独特性,减少后续任务的误差。同时针对性地设计对遮掩数字地训练子任务,也即根据训练数字进行上下文预测得到预测数字,以根据预测数字和验证数字序列对自然语言处理模型进行训练,提升预训练模型进行四则运算能力。
本申请实施例提供的文本编码方法和装置、计算机设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的文本编码方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Art i f i c i a l I nte l l i gence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的文本编码方法,涉及人工智能技术领域。本申请实施例提供的文本编码方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现文本编码方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据用户信息、用户行为数据,用户历史数据以及用户位置信息等与用户身份或特性相关的数据进行相关处理时,都会先获得用户的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关国家和地区的相关法律法规和标准。此外,当本申请实施例需要获取用户的敏感个人信息时,会通过弹窗或者跳转到确认页面等方式获得用户的单独许可或者单独同意,在明确获得用户的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的用户相关数据。
图1是本申请实施例提供的文本编码方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤S101至步骤S106。
步骤S101,获取训练文本;其中,训练文本包括训练词语和训练数字,并根据训练数字构建验证数字序列;
步骤S102,将训练数字输入至预设的自然语言处理模型;其中,自然语言处理模型包括:第一编码网络和第二编码网络;
步骤S103,通过第一编码网络对训练数字进行编码处理,得到第一嵌入向量;
步骤S104,通过第二编码网络对训练数字进行编码处理,得到第二嵌入向量;
步骤S105,根据预设的参考向量、第一嵌入向量和第二嵌入向量进行损失计算,得到编码损失数据;
步骤S106,根据训练数字的第一嵌入向量和第二嵌入向量进行上下文预测处理,得到预测数字;
步骤S107,根据预测数字和验证数字序列进行损失计算,得到上下文损失数据;
步骤S108,根据预设的权重参数、编码损失数据和上下文损失数据对自然语言处理模型进行参数调整,得到目标编码模型,并将获取的待编码数字输入至目标编码模型进行编码处理,得到目标向量。
本申请实施例所示意的步骤S101至步骤S108,通过获取训练词语和训练数字,并根据训练数字构建验证数字序列;然后将训练数字输入至自然语言处理模型,以通过第一编码网络对训练数字进行编码处理得到第一嵌入向量,且通过第二编码网络对训练数字进行编码处理得到第二嵌入向量,以将训练数字对应的嵌入向量和训练词语的嵌入向量区分开,以增加训练数字编码的独特性,减少后续自然语言处理模型进行处理时的误差。因此,通过预设的参考向量、第一嵌入向量和第二嵌入向量进行损失计算得到编码损失数据,以通过两个子任务共同来训练一个自然语言处理模型,也即改变自然语言处理模型的部分参数,使得自然语言处理模型能够输出更加符合输入数字的嵌入向量,以提高自然语言处理下游任务中的处理效果。通过根据训练数字的第一嵌入向量和第二嵌入向量进行上下文预测得到预测数字,以根据上一个数字的嵌入向量预测出下一个数字,并根据预测数字和验证数字序列进行损失计算得到上下文损失数据,同时根据预设的权重参数、编码损失数据和上下文损失数据对自然语言处理模型进行参数调整,以结合了对比学习技术和遮掩数字预测技术以对自然语言处理模型训练,既能够增加嵌入向量的独特性,还能够考虑到数字后续的四则运算能力中的数字预测效果,以构建既能够准确输出准确表征数字的向量、又有利于提升后续语言模型四则运算能力的目标编码模型,则通过目标编码模型对待编码数字进行编码处理得到目标向量,目标向量既能够准确的表征待编码数字,还能够提升后续语言模型的四则运算能力。
请参阅图2,在一些实施例中,步骤S101可以包括但不限于包括步骤S201至步骤S205:
步骤S201,获取训练文本;
步骤S202,对训练文本进行语句分割处理,得到训练语句;其中,每一训练语句包括训练词语和训练数字;
步骤S203,获取每一训练语句的训练数字的个数,得到数字个数;
步骤S204,根据数字个数将训练数字进行顺序排序,得到数字排序信息;
步骤S205,根据数字排序信息将训练数字进行序列构建,得到验证数字序列。
在一些实施例的步骤S201中,通过从数据库获取训练文本,也可以实时采集文本构建为训练文本。实时采集的训练文本可以来源于图书馆系统平台,也可以来源于互联网平台,且互联网平台包括新闻网络平台、专业人士论坛平台、娱乐媒体平台,且对于互联网平台的类别不做具体限制。
在一些实施例的步骤S202中,对训练文本进行语句分割处理,也即将一个训练文本分割成两个部分,并用分割符号将训练文本分割。例如,若训练文本为T,则将训练文本T分割成训练语句T1和训练语句T2,训练语句T1和训练语句T2之间用分割符号隔开,且训练语句T1包括一定比例的训练数字,且训练语句T2也包括一定比例的训练数字。
在一些实施例的步骤S203和步骤S204中,通过获取训练数字的个数得到数字个数,由于每一训练语句包括至少一个训练数字,则通过数字个数对训练数字进行顺序排序,也即按照从小到大的顺序将训练数字排序得到数字排序信息。由于数字上下文预测需要保证后一个训练数字的数字个数多于或者等于当前的训练数字的数字个数,以便于后续的训练数字进行上下文预测,以得到数字个数更多的预测数字。例如,若训练语句T1的数字个数为2,训练语句T2的数字个数为3,则生成数字排序信息为【T1、T2】。
在一些实施例的步骤S205中,通过根据数字排序信息将训练数字进行序列构建,也即按照从小到大的顺序将训练数字构建成验证数字序列。通过按照数字排序顺序构建验证数字序列,能够通过验证数字序列对预测数字进行预测准确率判断。
在本申请实施例所示意的步骤S201至步骤S205,通过获取训练文本,并将训练文本分割成训练语句,且训练语句包括至少一个训练数字,所以获取每一训练语句的训练数字的个数,得到数字个数,然后根据数字个数对训练数字进行排序,也即将训练数字按照从小到大的顺序排序,得到数字排序信息,然后按照数字排序信息,将从小到大的训练数字构建为验证数字序列,以便于根据验证数字序列对预测数字的预测准确度进行计算。
在一些实施例的步骤S102中,预设的自然语言处理模型,该自然语言处理模型用于对训练文本进行编码处理,也对训练文本中的训练数字进行编码处理。具体地,该语言模型可以为transformer网络结构为基础的模型,例如BERT模型,且对BERT模型进行训练,以构建输出更加符合数字的嵌入向量的自然语言处理模型。
以BERT模型为例,BERT模型包括编码网络和解码网络。该语言模型的训练过程包括:获取训练文本,并将训练文本输入至BERT模型中。通过BERT模型的编码网络对训练文本中训练词语和训练数字分开进行编码处理,得到样本文本隐藏特征向量,且样本文本隐藏特征向量包括词语隐藏特征向量和数字隐藏特征向量。在本实施例中,BERT模型设置两个编码网络分别采用不同的编码方法对训练数字进行编码,以通过对比学习的方式找到更加符合数字运算特点的嵌入向量
请参阅图3,在一些实施例中,自然语言处理模型为BERT模型,且BERT模型包括第一编码网络和第二编码网络,将训练数字输入至第一编码网络,第一编码网络包括:转换层和第一编码层;则步骤S103可以包括但不限于包括步骤S301至步骤S302:
步骤S301,通过转换层将训练数字进行字符串转换,得到训练字符串;
步骤S302,通过第一编码层对训练字符串进行编码处理,得到第一嵌入向量。
在一些实施例的步骤S301中,通过预先设置数字单位集合为:[亿、千万、百万、十万、万、千、百、十、九、八、七、六、五、四、三、二、一、零]。然后通过转换层将训练数字转换为字符串表达形式得到训练字符串。例如,将数字1234转化为一千二百三十四;数字450,000转化为:四十五万零千零百零十零。
在一些实施例的步骤S302中,通过第一编码层对训练字符串进行编码处理得到第一嵌入向量。其中,通过word2vec对训练字符串的每一字符转换为候选向量,然后将训练字符串对应的候选向量进行平均值计算得到第一嵌入向量。
在本申请实施例所示意的步骤S301至步骤S302,通过转换层将训练数字进行字符串转换得到文字表征的训练字符串,然后通过第一编码层对训练字符串的每一字符进行编码处理得到候选向量,并对训练字符串对应的候选向量进行平均值计算得到第一嵌入向量,使得训练数字生成嵌入向量操作简易。
请参阅图4,在一些实施例中,第二编码网络包括:数字划分层、第二编码层和向量处理层;步骤S104可以包括但不限于包括步骤S401至步骤S403:
步骤S401,通过数字划分层将训练数字进行数字拆分处理,得到每一数字表达式的数字片段;
步骤S402,通过第二编码层对数字片段进行编码处理,得到片段向量;
步骤S403,通过向量处理层对片段向量进行向量处理,得到第二嵌入向量。
在一些实施例的步骤S401中,通过数字划分层对训练数字进行数字拆分处理,也即将训练数字按照数字表达式的多种方式进行拆分,得到多种数字表达式的数字片段。例如,若训练数字为1234,则将训练数字划分为两段数字表达形式,也即可以划分成的数字表达式为1-234、12-34、123-4,然后再将每一数字表达式拆分成数字片段,则第一种数字表达式1-234可以分成数字片段为1、234,第二种数字表达式12-34可以分成数字片段为12、34,第三种数字表达式123-4可以分为数字片段为123、4。因此,通过将一个训练数字以多种数字表达式拆分成数字片段,以丰富训练数字的表达。
在一些实施例的步骤S402中,通过第二编码层对数字片段进行编码处理,以得到至少两个片段向量,以通过至少两个片段向量表征训练数字。
在一些实施例的步骤S403中,通过向量处理层对片段向量进行向量处理,也即将至少两个片段向量进行处理以得到一个可以表征训练数字的第二嵌入向量,以独特向量表征训练数字。
在本申请实施例所示意的步骤S401至步骤S403,通过数字划分层将训练数字划分成多种数字表达式对应的数字片段,再通过第二编码层对数字片段进行编码处理得到至少两个片段向量,通过向量处理层对至少两个片段向量进行向量处理得到第二嵌入向量,以独特向量表征训练数字更加合理。
请参阅图5,在一些实施例中,向量处理层包括:拼接层和平均层;步骤S403可以包括但不限于包括步骤S501至步骤S502:
步骤S501,通过拼接层对片段向量进行向量拼接,得到每一数字表达式的数字向量;
步骤S502,通过平均层对每一数字表达式的数字向量进行向量平均值计算,得到第二嵌入向量。
在一些实施例的步骤S501中,由于每一数字表达式对应的片段向量为两个,则通过拼接层将两个片段向量进行向量拼接得到每一数字表法是的数字向量。例如数字表达式为1-234的数字片段为1、234,分别将数字片段1、234输入至第二编码层得到两个片段向量,则将两个片段向量首尾拼接得到数字表达式1-234的数字向量。
在一些实施例的步骤S502中,通过平均层对每一数字表达式的数字向量进行向量平均值计算,也即将所有数字表达式的数字向量进行平均值计算得到第二嵌入向量,以通过第二嵌入向量能够独特地表征训练数字。
在本申请实施例所示意的步骤S501至步骤S502,通过拼接层对片段向量进行向量拼接,也即对片段向量进行首尾拼接得到每一数字表达式的数字向量,再通过向量处理层对所有数字表达式的数字向量进行向量平均值计算得到第二嵌入向量,以得到符合训练数字的第二嵌入向量。
请参阅图6,在一些实施例,步骤S105包括但不限于包括步骤S601至步骤S603:
步骤S601,根据参考向量和第一嵌入向量进行损失计算,得到第一向量损失值;
步骤S602,根据参考向量和第二嵌入向量进行损失计算,得到第二向量损失值;
步骤S603,将第一向量损失值和第二向量损失值进行数值拼接,得到编码损失数据。
在一些实施例的步骤S601中,将参考向量和第一嵌入向量进行损失计算得到第一向量损失值,第一向量损失值表征第一编码网络的准确率,以便于根据第二向量损失值对第一编码网络进行参数调整。
在一些实施例的步骤S602中,将参考向量和第二嵌入向量进行损失计算得到第二向量损失值,且第二向量损失值表征第二编码网络的准确率,以便于根据第二向量损失值对第二编码网络进行参数调整,以构建输出更加符合训练数字的嵌入向量的第二编码网络。
在一些实施例的步骤S603种,将第一向量损失值和第二向量损失值进行数值拼接得到编码损失数据,由于自然语言处理模型包括第一编码网络和第二编码网络,根据第一向量损失值对第一编码网络进行参数调整,根据第二向量损失值对第二编码网络进行参数调整,以在编码损失数据收敛时,完成自然语言处理模型的参数调整,以构建能够输出嵌入向量更加符合训练字符的目标编码模型。
具体地,本实施例参考向量包括第一参考向量和第二参考向量,且直接将第一参考向量、第二参考向量、第一嵌入向量和第二嵌入向量输入至预设的编码损失计算函数进行损失计算得到编码损失数据;其中,编码损失计算函数如公式(1)表示:
Figure BDA0003994607040000111
式中,LossT为编码损失数据,M为训练样本中数字的数量,e为自然对数,s im表示余弦相似度,p i表示一个训练样本中的第i个训练数字,
Figure BDA0003994607040000121
表示训练数字p i的第一嵌入向量,
Figure BDA0003994607040000122
表示对一个批次(在AI领域,每次输入到神经网络的不止一个样本,而是多个样本,一般为8,16,32这样2的幂)的样本而言,训练数字p i的第一嵌入向量的平均值;同理,
Figure BDA0003994607040000123
表示训练数字p i的第二嵌入向量,
Figure BDA0003994607040000124
表示对一个批次的样本而言,采用训练式得到的数字p i数字的第二嵌入向量的平均值。
Figure BDA0003994607040000125
Figure BDA0003994607040000126
分别表示第一参考向量、第二参考向量。
在本申请实施例所示意的步骤S601至步骤S603,通过根据参考向量和第一嵌入向量进行损失计算得到第一向量损失值,第一向量损失值表征第一编码网络的编码准确率,再根据参考向量和第二嵌入向量进行损失计算得到第二向量损失值,且第二向量损失值表征第二编码网络的编码准确率。然后将第一向量损失值和第二向量损失值进行数值拼接得到编码损失数据,以便于根据编码损失数据对自然语言处理模型进行参数调整,以得到输出嵌入向量更加符合输入数字的目标编码模型。
在一些实施例的步骤S106中,将第一嵌入向量和第二嵌入向量构建嵌入向量对,获取当前的训练数字的嵌入向量对,并将下一训练数字进行遮掩,并根据当前的训练数字的嵌入向量对进行上下文预测,以预测出下一个训练数字以得到预测数字,以便于根据预测数字和下一训练数字对自然语言处理模型进行训练,使得自然语言处理模型能够输出上下文之间的语言关联的嵌入向量,以提升自然语言处理模型进行四则运算能力。
例如,若训练语句为T1,且包括训练数字为20,训练语句为T2的训练数字为30,则将30遮掩,并根据训练数字20输入自然语言处理模型输出嵌入向量对,以根据模型输出的嵌入向量对进行上下文预测得到预测数字,以根据预测数字和验证数字序列确定自然语言处理模型输出的嵌入向量具不具备上下文之间的语义关联,以提高向量之间的语言关联。
请参阅图7,在一些实施例中,步骤S107可以包括但不限于包括步骤S701至步骤S704:
步骤S701,根据预测数字从验证数字序列提取出验证数字;
步骤S702,获取验证数字位于验证数字序列的位置,得到验证位置;
步骤S703,获取预测数字在验证位置的预测概率;
步骤S704,根据预测概率进行概率损失计算,得到上下文损失数据。
在一些实施例的步骤S701和步骤702中,通过根据预测数字从验证数字序列中提取对应的验证数字,也即获取与预测数字对应的验证数字位于验证数字序列的位置得到验证位置,以根据验证位置判断预测数字和验证数字是否匹配。
在一些实施例的步骤S703和步骤704中,其中对嵌入向量对进行上下文预测得到每一验证数字在验证位置的概率值,也即是验证数字序列有几个验证数字,则输出的预测数字对应预测概率序列,且预测概率序列包括与验证数字数量对应概率数量,得到预测数字位于验证数字序列中每一位置的预测概率。则通过获取预测数据在验证位置的预测概率,且预测概率则表示预测的准确率,则根据预测概率进行概率损失计算得到上下文损失数据,以通过上下文损失数据准确表征嵌入向量具备上下文的语言关联度。
具体地,通过获取预测数字对应的预测概率序列,且预测概率序列包括每一训练数字在每一位置的预测概率,则将预测概率序列和验证数字序列输入至预设的上下文损失计算函数,且上下文损失计算函数如公式(2)表示:
Figure BDA0003994607040000131
嵌入向量对,O表示被遮掩的数字集合也即为验证数字序列,N代表O中所有验证数字的数量,K表示模型所用词表V的大小。因此,yi表示O中第i个位置的验证数字,xk表示V中第k个预测数字是O中第i位置的预测概率。
在本申请实施例所示意的步骤S701至步骤S704,通过获取预测数据对应的验证数字在验证数字序列的位置得到验证位置,并获取预测数字在验证位置的预测概率,然后根据预测概率进行概率损失计算得到上下文损失数据,使得上下文损失数据计算简易,也能够通过上下文损失数据表征自然语言处理模型输出的嵌入向量的上下文语义关联性。
在一些实施例的步骤S108,通过根据权重参数、编码损失数据和上下文损失数据进行损失计算得到目标损失数据,且权重参数包括第一权重和第二权重,将第一权重、第二权重、编码损失数据和上下文损失数据输入至预设的总损失计算函数得到目标损失数据。其中,总损失计算函数如公式(3)所示:
Loss=αLossT+βLossNP                    (3)
式中,α和β是0到1之间的数值,且α为第一权重,β为第二权重。通过公式(3)计算得到目标损失数据简易。然后根据目标损失数据对自然语言处理模型进行参数调整得到目标编码模型,以构建输出嵌入向量符合输入数字的目标编码模型。然后获取目标文本,从目标文本中分裂出待编码数字,并通过目标编码模型对待编码数字进行编码处理得到目标向量,以得到符合待编码数字的目标向量,且目标向量具备上下文的语义关联性,以便于提升后续的自然语言处理下游任务的处理效果。
本申请实施例获取训练文本,并将训练文本分割成训练语句,且训练语句包括至少一个训练数字,所以获取每一训练语句的训练数字的个数,得到数字个数,然后根据数字个数对训练数字进行排序,也即将训练数字按照从小到大的顺序排序,得到数字排序信息,然后按照数字排序信息,将从小到大的训练数字构建为验证数字序列。将训练文本输入至BERT模型中,BERT模型包括第一编码网络和第二编码网络,第一编码网络包括:转换层和第一编码层;第二编码网络包括:数字划分层、第二编码层和向量处理层;向量处理层包括:拼接层和平均层。通过转换层将训练数字进行字符串转换得到文字表征的训练字符串,然后通过第一编码层对训练字符串的每一字符进行编码处理得到候选向量,并对训练字符串对应的候选向量进行平均值计算得到第一嵌入向量。通过数字划分层将训练数字划分成多种数字表达式对应的数字片段,通过第二编码层对数字片段进行编码处理得到至少两个片段向量,通过拼接层对片段向量进行向量拼接,也即对片段向量进行首尾拼接得到每一数字表达式的数字向量,再通过向量处理层对所有数字表达式的数字向量进行向量平均值计算得到第二嵌入向量。根据参考向量和第一嵌入向量进行损失计算得到第一向量损失值,根据参考向量和第二嵌入向量进行损失计算得到第二向量损失值。然后将第一向量损失值和第二向量损失值进行数值拼接得到编码损失数据。将第一嵌入向量和第二嵌入向量构建嵌入向量对,获取当前的训练数字的嵌入向量对,并将下一训练数字进行遮掩,并根据当前的训练数字的嵌入向量对进行上下文预测,以预测出下一个训练数字以得到预测数字。获取预测数据对应的验证数字在验证数字序列的位置得到验证位置,并获取预测数字在验证位置的预测概率,然后根据预测概率进行概率损失计算得到上下文损失数据,使得上下文损失数据计算简易。根据权重参数、编码损失数据和上下文损失数据进行损失计算得到目标损失数据;根据目标损失数据对自然语言处理模型进行参数调整得到目标编码模型,以构建输出嵌入向量符合输入数字的目标编码模型。然后目标编码模型对待编码数字进行编码处理得到目标向量,以得到符合待编码数字的目标向量,且目标向量具备上下文的语义关联性,以便于提升后续的自然语言处理下游任务的处理效果。
请参阅图8,本申请实施例还提供一种文本编码装置,可以实现上述文本编码方法,该装置包括:
数据处理模块,用于获取训练文本;其中,训练文本包括训练词语和训练数字,并根据训练数字构建验证数字序列;
数字输入模块,用于将训练数字输入至预设的自然语言处理模型;其中,自然语言处理模型包括:第一编码网络和第二编码网络;
第一编码模块,用于通过第一编码网络对训练数字进行编码处理,得到第一嵌入向量;
第二编码模块,用于通过第二编码网络对训练数字进行编码处理,得到第二嵌入向量;
编码损失计算模块,用于根据预设的参考向量、第一嵌入向量和第二嵌入向量进行损失计算,得到编码损失数据;
上下文预测模块,用于根据训练数字的第一嵌入向量和第二嵌入向量进行上下文预测处理,得到预测数字;
上下文损失计算模块,用于根据预测数字和验证数字序列进行损失计算,得到上下文损失数据;
目标向量生成模块,用于根据预设的权重参数、编码损失数据和上下文损失数据对自然语言处理模型进行参数调整,得到目标编码模型,并将获取的待编码数字输入至目标编码模型进行编码处理,得到目标向量。
该文本编码装置的具体实施方式与上述文本编码方法的具体实施例基本相同,在此不再赘述。
本申请实施例还提供了一种计算机设备,计算机设备包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述文本编码方法。该计算机设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图9,图9示意了另一实施例的计算机设备的硬件结构,计算机设备包括:
处理器901,可以采用通用的CPU(Centra l Process i ngUn it,中央处理器)、微处理器、应用专用集成电路(App l i cat i onSpec i f i c I ntegratedCi rcu it,ASI C)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器902,可以采用只读存储器(ReadOn l yMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器902可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器902中,并由处理器901来调用执行本申请实施例的文本编码方法;
输入/输出接口903,用于实现信息输入及输出;
通信接口904,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WI F I、蓝牙等)实现通信;
总线905,在设备的各个组件(例如处理器901、存储器902、输入/输出接口903和通信接口904)之间传输信息;
其中处理器901、存储器902、输入/输出接口903和通信接口904通过总线905实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述文本编码方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的文本编码方法和装置、计算机设备及存储介质,其通过引入对比学习技术,尽可能将数字对应的嵌入向量和普通词的嵌入向量区分开,也即通过第一编码网络、第二编码网络分别对训练数字进行编码,且计算每一编码网络的损失数据,以根据损失数据对编码网络进行训练,以增加数字嵌入向量的独特性,减少后续任务的误差。同时针对性地设计对遮掩数字地训练子任务,也即根据训练数字进行上下文预测得到预测数字,以根据预测数字和验证数字序列对自然语言处理模型进行训练,提升预训练模型进行四则运算能力。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-On ly Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种文本编码方法,其特征在于,所述方法包括:
获取训练文本;其中,所述训练文本包括训练词语和训练数字,并根据所述训练数字构建验证数字序列;
将所述训练数字输入至预设的自然语言处理模型;其中,所述自然语言处理模型包括:第一编码网络和第二编码网络;
通过所述第一编码网络对所述训练数字进行编码处理,得到第一嵌入向量;
通过所述第二编码网络对所述训练数字进行编码处理,得到第二嵌入向量;
根据预设的参考向量、所述第一嵌入向量和所述第二嵌入向量进行损失计算,得到编码损失数据;
根据所述训练数字的所述第一嵌入向量和所述第二嵌入向量进行上下文预测处理,得到预测数字;
根据所述预测数字和所述验证数字序列进行损失计算,得到上下文损失数据;
根据预设的权重参数、所述编码损失数据和所述上下文损失数据对所述自然语言处理模型进行参数调整,得到目标编码模型,并将获取的待编码数字输入至所述目标编码模型进行编码处理,得到目标向量。
2.根据权利要求1所述的方法,其特征在于,所述获取训练文本;其中,所述训练文本包括训练词语和训练数字,并根据所述训练数字构建验证数字序列,包括:
获取训练文本;
对所述训练文本进行语句分割处理,得到训练语句;其中,每一所述训练语句包括所述训练词语和所述训练数字;
获取每一训练语句的所述训练数字的个数,得到数字个数;
根据所述数字个数将所述训练数字进行顺序排序,得到数字排序信息;
根据所述数字排序信息将所述训练数字进行序列构建,得到所述验证数字序列。
3.根据权利要求1所述的方法,其特征在于,所述第一编码网络包括:转换层和第一编码层;所述通过第一编码网络对所述训练数字进行编码处理,得到第一嵌入向量,包括:
通过转换层将所述训练数字进行字符串转换,得到训练字符串;
通过所述第一编码层对所述训练字符串进行编码处理,得到所述第一嵌入向量。
4.根据权利要求1所述的方法,其特征在于,所述第二编码网络包括:数字划分层、第二编码层、向量处理层;所述通过第二编码网络对所述训练数字进行编码处理,得到得二嵌入向量,包括:
通过所述数字划分层将所述训练数字进行数字拆分处理,得到每一数字表达式的数字片段;
通过所述第二编码层对所述数字片段进行编码处理,得到片段向量;
通过所述向量处理层对所述片段向量进行向量处理,得到所述第二嵌入向量。
5.根据权利要求4所述的方法,其特征在于,所述向量处理层包括:拼接层和平均层;所述通过所述向量处理层对所述片段向量进行向量处理,得到所述第二嵌入向量,包括:
通过所述拼接层对所述片段向量进行向量拼接,得到每一所述数字表达式的数字向量;
通过所述平均层对每一所述数字表达式的所述数字向量进行向量平均值计算,得到所述第二嵌入向量。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述根据预设的参考向量、所述第一嵌入向量和所述第二嵌入向量进行损失计算,得到编码损失数据,包括:
根据所述参考向量和所述第一嵌入向量进行损失计算,得到第一向量损失值;
根据所述参考向量和所述第二嵌入向量进行损失计算,得到第二向量损失值;
将所述第一向量损失值和所述第二向量损失值进行数值拼接,得到所述编码损失数据。
7.根据权利要求1至5任一项所述的方法,其特征在于,所述根据所述预测数字和所述验证数字序列进行损失计算,得到上下文损失数据,包括:
根据所述预测数字从所述验证数字序列提取出验证数字;
获取所述验证数字位于所述验证数字序列的位置,得到验证位置;
获取所述预测数字在所述验证位置的预测概率;
根据所述预测概率进行概率损失计算,得到所述上下文损失数据。
8.一种文本编码装置,其特征在于,所述装置包括:
数据处理模块,用于获取训练文本;其中,所述训练文本包括训练词语和训练数字,并根据所述训练数字构建验证数字序列;
数字输入模块,用于将所述训练数字输入至预设的自然语言处理模型;其中,所述自然语言处理模型包括:第一编码网络和第二编码网络;
第一编码模块,用于通过所述第一编码网络对所述训练数字进行编码处理,得到第一嵌入向量;
第二编码模块,用于通过所述第二编码网络对所述训练数字进行编码处理,得到第二嵌入向量;
编码损失计算模块,用于根据预设的参考向量、所述第一嵌入向量和所述第二嵌入向量进行损失计算,得到编码损失数据;
上下文预测模块,用于根据所述训练数字的所述第一嵌入向量和所述第二嵌入向量进行上下文预测处理,得到预测数字;
上下文损失计算模块,用于根据所述预测数字和所述验证数字序列进行损失计算,得到上下文损失数据;
目标向量生成模块,用于根据预设的权重参数、所述编码损失数据和所述上下文损失数据对所述自然语言处理模型进行参数调整,得到目标编码模型,并将获取的待编码数字输入至所述目标编码模型进行编码处理,得到目标向量。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至7任一项所述的文本编码方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的文本编码方法。
CN202211606492.XA 2022-12-12 2022-12-12 文本编码方法和装置、计算机设备及存储介质 Pending CN116050352A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211606492.XA CN116050352A (zh) 2022-12-12 2022-12-12 文本编码方法和装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211606492.XA CN116050352A (zh) 2022-12-12 2022-12-12 文本编码方法和装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN116050352A true CN116050352A (zh) 2023-05-02

Family

ID=86126480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211606492.XA Pending CN116050352A (zh) 2022-12-12 2022-12-12 文本编码方法和装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN116050352A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116894431A (zh) * 2023-09-07 2023-10-17 腾讯科技(深圳)有限公司 文本处理模型训练方法、文本改写方法及装置和存储介质
CN117094283A (zh) * 2023-10-13 2023-11-21 腾讯科技(深圳)有限公司 文本处理方法、装置、电子设备、存储介质和程序产品

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116894431A (zh) * 2023-09-07 2023-10-17 腾讯科技(深圳)有限公司 文本处理模型训练方法、文本改写方法及装置和存储介质
CN116894431B (zh) * 2023-09-07 2024-01-09 腾讯科技(深圳)有限公司 文本处理模型训练方法、文本改写方法及装置和存储介质
CN117094283A (zh) * 2023-10-13 2023-11-21 腾讯科技(深圳)有限公司 文本处理方法、装置、电子设备、存储介质和程序产品
CN117094283B (zh) * 2023-10-13 2024-02-13 腾讯科技(深圳)有限公司 文本处理方法、装置、电子设备、存储介质和程序产品

Similar Documents

Publication Publication Date Title
CN112270196B (zh) 实体关系的识别方法、装置及电子设备
CN116050352A (zh) 文本编码方法和装置、计算机设备及存储介质
CN114519395B (zh) 模型的训练方法和装置、文本摘要生成方法和装置、设备
CN116204674B (zh) 一种基于视觉概念词关联结构化建模的图像描述方法
CN116628186B (zh) 文本摘要生成方法及系统
CN116561538A (zh) 问答评分方法、问答评分装置、电子设备及存储介质
CN116578688A (zh) 基于多轮问答的文本处理方法、装置、设备及存储介质
CN113705315A (zh) 视频处理方法、装置、设备及存储介质
CN115510232A (zh) 文本语句分类方法和分类装置、电子设备及存储介质
CN114358020A (zh) 疾病部位识别方法、装置、电子设备及存储介质
CN117373591A (zh) 电子病历的疾病识别方法和装置、电子设备及存储介质
CN114611529B (zh) 意图识别方法和装置、电子设备及存储介质
CN116629283A (zh) 文本翻译方法和装置、计算机设备及存储介质
CN116595023A (zh) 地址信息的更新方法和装置、电子设备及存储介质
CN116956925A (zh) 电子病历命名实体识别方法和装置、电子设备及存储介质
CN116701604A (zh) 问答语料库的构建方法和装置、问答方法、设备及介质
CN116432705A (zh) 文本生成模型构建、文本生成方法和装置、设备及介质
CN116341553A (zh) 命名实体识别方法和装置、电子设备及存储介质
CN116469546A (zh) 基于注意力机制的疾病辅助识别方法和装置、设备及介质
CN114722774B (zh) 数据压缩方法、装置、电子设备及存储介质
CN114398903B (zh) 意图识别方法、装置、电子设备及存储介质
CN115730051A (zh) 一种文本处理方法和装置、电子设备及存储介质
CN115145980A (zh) 对话回复生成方法和装置、电子设备及存储介质
CN115270746A (zh) 问题样本生成方法和装置、电子设备及存储介质
CN115221288A (zh) 语义解析方法、语义解析装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination