CN117493519A - 文本编码器的训练方法、文本生成方法、装置及存储介质 - Google Patents

文本编码器的训练方法、文本生成方法、装置及存储介质 Download PDF

Info

Publication number
CN117493519A
CN117493519A CN202311541920.XA CN202311541920A CN117493519A CN 117493519 A CN117493519 A CN 117493519A CN 202311541920 A CN202311541920 A CN 202311541920A CN 117493519 A CN117493519 A CN 117493519A
Authority
CN
China
Prior art keywords
sample
text
sentence
target
updating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311541920.XA
Other languages
English (en)
Inventor
张振羽
宋阳
赵宇明
陈蒙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Technology Information Technology Co Ltd
Original Assignee
Jingdong Technology Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Technology Information Technology Co Ltd filed Critical Jingdong Technology Information Technology Co Ltd
Priority to CN202311541920.XA priority Critical patent/CN117493519A/zh
Publication of CN117493519A publication Critical patent/CN117493519A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种文本编码器的训练方法、文本生成方法、装置及存储介质,涉及人工智能技术领域和智慧客服领域。该文本编码器的训练方法,包括:获取样本文本,样本文本包括多个样本句,样本句包括样本词;根据预设的词掩码规则,更新样本文本中的样本词,得到第一目标样本文本;根据预设的语句更新规则,更新样本文本的语义属性,得到第二目标样本文本;以及根据第一目标样本文本和第二目标样本文本,训练初始文本编码器,得到训练后的文本编码器。

Description

文本编码器的训练方法、文本生成方法、装置及存储介质
技术领域
本公开涉及人工智能技术领域和智慧客服领域,更具体地,涉及一种文本编码器的训练方法、文本生成方法、装置、设备、存储介质和程序产品。
背景技术
随着人工智能技术的快速发展,在电商销售、业务咨询等应用场景中,可以基于深度学习模型来自动生成用户所需要的文本,从而提升多种应用场景中针对用户的信息答复速度,提升业务服务质量。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:基于深度学习模型生成的文本与用户的需求差距较大,文本预测的精度较低,难以准确的满足用户的相关需求,
发明内容
有鉴于此,本公开提供了一种文本编码器的训练方法、文本生成方法、装置、设备、存储介质和程序产品。
本公开的一个方面提供了一种文本编码器的训练方法,包括:
获取样本文本,上述样本文本包括多个样本句,上述样本句包括样本词;
根据预设的词掩码规则,更新上述样本文本中的样本词,得到第一目标样本文本;
根据预设的语句更新规则,更新上述样本文本的语义属性,得到第二目标样本文本;以及
根据上述第一目标样本文本和上述第二目标样本文本,训练初始文本编码器,得到训练后的文本编码器。
根据本公开的实施例,上述根据预设的语句更新规则,更新上述样本文本的语义属性,得到第二目标样本文本包括:
从多个上述样本句子中确定样本对比句;以及
对上述样本文本中的上述样本对比句进行掩码处理,得到样本掩码文本;
其中,上述第二目标样本文本包括上述样本对比句和上述样本掩码文本。
根据本公开的实施例,上述样本对比句包括多个,多个上述样本对比句包括上述样本文本中语义连续的多个样本句。
根据本公开的实施例,上述根据上述第一目标样本文本和上述第二目标样本文本,训练初始文本编码器包括:
将上述样本对比句和上述样本掩码文本输入至上述初始文本编码器,输出样本对比句特征与样本掩码文本特征;
根据第一损失函数处理上述样本对比句特征与样本掩码文本特征,得到第一损失值,上述第一损失值与上述样本对比句特征与样本掩码文本特征之间的相似度相关;以及
根据上述第一损失值训练上述初始文本编码器。
根据本公开的实施例,上述根据预设的语句更新规则,更新上述样本文本的语义属性,得到第二目标样本文本包括:
从上述样本文本中确定样本文本段和样本查询句,上述样本文本段包括按照对话语义属性排序的多个样本句,多个上述样本句与上述样本查询句之间具有句子位置关系;
根据获取的更新样本句更新上述样本查询句,得到样本目标查询句;以及
根据上述样本目标文本段样本文本段和上述样本目标查询句,确定上述第二目标样本文本。
根据本公开的实施例,上述根据预设的语句更新规则,更新上述样本文本的语义属性包括:
根据获取的更新样本句更新上述样本文本中的至少一个上述样本句,得到上述第二目标样本文本;
其中,上述第二目标样本文本中的至少一个第二目标样本句与更新属性标签相关联,上述更新属性标签表征上述第二目标样本句被上述更新样本句更新。
根据本公开的实施例,上述根据预设的语句更新规则,更新上述样本文本的语义属性包括:
更新上述样本文本中上述样本句各自的句子语义位置,得到上述第二目标样本文本;
其中,上述第二目标样本文本中的第二目标样本句与位置属性标签相关联,上述位置属性标签表征与上述第二目标样本句相关联的样本句的句子语义位置。
根据本公开的实施例,上述样本文本包括样本对话文本,上述样本词包括表征对话角色属性的样本对话角色词;
其中,上述根据预设的词掩码规则,更新上述样本文本中的样本词,得到第一目标样本文本包括:
对上述样本文本中的至少一个上述样本对话角色词进行掩码处理,得到上述第一目标样本文本。
根据本公开的实施例,上述根据预设的词掩码规则,更新上述样本文本中的样本词,得到第一目标样本文本包括:
从上述样本文本中随机确定待掩码样本词;以及
对上述样本文本中的待掩码样本词进行掩码处理,得到上述第一目标样本文本。
本公开的另一个方面还提供了一种文本生成方法,包括:
将获取到的初始文本输入至文本预测模型,输出预测的目标文本;
其中,上述文本预测模型包括文本编码器,上述文本编码器是根据上述的文本编码器的训练方法训练得到的。
本公开的另一个方面提供了一种文本编码器的训练装置,包括:
获取模块,用于获取样本文本,上述样本文本包括多个样本句,上述样本句包括样本词;
第一更新模块,用于根据预设的词掩码规则,更新上述样本文本中的样本词,得到第一目标样本文本;
第二更新模块,用于根据预设的语句更新规则,更新上述样本文本的语义属性,得到第二目标样本文本;以及
训练模块,用于根据上述第一目标样本文本和上述第二目标样本文本,训练初始文本编码器,得到训练后的文本编码器。
本公开的另一个方面提供了一种文本生成装置,包括:
文本预测模块,用于将获取到的初始文本输入至文本预测模型,输出预测的目标文本;
其中,上述文本预测模型包括文本编码器,上述文本编码器是根据上述的文本编码器的训练方法训练得到的。
本公开的另一个方面提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上所述的方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
根据本公开的实施例,通过更新样本词和样本文本中句子的语义属性,并根据得到的第一目标样本文本和第二目标样本文本来训练初始文本编码器,可以使训练得到的文本编码器能够充分理解文本中整体的语义信息和局部的文本词信息,可以至少部分解决相关技术中文本预测模型针对输入的文本的语义理解能力较差的问题,从而可以使文本编码器能够输出准确表征文本整体信息和局部信息的文本特征,进而实现提升预测文本的预测精度的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的可以应用文本生成方法、装置的示例性系统架构;
图2示意性示出了根据本公开实施例的文本编码器的训练方法的流程图;
图3A示意性示出了根据本公开实施例的得到第一目标样本文本的原理图;
图3B示意性示出了根据本公开另一实施例的得到第一目标样本文本的原理图;
图4示意性示出了根据本公开实施例的得到第二目标样本文本的原理图;
图5示意性示出了根据本公开另一实施例的得到第二目标样本文本的原理图;
图6示意性示出了根据本公开又一实施例的得到第二目标样本文本的原理图;
图7示意性示出了根据本公开实施例的文本生成方法的流程图;
图8示意性示出了根据本公开的实施例的文本编码器的训练装置的框图;
图9示意性示出了根据本公开的实施例的文本生成装置的框图;以及
图10示意性示出了根据本公开实施例的适于实现文本编码器的训练方法、文本生成方法的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本公开的实施例中,所涉及的数据(例如,包括但不限于用户个人信息)的收集、更新、分析、处理、使用、传输、提供、公开、存储等方面,均符合相关法律法规的规定,被用于合法的用途,且不违背公序良俗。特别地,对用户个人信息采取了必要措施,防止对用户个人信息数据的非法访问,维护用户个人信息安全、网络安全和国家安全。
在本公开的实施例中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
随着对话机器人的普及,在电商销售平台、业务咨询平台中对于与用户的对话的理解能力的要求越来越高。对话理解可以体现为对话机器人智能度的核心功能,而发明人发现针对对话内容的编码所产生的文本编码信息是影响对话理解能力的重要因素。而通常的对话文本编码方式,需要通过海量的训练数据来训练得到文本编码器。但是训练得到的文本编码器型大多参照通用文本编码器的预训练方法进行,缺乏针对文本的语义属性特性进行深度挖掘,尤其无法完全挖掘对话文本的对话结构知识和对话特有的语义知识。
本公开的实施例提供了一种文本编码器的训练方法、文本生成方法、装置、设备、存储介质和程序产品。该训练方法包括:获取样本文本,样本文本包括多个样本句,样本句包括样本词;根据预设的词掩码规则,更新样本文本中的样本词,得到第一目标样本文本;根据预设的语句更新规则,更新样本文本的语义属性,得到第二目标样本文本;以及根据第一目标样本文本和第二目标样本文本,训练初始文本编码器,得到训练后的文本编码器。
根据本公开的实施例,通过更新样本词和样本文本中句子的语义属性,并根据得到的第一目标样本文本和第二目标样本文本来训练初始文本编码器,可以使训练得到的文本编码器能够充分理解文本中整体的语义信息和局部的文本词信息,从而可以使文本编码器能够输出准确表征文本整体信息和局部信息的文本特征,进而提升预测文本的预测精度。
本公开的实施例还提供了一种文本生成方法,包括:将获取到的初始文本输入至文本预测模型,输出预测的目标文本;其中,文本预测模型包括文本编码器,文本编码器是根据本公开实施例提供的文本编码器的训练方法训练得到的。
图1示意性示出了根据本公开实施例的可以应用文本生成方法、装置的示例性系统架构100。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的文本生成方法一般可以由服务器105执行。相应地,本公开实施例所提供的文本生成装置一般可以设置于服务器105中。本公开实施例所提供的文本生成方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的文本生成装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。或者,本公开实施例所提供的文本生成方法也可以由终端设备101、102、或103执行,或者也可以由不同于终端设备101、102、或103的其他终端设备执行。相应地,本公开实施例所提供的文本生成装置也可以设置于终端设备101、102、或103中,或设置于不同于终端设备101、102、或103的其他终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的文本编码器的训练方法的流程图。
如图2所示,该文本编码器的训练方法包括操作S210~S240。
在操作S210,获取样本文本,样本文本包括多个样本句,样本句包括样本词。
根据本公开的实施例,样本文本可以包括任意类型的文本,例如演讲文本、对话文本、新闻信息文本等,本公开的实施例对样本文本的具体类型不做限定,本领域技术人员可以根据实际需求进行选择。
根据本公开的实施例,样本文本中样本句的数量可以是一个或多个,样本词可以包含一个字或者还可以包括多个字,本公开实施例对样本词中所包含的字的数量不做限定,本领域技术人员可以根据实际需求进行选择。
在操作S220,根据预设的词掩码规则,更新样本文本中的样本词,得到第一目标样本文本。
根据本公开的实施例,根据预设的词掩码规则更新样本文本中的样本词,可以包括对样本文本中的至少一个样本词进行掩码,本公开的实施例对被更新的样本词的数量,以及被更新的样本词的具体类型不做限定,本领域技术人员可以根据实际需求进行选择。
在操作S230,根据预设的语句更新规则,更新样本文本的语义属性,得到第二目标样本文本。
根据本公开的实施例,更新样本文本的语义属性,可以包括更新样本文本中样本句的语义属性,或者还可以包括通过更新样本句来更新样本文本整体的文本语义属性,本公开的实施例对更新样本文本的语义属性的具体方式不做限定,本领域技术人员可以根据实际需求进行选择,只要能够更新样本文本整体的文本语义属性,或者更新样本句的句子级别的句子语义属性即可。
在操作S240,根据第一目标样本文本和第二目标样本文本,训练初始文本编码器,得到训练后的文本编码器。
根据本公开的实施例,初始文本编码器可以是基于注意力网络算法构建得到的,例如可以是基于BERT(Bidirectional Encoder Representations from Transformers)模型算法构建得到的,但不仅限于此,还可以基于其他类型的神经网络算法构建得到初始文本编码器。
根据本公开的实施例,可以根据第一目标样本文本来构建针对初始文本编码器的文本词预测任务,根据第二目标样本文本来构建针对样本文本整体的文本语义属性和/或句子语义属性的预测任务,可以使训练后得到的文本编码器充分学习到文本词语义属性信息以及样本文本整体的语义属性信息和/或句子语义属性信息,从而可以提升文本编码器针对待预测的文本整体信息和局部信息的语义理解能力,进而通过文本编码器来对待遇测的文本进行编码,可以使得到的文本编码信息(或称文本编码特征)充分地表征文本整体信息和局部信息,减少语义属性信息丢失,至少部分避免语义理解错误,从而提升预测得到的预测文本的准确性,提升预测文本与相关业务需求的匹配程度。
根据本公开的实施例,样本文本包括样本对话文本,样本词包括表征对话角色属性的样本对话角色词。
根据本公开的实施例,样本对话角色属性可以是表征样本对话文本中表达样本句的角色,例如在问答类英语红场景中,样本对话角色属性可以包括提问角色和回答角色。
根据本公开的实施例,根据预设的词掩码规则,更新样本文本中的样本词,得到第一目标样本文本可以包括如下操作:
对样本文本中的至少一个样本对话角色词进行掩码处理,得到第一目标样本文本。
根据本公开的实施例,由于对话角色是表征样本对话文本中的对话文本结构特性的重要信息,因此通过对至少一个样本对话角色词进行掩码,可以使得到的第一目标样本文本来得到针对初始文本编码器的对话角色遮掩任务。例如对话在用户Q和系统R之间发生,可以通过随机遮掩掉50%的样本对话角色词来得到第一目标样本文本,将第一目标样本输入至初始文本编码器,让初始文本编码器来学习预测这些被遮掩的角色标记(role),即初始文本编码器可以输出包含有预测对话角色词的预测文本,通过预测文本与样本文本之间的损失值LDRM来训练初始文本编码器,得到训练后的文本编码器。
根据本公开的实施例,根据预设的词掩码规则,更新样本文本中的样本词,得到第一目标样本文本还可以包括如下操作:
从样本文本中随机确定待掩码样本词;以及对样本文本中的待掩码样本词进行掩码处理,得到第一目标样本文本。
根据本公开的实施例,在样本文本为样本对话文本的情况下,待掩码样本词可以包括除了样本对话角色词的其他样本词,以避免得到的第一目标样本文本因缺失对话角色属性导致文本编码器的学习效率降低,训练时间延长。
根据本公开的实施例,第一目标样本文本还可以包括多个,即可以通过对样本文本中的样本对话角色文本进行掩码得到第一个第一目标样本文本,还可以对样本文本中随机确定的待掩码样本词进行掩码处理,得到第二个第一目标样本文本,并根据两个第一目标样本文本来训练初始文本编码器。例如可以将两个第一目标样本文本输入至初始文本编码器,输出与文本词学习任务相关的文本词学习损失值LDSM,根据文本词学习损失值LDSM来训练得到文本编码器。
图3A示意性示出了根据本公开实施例的得到第一目标样本文本的原理图。
图3B示意性示出了根据本公开另一实施例的得到第一目标样本文本的原理图。
如图3A所示,样本对话文本D610中可以包括提问角色词Q和回答角色词R,还可以包括与提问角色词Q和回答角色词R各自相关的样本句。通过对样本对话文本D610中样本句“Q:这个手机支持5G吗?”中的样本词“手机”、“5G”进行掩码,以及针对样本句:“Q:Does thephone support 5G?”中的样本词“phone”和“5G”进行掩码,可以得到第一目标样本文本D620。
如图3B所示,通过对样本对话文本D610中样本句“R:a品牌不支持”、“R:A branddoes not support”、“Q:那b品牌呢?”、“Q:What about b brand?”各自的对话角色词进行掩码处理,可以得到另一个第一目标样本文本D630。
根据本公开的实施例,通过对样本词进行掩码处理,可以通过第一目标样本文本来使文本编码器学习到样本文本中与词级别语义属性相关的知识,例如可以从样本文本中采集50%的样本句,并针对采集到的50%的样本句中30%的样本句进行随机掩码,并针对采集到的50%的样本句中20%的样本句进行对话角色词掩码,得到第一目标样本文本,这样可以提升文本编码器的语义理解能力。
根据本公开的实施例,根据预设的语句更新规则,更新样本文本的语义属性,得到第二目标样本文本可以包括如下操作:从多个样本句子中确定样本对比句;以及对样本文本中的样本对比句进行掩码处理,得到样本掩码文本。
根据本公开的实施例,第二目标样本文本可以包括样本对比句和样本掩码文本。例如可以将样本对比句和样本掩码文本确定为数组格式的第二目标样本文本,以建立样本对比句和样本掩码文本之间的映射关系,这样可以将样本对比句和样本掩码文本输入至初始文本编码器,从而实现针对初始文本编码器的上下文对比学习任务(dialoguecontrastive learning),以提升训练得到的文本编码器对于样本文本中的上下文语句之间的语义关系的理解能力,以及提升训练得到的文本编码器对于样本文本的主题语义属性的理解能力,使文本编码器输出的预测文本中多个语句之间存在与主题语义属性相似的语义相似性,提升预测文本的预测准确性。
根据本公开的实施例,样本对比句包括多个,多个样本对比句包括样本文本中语义连续的多个样本句。
根据本公开的实施例,与上下文对比学习任务(dialogue contrastivelearning)对应的第二目标样本文本可以基于如下方式得到:对于一个包含m个句子的样本文本D,我们首先随机采样30%,即nc=[0.3×m]个连续的样本对比句,构成样本文本中的上下文文段Dp(即样本对比句)。然后可以把样本文本D中这些样本对比句用掩码标识“[UMASK]”进行替换标记,实现对于样本文本中的样本对比句进行掩码处理,构建得到样本掩码文本Dr,可以理解为Dr=D/Dp。此外,还可以根据本公开实施例提供的文本编码器的训练方法,对N个样本文本(例如N=512)进行样本对比句采样,以及样本文本掩码处理,得到N个Dr-Dp数据对(例如可以表示为N个第二目标样本文本)。
图4示意性示出了根据本公开实施例的得到第二目标样本文本的原理图。
如图4所示,样本文本D410可以包括样本句u1、u2、u3、u4、u5、u6。从样本文本D410中确定样本对比句411,样本对比句可以包括u2、u3。通过对样本文本D410中的样本对比句u2、u3进行掩码,可以得到第二目标样本文本D420。第二目标样本文本D420可以表示为:u1、[UMASK]、[UMASK]、u4、u5、u6。
根据本公开的实施例,根据第一目标样本文本和第二目标样本文本,训练初始文本编码器还可以包括如下操作:将样本对比句和样本掩码文本输入至初始文本编码器,输出样本对比句特征与样本掩码文本特征;根据第一损失函数处理样本对比句特征与样本掩码文本特征,得到第一损失值;以及根据第一损失值训练初始文本编码器。
根据本公开的实施例,第一损失值与样本对比句特征与样本掩码文本特征之间的相似度相关,例如可以基于公式(1)来得到第一损失值。
公式(1)中,LDCL可以表示第一损失值,N表示Dr-Dp数据对的数量,f()可以表示初始文本编码器,sim()可以表示余弦相似度计算公式,τ可以表示温度参数(例如可以设置为0.05~0.1)。
根据本公开的实施例,通过计算第一损失值,可以得到样本对比句Dp和样本掩码文本Dr之间的上下文对比学习任务损失,从而可以通过第一损失值来调整初始文本编码器的模型参数,得到训练后的文本编码器。
根据本公开的实施例,根据预设的语句更新规则,更新样本文本的语义属性,得到第二目标样本文本还可以包括如下操作:从样本文本中确定样本文本段和样本查询句,样本文本段包括按照对话语义属性排序的多个样本句,多个样本句与样本查询句之间具有句子位置关系;根据获取的更新样本句更新样本查询句,得到样本目标查询句;以及根据样本文本段和样本目标查询句,确定第二目标样本文本。
根据本公开的实施例,样本文本中可以包括文本语义的边界,文本语义的边界可以理解为样本文本中某些预设位置的样本句通常可以表示与文本结构位置对应的语义信息,例如样本对话文本中问候语句一般在对话文本开头的位置,感谢类的语句可以出现在样本对话文本的结尾位置。样本文本段与样本查询句之间的位置关系,可以表征样本文本中样本文本段与样本查询句之间的语义属性关系,通过构建包含样本文本段与样本目标查询句的第二目标样本文本可以实现对于初始文本编码器对于文本接口位置对应的语义信息的理解能力,从而提升文本编码器对于待处理的文本的语义理解能力,进而提升预测文本的准确性。
根据本公开的实施例,还可以将样本查询句和样本文本段构成的二元数组来确定第二目标样本文本,从而可以使文本编码器进一步准确地学习到样本文本中的样本查询句与样本文本段之间的位置关系,从而提升针对样本文本的边界结构的理解能力。
图5示意性示出了根据本公开另一实施例的得到第二目标样本文本的原理图。
如图5所示,样本文本D510可以包括样本句u1、u2、u3、u4、u5、u6。更新样本文本可以包括更新样本句u1’、u2’、u3’、u4’、u5’、u6’。
从样本文本D510中确定第一样本文本段和样本查询句,样本文本段可以包括样本句u2、u3、u4、u5,样本查询句可以是u1。根据更新样本句u1’替换样本查询句u1,可以得到包含样本目标查询句u1’和样本句u2、u3、u4、u5的第二目标样本文本D521。针对第二目标样本文本D521可以设置位置关系标签“Unrelated”,位置关系标签“Unrelated”可以表征样本目标查询句u1’和样本句u2、u3、u4、u5之间没有语义属性关系。
如图5所示,从样本文本D510中确定第二样本文本段和样本查询句u1,可以得到第二目标样本文本D522。第二样本文本段可以包括样本句u2、u3、u4、u5。针对第二目标样本文本D522可以设置位置关系标签“Before”。位置关系标签“Before”可以表征样本查询句u1和样本句u2、u3、u4、u5之间的语义属性关系为样本查询句u1位于第二样本文本段之前。
如图5所示,从样本文本D510中确定第三样本文本段和样本查询句u6,可以得到第二目标样本文本D523。第三样本文本段可以包括样本句u1、u2、u3、u4。针对第二目标样本文本D523可以设置位置关系标签“After”。位置关系标签“After”可以表征样本查询句u6和样本句u1、u2、u3、u4之间的语义属性关系为样本查询句u6位于第三样本文本段之后。
如图5所示,从样本文本D510中确定第四样本文本段和样本查询句u3,可以得到第二目标样本文本D524。第四样本文本段可以包括样本句u1、u2、u3、u4。针对第二目标样本文本D524可以设置位置关系标签“Inside”。位置关系标签“Inside”可以表征样本查询句u3和样本句u1、u2、u3、u4之间的语义属性关系为样本查询句u3位于第四样本文本段之中。
根据本公开的实施例,根据第二目标样本文本D521、D522、D523、D524,可以构建语句位置自监督学习任务(dialogue utterance position),使训练得到的文本编码器具有样本文本结构语义的理解能力,提升针对上下文语句的学习能力,进而提升编码后得到的文本特征的语义表征能力,提升后续的文本预测准确性。
在本公开的一个实施例中,还可以通过如下方式构建对话语句位置自监督学习任务(dialogue utterance position):首先我们将某个样本对话句作为一个query(样本查询句),样本文本(包括m个样本句)中的连续的几个样本对话句作为上下文context(样本文本段),那么query和上下文之间位置存在4个关系:1)query采样自句子(ub,1≤b<k),lDUP在context({uk,uk+1,...,um})之前;2)query(ub,j<a≤m)在context({u1,u2,...,uj})后面;3)query(ui,1<i<m)在context({u1,...,ui-1,ui+1,...,um})的里面;4)query(采样自另外一个对话的u′)和context({u1,u2,...,um})没有关系。通过随机采样具有这四类关系的query和context可以构建第二目标样本文本,并得到对话语句位置自监督学习任务得到的损失值可以记为LDUP,这样可以训练文本编码器去预测样本在文本中具体的位置关系。
根据本公开的实施例,根据预设的语句更新规则,更新样本文本的语义属性还可以包括:根据获取的更新样本句更新样本文本中的至少一个样本句,得到第二目标样本文本。
根据本公开的实施,第二目标样本文本中的至少一个第二目标样本句与更新属性标签相关联,更新属性标签表征第二目标样本句被更新样本句更新。
根据本公开的实施例,更新样本句可以是预先获取的与样本文本的语义属性有差别的语句。
例如可以获取与样本对话文本D不同的文本D’,从文本D’随机抽取nc个语句作为更新样本句D′u,D′u={u′j∈D′,j∈[1,nc]}。对于样本对话文本D中的样本句,可以根据得到的nc个更新样本句D′u,依次替换样本对话文本D中被选择的nc个样本句,得到被替换后的第二目标样本文本D”。然后,对于更新样本文本D”中的m个句子,可以构建针对每个语句的标签Yreplace={y1,y2,……,ym},其中与被替换过的语句对应的标签(即更新属性标签)可以取值1,对于没有被替换过的语句对应的标签(可称为未更新属性标签)取值0。这样可以根据标签1和0来训练文本编码器来预测第二目标样本文本中被替换的样本句,从而提升文本编码器对于语句级语义信息,以及对于样本句和样本文本之间的语义关系的理解能力。
根据本公开的实施例,根据预设的语句更新规则,更新样本文本的语义属性可以包括如下操作:更新样本文本中样本句各自的句子语义位置,得到第二目标样本文本。
根据本公开的实施例,第二目标样本文本中的第二目标样本句与位置属性标签相关联,位置属性标签表征与第二目标样本句相关联的样本句的句子语义位置。
根据本公开的实施例,还可以将样本对话文本D中nc个样本句各自的句子位置进行随机确定,以打乱样本句在样本对话文本中的排序,进而得到第二目标样本文本D”’。相应地,可以针对第二目标样本文本D”’中的每个样本句,设置与样本句的原始位置索引对应的位置属性标签Yord={y02,y01,...y0t,...,y0nc},其中y0t∈[1,nc],1≤y0t≤nc,从而可以将基于第二目标样本文本D”’来提升文本编码器对于样本文本中多个样本句各自的位置的理解能力。
根据本公开的实施例,第二目标样本文本可以包括中所示的D”和D”’中,从而的得到用于训练初始文本编码器的两个子任务,将两个子任务的损失值相加,可以作为句子级别训练任务的整体损失值LDUC,这样可以使训练后的文本编码器能够有效地捕捉语句在文本中存在的省略、指代等语义信息,还可以实现对于多个样本句之间上下文语义联系的理解能力,尤其能够提升针对对话语境中句子的语义属性的理解能力,提升文本编码器输出的文本特征的语义表征能力。
图6示意性示出了根据本公开又一实施例的得到第二目标样本文本的原理图。
如图6所示,样本对话文本D610可以包括样本句u1、u2、u3、u4、u5、u6,更新样本文本D610’可以包括更新样本句u1’、u2’、u3’、u4’、u5’、u6’。根据更新样本句u3’、u4’可以更新样本文本中的样本句u3、u4,得到第一个第二目标样本文本D621。第二目标样本文本D621可以包括u1、u2、u3’、u4’、u5、u6。相应地,还可以对第二目标样本文本D621中的每个第二目标样本句设置对应的更新属性标签,得到更新属性标签集D601,即可以对第二目标样本句u1、u2、u3’、u4’、u5、u6,分别设置更新属性标签为:0、0、1、1、0和0。
如图6所示,更新样本文本中样本句各自的句子语义位置,可以是对样本对话文本D610中样本句各自的位置进行更新,以打乱样本文本中样本句的顺序,得到第二个第二目标样本文本D622。第二目标样本文本D622可以包括第二目标样本句u4、u2、u1、u5、u3、u6。相应地,还可以对第二目标样本文本D621中的每个第二目标样本句设置对应的位置属性标签,得到位置属性标签集D602。即可以对第二目标样本句u4、u2、u1、u5、u3、u6,分别设置位置属性标签为:4、2、1、5、3、6。
根据本公开的实施例,可以基于本公开实施例提供的训练方法得到上述训练任务损失值LDUC、LDSM、LDRM、LDUP、LDCL中的至少一项来训练得到文本编码器。
在本公开的一个实施例中,可以基于上述训练任务损失值LDUC、LDSM、LDRM、LDUP和LDCL。从而可以通过多任务学习的方式来训练得到文本编码器,提升针对文本(尤其是对话文本)的语义理解能力和文本编码能力,进而提升后续预测得到的文本的文本准确性。
图7示意性示出了根据本公开实施例的文本生成方法的流程图。
如图7所示,该文本生成方法包括操作S710。
在操作S710,将获取到的初始文本输入至文本预测模型,输出预测的目标文本;其中,文本预测模型包括文本编码器,文本编码器是根据本公开实施例提供的文本编码器训练方法训练得到的。
根据本公开的实施例,目标文本可以包括任意类型的文本,例如对话文本、新闻信息文本等。文本预测模型可以是基于神经网络算法构建得到的。
根据本公开的实施例,文本生成方法可以应用于电商服务、业务咨询服务等多种应用场景中,本公开的实施例对文本生成方法的具体应用场景不做限定。
图8示意性示出了根据本公开的实施例的文本编码器的训练装置的框图。
如图8所示,文本编码器的训练装置800包括获取模块810、第一更新模块820、第二更新模块830和训练模块840。
获取模块810用于获取样本文本,样本文本包括多个样本句,样本句包括样本词。
第一更新模块820用于根据预设的词掩码规则,更新样本文本中的样本词,得到第一目标样本文本。
第二更新模块830用于根据预设的语句更新规则,更新样本文本的语义属性,得到第二目标样本文本。
训练模块840用于根据第一目标样本文本和第二目标样本文本,训练初始文本编码器,得到训练后的文本编码器。
根据本公开的实施例,第二更新模块包括:样本对比句确定单元和样本掩码文本获得单元。
样本对比句确定单元,用于从多个样本句子中确定样本对比句。
样本掩码文本获得单元,用于对样本文本中的样本对比句进行掩码处理,得到样本掩码文本;其中,第二目标样本文本包括样本对比句和样本掩码文本。
根据本公开的实施例,样本对比句包括多个,多个样本对比句包括样本文本中语义连续的多个样本句。
根据本公开的实施例,训练模块包括:特征提取单元、损失值获得单元和训练单元。
特征提取单元,用于将样本对比句和样本掩码文本输入至初始文本编码器,输出样本对比句特征与样本掩码文本特征。
损失值获得单元,用于根据第一损失函数处理样本对比句特征与样本掩码文本特征,得到第一损失值,第一损失值与样本对比句特征与样本掩码文本特征之间的相似度相关。
训练单元,用于根据第一损失值训练初始文本编码器。
根据本公开的实施例,第二更新模块包括:样本文本段确定单元、样本目标查询句确定单元和第二目标样本文本确定单元。
样本文本段确定单元,用于从样本文本中确定样本文本段和样本查询句,样本文本段包括按照对话语义属性排序的多个样本句,多个样本句与样本查询句之间具有句子位置关系。
样本目标查询句确定单元,用于根据获取的更新样本句更新样本查询句,得到样本目标查询句。
第二目标样本文本确定单元,用于根据样本文本段和样本目标查询句,确定第二目标样本文本。
根据本公开的实施例,第二更新模块包括样本句更新单元。
样本句更新单元,用于根据获取的更新样本句更新样本文本中的至少一个样本句,得到第二目标样本文本;其中,第二目标样本文本中的至少一个第二目标样本句与更新属性标签相关联,更新属性标签表征第二目标样本句被更新样本句更新。
根据本公开的实施例,第二更新模块包括句子语义位置更新单元。
句子语义位置更新单元,用于更新样本文本中样本句各自的句子语义位置,得到第二目标样本文本;其中,第二目标样本文本中的第二目标样本句与位置属性标签相关联,位置属性标签表征与第二目标样本句相关联的样本句的句子语义位置。
根据本公开的实施例,样本文本包括样本对话文本,样本词包括表征对话角色属性的样本对话角色词。
根据本公开的实施例,第一更新模块包括第一掩码处理单元。
第一掩码处理单元,用于对样本文本中的至少一个样本对话角色词进行掩码处理,得到第一目标样本文本。
根据本公开的实施例,第一更新模块包括:待掩码样本词确定单元和第二掩码处理单元。
待掩码样本词确定单元,用于从样本文本中随机确定待掩码样本词。
第二掩码处理单元,用于对样本文本中的待掩码样本词进行掩码处理,得到第一目标样本文本。
图9示意性示出了根据本公开的实施例的文本生成装置的框图。
如图9所示,文本生成装置900包括文本预测模块910。
文本预测模块,用于将获取到的初始文本输入至文本预测模型,输出预测的目标文本。其中,文本预测模型包括文本编码器,文本编码器是根据本公开实施例提供的文本编码器的训练方法训练得到的。
根据本公开的实施例的模块、单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,获取模块810、第一更新模块820、第二更新模块830和训练模块840中,或者文本预测模块910的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,身获取模块810、第一更新模块820、第二更新模块830和训练模块840中,或者文本预测模块910中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,获取模块810、第一更新模块820、第二更新模块830和训练模块840中,或者文本预测模块910中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
需要说明的是,本公开的实施例中文本编码器的训练装置部分与本公开的实施例中文本编码器的训练方法部分是相对应的,文本编码器的训练装置部分的描述具体参考文本编码器的训练方法部分,在此不再赘述。
需要说明的是,本公开的实施例文本生成装置部分与本公开的实施例中文本生成方法部分是相对应的,文本生成装置部分的描述具体参考文本生成方法部分,在此不再赘述。
图10示意性示出了根据本公开实施例的适于实现文本编码器的训练方法、文本生成方法的电子设备的框图。图10示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图10所示,根据本公开实施例的电子设备1000包括处理器1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。处理器1001例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器1001还可以包括用于缓存用途的板载存储器。处理器1001可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1003中,存储有电子设备1000操作所需的各种程序和数据。处理器1001、ROM1002以及RAM 1003通过总线1004彼此相连。处理器1001通过执行ROM 1002和/或RAM1003中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 1002和RAM 1003以外的一个或多个存储器中。处理器1001也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备1000还可以包括输入/输出(I/O)接口1005,输入/输出(I/O)接口1005也连接至总线1004。系统1000还可以包括连接至输入/输出(I/O)接口1005的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至输入/输出(I/O)接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被处理器1001执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 1002和/或RAM 1003和/或ROM 1002和RAM 1003以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的方法。
在该计算机程序被处理器1001执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1009被下载和安装,和/或从可拆卸介质1011被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (15)

1.一种文本编码器的训练方法,包括:
获取样本文本,所述样本文本包括多个样本句,所述样本句包括样本词;
根据预设的词掩码规则,更新所述样本文本中的样本词,得到第一目标样本文本;
根据预设的语句更新规则,更新所述样本文本的语义属性,得到第二目标样本文本;以及
根据所述第一目标样本文本和所述第二目标样本文本,训练初始文本编码器,得到训练后的文本编码器。
2.根据权利要求1所述的方法,其中,所述根据预设的语句更新规则,更新所述样本文本的语义属性,得到第二目标样本文本包括:
从多个所述样本句子中确定样本对比句;以及
对所述样本文本中的所述样本对比句进行掩码处理,得到样本掩码文本;
其中,所述第二目标样本文本包括所述样本对比句和所述样本掩码文本。
3.根据权利要求2所述的方法,其中,所述样本对比句包括多个,多个所述样本对比句包括所述样本文本中语义连续的多个样本句。
4.根据权利要求2或3所述的方法,其中,所述根据所述第一目标样本文本和所述第二目标样本文本,训练初始文本编码器包括:
将所述样本对比句和所述样本掩码文本输入至所述初始文本编码器,输出样本对比句特征与样本掩码文本特征;
根据第一损失函数处理所述样本对比句特征与样本掩码文本特征,得到第一损失值,所述第一损失值与所述样本对比句特征与样本掩码文本特征之间的相似度相关;以及
根据所述第一损失值训练所述初始文本编码器。
5.根据权利要求1所述的方法,其中,所述根据预设的语句更新规则,更新所述样本文本的语义属性,得到第二目标样本文本包括:
从所述样本文本中确定样本文本段和样本查询句,所述样本文本段包括按照对话语义属性排序的多个样本句,多个所述样本句与所述样本查询句之间具有句子位置关系;
根据获取的更新样本句更新所述样本查询句,得到样本目标查询句;以及
根据所述样本文本段和所述样本目标查询句,确定所述第二目标样本文本。
6.根据权利要求1所述的方法,其中,所述根据预设的语句更新规则,更新所述样本文本的语义属性包括:
根据获取的更新样本句更新所述样本文本中的至少一个所述样本句,得到所述第二目标样本文本;
其中,所述第二目标样本文本中的至少一个第二目标样本句与更新属性标签相关联,所述更新属性标签表征所述第二目标样本句被所述更新样本句更新。
7.根据权利要求1所述的方法,其中,所述根据预设的语句更新规则,更新所述样本文本的语义属性包括:
更新所述样本文本中所述样本句各自的句子语义位置,得到所述第二目标样本文本;
其中,所述第二目标样本文本中的第二目标样本句与位置属性标签相关联,所述位置属性标签表征与所述第二目标样本句相关联的样本句的句子语义位置。
8.根据权利要求1所述的方法,其中,所述样本文本包括样本对话文本,所述样本词包括表征对话角色属性的样本对话角色词;
其中,所述根据预设的词掩码规则,更新所述样本文本中的样本词,得到第一目标样本文本包括:
对所述样本文本中的至少一个所述样本对话角色词进行掩码处理,得到所述第一目标样本文本。
9.根据权利要求1所述的方法,其中,所述根据预设的词掩码规则,更新所述样本文本中的样本词,得到第一目标样本文本包括:
从所述样本文本中随机确定待掩码样本词;以及
对所述样本文本中的待掩码样本词进行掩码处理,得到所述第一目标样本文本。
10.一种文本生成方法,包括:
将获取到的初始文本输入至文本预测模型,输出预测的目标文本;
其中,所述文本预测模型包括文本编码器,所述文本编码器是根据权利要求1至9中任一项所述的方法训练得到的。
11.一种文本编码器的训练装置,包括:
获取模块,用于获取样本文本,所述样本文本包括多个样本句,所述样本句包括样本词;
第一更新模块,用于根据预设的词掩码规则,更新所述样本文本中的样本词,得到第一目标样本文本;
第二更新模块,用于根据预设的语句更新规则,更新所述样本文本的语义属性,得到第二目标样本文本;以及
训练模块,用于根据所述第一目标样本文本和所述第二目标样本文本,训练初始文本编码器,得到训练后的文本编码器。
12.一种文本生成装置,包括:
文本预测模块,用于将获取到的初始文本输入至文本预测模型,输出预测的目标文本;
其中,所述文本预测模型包括文本编码器,所述文本编码器是根据权利要求1至9中任一项所述的方法训练得到的。
13.一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至10中任一项所述的方法。
14.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至10中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至10中任一项所述的方法。
CN202311541920.XA 2023-11-17 2023-11-17 文本编码器的训练方法、文本生成方法、装置及存储介质 Pending CN117493519A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311541920.XA CN117493519A (zh) 2023-11-17 2023-11-17 文本编码器的训练方法、文本生成方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311541920.XA CN117493519A (zh) 2023-11-17 2023-11-17 文本编码器的训练方法、文本生成方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN117493519A true CN117493519A (zh) 2024-02-02

Family

ID=89668902

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311541920.XA Pending CN117493519A (zh) 2023-11-17 2023-11-17 文本编码器的训练方法、文本生成方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN117493519A (zh)

Similar Documents

Publication Publication Date Title
CN110287278B (zh) 评论生成方法、装置、服务器及存储介质
CN107783960B (zh) 用于抽取信息的方法、装置和设备
CN111522958A (zh) 文本分类方法和装置
CN114861889B (zh) 深度学习模型的训练方法、目标对象检测方法和装置
WO2021143206A1 (zh) 单语句自然语言处理方法、装置、计算机设备及可读存储介质
CN112231569A (zh) 新闻推荐方法、装置、计算机设备及存储介质
CN113986864A (zh) 日志数据处理方法、装置、电子设备及存储介质
US20220237409A1 (en) Data processing method, electronic device and computer program product
CN112613306A (zh) 抽取实体关系的方法、装置、电子设备、及存储介质
CN116955561A (zh) 问答方法、装置、电子设备以及存储介质
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN113626608B (zh) 增强语义的关系抽取方法、装置、计算机设备及存储介质
CN111538817B (zh) 人机交互方法和装置
CN111241496A (zh) 确定小程序特征向量的方法、装置和电子设备
CN114386408A (zh) 政务敏感信息识别方法、装置、设备、介质和程序产品
CN112711943A (zh) 一种维吾尔文语种识别方法、装置及存储介质
CN112307738A (zh) 用于处理文本的方法和装置
CN115620726A (zh) 语音文本生成方法、语音文本生成模型的训练方法、装置
CN116048463A (zh) 基于标签管理的需求项内容智能推荐方法及装置
CN115470790A (zh) 一种识别文件中的命名实体的方法和装置
CN114691850A (zh) 生成问答对的方法、神经网络模型的训练方法和装置
CN114880520A (zh) 视频标题生成方法、装置、电子设备和介质
CN117493519A (zh) 文本编码器的训练方法、文本生成方法、装置及存储介质
Amato et al. A hybrid approach for document analysis in digital forensic domain
CN114490946A (zh) 基于Xlnet模型的类案检索方法、系统及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination