CN111026849B - 数据处理方法和装置 - Google Patents

数据处理方法和装置 Download PDF

Info

Publication number
CN111026849B
CN111026849B CN201911301818.6A CN201911301818A CN111026849B CN 111026849 B CN111026849 B CN 111026849B CN 201911301818 A CN201911301818 A CN 201911301818A CN 111026849 B CN111026849 B CN 111026849B
Authority
CN
China
Prior art keywords
sample
title
target
natural language
language processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911301818.6A
Other languages
English (en)
Other versions
CN111026849A (zh
Inventor
曹宇慧
冯仕堃
何径舟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201911301818.6A priority Critical patent/CN111026849B/zh
Publication of CN111026849A publication Critical patent/CN111026849A/zh
Application granted granted Critical
Publication of CN111026849B publication Critical patent/CN111026849B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例公开了数据处理方法和装置。该方法的一具体实施方式包括:获取样本集;将该样本集中的目标样本输入待训练的自然语言处理模型,得到从该待训练的自然语言处理模型输出的、与该目标样本对应的向量;将该向量输入该全连接层,得到该目标样本中的查询词和标题样本之间的相关度;基于该目标样本中的查询词和标题样本之间的相关度,确定该目标样本的损失值,并基于该损失值训练该待训练的自然语言处理模型,得到训练后的自然语言处理模型。本申请实施例提供的方案能够训练出可以预测查询词和标题之间的相关度的自然语言处理模型,从而提高了获取相关度的效率和准确度。

Description

数据处理方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及数据处理方法和装置。
背景技术
随着互联网的发展,越来越多的用户开始使用终端设备在互联网上搜索各种信息。用户在搜索时,通常会输入查询词,搜索网站则会针对该查询词反馈搜索到的信息条目。
通常情况下,为了能够清楚地展示出信息条目,在信息条目显示的过程中,会显示标题,还会显示详细信息。
发明内容
本申请实施例提出了数据处理方法和装置。
第一方面,本申请实施例提供了一种数据处理方法,包括:获取样本集,其中,样本集中的样本包括查询词、标题样本,查询词和标题样本存在标注,标注指示查询词与标题样本之间的相关度;将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量;将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度;基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,并基于损失值训练待训练的自然语言处理模型,得到训练后的自然语言处理模型。
在一些实施例中,样本集中的样本所包括的标题样本为标题样本对,标题样本对包括正标题样本和负标题样本,在同一个样本中的标注包括针对同一个查询词的两个标注数值,正标题样本的标注数值大于负标题样本的标注数值。
在一些实施例中,将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量,包括:将样本集中的目标样本中的正标题样本和查询词,输入待训练的自然语言处理模型,以及将目标样本中的负标题样本和查询词,输入待训练的自然语言处理模型;得到从待训练的自然语言处理模型输出的、与正标题样本对应的向量,并得到从待训练的自然语言处理模型输出的、与负标题样本对应的向量。
在一些实施例中,将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度,包括:将与正标题样本对应的向量输入全连接层,得到目标样本中的正标题样本与查询词之间的相关度;将与负标题样本对应的向量输入全连接层,得到目标样本中的负正标题样本与查询词之间的相关度;以及基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,包括:基于正标题样本与查询词之间的相关度、负正标题样本与查询词之间的相关度,以及预设边界损失值确定目标样本的损失值。
在一些实施例中,样本集中的标注包括至少三个标注数值。
在一些实施例中,自然语言处理模型为知识增强语义表示模型;样本集中,存在预设样本,预设样本的标题样本包括至少一个用于替换实体词的指定标识。
第二方面,本申请实施例提供了一种数据处理装置,包括:获取单元,被配置成获取样本集,其中,样本集中的样本包括查询词、标题样本,查询词和标题样本存在标注,标注指示查询词与标题样本之间的相关度;输入单元,被配置成将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量;全连接单元,被配置成将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度;确定单元,被配置成基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,并基于损失值训练待训练的自然语言处理模型,得到训练后的自然语言处理模型。
在一些实施例中,样本集中的样本所包括的标题样本为标题样本对,标题样本对包括正标题样本和负标题样本,在同一个样本中的标注包括针对同一个查询词的两个标注数值,正标题样本的标注数值大于负标题样本的标注数值。
在一些实施例中,输入单元,进一步被配置成按照如下方式执行将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量:将样本集中的目标样本中的正标题样本和查询词,输入待训练的自然语言处理模型,以及将目标样本中的负标题样本和查询词,输入待训练的自然语言处理模型;得到从待训练的自然语言处理模型输出的、与正标题样本对应的向量,并得到从待训练的自然语言处理模型输出的、与负标题样本对应的向量。
在一些实施例中,全连接单元,进一步被配置成按照如下方式执行将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度:将与正标题样本对应的向量输入全连接层,得到目标样本中的正标题样本与查询词之间的相关度;将与负标题样本对应的向量输入全连接层,得到目标样本中的负正标题样本与查询词之间的相关度;以及基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,包括:基于正标题样本与查询词之间的相关度、负正标题样本与查询词之间的相关度,以及预设边界损失值确定目标样本的损失值。
在一些实施例中,样本集中的标注包括至少三个标注数值。
在一些实施例中,自然语言处理模型为知识增强语义表示模型;样本集中,存在预设样本,预设样本的标题样本包括至少一个用于替换实体词的指定标识。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如数据处理方法中任一实施例的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如数据处理方法中任一实施例的方法。
本申请实施例提供的数据处理方案,首先,获取样本集,其中,样本集中的样本包括查询词、标题样本,查询词和标题样本存在标注,标注指示查询词与标题样本之间的相关度。之后,将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量。而后,将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度。最后,基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,并基于损失值训练待训练的自然语言处理模型,得到训练后的自然语言处理模型。本申请实施例提供的方案能够训练出可以预测查询词和标题之间的相关度的自然语言处理模型,从而提高了获取相关度的效率和准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请一些实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的数据处理方法的一个实施例的流程图;
图3是根据本申请的数据处理方法的一个应用场景的示意图;
图4是根据本申请的数据处理方法的又一个实施例的流程图;
图5是根据本申请的数据处理装置的一个实施例的结构示意图;
图6是适于用来实现本申请一些实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的数据处理方法或数据处理装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如文档编辑应用、视频类应用、直播应用、即时通信工具、邮箱客户端、社交平台软件等。
这里的终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对接收到的样本集等数据进行分析等处理,并将处理结果(例如训练后的自然语言处理模型)反馈给终端设备。
需要说明的是,本申请实施例所提供的数据处理方法可以由服务器105或者终端设备101、102、103执行,相应地,数据处理装置可以设置于服务器105或者终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的数据处理方法的一个实施例的流程200。该数据处理方法,包括以下步骤:
步骤201,获取样本集,其中,样本集中的样本包括查询词、标题样本,查询词和标题样本存在标注,标注指示查询词与标题样本之间的相关度。
在本实施例中,上述执行主体可以获取用于训练的样本集。样本集中的样本包括查询词(query)和标题(title)样本。每个样本中的查询词和标题样本都存在标注。标题样本即是用于训练的标题,这里的标题可以是搜索到的信息条目的标题,也可以是搜索到的信息(比如页面)本身的标题。信息条目的标题和信息本身的标题在一般情况下可以是相同的。
在实践中,相关度可以是指示查询词与标题是否相关的信息。比如,相关度可以是指示“相关”和“非相关”的信息,例如分别为“1”和“0”。此外,相关度还可以是数值,数值越大则表示相关度越大,比如相关度可以是概率值,也即取值范围为[0,1]。
步骤202,将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量。
在本实施例中,上述执行主体可以将目标样本中的查询词和标题样本输入自然语言处理(Natural Language Processing,NLP)模型,从而得到从该模型输出的向量。这里的向量与目标样本中的查询词和标题样本相对应。目标样本所输入的自然语言处理模型是有待于训练的模型,具体地,可以是未经过训练的初始自然语言处理模型,也可以是经过预训练(Pre-train)的自然语言处理模型。这里输入的查询词和标题样本可以是原始的查询词和原始的标题样本经分词后的结果。
在实践中,自然语言处理模型可以是各种用于对语言进行处理的模型,比如BERT(Bidirectional Encoder Representations from Transformers)。
步骤203,将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度。
在本实施例中,上述执行主体可以将上述自然语言处理模型输出的向量,输入全连接层中,从而得到从全连接层输出的查询词和标题样本之间的相关度。
步骤204,基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,并基于损失值训练待训练的自然语言处理模型,得到训练后的自然语言处理模型。
在本实施例中,上述执行主体可以采用各种方式确定损失值,比如可以利用预设的损失函数,以及上述待训练的自然语言处理模型输出的相关度,确定目标样本的损失值,进而利用该损失值对该模型进行训练。经过多个目标样本的多次训练迭代后,可以得到训练后的自然语言处理模型。
本申请的上述实施例提供的方法能够训练出可以预测查询词和标题之间的相关度的自然语言处理模型,从而提高了获取相关度的效率和准确度。
在本实施例的一些可选的实现方式中,样本集中的样本所包括的标题样本为标题样本对,标题样本对包括正标题样本和负标题样本,在同一个样本中的标注包括针对同一个查询词的两个标注数值,正标题样本的标注数值大于负标题样本的标注数值。
在这些可选的实现方式中,样本集的任一个样本中的标题样本可以是标题样本对,这里的标题样本对可以包括正标题样本和负标题样本。那么,一个样本中可以包括正标题样本、负标题样本和一个查询词。
在同一个样本中指示关联度的标注可以表示为数值的形式,也即标注数值。在同一个样本中的正标题样本的标注数值,大于负标题样本的标注数值。比如,一个样本中正标题样本的标注数值可以是1,负标题样本的标注数值可以是0。或者,一个样本中,正标题样本的标注数值可以是4,负标题样本的标注数值可以是1。
举例来说,查询词是“洗手液价格”,正标题样本为“洗手液价格列表”,标注数值为4,负标题样本为“洗手液报价列表”,标注数值为3。
同一个样本中,正标题样本的标注数值指示了正标题样本与查询词的相关度,负标题样本的标注数值指示了负标题样本与该查询词的相关度,也即,正标题样本的标注数值和负标题样本的标注数值都指示了针对同一个查询词的相关度。
这些实现方式可以利用正标题样本和负标题样本与同一个查询词之间的相关度,让自然语言处理模型更准确地学习预测标题与查询词之间的相关度。
在本实施例的一些可选的实现方式中,样本集中的标注包括至少三个标注数值。
在这些可选的实现方式中,样本集中的不同样本中的标注数值可以是不尽相同的。不同的标注数值对应不同的相关度。举例来说,样本集中的各个样本中的标注数值可以包括0、1、2、3、4。
这些实现方式可以通过多种标注数值,更细化、准确地区别不同的相关度,从而让训练得到的自然语言处理模型能够输出更准确的相关度。
在本实施例的一些可选的实现方式中,自然语言处理模型可以为知识增强语义表示模型;样本集中,存在预设样本,预设样本的标题样本包括至少一个用于替换实体词的指定标识。
在这些可选的实现方式中,自然语言处理模型可以是知识增强语义表示模型(enhanced representation from knowledge integration,ERNIE)。对于预设样本中的标题样本,该标题样本可以包括指定标识,用于替换和掩盖原有的词,比如该指定标识可以是“mask”。实体泛指一切能够独立存在的东西,比如作品、人物、地点、机构等。实体词是指示实体的词。实体词可以表现为连续的至少一个字。
这些实现方式可以采用知识增强语义表示模型,针对掩盖实体词的样本进行训练,从而能够使训练得到的模型能够更好地预测出实体词与其他词句之间的关联。
在本实施例的一些可选的实现方式中,上述方法还可以包括:获取目标数据,其中,目标数据包括目标查询词和目标标题;将目标数据输入上述训练后的自然语言处理模型,得到从训练后的自然语言处理模型输出的、与目标数据对应的向量;将与目标数据对应的向量输入全连接层,得到目标查询词和目标标题之间的相关度。
这些实现方式可以通过训练后的自然语言处理模型,快速而准确地预测出查询词与标题之间的相关度。
继续参见图3,图3是根据本实施例的数据处理方法的应用场景的一个示意图。在图3的应用场景中,执行主体301可以获取样本集302,其中,样本集中的样本包括查询词“洗手液价格”、标题样本“洗手液价格列表”,查询词和标题样本存在标注“4”,标注指示查询词与标题样本之间的相关度。执行主体301将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量303。执行主体301将向量303输入全连接层,得到目标样本中的查询词和标题样本之间的相关度304。基于目标样本中的查询词和标题样本之间的相关度304,确定目标样本的损失值,并基于损失值训练待训练的自然语言处理模型,得到训练后的自然语言处理模型305。
进一步参考图4,其示出了上述实施例的一些可选的实现方式中,预先训练的自然语言处理模型的训练流程400,具体可以包括以下步骤:
步骤401,获取样本集,其中,样本集中的样本包括查询词、标题样本,查询词和标题样本存在标注,标注指示查询词与标题样本之间的相关度。
在本实施例中,上述执行主体可以获取用于训练的样本集。样本集中的样本包括查询词和标题样本。每个样本中的查询词和标题样本都存在标注。标题样本即是用于训练的标题,这里的标题可以是搜索到的信息条目的标题,也可以是搜索到的信息本身的标题。信息条目的标题和信息本身的标题在一般情况下是相同的。
步骤402,将样本集中的目标样本中的正标题样本和查询词,输入待训练的自然语言处理模型,以及将目标样本中的负标题样本和查询词,输入待训练的自然语言处理模型。
在本实施例中,样本集中的样本所包括的标题样本为标题样本对,标题样本对包括正标题样本和负标题样本,在同一个样本中的标注包括针对同一个查询词的两个标注数值,正标题样本的标注数值大于负标题样本的标注数值。
步骤403,得到从待训练的自然语言处理模型输出的、与正标题样本对应的向量,并得到从待训练的自然语言处理模型输出的、与负标题样本对应的向量。
在本实施例中,上述执行主体可以将正标题样本与查询词输入待训练的上述模型,从而可以得到与该正标题样本和查询词对应的向量。此外,上述执行主体还可以将负标题样本与查询词输入待训练的上述模型,从而可以得到与该负标题样本和查询词对应的向量。
步骤404,将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度。
在本实施例中,上述执行主体可以将上述自然语言处理模型输出的向量,输入全连接层中,从而得到从全连接层输出的查询词和标题样本之间的相关度。
步骤405,基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,并基于损失值训练待训练的自然语言处理模型,得到训练后的自然语言处理模型。
在本实施例中,上述执行主体可以利用预设的损失函数,以及上述待训练的自然语言处理模型输出的相关度,确定目标样本的损失值,从而利用该损失值对该模型进行训练。经过多个目标样本的多次训练迭代后,可以得到训练后的自然语言处理模型。
本实施例可以利用正标题样本和负标题样本分别输入待训练的自然语言处理模型,从而提高所输出向量的准确度。同时,可以分别得到与正标题样本和负标题样本分别对应的向量,可以利用这两个不同的向量对模型进行更准确的训练。
在本实施例的一些可选的实现方式中,步骤404可以包括:将与正标题样本对应的向量输入全连接层,得到目标样本中的正标题样本与查询词之间的相关度;将与负标题样本对应的向量输入全连接层,得到目标样本中的负正标题样本与查询词之间的相关度;以及步骤405中的基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,可以包括:基于正标题样本与查询词之间的相关度、负正标题样本与查询词之间的相关度,以及预设边界损失值确定目标样本的损失值。
在这些可选的实现方式中,上述执行主体可以将所得到的与正标题样本和负标题样本分别对应的两个向量,分别输入全连接层,从而得到与这两个向量分别对应的相关度。这样,上述执行主体可以对正标题样本与查询词,以及负标题样本与查询词分别进行相关度的评价。
上述执行主体可以利用所得到的两个相关度,以及预设的边界损失值(margin),确定目标样本的损失值(loss)。具体地,可以将正标题样本与查询词之间的相关度表示为A,负标题样本与查询词之间的相关度表示为B,目标样本的损失值可以表示为:
loss=max{0,(B-A+margin)},
其中,margin为预设边界损失值,A、B的取值范围均为[0,1],margin的取值范围为(0,1)。损失值是在0与B-A+margin的结果之间取较大的一个。负标题样本对应的相关度,小于正标题样本对应的相关度,因此,B-A的结果为负数。在负标题样本对应的相关度,与正标题样本对应的相关度之间的差距较大时,B-A+margin的结果小于0,则损失值为0,否则,损失值不为0。差距较大即是B-A的结果的绝对值,大于margin。
这些实现方式可以综合正标题样本对应的相关度和负标题样本对应的相关度,从而得到准确的损失值。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种数据处理装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征或效果。该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的数据处理装置500包括:获取单元501、输入单元502、全连接单元503和确定单元504。其中,获取单元501,被配置成获取样本集,其中,样本集中的样本包括查询词、标题样本,查询词和标题样本存在标注,标注指示查询词与标题样本之间的相关度;输入单元502,被配置成将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量;全连接单元503,被配置成将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度;确定单元504,被配置成基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,并基于损失值训练待训练的自然语言处理模型,得到训练后的自然语言处理模型。
在一些实施例中,数据处理装置500的获取单元501可以获取用于训练的样本集。样本集中的样本包括查询词和标题样本。每个样本中的查询词和标题样本都存在标注。标题样本即是用于训练的标题,这里的标题可以是搜索到的信息条目的标题,也可以是搜索到的信息(比如页面)本身的标题。信息条目的标题和信息本身的标题在一般情况下可以是相同的。
在一些实施例中,输入单元502可以将目标样本中的查询词和标题样本输入自然语言处理模型,从而得到从该模型输出的向量。这里的向量与目标样本中的查询词和标题样本相对应。目标样本所输入的自然语言处理模型是有待于训练的模型,具体地,可以是未经过训练的初始自然语言处理模型,也可以是经过预训练的自然语言处理模型。
在一些实施例中,全连接单元503可以将上述自然语言处理模型输出的向量,输入全连接层中,从而得到从全连接层输出的查询词和标题样本之间的相关度。
在一些实施例中,确定单元504可以采用各种方式确定损失值,比如可以利用预设的损失函数,以及上述待训练的自然语言处理模型输出的相关度,确定目标样本的损失值,进而利用该损失值对该模型进行训练。经过多个目标样本的多次训练迭代后,可以得到训练后的自然语言处理模型。
在本实施例的一些可选的实现方式中,样本集中的样本所包括的标题样本为标题样本对,标题样本对包括正标题样本和负标题样本,在同一个样本中的标注包括针对同一个查询词的两个标注数值,正标题样本的标注数值大于负标题样本的标注数值。
在本实施例的一些可选的实现方式中,输入单元,进一步被配置成按照如下方式执行将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量:将样本集中的目标样本中的正标题样本和查询词,输入待训练的自然语言处理模型,以及将目标样本中的负标题样本和查询词,输入待训练的自然语言处理模型;得到从待训练的自然语言处理模型输出的、与正标题样本对应的向量,并得到从待训练的自然语言处理模型输出的、与负标题样本对应的向量。
在本实施例的一些可选的实现方式中,全连接单元,进一步被配置成按照如下方式执行将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度:将与正标题样本对应的向量输入全连接层,得到目标样本中的正标题样本与查询词之间的相关度;将与负标题样本对应的向量输入全连接层,得到目标样本中的负正标题样本与查询词之间的相关度;以及基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,包括:基于正标题样本与查询词之间的相关度、负正标题样本与查询词之间的相关度,以及预设边界损失值确定目标样本的损失值。
在本实施例的一些可选的实现方式中,样本集中的标注包括至少三个标注数值。
在本实施例的一些可选的实现方式中,自然语言处理模型为知识增强语义表示模型;样本集中,存在预设样本,预设样本的标题样本包括至少一个用于替换实体词的指定标识。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、输入单元、全连接单元和确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取样本集的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取样本集,其中,样本集中的样本包括查询词、标题样本,查询词和标题样本存在标注,标注指示查询词与标题样本之间的相关度;将样本集中的目标样本输入待训练的自然语言处理模型,得到从待训练的自然语言处理模型输出的、与目标样本对应的向量;将向量输入全连接层,得到目标样本中的查询词和标题样本之间的相关度;基于目标样本中的查询词和标题样本之间的相关度,确定目标样本的损失值,并基于损失值训练待训练的自然语言处理模型,得到训练后的自然语言处理模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (9)

1.一种数据处理方法,其中,所述方法包括:
获取样本集,其中,所述样本集中的样本包括查询词、标题样本,所述查询词和所述标题样本存在标注,所述标注指示所述查询词与所述标题样本之间的相关度;
将所述样本集中的目标样本输入待训练的自然语言处理模型,得到从所述待训练的自然语言处理模型输出的、与所述目标样本对应的向量,其中,所述自然语言处理模型为知识增强语义表示模型;所述样本集中,存在预设样本,所述预设样本的标题样本包括至少一个用于替换和掩盖原有的实体词的指定标识;
将所述向量输入全连接层,得到所述目标样本中的查询词和标题样本之间的相关度;
基于所述目标样本中的查询词和标题样本之间的相关度,确定所述目标样本的损失值,并基于所述损失值训练所述待训练的自然语言处理模型,得到训练后的自然语言处理模型;
所述样本集中的每个样本包括标题样本对和一个查询词,所述标题样本对包括正标题样本和负标题样本,在同一个样本中的标注包括针对同一个查询词的两个标注数值,正标题样本的标注数值大于负标题样本的标注数值,不同的标注数值对应不同的相关度;
所述方法还可以包括:
获取目标数据,其中,所述目标数据包括目标查询词和目标标题;将所述目标数据输入训练后的自然语言处理模型,得到从训练后的自然语言处理模型输出的、与所述目标数据对应的向量;将与所述目标数据对应的向量输入全连接层,得到所述目标查询词和所述目标标题之间的相关度。
2.根据权利要求1所述的方法,其中,所述将所述样本集中的目标样本输入待训练的自然语言处理模型,得到从所述待训练的自然语言处理模型输出的、与所述目标样本对应的向量,包括:
将所述样本集中的目标样本中的正标题样本和查询词,输入所述待训练的自然语言处理模型,以及将所述目标样本中的负标题样本和查询词,输入所述待训练的自然语言处理模型;
得到从所述待训练的自然语言处理模型输出的、与所述正标题样本对应的向量,并得到从所述待训练的自然语言处理模型输出的、与所述负标题样本对应的向量。
3.根据权利要求2所述的方法,其中,将所述向量输入所述全连接层,得到所述目标样本中的查询词和标题样本之间的相关度,包括:
将与所述正标题样本对应的向量输入所述全连接层,得到所述目标样本中的正标题样本与查询词之间的相关度;
将与所述负标题样本对应的向量输入所述全连接层,得到所述目标样本中的负正标题样本与查询词之间的相关度;以及
所述基于所述目标样本中的查询词和标题样本之间的相关度,确定所述目标样本的损失值,包括:
基于所述正标题样本与查询词之间的相关度、所述负正标题样本与查询词之间的相关度,以及预设边界损失值确定所述目标样本的损失值。
4.根据权利要求1所述的方法,其中,样本集中的标注包括至少三个标注数值。
5.一种数据处理装置,其中,所述装置包括:
获取单元,被配置成获取样本集,其中,所述样本集中的样本包括查询词、标题样本,所述查询词和所述标题样本存在标注,所述标注指示所述查询词与所述标题样本之间的相关度;
输入单元,被配置成将所述样本集中的目标样本输入待训练的自然语言处理模型,得到从所述待训练的自然语言处理模型输出的、与所述目标样本对应的向量,其中,所述自然语言处理模型为知识增强语义表示模型;所述样本集中,存在预设样本,所述预设样本的标题样本包括至少一个用于替换和掩盖原有的实体词的指定标识;
全连接单元,被配置成将所述向量输入全连接层,得到所述目标样本中的查询词和标题样本之间的相关度;
确定单元,被配置成基于所述目标样本中的查询词和标题样本之间的相关度,确定所述目标样本的损失值,并基于所述损失值训练所述待训练的自然语言处理模型,得到训练后的自然语言处理模型;
所述样本集中的每个样本所包括的标题样本为标题样本对和一个查询词,所述标题样本对包括正标题样本和负标题样本,在同一个样本中的标注包括针对同一个查询词的两个标注数值,正标题样本的标注数值大于负标题样本的标注数值,不同的标注数值对应不同的相关度;
所述获取单元,被配置成获取目标数据,其中,所述目标数据包括目标查询词和目标标题;将所述目标数据输入训练后的自然语言处理模型,得到从训练后的自然语言处理模型输出的、与所述目标数据对应的向量;
所述输入单元,被配置成将与所述目标数据对应的向量输入全连接层,得到所述目标查询词和所述目标标题之间的相关度。
6.根据权利要求5所述的装置,其中,所述输入单元,进一步被配置成按照如下方式执行将所述样本集中的目标样本输入待训练的自然语言处理模型,得到从所述待训练的自然语言处理模型输出的、与所述目标样本对应的向量:
将所述样本集中的目标样本中的正标题样本和查询词,输入所述待训练的自然语言处理模型,以及将所述目标样本中的负标题样本和查询词,输入所述待训练的自然语言处理模型;
得到从所述待训练的自然语言处理模型输出的、与所述正标题样本对应的向量,并得到从所述待训练的自然语言处理模型输出的、与所述负标题样本对应的向量。
7.根据权利要求6所述的装置,其中,所述全连接单元,进一步被配置成按照如下方式执行将所述向量输入所述全连接层,得到所述目标样本中的查询词和标题样本之间的相关度:
将与所述正标题样本对应的向量输入所述全连接层,得到所述目标样本中的正标题样本与查询词之间的相关度;
将与所述负标题样本对应的向量输入所述全连接层,得到所述目标样本中的负正标题样本与查询词之间的相关度;以及
所述基于所述目标样本中的查询词和标题样本之间的相关度,确定所述目标样本的损失值,包括:
基于所述正标题样本与查询词之间的相关度、所述负正标题样本与查询词之间的相关度,以及预设边界损失值确定所述目标样本的损失值。
8.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN201911301818.6A 2019-12-17 2019-12-17 数据处理方法和装置 Active CN111026849B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911301818.6A CN111026849B (zh) 2019-12-17 2019-12-17 数据处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911301818.6A CN111026849B (zh) 2019-12-17 2019-12-17 数据处理方法和装置

Publications (2)

Publication Number Publication Date
CN111026849A CN111026849A (zh) 2020-04-17
CN111026849B true CN111026849B (zh) 2023-09-19

Family

ID=70211086

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911301818.6A Active CN111026849B (zh) 2019-12-17 2019-12-17 数据处理方法和装置

Country Status (1)

Country Link
CN (1) CN111026849B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113590796B (zh) * 2021-08-04 2023-09-05 百度在线网络技术(北京)有限公司 排序模型的训练方法、装置和电子设备
CN113988157B (zh) * 2021-09-30 2023-10-13 北京百度网讯科技有限公司 语义检索网络训练方法、装置、电子设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN104915426A (zh) * 2015-06-12 2015-09-16 百度在线网络技术(北京)有限公司 信息排序方法、用于生成信息排序模型的方法及装置
CN105138523A (zh) * 2014-05-30 2015-12-09 富士通株式会社 在文本中确定语义关键词的方法和装置
WO2019024838A1 (zh) * 2017-07-31 2019-02-07 腾讯科技(深圳)有限公司 检索项的生成方法及相关装置
CN109447246A (zh) * 2018-10-30 2019-03-08 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
CN110019889A (zh) * 2017-12-01 2019-07-16 北京搜狗科技发展有限公司 训练特征提取模型及计算图片与查询词相关性系数的方法和相关装置
CN110020078A (zh) * 2017-12-01 2019-07-16 北京搜狗科技发展有限公司 一种生成相关性映射字典及其验证相关性的方法和相关装置
CN110188360A (zh) * 2019-06-06 2019-08-30 北京百度网讯科技有限公司 模型训练方法和装置
CN110287458A (zh) * 2019-05-20 2019-09-27 暨南大学 一种年报文本标题自动标注系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107402954B (zh) * 2017-05-26 2020-07-10 百度在线网络技术(北京)有限公司 建立排序模型的方法、基于该模型的应用方法和装置
RU2672394C1 (ru) * 2017-07-26 2018-11-14 Общество С Ограниченной Ответственностью "Яндекс" Способы и системы для оценки обучающих объектов посредством алгоритма машинного обучения
US10803055B2 (en) * 2017-12-15 2020-10-13 Accenture Global Solutions Limited Cognitive searches based on deep-learning neural networks

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105138523A (zh) * 2014-05-30 2015-12-09 富士通株式会社 在文本中确定语义关键词的方法和装置
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN104915426A (zh) * 2015-06-12 2015-09-16 百度在线网络技术(北京)有限公司 信息排序方法、用于生成信息排序模型的方法及装置
WO2019024838A1 (zh) * 2017-07-31 2019-02-07 腾讯科技(深圳)有限公司 检索项的生成方法及相关装置
CN110019889A (zh) * 2017-12-01 2019-07-16 北京搜狗科技发展有限公司 训练特征提取模型及计算图片与查询词相关性系数的方法和相关装置
CN110020078A (zh) * 2017-12-01 2019-07-16 北京搜狗科技发展有限公司 一种生成相关性映射字典及其验证相关性的方法和相关装置
CN109447246A (zh) * 2018-10-30 2019-03-08 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
CN110287458A (zh) * 2019-05-20 2019-09-27 暨南大学 一种年报文本标题自动标注系统
CN110188360A (zh) * 2019-06-06 2019-08-30 北京百度网讯科技有限公司 模型训练方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《跨模态检索中的相关度计算研究》;董建锋;《中国优秀博士学位论文全文数据库-信息科技辑》;20190115;全文 *

Also Published As

Publication number Publication date
CN111026849A (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
CN109460513B (zh) 用于生成点击率预测模型的方法和装置
CN111274815B (zh) 用于挖掘文本中的实体关注点的方法和装置
CN107346336B (zh) 基于人工智能的信息处理方法和装置
CN111104482A (zh) 数据处理方法和装置
CN107241260B (zh) 基于人工智能的新闻推送的方法和装置
CN112966712A (zh) 语言模型训练方法、装置、电子设备和计算机可读介质
CN110969012B (zh) 文本纠错方法、装置、存储介质及电子设备
CN111259663B (zh) 信息处理方法和装置
CN111666416B (zh) 用于生成语义匹配模型的方法和装置
CN109858045B (zh) 机器翻译方法和装置
CN111738010B (zh) 用于生成语义匹配模型的方法和装置
CN111915086A (zh) 异常用户预测方法和设备
CN111026849B (zh) 数据处理方法和装置
CN111897950A (zh) 用于生成信息的方法和装置
CN112188311A (zh) 用于确定新闻的视频素材的方法和装置
CN115801980A (zh) 视频生成方法和装置
CN110059172B (zh) 基于自然语言理解的推荐答案的方法和装置
CN108491387B (zh) 用于输出信息的方法和装置
CN114995691B (zh) 一种文档处理方法、装置、设备和介质
CN111400581B (zh) 用于标注样本的系统、方法和装置
CN112182255A (zh) 用于存储媒体文件和用于检索媒体文件的方法和装置
CN109472028B (zh) 用于生成信息的方法和装置
CN111382365A (zh) 用于输出信息的方法和装置
CN112309389A (zh) 信息交互方法和装置
CN109857838B (zh) 用于生成信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant