CN113723077A - 基于双向表征模型的句向量生成方法、装置及计算机设备 - Google Patents

基于双向表征模型的句向量生成方法、装置及计算机设备 Download PDF

Info

Publication number
CN113723077A
CN113723077A CN202111012993.0A CN202111012993A CN113723077A CN 113723077 A CN113723077 A CN 113723077A CN 202111012993 A CN202111012993 A CN 202111012993A CN 113723077 A CN113723077 A CN 113723077A
Authority
CN
China
Prior art keywords
initial
text
model
bidirectional
sentence vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111012993.0A
Other languages
English (en)
Other versions
CN113723077B (zh
Inventor
陈浩
谯轶轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202111012993.0A priority Critical patent/CN113723077B/zh
Publication of CN113723077A publication Critical patent/CN113723077A/zh
Application granted granted Critical
Publication of CN113723077B publication Critical patent/CN113723077B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例属于人工智能领域,涉及一种基于双向表征模型的句向量生成方法、装置、计算机设备及存储介质,方法包括:生成初始文本集中各初始文本的回译文本集;根据相似度在回译文本集中确定初始文本的相似文本;通过初始双向表征模型得到初始文本的初始句向量,以及相似文本的相似句向量;对于初始文本,将其相似句向量作为正样本,将初始文本集中其他的初始句向量以及相似句向量作为负样本,以对初始双向表征模型进行对比学习,得到双向表征模型;将待处理文本输入双向表征模型,得到待处理文本的句向量。此外,本申请还涉及区块链技术,初始文本集可存储于区块链中。本申请能够高效地生成准确可用的句向量。

Description

基于双向表征模型的句向量生成方法、装置及计算机设备
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于双向表征模型的句向量生成方法、装置、计算机设备及存储介质。
背景技术
在自然语言处理领域,如何获取高质量的句向量(sentence embedding)一直是研究热点之一。句向量的生成,通常是将句子中的字词(token)映射到可量化的空间。在具体任务中,生成的句向量通常会提供给下游任务做进一步的处理,例如,基于句向量进行相似性计算、分类和聚类等操作。
现有的句向量生成技术,有的是简单地将句子中的词进行分割,然后生成句向量,然而这样会损失句子中的语义信息,影响句向量的准确性;有的是通过有监督学习的方式生成句向量,然而在实际应用中,难易获取到大量优质的、带有标签的训练样本,因此,模型生成的句向量往往不尽如人意。
发明内容
本申请实施例的目的在于提出一种基于双向表征模型的句向量生成方法、装置、计算机设备及存储介质,以高效地生成准确可用的句向量。
为了解决上述技术问题,本申请实施例提供一种基于双向表征模型的句向量生成方法,采用了如下所述的技术方案:
获取初始文本集;
对于所述初始文本集中的每个初始文本,生成所述初始文本的回译文本集;
根据所述初始文本与所述回译文本集中各回译文本之间的相似度,在所述回译文本集中确定所述初始文本的相似文本;
将所述初始文本输入初始双向表征模型得到初始句向量,并将所述相似文本输入所述初始双向表征模型得到相似句向量;
对于所述初始文本,将所述相似句向量设置为所述初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述初始句向量的负样本;
根据所述初始句向量、所述正样本和所述负样本对所述初始双向表征模型进行对比学习训练,得到双向表征模型;
将获取到的待处理文本输入所述双向表征模型,得到所述待处理文本的句向量。
为了解决上述技术问题,本申请实施例还提供一种基于双向表征模型的句向量生成装置,采用了如下所述的技术方案:
文本集获取模块,用于获取初始文本集;
文本集生成模块,用于对于所述初始文本集中的每个初始文本,生成所述初始文本的回译文本集;
相似确定模块,用于根据所述初始文本与所述回译文本集中各回译文本之间的相似度,在所述回译文本集中确定所述初始文本的相似文本;
文本输入模块,用于将所述初始文本输入初始双向表征模型得到初始句向量,并将所述相似文本输入所述初始双向表征模型得到相似句向量;
向量设置模块,用于对于所述初始文本,将所述相似句向量设置为所述初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述初始句向量的负样本;
对比学习模块,用于根据所述初始句向量、所述正样本和所述负样本对所述初始双向表征模型进行对比学习训练,得到双向表征模型;
待处理输入模块,用于将获取到的待处理文本输入所述双向表征模型,得到所述待处理文本的句向量。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
获取初始文本集;
对于所述初始文本集中的每个初始文本,生成所述初始文本的回译文本集;
根据所述初始文本与所述回译文本集中各回译文本之间的相似度,在所述回译文本集中确定所述初始文本的相似文本;
将所述初始文本输入初始双向表征模型得到初始句向量,并将所述相似文本输入所述初始双向表征模型得到相似句向量;
对于所述初始文本,将所述相似句向量设置为所述初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述初始句向量的负样本;
根据所述初始句向量、所述正样本和所述负样本对所述初始双向表征模型进行对比学习训练,得到双向表征模型;
将获取到的待处理文本输入所述双向表征模型,得到所述待处理文本的句向量。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
获取初始文本集;
对于所述初始文本集中的每个初始文本,生成所述初始文本的回译文本集;
根据所述初始文本与所述回译文本集中各回译文本之间的相似度,在所述回译文本集中确定所述初始文本的相似文本;
将所述初始文本输入初始双向表征模型得到初始句向量,并将所述相似文本输入所述初始双向表征模型得到相似句向量;
对于所述初始文本,将所述相似句向量设置为所述初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述初始句向量的负样本;
根据所述初始句向量、所述正样本和所述负样本对所述初始双向表征模型进行对比学习训练,得到双向表征模型;
将获取到的待处理文本输入所述双向表征模型,得到所述待处理文本的句向量。
与现有技术相比,本申请实施例主要有以下有益效果:对于各初始文本,生成初始文本的回译文本集;回译文本集中有多个回译文本,均通过回译的方式生成,未破坏初始文本的数据结构,语义与初始文本相同且通顺连贯;根据初始文本与各回译文本的相似度,筛选出更优的回译文本作为相似文本,提升了相似文本的质量;利用初始双向表征模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行简单分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练后可以将初始句向量与负样本进行充分区分,得到能够生成句向量的双向表征模型;本申请在生成相似文本时未破坏文本的数据结构,减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的基于双向表征模型的句向量生成方法的一个实施例的流程图;
图3是根据本申请的基于双向表征模型的句向量生成装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于双向表征模型的句向量生成方法一般由服务器执行,相应地,基于双向表征模型的句向量生成装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于双向表征模型的句向量生成方法的一个实施例的流程图。所述的基于双向表征模型的句向量生成方法,包括以下步骤:
步骤S201,获取初始文本集。
在本实施例中,基于双向表征模型的句向量生成方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式与终端进行通信。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
具体地,先获取初始文本集,初始文本集中有若干个初始文本。初始文本集可以由双向表征模型的使用场景确定,例如,在图书推荐场景中,需要通过双向表征模型生成句向量,依据句向量查找并推荐相似图书,初始文本集可以是若干本图书的简介。
需要强调的是,为进一步保证上述初始文本集的私密和安全性,上述初始文本集还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
步骤S202,对于初始文本集中的每个初始文本,生成初始文本的回译文本集。
其中,回译文本集可以是由初始文本的回译文本构成的文本集。
具体地,对于初始文本集中的每个初始文本,对初始文本进行回译,得到初始文本的若干个回译文本。回译是指将初始文本从第一语言翻译成第二语言,再从第二语言翻译成第一语言,并不会改变文本语义。
在一个实施例中,在回译时,可以只选择一种第二语言,由于在翻译时可以有多种表述形式,因此可以得到多个回译文本。
在一个实施例中,在回译时,可以选择多种第二语言,基于每种第二语言分别得到至少一个回译文本。
回译可以通过翻译模型实现,由第一翻译模型将初始文本从第一语言翻译成第二语言,再由第二翻译模型从第二语言翻译成第一语言。在一个实施例中,第一翻译模型和第二翻译模型可以直接选择已开源的翻译模型;也可以根据实际需求对已开源的翻译模型进行调整。
步骤S203,根据初始文本与回译文本集中各回译文本之间的相似度,在回译文本集中确定初始文本的相似文本。
具体地,分别计算初始文本与回译文本集中各回译文本之间的相似度,选取具有最高相似度的回译文本作为初始文本的相似文本,以进一步确保相似文本的质量。
初始文本和回译文本的相似度可以通过多种算法实现。在一个实施例中,可以基于无监督的word2vec或者glove计算文本的向量表征,然后计算向量之间的余弦相似度作为文本之间的相似度。
步骤S204,将初始文本输入初始双向表征模型得到初始句向量,并将相似文本输入初始双向表征模型得到相似句向量。
其中,初始双向表征模型可以是尚未训练完毕的双向表征模型,双向表征模型可以根据输入的文本,输出文本所对应的句向量(sentence embedding)。本申请中的双向表征模型可以将文本作为一个整体序列进行处理,双向表征模型除了对文本的各词进行处理,还加入了各词的位置信息,增加了上下文信息,能够学习到文本中所蕴含的语义信息。
具体地,服务器将初始文本输入初始双向表征模型,初始双向表征模型对初始文本进行转化,输出初始文本所对应的初始句向量;将初始文本的相似文本输入初始双向表征模型,得到该相似文本的相似句向量。
可以理解,对于初始文本集中的每个初始文本,均生成对应的相似文本。每个初始文本及其对应的相似文本,都将输入初始双向表征模型,得到相应的初始句向量和相似句向量。并且,初始双向表征模型对输入的任意文本,具有相同的处理方式。
步骤S205,对于初始文本,将相似句向量设置为初始句向量的正样本,并将初始文本集中其他初始文本的初始句向量以及其他初始文本的相似文本所对应的相似句向量设置为初始句向量的负样本。
具体地,本申请在对初始双向表征模型进行训练时需要正样本和负样本。假设初始文本集中有初始文本S1、S2、S3,其对应的相似文本分别为
Figure BDA0003239522260000082
初始文本S1、S2、S3的初始句向量分别为E1、E2、E3,相似文本
Figure BDA0003239522260000083
的相似句向量分别为
Figure BDA0003239522260000084
对于初始文本为S1,其初始句向量为E1,初始文本S1的相似文本为
Figure BDA0003239522260000085
将初始文本S1所对应相似文本
Figure BDA0003239522260000086
的相似句向量
Figure BDA0003239522260000087
设置为正样本,将初始文本集中其他初始文本S2、S3所对应的初始句向量E2、E3,以及初始句向量E2、E3的相似句向量
Figure BDA0003239522260000081
设置为负样本。
步骤S206,根据初始句向量、正样本和负样本对初始双向表征模型进行对比学习训练,得到双向表征模型。
具体地,采用无监督的对比学习(Contrastive Learning)对初始双向表征模型进行训练。在对比学习中,并不一定要求模型关注到样本的每一个细节,只要模型学到的特征能够使当前的样本和其他样本区别开即可。因此,在模型训练中,服务器调整初始双向表征模型,使得模型输出的初始句向量和正样本不断接近,并且尽可能拉大输出的初始句向量和负样本之间的差异。模型训练结束后,得到双向表征模型。
步骤S207,将获取到的待处理文本输入双向表征模型,得到待处理文本的句向量。
具体地,在模型应用时,服务器获取待处理文本,将待处理文本输入训练完毕的双向表征模型,双向表征模型将待处理文本转化为句向量后将其输出。
输出的句向量可以提供给下游任务做进一步的处理。例如,在图书推荐的场景中,要推荐目标图书的相似图书;可以获取各图书的简介,通过双向表征模型生成全部图书简介的句向量。计算目标图书简介的句向量与其他图书简介的句向量之间的余弦相似度,将余弦相似度作为图书之间的相似度,向用户推荐目标图书的相似图书。
本实施例中,对于各初始文本,生成初始文本的回译文本集;回译文本集中有多个回译文本,均通过回译的方式生成,未破坏初始文本的数据结构,语义与初始文本相同且通顺连贯;根据初始文本与各回译文本的相似度,筛选出更优的回译文本作为相似文本,提升了相似文本的质量;利用初始双向表征模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行简单分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练后可以将初始句向量与负样本进行充分区分,得到能够生成句向量的双向表征模型;本申请在生成相似文本时未破坏文本的数据结构,减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
进一步的,上述步骤S202可以包括:对于初始文本集中的各初始文本,确定初始文本所对应的回译语种;基于预设的贪婪算法,按照回译语种对初始文本进行回译,得到回译文本;根据各回译文本构建初始文本的回译文本集。
具体地,在回译时,可以先获取初始文本所对应的回译语种,回译语种是外语语种。回译语种可以有多个,根据回译语种,将初始文本翻译成多种语言的外语文本,然后再翻译多种语言的外语文本,得到多个回译文本。初始文本的各回译文本构成了初始文本的回译文本集。
在对外语文本进行翻译时,可以得到多种结果,且各种结果出现的概率值存在差异。因此,在这个过程中使用了预设的贪婪算法,保证最后的回译文本的概率值最大。
本实施例中,为了得到更多与初始文本相似的回译文本,可以按照多种回译语种进行回译;同时,采用预设的贪婪算法,提高每种回译语种下得到的回译文本的文本质量。
进一步的,上述基于预设的贪婪算法,按照回译语种对初始文本进行回译,得到回译文本的步骤可以包括:将初始文本输入第一翻译模型,得到对应于回译语种的外语文本;当通过第二翻译模型对外语文本进行翻译时,获取针对当前位置的若干个位置概率评估值,以及当前位置的各前序候选序列的序列概率评估值;基于获取到的位置概率评估值和序列概率评估值,计算针对当前位置的各序列概率评估值;对得到的序列概率评估值进行降序排列,并选取预设数量的序列概率评估值;根据选取到的序列概率评估值确定针对当前位置的候选序列;将候选序列作为下一位置的前序候选序列进行迭代,直至最后位置,并基于最大的序列概率评估值得到初始文本的回译文本。
具体地,将初始文本输入第一翻译模型,第一翻译模型将初始文本翻译为对应于某回译语种的外语文本,然后将外语文本输入第二翻译模型,将外语文本翻译回与初始文本相同语种的文本。
本申请采用贪婪算法控制第二翻译模型的翻译过程。第二翻译模型在翻译时,逐位置地迭代生成新的文本,假设在第j-1个位置保留了N种结果,当前需要生成第j个位置,对于第j-1个位置的N种结果,会在其中每一种结果的基础上计算出多个可能的结果;即,进行类似于树状分裂的方式迭代预测,第j个位置的前边各位置的结果会组成前序候选序列。且对于第j个位置的每一种结果,第二翻译模型都会计算出相应的位置概率评估值pj,用于表示第j个位置出现该结果的可能性。当前的第j个位置的前序候选序列中,每个位置的结果的位置概率评估值进行连乘后,可以得到该前序候选序列的序列概率评估值。
将第j个位置的各位置概率评估值与其前序候选序列的序列概率评估值进行相乘,可以得到当前预测分支截止到第j个位置的各序列概率评估值。为了保证预测效果,对第j个位置的各序列概率评估值进行降序排序,然后从中选取排序靠前的若干个序列概率评估值,选取到的每个序列概率评估值指向第j个位置的一种预测结果,从而可以得到第j个位置的候选序列。
将第j个位置的候选序列作为第j+1个位置的前序候选序列进行迭代,直至最后位置,从最后位置的各序列概率评估值中选取最大的序列概率评估值,得到初始文本的回译文本。
假设回译文本可以表示为[y1,y2,...,yj,...,yl],l为回译文本的文本长度,yj表示第j个位置的词,则当前位置的序列概率评估值记为:
Figure BDA0003239522260000111
其中,pk表示第k个位置的位置概率评估值,P(0→j)表示文本生成过程中,在第j个位置的序列概率评估值。在迭代生成过程中,每次都选取前N位的词进行迭代,直至位置l,选取P(0→j)最大值对应的序列作为回译文本。
举例说明,在生成第3个位置时,第3个位置有10种可能的结果,将关联的第二个位置和第一个位置的位置概率评估值与10种可能结果的位置概率评估值分别进行连乘,然后在连乘结果按照由大到小选取前三位,得到第3个位置的3种候选序列;然后按照相同的方式再生成第4个位置,直至最后一个位置,选取最大的序列概率评估值,得到初始文本的回译文本。
本实施例中,通过贪婪算法,计算序列概率评估值生成每个位置的结果,确保了生成的回译文本的准确性。
进一步的,上述步骤S203可以包括:将初始文本和回译文本集中的各回译文本进行分词,得到分词结果;根据分词结果,计算初始文本与各回译文本间的分词交集指数;选取具有最大分词交集指数的回译文本,作为初始文本的相似文本。
其中,分词交集指数是数值型信息,可以表征文本之间的相似度。
具体地,将初始文本和初始文本相关联的各回译文本进行分词处理,得到分词结果;对于每个回译文本,依据分词结果计算初始文本和回译文本的分词交集指数。
在一个实施例中,对于初始文本和一个回译文本,根据分词结果,统计初始文本和回译文本相同分词的数量,将该数量作为分词交集指数。
在一个实施例中,对于初始文本和一个回译文本,根据分词结果,生成初始文本和回译文本中全部分词的分词并集,然后将初始文本和回译文本相同分词作为分词交集;将分词交集中的分词数量与分词并集中分词数量的比值,作为分词交集指数。
分词交集指数可以作为初始文本与回译文本相似度的衡量依据。选取与初始文本具有最大分词交集指数的回译文本,将该回译文本作为初始文本的相似文本。
本实施例中,计算初始文本与各回译文本间的分词交集指数,将分词交集指数作为文本相似度的衡量依据,计算过程简单高效,选取到与初始文本更相似的回译文本。
进一步的,上述将初始文本输入初始双向表征模型得到初始句向量的步骤可以包括:对初始文本进行分词处理,得到若干个子词;将各子词输入初始双向表征模型,以将各子词映射为子词初始向量,并将各子词在初始文本中的位置信息映射为位置初始向量;根据得到的子词初始向量和位置初始向量,生成各子词的向量表征;基于各子词的向量表征,通过初始双向表征模型生成初始文本的初始句向量。
具体地,对初始文本进行分词,得到若干个子词,然后将各子词输入初始双向表征模型。分词处理也可以由初始双向表征模型实现。
初始双向表征模型中的双向表征编码器层对输入的子词进行编码,将各子词分别映射为子词初始向量;每个子词在初始文本中具有位置信息,该位置信息将被映射为位置初始向量。子词初始向量和位置初始向量维度相同,将各子词的子词初始向量和位置初始向量相加,即可得到各子词的向量表征。初始双向表征模型对子词和子词的位置信息同时进行处理,可以获取到各子词的上下文信息,同样的子词,其位置信息不同,计算得到的向量表征也会不同,因此能够生成动态的向量,具有更高的准确性。
各子词的向量表征由初始双向表征模型继续进行处理,最终可以得到初始文本的初始句向量。
本实施例中,对初始文本进行分词得到各子词,除了将子词映射为向量外,还将子词的位置信息映射为向量,可以获取到各子词的上下文信息,提高了各子词向量表征的准确性,以及提高了初始句向量的准确性。
进一步的,上述基于各子词的向量表征,通过初始双向表征模型生成初始文本的初始句向量的步骤可以包括:将各子词的向量表征输入初始双向表征模型的全连接层,得到模型输出信息;从模型输出信息中提取各子词的词向量;计算提取到的各词向量的平均值,得到初始文本的初始句向量。
具体地,初始双向表征模型的最后一层可以是全连接层,各子词的向量表征将被输入全连接层进行计算,还可以在全连接层中进行降维处理,最后由初始双向表征模型输出初始文本所对应的模型输出信息。
模型输出信息可以包括多种信息,其中包括各子词的词向量。从模型输出信息中提取各子词的词向量,然后计算各词向量的平均值,将平均值作为初始文本的初始句向量。
可以理解,初始双向表征模型或者双向表征模型对于输入的文本,处理方式都是相同的。将初始文本的相似文本输入模型时,相似文本也会进行与上文相同的处理过程。
本申请中的初始双向表征模型或者双向表征模型可以是Bert模型。Bert模型是一种预训练语言模型,它将文本作为一个整体序列进行输入。在一个实施例中,还可以使用基于Bert模型的其他模型,例如Roberta模型、Roberta-wwt模型、Roberta-wwt-ext模型等。
本实施例中,获取各子词的词向量,计算词向量的平均值,即可快速得到初始文本的初始句向量。
进一步的,上述步骤S206可以包括:分别计算初始句向量与正样本以及负样本的相似度;根据得到的相似度计算模型损失;根据模型损失调整初始双向表征模型的模型参数,直至模型损失收敛,得到双向表征模型。
具体地,在对比学习中,模型的损失函数如下:
Figure BDA0003239522260000141
Figure BDA0003239522260000142
Figure BDA0003239522260000143
其中,公式(1)是余弦相似性函数的计算公式,B为一个batch中的向量数量,Ei为当前的初始句向量,
Figure BDA0003239522260000144
为Ei的正样本,Ek
Figure BDA0003239522260000145
分别为一个batch中的各初始句向量、关联于初始句向量的相似句向量;Li是针对一个初始句向量计算得到的模型损失,L是一个batch中总的模型损失。
服务器需要计算当前的初始句向量与正样本的相似度,然后计算当前的初始句向量与各负样本的相似度,具体可以是通过余弦相似性函数计算相似度,然后根据公式(2)、公式(3)计算模型损失。
在得到模型损失后,根据模型损失调整初始双向表征模型的模型参数,具体可以是以最大化模型损失为目标,调整初始双向表征模型的模型参数;并在参数调整后将初始文本重新输入模型,以对模型进行迭代训练,直至模型损失不再变化,达到收敛,从而得到最后的双向表征模型。
本实施例中,为了最大化初始句向量和各负样本的差异,基于向量之间的相似度计算模型损失,并根据模型损失调整模型参数,保证了生成的双向表征模型的准确性。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种基于双向表征模型的句向量生成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的基于双向表征模型的句向量生成装置300包括:文本集获取模块301、文本集生成模块302、相似确定模块303、文本输入模块304、向量设置模块305、对比学习模块306以及待处理输入模块307,其中:
文本集获取模块301,用于获取初始文本集。
文本集生成模块302,用于对于初始文本集中的每个初始文本,生成初始文本的回译文本集。
相似确定模块303,用于根据初始文本与回译文本集中各回译文本之间的相似度,在回译文本集中确定初始文本的相似文本。
文本输入模块304,用于将初始文本输入初始双向表征模型得到初始句向量,并将相似文本输入初始双向表征模型得到相似句向量。
向量设置模块305,用于对于初始文本,将相似句向量设置为初始句向量的正样本,并将初始文本集中其他初始文本的初始句向量以及其他初始文本的相似文本所对应的相似句向量设置为初始句向量的负样本。
对比学习模块306,用于根据初始句向量、正样本和负样本对初始双向表征模型进行对比学习训练,得到双向表征模型。
待处理输入模块307,用于将获取到的待处理文本输入双向表征模型,得到待处理文本的句向量。
本实施例中,对于各初始文本,生成初始文本的回译文本集;回译文本集中有多个回译文本,均通过回译的方式生成,未破坏初始文本的数据结构,语义与初始文本相同且通顺连贯;根据初始文本与各回译文本的相似度,筛选出更优的回译文本作为相似文本,提升了相似文本的质量;利用初始双向表征模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行简单分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练后可以将初始句向量与负样本进行充分区分,得到能够生成句向量的双向表征模型;本申请在生成相似文本时未破坏文本的数据结构,减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
在本实施例的一些可选的实现方式中,文本集生成模块302可以包括:语种确定子模块、回译生成子模块以及文本集构建子模块,其中:
语种确定子模块,用于对于初始文本集中的各初始文本,确定初始文本所对应的回译语种。
回译生成子模块,用于基于预设的贪婪算法,按照回译语种对初始文本进行回译,得到回译文本。
文本集构建子模块,用于根据各回译文本构建初始文本的回译文本集。
本实施例中,为了得到更多与初始文本相似的回译文本,可以按照多种回译语种进行回译;同时,采用预设的贪婪算法,提高每种回译语种下得到的回译文本的文本质量。
在本实施例的一些可选的实现方式中,回译生成子模块可以包括:第一翻译单元、概率获取单元、概率计算单元、评估值选取单元、候选确定单元以及序列迭代单元,其中:
第一翻译单元,用于将初始文本输入第一翻译模型,得到对应于回译语种的外语文本。
概率获取单元,用于当通过第二翻译模型对外语文本进行翻译时,获取针对当前位置的若干个位置概率评估值,以及当前位置的各前序候选序列的序列概率评估值。
概率计算单元,用于基于获取到的位置概率评估值和序列概率评估值,计算针对当前位置的各序列概率评估值。
评估值选取单元,用于对得到的序列概率评估值进行降序排列,并选取预设数量的序列概率评估值。
候选确定单元,用于根据选取到的序列概率评估值确定针对当前位置的候选序列。
序列迭代单元,用于将候选序列作为下一位置的前序候选序列进行迭代,直至最后位置,并基于最大的序列概率评估值得到初始文本的回译文本。
本实施例中,通过贪婪算法,计算序列概率评估值生成每个位置的结果,确保了生成的回译文本的准确性。
在本实施例的一些可选的实现方式中,相似确定模块303可以包括:文本分词子模块、指数计算子模块以及文本选取子模块,其中:
文本分词子模块,用于将初始文本和回译文本集中的各回译文本进行分词,得到分词结果。
指数计算子模块,用于根据分词结果,计算初始文本与各回译文本间的分词交集指数。
文本选取子模块,用于选取具有最大分词交集指数的回译文本,作为初始文本的相似文本。
本实施例中,计算初始文本与各回译文本间的分词交集指数,将分词交集指数作为文本相似度的衡量依据,计算过程简单高效,选取到与初始文本更相似的回译文本。
在本实施例的一些可选的实现方式中,文本输入模块304可以包括:初始分词子模块、映射子模块、表征生成子模块以及向量生成子模块,其中:
初始分词子模块,用于对初始文本进行分词处理,得到若干个子词。
映射子模块,用于将各子词输入初始双向表征模型,以将各子词映射为子词初始向量,并将各子词在初始文本中的位置信息映射为位置初始向量。
表征生成子模块,用于根据得到的子词初始向量和位置初始向量,生成各子词的向量表征。
向量生成子模块,用于基于各子词的向量表征,通过初始双向表征模型生成初始文本的初始句向量。
所述文本输入模块304还用于:将相似文本输入初始双向表征模型得到相似句向量。
本实施例中,对初始文本进行分词得到各子词,除了将子词映射为向量外,还将子词的位置信息映射为向量,可以获取到各子词的上下文信息,提高了各子词向量表征的准确性,以及提高了初始句向量的准确性。
在本实施例的一些可选的实现方式中,向量生成子模块可以包括:表征输入单元、向量提取单元以及向量计算单元,其中:
表征输入单元,用于将各子词的向量表征输入初始双向表征模型的全连接层,得到模型输出信息。
向量提取单元,用于从模型输出信息中提取各子词的词向量。
向量计算单元,用于计算提取到的各词向量的平均值,得到初始文本的初始句向量。
本实施例中,获取各子词的词向量,计算词向量的平均值,即可快速得到初始文本的初始句向量。
在本实施例的一些可选的实现方式中,对比学习模块306可以包括:相似度计算子模块、损失计算子模块以及模型调整子模块,其中:
相似度计算子模块,用于分别计算初始句向量与正样本以及负样本的相似度。
损失计算子模块,用于根据得到的相似度计算模型损失。
模型调整子模块,用于根据模型损失调整初始双向表征模型的模型参数,直至模型损失收敛,得到双向表征模型。
本实施例中,为了最大化初始句向量和各负样本的差异,基于向量之间的相似度计算模型损失,并根据模型损失调整模型参数,保证了生成的双向表征模型的准确性。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如基于双向表征模型的句向量生成方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述基于双向表征模型的句向量生成方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本实施例中提供的计算机设备可以执行上述基于双向表征模型的句向量生成方法。此处基于双向表征模型的句向量生成方法可以是上述各个实施例的基于双向表征模型的句向量生成方法。
本实施例中,对于各初始文本,生成初始文本的回译文本集;回译文本集中有多个回译文本,均通过回译的方式生成,未破坏初始文本的数据结构,语义与初始文本相同且通顺连贯;根据初始文本与各回译文本的相似度,筛选出更优的回译文本作为相似文本,提升了相似文本的质量;利用初始双向表征模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行简单分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练后可以将初始句向量与负样本进行充分区分,得到能够生成句向量的双向表征模型;本申请在生成相似文本时未破坏文本的数据结构,减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于双向表征模型的句向量生成方法的步骤。
本实施例中,对于各初始文本,生成初始文本的回译文本集;回译文本集中有多个回译文本,均通过回译的方式生成,未破坏初始文本的数据结构,语义与初始文本相同且通顺连贯;根据初始文本与各回译文本的相似度,筛选出更优的回译文本作为相似文本,提升了相似文本的质量;利用初始双向表征模型生成初始文本的初始句向量和相似文本的相似句向量,避免了对文本中的词进行简单分割造成的语义损失;采用无监督的对比学习,仅将相似文本的相似句向量作为正样本,其余向量均作为负样本,使模型在训练后可以将初始句向量与负样本进行充分区分,得到能够生成句向量的双向表征模型;本申请在生成相似文本时未破坏文本的数据结构,减少了语义损失,且进行无监督的训练,从而能够高效地生成准确可用的句向量。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种基于双向表征模型的句向量生成方法,其特征在于,包括下述步骤:
获取初始文本集;
对于所述初始文本集中的每个初始文本,生成所述初始文本的回译文本集;
根据所述初始文本与所述回译文本集中各回译文本之间的相似度,在所述回译文本集中确定所述初始文本的相似文本;
将所述初始文本输入初始双向表征模型得到初始句向量,并将所述相似文本输入所述初始双向表征模型得到相似句向量;
对于所述初始文本,将所述相似句向量设置为所述初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述初始句向量的负样本;
根据所述初始句向量、所述正样本和所述负样本对所述初始双向表征模型进行对比学习训练,得到双向表征模型;
将获取到的待处理文本输入所述双向表征模型,得到所述待处理文本的句向量。
2.根据权利要求1所述的基于双向表征模型的句向量生成方法,其特征在于,所述对于所述初始文本集中的每个初始文本,生成所述初始文本的回译文本集的步骤包括:
对于所述初始文本集中的各初始文本,确定所述初始文本所对应的回译语种;
基于预设的贪婪算法,按照所述回译语种对所述初始文本进行回译,得到回译文本;
根据各回译文本构建所述初始文本的回译文本集。
3.根据权利要求2所述的基于双向表征模型的句向量生成方法,其特征在于,所述基于预设的贪婪算法,按照所述回译语种对所述初始文本进行回译,得到回译文本的步骤包括:
将所述初始文本输入第一翻译模型,得到对应于所述回译语种的外语文本;
当通过第二翻译模型对所述外语文本进行翻译时,获取针对当前位置的若干个位置概率评估值,以及所述当前位置的各前序候选序列的序列概率评估值;
基于获取到的位置概率评估值和序列概率评估值,计算针对所述当前位置的各序列概率评估值;
对得到的序列概率评估值进行降序排列,并选取预设数量的序列概率评估值;
根据选取到的序列概率评估值确定针对所述当前位置的候选序列;
将所述候选序列作为下一位置的前序候选序列进行迭代,直至最后位置,并基于最大的序列概率评估值得到所述初始文本的回译文本。
4.根据权利要求1所述的基于双向表征模型的句向量生成方法,其特征在于,所述根据所述初始文本与所述回译文本集中各回译文本之间的相似度,在所述回译文本集中确定所述初始文本的相似文本的步骤包括:
将所述初始文本和所述回译文本集中的各回译文本进行分词,得到分词结果;
根据所述分词结果,计算所述初始文本与所述各回译文本间的分词交集指数;
选取具有最大分词交集指数的回译文本,作为所述初始文本的相似文本。
5.根据权利要求1所述的基于双向表征模型的句向量生成方法,其特征在于,所述将所述初始文本输入初始双向表征模型得到初始句向量的步骤包括:
对所述初始文本进行分词处理,得到若干个子词;
将各子词输入初始双向表征模型,以将所述各子词映射为子词初始向量,并将所述各子词在所述初始文本中的位置信息映射为位置初始向量;
根据得到的子词初始向量和位置初始向量,生成所述各子词的向量表征;
基于所述各子词的向量表征,通过所述初始双向表征模型生成所述初始文本的初始句向量。
6.根据权利要求5所述的基于双向表征模型的句向量生成方法,其特征在于,所述基于所述各子词的向量表征,通过所述初始双向表征模型生成所述初始文本的初始句向量的步骤包括:
将所述各子词的向量表征输入所述初始双向表征模型的全连接层,得到模型输出信息;
从所述模型输出信息中提取所述各子词的词向量;
计算提取到的各词向量的平均值,得到所述初始文本的初始句向量。
7.根据权利要求1所述的基于双向表征模型的句向量生成方法,其特征在于,所述根据所述初始句向量、所述正样本和所述负样本对所述初始双向表征模型进行对比学习训练,得到双向表征模型的步骤包括:
分别计算所述初始句向量与所述正样本以及所述负样本的相似度;
根据得到的相似度计算模型损失;
根据所述模型损失调整所述初始双向表征模型的模型参数,直至所述模型损失收敛,得到双向表征模型。
8.一种基于双向表征模型的句向量生成装置,其特征在于,包括:
文本集获取模块,用于获取初始文本集;
文本集生成模块,用于对于所述初始文本集中的每个初始文本,生成所述初始文本的回译文本集;
相似确定模块,用于根据所述初始文本与所述回译文本集中各回译文本之间的相似度,在所述回译文本集中确定所述初始文本的相似文本;
文本输入模块,用于将所述初始文本输入初始双向表征模型得到初始句向量,并将所述相似文本输入所述初始双向表征模型得到相似句向量;
向量设置模块,用于对于所述初始文本,将所述相似句向量设置为所述初始句向量的正样本,并将所述初始文本集中其他初始文本的初始句向量以及所述其他初始文本的相似文本所对应的相似句向量设置为所述初始句向量的负样本;
对比学习模块,用于根据所述初始句向量、所述正样本和所述负样本对所述初始双向表征模型进行对比学习训练,得到双向表征模型;
待处理输入模块,用于将获取到的待处理文本输入所述双向表征模型,得到所述待处理文本的句向量。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的基于双向表征模型的句向量生成方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的基于双向表征模型的句向量生成方法的步骤。
CN202111012993.0A 2021-08-31 2021-08-31 基于双向表征模型的句向量生成方法、装置及计算机设备 Active CN113723077B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111012993.0A CN113723077B (zh) 2021-08-31 2021-08-31 基于双向表征模型的句向量生成方法、装置及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111012993.0A CN113723077B (zh) 2021-08-31 2021-08-31 基于双向表征模型的句向量生成方法、装置及计算机设备

Publications (2)

Publication Number Publication Date
CN113723077A true CN113723077A (zh) 2021-11-30
CN113723077B CN113723077B (zh) 2023-12-22

Family

ID=78679822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111012993.0A Active CN113723077B (zh) 2021-08-31 2021-08-31 基于双向表征模型的句向量生成方法、装置及计算机设备

Country Status (1)

Country Link
CN (1) CN113723077B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114970525A (zh) * 2022-06-14 2022-08-30 城云科技(中国)有限公司 一种文本同事件识别方法、装置及应用
CN114186548B (zh) * 2021-12-15 2023-08-15 平安科技(深圳)有限公司 基于人工智能的句子向量生成方法、装置、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200026761A1 (en) * 2018-07-20 2020-01-23 International Business Machines Corporation Text analysis in unsupported languages
CN111783478A (zh) * 2020-08-18 2020-10-16 Oppo广东移动通信有限公司 机器翻译质量估计方法、装置、设备及存储介质
CN112380837A (zh) * 2020-11-13 2021-02-19 平安科技(深圳)有限公司 基于翻译模型的相似句子匹配方法、装置、设备及介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200026761A1 (en) * 2018-07-20 2020-01-23 International Business Machines Corporation Text analysis in unsupported languages
CN111783478A (zh) * 2020-08-18 2020-10-16 Oppo广东移动通信有限公司 机器翻译质量估计方法、装置、设备及存储介质
CN112380837A (zh) * 2020-11-13 2021-02-19 平安科技(深圳)有限公司 基于翻译模型的相似句子匹配方法、装置、设备及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114186548B (zh) * 2021-12-15 2023-08-15 平安科技(深圳)有限公司 基于人工智能的句子向量生成方法、装置、设备及介质
CN114970525A (zh) * 2022-06-14 2022-08-30 城云科技(中国)有限公司 一种文本同事件识别方法、装置及应用

Also Published As

Publication number Publication date
CN113723077B (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
CN112685565A (zh) 基于多模态信息融合的文本分类方法、及其相关设备
CN111951805A (zh) 一种文本数据处理方法及装置
CN113722438B (zh) 基于句向量模型的句向量生成方法、装置及计算机设备
CN108121699B (zh) 用于输出信息的方法和装置
CN112860919B (zh) 基于生成模型的数据标注方法、装置、设备及存储介质
CN112863683A (zh) 基于人工智能的病历质控方法、装置、计算机设备及存储介质
CN112528029A (zh) 文本分类模型处理方法、装置、计算机设备及存储介质
CN112328761A (zh) 一种意图标签设置方法、装置、计算机设备及存储介质
CN113723077B (zh) 基于双向表征模型的句向量生成方法、装置及计算机设备
CN113505601A (zh) 一种正负样本对构造方法、装置、计算机设备及存储介质
CN114357117A (zh) 事务信息查询方法、装置、计算机设备及存储介质
CN111767714B (zh) 一种文本通顺度确定方法、装置、设备及介质
CN113947095A (zh) 多语种文本翻译方法、装置、计算机设备及存储介质
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN116127060A (zh) 一种基于提示词的文本分类方法及系统
CN115730597A (zh) 多级语义意图识别方法及其相关设备
CN114817478A (zh) 基于文本的问答方法、装置、计算机设备及存储介质
CN113220828B (zh) 意图识别模型处理方法、装置、计算机设备及存储介质
CN114090792A (zh) 基于对比学习的文档关系抽取方法及其相关设备
CN114091452A (zh) 一种基于适配器的迁移学习方法、装置、设备及存储介质
CN112199954B (zh) 基于语音语义的疾病实体匹配方法、装置及计算机设备
CN113505595A (zh) 文本短语抽取方法、装置、计算机设备及存储介质
CN115730237B (zh) 垃圾邮件检测方法、装置、计算机设备及存储介质
CN116796730A (zh) 基于人工智能的文本纠错方法、装置、设备及存储介质
CN114241411B (zh) 基于目标检测的计数模型处理方法、装置及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant