CN114707516A - 一种基于对比学习的长文本语义相似度计算方法 - Google Patents

一种基于对比学习的长文本语义相似度计算方法 Download PDF

Info

Publication number
CN114707516A
CN114707516A CN202210322393.2A CN202210322393A CN114707516A CN 114707516 A CN114707516 A CN 114707516A CN 202210322393 A CN202210322393 A CN 202210322393A CN 114707516 A CN114707516 A CN 114707516A
Authority
CN
China
Prior art keywords
data
field
model
database
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210322393.2A
Other languages
English (en)
Inventor
王彦浩
张华平
商建云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202210322393.2A priority Critical patent/CN114707516A/zh
Publication of CN114707516A publication Critical patent/CN114707516A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于对比学习的长文本语义相似度计算方法,属于人工智能、自然语言处理技术领域。本发明主要解决的技术问题为小样本场景下长文本语义匹配问题。首先通过爬虫、人工采集手段构建通用、领域数据库。其次使用领域数据库和通用数据库中包含的主题、标题、关键短语等篇章结构信息构建模型,通过有监督的文本表示学习方法对比学习进行训练。最后使用该模型对待评价文本进行预测来获得相似度打分,经过人工修正模块对该语义打分进行修正,并决定是否将该文本加入领域数据库进一步扩大训练资源。定期使用领域资源库更新模型,实现小样本下高精度语义相似度计算。

Description

一种基于对比学习的长文本语义相似度计算方法
技术领域
本发明涉及一种基于对比学习的长文本语义相似度计算方法,属于人工智能、自然语言处理技术领域。
背景技术
语义相似度计算技术在工业界和学术界都有广泛的应用和研究,学术上的信息检索等技术的实现依赖于语义相似度计算实现,工业界上的搜索、推荐、召回等核心功能的实现都需要在语义上衡量文本相似度;以语义相似度计算为基础的核心任务可以细分为三类:短文本-短文本相似度计算,短文本-长文本相似度计算和长文本-长文本相似度计算;长文本相似度计算技术更是当前语义相似度计算研究的重点,目前语义相似度计算相关的任务主要依赖Bert、Roberta等基于预训练的语言模型,虽然其效果、准确率上远超之前的Lstm模型,但是仍然没有很好的解决在有限算力资源下、有限标注数据资源下长文本间的高精度语义相似度计算;因此本发明采用了Bigbird预训练语言模型,在扩大可接受输入长度的基础上,压缩整个模型的训练和推理时间,提升了语义相似度计算的准确性;
除长文本-长文本相似度计算的问题外,在专业的领域中进行文本相似度间计算还需要足够多的先验数据,在当前大模型的架构下,训练数据的需求量高达百万量级,但是完全靠人工标注实现是不现实的。因此本发明改进长文本匹配技术并增加人工校订的流程,可以通过人机交互来扩展领域数据库,进而实现小样本下的在线学习。
发明内容
本发明的目的是针对语义相似度计算领域有标注数据资源匮乏、标注质量低下,整篇文章采用长文本匹配耗时、硬件需求大且存在较多高频低价值信息干扰的问题,提出了一种基于对比学习的长文本语义相似度计算方法,用于篇章语义匹配任务。
本方法面向领域文本信息,使用机器学习技术和文档格式解析技术获取篇章结构信息,将文本特征拆解为多种特征来供模型学习,该模型还可辅助领域专业人员确定相关语句是否为领域数据,进而扩充领域知识库,实现模型在小样本下的在线学习,同时实现模型的高精度研判。满足不同领域、专业的用户对于语义相似度的需求。
本发明的目的是通过下述技术方案实现的。
一种基于对比学习的长文本语义相似度计算方法,包括如下步骤:
步骤1、对需要进行文本语义相似度计算的领域,分别建立领域数据库和通用数据库;
首先,建立领域数据库,该数据库表结构由领域主题字段、领域短语字段、领域标题字段构成;
其中领域数据库的构建由相关领域专业人员,根据自身领域知识以及行业需求,在该领域或单位、公司文档中挑选出和领域内容高度相关的文本信息,并根据主题、短语、文章段落标题等类别分别加入到数据库包含的数据表对应的字段中。
标题数据包括文章大标题、小标题以及在文本中突出显示的内容。主题数据是文章各个段落主题内容的汇聚,由领域专业人员根据自身特征进行总结归纳,短语数据由领域专业人员进行挑选;
其次,建立通用数据库,作为领域数据库的对比数据,通用数据要求包含少量的领域信息,同时在语义上又是与领域无关的数据。
其数据构建方法是通过爬虫技术从知乎、微博、裁判文书网上抓取文章信息,通过LDA主题模型构建方法归纳段落主题信息,利用TF-IDF、文本互信息方法来提取关键短语;根据所抓取文章的段落格式等信息获取标题内容;基于提取的关键词,剔除与当前领域毫不相关的文章,将剩余上述三种篇章结构信息作为主题字段、短语字段、标题字段加入通用数据库中;
步骤2、使用BigBird预训练语言模型,针对长文本信息采用多输入结构进行共享参数训练,包括以下步骤:
步骤2-1、基于通用数据库、领域数据库中的数据构建用于训练的句子对数据。数据包含短语、标题、主题等字段信息,具体包括如下子步骤:
步骤2-1-1、构建正样本,具体采用公示(1)构建:
[CLS]领域数据库ID=x对应的y字段[SEP]领域数据库ID!=x对应的y字段[SEP];(1)
其中x指领域数据库中的ID字段值,y表示文章x对应ID下的短语、标题、主题等字段信息;同一数据库中的数据构建句子对,作为训练数据的正样本;
步骤2-1-2、构建负样本,具体采用公示(2)构建:
[CLS]领域数据库ID=x对应的y字段[SEP]通用数据库ID=z对应的y字段[SEP];(2)
其中x指领域数据库中的ID字段值,z指通用数据库中的ID字段值,y表示文章x或文章z对应ID下的短语、标题、主题等字段信息;不同数据库中的数据构建句子对,作为训练数据的负样本;
其中,ID=x在同一条正负样本中应该是相同的;
步骤2-1-3、构建样本对,按照步骤2-1-1)中构建正样本的方式,由短语、主题、标题三种篇章结构信息形成了正样本的一条数据,同理、按照步骤2-1-2)中构建负样本的方式形成一条负样本数据,按照正样本标签为1,负样本标签为0,构建出一条句子对训练数据;
步骤2-2、将句子对数据按照批次分别输入到Bigbird预训练语言模型中进行训练,整个过程三种篇章结构信息同时输入到模型,并且在训练过程中共享模型参数,模型的损失公式由多部分构成,具体包括以下子步骤:
步骤2-2-1、采用句子对任务进行训练,首先引入对比学习损失函数,具体采用公式(3)构建:
Figure BDA0003570665560000031
其中,N表示一次输入到模型的数据量,hi,表示正样本,
Figure BDA0003570665560000032
表示领域数据库中的其他正样本,
Figure BDA0003570665560000033
表示通用数据库中的数据,作为负样本存在。
步骤2-2-2、句子对任务,不仅引入对比学习损失函数,而且要从多维角度学习正负样本之间的差异,引入hinge loss作为第二损失,具体采用公式(4)构建:
Hinge=0.1+prob--prob+ (4)
其中prob+指正样本经过模型得到的概率打分,该打分反映出样本在深层网络中得到的语义表示和领域内容的贴合程度;prob-指负样本经过模型得到的打分;Hinge是模型需要反向传播的损失,模型需要融合该损失来更新网络参数;
步骤2-2-3、由于数据分类为领域数据和通用数据,领域数据库的内容标签属性为1,相反通用数据库中的数据标签为0,具体采用公式(5)构建:
Y=targetag-probtag (5)
其中,tag为+或-,用来区分正样本和负样本,其中target+=1,target-=1;
步骤2-2-4、通过步骤2-2-1)、步骤2-2-2)、步骤2-2-3)可以加权得到总损失,总损失是用来传递给模型更新网络参数的关键部分,具体采用公式(6)计算:
Total=F(i)*a+Hinge+Y*λ (6)
其中,a表示对比学习损失的加权值,经过试验a取30~36之间模型收敛效果最佳,λ表示分类损失,经过试验λ取值在0.9-0.12之间模型效果最佳;
将训练数据输入Bigbird预训练语言模型进行微调训练,并依据多任务损失反向传播更新模型参数,让模型更优的解决目标函数提出的问题;
步骤3)使用步骤2)训练好的模型,针对待评价长文本进行预处理,输入模型之后获得和当前领域文本的领域相似度打分,包括以下子步骤:
步骤3-1)预处理待评价文章,首先使用格式解析获取当前文本的标题信息、使用LDA方法获取主题信息、使用TF-IDF获取关键词信息;并按照步骤2-1-2)所示构建负样本的方式构建测试数据,其中待预测数据作为通用数据库中的数据存在,领域数据随机从领域数据库中选择;
样本预测的输入格式是单样本形式,与训练输入样本对的结构不同;待评价文章转化为标准输入样本格式之后,进行如下步骤;
步骤3-2、将数据输入步骤2训练后的模型,经过模型对文本信息分词转化,并在高维空间进行向量表示之后,通过模型的门控单元对短语、主题、标题等各个字段的权重信息进行拟合,门控单元采用transformer结构,对于多字段复杂的权重信息拟合效果更佳;输入样本经过门控单元之后获得了与领域文本的相似度打分;
步骤3-3、步骤3)基于领域数据库中不同文章数据打分次数是否大于等于10次,若是,则求出打分的平均值,执行之后步骤;若不是则更换参与匹配的领域数据并转步骤3)继续执行;
步骤4、专业领域人员校订和领域相关文章入库
打分待评价文章时所用模型,是经过冷启动数据训练得到的模型,模型的拟合能力和打分评价效果受限于数据量,为实现长文本在线语义相似度计算,需要对已进行模型预测并获得打分的数据进行人工修正,将打分较高并且人工选中的数据对应的各个字段信息加入到领域数据库中,具体包括以下子步骤;
步骤4-1、首先对于获得打分的文章判断其打分是否高于0.8,若是,则直接通过人工进行去躁并将其对应的字段数据加入领域数据库,结束步骤4)并进入下一步骤,若小于等于0.8且大于0.6则进入如下步骤;
步骤4-2、对于其他步骤中传来的数据,经过人工挑选阶段,经过人工再次确认当前文章是否属于领域数据;若是,则人工进行去躁并将其对应的字段数据加入领域数据库,否则直接将该数据完全遗弃,入库数据为空,并转如下步骤;
步骤4-3、对于打分小于等于0.8且未经过步骤4-2)的数据,首先判断其打分是否大于0.5,若是则直接进行关键词过滤,将非领域信息直接移除,并转步骤4-2、进行处理;若打分小于等于0.5,则该文章经过模型和人工判断之后,不属于相关领域的文章,直接加入通用数据库,可以用来提升之后在线学习训练时样本的复杂度;
步骤5、调用上代模型,持续学习,提升模型效果
冷启动的高准确率领域数据是有限的,模型拟合效果也因此受限,因此需要根据可用领域数据量定期对模型进行训练;具体包括以下子步骤;
步骤5-1、统计领域数据库中的数据量,若数据量小于之前的两倍,则停止,否则转如下步骤;
步骤5-2、使用全新的领域数据,转步骤2)进行训练。
有益效果
本发明一种基于对比学习的长文本语义相似度计算方法,与现有技术相比,具有如下有益效果:
1.所述方法能针对相关领域小样本问题进行极大的改善,使用训练好的模型对文章、长文本信息进行语义评价时,不仅可以获得当前文本和领域知识的相关性的打分,还可以作为领域人员研判当前文本是否属于该领域数据的依据,这一辅助过程极大的缩减领域专业人员的时间消耗,还可以增扩大领域数据库、通用数据库中训练数据量,之后该数据又可用来重新训练模型,提升模型的语义表示能力,实现小样本下的在线语义相似度计算;
2.长文本间语义相似度计算不仅准确率低下,而且对模型和硬件本身都有着极高的需求,这一特征导致篇章级别的长文本间语义相似度计算很难落地实用,本方法所述融合篇章结构信息的方法很好的缓解了这一问题,通过把长文本按照主题、标题、核心短语等关键信息拆解进行共享参数训练,使模型多角度拟合文本语义,该方式不仅提升了文本间语义相似度计算的精度,还将长文本下模型的推理和训练速度提升一个新的高度,保证了模型在相关领域、产业上的实用性;
3.基于对比学习的长文本语义相似度计算方式,充分利用句子对之间的语义差异,通过对比学习目标函数构建的损失充分优化了预训练语言模型的参数;进而提升了模型的推理能力,使得相似度计算打分更加精准高效。
附图说明
图1是本发明方法系统架构;
图2是本发明方法处理流程;
图3是本方明方法步骤1以及实施例1的通用数据库构建流程图;
图4是本方明方法步骤1以及实施例1的领域数据库构建流程图;
图5是本方明方法步骤2以及实施例1的训练模型结构图;
图6是本方明方法步骤3以及实施例1的预测模型结构图;
图7是本方明方法步骤4以及实施例1的相关领域专业人员校订流程图。
具体实施方式
为了使本发明的目的,技术方案及优点更加清楚明白,以下结合附图通过具体实施例,对本发明进一步详细说明。应当理解,此处所描述的具体实施例,仅仅用以解释本发明,并不用于限定本发明。
实施例1
本实施例描述了本发明所述一种基于对比学习的长文本语义相似度计算方法的具体实施。
如图1所示,相似度计算模块依托于数据库构建模块和人工修正模块,该方法适合任何需要进行相似度计算的领域;以定密领域为例介绍该基于对比学习的语义相似度计算方法。
表1领域数据表
序号 字段名 类型 说明
1 ID Int 文章在领域数据库中的标识
2 Theme_Domain Varchar(4096) 文章各段落主题
3 Title_Domain Varchar(1024) 文章各标题
4 Key_Prases_Domain Varchar(1024) 文章核心短语
表2通用数据表
序号 字段名 类型 说明
1 ID Int 文章在通用数据库中的标识
2 Theme_Common Varchar(4096) 文章各段落主题
3 Title_Common Varchar(1024) 文章各标题
4 Key_Prases_Common Varchar(1024) 文章核心短语
其中数据库构建模块主要是构建领域数据库和通用数据库,领域数据库中的结构化数据表如表1所示,通用数据库中的结构化数据表如表2所示,分别由文章各段落主题、文章标题、文章关键短语三个字段组成;首先,通用数据库的构建通过网络爬虫从微博、中国裁判文书网、知乎爬取和定密领域相关的数据,由于保密的性质,其相关文本不会出现在开放网络,因此可将上述爬取的数据全部作为通用数据语料,通过步骤1)所述标题、短语、主题提取算法拆解篇章结构信息按照表2所述数据表结构存储在领域数据库中;至此通用领域数据库初始化构建完毕,领域数据库在当前选定的领域是指定密数据库,使用人员或单位可以将自身判定为涉密的文章作为领域数据库中的资源,并通过步骤1)所述标题、短语、主题提取算法拆解篇章结构信息按照表1所述数据表结构存储在领域数据库中,至此,定密数据库构建完毕;
数据库构建完毕之后按照步骤2-1)所述分别构建等量正负样本,并将数据输入到如图5所示的训练模型结构图中,按照步骤2-2)所示的训练过程和公示更新模型参数,经过监督训练的模型其高纬度语义空间能更好的区分正样本和负样本,进而区分涉密文本和通用非涉密文本,至此,模型训练阶段结束。
模型训练完毕之后其推理准确率得到的大幅的提升,对于需要定密的文章先经过文本预处理和数据清洗,并按照步骤3-1)所述得到文章的标题、主题、短语,再按照步骤3-2)和图6所示模型结构进行预测,获得当前文本和涉密文本的相似度打分,之后按照步骤3-3)执行上述过程,获得打分平均值作为当前文本的最终相似度打分。
深度模型拟合文本的能力虽强,但是需要大量有标注且标注准确的数据作为训练数据才能充分发挥其效果,因此在获得相似度计算打分之后,需要进行步骤4),并按照图7所示流程对当前文本的涉密相关性分数进行评估和校订,并将确定的涉密文本重新加入涉密数据库,作为步骤5的数据源;为了近一步提升模型相似度计算的准确性和减少人工干预,按照步骤五所述,在一定时期或者定密数据库数据量达到一定阈值时,需要重新对模型进行训练,该方法保证了模型的泛化能力,使其达到了在线学习的效果。
以上所述为本发明的较佳实施例而已,本发明不应该局限于该实施例和附图所公开的内容。凡是不脱离本发明所公开的精神下完成的等效或修改,都落入本发明保护的范围。

Claims (3)

1.一种基于对比学习的长文本语义相似度计算方法,其特征在于:包括如下步骤:
步骤1、对需要进行文本语义评价的领域,分别建立领域数据库和通用数据库;
首先将主题、短语、文章段落标题等类别分别加入到数据库包含的数据表对应的字段中;
其次,建立通用数据库,作为领域数据库的对比数据,通用数据要求包含少量的领域信息,同时在语义上又是领域无关的数据;
其数据构建方法是通过爬虫技术从知乎、微博、裁判文书网上抓取文章信息,将抓取且清洗后的三种篇章结构信息作为主题字段、短语字段、标题字段加入通用数据库中;
步骤2、使用BigBird预训练语言模型,针对长文本信息采用多输入结构进行共享参数训练,包括以下步骤:
步骤2-1、基于通用数据库、领域数据库中的数据构建用于训练的句子对数据。数据包含短语、标题、主题等字段信息,具体包括如下子步骤:
步骤2-1-1、构建正样本,具体采用公示(1)构建:
[CLS]领域数据库ID=x对应的y字段[SEP]领域数据库ID!=x对应的y字段[SEP];(1)
其中x指领域数据库中的ID字段值,y表示文章x对应ID下的短语、标题、主题等字段信息;同一数据库中的数据构建句子对,作为训练数据的正样本;
步骤2-1-2、构建负样本,具体采用公示(2)构建:
[CLS]领域数据库ID=x对应的y字段[SEP]通用数据库ID=z对应的y字段[SEP];(2)
其中x指领域数据库中的ID字段值,z指通用数据库中的ID字段值,y表示文章x或文章z对应ID下的短语、标题、主题等字段信息;不同数据库中的数据构建句子对,作为训练数据的负样本;
其中,ID=x在同一条正负样本中应该是相同的;
步骤2-1-3、构建样本对,按照步骤2-1-1)中构建正样本的方式,由短语、主题、标题三种篇章结构信息形成了正样本的一条数据,同理、按照步骤2-1-2) 中构建负样本的方式形成一条负样本数据,按照正样本标签为1,负样本标签为0,构建出一条句子对训练数据;
步骤2-2、将句子对数据按照批次分别输入到Bigbird预训练语言模型中进行训练,整个过程三种篇章结构信息同时输入到模型,并且在训练过程中共享模型参数,模型的损失公式由多部分构成,具体包括以下子步骤:
步骤2-2-1、采用句子对任务进行训练,首先引入对比学习损失函数,具体采用公式(3)构建:
Figure FDA0003570665550000021
其中,N表示一次输入到模型的数据量,hi,表示正样本,
Figure FDA0003570665550000022
表示领域数据库中的其他正样本,
Figure FDA0003570665550000023
表示通用数据库中的数据,作为负样本存在;
步骤2-2-2、句子对任务,不仅引入对比学习损失函数,而且要从多维角度学习正负样本之间的差异,引入hinge loss作为第二损失,具体采用公式(4)构建:
Hinge=0.1+prob--prob+ (4)
其中prob+指正样本经过模型得到的概率打分,该打分反映出样本在深层网络中得到的语义表示和领域内容的贴合程度;prob-指负样本经过模型得到的打分;Hinge是模型需要反向传播的损失,模型需要融合该损失来更新网络参数;
步骤2-2-3、由于数据分类为领域数据和通用数据,领域数据库的内容标签属性为1,相反通用数据库中的数据标签为0,具体采用公式(5)构建:
Y=targettag-probtag (5)
其中,tag为+或-,用来区分正样本和负样本,其中target+=1,target-=1;
步骤2-2-4、通过步骤2-2-1)、步骤2-2-2)、步骤2-2-3)可以加权得到总损失,总损失是用来传递给模型更新网络参数的关键部分,具体采用公式(6)计算:
Total=F(i)*a+Hinge+Y*λ (6)
其中,a表示对比学习损失的加权值,经过试验a取30~36之间模型收敛效果最佳,λ表示分类损失,经过试验λ取值在0.9-0.12之间模型效果最佳;
将训练数据输入Bigbird预训练语言模型进行微调训练,并依据多任务损失反向传播更新模型参数,让模型更优的解决目标函数提出的问题;
步骤3)使用步骤2)训练好的模型,针对待评价长文本进行预处理,输入模型之后获得和当前领域文本的领域相似度打分,包括以下子步骤:
步骤3-1)预处理待评价文章,首先使用格式解析获取当前文本的标题信息、使用LDA方法获取主题信息、使用TF-IDF获取关键词信息;并按照步骤2-1-2)所示构建负样本的方式构建测试数据,其中待预测数据作为通用数据库中的数据存在,领域数据随机从领域数据库中选择;
样本预测的输入格式是单样本形式,与训练输入样本对的结构不同;待评价文章转化为标准输入样本格式之后,进行如下步骤;
步骤3-2、将数据输入步骤2训练后的模型,经过模型对文本信息分词转化,并在高维空间进行向量表示之后,通过模型的门控单元对短语、主题、标题等各个字段的权重信息进行拟合,门控单元采用transformer结构,对于多字段复杂的权重信息拟合效果更佳;输入样本经过门控单元之后获得了与领域文本的相似度打分;
步骤3-3、步骤3)基于领域数据库中不同文章数据打分次数是否大于等于10次,若是,则求出打分的平均值,执行之后步骤;若不是则更换参与匹配的领域数据并转步骤3)继续执行;
步骤4、专业领域人员校订和领域相关文章入库
为实现长文本在线语义相似度计算,需要对已进行模型预测并获得打分的数据进行人工修正,将打分较高并且人工选中的数据对应的各个字段信息加入到领域数据库中;
步骤5、调用上代模型,持续学习,提升模型效果
冷启动的高准确率领域数据是有限的,模型拟合效果也因此受限,因此需要根据可用领域数据量定期对模型进行训练。
2.根据权利要求1所述的一种基于对比学习的长文本语义相似度计算方法,其特征在于:所述步骤4具体包括以下子步骤:
步骤4-1、首先对于获得打分的文章判断其打分是否高于0.8,若是,则直接通过人工进行去躁并将其对应的字段数据加入领域数据库,结束步骤4)并进入下一步骤,若小于等于0.8且大于0.6则进入如下步骤;
步骤4-2、对于其他步骤中传来的数据,经过人工挑选阶段,经过人工再次确认当前文章是否属于领域数据;若是,则人工进行去躁并将其对应的字段数据加入领域数据库,否则直接将该数据完全遗弃,入库数据为空,并转如下步骤;
步骤4-3、对于打分小于等于0.8且未经过步骤4-2)的数据,首先判断其打分是否大于0.5,若是则直接进行关键词过滤,将非领域信息直接移除,并转步骤4-2、进行处理;若打分小于等于0.5,则该文章经过模型和人工判断之后,不属于相关领域的文章,直接加入通用数据库,用来提升之后在线学习训练时样本的复杂度。
3.根据权利要求1所述的一种基于对比学习的长文本语义相似度计算方法,其特征在于:所述步骤5具体包括以下子步骤:
步骤5-1、统计领域数据库中的数据量,若数据量小于之前的两倍,则停止,否则转如下步骤;
步骤5-2、使用全新的领域数据,转步骤2)进行训练。
CN202210322393.2A 2022-03-29 2022-03-29 一种基于对比学习的长文本语义相似度计算方法 Pending CN114707516A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210322393.2A CN114707516A (zh) 2022-03-29 2022-03-29 一种基于对比学习的长文本语义相似度计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210322393.2A CN114707516A (zh) 2022-03-29 2022-03-29 一种基于对比学习的长文本语义相似度计算方法

Publications (1)

Publication Number Publication Date
CN114707516A true CN114707516A (zh) 2022-07-05

Family

ID=82169834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210322393.2A Pending CN114707516A (zh) 2022-03-29 2022-03-29 一种基于对比学习的长文本语义相似度计算方法

Country Status (1)

Country Link
CN (1) CN114707516A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630142A (zh) * 2022-12-08 2023-01-20 中国传媒大学 一种多语言长文本相似性检索与分类工具
CN116167455A (zh) * 2022-12-27 2023-05-26 北京百度网讯科技有限公司 模型训练及数据去重方法、装置、设备及存储介质
CN117973393A (zh) * 2024-03-28 2024-05-03 苏州系统医学研究所 面向医学文本中关键医学信息的精准语义比对方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630142A (zh) * 2022-12-08 2023-01-20 中国传媒大学 一种多语言长文本相似性检索与分类工具
CN116167455A (zh) * 2022-12-27 2023-05-26 北京百度网讯科技有限公司 模型训练及数据去重方法、装置、设备及存储介质
CN116167455B (zh) * 2022-12-27 2023-12-22 北京百度网讯科技有限公司 模型训练及数据去重方法、装置、设备及存储介质
CN117973393A (zh) * 2024-03-28 2024-05-03 苏州系统医学研究所 面向医学文本中关键医学信息的精准语义比对方法及系统

Similar Documents

Publication Publication Date Title
CN110298033B (zh) 关键词语料标注训练提取系统
WO2020000848A1 (zh) 面向海量非结构化文本的知识图谱自动构建方法及系统
CN107180045B (zh) 一种互联网文本蕴含地理实体关系的抽取方法
CN110377715A (zh) 基于法律知识图谱的推理式精准智能问答方法
CN114707516A (zh) 一种基于对比学习的长文本语义相似度计算方法
CN109408743B (zh) 文本链接嵌入方法
EP2430568A1 (en) Methods and systems for knowledge discovery
Bai et al. Applied research of knowledge in the field of artificial intelligence in the intelligent retrieval of teaching resources
CN114428850A (zh) 一种文本检索匹配方法和系统
CN116775812A (zh) 一种基于自然语音处理的中医药专利分析与挖掘工具
Chai Design and implementation of English intelligent communication platform based on similarity algorithm
CN114722176A (zh) 一种智能答疑的方法、装置、介质及电子设备
CN112417170B (zh) 面向不完备知识图谱的关系链接方法
CN116049376B (zh) 一种信创知识检索回复的方法、装置和系统
Zhang et al. Construction of English translation model based on neural network fuzzy semantic optimal control
CN116562280A (zh) 一种基于通用信息抽取的文献分析系统及方法
Žitko et al. Automatic question generation using semantic role labeling for morphologically rich languages
CN114912446A (zh) 一种关键词抽取方法、装置及储存介质
CN113590738A (zh) 一种基于内容与情感的网络敏感信息的检测方法
Hao Naive Bayesian Prediction of Japanese Annotated Corpus for Textual Semantic Word Formation Classification
Pandi et al. Reputation based online product recommendations
CN117540747B (zh) 一种基于人工智能的图书出版智慧选题系统
CN113298365B (zh) 一种基于lstm的文化附加值评估方法
CN117313748B (zh) 面向政务问答的多特征融合语义理解方法及装置
Ning Research on the extraction of accounting multi-relationship information based on cloud computing and multimedia

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination