CN113378970B - 语句相似性检测方法、装置、电子设备及存储介质 - Google Patents

语句相似性检测方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113378970B
CN113378970B CN202110722490.6A CN202110722490A CN113378970B CN 113378970 B CN113378970 B CN 113378970B CN 202110722490 A CN202110722490 A CN 202110722490A CN 113378970 B CN113378970 B CN 113378970B
Authority
CN
China
Prior art keywords
sentence
similarity
language model
text
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110722490.6A
Other languages
English (en)
Other versions
CN113378970A (zh
Inventor
刘欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Lian Intellectual Property Service Center
Shandong Inspur Chengfang Digital Service Co Ltd
Original Assignee
Shandong Inspur Chengfang Digital Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Inspur Chengfang Digital Service Co Ltd filed Critical Shandong Inspur Chengfang Digital Service Co Ltd
Priority to CN202110722490.6A priority Critical patent/CN113378970B/zh
Publication of CN113378970A publication Critical patent/CN113378970A/zh
Application granted granted Critical
Publication of CN113378970B publication Critical patent/CN113378970B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及人工智能技术,揭露了一种语句相似性检测方法,包括:构建基本语言模型,并利用预先训练好的中文预训练语言模型替换编码层,得到多任务语言模型;利用训练数据集对所述多任务语言模型进行多任务的模型训练;获取用户输入的文本语句,根据所述文本语句获取相关语句集;利用所述训练好的多任务语言模型中的双句相似检测网络计算所述文本语句与所述相关语句集的相似度,得到相似度值;根据所述相似度值对所述相关语句集进行排序显示。此外,本发明还涉及区块链技术,所述相关语句集可存储于区块链的节点。本发明还提出一种语句相似性检测装置、电子设备以及计算机可读存储介质。本发明可以解决语句相似性检测的准确性较低的问题。

Description

语句相似性检测方法、装置、电子设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种语句相似性检测方法、装置、电子设备及计算机可读存储介质。
背景技术
随着大数据时代的到来,网络上信息量的规模不断扩大,如何从海量信息中获取想要的信息,即信息检索,越来越重要。信息检索,往往是通过检测语句的相似性来获取与输入文本相关的数据信息。
现有方法是利用语言模型对语句进行识别和相似性检测,但现有的语言模型都是基于特定领域内且标签数据较少的情况下训练得到的,由于有标签的数据量较少,在实际使用时的泛化能力较差,结果的准确度较低;同时,对于两个语句之间的相似度检测,现有的语言模型在对语句的语义信息获取时,往往是把语句中的所有词向量平均压缩成一个向量,然后再求余弦距离,损失了很多有用的信息,没有考虑单个词的重要性,结果的准确度较低。
发明内容
本发明提供一种语句相似性检测方法、装置及计算机可读存储介质,其主要目的在于解决语句相似性检测的准确性较低的问题。
为实现上述目的,本发明提供的一种语句相似性检测方法,包括:
利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
根据所述相似度值对所述相关语句集中的语句进行排序显示。
可选地,所述利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型,包括:
从预设的数据库中获取带有标签的文本语句,得到训练数据集;
将所述训练数据集的文本语句按照n个数量为一组划分为多个输入数据集;
利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别,并按照预设文本类别对每个文本语句进行类别预测,得到单句类别;
利用所述多任务语言模型中的双句相似检测网络分别计算所述输入数据集中相同单句类别中每一个文本语句与其余文本语句的相似度,得到相似度值集;
根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值;
将所述单句分类损失值和所述差异损失值进行合并得到综合损失值;
根据所述综合损失值对所述多任务语言模型进行参数调整,并返回利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别的步骤,直到所述综合损失值达到预设的停止条件,得到训练好的多任务语言模型。
可选地,所述根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值,包括:
提取所述训练数据集中每个文本语句的类别标签,利用交叉熵损失函数计算所述单句类别相对于所述类别标签的损失,得到单句分类损失值;
利用三元组损失函数和所述相似度值计算所述输入数据集的相对相似损失,得到差异损失值。
可选地,所述根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集,包括:
提取所述文本语句中的关键词;
根据所述关键词在预设文本库中获取含有所述关键词的相关语句,得到所述相关语句集。
可选地,所述计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值,包括:
依次选择所述相关语句集中的其中一个语句,作为当前相关语句;
利用所述训练好的多任务语言模型中的编码层分别对所述当前相关语句和所述文本语句进行词特征提取及向量转换,得到相关词特征向量集和对照词特征向量集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值。
可选地,所述利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值,包括:
基于所述文本语句中的每个词语与所述当前相关语句中的每个词语的位置对应关系,将所述相关词特征向量集和所述对照词特征向量集中的词向量对应组合成多个词向量对;
利用余弦距离公式计算每个所述词向量对的相似度,并利用所述相似度组成相似矩阵;
通过预设的相似度计算公式将所述相似矩阵进行求解,得到相似度值。
可选地,所述根据所述相似度值对所述相关语句集中的语句进行排序显示,包括:
在所述相关语句集中选择所述相似度值大于预设阈值的文本语句,得到待显示语句集;
将所述待显示语句集中的文本语句按照所述相似度值从大到小进行排序,得到显示结果语句集。
为了解决上述问题,本发明还提供一种语句相似性检测装置,所述装置包括:
模型构建模块,用于利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
模型训练模块,用于利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
语句获取模块,用于获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
相似检测模块,用于利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
结果显示模块,用于根据所述相似度值对所述相关语句集中的语句进行排序显示。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的语句相似性检测方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的语句相似性检测方法。
本发明实施例中所述多任务语言模型是基于预先训练好的中文预训练语言模型构建的,所述中文预训练语言模型是利用海量数据进行训练的,可以识别出多种语言文本的语义信息,有效提高对语句的语义信息的识别结果的准确性;所述多任务语言模型在训练时同时学习单句分类任务和双句相似检测任务,且任务之间具有相似性,可以使模型在训练时学习到更好的一种对文本的向量表示,从而来提高单任务学习的效果,并提高模型检测结果的准确性;同时,所述双句相似检测模型在进行语句的相似度检测是,充分利用了语句中的单个词语的特征,减少语句中有用信息的损失,提高了检测结果的准确性。因此本发明提出的语句相似性检测方法、装置、电子设备及计算机可读存储介质,可以解决语句相似性检测的准确性较低的问题。
附图说明
图1为本发明一实施例提供的语句相似性检测方法的流程示意图;
图2为本发明一实施例中图1提供的语句相似性检测方法其中一个步骤的详细流程示意图;
图3为本发明一实施例提供的语句相似性检测装置的功能模块图;
图4为本发明一实施例提供的实现所述语句相似性检测方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种语句相似性检测方法。所述语句相似性检测方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述语句相似性检测方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的语句相似性检测方法的流程示意图。在本实施例中,所述语句相似性检测方法包括:
S1、利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型。
所述单句分类网络是指根据语句的语义判别语句的分类,并对语句进行分类的网络,如将语句分为新闻类、日常生活类或故事类等。所述双句相似检测网络是指检测两个语句之间相似度值的网络。所述双句相似检测网络与所述单句分类网络具有相似性,都需要对语句的语义进行提取学习和判断,且属于同一类别的语句之间的相似性可能会更高。
本发明实施例根据所述单句分类网络及双句相似检测网络利用自然语言处理技术构建基本语言模型。其中,所述自然语言处理技术是能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,及所述基本语言模型是一种基于神经网络的语言模型,如Word2Vec、Fasttext、Bert等。
进一步地,本发明实施例中所述中文预训练语言模型是一种在海量的数据上基于双向翻译(transform)的框架训练出的预训练语言模型,如RoBERTa模型。本发明实施例利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型。
本发明实施例中,所述多任务语言模型包括单句分类网络和双句相似检测网络,所述单句分类网络对应处理单句分类任务,所述双句相似检测网络则处理双句相似检测任务。
可选地,本发明实施例中,所述利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层之前,还包括:
从网络中获取大量的不同类型的语言文本,得到训练数据集;
基于全词遮蔽方式将所述训练数据集输入至中文预训练语言模型中进行文本翻译训练,得到训练好的中文预训练语言模型。
其中,所述多种不同类型的语言文本可以包括新闻、社区讨论、网络书籍、小说和故事类文学等。
其中,所述全词遮蔽方式是指当一个完整的词的部分子词被遮蔽,则同属该词的其他部分也会被遮蔽,即全词遮蔽。所述文本翻译训练是指将输入文本作为上文,而由模型输出对应下文的训练。
本发明实施例通过海量数据训练中文预训练语言模型,使得所述中文预训练语言模型学习了海量的语言信息,可以提高所述中文预训练语言模型对语言文本的语义信息的识别,因此,基于预先训练好的中文预训练语言模型构建的多任务语言模型能够适应对通用语言的学习,并在标签较少的数据量下有效的提高语言模型的泛化能力。
S2、利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型。
详细地,如图2所示,所述S2,包括:
S20、从预设的数据库中获取带有标签的文本语句,得到训练数据集;
S21、将所述训练数据集的文本语句按照n个数量为一组划分为多个输入数据集;
S22、利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别,并按照预设文本类别对每个文本语句进行类别预测,得到单句类别;
S23、利用所述多任务语言模型中的双句相似检测网络分别计算所述输入数据集中相同单句类别中每一个文本语句与其余文本语句的相似度,得到相似度值集;
S24、根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值;
S25、将所述单句分类损失值和所述差异损失值进行合并得到综合损失值;
S26、根据所述综合损失值对所述多任务语言模型进行参数调整,并返回S22步骤,直到所述综合损失值达到预设的停止条件,得到训练好的多任务语言模型。
其中,所述预设的停止条件是所述综合损失值收敛。
进一步地,所述根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值,包括:
提取所述训练数据集中每个文本语句的类别标签,利用交叉熵损失函数计算所述单句类别相对于所述类别标签的损失,得到单句分类损失值;
利用三元组损失函数和所述相似度值计算所述输入数据集的相对相似损失,得到差异损失值。
本发明实施例中,所述多任务语言模型在训练时同时学习多个任务,如语句识别分类任务和双语句相似性检测任务,且双语句相似性检测任务是在每个语句识别的基础上再对两个语句进行相似检测,任务有一定关联性,训练得到的模型可以兼顾语句的识别和语句相似性检测任务,而在单任务模型中,如对语句相似性检测,则可能更多关注语句的相似性,而单语句的语义信息丢失过多,使得语句的语义信息不全,造成最终的检测结果准确性降低。所述多任务语言模型学习到更好的一种对文本的向量表示,从而来提高单任务学习的效果,提高模型检测结果的准确性。
S3、获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集。
详细地,所述根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集,包括:
提取所述文本语句中的关键词;
根据所述关键词在预设文本库中获取含有所述关键词的相关语句,得到所述相关语句集。
可选地,为进一步强调所述相关文本语句集的安全性和隐秘性,所述相关文本语句集还可以存储于一区块链的节点中。
S4、利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值。
详细地,所述利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值,包括:
依次选择所述相关语句集中的其中一个语句,作为当前相关语句;
利用所述训练好的多任务语言模型中的编码层分别对所述当前相关语句和所述文本语句进行词特征提取及向量转换,得到相关词特征向量集和对照词特征向量集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值。
进一步地,所述利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值,包括:
基于所述文本语句中的每个词语与所述当前相关语句中的每个词语的位置对应关系,将所述相关词特征向量集和所述对照词特征向量集中的词向量对应组合成多个词向量对;
利用余弦距离公式计算每个所述词向量对的相似度,并利用所述相似度组成相似矩阵;
通过预设的相似度计算公式将所述相似矩阵进行求解,得到相似度值。本发明实施例中,所述相似度计算公式为:
f(q,d)=tanh(wTφ(M)+b)
其中,f(q,d)是相似度,wTφ(M)是所述相似矩阵的转置矩阵,b是常数系数。
S5、根据所述相似度值对所述相关语句集中的语句进行排序显示。
本发明实施例中根据计算得到相似度值判断所述相关语句集中的文本语句与所述文本语句的相关性,相似度越高表示两个语句越相似,关联程度则越高。
详细地,所述根据所述相似度值对所述相关语句集中的语句进行排序显示,包括:
在所述相关语句集中选择所述相似度值大于预设阈值的文本语句,得到待显示语句集;
将所述待显示语句集中的文本语句按照所述相似度值从大到小进行排序,得到显示结果语句集,并将所述显示结果语句集显示给用户。
本发明实施例在用户检索时,通过双句相似检测模型对用户输入的文本语句与经过粗略查到的相关语句集中的语句进行相似检测,从而提高检索结果的准确性。
本发明实施例通过预训练的中文预训练语言模型构建多任务语言模型,由于所述多任务语言模型中包含已经训练好的中文预训练语言模型,可以识别出大量语言文本的语义信息,因此,对于所述多任务语言模型的训练,则只需要少量带有标签的训练数据集就可以达到预期效果,完成对模型的训练,并在模型进行语句的相似度检测中,充分利用了语句中的单个词语的特征,减少语句中有用信息的损失,提高了模型检测的准确性。
本发明实施例中所述多任务语言模型是基于预先训练好的中文预训练语言模型构建的,所述中文预训练语言模型是利用海量数据进行训练的,可以识别出多种语言文本的语义信息,有效提高对语句的语义信息的识别结果的准确性;所述多任务语言模型在训练时同时学习单句分类任务和双句相似检测任务,且任务之间具有相似性,可以使模型在训练时学习到更好的一种对文本的向量表示,从而来提高单任务学习的效果,并提高模型检测结果的准确性;同时,所述双句相似检测模型在进行语句的相似度检测是,充分利用了语句中的单个词语的特征,减少语句中有用信息的损失,提高了检测结果的准确性。因此本发明提出的语句相似性检测方法、装置、电子设备及计算机可读存储介质,可以解决语句相似性检测的准确性较低的问题。
如图3所示,是本发明一实施例提供的语句相似性检测装置的功能模块图。
本发明所述语句相似性检测装置100可以安装于电子设备中。根据实现的功能,所述语句相似性检测装置100可以包括模型构建模块101、模型训练模块102、语句获取模块103、相似检测模块104及结果显示模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述模型构建模块101,用于利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型。
所述单句分类网络是指根据语句的语义判别语句的分类,并对语句进行分类的网络,如将语句分为新闻类、日常生活类或故事类等。所述双句相似检测网络是指检测两个语句之间相似度值的网络。所述双句相似检测网络与所述单句分类网络具有相似性,都需要对语句的语义进行提取学习和判断,且属于同一类别的语句之间的相似性可能会更高。
本发明实施例根据所述单句分类网络及双句相似检测网络利用自然语言处理技术构建基本语言模型。其中,所述自然语言处理技术是能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,及所述基本语言模型是一种基于神经网络的语言模型,如Word2Vec、Fasttext、Bert等。
进一步地,本发明实施例中所述中文预训练语言模型是一种在海量的数据上基于双向翻译(transform)的框架训练出的预训练语言模型,如RoBERTa模型。本发明实施例利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型。
本发明实施例中,所述多任务语言模型包括单句分类网络和双句相似检测网络,所述单句分类网络对应处理单句分类任务,所述双句相似检测网络则处理双句相似检测任务。
可选地,本发明实施例中,所述利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层之前,还包括:
从网络中获取大量的不同类型的语言文本,得到训练数据集;
基于全词遮蔽方式将所述训练数据集输入至中文预训练语言模型中进行文本翻译训练,得到训练好的中文预训练语言模型。
其中,所述多种不同类型的语言文本可以包括新闻、社区讨论、网络书籍、小说和故事类文学等。
其中,所述全词遮蔽方式是指当一个完整的词的部分子词被遮蔽,则同属该词的其他部分也会被遮蔽,即全词遮蔽。所述文本翻译训练是指将输入文本作为上文,而由模型输出对应下文的训练。
所述模型训练模块102,用于利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型。
详细地,所述模型训练模块102具体用于:
从预设的数据库中获取带有标签的文本语句,得到训练数据集;
将所述训练数据集的文本语句按照n个数量为一组划分为多个输入数据集;
利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别,并按照预设文本类别对每个文本语句进行类别预测,得到单句类别;
利用所述多任务语言模型中的双句相似检测网络分别计算所述输入数据集中相同单句类别中每一个文本语句与其余文本语句的相似度,得到相似度值集;
根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值;
将所述单句分类损失值和所述差异损失值进行合并得到综合损失值;
根据所述综合损失值对所述多任务语言模型进行参数调整,并返回利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别步骤,直到所述综合损失值达到预设的停止条件,得到训练好的多任务语言模型。
其中,所述预设的停止条件是所述综合损失值收敛。
进一步地,所述根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值,包括:
提取所述训练数据集中每个文本语句的类别标签,利用交叉熵损失函数计算所述单句类别相对于所述类别标签的损失,得到单句分类损失值;
利用三元组损失函数和所述相似度值计算所述输入数据集的相对相似损失,得到差异损失值。
所述语句获取模块103,用于获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集。
详细地,所述语句获取模块103具体用于:
提取所述文本语句中的关键词;
根据所述关键词在预设文本库中获取含有所述关键词的相似语句,得到所述相关语句集。
所述相似检测模块104,用于利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值。
详细地,所述相似检测模块104具体用于:
依次选择所述相关语句集中的其中一个语句,作为当前相关语句;
利用所述训练好的多任务语言模型中的编码层分别对所述当前相关语句和所述文本语句进行词特征提取及向量转换,得到相关词特征向量集和对照词特征向量集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值。
进一步地,所述利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值,包括:
基于所述文本语句中的每个词语与所述当前相关语句中的每个词语的位置对应关系,将所述相关词特征向量集和所述对照词特征向量集中的词向量对应组合成多个词向量对;
利用余弦距离公式计算每个所述词向量对的相似度,并利用所述相似度组成相似矩阵;
通过预设的相似度计算公式将所述相似矩阵进行求解,得到相似度值。
本发明实施例中,所述相似度计算公式为:
f(q,d)=tanh(wTφ(M)+b)
其中,f(q,d)是相似度,wTφ(M)是所述相似矩阵的转置矩阵,b是常数系数。
所述结果显示模块105,用于根据所述相似度值对所述相关语句集中的语句进行排序显示。
本发明实施例中根据计算得到相似度值判断所述相关语句集中的文本语句与所述文本语句的相关性,相似度越高表示两个语句越相似,关联程度则越高。
详细地,所述结果显示模块105具体用于:
在所述相关语句集中选择所述相似度值大于预设阈值的文本语句,得到待显示语句集;
将所述待显示语句集中的文本语句按照所述相似度值从大到小进行排序,得到显示结果语句集,并将所述显示结果语句集显示给用户。
如图4所示,是本发明实现语句相似性检测方法的电子设备的结构示意图。
所述电子设备可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如语句相似性检测程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行语句相似性检测程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如语句相似性检测程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备中的所述存储器11存储的语句相似性检测程序是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
根据所述相似度值对所述相关语句集中的语句进行排序显示。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
根据所述相似度值对所述相关语句集中的语句进行排序显示。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (9)

1.一种语句相似性检测方法,其特征在于,所述方法包括:
利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
根据所述相似度值对所述相关语句集中的语句进行排序显示;
其中,所述利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型,包括:从预设的数据库中获取带有标签的文本语句,得到训练数据集;将所述训练数据集的文本语句按照n个数量为一组划分为多个输入数据集;利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别,并按照预设文本类别对每个文本语句进行类别预测,得到单句类别;利用所述多任务语言模型中的双句相似检测网络分别计算所述输入数据集中相同单句类别中每一个文本语句与其余文本语句的相似度,得到相似度值集;根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值;将所述单句分类损失值和所述差异损失值进行合并得到综合损失值;根据所述综合损失值对所述多任务语言模型进行参数调整,并返回利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别的步骤,直到所述综合损失值达到预设的停止条件,得到训练好的多任务语言模型。
2.如权利要求1所述的语句相似性检测方法,其特征在于,所述根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值,包括:
提取所述训练数据集中每个文本语句的类别标签,利用交叉熵损失函数计算所述单句类别相对于所述类别标签的损失,得到单句分类损失值;
利用三元组损失函数和所述相似度值计算所述输入数据集的相对相似损失,得到差异损失值。
3.如权利要求1所述的语句相似性检测方法,其特征在于,所述根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集,包括:
提取所述文本语句中的关键词;
根据所述关键词在预设文本库中获取含有所述关键词的相关语句,得到所述相关语句集。
4.如权利要求1所述的语句相似性检测方法,其特征在于,所述利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值,包括:
依次选择所述相关语句集中的其中一个语句,作为当前相关语句;
利用所述训练好的多任务语言模型中的编码层分别对所述当前相关语句和所述文本语句进行词特征提取及向量转换,得到相关词特征向量集和对照词特征向量集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值。
5.如权利要求4所述的语句相似性检测方法,其特征在于,所述利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值,包括:
基于所述文本语句中的每个词语与所述当前相关语句中的每个词语的位置对应关系,将所述相关词特征向量集和所述对照词特征向量集中的词向量对应组合成多个词向量对;
利用余弦距离公式计算每个所述词向量对的相似度,并利用所述相似度组成相似矩阵;
通过预设的相似度计算公式将所述相似矩阵进行求解,得到相似度值。
6.如权利要求1至5中任意一项所述的语句相似性检测方法,其特征在于,所述根据所述相似度值对所述相关语句集中的语句进行排序显示,包括:
在所述相关语句集中选择所述相似度值大于预设阈值的文本语句,得到待显示语句集;
将所述待显示语句集中的文本语句按照所述相似度值从大到小进行排序,得到显示结果语句集。
7.一种语句相似性检测装置,用于实现如权利要求1至6中任意一项所述的语句相似性检测方法,其特征在于,所述装置包括:
模型构建模块,用于利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
模型训练模块,用于利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
语句获取模块,用于获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
相似检测模块,用于利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
结果显示模块,用于根据所述相似度值对所述相关语句集中的语句进行排序显示。
8.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任意一项所述的语句相似性检测方法。
9.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任意一项所述的语句相似性检测方法。
CN202110722490.6A 2021-06-28 2021-06-28 语句相似性检测方法、装置、电子设备及存储介质 Active CN113378970B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110722490.6A CN113378970B (zh) 2021-06-28 2021-06-28 语句相似性检测方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110722490.6A CN113378970B (zh) 2021-06-28 2021-06-28 语句相似性检测方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113378970A CN113378970A (zh) 2021-09-10
CN113378970B true CN113378970B (zh) 2023-08-22

Family

ID=77579629

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110722490.6A Active CN113378970B (zh) 2021-06-28 2021-06-28 语句相似性检测方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113378970B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114997140B (zh) * 2021-09-17 2023-04-28 荣耀终端有限公司 校验语义的方法和装置
CN113806540B (zh) * 2021-09-18 2023-08-08 平安银行股份有限公司 文本打标签方法、装置、电子设备及存储介质
CN114722154B (zh) * 2022-04-21 2023-02-07 北京易聊科技有限公司 一种适应低算力的大规模相似语句自动抽取方法
CN116955590B (zh) * 2023-09-20 2023-12-08 成都明途科技有限公司 训练数据筛选方法、模型训练方法、文本生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012255867A (ja) * 2011-06-08 2012-12-27 Toyota Motor Corp 音声認識装置
WO2020107765A1 (zh) * 2018-11-30 2020-06-04 深圳前海微众银行股份有限公司 语句分析处理方法、装置、设备以及计算机可读存储介质
CN111611809A (zh) * 2020-05-26 2020-09-01 西藏大学 一种基于神经网络的汉语语句相似度计算方法
CN111652000A (zh) * 2020-05-22 2020-09-11 重庆大学 一种语句相似度判断方法及判断系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509408B (zh) * 2017-02-27 2019-11-22 芋头科技(杭州)有限公司 一种句子相似度判断方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012255867A (ja) * 2011-06-08 2012-12-27 Toyota Motor Corp 音声認識装置
WO2020107765A1 (zh) * 2018-11-30 2020-06-04 深圳前海微众银行股份有限公司 语句分析处理方法、装置、设备以及计算机可读存储介质
CN111652000A (zh) * 2020-05-22 2020-09-11 重庆大学 一种语句相似度判断方法及判断系统
CN111611809A (zh) * 2020-05-26 2020-09-01 西藏大学 一种基于神经网络的汉语语句相似度计算方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于Transformer编码器的语义相似度算法研究;乔伟涛 等;计算机工程与应用;第第57卷卷(第第14期期);全文 *

Also Published As

Publication number Publication date
CN113378970A (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
CN113378970B (zh) 语句相似性检测方法、装置、电子设备及存储介质
CN112541338A (zh) 相似文本匹配方法、装置、电子设备及计算机存储介质
CN112380343A (zh) 问题解析方法、装置、电子设备及存储介质
CN111695354A (zh) 基于命名实体的文本问答方法、装置及可读存储介质
CN115238670B (zh) 信息文本抽取方法、装置、设备及存储介质
CN113886708A (zh) 基于用户信息的产品推荐方法、装置、设备及存储介质
CN114398557A (zh) 基于双画像的信息推荐方法、装置、电子设备及存储介质
CN113706322A (zh) 基于数据分析的服务分发方法、装置、设备及存储介质
CN115221276A (zh) 基于clip的中文图文检索模型训练方法、装置、设备及介质
CN115238115A (zh) 基于中文数据的图像检索方法、装置、设备及存储介质
CN113360654B (zh) 文本分类方法、装置、电子设备及可读存储介质
CN114840684A (zh) 基于医疗实体的图谱构建方法、装置、设备及存储介质
CN113344125B (zh) 长文本匹配识别方法、装置、电子设备及存储介质
CN113918704A (zh) 基于机器学习的问答方法、装置、电子设备及介质
CN114416939A (zh) 智能问答方法、装置、设备及存储介质
CN112632264A (zh) 智能问答方法、装置、电子设备及存储介质
CN116450829A (zh) 医疗文本分类方法、装置、设备及介质
CN116468025A (zh) 电子病历结构化方法、装置、电子设备及存储介质
CN116522944A (zh) 基于多头注意力的图片生成方法、装置、设备及介质
CN114676307A (zh) 基于用户检索的排序模型训练方法、装置、设备及介质
CN112734205A (zh) 模型置信度分析方法、装置、电子设备及计算机存储介质
CN114462411B (zh) 命名实体识别方法、装置、设备及存储介质
CN113486266B (zh) 页面标签添加方法、装置、设备及存储介质
CN115204120B (zh) 保险领域三元组抽取方法、装置、电子设备及存储介质
CN113157865B (zh) 跨语言词向量生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230726

Address after: 518000 Room 202, block B, aerospace micromotor building, No.7, Langshan No.2 Road, Xili street, Nanshan District, Shenzhen City, Guangdong Province

Applicant after: Shenzhen LIAN intellectual property service center

Address before: 518000 Room 201, building A, 1 front Bay Road, Shenzhen Qianhai cooperation zone, Shenzhen, Guangdong

Applicant before: PING AN PUHUI ENTERPRISE MANAGEMENT Co.,Ltd.

Effective date of registration: 20230726

Address after: Room 3206, 32nd Floor, S02 Building, No. 1036 Langchao Road, Jinan Area, China (Shandong) Free Trade Pilot Zone, Jinan City, Shandong Province, 250101

Applicant after: Shandong Inspur Chengfang Digital Service Co.,Ltd.

Address before: 518000 Room 202, block B, aerospace micromotor building, No.7, Langshan No.2 Road, Xili street, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: Shenzhen LIAN intellectual property service center

GR01 Patent grant
GR01 Patent grant