发明内容
本发明提供一种语句相似性检测方法、装置及计算机可读存储介质,其主要目的在于解决语句相似性检测的准确性较低的问题。
为实现上述目的,本发明提供的一种语句相似性检测方法,包括:
利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
根据所述相似度值对所述相关语句集中的语句进行排序显示。
可选地,所述利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型,包括:
从预设的数据库中获取带有标签的文本语句,得到训练数据集;
将所述训练数据集的文本语句按照n个数量为一组划分为多个输入数据集;
利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别,并按照预设文本类别对每个文本语句进行类别预测,得到单句类别;
利用所述多任务语言模型中的双句相似检测网络分别计算所述输入数据集中相同单句类别中每一个文本语句与其余文本语句的相似度,得到相似度值集;
根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值;
将所述单句分类损失值和所述差异损失值进行合并得到综合损失值;
根据所述综合损失值对所述多任务语言模型进行参数调整,并返回利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别的步骤,直到所述综合损失值达到预设的停止条件,得到训练好的多任务语言模型。
可选地,所述根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值,包括:
提取所述训练数据集中每个文本语句的类别标签,利用交叉熵损失函数计算所述单句类别相对于所述类别标签的损失,得到单句分类损失值;
利用三元组损失函数和所述相似度值计算所述输入数据集的相对相似损失,得到差异损失值。
可选地,所述根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集,包括:
提取所述文本语句中的关键词;
根据所述关键词在预设文本库中获取含有所述关键词的相关语句,得到所述相关语句集。
可选地,所述计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值,包括:
依次选择所述相关语句集中的其中一个语句,作为当前相关语句;
利用所述训练好的多任务语言模型中的编码层分别对所述当前相关语句和所述文本语句进行词特征提取及向量转换,得到相关词特征向量集和对照词特征向量集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值。
可选地,所述利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值,包括:
基于所述文本语句中的每个词语与所述当前相关语句中的每个词语的位置对应关系,将所述相关词特征向量集和所述对照词特征向量集中的词向量对应组合成多个词向量对;
利用余弦距离公式计算每个所述词向量对的相似度,并利用所述相似度组成相似矩阵;
通过预设的相似度计算公式将所述相似矩阵进行求解,得到相似度值。
可选地,所述根据所述相似度值对所述相关语句集中的语句进行排序显示,包括:
在所述相关语句集中选择所述相似度值大于预设阈值的文本语句,得到待显示语句集;
将所述待显示语句集中的文本语句按照所述相似度值从大到小进行排序,得到显示结果语句集。
为了解决上述问题,本发明还提供一种语句相似性检测装置,所述装置包括:
模型构建模块,用于利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
模型训练模块,用于利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
语句获取模块,用于获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
相似检测模块,用于利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
结果显示模块,用于根据所述相似度值对所述相关语句集中的语句进行排序显示。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的语句相似性检测方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的语句相似性检测方法。
本发明实施例中所述多任务语言模型是基于预先训练好的中文预训练语言模型构建的,所述中文预训练语言模型是利用海量数据进行训练的,可以识别出多种语言文本的语义信息,有效提高对语句的语义信息的识别结果的准确性;所述多任务语言模型在训练时同时学习单句分类任务和双句相似检测任务,且任务之间具有相似性,可以使模型在训练时学习到更好的一种对文本的向量表示,从而来提高单任务学习的效果,并提高模型检测结果的准确性;同时,所述双句相似检测模型在进行语句的相似度检测是,充分利用了语句中的单个词语的特征,减少语句中有用信息的损失,提高了检测结果的准确性。因此本发明提出的语句相似性检测方法、装置、电子设备及计算机可读存储介质,可以解决语句相似性检测的准确性较低的问题。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种语句相似性检测方法。所述语句相似性检测方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述语句相似性检测方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的语句相似性检测方法的流程示意图。在本实施例中,所述语句相似性检测方法包括:
S1、利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型。
所述单句分类网络是指根据语句的语义判别语句的分类,并对语句进行分类的网络,如将语句分为新闻类、日常生活类或故事类等。所述双句相似检测网络是指检测两个语句之间相似度值的网络。所述双句相似检测网络与所述单句分类网络具有相似性,都需要对语句的语义进行提取学习和判断,且属于同一类别的语句之间的相似性可能会更高。
本发明实施例根据所述单句分类网络及双句相似检测网络利用自然语言处理技术构建基本语言模型。其中,所述自然语言处理技术是能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,及所述基本语言模型是一种基于神经网络的语言模型,如Word2Vec、Fasttext、Bert等。
进一步地,本发明实施例中所述中文预训练语言模型是一种在海量的数据上基于双向翻译(transform)的框架训练出的预训练语言模型,如RoBERTa模型。本发明实施例利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型。
本发明实施例中,所述多任务语言模型包括单句分类网络和双句相似检测网络,所述单句分类网络对应处理单句分类任务,所述双句相似检测网络则处理双句相似检测任务。
可选地,本发明实施例中,所述利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层之前,还包括:
从网络中获取大量的不同类型的语言文本,得到训练数据集;
基于全词遮蔽方式将所述训练数据集输入至中文预训练语言模型中进行文本翻译训练,得到训练好的中文预训练语言模型。
其中,所述多种不同类型的语言文本可以包括新闻、社区讨论、网络书籍、小说和故事类文学等。
其中,所述全词遮蔽方式是指当一个完整的词的部分子词被遮蔽,则同属该词的其他部分也会被遮蔽,即全词遮蔽。所述文本翻译训练是指将输入文本作为上文,而由模型输出对应下文的训练。
本发明实施例通过海量数据训练中文预训练语言模型,使得所述中文预训练语言模型学习了海量的语言信息,可以提高所述中文预训练语言模型对语言文本的语义信息的识别,因此,基于预先训练好的中文预训练语言模型构建的多任务语言模型能够适应对通用语言的学习,并在标签较少的数据量下有效的提高语言模型的泛化能力。
S2、利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型。
详细地,如图2所示,所述S2,包括:
S20、从预设的数据库中获取带有标签的文本语句,得到训练数据集;
S21、将所述训练数据集的文本语句按照n个数量为一组划分为多个输入数据集;
S22、利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别,并按照预设文本类别对每个文本语句进行类别预测,得到单句类别;
S23、利用所述多任务语言模型中的双句相似检测网络分别计算所述输入数据集中相同单句类别中每一个文本语句与其余文本语句的相似度,得到相似度值集;
S24、根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值;
S25、将所述单句分类损失值和所述差异损失值进行合并得到综合损失值;
S26、根据所述综合损失值对所述多任务语言模型进行参数调整,并返回S22步骤,直到所述综合损失值达到预设的停止条件,得到训练好的多任务语言模型。
其中,所述预设的停止条件是所述综合损失值收敛。
进一步地,所述根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值,包括:
提取所述训练数据集中每个文本语句的类别标签,利用交叉熵损失函数计算所述单句类别相对于所述类别标签的损失,得到单句分类损失值;
利用三元组损失函数和所述相似度值计算所述输入数据集的相对相似损失,得到差异损失值。
本发明实施例中,所述多任务语言模型在训练时同时学习多个任务,如语句识别分类任务和双语句相似性检测任务,且双语句相似性检测任务是在每个语句识别的基础上再对两个语句进行相似检测,任务有一定关联性,训练得到的模型可以兼顾语句的识别和语句相似性检测任务,而在单任务模型中,如对语句相似性检测,则可能更多关注语句的相似性,而单语句的语义信息丢失过多,使得语句的语义信息不全,造成最终的检测结果准确性降低。所述多任务语言模型学习到更好的一种对文本的向量表示,从而来提高单任务学习的效果,提高模型检测结果的准确性。
S3、获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集。
详细地,所述根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集,包括:
提取所述文本语句中的关键词;
根据所述关键词在预设文本库中获取含有所述关键词的相关语句,得到所述相关语句集。
可选地,为进一步强调所述相关文本语句集的安全性和隐秘性,所述相关文本语句集还可以存储于一区块链的节点中。
S4、利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值。
详细地,所述利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值,包括:
依次选择所述相关语句集中的其中一个语句,作为当前相关语句;
利用所述训练好的多任务语言模型中的编码层分别对所述当前相关语句和所述文本语句进行词特征提取及向量转换,得到相关词特征向量集和对照词特征向量集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值。
进一步地,所述利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值,包括:
基于所述文本语句中的每个词语与所述当前相关语句中的每个词语的位置对应关系,将所述相关词特征向量集和所述对照词特征向量集中的词向量对应组合成多个词向量对;
利用余弦距离公式计算每个所述词向量对的相似度,并利用所述相似度组成相似矩阵;
通过预设的相似度计算公式将所述相似矩阵进行求解,得到相似度值。本发明实施例中,所述相似度计算公式为:
f(q,d)=tanh(wTφ(M)+b)
其中,f(q,d)是相似度,wTφ(M)是所述相似矩阵的转置矩阵,b是常数系数。
S5、根据所述相似度值对所述相关语句集中的语句进行排序显示。
本发明实施例中根据计算得到相似度值判断所述相关语句集中的文本语句与所述文本语句的相关性,相似度越高表示两个语句越相似,关联程度则越高。
详细地,所述根据所述相似度值对所述相关语句集中的语句进行排序显示,包括:
在所述相关语句集中选择所述相似度值大于预设阈值的文本语句,得到待显示语句集;
将所述待显示语句集中的文本语句按照所述相似度值从大到小进行排序,得到显示结果语句集,并将所述显示结果语句集显示给用户。
本发明实施例在用户检索时,通过双句相似检测模型对用户输入的文本语句与经过粗略查到的相关语句集中的语句进行相似检测,从而提高检索结果的准确性。
本发明实施例通过预训练的中文预训练语言模型构建多任务语言模型,由于所述多任务语言模型中包含已经训练好的中文预训练语言模型,可以识别出大量语言文本的语义信息,因此,对于所述多任务语言模型的训练,则只需要少量带有标签的训练数据集就可以达到预期效果,完成对模型的训练,并在模型进行语句的相似度检测中,充分利用了语句中的单个词语的特征,减少语句中有用信息的损失,提高了模型检测的准确性。
本发明实施例中所述多任务语言模型是基于预先训练好的中文预训练语言模型构建的,所述中文预训练语言模型是利用海量数据进行训练的,可以识别出多种语言文本的语义信息,有效提高对语句的语义信息的识别结果的准确性;所述多任务语言模型在训练时同时学习单句分类任务和双句相似检测任务,且任务之间具有相似性,可以使模型在训练时学习到更好的一种对文本的向量表示,从而来提高单任务学习的效果,并提高模型检测结果的准确性;同时,所述双句相似检测模型在进行语句的相似度检测是,充分利用了语句中的单个词语的特征,减少语句中有用信息的损失,提高了检测结果的准确性。因此本发明提出的语句相似性检测方法、装置、电子设备及计算机可读存储介质,可以解决语句相似性检测的准确性较低的问题。
如图3所示,是本发明一实施例提供的语句相似性检测装置的功能模块图。
本发明所述语句相似性检测装置100可以安装于电子设备中。根据实现的功能,所述语句相似性检测装置100可以包括模型构建模块101、模型训练模块102、语句获取模块103、相似检测模块104及结果显示模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述模型构建模块101,用于利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型。
所述单句分类网络是指根据语句的语义判别语句的分类,并对语句进行分类的网络,如将语句分为新闻类、日常生活类或故事类等。所述双句相似检测网络是指检测两个语句之间相似度值的网络。所述双句相似检测网络与所述单句分类网络具有相似性,都需要对语句的语义进行提取学习和判断,且属于同一类别的语句之间的相似性可能会更高。
本发明实施例根据所述单句分类网络及双句相似检测网络利用自然语言处理技术构建基本语言模型。其中,所述自然语言处理技术是能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,及所述基本语言模型是一种基于神经网络的语言模型,如Word2Vec、Fasttext、Bert等。
进一步地,本发明实施例中所述中文预训练语言模型是一种在海量的数据上基于双向翻译(transform)的框架训练出的预训练语言模型,如RoBERTa模型。本发明实施例利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型。
本发明实施例中,所述多任务语言模型包括单句分类网络和双句相似检测网络,所述单句分类网络对应处理单句分类任务,所述双句相似检测网络则处理双句相似检测任务。
可选地,本发明实施例中,所述利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层之前,还包括:
从网络中获取大量的不同类型的语言文本,得到训练数据集;
基于全词遮蔽方式将所述训练数据集输入至中文预训练语言模型中进行文本翻译训练,得到训练好的中文预训练语言模型。
其中,所述多种不同类型的语言文本可以包括新闻、社区讨论、网络书籍、小说和故事类文学等。
其中,所述全词遮蔽方式是指当一个完整的词的部分子词被遮蔽,则同属该词的其他部分也会被遮蔽,即全词遮蔽。所述文本翻译训练是指将输入文本作为上文,而由模型输出对应下文的训练。
所述模型训练模块102,用于利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型。
详细地,所述模型训练模块102具体用于:
从预设的数据库中获取带有标签的文本语句,得到训练数据集;
将所述训练数据集的文本语句按照n个数量为一组划分为多个输入数据集;
利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别,并按照预设文本类别对每个文本语句进行类别预测,得到单句类别;
利用所述多任务语言模型中的双句相似检测网络分别计算所述输入数据集中相同单句类别中每一个文本语句与其余文本语句的相似度,得到相似度值集;
根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值;
将所述单句分类损失值和所述差异损失值进行合并得到综合损失值;
根据所述综合损失值对所述多任务语言模型进行参数调整,并返回利用所述多任务语言模型中的单句分类网络对所述输入数据集中的每个文本语句进行语义识别步骤,直到所述综合损失值达到预设的停止条件,得到训练好的多任务语言模型。
其中,所述预设的停止条件是所述综合损失值收敛。
进一步地,所述根据所述训练数据集的标签和预设的损失函数分别计算所述单句类别的损失值和所述相似度值的损失值,得到单句分类损失值和差异损失值,包括:
提取所述训练数据集中每个文本语句的类别标签,利用交叉熵损失函数计算所述单句类别相对于所述类别标签的损失,得到单句分类损失值;
利用三元组损失函数和所述相似度值计算所述输入数据集的相对相似损失,得到差异损失值。
所述语句获取模块103,用于获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集。
详细地,所述语句获取模块103具体用于:
提取所述文本语句中的关键词;
根据所述关键词在预设文本库中获取含有所述关键词的相似语句,得到所述相关语句集。
所述相似检测模块104,用于利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值。
详细地,所述相似检测模块104具体用于:
依次选择所述相关语句集中的其中一个语句,作为当前相关语句;
利用所述训练好的多任务语言模型中的编码层分别对所述当前相关语句和所述文本语句进行词特征提取及向量转换,得到相关词特征向量集和对照词特征向量集;
利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值。
进一步地,所述利用所述训练好的多任务语言模型中的双句相似检测网络计算所述相关词特征向量集和所述对照词特征向量集的相似度,得到相似度值,包括:
基于所述文本语句中的每个词语与所述当前相关语句中的每个词语的位置对应关系,将所述相关词特征向量集和所述对照词特征向量集中的词向量对应组合成多个词向量对;
利用余弦距离公式计算每个所述词向量对的相似度,并利用所述相似度组成相似矩阵;
通过预设的相似度计算公式将所述相似矩阵进行求解,得到相似度值。
本发明实施例中,所述相似度计算公式为:
f(q,d)=tanh(wTφ(M)+b)
其中,f(q,d)是相似度,wTφ(M)是所述相似矩阵的转置矩阵,b是常数系数。
所述结果显示模块105,用于根据所述相似度值对所述相关语句集中的语句进行排序显示。
本发明实施例中根据计算得到相似度值判断所述相关语句集中的文本语句与所述文本语句的相关性,相似度越高表示两个语句越相似,关联程度则越高。
详细地,所述结果显示模块105具体用于:
在所述相关语句集中选择所述相似度值大于预设阈值的文本语句,得到待显示语句集;
将所述待显示语句集中的文本语句按照所述相似度值从大到小进行排序,得到显示结果语句集,并将所述显示结果语句集显示给用户。
如图4所示,是本发明实现语句相似性检测方法的电子设备的结构示意图。
所述电子设备可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如语句相似性检测程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行语句相似性检测程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如语句相似性检测程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备中的所述存储器11存储的语句相似性检测程序是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
根据所述相似度值对所述相关语句集中的语句进行排序显示。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
利用自然语言处理技术,根据单句分类网络及双句相似检测网络构建基本语言模型,并利用预先训练好的中文预训练语言模型替换所述基本语言模型中的编码层,得到多任务语言模型;
利用训练数据集计算所述单句分类网络和双句相似检测网络的综合损失,并根据所述综合损失对所述多任务语言模型进行多任务的迭代训练,得到训练好的多任务语言模型;
获取用户输入的文本语句,根据所述文本语句在预设文本库中获取与所述文本语句具有关联性的相关语句集;
利用所述训练好的多任务语言模型计算所述文本语句与所述相关语句集中的每个语句的相似度,得到相似度值;
根据所述相似度值对所述相关语句集中的语句进行排序显示。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。