CN113486169A - 基于bert模型的同义语句生成方法、装置、设备及存储介质 - Google Patents

基于bert模型的同义语句生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113486169A
CN113486169A CN202110851370.6A CN202110851370A CN113486169A CN 113486169 A CN113486169 A CN 113486169A CN 202110851370 A CN202110851370 A CN 202110851370A CN 113486169 A CN113486169 A CN 113486169A
Authority
CN
China
Prior art keywords
sentence
candidate
template
score
bert model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110851370.6A
Other languages
English (en)
Other versions
CN113486169B (zh
Inventor
刘静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An International Smart City Technology Co Ltd
Original Assignee
Ping An International Smart City Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An International Smart City Technology Co Ltd filed Critical Ping An International Smart City Technology Co Ltd
Priority to CN202110851370.6A priority Critical patent/CN113486169B/zh
Publication of CN113486169A publication Critical patent/CN113486169A/zh
Application granted granted Critical
Publication of CN113486169B publication Critical patent/CN113486169B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及人工智能技术领域,提供了一种基于BERT模型的同义语句生成方法、装置、设备及存储介质。所述方法包括:获取待生成同义语句的模板语句,对模板语句执行分词操作得到多个分词,基于预先训练好的BERT模型生成各个分词对应的候选词集,及候选词集中各个候选词的分值,从多个分词中提取出至少一个关键词,基于关键词对应的候选词集对关键词执行替换操作,得到模板语句对应的多个候选语句,基于候选词的分值计算得到每个候选语句的逻辑分值,当逻辑分值大于预设阈值时,将该候选语句作为模板语句的同义语句。本发明可以大量并准确地生成句子的同义语句。本发明还涉及区块链技术领域,上述同义语句可以存储于一区块链的节点中。

Description

基于BERT模型的同义语句生成方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于BERT模型的同义语句生成方法、装置、设备及存储介质。
背景技术
随着人工智能的高速发展以及医院信息化的发展,智能辅助问诊系统也随之产生,智能辅助问诊系统可以支持疾病辅助诊断、健康管理、远程会诊等功能。
由于智能问答系统(例如,智能辅助问诊系统)需要对患者输入的问诊信息进行理解,从而为患者分配合适的科室,而同义不同表达的问诊语句会给系统对语句的语义理解造成困难,因此系统的问答库需要有大量的同义语句才能提高系统理解用户语句的准确性。
现有技术通常利用word2vec模型输出词汇的同义词对原词进行替换得到同义语句,但word2vec无法区分多义词的不同语义。例如,“车”这个字在“一辆车”和“车厘子”中是不同的意思,导致该方式生成的同义问句的准确性并不高。因此,如何大量并准确地生成句子的同义语句,已成为本领域技术人员亟需解决的技术问题。
发明内容
鉴于以上内容,本发明提供一种基于BERT模型的同义语句生成方法、装置、设备及存储介质,其目的在于实现大量并准确地生成句子的同义语句。
为实现上述目的,本发明提供一种基于BERT模型的同义语句生成方法,该方法包括:
获取待生成同义语句的模板语句,对所述模板语句执行分词操作得到多个分词;
基于预先训练好的BERT模型生成各个分词对应的候选词集,及所述候选词集中各个候选词的分值;
从所述多个分词中提取出至少一个关键词,基于所述关键词对应的候选词集对所述关键词执行替换操作,得到所述模板语句对应的多个候选语句;
基于候选词的分值计算得到每个候选语句的逻辑分值,当所述逻辑分值大于预设阈值时,将该候选语句作为所述模板语句的同义语句。
优选的,所述基于预训练的BERT模型生成各个分词对应的候选词集,包括:
对所述模板语句的每个分词依次执行遮蔽操作,得到所述模板语句对应的多个遮蔽序列语句;
将每个遮蔽序列语句分别输入BERT模型,得到每个遮蔽序列语句中遮蔽位置的多个预测词及每个预测词的分值;
根据所述预测词的分值由大到小对各个预测词进行排序,根据排序结果选取第一预设数量的预测词作为该分词对应的候选词集。
优选的,在将每个遮蔽序列语句分别输入BERT模型之前,所述方法还包括:
基于所述BERT模型的嵌入层将各所述遮蔽序列语句转换为特征向量。
优选的,所述从所述多个分词中提取出至少一个关键词,包括:
分别统计每个分词在所述模板语句所属的模板集中出现的次数;
计算所述次数与所述模板集中总语句数的比值;
根据所述比值由小到大对每个分词进行排序,根据排序结果选取第二预设数量的分词作为所述关键词。
优选的,所述基于候选词的分值计算得到每个候选语句的逻辑分值,包括:
对每个候选语句中各个候选词的分值执行对数运算,得到该候选语句的第一结果值,对所述第一结果值执行对数运算,得到该候选语句的逻辑分值。
优选的,所述对每个候选语句中各个候选词的分值执行对数运算的具体计算公式,包括:
Figure BDA0003182435490000021
其中,n表示候选语句的候选词的数量,xn表示候选语句中第n个候选词的分值,pre_prob表示候选语句的第一结果值;
所述对所述第一结果值执行对数运算的具体计算公式,包括:
logistic=epre_prob
其中,logistic表示候选语句的逻辑分值,e表示自然对数函数的底数。
优选的,所述对所述模板语句执行分词操作得到多个分词,包括:
根据正向最大匹配法将模板语句与预设词库进行匹配,得到第一匹配结果,所述第一匹配结果中包含有第一数量的第一词组和第二数量的单字;
根据逆向最大匹配法将模板语句与预设词库进行匹配,得到第二匹配结果,所述第二匹配结果中包含有第三数量的第二词组和第四数量的单字;
若所述第一数量与所述第三数量相等且所述第二数量小于或者等于所述第四数量,或者,若所述第一数量小于所述第三数量,则将所述第一匹配结果作为该模板语句的分词结果;若所述第一数量与所述第二数量相等且所述第三数量大于所述第四数量,或者,若所述第一数量大于所述第三数量,则将所述第二匹配结果作为所述模板语句的分词结果。
为实现上述目的,本发明还提供一种基于BERT模型的同义语句生成装置,该基于BERT模型的同义语句生成装置包括:
分词模块:用于获取待生成同义语句的模板语句,对所述模板语句执行分词操作得到多个分词;
第一生成模块:用于基于预先训练好的BERT模型生成各个分词对应的候选词集,及所述候选词集中各个候选词的分值;
第二生成模块:用于从所述多个分词中提取出至少一个关键词,基于所述关键词对应的候选词集对所述关键词执行替换操作,得到所述模板语句对应的多个候选语句;
选取模块:用于基于候选词的分值计算得到每个候选语句的逻辑分值,当所述逻辑分值大于预设阈值时,将该候选语句作为所述模板语句的同义语句。
为实现上述目的,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的程序,所述程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的基于BERT模型的同义语句生成方法的任意步骤。
为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有基于BERT模型的同义语句生成程序,所述基于BERT模型的同义语句生成程序被处理器执行时,实现如上所述基于BERT模型的同义语句生成方法的任意步骤。
本发明提出的基于BERT模型的同义语句生成方法、装置、设备及存储介质,通过对模板语句执行分词操作得到多个分词,基于BERT模型生成各个分词对应的候选词集,及候选词集中各个候选词的分值,从多个分词中提取出至少一个关键词,基于关键词对应的候选词集对关键词执行替换操作,得到模板语句对应的数量庞大的候选语句,再根据候选词的分值计算得到每个候选语句的逻辑分值,当逻辑分值大于预设阈值时,将该候选语句作为模板语句的同义语句,可以准确地从数量庞大的候选语句中选取模板语句的同义语句。
附图说明
图1为本发明基于BERT模型的同义语句生成方法较佳实施例的流程图示意图;
图2为本发明基于BERT模型的同义语句生成装置较佳实施例的模块示意图;
图3为本发明电子设备较佳实施例的示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种基于BERT模型的同义语句生成方法。参照图1所示,为本发明基于BERT模型的同义语句生成方法的实施例的方法流程示意图。该方法可以由一个电子设备执行,该电子设备可以由软件和/或硬件实现。基于BERT模型的同义语句生成方法包括:
步骤S10:获取待生成同义语句的模板语句,对所述模板语句执行分词操作得到多个分词。
在智能问答系统中,系统对用户输入的问句语义的理解正确与否,是智能问答系统反馈正确答案的关键,同义不同表达的问句可能会给系统对问句的语义理解造成困难,因此在问答对库中存储大量的同义问句可以提高系统理解用户输入问句的语义的准确性。本方案以该场景需要生成问句的同义语句为例对方案进行说明,可以理解的是,本方案的实际应用场景并不仅限于此,还可以是需要大量同义语句作为模型训练的样本数据的场景,例如,AI线上辅助问诊系统需要大量的问诊语料及其对应的同义语句来训练相关的模型。
在本实施例中,从预设数据库(例如,本地数据库或第三方数据库)中的问答对中获取问句作为模板语句,例如,模板语句可以是“法院的裁判要点是怎样的?”,利用jieba分词对模板语句进行分词得到多个分词,得到的分词结果为“法院的裁判要点是怎样的?”。
在一个实施例中,所述对所述模板语句执行分词操作得到多个分词,包括:
根据正向最大匹配法将模板语句与预设词库进行匹配,得到第一匹配结果,所述第一匹配结果中包含有第一数量的第一词组和第二数量的单字;
根据逆向最大匹配法将模板语句与预设词库进行匹配,得到第二匹配结果,所述第二匹配结果中包含有第三数量的第二词组和第四数量的单字;
若所述第一数量与所述第三数量相等且所述第二数量小于或者等于所述第四数量,或者,若所述第一数量小于所述第三数量,则将所述第一匹配结果作为该模板语句的分词结果;若所述第一数量与所述第二数量相等且所述第三数量大于所述第四数量,或者,若所述第一数量大于所述第三数量,则将所述第二匹配结果作为所述模板语句的分词结果。
通过正反向同时进行分词匹配找出单字数量更少,词组数量更多的分词匹配结果,以作为切分的语句的分词结果,可提高分词的准确性。
步骤S20:基于预先训练好的BERT模型生成各个分词对应的候选词集,及所述候选词集中各个候选词的分值。
在本实施例中,BERT模型是基于大量的文本训练得到的,根据BERT模型可以预测出模板语句中各个分词对应的候选词集,以及候选词集中每个候选词的分值。
具体地,所述基于预训练的BERT模型生成各个分词对应的候选词集,包括:
对所述模板语句的每个分词依次执行遮蔽操作,得到所述模板语句对应的多个遮蔽序列语句;
将每个遮蔽序列语句分别输入BERT模型,得到每个遮蔽序列语句中遮蔽位置的多个预测词及每个预测词的分值;
根据所述预测词的分值由大到小对各个预测词进行排序,根据排序结果选取第一预设数量的预测词作为该分词对应的候选词集。
以上述模板语句“法院的裁判要点是怎样的?”为例,对模板语句的每个分词执行遮蔽操作,得到的遮蔽语料语句包括:
mask的裁判要点是怎样的?
法院mask裁判要点是怎样的?
法院的mask要点是怎样的?
法院的裁判mask是怎样的?
法院的裁判要点mask怎样的?
法院的裁判要点是mask的?
法院的裁判要点是怎样mask?
法院的裁判要点是怎样的mask
将每个遮蔽序列语句分别输入BERT模型,可以得到每个遮蔽序列语句对应遮蔽位置的多个预测词及每个预测词的分值。第一个遮蔽词“法院”的预测词及预测词的分值包括:[“法官”0.8764,“法务”0.776,“法人”0.52356,“法律”0.4353,“评委”0.2343]。
再根据预测词的分值由大到小队预测词进行排序,根据排序选择预设数量(例如,2个)的预测词作为该分词的候选词集,则分词“法院”的候选词集包括“法官”及“法务”。
进一步地,所述方法还包括:
基于所述BERT模型的嵌入层将各所述遮蔽序列语句转换为特征向量。
基于BERT模型的嵌入层将遮蔽序列语句转换为特征向量,嵌入层(Embedding)的作用对输入的文本进行向量化表达,embedding层是由token embedding、segmentembedding和position embedding加和组成,token embedding是将词替换为词库的编码,segment embedding是句子编码0或者1,A句为0,B句为1。Position embedding是词在句子中的位置编码0、1、2、3、4......。
步骤S30:从所述多个分词中提取出至少一个关键词,基于所述关键词对应的候选词集对所述关键词执行替换操作,得到所述模板语句对应的多个候选语句。
在本实施例中,从多个分词中提取出多个关键词,例如,模板语句“法院的裁判要点是怎样的?”,其提取的关键词为“法院裁判怎样”。之后,根据每个关键词的候选词集对模板语句的关键词执行替换操作,得到模板语句对应的多个候选语句。
例如:提取的关键词为“法院裁判怎样”,关键词“法院”对应的候选词有“法官、法务”,关键词“裁判”对应的候选词有“裁决、评委”,关键词“怎样”对应的候选词有“怎么、如何”,则根据关键词替换得到的候选语句可以是:
“法官的评委要点是怎么的?
法官的裁决要点是怎么的?
法官的评委要点是如何的?
法官的裁决要点是如何的?
法务的评委要点是怎么的?
法务的裁决要点是怎么的?
法务的评委要点是如何的?
法务的裁决要点是如何的?”。
在一个实施例中,所述从所述多个分词中提取出至少一个关键词,包括:
分别统计每个分词在所述模板语句所属的模板集中出现的次数;
计算所述次数与所述模板集中总语句数的比值;
根据所述比值由小到大对每个分词进行排序,根据排序结果选取第二预设数量的分词作为所述关键词。
由于问句文本长度较短,即关键词在问句中出现的次数一般只有一次,因此只使用逆文档频率IDF值来筛选问句中不重要的词,留下的单词作为问句中重要的词汇,IDF值计算过程可以是:IDF值=分词在模板语句集合中出现的次数/问句总数量。如果IDF值大于预设阈值时,说明该单词出现概率特别高,属于不重要的单词或者是没有重要语义的停用词。反之,则是单词在问句集合中出现的概率低,是较为重要的语义单词。
步骤S40:基于候选词的分值计算得到每个候选语句的逻辑分值,当所述逻辑分值大于预设阈值时,将该候选语句作为所述模板语句的同义语句。
在本实施例中,得到多个候选语句之后,需要从多个候选语句筛选出与模板语句同义的语句,因此,可以根据候选词的分值计算得到各候选语句的逻辑分值,例如,将候选词的分值求和作为候选语句的逻辑分值,或者为关键词赋不同的权重,根据权重及候选词分值加权求和得到候选语句的分值。逻辑分值指句子通顺度,也是句子的合理程度,逻辑分值越高说明该候选语句的语义与模板语句的语义越相似,选取逻辑分值高的候选语句作为模板语句的同义语句,例如,当候选语句的逻辑分值大于预设阈值(例如,0.85)时,将该候选语句作为模板语句的同义语句。
在一个实施例中,所述基于候选词的分值计算得到每个候选语句的逻辑分值,包括:
对每个候选语句中各个候选词的分值执行对数运算,得到该候选语句的第一结果值,对所述第一结果值执行对数运算,得到该候选语句的逻辑分值。
候选语句中每个候选词进行以e为底的对数运算,对所有候选词的对数结果取均值,再对均值进行以e为底的指数运算,句子的逻辑分数是正则化到0-1的取值范围,可以方便后续的逻辑分数对比,将逻辑分值较大的候选语句作为同义语句。
进一步地,所述对每个候选语句中各个候选词的分值执行对数运算的具体计算公式,包括:
Figure BDA0003182435490000081
其中,n表示候选语句的候选词的数量,xn表示候选语句中第n个候选词的分值,pre_prob表示候选语句的第一结果值;
所述对所述第一结果值执行对数运算的具体计算公式,包括:
logistic=epre_prob
其中,logistic表示候选语句的逻辑分值,e表示自然对数函数的底数。
例如,候选语句“法官的判决要点是怎样的?”,每个候选词的分值为:
法官:0.8764
的:0.854
判决:0.7532
要点:0.5463
是:0.987
怎样:0.788
的:0.99
?:0.88
将各候选词的分值代入上式,即可得到该候选语句的逻辑分值。
参照图2所示,为本发明基于BERT模型的同义语句生成装置100的功能模块示意图。
本发明所述基于BERT模型的同义语句生成装置100可以安装于电子设备中。根据实现的功能,所述基于BERT模型的同义语句生成装置100可以包括分词模块110、第一生成模块120、第二生成模块130及选取模块140。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
分词模块110,用于获取待生成同义语句的模板语句,对所述模板语句执行分词操作得到多个分词。
第一生成模块120,用于基于预先训练好的BERT模型生成各个分词对应的候选词集,及所述候选词集中各个候选词的分值。
第二生成模块130:用于从所述多个分词中提取出至少一个关键词,基于所述关键词对应的候选词集对所述关键词执行替换操作,得到所述模板语句对应的多个候选语句。
选取模块140,用于基于候选词的分值计算得到每个候选语句的逻辑分值,当所述逻辑分值大于预设阈值时,将该候选语句作为所述模板语句的同义语句。
在一个实施例中,所述基于预训练的BERT模型生成各个分词对应的候选词集,包括:
对所述模板语句的每个分词依次执行遮蔽操作,得到所述模板语句对应的多个遮蔽序列语句;
将每个遮蔽序列语句分别输入BERT模型,得到每个遮蔽序列语句中遮蔽位置的多个预测词及每个预测词的分值;
根据所述预测词的分值由大到小对各个预测词进行排序,根据排序结果选取第一预设数量的预测词作为该分词对应的候选词集。
在一个实施例中,第一生成模块120还用于:
基于所述BERT模型的嵌入层将各所述遮蔽序列语句转换为特征向量。
在一个实施例中,所述从所述多个分词中提取出至少一个关键词,包括:
分别统计每个分词在所述模板语句所属的模板集中出现的次数;
计算所述次数与所述模板集中总语句数的比值;
根据所述比值由小到大对每个分词进行排序,根据排序结果选取第二预设数量的分词作为所述关键词。
在一个实施例中,所述基于候选词的分值计算得到每个候选语句的逻辑分值,包括:
对每个候选语句中各个候选词的分值执行对数运算,得到该候选语句的第一结果值,对所述第一结果值执行对数运算,得到该候选语句的逻辑分值。
在一个实施例中,所述对每个候选语句中各个候选词的分值执行对数运算的具体计算公式,包括:
Figure BDA0003182435490000101
其中,n表示候选语句的候选词的数量,xn表示候选语句中第n个候选词的分值,pre_prob表示候选语句的第一结果值;
所述对所述第一结果值执行对数运算的具体计算公式,包括:
logistic=epre_prob
其中,logistic表示候选语句的逻辑分值,e表示自然对数函数的底数。
在一个实施例中,所述对所述模板语句执行分词操作得到多个分词,包括:
根据正向最大匹配法将模板语句与预设词库进行匹配,得到第一匹配结果,所述第一匹配结果中包含有第一数量的第一词组和第二数量的单字;
根据逆向最大匹配法将模板语句与预设词库进行匹配,得到第二匹配结果,所述第二匹配结果中包含有第三数量的第二词组和第四数量的单字;
若所述第一数量与所述第三数量相等且所述第二数量小于或者等于所述第四数量,或者,若所述第一数量小于所述第三数量,则将所述第一匹配结果作为该模板语句的分词结果;若所述第一数量与所述第二数量相等且所述第三数量大于所述第四数量,或者,若所述第一数量大于所述第三数量,则将所述第二匹配结果作为所述模板语句的分词结果。
参照图3所示,为本发明电子设备1较佳实施例的示意图。
该电子设备1包括但不限于:存储器11、处理器12、显示器13及网络接口14。所述电子设备1通过网络接口14连接网络,获取原始数据。其中,所述网络可以是企业内部网(Intranet)、互联网(Internet)、全球移动通讯系统(Global System of Mobilecommunication,GSM)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、4G网络、5G网络、蓝牙(Bluetooth)、Wi-Fi、通话网络等无线或有线网络。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器11可以是所述电子设备1的内部存储单元,例如该电子设备1的硬盘或内存。在另一些实施例中,所述存储器11也可以是所述电子设备1的外部存储设备,例如该电子设备1配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器11还可以既包括所述电子设备1的内部存储单元也包括其外部存储设备。本实施例中,存储器11通常用于存储安装于所述电子设备1的操作系统和各类应用软件,例如基于BERT模型的同义语句生成程序10的程序代码等。此外,存储器11还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器12在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器12通常用于控制所述电子设备1的总体操作,例如执行数据交互或者通信相关的控制和处理等。本实施例中,所述处理器12用于运行所述存储器11中存储的程序代码或者处理数据,例如运行基于BERT模型的同义语句生成程序10的程序代码等。
显示器13可以称为显示屏或显示单元。在一些实施例中显示器13可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-EmittingDiode,OLED)触摸器等。显示器13用于显示在电子设备1中处理的信息以及用于显示可视化的工作界面,例如显示数据统计的结果。
网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口),该网络接口14通常用于在所述电子设备1与其它电子设备之间建立通信连接。
图3仅示出了具有组件11-14以及基于BERT模型的同义语句生成程序10的电子设备1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,所述电子设备1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
该电子设备1还可以包括射频(Radio Frequency,RF)电路、传感器和音频电路等等,在此不再赘述。
在上述实施例中,处理器12执行存储器11中存储的基于BERT模型的同义语句生成程序10时可以实现如下步骤:
获取待生成同义语句的模板语句,对所述模板语句执行分词操作得到多个分词;
基于预先训练好的BERT模型生成各个分词对应的候选词集,及所述候选词集中各个候选词的分值;
从所述多个分词中提取出至少一个关键词,基于所述关键词对应的候选词集对所述关键词执行替换操作,得到所述模板语句对应的多个候选语句;
基于候选词的分值计算得到每个候选语句的逻辑分值,当所述逻辑分值大于预设阈值时,将该候选语句作为所述模板语句的同义语句。
所述存储设备可以为电子设备1的存储器11,也可以为与电子设备1通讯连接的其它存储设备。
关于上述步骤的详细介绍,请参照上述图2关于基于BERT模型的同义语句生成装置100实施例的功能模块图以及图1关于基于BERT模型的同义语句生成方法实施例的流程图的说明。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质可以是非易失性的,也可以是易失性的。该计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等等中的任意一种或者几种的任意组合。所述计算机可读存储介质中包括存储数据区和存储程序区,存储数据区存储根据区块链节点的使用所创建的数据,存储程序区存储有基于BERT模型的同义语句生成程序10,所述基于BERT模型的同义语句生成程序10被处理器执行时实现如下操作:
获取待生成同义语句的模板语句,对所述模板语句执行分词操作得到多个分词;
基于预先训练好的BERT模型生成各个分词对应的候选词集,及所述候选词集中各个候选词的分值;
从所述多个分词中提取出至少一个关键词,基于所述关键词对应的候选词集对所述关键词执行替换操作,得到所述模板语句对应的多个候选语句;
基于候选词的分值计算得到每个候选语句的逻辑分值,当所述逻辑分值大于预设阈值时,将该候选语句作为所述模板语句的同义语句。
本发明之计算机可读存储介质的具体实施方式与上述基于BERT模型的同义语句生成方法的具体实施方式大致相同,在此不再赘述。
本发明可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
在另一个实施例中,本发明所提供的基于BERT模型的同义语句生成方法,为进一步保证上述所有出现的数据的私密和安全性,上述所有数据还可以存储于一区块链的节点中。例如候选语句及同义语句等,这些数据均可存储在区块链节点中。
需要说明的是,本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,电子装置,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于BERT模型的同义语句生成方法,其特征在于,所述方法包括:
获取待生成同义语句的模板语句,对所述模板语句执行分词操作得到多个分词;
基于预先训练好的BERT模型生成各个分词对应的候选词集,及所述候选词集中各个候选词的分值;
从所述多个分词中提取出至少一个关键词,基于所述关键词对应的候选词集对所述关键词执行替换操作,得到所述模板语句对应的多个候选语句;
基于候选词的分值计算得到每个候选语句的逻辑分值,当所述逻辑分值大于预设阈值时,将该候选语句作为所述模板语句的同义语句。
2.如权利要求1所述的基于BERT模型的同义语句生成方法,其特征在于,所述基于预训练的BERT模型生成各个分词对应的候选词集,包括:
对所述模板语句的每个分词依次执行遮蔽操作,得到所述模板语句对应的多个遮蔽序列语句;
将每个遮蔽序列语句分别输入BERT模型,得到每个遮蔽序列语句中遮蔽位置的多个预测词及每个预测词的分值;
根据所述预测词的分值由大到小对各个预测词进行排序,根据排序结果选取第一预设数量的预测词作为该分词对应的候选词集。
3.如权利要求2所述的基于BERT模型的同义语句生成方法,其特征在于,在将每个遮蔽序列语句分别输入BERT模型之前,所述方法还包括:
基于所述BERT模型的嵌入层将各所述遮蔽序列语句转换为特征向量。
4.如权利要求1所述的基于BERT模型的同义语句生成方法,其特征在于,所述从所述多个分词中提取出至少一个关键词,包括:
分别统计每个分词在所述模板语句所属的模板集中出现的次数;
计算所述次数与所述模板集中总语句数的比值;
根据所述比值由小到大对每个分词进行排序,根据排序结果选取第二预设数量的分词作为所述关键词。
5.如权利要求1所述的基于BERT模型的同义语句生成方法,其特征在于,所述基于候选词的分值计算得到每个候选语句的逻辑分值,包括:
对每个候选语句中各个候选词的分值执行对数运算,得到该候选语句的第一结果值,对所述第一结果值执行对数运算,得到该候选语句的逻辑分值。
6.如权利要求5所述的基于BERT模型的同义语句生成方法,其特征在于,所述对每个候选语句中各个候选词的分值执行对数运算的具体计算公式,包括:
Figure FDA0003182435480000021
其中,n表示候选语句的候选词的数量,xn表示候选语句中第n个候选词的分值,pre_prob表示候选语句的第一结果值;
所述对所述第一结果值执行对数运算的具体计算公式,包括:
logistic=epre_prob
其中,logistic表示候选语句的逻辑分值,e表示自然对数函数的底数。
7.如权利要求1至6中任意一项所述的基于BERT模型的同义语句生成方法,其特征在于,所述对所述模板语句执行分词操作得到多个分词,包括:
根据正向最大匹配法将模板语句与预设词库进行匹配,得到第一匹配结果,所述第一匹配结果中包含有第一数量的第一词组和第二数量的单字;
根据逆向最大匹配法将模板语句与预设词库进行匹配,得到第二匹配结果,所述第二匹配结果中包含有第三数量的第二词组和第四数量的单字;
若所述第一数量与所述第三数量相等且所述第二数量小于或者等于所述第四数量,或者,若所述第一数量小于所述第三数量,则将所述第一匹配结果作为该模板语句的分词结果;若所述第一数量与所述第二数量相等且所述第三数量大于所述第四数量,或者,若所述第一数量大于所述第三数量,则将所述第二匹配结果作为所述模板语句的分词结果。
8.一种基于BERT模型的同义语句生成装置,其特征在于,所述装置包括:
分词模块:用于获取待生成同义语句的模板语句,对所述模板语句执行分词操作得到多个分词;
第一生成模块:用于基于预先训练好的BERT模型生成各个分词对应的候选词集,及所述候选词集中各个候选词的分值;
第二生成模块:用于从所述多个分词中提取出至少一个关键词,基于所述关键词对应的候选词集对所述关键词执行替换操作,得到所述模板语句对应的多个候选语句;
选取模块:用于基于候选词的分值计算得到每个候选语句的逻辑分值,当所述逻辑分值大于预设阈值时,将该候选语句作为所述模板语句的同义语句。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的程序,所述程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的基于BERT模型的同义语句生成方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有基于BERT模型的同义语句生成程序,所述基于BERT模型的同义语句生成程序被处理器执行时,实现如权利要求1至7中任一项所述基于BERT模型的同义语句生成方法的步骤。
CN202110851370.6A 2021-07-27 2021-07-27 基于bert模型的同义语句生成方法、装置、设备及存储介质 Active CN113486169B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110851370.6A CN113486169B (zh) 2021-07-27 2021-07-27 基于bert模型的同义语句生成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110851370.6A CN113486169B (zh) 2021-07-27 2021-07-27 基于bert模型的同义语句生成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113486169A true CN113486169A (zh) 2021-10-08
CN113486169B CN113486169B (zh) 2024-04-16

Family

ID=77944133

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110851370.6A Active CN113486169B (zh) 2021-07-27 2021-07-27 基于bert模型的同义语句生成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113486169B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116842138A (zh) * 2023-07-24 2023-10-03 上海诚狐信息科技有限公司 基于文档的检索方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016121048A1 (ja) * 2015-01-29 2016-08-04 株式会社日立製作所 文章生成装置及び方法
CN110096572A (zh) * 2019-04-12 2019-08-06 平安普惠企业管理有限公司 一种样本生成方法、装置及计算机可读介质
CN112395867A (zh) * 2020-11-16 2021-02-23 中国平安人寿保险股份有限公司 同义词挖掘方法、装置、存储介质及计算机设备
CN113127621A (zh) * 2021-04-28 2021-07-16 平安国际智慧城市科技股份有限公司 对话模块的推送方法、装置、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016121048A1 (ja) * 2015-01-29 2016-08-04 株式会社日立製作所 文章生成装置及び方法
CN110096572A (zh) * 2019-04-12 2019-08-06 平安普惠企业管理有限公司 一种样本生成方法、装置及计算机可读介质
CN112395867A (zh) * 2020-11-16 2021-02-23 中国平安人寿保险股份有限公司 同义词挖掘方法、装置、存储介质及计算机设备
CN113127621A (zh) * 2021-04-28 2021-07-16 平安国际智慧城市科技股份有限公司 对话模块的推送方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
乔振浩;车万翔;刘挺;: "基于问题生成的知识图谱问答方法", 智能计算机与应用, no. 05, 1 May 2020 (2020-05-01), pages 1 - 5 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116842138A (zh) * 2023-07-24 2023-10-03 上海诚狐信息科技有限公司 基于文档的检索方法、装置、设备及存储介质
CN116842138B (zh) * 2023-07-24 2024-07-19 上海金麦穗信息技术集团有限公司 基于文档的检索方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113486169B (zh) 2024-04-16

Similar Documents

Publication Publication Date Title
CN111444320B (zh) 文本检索方法、装置、计算机设备和存储介质
US20190347571A1 (en) Classifier training
WO2021073390A1 (zh) 数据筛选方法、装置、设备及计算机可读存储介质
US20190317986A1 (en) Annotated text data expanding method, annotated text data expanding computer-readable storage medium, annotated text data expanding device, and text classification model training method
CN112988963B (zh) 基于多流程节点的用户意图预测方法、装置、设备及介质
CN112287069B (zh) 基于语音语义的信息检索方法、装置及计算机设备
CN111695354A (zh) 基于命名实体的文本问答方法、装置及可读存储介质
US11775763B2 (en) Weakly supervised and explainable training of a machine-learning-based named-entity recognition (NER) mechanism
CN113704429A (zh) 基于半监督学习的意图识别方法、装置、设备及介质
CN112860919B (zh) 基于生成模型的数据标注方法、装置、设备及存储介质
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN113360654B (zh) 文本分类方法、装置、电子设备及可读存储介质
CN113656547A (zh) 文本匹配方法、装置、设备及存储介质
CN115309910B (zh) 语篇要素和要素关系联合抽取方法、知识图谱构建方法
CN113505786A (zh) 试题拍照评判方法、装置及电子设备
CN114722832A (zh) 一种摘要提取方法、装置、设备以及存储介质
CN112529743B (zh) 合同要素抽取方法、装置、电子设备及介质
CN113486169B (zh) 基于bert模型的同义语句生成方法、装置、设备及存储介质
CN112668281B (zh) 基于模板的语料自动化扩充方法、装置、设备及介质
CN110991172B (zh) 域名推荐方法、域名推荐模型训练方法及电子设备
CN116954418A (zh) 展厅数字人实现方法、装置、设备及存储介质
CN114842982B (zh) 一种面向医疗信息系统的知识表达方法、装置及系统
CN116483314A (zh) 一种自动化智能活动图生成方法
CN113722477B (zh) 基于多任务学习的网民情绪识别方法、系统及电子设备
CN114398482A (zh) 一种词典构造方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant