CN112989043B - 指代消解方法、装置、电子设备及可读存储介质 - Google Patents
指代消解方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN112989043B CN112989043B CN202110283482.6A CN202110283482A CN112989043B CN 112989043 B CN112989043 B CN 112989043B CN 202110283482 A CN202110283482 A CN 202110283482A CN 112989043 B CN112989043 B CN 112989043B
- Authority
- CN
- China
- Prior art keywords
- text
- training sample
- historical
- sample set
- dialogue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 200
- 238000013136 deep learning model Methods 0.000 claims abstract description 45
- 230000029087 digestion Effects 0.000 claims abstract description 41
- 238000004458 analytical method Methods 0.000 claims abstract description 26
- 238000010276 construction Methods 0.000 claims abstract description 15
- 238000012098 association analyses Methods 0.000 claims abstract description 8
- 230000011218 segmentation Effects 0.000 claims description 66
- 238000000605 extraction Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000006467 substitution reaction Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 244000062793 Sorghum vulgare Species 0.000 description 6
- 235000019713 millet Nutrition 0.000 description 6
- 241000251468 Actinopterygii Species 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 235000010149 Brassica rapa subsp chinensis Nutrition 0.000 description 1
- 235000000536 Brassica rapa subsp pekinensis Nutrition 0.000 description 1
- 241000499436 Brassica rapa subsp. pekinensis Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明涉及智能决策领域,揭露一种指代消解方法,包括:根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集;对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本。本发明还涉及一种区块链技术,所述分析结果可以存储在区块链节点中。本发明还提出一种指代消解装置、电子设备以及可读存储介质。本发明可以提高指代消解的效率。
Description
技术领域
本发明涉及智能决策领域,尤其涉及一种指代消解方法、装置、电子设备及可读存储介质。
背景技术
在日常人们对话过程中往往会出现某个语义关系中的实体词以代词的形式出现或省略,例如:对于一个用户交流的场景,A用户:今天吃的酸菜鱼真不错,B用户:下次带我一起去吃这个啊,我也喜欢吃!其中,“下次带我一起去吃这个啊”中的代词“这个”指代“酸菜鱼”,以及“我也喜欢吃”中对“酸菜鱼”这一实体进行了省略(实际应该是:我也喜欢吃酸菜鱼)。但是,当让机器来理解对话信息时,需要对指代现象进行消解将代词指代的实体进行补全变成“下次带我一起去吃酸菜鱼”。
目前,为了保证机器更正确有效地理解当前输入的对话内容,无论输入的对话是否信息完整都要进行指代消解,效率较低,因此,需要一种效率更高的指代消解的方法。
发明内容
本发明提供一种指代消解方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高指代消解的效率。
为实现上述目的,本发明提供的一种指代消解方法,包括:
获取历史对话文本集,根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集;
对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;
利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;
当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;
根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本。
可选地,所述根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集,包括:
对所述历史对话文本集中的每个历史对话进行分段,得到多个分段文本;
对每段所述分段文本进行上下文切分,得到历史文本及当前文本;
对所述历史文本进行分词得到历史文本分词序列,及
将所述当前文本进行分词得到当前文本分词序列;
将所述历史文本分词序列及所述当前文本分词序列进行组合,得到第一训练样本;
对所述第一训练样本进行命名实体标签标记及上下文关联标签标记,得到标准训练样本;
汇总所有的标准训练样本,得到所述第一训练样本集。
可选地,所述对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集,包括下述至少一个:
将所述第一训练样本集中每个标准训练样本中的历史文本分词序列中的命名实体进行近义词替换;及
将所述第一训练样本集中每个标准训练样本中的当前文本分词序列中的指代词进行同类型指代词替换,得到所述第二训练样本集。
可选地,所述利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型,包括:
利用所述第二训练样本集对所述预构建的深度学习模型进行迭代训练,直至所述深度学习模型收敛,得到所述分类识别模型。
可选地,所述利用所述第二训练样本集对所述预构建的深度学习模型进行迭代训练,直至所述深度学习模型收敛,得到所述分类识别模型,包括:
步骤A:利用所述深度学习模型中的编码层将所述第二训练样本集中标准训练样本中的历史文本分词序列中的每个词语转化为词向量,得到历史文本分词向量序列;
步骤B:利用所述编码层将所述标准训练样本中的当前文本分词序列中的每个词语转化为词向量,得到当前文本分词向量序列;
步骤C:利用所述深度学习模型中的特征提取层对所述历史文本分词向量序列进行特征提取,得到历史文本特征句向量;
步骤D:利用所述特征提取层对所述当前文本分词向量序列进行特征提取,得到当前文本特征句向量;利用所述特征提取层对所述历史文本分词向量序列中每个词向量进行特征提取,得到历史文本特征词向量;
步骤E:利用所述深度学习模型中的注意力机制层对当前文本特征句向量与所述历史文本特征词向量进行权重计算,得到第一融合向量;
步骤F:利用所述深度学习模型中的特征融合层将所述历史文本特征句向量、第一融合向量及所述当前文本特征句向量进行向量求和,得到目标向量;利用预设的激活函数计算所述目标向量对应的标签概率值;
步骤G:根据所述标准训练样本包含的标签确定对应的标签真实值;根据所述标签概率值与所述标签真实值,利用预设的损失函数计算,得到目标损失值;
步骤H:当所述目标损失值大于或等于预设阈值时,更新所述深度学习模型的模型参数,并返回所述步骤A;当所述目标损失值小于预设阈值时,停止训练,得到所述分类识别模型。
可选地,所述根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本,包括:
所述待分析对话文本中包含历史对话文本和当前对话文本;
提取所述分析结果中的关联识别结果;
若所述关联识别结果为所述历史对话文本和所述当前对话文本具有上下文关联,利用预构建的指代消解模型对所述待分析对话文本进行分析,得到所述指代消解文本;
若所述关联识别结果为所述历史对话文本与所述当前对话文本不具有上下文关联,将所述当前对话文本确定为所述指代消解文本。
可选地,所述利用预设的指代消解模型对所述待分析对话文本进行分析,得到所述指代消解文本之前,还包括:
将所述历史文本及当前文本组合为第二训练样本,汇总所有的所述第二训练样本,得到第三训练样本集;
对所述第三训练样本集中的每个第二训练样本进行命名实体标记及指代消解文本标记,得到第四训练样本集,其中,所述指代消解文本标记为将所述第二训练样本中当前文本标记对应的指代消解文本;
利用所述第四训练样本集对预构建的初始模型进行训练,直至所述初始模型收敛,得到所述指代消解模型。
为了解决上述问题,本发明还提供一种指代消解装置,所述装置包括:
样本处理模块,用于获取历史对话文本集,根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集;对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;
模型训练模块,用于利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;
指代消解模块,用于当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的指代消解方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的指代消解方法。
本发明实施例根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集,对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集,对训练样本进行多标签标记及数据扩充提高了模型的鲁棒性;利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本,通过提前分析待分析对话文本的上下文关联关系,对文本进行分类,筛选出需要指代消解的文本进行指代消解,降低了指代消解的冗余操作,提高了指代消解的效率。因此,本发明实施例提出的指代消解方法、装置、电子设备及计算机可读存储介质提高了指代消解的效率。
附图说明
图1为本发明一实施例提供的指代消解方法的流程示意图;
图2为本发明一实施例提供的指代消解装置的模块示意图;
图3为本发明一实施例提供的实现指代消解方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种指代消解方法。所述指代消解方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述指代消解方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示的本发明一实施例提供的指代消解方法的流程示意图,在本发明实施例中,所述指代消解方法包括:
S1、获取历史对话文本集,根据所述历史对话文本集中的数据进行多标签标记,得到第一训练样本集;
本发明实施例中,所述历史对话文本集包含多个历史对话数据的集合,对所述历史对话文本集中的每个历史对话数据中进行训练样本构建,因此,本发明实施例根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集。
详细地,本发明实施例中根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集,包括:对所述历史对话文本集中的每个历史对话进行分段,得到多个分段文本,如:历史对话数据A中共有5句对话,将A中进行分段,将A中的前2句对话分成一段、前3句对话分成一段、前4句对话分成一段、前5句对话分为一段,共得到4段分段文本;对每段所述分段文本进行上下文切分,得到历史文本及当前文本,即按照所述分段文本对话出现的顺序,将最后出现的对话文本确定为当前文本,将当前去文本之前的对话文本确定为历史文本,如:所述分段文本中共有3句话,那么将所述分段文本中的第三句话作为当前文本,将所述分段文本中的第一句话和第二句话确定为历史文本;对所述历史文本进行分词得到历史文本分词序列,将所述当前文本进行分词得到当前文本分词序列;将所述历史文本分词序列及所述当前文本分词序列进行组合,得到第一训练样本,对所述第一训练样本进行命名实体标签标记及上下文关联标签标记,得到标准训练样本,其中,命名实体为以人名、机构名、地名以及其他所有以名称为标识的实体,所述命名实体标签标记为标记所述第一训练样本中的命名实体,如:第一训练样本为“四川是个好地方”,将“四川”标记为地名实体,所述上下文关联标签为标记所述第一训练样本中对应的历史文本及当前文本是否具有上下文联系;如标记为具有上下文联系或不具有上下文联系。可选地,可利用brat语料标注工具进行标签标记,进一步地,由于本发明实施例中由于训练样本数量较少且不易获取,单一标签样本的会导致训练后的模型泛化能力较弱,因此,增加所述命名实体标签标记是为了增强模型的泛化能力;汇总所有的标准训练样本,得到所述第一训练样本集。
S2、对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;
本发明实施例中,由于数据标注较为困难,为了增强训练样本数据的的多样性,提高后续模型的鲁棒性,对所述第一训练样本集进行数据扩充,得到所述第二训练样本集。
详细地,本发明实施例中,对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集,包括下述至少一个:将所述第一训练样本集中每个标准训练样本中的历史文本分词序列中的命名实体进行近义词替换;及将所述第一训练样本集中每个标准训练样本中的当前文本分词序列中的指代词进行同类型指代词替换,得到所述第二训练样本集,如:将“小米”替换为“小米公司”或“小米科技”,将指代词“他”替换为“她”。
本发明实施例中,所述数据扩充过程不会影响样本的标签,只是对样本文本进行了扩充,通过对样本的扩充提后了后续训练的模型的鲁棒性。
S3、利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;
本发明实施例中,利用所述第二训练样本集对所述预构建的深度学习模型进行迭代训练,直至所述深度学习模型收敛,得到所述分类识别模型。
可选地,本发明实施例中,所述深度学习模型包含:编码层、特征提取层、注意力机制层、特征融合层及分类层。可选地,所述编码层为Embedding,所述特征提取层为LSTM网络,
详细地,本发明实施例,利用所述第二训练样本集对所述预构建的深度学习模型进行迭代训练,直至所述深度学习模型收敛,得到所述分类识别模型,包括:
步骤A:利用所述深度学习模型中的编码层将所述第二训练样本集中标准训练样本中的历史文本分词序列中的每个词语转化为词向量,得到历史文本分词向量序列;
步骤B:利用所述编码层将所述标准训练样本中的当前文本分词序列中的每个词语转化为词向量,得到当前文本分词向量序列;
步骤C:利用所述深度学习模型中的特征提取层对所述历史文本分词向量序列进行特征提取,得到历史文本特征句向量;
步骤D:利用所述特征提取层对所述当前文本分词向量序列进行特征提取,得到当前文本特征句向量;利用所述特征提取层对所述历史文本分词向量序列中每个词向量进行特征提取,得到历史文本特征词向量;
步骤E:利用所述深度学习模型中的注意力机制层对当前文本特征句向量与所述历史文本特征词向量进行权重计算,得到第一融合向量;
步骤F:利用所述深度学习模型中的特征融合层将所述历史文本特征句向量、第一融合向量及所述当前文本特征句向量进行向量求和,得到目标向量;利用预设的激活函数计算所述目标向量对应的标签概率值;
可选地,本发明实施例中所述激活函数为softmax函数。
步骤G:根据所述标准训练样本包含的标签确定对应的标签真实值;根据所述标签概率值与所述标签真实值,利用预设的损失函数计算,得到目标损失值;
详细地,如命名实体标签共有两种为A实体标签及B实体标签,上下文关联标签为具有上下文联系或者不具有上下文联系,标准训练样本包含的标记的标签为A实体及具有上下文联系,那么标准训练样本对应的标签真实值为A实体标签的标签真实值为1、B实体标签的标签真实值为0,上下文关联标签的标签真实值为1。
可选地,本发明实施例中,所述所述损失函数为交叉熵损失函数。
步骤H:当所述目标损失值大于或等于预设阈值时,更新所述深度学习模型的模型参数,并返回所述步骤A;当所述目标损失值小于预设阈值时,停止训练,得到所述分类识别模型。
S4、当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行分析,得到分析结果;
本发明实施例,所述待分析的对话文本为需要分析上下文关系的多轮对话文本,所述待分析对话文本中包含历史对话文本和当前对话文本,其中,所述当前对话文本为所述待分析对话文本中最后一句对话的文本,所述历史对话文本为所述待分析对话文本中不包含当前对话文本的其它文本,利用所述分类识别模型对所述待分析对话文本进行分析,得到分析结果,所述分析结果包含所述待分析对话文本中命名实体识别结果及所述待分析对话文本包含历史对话文本和当前对话文本是否有上下文联系的关联识别结果。
本发明的另一实施例中,为了保障数据的隐私性,所述分析结果可以存储在区块链节点中。
S5、根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本。
本发明实施例中,提取所述分析结果中的关联识别结果,根据所述关联识别结果可知所述历史对话文本与所述当前对话文本是否为具有上下文联系,若所述关联识别结果为所述待分析对话文本满足上下文关系,将所述待分析对话文本输入至所述预构建的指代消解模型中,得到指代消解文本;若所述关联识别结果为所述待分析对话文本中历史对话文本和当前对话文本没有上下文关联,那么说明所述待分析对话文本中当前对话文本是一句独立的信息完整的对话文本,不需要进行指代消解,将所述当前对话文本作为指代消解文本。
详细地,本发明实施例中,利用预构建的指代消解模型对所述待分析对话文本进行指代消解,之前还包括:将所述历史文本及当前文本组合为第二训练样本,汇总所有的所述第二训练样本,得到第三训练样本集;对所述第三训练样本集中的每个第二训练样本进行命名实体标记及指代消解文本标记,得到第四训练样本集,其中,所述指代消解文本标记为标记所述第二训练样本中当前文本的代词补全后的指代消解文本,如:第二训练样本中历史文本为“我们去A火锅店吃火锅吧”,当前文本为“他家火锅味道很不错”,那么标记的指代消解文本为“A火锅店的火锅味道很不错”,命名实体标记是保证模型在生成指代消解文本时生成代词对应的实体时更准确,利用所述第四训练样本集对预构建的初始模型进行训练,直至所述初始模型收敛,得到所述指代消解模型。可选地,所述初始模型为end-to-end模型。
本发明实施例中,通过对所述待分析对话文本是否满足上下文关系,从而实现对待分析对话文本进行分类指代消解,从而实现指代消解模型只对需要指代消解的待分析对话文本进行消解,不需要模型对每个待分析对话文本进行分析,提高了指代消解的效率及指代消解模型利用效率。
如图3所示,是本发明指代消解装置的功能模块图。
本发明所述指代消解装置100可以安装于电子设备中。根据实现的功能,所述指代消解装置可以包括样本处理模块101、模型训练模块102、指代消解模块103,本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述样本处理模块101用于获取历史对话文本集,根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集;对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;
本发明实施例中,所述历史对话文本集包含多个历史对话数据的集合,需要对所述历史对话文本集中的每个历史对话数据中进行训练样本构建,因此,本发明实施例根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集。
详细地,本发明实施例中所述样本处理模块101利用如下手段进行样本构建及多标签标记,得到第一训练样本集,包括:对所述历史对话文本集中的每个历史对话进行分段,得到多个分段文本,如:历史对话数据A中共有5句对话,将A中进行分段,将A中的前2句对话分成一段、前3句对话分成一段、前4句对话分成一段、前5句对话分为一段,共得到4段分段文本;对每段所述分段文本进行上下文切分,得到历史文本及当前文本,即按照所述分段文本对话出现的顺序,将最后出现的对话文本确定为当前文本,将当前去文本之前的对话文本确定为历史文本,如:所述分段文本中共有3句话,那么将所述分段文本中的第三句话作为当前文本,将所述分段文本中的第一句话和第二句话确定为历史文本;对所述历史文本进行分词得到历史文本分词序列,将所述当前文本进行分词得到当前文本分词序列;将所述历史文本分词序列及所述当前文本分词序列进行组合,得到第一训练样本,对所述第一训练样本进行命名实体标签标记及上下文关联标签标记,得到标准训练样本,其中,命名实体为以人名、机构名、地名以及其他所有以名称为标识的实体,所述命名实体标签标记为标记所述第一训练样本中的命名实体,如:第一训练样本为“四川是个好地方”,将“四川”标记为地名实体,所述上下文关联标签为标记所述第一训练样本中对应的历史文本及当前文本是否具有上下文联系;如标记为具有上下文联系或不具有上下文联系。可选地,可利用brat语料标注工具进行标签标记,进一步地,由于本发明实施例中由于训练样本数量较少且不易获取,单一标签样本的会导致训练后的模型泛化能力较弱,因此,增加所述命名实体标签标记是为了增强模型的泛化能力;汇总所有的标准训练样本,得到所述第一训练样本集。
本发明实施例中,由于数据标注较为困难,为了增强训练样本数据的的多样性,提高后续模型的鲁棒性,对所述第一训练样本集进行数据扩充,得到所述第二训练样本集。
详细地,本发明实施例中,所述样本处理模块101利用如下手段对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集,包括下述至少一个:将所述第一训练样本集中每个标准训练样本中的历史文本分词序列中的命名实体进行近义词替换;及将所述第一训练样本集中每个标准训练样本中的当前文本分词序列中的指代代词进行同类型指代词替换,得到所述第二训练样本集,如:将“小米”替换为“小米公司”或“小米科技”,将指代词“他”替换为“她”。
本发明实施例中,所述数据扩充过程不会影响样本的标签,只是对样本文本进行了扩充,通过对样本的扩充提后了后续训练的模型的鲁棒性。
所述模型训练模块102用于利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;
本发明实施例中,所述模型训练模块102利用所述第二训练样本集对所述预构建的深度学习模型进行迭代训练,直至所述深度学习模型收敛,得到所述分类识别模型。
可选地,本发明实施例中,所述深度学习模型包含:编码层、特征提取层、注意力机制层、特征融合层及分类层。可选地,所述编码层为Embedding,所述特征提取层为LSTM网络,
详细地,本发明实施例,所述模型训练模块102利用如下手段对所述预构建的深度学习模型进行迭代训练,包括:
步骤A:利用所述深度学习模型中的编码层将所述第二训练样本集中标准训练样本中的历史文本分词序列中的每个词语转化为词向量,得到历史文本分词向量序列;
步骤B:利用所述编码层将所述标准训练样本中的当前文本分词序列中的每个词语转化为词向量,得到当前文本分词向量序列;
步骤C:利用所述深度学习模型中的特征提取层对所述历史文本分词向量序列进行特征提取,得到历史文本特征句向量;
步骤D:利用所述特征提取层对所述当前文本分词向量序列进行特征提取,得到当前文本特征句向量;利用所述特征提取层对所述历史文本分词向量序列中每个词向量进行特征提取,得到历史文本特征词向量;
步骤E:利用所述深度学习模型中的注意力机制层对当前文本特征句向量与所述历史文本特征词向量进行权重计算,得到第一融合向量;
步骤F:利用所述深度学习模型中的特征融合层将所述历史文本特征句向量、第一融合向量及所述当前文本特征句向量进行向量求和,得到目标向量;利用预设的激活函数计算所述目标向量对应的标签概率值;
可选地,本发明实施例中所述激活函数为softmax函数。
步骤G:根据所述标准训练样本包含的标签确定对应的标签真实值;根据所述标签概率值与所述标签真实值,利用预设的损失函数计算,得到目标损失值;
详细地,如命名实体标签共有两种为A实体标签及B实体标签,上下文关联标签为具有上下文联系或者不具有上下文联系,标准训练样本包含的标记的标签为A实体及具有上下文联系,那么标准训练样本对应的标签真实值为A实体标签的标签真实值为1、B实体标签的标签真实值为0,上下文关联标签的标签真实值为1。
可选地,本发明实施例中,所述所述损失函数为交叉熵损失函数。
步骤H:当所述目标损失值大于或等于预设阈值时,更新所述深度学习模型的模型参数,并返回所述步骤A;当所述目标损失值小于预设阈值时,停止训练,得到所述分类识别模型。
所述指代消解模块103用于当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本。
本发明实施例,所述待分析的对话文本为需要分析上下文关系的多轮对话文本,所述待分析对话文本中包含历史对话文本和当前对话文本,其中,所述当前对话文本为所述待分析对话文本中最后一句对话的文本,所述历史对话文本为所述待分析对话文本中不包含当前对话文本的其它文本,所述指代消解模块103利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果,所述分析结果包含所述待分析对话文本中命名实体识别结果及所述待分析对话文本包含历史对话文本和当前对话文本是否有上下文联系的关联识别结果。
本发明的另一实施例中,为了保障数据的隐私性,所述分析结果可以存储在区块链节点中。
本发明实施例中,所述指代消解模块103提取所述分析结果中的关联识别结果,根据所述关联识别结果可知所述历史对话文本与所述当前对话文本是否为具有上下文联系,若所述关联识别结果为所述待分析对话文本满足上下文关系,将所述待分析对话文本输入至所述预构建的指代消解模型中,得到指代消解文本;若所述关联识别结果为所述待分析对话文本中历史对话文本和当前对话文本没有上下文关联,那么说明所述待分析对话文本中当前对话文本是一句独立的信息完整的对话文本,不需要进行指代消解,将所述当前对话文本作为指代消解文本。
详细地,本发明实施例中,所述指代消解模块103利用预构建的指代消解模型对所述待分析对话文本进行指代消解,之前还包括:将所述历史文本及当前文本组合为第二训练样本,汇总所有的所述第二训练样本,得到第三训练样本集;对所述第三训练样本集中的每个第二训练样本进行命名实体标记及指代消解文本标记,得到第四训练样本集,其中,所述指代消解文本标记为标记所述第二训练样本中当前文本的代词补全后的指代消解文本,如:第二训练样本中历史文本为“我们去A火锅店吃火锅吧”,当前文本为“他家火锅味道很不错”,那么标记的指代消解文本为“A火锅店的火锅味道很不错”,命名实体标记是保证模型在生成指代消解文本时生成代词对应的实体时更准确,利用所述第四训练样本集对预构建的初始模型进行训练,直至所述初始模型收敛,得到所述指代消解模型。可选地,所述初始模型为end-to-end模型。
本发明实施例中,通过对所述待分析对话文本是否满足上下文关系,从而实现对待分析对话文本进行分类指代消解,从而实现指代消解模型只对需要指代消解的待分析对话文本进行消解,不需要模型对每个待分析对话文本进行分析,提高了指代消解的效率及指代消解模型利用效率。
如图3所示,是本发明实现指代消解方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如指代消解程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如指代消解程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如指代消解程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(perIPheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的指代消解程序12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取历史对话文本集,根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集;
对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;
利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;
当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;
根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以是非易失性的,也可以是易失性的。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明实施例还可以提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取历史对话文本集,根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集;
对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;
利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;
当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;
根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (8)
1.一种指代消解方法,其特征在于,所述方法包括:
获取历史对话文本集,根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集;
对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;
利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;
当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;
根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本;
其中,所述利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型,包括:利用所述第二训练样本集对所述预构建的深度学习模型进行迭代训练,直至所述深度学习模型收敛,得到所述分类识别模型;
所述利用所述第二训练样本集对所述预构建的深度学习模型进行迭代训练,直至所述深度学习模型收敛,得到所述分类识别模型,包括:步骤A:利用所述深度学习模型中的编码层将所述第二训练样本集中标准训练样本中的历史文本分词序列中的每个词语转化为词向量,得到历史文本分词向量序列;步骤B:利用所述编码层将所述标准训练样本中的当前文本分词序列中的每个词语转化为词向量,得到当前文本分词向量序列;步骤C:利用所述深度学习模型中的特征提取层对所述历史文本分词向量序列进行特征提取,得到历史文本特征句向量;步骤D:利用所述特征提取层对所述当前文本分词向量序列进行特征提取,得到当前文本特征句向量;利用所述特征提取层对所述历史文本分词向量序列中每个词向量进行特征提取,得到历史文本特征词向量;步骤E:利用所述深度学习模型中的注意力机制层对当前文本特征句向量与所述历史文本特征词向量进行权重计算,得到第一融合向量;步骤F:利用所述深度学习模型中的特征融合层将所述历史文本特征句向量、第一融合向量及所述当前文本特征句向量进行向量求和,得到目标向量;利用预设的激活函数计算所述目标向量对应的标签概率值;步骤G:根据所述标准训练样本包含的标签确定对应的标签真实值;根据所述标签概率值与所述标签真实值,利用预设的损失函数计算,得到目标损失值;步骤H:当所述目标损失值大于或等于预设阈值时,更新所述深度学习模型的模型参数,并返回所述步骤A;当所述目标损失值小于预设阈值时,停止训练,得到所述分类识别模型。
2.如权利要求1所述的指代消解方法,其特征在于,所述根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集,包括:
对所述历史对话文本集中的每个历史对话进行分段,得到多个分段文本;
对每段所述分段文本进行上下文切分,得到历史文本及当前文本;
对所述历史文本进行分词得到历史文本分词序列,及
将所述当前文本进行分词得到当前文本分词序列;
将所述历史文本分词序列及所述当前文本分词序列进行组合,得到第一训练样本;
对所述第一训练样本进行命名实体标签标记及上下文关联标签标记,得到标准训练样本;
汇总所有的标准训练样本,得到所述第一训练样本集。
3.如权利要求2所述的指代消解方法,其特征在于,所述对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集,包括下述至少一个:
将所述第一训练样本集中每个标准训练样本中的历史文本分词序列中的命名实体进行近义词替换;及
将所述第一训练样本集中每个标准训练样本中的当前文本分词序列中的指代词进行同类型指代词替换,得到所述第二训练样本集。
4.如权利要求1-3任意一项所述的指代消解方法,其特征在于,所述根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本,包括:
所述待分析对话文本中包含历史对话文本和当前对话文本;
提取所述分析结果中的关联识别结果;
若所述关联识别结果为所述历史对话文本和所述当前对话文本具有上下文关联,利用预构建的指代消解模型对所述待分析对话文本进行分析,得到所述指代消解文本;
若所述关联识别结果为所述历史对话文本与所述当前对话文本不具有上下文关联,将所述当前对话文本确定为所述指代消解文本。
5.如权利要求4所述的指代消解方法,其特征在于,所述利用预设的指代消解模型对所述待分析对话文本进行分析,得到所述指代消解文本之前,还包括:
将所述历史文本及当前文本组合为第二训练样本,汇总所有的所述第二训练样本,得到第三训练样本集;
对所述第三训练样本集中的每个第二训练样本进行命名实体标记及指代消解文本标记,得到第四训练样本集,其中,所述指代消解文本标记为将所述第二训练样本中当前文本标记对应的指代消解文本;
利用所述第四训练样本集对预构建的初始模型进行训练,直至所述初始模型收敛,得到所述指代消解模型。
6.一种指代消解装置,用于实现如权利要求1至5中任一项所述的指代消解方法,其特征在于,包括:
样本处理模块,用于获取历史对话文本集,根据所述历史对话文本集中的数据进行样本构建及多标签标记,得到第一训练样本集;对所述第一训练样本集进行近义词替换及指代词替换,得到第二训练样本集;
模型训练模块,用于利用所述第二训练样本集对预构建的深度学习模型进行训练,得到分类识别模型;
指代消解模块,用于当接收待分析对话文本时,利用所述分类识别模型对所述待分析对话文本进行上下文关联分析,得到分析结果;根据所述分析结果,对所述待分析对话文本进行分类指代消解,得到指代消解文本。
7.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任一项所述的指代消解方法。
8.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的指代消解方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110283482.6A CN112989043B (zh) | 2021-03-17 | 2021-03-17 | 指代消解方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110283482.6A CN112989043B (zh) | 2021-03-17 | 2021-03-17 | 指代消解方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112989043A CN112989043A (zh) | 2021-06-18 |
CN112989043B true CN112989043B (zh) | 2024-03-12 |
Family
ID=76332639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110283482.6A Active CN112989043B (zh) | 2021-03-17 | 2021-03-17 | 指代消解方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112989043B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114117001A (zh) * | 2021-11-22 | 2022-03-01 | 京东方科技集团股份有限公司 | 指代消解方法、指代消解模型的训练方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101446943A (zh) * | 2008-12-10 | 2009-06-03 | 苏州大学 | 一种中文处理中基于语义角色信息的指代消解方法 |
CN110162785A (zh) * | 2019-04-19 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 数据处理方法和代词消解神经网络训练方法 |
US10482885B1 (en) * | 2016-11-15 | 2019-11-19 | Amazon Technologies, Inc. | Speaker based anaphora resolution |
CN110705206A (zh) * | 2019-09-23 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 一种文本信息的处理方法及相关装置 |
CN112001190A (zh) * | 2020-07-20 | 2020-11-27 | 北京百度网讯科技有限公司 | 自然语言处理模型的训练方法、装置、设备及存储介质 |
-
2021
- 2021-03-17 CN CN202110283482.6A patent/CN112989043B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101446943A (zh) * | 2008-12-10 | 2009-06-03 | 苏州大学 | 一种中文处理中基于语义角色信息的指代消解方法 |
US10482885B1 (en) * | 2016-11-15 | 2019-11-19 | Amazon Technologies, Inc. | Speaker based anaphora resolution |
CN110162785A (zh) * | 2019-04-19 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 数据处理方法和代词消解神经网络训练方法 |
CN110705206A (zh) * | 2019-09-23 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 一种文本信息的处理方法及相关装置 |
CN112001190A (zh) * | 2020-07-20 | 2020-11-27 | 北京百度网讯科技有限公司 | 自然语言处理模型的训练方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112989043A (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287480B (zh) | 一种命名实体识别方法、装置、存储介质及终端设备 | |
CN112597312A (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN113051356B (zh) | 开放关系抽取方法、装置、电子设备及存储介质 | |
CN113704429A (zh) | 基于半监督学习的意图识别方法、装置、设备及介质 | |
CN109783801B (zh) | 一种电子装置、多标签分类方法及存储介质 | |
CN113157927B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN116108857B (zh) | 信息抽取方法、装置、电子设备以及存储介质 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN113360654B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN112989043B (zh) | 指代消解方法、装置、电子设备及可读存储介质 | |
CN113205814A (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
US20220139386A1 (en) | System and method for chinese punctuation restoration using sub-character information | |
CN113204698A (zh) | 新闻主题词生成方法、装置、设备及介质 | |
CN109300550B (zh) | 医学数据关系挖掘方法及装置 | |
CN116501846A (zh) | 开放式对话方法、装置、电子设备及介质 | |
CN116578696A (zh) | 文本摘要生成方法、装置、设备及存储介质 | |
CN115146064A (zh) | 意图识别模型优化方法、装置、设备及存储介质 | |
CN113515591B (zh) | 文本不良信息识别方法、装置、电子设备及存储介质 | |
CN114781384A (zh) | 命名实体智能标注方法、装置、设备及存储介质 | |
CN114943306A (zh) | 意图分类方法、装置、设备及存储介质 | |
CN115238115A (zh) | 基于中文数据的图像检索方法、装置、设备及存储介质 | |
CN114186028A (zh) | 咨诉工单处理方法、装置、设备及存储介质 | |
CN114676699A (zh) | 实体情感分析方法、装置、计算机设备和存储介质 | |
CN112712797A (zh) | 语音识别方法、装置、电子设备及可读存储介质 | |
CN112364068A (zh) | 课程标签生成方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |