CN112765958B - 代词消解方法、装置、电子设备及存储介质 - Google Patents
代词消解方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112765958B CN112765958B CN202110283477.5A CN202110283477A CN112765958B CN 112765958 B CN112765958 B CN 112765958B CN 202110283477 A CN202110283477 A CN 202110283477A CN 112765958 B CN112765958 B CN 112765958B
- Authority
- CN
- China
- Prior art keywords
- pronoun
- entity
- context
- digestion
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000029087 digestion Effects 0.000 title claims abstract description 159
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 24
- 239000013598 vector Substances 0.000 claims description 120
- 230000006870 function Effects 0.000 claims description 27
- 230000007246 mechanism Effects 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及语音语义领域,揭露了一种代词消解方法,包括:获取对话数据,划分所述对话数据中的上下文语句;标记所述上下文语句中实体及代词的对应关系,生成标准实体‑代词对应关系;利用所述上下文语句和所述标准实体‑代词对应关系对代词实体消解模型进行训练,得到训练完成的代词实体消解模型;利用所述训练完成的代词实体消解模型对待消解实体‑代词关系的对话数据进行实体‑代词关系消解,得到消解结果。本发明还提出一种代词消解装置、电子设备及计算机可读存储介质。此外,本发明还涉及区块链技术,所述上下文语句可存储于区块链中。本发明可以降低代词消解的复杂度。
Description
技术领域
本发明涉及语音语义领域,尤其涉及一种代词消解方法、装置、电子设备及计算机可读存储介质。
背景技术
在日常生活中,人们对话过程中往往会出现某个语句关系中的实体(Entity)以指称(Mention)的形式出现或省略。为了更准确的理解对话信息,需要进行代词消解。所述指代消解是将代表同一实体(Entity)的不同指称(Mention)划分到一个等价集合(指代链,Coreference Chain)的过程。指代消解能够有效解决文本当中的指代不明问题。
现有的指代消解方法主要基于指代消歧的方法,识别对话中所有的代词和实体,判断其中的代词是否有指向的实体、找到代词最有可能的指代实体,最后将代词用找到的实体替换,从而实现指代消解,但这种方法需要计算对话中每一个指代词和所有实体之间的关系,导致其计算复杂度较高。
发明内容
本发明提供一种代词消解方法、装置、电子设备及计算机可读存储介质,其主要目的在于降低代词消解的复杂度。
为实现上述目的,本发明提供的一种代词消解方法,包括:
获取对话数据,划分所述对话数据中的上下文语句;
标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系;
利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,生成上下文字符向量;
利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,得到上下文特征字符向量;
利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,得到预测实体-代词对应关系;
利用所述代词实体消解模型中损失函数计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值;
当所述损失值不满足预设条件时,调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤;
当所述损失值满足预设条件时,得到训练完成的代词实体消解模型;
利用所述训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。
可选地,所述划分所述对话数据中的上下文语句,包括:
获取所述对话数据的语句时间,根据所述语句时间,利用预设的上下文语句划分脚本对所述对话数据进行顺序语句标记,得到上下文语句。
可选地,所述对标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系,包括:
构建所述上下文语句的数据结构;
根据所述数据结构,利用预设的指针对所述上下文语句进行实体-代词对应关系标记,得到标准实体-代词对应关系。
可选地,所述利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,生成上下文字符向量,包括:
利用所述编码层对所述上下文语句中字符进行索引编码,得到上下文字符位置索引;
利用所述编码层将所述上下文语句中字符转换成对应的字符向量,得到初始上下文字符向量;
将所述上下文字符位置索引和所述初始上下文字符向量进行组合,生成上下文字符向量。
可选地,所述利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量本进行特征序列提取,得到上下文特征字符向量,包括:
利用所述前馈注意力机制中的自注意力模块查询所述上下文字符向量;
利用所述前馈注意力机制中的卷积模块对查询的所述上下文字符向量进行特征提取,得到特征字符向量;
利用所述前馈注意力机制中的编码器提取所述特征字符向量的信息序列,得到上下文特征字符向量。
可选地,所述利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,得到预测实体-代词对应关系,包括:
利用所述实体-代词关系消解模块中的全连接层检测所述上下文特征字符词向量中的代词实体位置信息,利用所述实体-代词关系消解模块中的激活函数输出所述代词实体位置信息,得到预测实体-代词对应关系。
可选地,所述利用所述全连接层检测所述上下文特征字符词向量中的代词实体位置信息,包括:
利用下述方法检测所述上下文特征字符词向量中的代词实体位置信息:
其中,s′表示代词实体位置信息,s表示上下文特征字符词向量,e表示无限不循环小数。
为了解决上述问题,本发明还提供一种代词消解装置,所述装置包括:
划分模块,用于获取对话数据,划分所述对话数据中的上下文语句;
标记模块,用于标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系;
模型训练模块,用于利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,生成上下文字符向量;
所述模型训练模块,用于利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,得到上下文特征字符向量;
所述模型训练模块,还用于利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,得到预测实体-代词对应关系;
所述模型训练模块,还用于利用所述代词实体消解模型中损失函数计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值;
所述模型训练模块,还用于在损失值不满足预设条件时,调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤;
所述模型训练模块,还用于在所述损失值满足预设条件时,得到训练完成的代词实体消解模型;
消解模块,用于利用所述训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以实现上述所述的代词消解方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的代词消解方法。
本发明实施例首先划分所述对话数据中的上下文语句,并标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系,可以确定所述对话数据的代词和实体对应关系,从而可以判断出后续模型预测的代词实体位置是否正确,降低实体代词的识别复杂度;其次,本发明实施例利用所述上下文语句和所述标准实体-代词对应关系对代词实体消解模型进行训练,可以利用标准实体-代词对应关系对所述代词实体消解模型进行监督,保障所述代词实体消解模型的代词消解学习能力,从而可以降低后续通过模型实现代词消解的复杂度;进一步地,本发明实施例利用训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。因此,本发明提出的一种代词消解方法、装置、电子设备以及存储介质可以降低代词消解的复杂度。
附图说明
图1为本发明一实施例提供的代词消解方法的流程示意图;
图2为本发明第一实施例中图1提供的代词消解方法其中一个步骤的详细流程示意图;
图3为本发明一实施例提供的代词消解装置的模块示意图;
图4为本发明一实施例提供的实现代词消解方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种代词消解方法。所述代词消解方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述代词消解方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的代词消解方法的流程示意图。在本发明实施例中,所述代词消解方法包括:
S1、获取对话数据,划分所述对话数据中的上下文语句。
本发明实施例中,所述对话数据基于实际业务场景获取,例如,用户A:“平安福的投保年龄”,用户B:“那它的投保年龄如何划分”。可选的,所述对话数据可以通过当前已知的任务型机器人进行挖掘。进一步地,应该了解,在一个对话数据中存在历史语句和当前语句,比如上述用户A的语句即为历史语句,用户B的语句即为当前语句,为了更好的展示出对话数据中的语句顺利,本发明划分所述对话数据中的上下文语句,以识别出所述对话语句中的历史当前语句。
详细地,所述划分所述对话数据中的上下文语句,包括:获取所述对话数据的语句时间,根据所述语句时间,利用预设的上下文语句划分脚本对所述对话数据进行顺序语句标记,得到上下文语句。
其中,所述根据所述语句时间,利用预设的上下文语句划分脚本对所述对话数据进行顺序语句标记,包括:根据所述语句时间,获取所述对话数据中时间先出语句及时间后出语句,利用所述上下文语句划分脚本,将所述时间先出语句标记为上语句,及将所述时间后出语句标记为下语句。
一个可选实施例中,所述预设的上下文语句划分脚本通过JavaScript脚本语言或Python脚本语言编译。
一个可选实施例中,所述对话数据中语句的时间先出语句及时间后出语句根据实际业务场景确定,比如,用户A第一个开口说话,用户B接着用户A的话继续往下说,于是则可定义所述用户A的语句为时间先出语句,所述用户B的语句为时间后出语句。
S2、标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系。
应该了解,在不同场景中,一段对话可能会存在实体代词,如,你、我、它、这个以及这种等,亦可能不存在实体代词,为了提高后续模型的识别能力以及鲁棒性,本发明实施例在标记所述上下文语句中实体及代词的对应关系之前,还包括:划分所述上下文语句的正负语句标签,即将包含实体代词的上下文语句分类为正上下文语句,将不含实体代词的上下文语句分类为负上下文语句。
进一步地,所述不含实体代词的上下文语句包括:下语句中出现指示代词,但上语句没有出现实体名词的上下文语句、下语句没有出现指示代词,但上语句出现实体名词的上下文语句以及下语句没有出现指示代词,上语句也没有出现实体名词的上下文语句。
一个可选实施例中,所述正负语句标签的划分可以通过当前已知的k-means算法实现。
进一步地,本发明实施例中通过标记所述上下文语句中实体及代词的对应关系,以确定所述上下文语句的代词和实体关系,即确定下语句中代词指向上语句中哪个实体,从而可以判断出后续模型预测的代词实体位置是否正确,进而可以更好地调整模型的参数。
详细地,参阅图2所示,所述标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系,包括:
S20、构建所述上下文语句的数据结构;
S21、根据所述数据结构,利用预设的指针对所述上下文语句进行实体-代词对应关系标记,得到标准实体-代词对应关系。
其中,所述数据结构通过链式线性表进行构建,例如定义所述上下文语句中存在上语句为“平安福的投保年龄”(Context),下语句为“那它的投保年龄如何划分”(Query),通过所述链式线性表构建所述上语句和下语句的数据结构可以为:[CLS]Context[SPE]Query[SPE]。
一个可选实施例中,所述预设的指针算法为Span指针。
进一步地,所述根据所述根据所述数据结构,利用预设的指针算法对所述上下文语句进行指针标记,包括:将Span指针中的zero_span_idx指向所述数据结构中的[CLS],将Span指针中的span1_St指向Context中实体的初始位置,将Span指针中span1_Ed指向Context中实体的末端位置,及将Span指针中的span2_St和span2_Ed同时指向Query中的代词。其中,zero_span_idx表示零指代的位置,当Query中不存在零指代时,它指向[SPE];span1_St和span1_Ed表示Context中实体Span的起始位置和终止位置,当不存在有效实体时,两者均指向[CLS];span2_St和span2_Ed表示Query中共指Span的起始和终止位置,当不存在有效共指词时,两者均指向[CLS]。
示例性,以上语句为“平安福的投保年龄”(Context),下语句为“那它的投保年龄如何划分”(Query)为例,对其进行指针标记包括:将Span指针中的span1_St和span1_Ed分别指向历史语句中的“平”和“福”,将Span指针中的span2_St和span2_Ed均指向当前语句中的“它”。
S3、利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,生成上下文字符向量。
应该了解,所述上下文语句中会包含大量的字符,而在神经网络只能接受数值输入,无法支持单词字符的输入,若直接利用上下文语句对构建的代词实体消解模型进行训练,则无法识别出代词实体位置,从而使得训练出来的语音合成模型无法支持代词实体位置识别,因此,本发明实施例利用所述代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,以确定所述上下文语句中每个字符的位置信息,从而实现后续的模型训练。其中,所述编码层包括Embedding。
详细地,所述利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,生成上下文字符向量,包括:利用所述编码层对所述上下文语句中字符进行位置索引编码,得到上下文字符位置索引;利用所述编码层将所述上下文语句中字符转换成对应的字符向量,得到初始上下文字符向量;将所述上下文字符位置索引和所述初始上下文字符向量进行组合,生成上下文字符向量。
其中,所述位置索引编码基于不同用户需求设置,比如,所述上下文语句中上语句为:“平安福的投保年龄”,则对所述“平安福的投保年龄”中的字符进行位置索引编码,得到“平”位置索引为0、“安”位置索引为1、“福”位置索引为2、“的”位置索引为3、“投”位置索引为4、“保”位置索引为5、“年”位置索引为6以及“龄”位置索引为7。
一个可选实施例中,所述字符向量的转换通过所述编码层中的字符向量转换算法实现,所述字符向量转换算法可以为当前已知的one-hot算法。比如,所述上下文语句中字符为“平”,“安”,“投”,“保”,则利用所述one-hot算法将所述“平”,“安”,“投”,“保”转换成对应的字符向量可以为[1,0,0],[0,1,0],[0,0,1],[0,1,0]’。
进一步地,本发明实施例通过拼接字符将所述上下文字符位置索引和所述初始上下文字符向量进行组合,所述拼接字符包括“-”。例如,所述“平”位置索引为0,“安”位置索引为1,“投”位置索引为4、“保”位置索引为5,所述“平”,“安”,“投”,“保”对应的字符向量为‘[1,0,0],[0,1,0],[0,0,1],[0,1,0]’,利用拼接字符“-”将其进行拼接得到上下文字符向量为:‘0-[1,0,0],1-[0,1,0],4-[0,0,1],5-[0,1,0]’。
S4、利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,得到上下文特征字符向量。
本发明实施例中,利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,以输出所述字符向量中的特征字符向量,从而识别出对应特征字符向量的代词实体位置信息。其中,所述代词实体消解模型通过Tiny-ALBERT构建,所述前馈注意力机制包括:自注意力模块、卷积模块以及编码器。
详细地,所述利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量本进行特征序列提取,得到上下文特征字符向量,包括:利用所述前馈注意力机制中的自注意力模块查询所述上下文字符向量,利用所述前馈注意力机制中的卷积模块对查询的所述上下文字符向量进行特征提取,得到特征字符向量,利用所述前馈注意力机制中的编码器提取所述特征字符向量的信息序列,得到上下文特征字符向量。
一个可选实施例中,所述上下文字符向量的查询通过所述自注意力模块的查询指令实现,所述查询指令包括get指令。
一个可选实施例中,所述上下文字符向量的特征提取通过所述卷积模块中的卷积核实现。
一个可选实施例中,所述信息序列的提取通过所述编码器中的激活函数实现,所述激活函数包括relu函数。
S5、利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,得到预测实体-代词对应关系。
本发明实施例中,利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,以识别出所述上下文特征字符向量对应的代词实体位置。其中,所述实体-代词关系消解模块包括:全连接层和激活函数。
详细地,所述利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,得到预测实体-代词对应关系,包括:利用所述全连接层检测所述上下文特征字符向量中的代词实体位置信息,利用所述激活函数输出所述代词实体位置信息,得到所述预测实体-代词对应关系。
一个可选实施例中,利用下述方法检测所述上下文特征字符向量中的代词实体位置信息:
其中,s′表示代词实体位置信息,s表示上下文特征字符向量,e表示无限不循环小数。
一个可选实施例中,所述激活函数包括Softmax函数。
S6、利用所述代词实体消解模型中损失函数计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值。
本发明实施例中,所述损失函数包括交叉熵(cross entropy)函数,如利用下述方法计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值:
其中,L(s)表示损失值,k表示预测实体-代词对应关系的数量,yi表示第i个预测实体-代词对应关系,y′i表示第i个标准实体-代词对应关系。
当所述损失值不满足预设条件时,则执行S7、调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤。
应该了解,在所述损失值不满足预设条件时,表示所述代词实体消解模型还没有足够好的能力去实现代词消解,因此,本发明通过调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤,以通过不断迭代学习的方法,提高所述代词实体消解模型的学习能力。其中,所述预设条件可以根据实际模型训练场景设置,比如设置所述损失值小于预设阈值。
一个可选实施例中,所述参数的调整通过随机下降梯度算法实现,如利用下述公式调整所述代词实体消解模型的参数:
其中,Lθ表示调整的参数,m表示上下文特征字符向量的数量,L(s)表示损失值,f(xi,j,θ)表示下降函数,θ表示学习率,xi,j和yi,j表示上下文特征字符向量量的横纵坐标位置。
当所述损失值满足预设条件时,则执行S8、得到训练完成的代词实体消解模型。
应该了解,在所述损失值满足预设条件时,表示所述代词实体消解模型已经有足够好的能力去实现代词消解,因此,本发明实施例在所述损失值不满足预设条件时,表示所述代词实体消解模型还没有足够好的能力去实现代词消解。
S9、利用所述训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。
本发明实施例首先划分所述对话数据中的上下文语句,并标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系,可以确定所述对话数据的代词和实体对应关系,从而可以判断出后续模型预测的代词实体位置是否正确,降低实体代词的识别复杂度;其次,本发明实施例利用所述上下文语句和所述标准实体-代词对应关系对代词实体消解模型进行训练,可以利用标准实体-代词对应关系对所述代词实体消解模型进行监督,保障所述代词实体消解模型的代词消解学习能力,从而可以降低后续通过模型实现代词消解的复杂度;进一步地,本发明实施例利用训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。因此,本发明可以降低代词消解的复杂度。
如图3所示,是本发明代词消解装置的功能模块图。
本发明所述代词消解装置100可以安装于电子设备中。根据实现的功能,所述代词消解装置可以包括划分模块101、标记模块102、模型训练模块103以及消解模块104。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述划分模块101,用于获取对话数据,划分所述对话数据中的上下文语句;
所述标记模块102,用于标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系;
所述模型训练模块103,用于利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,生成上下文字符向量;
所述模型训练模块103,用于利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,得到上下文特征字符向量;
所述模型训练模块103,还用于利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,得到预测实体-代词对应关系;
所述模型训练模块103,还用于利用所述代词实体消解模型中损失函数计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值;
所述模型训练模块103,还用于在损失值不满足预设条件时,调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤;
所述模型训练模块103,还用于在所述损失值满足预设条件时,得到训练完成的代词实体消解模型;
所述消解模块104,用于利用所述训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。
详细地,本发明实施例中所述代词消解装置100中的所述各模块在使用时采用与上述的图1和图2中所述的代词消解方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图4所示,是本发明实现代词消解方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如代词消解程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如代词消解的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行代词消解等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的代词消解12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取对话数据,划分所述对话数据中的上下文语句;
标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系;
利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,生成上下文字符向量;
利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,得到上下文特征字符向量;
利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,得到预测实体-代词对应关系;
利用所述代词实体消解模型中损失函数计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值;
当所述损失值不满足预设条件时,调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤;
当所述损失值满足预设条件时,得到训练完成的代词实体消解模型;
利用所述训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取对话数据,划分所述对话数据中的上下文语句;
标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系;
利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码,生成上下文字符向量;
利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,得到上下文特征字符向量;
利用所述代词实体消解模型中实体-代词关系消解模块对所述上下文特征字符向量进行实体-代词关系识别,得到预测实体-代词对应关系;
利用所述代词实体消解模型中损失函数计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值;
当所述损失值不满足预设条件时,调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤;
当所述损失值满足预设条件时,得到训练完成的代词实体消解模型;
利用所述训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (9)
1.一种代词消解方法,其特征在于,所述方法包括:
获取对话数据,划分所述对话数据中的上下文语句;
标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系;
利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置索引编码,得到上下文字符位置索引;利用所述编码层将所述上下文语句中字符转换成对应的字符向量,得到初始上下文字符向量;将所述上下文字符位置索引和所述初始上下文字符向量进行组合,生成上下文字符向量;
利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,得到上下文特征字符向量;
利用所述代词实体消解模型中的实体-代词关系消解模块中的全连接层检测所述上下文特征字符词向量中的代词实体位置信息,利用所述实体-代词关系消解模块中的激活函数输出所述代词实体位置信息,得到预测实体-代词对应关系;
利用所述代词实体消解模型中损失函数计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值;
当所述损失值不满足预设条件时,调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤;
当所述损失值满足预设条件时,得到训练完成的代词实体消解模型;
利用所述训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。
2.如权利要求1所述的代词消解方法,其特征在于,所述划分所述对话数据中的上下文语句,包括:
获取所述对话数据的语句时间,根据所述语句时间,利用预设的上下文语句划分脚本对所述对话数据进行顺序语句标记,得到上下文语句。
3.如权利要求1所述的代词消解方法,其特征在于,所述标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系,包括:
构建所述上下文语句的数据结构;
根据所述数据结构,利用预设的指针对所述上下文语句进行实体-代词对应关系标记,得到标准实体-代词对应关系。
4.如权利要求1所述的代词消解方法,其特征在于,所述利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置索引编码和字符向量转换,生成上下文字符向量,包括:
利用所述编码层对所述上下文语句中字符进行索引编码,得到上下文字符位置索引;
利用所述编码层将所述上下文语句中字符转换成对应的字符向量,得到初始上下文字符向量;
将所述上下文字符位置索引和所述初始上下文字符向量进行组合,生成上下文字符向量。
5.如权利要求1所述的代词消解方法,其特征在于,所述利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量本进行特征序列提取,得到上下文特征字符向量,包括:
利用所述前馈注意力机制中的自注意力模块查询所述上下文字符向量;
利用所述前馈注意力机制中的卷积模块对查询的所述上下文字符向量进行特征提取,得到特征字符向量;
利用所述前馈注意力机制中的编码器提取所述特征字符向量的信息序列,得到上下文特征字符向量。
7.一种代词消解装置,其特征在于,所述装置包括:
划分模块,用于获取对话数据,划分所述对话数据中的上下文语句;
标记模块,用于标记所述上下文语句中实体及代词的对应关系,生成标准实体-代词对应关系;
模型训练模块,用于利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置索引编码,得到上下文字符位置索引;利用所述编码层将所述上下文语句中字符转换成对应的字符向量,得到初始上下文字符向量;将所述上下文字符位置索引和所述初始上下文字符向量进行组合,生成上下文字符向量;
所述模型训练模块,用于利用所述代词实体消解模型中的前馈注意力机制对所述上下文字符向量进行特征序列提取,得到上下文特征字符向量;
所述模型训练模块,还用于利用所述代词实体消解模型中的实体-代词关系消解模块中的全连接层检测所述上下文特征字符词向量中的代词实体位置信息,利用所述实体-代词关系消解模块中的激活函数输出所述代词实体位置信息,得到预测实体-代词对应关系;
所述模型训练模块,还用于利用所述代词实体消解模型中损失函数计算所述预测实体-代词对应关系与所述标准实体-代词对应关系的损失值;
所述模型训练模块,还用于在损失值不满足预设条件时,调整所述代词实体消解模型的参数,并返回利用代词实体消解模型中的编码层对所述上下文语句中字符进行位置向量编码的步骤及后续步骤;
所述模型训练模块,还用于在所述损失值满足预设条件时,得到训练完成的代词实体消解模型;
消解模块,用于利用所述训练完成的代词实体消解模型对待消解实体-代词关系的对话数据进行实体-代词关系消解,得到消解结果。
8.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任意一项所述的代词消解方法。
9.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任意一项所述的代词消解方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110283477.5A CN112765958B (zh) | 2021-03-17 | 2021-03-17 | 代词消解方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110283477.5A CN112765958B (zh) | 2021-03-17 | 2021-03-17 | 代词消解方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112765958A CN112765958A (zh) | 2021-05-07 |
CN112765958B true CN112765958B (zh) | 2023-07-04 |
Family
ID=75691094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110283477.5A Active CN112765958B (zh) | 2021-03-17 | 2021-03-17 | 代词消解方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112765958B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392629B (zh) * | 2021-06-29 | 2022-10-28 | 哈尔滨工业大学 | 基于预训练模型的人称代词消解方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111967258A (zh) * | 2020-07-13 | 2020-11-20 | 中国科学院计算技术研究所 | 一种构建共指消解模型的方法、共指消解的方法和介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112256868A (zh) * | 2020-09-30 | 2021-01-22 | 华为技术有限公司 | 零指代消解方法、训练零指代消解模型的方法及电子设备 |
CN112466273A (zh) * | 2020-12-10 | 2021-03-09 | 平安科技(深圳)有限公司 | 语音合成方法、装置、电子设备及存储介质 |
-
2021
- 2021-03-17 CN CN202110283477.5A patent/CN112765958B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111967258A (zh) * | 2020-07-13 | 2020-11-20 | 中国科学院计算技术研究所 | 一种构建共指消解模型的方法、共指消解的方法和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112765958A (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639498A (zh) | 知识抽取方法、装置、电子设备及存储介质 | |
CN112597312A (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN112820269B (zh) | 文本转语音方法、装置、电子设备及存储介质 | |
CN113205814B (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
CN112016314A (zh) | 一种基于bert模型的医疗文本理解方法及系统 | |
CN113821622B (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN113807973B (zh) | 文本纠错方法、装置、电子设备及计算机可读存储介质 | |
CN114021582B (zh) | 结合语音信息的口语理解方法、装置、设备及存储介质 | |
CN113642316A (zh) | 中文文本纠错方法、装置、电子设备及存储介质 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN112559687A (zh) | 问题识别及查询方法、装置、电子设备及存储介质 | |
CN112765958B (zh) | 代词消解方法、装置、电子设备及存储介质 | |
CN113344125B (zh) | 长文本匹配识别方法、装置、电子设备及存储介质 | |
CN112989043B (zh) | 指代消解方法、装置、电子设备及可读存储介质 | |
CN114706961A (zh) | 目标文本识别方法、装置及存储介质 | |
CN113342940A (zh) | 文本匹配分析方法、装置、电子设备及存储介质 | |
CN116341646A (zh) | Bert模型的预训练方法、装置、电子设备及存储介质 | |
CN116468025A (zh) | 电子病历结构化方法、装置、电子设备及存储介质 | |
CN114548114B (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN115510188A (zh) | 文本关键词关联方法、装置、设备及存储介质 | |
CN113536782B (zh) | 敏感词识别方法、装置、电子设备及存储介质 | |
CN114781384A (zh) | 命名实体智能标注方法、装置、设备及存储介质 | |
CN115510219A (zh) | 话术推荐方法、装置、电子设备及存储介质 | |
CN114943306A (zh) | 意图分类方法、装置、设备及存储介质 | |
CN112712797A (zh) | 语音识别方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |