CN112084780A - 自然语言处理中共指消解方法、装置、设备及介质 - Google Patents

自然语言处理中共指消解方法、装置、设备及介质 Download PDF

Info

Publication number
CN112084780A
CN112084780A CN202010943187.4A CN202010943187A CN112084780A CN 112084780 A CN112084780 A CN 112084780A CN 202010943187 A CN202010943187 A CN 202010943187A CN 112084780 A CN112084780 A CN 112084780A
Authority
CN
China
Prior art keywords
candidate
coreference
vectors
text
natural language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010943187.4A
Other languages
English (en)
Other versions
CN112084780B (zh
Inventor
姚志强
周曦
袁哲
郝东
温喆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Yunconghonghuang Intelligent Technology Co Ltd
Original Assignee
Guangzhou Yunconghonghuang Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Yunconghonghuang Intelligent Technology Co Ltd filed Critical Guangzhou Yunconghonghuang Intelligent Technology Co Ltd
Priority to CN202010943187.4A priority Critical patent/CN112084780B/zh
Publication of CN112084780A publication Critical patent/CN112084780A/zh
Application granted granted Critical
Publication of CN112084780B publication Critical patent/CN112084780B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种自然语言处理中共指消解方法、装置、设备及介质,包括:获取文本内每个字或词的字符编码;将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解。本发明能够得到任意位置的词组与其他词组之间是否为共指关系,一方面,无需分析输入文本的句法结构与语义结构,也无需分析命名实体;另一方面,能够嵌入到其他各种自然语言处理的任务和模型,适用范围广;进而可快速准确的完成共指消解。

Description

自然语言处理中共指消解方法、装置、设备及介质
技术领域
本发明涉及人工智能技术领域,特别是涉及一种自然语言处理中共指消解方法、装置、设备及介质。
背景技术
实体识别是指在非结构化的文本中识别并抽出具有特定意义或指代性强的实体,比如人名、地名、组织结构名、日期时间、专有名词等。
关系是两个或多个实体之间的某种联系,关系抽取是从文本中检测和识别出实体与实体之间具有的某种语义关系,比如句子“北京是中国的首都、政治中心和文化中心”,其中表述的关系可以为(中国,首都,北京)、(中国,政治中心,北京)或(中国,文化中心,北京)。
共指消解是特殊的关系抽取,共指消解的其中一个实体通常是另外一个实体在当前语境下的不同说法,两个实体之间的关系可以表示为(实体1,共指,实体2)。
然而,目前的自然语言处理(NLP)中共指消解大多依赖句法分析知识、语义知识的传统机器学习方法,通过上述方式获取知识繁琐困难且易造成错误累加,容易导致后续共指消解的准确度不高。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种自然语言处理中共指消解方法、装置、设备及介质,用于解决现有技术中自然语言处理中共指消解准确度低的问题。
为实现上述目的及其他相关目的,本发明提供一种自然语言处理中共指消解方法,包括以下步骤:
获取文本内每个字或词的字符编码;
将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;
将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;
判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解。
本发明还提供一种自然语言处理中共指消解装置,包括:
获取模块,用于获取文本内每个字或词的字符编码;
指称向量生成模块,用于将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;
共指张量生成模块,用于将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;
共指消解模块,用于判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解。
本发明还提供一种设备,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行时,使得所述设备执行如上述中一个或多个所述的方法。
本发明还提供一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得设备执行如上述中一个或多个所述的方法。
如上所述,本发明提供的一种自然语言处理中共指消解方法、装置、设备及介质,具有以下有益效果:
获取文本内每个字或词的字符编码;将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解,本发明能够得到任意位置的词组与其他词组之间是否为共指关系,一方面,无需分析输入文本的句法结构与语义结构,也无需分析命名实体;另一方面,能够嵌入到其他各种自然语言处理的任务和模型,适用范围广;进而可快速准确的完成共指消解。
附图说明
图1为一实施例提供的自然语言处理中共指消解方法的流程示意图;
图2为另一实施例提供的自然语言处理中共指消解方法的流程示意图;
图3为另一实施例提供的自然语言处理中共指消解方法的流程示意图;
图4为一实施例提供的自然语言处理中共指消解装置的硬件结构示意图;
图5为另一实施例提供的自然语言处理中共指消解装置的硬件结构示意图;
图6为另一实施例提供的自然语言处理中共指消解装置的硬件结构示意图;
图7为一实施例提供的终端设备的硬件结构示意图;
图8为另一实施例提供的终端设备的硬件结构示意图。
元件标号说明:
1 获取模块
2 指称向量生成模块
3 共指张量生成模块
4 共指消解模块
5 预处理模块
6 分类排序模块
1100 输入设备
1101 第一处理器
1102 输出设备
1103 第一存储器
1104 通信总线
1200 处理组件
1201 第二处理器
1202 第二存储器
1203 通信组件
1204 电源组件
1205 多媒体组件
1206 语音组件
1207 输入/输出接口
1208 传感器组件
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
在本领域的相关技术中,自然语言处理着力于研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,随着人工智能的发展,尤其是人机交互的需求日益增长,自然语言处理技术的重要性越来越得到重视。共指消解是自然语言处理中的重要技术基础之一,其作用是在一段文字中,其中一个实体通常是另外一个实体在当前语境下的不同说法,两个实体之间的关系可以表示为(实体1,共指,实体2),即,找到指代同一主体的名词、名词短语和代词,在自然语言中起超链接的作用。
目前的共指消解技术多为依赖句法分析知识、语义知识的传统机器学习方法,然而这些依赖的知识的获取繁琐困难且易造成错误累加,容易导致共指消解的准确度不高。
基于以上方案存在的问题,本发明公开提供了一种自然语言处理中共指消解方法、自然语言处理中共指消解装置、电子设备以及存储介质。
命名实体:人名、机构名、地名以及其他所有以名称为标识的实体,也包括数字、日期、货币、地址等,是知识库中完整定义的,唯一存在的条目;
指称:自然语言处理中的实体,或者指代实体的代词;
共指:当文本中的两个指称指代的是同一个实体,则称它们之间为共指关系;
共指消解:给出输入文本中具有共指关系的指称。
正确率:是指识别出的正确实体数与识别出的实体数的比值,取值在0-1之间,数值越大,正确率越高。
召回率:是指识别出的正确实体数与样本的实体数的比值,取值在0-1之间,数值越大,找回率越高。
请参阅图1,本发明提供一种自然语言处理中共指消解方法,包括以下步骤:
S1,获取文本内每个字或词的字符编码;
其中,该文本为输入文本或目标文本,通过将文本输入到编码器,获取文本内每个字或词的字符编码(词向量),其中,所述编码器为通过训练所得的深度学习语言模型。
例如,假设通过编码器对文本(由目标语句或目标段落、目标文章中的一个或多个词语组合成的词语集合)进行分词,得到每个词对应的字符编码。
S2,将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;
例如,文本为简单语句,如,问答模式,文本内出现“小狼”字符,由于文本内该字符编码只有一个相邻字符编码时,则拼接后为二维候选指称向量;文本内出现“它是狼”字符,由于文本该字符编码有两个相邻字符编码时,则拼接后为三维候选指称向量,由于现有技术中,针对一维张量称为向量,二维张量称为矩阵,大于等于三维张量则直接称为张量,因此,本申请所指代的多维度“候选指称向量”可表示为“候选指称张量”或“候选指称编码张量”。
S3,将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;
其中,例如某个文本内出现的候选指称向量有20个,如果选中第11个候选指称向量,将该候选指称向量与其前面的10个候选指称向量两两之间拼接生成候选共指张量,同时,该候选指称向量与其后的9个候选指称向量也两两之间拼接生成候选共指张量。
S4,判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解。
在本实施例中,将输入文本按照上述方式训练所得的共指消解模型,能够得到任意位置的词组与其他词组之间是否为共指关系,从而实现共指消解。一方面,无需分析输入文本的句法结构与语义结构,也无需分析命名实体;另一方面,可嵌入到其他各种自然语言处理的任务和模型,该方式灵活度高、适用范围广(如,信息抽取、文本摘要、自动问答、机器翻译等领域)、可快速准确的完成共指消解。
在一示例性实施例中,将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量,详述如下:
将所述文本内每个字符编码与相邻的一个字符编码或多个字符编码拼接,得到多种维度的候选指称向量。
具体地,将所述文本内每个字符编码与相邻的t个字符编码拼接,其中,0≤t≤T,当t=0时,候选指称向量是该字符编码本身;当t=T时,候选指称向量包含字符编码的最大值是T+1,每个字符编码的维度为1*d,拼接后的候选指称向量所对应的维度为(t+1)*d或1*(d*(t+1)),随着相邻的t个字符编码的长度不同,对应有不同维度的候选指称向量。
在本实施例中,采用上述方式拼接,将(t+1)个字符拼接的维度(t+1)*d,或者1*(d*(t+1))等,拼接后形成的多维度候选指称向量为指称张量。
通过将文本内每个字或词所对应的字符编码均与其相应的t个字符编码拼接,避免了需要分析文本的句法结构与语义结构,也无需分析命名实体,将所有可能涵盖的实体名词都通过字符编码拼接方式进行表述,避免了漏掉任意一个命名实体的现象,从而提高了共指关系识别的正确率与召回率。
在一示例性实施例中,判断所述候选共指张量所对应的候选指称向量是否为共指关系,根据共指关系完成共指消解,详述如下:
利用共指分类器判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系;
其中,共指分类器也是根据深度学习网络中的全连接层(softmax)的概率值进行判断,例如,设定预设值,通过所述候选共指张量是否满足预设值判断所对应的候选指称向量是否为共指关系,从而实现自动判断。
当两个所述候选指称向量存在共指关系时,则采用共指消解模型对存在共指关系的候选指称向量进行共指消解;
当两个所述候选指称向量不存在共指关系时,则不处理。
在本实施例中,所述共指消解模型用于消解具有共指关系的候选指称向量,从而完成共指消解,需要说明的是,共指消解是指通过共指消解模型检测和识别候选实体片段中的词语即实体之间的共指关系,比如词语“山城”、“雾都”均是指代“重庆”,所以词语“山城”、“雾都”之间存在共指关系。
在一示例性实施例中,请参阅图2,为本发明另一实施例提供一种自然语言处理中共指消解方法流程图,与图1的区别在于,在步骤S3之前,还包括:
步骤S30,利用卷积神经网络或循环神经网络对多个不同维度的所述候选指称向量进行预处理,得到同一维度的候选指称向量。
其中,卷积神经网络(Convolutional Neural Networks,CNN),是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习(deep learning)的代表算法之一,在本申请中,通过cnn网络编码得到同一维度的候选指称向量。
循环神经网络(Recurrent Neural Network,RNN)是一类以序列数据为输入,在序列的演进方向进行递归且所有节点(循环单元)按链式连接的递归神经网络,例如,双向循环神经网络和长短期记忆网络。
在本实施例中,由于步骤S2中根据拼接的字符编码长度不同导致生成不同维度的候选指称向量,而后续的候选指称向量如果维度不同,需要训练不同维度的分类器,进行分类识别,通过上述预处理一方面,减少了整个模型的训练工作量,可兼容不同字符编码长度的片段进行拼接,更易推广使用;另一方面,预处理为同一维度的候选指称向量在后续两两之间拼接时,也极大减少了工作量,便于从整体上提升共指消解的速度。
在一示例性实施例中,请参阅图3,为本发明另一实施例提供一种自然语言处理中共指消解方法流程图,与图2的区别在于,在步骤S3之前与步骤S30之后,还包括:
步骤S31,分类处理所述候选指称向量得到分类结果,根据分类所得分值大小选取排序靠前的所述候选指称向量。
具体地,通过前馈神经网络或神经网络对所述候选指称向量进行打分,依据候选指称向量的分数进行分类,并将分数大于或等于预设阈值的候选指称向量作为排序靠前的所述候选指称向量。
前馈神经网络(FeedForward Neural Network,FFNN),是一种最简单的神经网络,各神经元分层排列,每个神经元只与前一层的神经元相连,接收前一层的输出,并输出给下一层.各层间没有反馈,是目前应用最广泛、发展最迅速的人工神经网络之一。
分类处理是指通过softmax函数对候选指称向量基于其分数按照其对应词语的属性进行分类,并获得分类标签(分类结果)。
其中,分数依靠指称分类器的概率值可分为十分制分数、百分制分数、千分制分数等,对此不做限制。
例如,假设候选指称向量分数的预设阈值为60分,存在a1-a6共6个候选指称向量。
通过前馈神经网络对候选指称向量进行打分,得到候选指称向量a1-a6分数分别为85分、72分、40分、33分、68分、45分,那么候选指称向量a1、a2、a5的分数大于预设阈值,将候选指称向量a1、a2、a5作为排序靠前的所述候选指称向量。
在本实施例中,通过选取排名靠前的候选指称向量作为后续两两拼接生成候选共指张量,通过步骤S32中对非实体名称的候选指称向量进行过滤排除,极大的减少了后续拼接生成的候选共指张量的数量;避免对非实体名称的候选指称向量进行无效拼接,从整个流程上提升了共指消解的效率与速度。
在本实施例中,利用自然语言处理中共指消解方法,获取文本内每个字或词的字符编码;将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;判断所述候选共指张量所对应的候选指称向量是否为共指关系,根据共指关系完成共指消解。本发明可依托上述步骤实现单任务模型或多任务模型的训练,从而得到共指消解的模型,通过将文本输入到模型,能够得到任意位置的词组与其他词组之间是否为共指关系,一方面,无需分析输入文本的句法结构与语义结构,也无需分析命名实体;另一方面,能够嵌入到其他各种自然语言处理的任务和模型,适用范围广;进而可快速准确的完成共指消解。
请参阅图4,为本发明提供的一种自然语言处理中共指消解装置,包括:
获取模块1,用于获取文本内每个字或词的字符编码;
指称向量生成模块2,用于将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;
共指张量生成模块3,用于将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;
共指消解模块4,用于判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解。
在一示例性实施例中,所述获取模块,利用编码器获取文本内每个字或词的字符编码,其中,所述编码器为深度学习语言模型。
在一示例性实施例中,指称向量生成模块,用于将所述文本内每个字符编码与相邻的一个字符编码或多个字符编码拼接,得到多种维度的候选指称向量。
具体地,将所述文本内每个字符编码与相邻的t个字符编码拼接,其中,0≤t≤T,候选指称向量包含字符编码的最大值是T+1,每个字符编码的维度为1*d,拼接后的候选指称向量所对应的维度为(t+1)*d或1*(d*(t+1))。
在一示例性实施例中,请参阅图5,为本发明另一实施例提供的一种自然语言处理中共指消解装置,在图4的基础上还包括:
预处理模块5,利用卷积神经网络或循环神经网络对多个不同维度的所述候选指称向量进行预处理,得到同一维度的候选指称向量。
在一示例性实施例中,请参阅图6,为本发明另一实施例提供的一种自然语言处理中共指消解装置,在图5的基础上还包括:
分类排序模块6,用于分类处理所述候选指称向量得到分类结果,根据分类所得分值大小选取排序靠前的所述候选指称向量。
具体地,所述分类排序模块通过前馈神经网络对所述候选指称向量进行打分,依据候选指称向量的分数进行分类,并将分数大于或等于预设阈值的候选指称向量作为排序靠前的所述候选指称向量。
在一示例性实施例中,所述共指消解模块,利用共指分类器判断所述候选共指张量所对应的候选指称向量是否为共指关系,当所述候选指称向量存在共指关系时,则采用共指消解模型对存在共指关系的候选指称向量进行共指消解;当所述候选指称向量不存在共指关系时,则不处理。
在本实施例中,该自然语言处理中共指消解装置与自然语言处理中共指消解方法为一一对应关系,详细技术细节、技术功能和技术效果请参照上述实施例,此处不再一一赘述。
综上所述,本发明提供一种自然语言处理中共指消解装置,获取输入文本内每个词的字符编码;将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;判断所述候选共指张量所对应的候选指称向量是否为共指关系,根据共指关系完成共指消解,本发明能够得到任意位置的词组与其他词组之间是否为共指关系,一方面,无需分析输入文本的句法结构与语义结构,也无需分析命名实体;另一方面,能够嵌入到其他各种自然语言处理的任务和模型,适用范围广;进而可快速准确的完成共指消解。
本申请实施例还提供了一种设备,该设备可以包括:一个或多个处理器;和其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述设备执行图1所述的方法。在实际应用中,该设备可以作为终端设备,也可以作为服务器,终端设备的例子可以包括:智能手机、平板电脑、电子书阅读器、MP3(动态影像专家压缩标准语音层面3,Moving Picture Experts Group Audio Layer III)播放器、MP4(动态影像专家压缩标准语音层面4,Moving Picture Experts Group Audio Layer IV)播放器、膝上型便携计算机、车载电脑、台式计算机、机顶盒、智能电视机、可穿戴设备等等,本申请实施例对于具体的设备不加以限制。
本申请实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块(programs),该一个或多个模块被应用在设备时,可以使得该设备执行本申请实施例的图1中所述方法所包含步骤的指令(instructions)。
图7为本申请一实施例提供的终端设备的硬件结构示意图。如图所示,该终端设备可以包括:输入设备1100、第一处理器1101、输出设备1102、第一存储器1103和至少一个通信总线1104。通信总线1104用于实现元件之间的通信连接。第一存储器1103可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器,第一存储器1103中可以存储各种程序,用于完成各种处理功能以及实现本实施例的方法步骤。
可选的,上述第一处理器1101例如可以为中央处理器(Central ProcessingUnit,简称CPU)、应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,该第一处理器1101通过有线或无线连接耦合到上述输入设备1100和输出设备1102。
可选的,上述输入设备1100可以包括多种输入设备,例如可以包括面向用户的用户接口、面向设备的设备接口、软件的可编程接口、摄像头、传感器中至少一种。可选的,该面向设备的设备接口可以是用于设备与设备之间进行数据传输的有线接口、还可以是用于设备与设备之间进行数据传输的硬件插入接口(例如USB接口、串口等);可选的,该面向用户的用户接口例如可以是面向用户的控制按键、用于接收语音输入的语音输入设备以及用户接收用户触摸输入的触摸感知设备(例如具有触摸感应功能的触摸屏、触控板等);可选的,上述软件的可编程接口例如可以是供用户编辑或者修改程序的入口,例如芯片的输入引脚接口或者输入接口等;输出设备1102可以包括显示器、音响等输出设备。
在本实施例中,该终端设备的处理器包括用于执行各设备中语音识别装置各模块的功能,具体功能和技术效果参照上述实施例即可,此处不再赘述。
图8为本申请的一个实施例提供的终端设备的硬件结构示意图。图8是对图7在实现过程中的一个具体的实施例。如图所示,本实施例的终端设备可以包括第二处理器1201以及第二存储器1202。
第二处理器1201执行第二存储器1202所存放的计算机程序代码,实现上述实施例中图1所述方法。
第二存储器1202被配置为存储各种类型的数据以支持在终端设备的操作。这些数据的示例包括用于在终端设备上操作的任何应用程序或方法的指令,例如消息,图片,视频等。第二存储器1202可能包含随机存取存储器(random access memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
可选地,第二处理器1201设置在处理组件1200中。该终端设备还可以包括:通信组件1203,电源组件1204,多媒体组件1205,语音组件1206,输入/输出接口1207和/或传感器组件1208。终端设备具体所包含的组件等依据实际需求设定,本实施例对此不作限定。
处理组件1200通常控制终端设备的整体操作。处理组件1200可以包括一个或多个第二处理器1201来执行指令,以完成上述数据处理方法中的全部或部分步骤。此外,处理组件1200可以包括一个或多个模块,便于处理组件1200和其他组件之间的交互。例如,处理组件1200可以包括多媒体模块,以方便多媒体组件1205和处理组件1200之间的交互。
电源组件1204为终端设备的各种组件提供电力。电源组件1204可以包括电源管理系统,一个或多个电源,及其他与为终端设备生成、管理和分配电力相关联的组件。
多媒体组件1205包括在终端设备和用户之间的提供一个输出接口的显示屏。在一些实施例中,显示屏可以包括液晶显示器(LCD)和触摸面板(TP)。如果显示屏包括触摸面板,显示屏可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
语音组件1206被配置为输出和/或输入语音信号。例如,语音组件1206包括一个麦克风(MIC),当终端设备处于操作模式,如语音识别模式时,麦克风被配置为接收外部语音信号。所接收的语音信号可以被进一步存储在第二存储器1202或经由通信组件1203发送。在一些实施例中,语音组件1206还包括一个扬声器,用于输出语音信号。
输入/输出接口1207为处理组件1200和外围接口模块之间提供接口,上述外围接口模块可以是点击轮,按钮等。这些按钮可包括但不限于:音量按钮、启动按钮和锁定按钮。
传感器组件1208包括一个或多个传感器,用于为终端设备提供各个方面的状态评估。例如,传感器组件1208可以检测到终端设备的打开/关闭状态,组件的相对定位,用户与终端设备接触的存在或不存在。传感器组件1208可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在,包括检测用户与终端设备间的距离。在一些实施例中,该传感器组件1208还可以包括摄像头等。
通信组件1203被配置为便于终端设备和其他设备之间有线或无线方式的通信。终端设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个实施例中,该终端设备中可以包括SIM卡插槽,该SIM卡插槽用于插入SIM卡,使得终端设备可以登录GPRS网络,通过互联网与服务器建立通信。
由上可知,在图8实施例中所涉及的通信组件1203、语音组件1206以及输入/输出接口1207、传感器组件1208均可以作为图7实施例中的输入设备的实现方式。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (14)

1.一种自然语言处理中共指消解方法,其特征在于,包括以下步骤:
获取文本内每个字或词的字符编码;
将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;
将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;
判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解。
2.根据权利要求1所述的自然语言处理中共指消解方法,其特征在于,所述将每个所述候选指称向量与其余的候选指称向量两两之间拼接的步骤之前,还包括:
利用卷积神经网络或循环神经网络对多个不同维度的所述候选指称向量进行预处理,得到同一维度的候选指称向量。
3.根据权利要求1或2所述的自然语言处理中共指消解方法,其特征在于,所述将每个所述候选指称向量与其余的候选指称向量两两之间拼接的步骤之前,还包括:
分类处理所述候选指称向量得到分类结果,根据分类所得分值大小选取排序靠前的所述候选指称向量。
4.根据权利要求3所述的自然语言处理中共指消解方法,其特征在于,所述分类处理所述候选指称向量得到分类结果,根据分类所得分值大小选取排序靠前的所述候选指称向量的步骤,包括:
通过前馈神经网络对所述候选指称向量进行打分,依据候选指称向量的分数进行分类,并将分数大于或等于预设阈值的候选指称向量作为排序靠前的所述候选指称向量。
5.根据权利要求1或2所述的自然语言处理中共指消解方法,其特征在于,所述获取文本内每个字或词的字符编码的步骤,包括:
利用编码器获取文本内每个字或词的字符编码,其中,所述编码器为深度学习语言模型。
6.根据权利要求1或2所述的自然语言处理中共指消解方法,其特征在于,将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量的步骤,包括:
将所述文本内每个字符编码与相邻的t个字符编码拼接,其中,0≤t≤T,候选指称向量包含字符编码的最大值是T+1,每个字符编码的维度为1*d,拼接后的候选指称向量所对应的维度为(t+1)*d或1*(d*(t+1))。
7.根据权利要求1或2所述的自然语言处理中共指消解方法,其特征在于,所述判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解的步骤,包括:
利用共指分类器判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,当两个所述候选指称向量存在共指关系时,则采用共指消解模型对存在共指关系的候选指称向量进行共指消解;当两个所述候选指称向量不存在共指关系时,则不处理。
8.一种自然语言处理中共指消解装置,其特征在于,包括:
获取模块,用于获取文本内每个字或词的字符编码;
指称向量生成模块,用于将所述文本内每个字符编码与相邻的至少一个字符编码拼接,得到候选指称向量;
共指张量生成模块,用于将每个所述候选指称向量与其余的候选指称向量两两之间拼接,得到候选共指张量;
共指消解模块,用于判断每个所述候选共指张量所对应的两个候选指称向量是否为共指关系,根据共指关系完成共指消解。
9.根据权利要求8所述的自然语言处理中共指消解装置,其特征在于,还包括:
预处理模块,利用卷积神经网络或循环神经网络对多个不同维度的所述候选指称向量进行预处理,得到同一维度的候选指称向量。
10.根据权利要求8或9所述的自然语言处理中共指消解装置,其特征在于,还包括:
分类排序模块,用于分类处理所述候选指称向量得到分类结果,根据分类所得分值大小选取排序靠前的所述候选指称向量。
11.根据权利要求12所述的自然语言处理中共指消解装置,其特征在于,所述分类排序模块通过前馈神经网络对所述候选指称向量进行打分,依据候选指称向量的分数进行分类,并将分数大于或等于预设阈值的候选指称向量作为排序靠前的所述候选指称向量。
12.根据权利要求10所述的自然语言处理中共指消解装置,其特征在于,所述指称向量生成模块,用于将所述文本内每个字符编码与相邻的t个字符编码拼接,其中,0≤t≤T,候选指称向量包含字符编码的最大值是T+1,每个字符编码的维度为1*d,拼接后的候选指称向量所对应的维度为(t+1)*d或1*(d*(t+1))。
13.一种设备,其特征在于,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行时,使得所述设备执行如权利要求1-7中一个或多个所述的方法。
14.一个或多个机器可读介质,其特征在于,其上存储有指令,当由一个或多个处理器执行时,使得设备执行如权利要求1-7中一个或多个所述的方法。
CN202010943187.4A 2020-09-09 2020-09-09 自然语言处理中共指消解方法、装置、设备及介质 Active CN112084780B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010943187.4A CN112084780B (zh) 2020-09-09 2020-09-09 自然语言处理中共指消解方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010943187.4A CN112084780B (zh) 2020-09-09 2020-09-09 自然语言处理中共指消解方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN112084780A true CN112084780A (zh) 2020-12-15
CN112084780B CN112084780B (zh) 2021-06-15

Family

ID=73732493

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010943187.4A Active CN112084780B (zh) 2020-09-09 2020-09-09 自然语言处理中共指消解方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN112084780B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392629A (zh) * 2021-06-29 2021-09-14 哈尔滨工业大学 基于预训练模型的人称代词消解方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813916B2 (en) * 2003-11-18 2010-10-12 University Of Utah Acquisition and application of contextual role knowledge for coreference resolution
CN110134944A (zh) * 2019-04-08 2019-08-16 国家计算机网络与信息安全管理中心 一种基于强化学习的指代消解方法
CN111339780A (zh) * 2020-05-14 2020-06-26 北京金山数字娱乐科技有限公司 一种基于多任务模型的词语处理方法及装置
CN111488726A (zh) * 2020-03-31 2020-08-04 成都数之联科技有限公司 基于指针网络的非结构文本抽取多任务联合训练方法
CN111581973A (zh) * 2020-04-24 2020-08-25 中国科学院空天信息创新研究院 一种实体消歧方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813916B2 (en) * 2003-11-18 2010-10-12 University Of Utah Acquisition and application of contextual role knowledge for coreference resolution
CN110134944A (zh) * 2019-04-08 2019-08-16 国家计算机网络与信息安全管理中心 一种基于强化学习的指代消解方法
CN111488726A (zh) * 2020-03-31 2020-08-04 成都数之联科技有限公司 基于指针网络的非结构文本抽取多任务联合训练方法
CN111581973A (zh) * 2020-04-24 2020-08-25 中国科学院空天信息创新研究院 一种实体消歧方法及系统
CN111339780A (zh) * 2020-05-14 2020-06-26 北京金山数字娱乐科技有限公司 一种基于多任务模型的词语处理方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王君泽 等: "《面向共指事件识别的同义表述模式抽取研究》", 《情报学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392629A (zh) * 2021-06-29 2021-09-14 哈尔滨工业大学 基于预训练模型的人称代词消解方法
CN113392629B (zh) * 2021-06-29 2022-10-28 哈尔滨工业大学 基于预训练模型的人称代词消解方法

Also Published As

Publication number Publication date
CN112084780B (zh) 2021-06-15

Similar Documents

Publication Publication Date Title
WO2022141861A1 (zh) 情感分类方法、装置、电子设备及存储介质
WO2021121198A1 (zh) 基于语义相似度的实体关系抽取方法、装置、设备及介质
CN112330455B (zh) 用于推送信息的方法、装置、设备以及存储介质
CN110909543A (zh) 意图识别方法、装置、设备及介质
CN113434636B (zh) 基于语义的近似文本搜索方法、装置、计算机设备及介质
CN111767375A (zh) 语义召回方法、装置、计算机设备及存储介质
CN111783427B (zh) 用于训练模型与输出信息的方法、装置、设备及存储介质
Li et al. Intention understanding in human–robot interaction based on visual-NLP semantics
CN112395421A (zh) 课程标签的生成方法、装置、计算机设备及介质
CN113158656A (zh) 讽刺内容识别方法、装置、电子设备以及存储介质
CN112148862A (zh) 一种问题意图识别方法、装置、存储介质及电子设备
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN112084780B (zh) 自然语言处理中共指消解方法、装置、设备及介质
CN113626576A (zh) 远程监督中关系特征抽取方法、装置、终端及存储介质
CN113505786A (zh) 试题拍照评判方法、装置及电子设备
CN112001167A (zh) 一种标点符号添加方法、系统、设备和介质
CN115730237B (zh) 垃圾邮件检测方法、装置、计算机设备及存储介质
CN112329429A (zh) 文本相似度学习方法、装置、设备以及存储介质
CN111555960A (zh) 信息生成的方法
CN114742058B (zh) 一种命名实体抽取方法、装置、计算机设备及存储介质
CN114492437B (zh) 关键词识别方法、装置、电子设备及存储介质
WO2023137903A1 (zh) 基于粗糙语义的回复语句确定方法、装置及电子设备
CN115238077A (zh) 基于人工智能的文本分析方法、装置、设备及存储介质
CN112364649B (zh) 命名实体的识别方法、装置、计算机设备及存储介质
CN114547242A (zh) 一种问卷调研的方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant