CN114444472B - 文本处理方法、装置、电子设备和存储介质 - Google Patents

文本处理方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN114444472B
CN114444472B CN202210340057.0A CN202210340057A CN114444472B CN 114444472 B CN114444472 B CN 114444472B CN 202210340057 A CN202210340057 A CN 202210340057A CN 114444472 B CN114444472 B CN 114444472B
Authority
CN
China
Prior art keywords
information
dependency syntax
target text
node
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210340057.0A
Other languages
English (en)
Other versions
CN114444472A (zh
Inventor
李硕
陈庆洋
王贺伟
王冠皓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210340057.0A priority Critical patent/CN114444472B/zh
Publication of CN114444472A publication Critical patent/CN114444472A/zh
Application granted granted Critical
Publication of CN114444472B publication Critical patent/CN114444472B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种文本处理方法,涉及人工智能领域,尤其涉及文本处理、知识图谱、文本结构化、数据挖掘和文本摘要等技术领域。具体实现方案为:根据目标文本,得到依存句法信息,其中,依存句法信息包括至少一个结点,结点对应至少一个字;根据至少一个结点和结点对应的至少一个字,确定至少一个第一边;根据至少一个第一边,得到更新后的依存句法信息;以及根据更新后的依存句法信息,确定目标文本中词之间的关联关系。本公开还提供了一种文本处理装置、电子设备和存储介质。

Description

文本处理方法、装置、电子设备和存储介质
技术领域
本公开涉及人工智能技术领域,尤其涉及文本处理、知识图谱、文本结构化、数据挖掘和文本摘要等技术领域。更具体地,本公开提供了一种文本处理方法、装置、电子设备和存储介质。
背景技术
可以从文本中抽取包含主语、谓语和宾语的三元组。例如,可以基于开放域信息抽取(Open Information Extraction,OIE)技术或限定域信息抽取(Restrict InformationExtraction,RIE)技术,从文本中抽取出上述三元组。
发明内容
本公开提供了一种文本处理方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种文本处理方法,该方法包括:根据目标文本,得到依存句法信息,其中,所述依存句法信息包括至少一个结点,所述结点对应至少一个字;根据所述至少一个结点和所述结点对应的至少一个字,确定至少一个第一边;根据所述至少一个第一边,得到更新后的依存句法信息;以及根据所述更新后的依存句法信息,确定所述目标文本中词之间的关联关系。
根据本公开的另一方面,提供了一种文本处理装置,该装置包括:第一获得模块,用于根据目标文本,得到依存句法信息,其中,所述依存句法信息包括至少一个结点,所述结点对应至少一个字;第一确定模块,用于根据所述至少一个结点和所述结点对应的至少一个字,确定至少一个第一边;第二获得模块,用于根据所述至少一个第一边,得到更新后的依存句法信息;以及第二确定模块,用于根据所述更新后的依存句法信息,确定所述目标文本中词之间的关联关系。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开提供的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的一个实施例的可以应用文本处理方法和装置的示例性系统架构示意图;
图2是根据本公开的一个实施例的文本处理方法的流程图;
图3A是根据本公开的一个实施例的依存句法信息的示意图;
图3B是根据本公开的一个实施例的更新的依存句法信息的示意图;
图4是根据本公开的一个实施例的图Transformer编码块的原理图;
图5是根据本公开的另一个实施例的图Transformer编码块的原理图;
图6是根据本公开的一个实施例的深度学习模型的原理图;
图7A是根据本公开的另一个实施例的依存句法信息的示意图;
图7B是根据本公开的另一个实施例的修改后的依存句法信息的示意图;
图8A是根据本公开的另一个实施例的依存句法信息的示意图;
图8B是根据本公开的另一个实施例的修改后的依存句法信息的示意图;
图9A是根据本公开的另一个实施例的依存句法信息的示意图;
图9B是根据本公开的另一个实施例的修改后的依存句法信息的示意图;
图10是根据本公开的一个实施例的文本处理装置的框图;以及
图11是根据本公开的一个实施例的可以应用文本处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
一种基于序列标注的文本处理方法,利用一深度学习模型为输入文本中的每个字进行标注,得到标签序列。再根据标签序列,得到上述三元组。但该方法中,三元组的谓语需严格出现在输入文本中且谓语为输入文本中的一个连续子序列。
一种基于序列生成的文本处理方法,利用深度学习模型为输入文本生成一个上述三元组。由于相关的训练数据较少,该方法应用的深度学习模型难以得到充分训练。生成的三元组质量也较低。
一种基于文本片段的文本处理方法,可以先通过预设规则生成所有可能的片段,再基于这些片段构造多个三元组。并且可以通过一个评价模型为每个三元组进行打分,将打分最高的三元组最后输出的三元组。
这三个方法需要大量的训练数据来训练深度学习模型或对深度学习模型进行评价。
图1是根据本公开一个实施例的可以应用文本处理方法和装置的示例性系统架构示意图。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的文本处理方法一般可以由服务器105执行。相应地,本公开实施例所提供的文本处理装置一般可以设置于服务器105中。本公开实施例所提供的文本处理方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的文本处理装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
图2是根据本公开的一个实施例的文本处理方法的流程图。
如图2所示,该方法200可以包括操作S210至操作S240。
在操作S210,根据目标文本,得到依存句法信息。
例如,依存句法信息例如可以是依存句法树。
例如,依存句法信息包括至少一个结点,结点对应至少一个字。
例如,目标文本可以是一个句子。在一个示例中,目标文本可以是“陈某在上海上班”。在一个示例中,目标文本可以是“陈某在上海工作了半年,并且开始交税”。
例如,以目标文本是“陈某在上海上班”为示例,至少一个结点可以是结点“陈某”、结点“在”、结点“上海”和结点“上班”。结点“陈某”对应的2个字分别为“陈”和“某”。
可以理解,可以通过各种方式获取文本的依存句法信息,本公开在此不做限制。
在操作S220,根据至少一个结点和结点对应的至少一个字,得到至少一个第一边。
在本公开实施例中,可以将结点对应的至少一个字中的每个字作为一个子结点,得到结点对应的至少一个子结点。根据结点对应的至少一个子结点和该结点,得到至少一个第一边。
例如,结点“陈某”对应2个字,分别为“陈”和“某”。将“陈”和“某”分别作为一个子结点。可以根据结点“陈某”和子结点“陈”,得到一个第一边。可以根据根结点“陈某”和子结点“某”,得到一个第一边。类似地,可以根据其他结点和结点对应的字,得到其他的第一边。
又例如,结点“在”对应一个字,该字为“在”。可以将“在”作为一个子结点,根据结点“在”和子结点“在”,得到一个第一边。
在操作S230,根据至少一个第一边,得到更新后的依存句法信息。
例如,依存句法信息还包括至少一个第二边。第二边用于连接两个结点。
以目标文本是“陈某在上海上班”为示例,一个第二边用于连接结点“陈某”和结点“上班”,一个第二边可以用于连接结点“上班”和结点“上海”,一个第二边可以用于连接结点“上海”和结点“在”。
例如,可以根据至少一个第二边和至少一个第一边,得到更新后的依存句法信息。
在操作S240,根据更新后的依存句法信息,确定目标文本中词之间的关联关系。
例如,可以根据更新后的依存句法信息,确定一个邻接矩阵。
又例如,可以利用包括多个Transformer编码块的深度学习模型处理目标文本。Transformer编码块可以基于Mask机制对输入的特征信息进行处理。在本公开实施例中,可以根据上述邻接矩阵确定Mask机制所需的掩码矩阵,以处理目标文本。
例如,词之间的关联关系可以是上述三元组。以目标文本是“陈某在上海上班”为示例,“陈某”可以是主语(Subject),“上海”可以是宾语(Object),“上班”可以是谓语(Predicate)。
通过本公开实施例,充分利用文本的依存句法信息,高效捕捉文本中字和词之间的关系,进而确定词之间的关联关系。
图3A是根据本公开的一个实施例的依存句法信息的示意图。
如图3A所示,依存句法信息301可以是一个树结构。依存句法信息301可以与目标文本“陈某在上海上班”对应。依存句法信息301包括结点“陈某”311、结点“上班”312、结点“上海”313和结点“在”314。
结点“陈某”311和结点“上班”312之间经由第二边E311连接。第二边E311可以表征结点“陈某”311和结点“上班”312之间的关系。结点“上班”312和结点“上海”313之间经由第二边E312连接。第二边E312可以表征结点“上班”312和结点“上海”313之间的关系。结点“上海”313和结点“在”314之间经由第二边E313连接。第二边E313可以表征结点“上海”313和结点“在”314之间的关系。
图3B是根据本公开的一个实施例的更新的依存句法信息的示意图。
如图3B所示,更新的依存句法信息302也可以是一个树结构。更新的依存句法信息302可以与目标文本“陈某在上海上班”对应。更新的依存句法信息302包括结点“陈某”311、结点“上班”312、结点“上海”313和结点“在”314。
更新的依存句法信息302可以包括上文所述的第二边E311至第二边E313。
此外,如上文所述,可以将结点对应的至少一个字中的每个字作为一个子结点,得到结点对应的至少一个子结点。根据结点对应的至少一个子结点和该结点,得到至少一个第一边。
例如,结点“陈某”311和子结点“陈”321之间经由第一边E321连接。结点“陈某”311和子结点“某”322之间经由第一边E322连接。结点“上班”312和子结点“上”323之间经由第一边E323连接。结点“上班”312和子结点“班”324之间经由第一边E324连接。结点“上海”313和子结点“上”325之间经由第一边E325连接。结点“上海”313和子结点“海”326之间经由第一边E326连接。结点“在”314和子结点“在”327之间经由第一边E327连接。
可以理解,可以通过各种方式根据依存句法信息301或更新的依存句法信息,得到一个邻接矩阵。
在一些实施例中,根据更新后的依存句法信息,确定目标文本中词之间的关联关系包括:根据更新后的依存句法信息,得到掩码矩阵;根据掩码矩阵、目标文本的查询特征信息和目标文本的键特征信息,确定相似度信息;以及根据相似度信息和目标文本的值特征信息,确定目标文本中词之间的关联关系。
在一些实施例中,根据相似度信息和目标文本的值特征信息,确定目标文本中词之间的关联关系包括:根据相似度信息,确定注意力权重;以及根据注意力权重和目标文本的值特征信息,确定目标文本中词之间的关联关系。
例如,可以对目标文本进行特征提取,得到目标文本的第一特征信息。再利用一个图Transformer编码块对该第一特征信息进行处理,以确定目标文本中词之间的关联关系,下面将结合图4进行详细说明。
图4是根据本公开的一个实施例的图Transformer编码块的原理图。
如图4所示,图Transformer编码块400包括线性处理层401、线性处理层402、线性处理层403、运算层404、Scaling层405、Mask层406、Softmax层407、运算层408和融合层409。
线性处理层401可以对第一特征信息HS进行处理,输出目标文本的查询特征信息Q。线性处理层402可以对第一特征信息HS进行处理,输出目标文本的键特征信息K。线性处理层403可以对第一特征信息HS进行处理,输出目标文本的值特征信息V。
运算层404可以根据查询特征信息Q和键特征信息K进行运算(例如矩阵乘法运算),输出运算结果信息。Scaling层405可以对运算结果信息进行缩放,例如根据运算结果信息和键特征信息K的维度数d_k进行缩放,输出缩放后的运算结果信息。
Mask层406可以利用根据上文所述的邻接矩阵得到的掩码矩阵,根据缩放后的运算结果信息,确定相似度信息D。例如,基于上文所述掩码矩阵,Mask层可以关注例如图3B所示的依存句法信息中经由边连接的结点之间的相关性。例如,Mask层可以关注第二边连接的两个结点之间的相关性,以及关注例如图3B所示的依存句法信息中经由第一边连接的结点和子结点之间的相关性。在一个示例中,基于上文所述掩码矩阵,Mask层可以计算与结点“陈某”对应的向量和与子结点“陈”对应的向量之间的相似度,而不会计算结点“陈某”与子结点“在”之间的相似度。可以提高最终确定的关联关系的准确性。
Softmax层407可以根据相似度信息D和缩放后的运算结果信息,确定注意力权重。例如,可以通过以下公式确定注意力权重w,
Figure 765674DEST_PATH_IMAGE001
(公式一)
Figure 50156DEST_PATH_IMAGE002
为键特征信息K的转置。
运算层408可以根据注意力权重w和值特征信息V,确定注意力特征信息。融合层409可以根据注意力特征信息和第一特征信息HS,进行融合,以完成该图Transformer网络对第一特征信息HS的处理,输出一个中间特征信息。接下来,可以根据该中间特征信息,确定目标文本中词之间的关联关系。
在另一些实施例中,根据掩码矩阵、目标文本的查询特征信息和目标文本的键特征信息,确定相似度信息包括:根据更新后的依存句法信息,得到嵌入特征信息;将目标文本的查询特征信息和嵌入特征信息融合,得到融合后的查询特征信息;将目标文本的键特征信息和嵌入特征信息融合,得到融合后的键特征信息;以及根据掩码矩阵、融合后的查询特征信息和融合后的键特征信息,确定相似度信息。
例如,可以对目标文本进行特征提取,得到目标文本的第一特征信息。再利用一个图Transformer编码块对该第一特征信息进行处理,以确定目标文本中词之间的关联关系,下面将结合图5进行详细说明。
图5是根据本公开的另一个实施例的图Transformer编码块的原理图。
如图5所示,图Transformer编码块500包括线性处理层501、线性处理层502、线性处理层503、运算层504、Scaling层505、Mask层506、Softmax层507、运算层508和融合层509。上文所述针对线性处理层401、线性处理层402、线性处理层403、Scaling层405、Mask层406、Softmax层407、运算层408和融合层409的描述同样适用于本实施例,本公开在此不再赘述。
与图4所示的图Transformer编码块400不同之处在于,图5所示的图Transformer编码块500还包括融合层510和融合层511。
融合层510可以将根据更新后的依存句法信息得到的嵌入特征信息Em与查询特征信息Q融合,得到融合后的查询特征信息Q_conc。
融合层511可以将根据更新后的依存句法信息得到的嵌入特征信息Em与键特征信息K融合,得到融合后的键特征信息K_conc。
运算层504可以根据融合后的查询特征信息Q_conc和融合后的键特征信息K_conc进行运算(例如矩阵乘法运算),得到运算结果信息。接来下,图Transformer编码块500对运算结果信息的处理方式,与图Transformer编码块400相同或类似,本公开在此不再赘述。
在一些实施例中,根据更新后的依存句法信息,确定目标文本中词之间的关联关系包括:根据更新后的依存句法信息,进行至少一个周期的处理,以确定目标文本中词之间的关联关系。
在一些实施例中,根据更新后的依存句法信息,进行至少一个周期的处理包括:根据相似度信息和值特征信息,得到当前周期的中间特征信息;利用长短时记忆网络根据当前周期的中间特征信息和上一周期的输出特征信息进行处理,得到当前周期的输出特征信息;以及根据当前周期的输出特征信息,确定与当前周期对应的目标文本中词之间的关联关系。
在一些实施例中,根据当前周期的输出特征信息,确定与当前周期对应的目标文本中词之间的关联关系包括:根据当前周期的输出特征信息,得到当前周期的初始标签序列,将当前周期的初始标签序列输入条件随机场网络,得到当前周期的更新标签序列;以及根据当前周期的更新标签序列,确定与当前周期对应的目标文本中词之间的关联关系。
例如,根据更新后的依存句法信息,可以利用一个深度学习模型进行至少一个周期的处理,以确定目标文本中词之间的关联关系。下面将结合图6进行详细说明。
图6是根据本公开的一个实施例的深度学习模型的原理图。
如图6所示,深度学习模型600包括第一子模型610和第二子模型620。
第一子模型610可以将目标文本包括的多个字组成的序列作为输入,输出目标文本的初始特征信息。以目标文本是“陈某在上海上班”为示例,第一子模型的输入可以是由“陈”、“某”、“在”、“上”、“海”、“上”和“班”组成的序列。例如,第一子模型610可以是基于Transformer的双向编码表示(Bidirectional Encoder Representation fromTransformer,BERT)模型。
第二子模型620包括第一特征提取网络621、第二特征提取网络622、长短时记忆网络623和条件随机场网络624。
第一特征提取网络可以包括I个Transformer编码块。I为大于或等于1的整数。例如,I个Transformer编码块分别为Transformer Block_1 6211、……Transformer Block_I6212。在一个示例中I=2。
第一特征提取网络621的输入可以是初始特征信息,也可以是第一特征提取网络621在上一周期的输出。第一特征提取网络621的输出可以与预设的词性嵌入特征信息拼接,得到第一特征信息。
第二特征提取网络622可以包括J个图Transformer编码块。J为大于或等于1的整数。例如,J个图Transformer编码块分别为Graph Transformer Block_1 6221、……GraphTransformer Block_J 6222。在一个示例中J=2。在一个示例中,图Transformer编码块例如可以是上文所述的图Transformer编码块500。
第二特征提取网络622的输入可以是第一特征信息。第二特征提取网络622的输出可以是第J个中间特征信息。Graph Transformer Block_1 6221的输入可以是第一特征信息。Graph Transformer Block_1 6221的输出的第1个中间特征信息可以作为下一个图Transformer编码块的输入。
长短时记忆网络623可以是双向长短时记忆(Bidirectional Long And ShortTerm Memory,BiLSTM)网络。长短时记忆网络623的输入可以是第J个中间特征信息。长短时记忆网络623可以根据当前周期的中间特征信息和上一周期的输出特征信息进行处理,其输出可以是当前周期的输出特征信息。利用长短时记忆网络可以记忆已经确定的词之间的关联关系。
例如,在当前周期为第一个周期的情况下,第一特征提取网络621的输入可以是第一子模型610输出的初始特征信息。
长短时记忆网络623可以基于预设的隐藏特征信息
Figure 104700DEST_PATH_IMAGE003
和预设的细胞状态信息
Figure 596861DEST_PATH_IMAGE004
,对 第J个中间特征信息进行处理,得到第一个周期的输出特征信息。
又例如,在当前周期为第一个周期以外的其他周期的情况下,第一特征提取网络621的输入可以是该第一特征提取网络621在上一周期的输出。
上文所述的输出特征信息可以是包括多个隐藏状态信息和多个细胞状态信息的 序列。每个隐藏状态信息与一个细胞状态信息对应。例如,上一周期的输出特征信息中的隐 层状态信息
Figure 385957DEST_PATH_IMAGE005
与细胞状态信息
Figure 192239DEST_PATH_IMAGE006
对应。长短时记忆网络623可以基于隐藏状态信息
Figure 101289DEST_PATH_IMAGE005
和细 胞状态信息
Figure 998574DEST_PATH_IMAGE006
,对当前周期的第J个中间特征信息进行处理,得到当前周期的输出特征信 息。在至少一个周期的迭代处理过程中,利用上一周期的隐层状态信息
Figure 55392DEST_PATH_IMAGE005
与细胞状态信息
Figure 681676DEST_PATH_IMAGE006
,使得长短时记忆网络在每次迭代时的输入的分布基本一致,提高了模型的性能。
根据所述当前周期的输出特征信息,可以得到当前周期的初始标签序列。
条件随机场(Conditional Random Field,CRF)网络624的输入可以是当前周期的初始标签序列。条件随机场网络624的输出可以是与当前周期的更新标签序列。
在一个示例中,当前周期的更新标签序列例如可以是“B-主语”、“I-主语”、“O”、“B-宾语”、“I-宾语”、“B-谓语”和“I-谓语”组成的序列。“B-主语”与“陈”对应,“I-主语”与“某”对应,这两个标签可以表征目标文本中包括一个主语,且该主语的第一个字符是“陈”。“O”与“在”对应,该标签可以表征“在”不是三元组中的一部分。“B-宾语”与“上”对应,“I-宾语”与“海”对应,这两个标签可以表征目标文本中包括一个宾语,且该宾语的第一个字符是“上”。“B-谓语”与“上”对应,“I-谓语”与“班”对应,这两个标签可以表征目标文本中包括一个谓语,且该谓语的第一个字符是“上”。可以根据当前周期的更新标签序列,确定目标文本中词之间的关联关系。
在一些实施例中,上文所述的至少一个周期可以是5个周期。
在一些实施例中,与图6所示的深度学习模型不同,图Transformer编码块例如可以是上文所述的图Transformer编码块400。
在一些实施例中,与图6所示的深度学习模型不同,第二子模型620的数量可以为多个。
在一些实施例中,可以利用负极大似然损失函数对上文损失的深度学习模型600进行训练。
在一些实施例中,依存句法信息还包括多个第二边,第二边用于连接两个结点,依存句法信息还包括M个依存句法子信息,依存句法子信息包括:作为第一结点的一个结点,作为第二结点的两个结点,两个第二结点分别经由两个第二边与第一结点相连,M为大于或等于1的整数;根据至少一个第一边,得到更新后的依存句法信息包括:针对M个依存句法子信息,执行以下操作,得到N个更新后的依存句法子信息,N为小于或等于M的整数:响应于确定依存句法子信息中一个第二边表征第一关系且另一个第二边表征第二关系,删除表征第一关系的第二边;经由第三边将两个第二结点相连,得到更新后的依存句法子信息;根据至少一个第一边和N个更新后的依存句法子信息,得到更新后的依存句法信息。
例如,第一关系为并列关系或子句关系,第二关系为主谓关系。下面将结合图7A和图7B、图8A和图8B以及图9A和图9B进行详细说明。
图7A是根据本公开的另一个实施例的依存句法信息的示意图。
如图7A所示,依存句法信息701可以是一个树结构。依存句法信息701可以与目标文本“陈某在上海工作了半年,并且开始交税。”对应。依存句法信息701包括多个依存句法子信息。其中一个依存句法子信息包括:作为第二结点的结点“陈某”711,作为第一结点的结点“工作”712,作为第二结点的结点“开始”713,连接结点“陈某”711和结点“工作”712的第二边E711,连接结点“开始”713和结点“工作”712的第二边E712。
第二边E711可以表征结点“陈某”711和结点“工作”712之间的关系为主谓关系。第二边E712可以表征结点“工作”712和结点“开始”713之间的关系为子句关系。
即,第二边E711可以表征主谓关系,第二边E712可以表征子句关系。
可以理解,依存句法信息701还包括结点“上海”、结点“了”、结点“半年”、结点“,”、结点“。”、结点“在”、结点“并且”和结点“交税”。
在一些实施例中,可以删除表征子句关系的第二边。即,删除第二边E712。
图7B是根据本公开的一个实施例的修改后的依存句法信息的示意图。
如上文所述,在删除第二边E712之后,经由第三边E731将作为第二结点的结点“陈某”711和作为第二结点的结点“开始”713相连,得到如图7B所示的修改后的依存句法信息702。
如图7B所示,修改后的依存句法信息702也可以是一个树结构。修改后的依存句法信息702可以与目标文本“陈某在上海工作了半年,并且开始交税。”对应。修改后的依存句法信息702包括结点“陈某”711、结点“工作”712、结点“开始”713。
结点“陈某”711和结点“工作”712之间经由第二边E711连接。结点“陈某”711和结点“开始”713之间经由第三边E731连接。
可以根据该修改后的依存句法信息702,得到更新后的依存句法信息。
图8A是根据本公开的另一个实施例的依存句法信息的示意图。
如图8A所示,依存句法信息801可以是一个树结构。依存句法信息801可以与目标文本“某消防救援支队共参与抗洪抢险330多起,营救、疏散群众13000多人。”对应。依存句法信息801包括多个依存句法子信息。其中一个依存句法子信息包括:作为第二结点的结点“某消防救援支队”811,作为第一结点的结点“参与”812,作为第二结点的结点“营救”813,连接结点“某消防救援支队”811和结点“参与”812的第二边E811,连接结点“营救”813和结点“参与”812的第二边E812。
第二边E811可以表征结点“某消防救援支队”811和结点“参与”812之间的关系为主谓关系。第二边E812可以表征结点“参与”812和结点“营救”813之间的关系为子句关系。
即,第二边E811可以表征主谓关系,第二边E812可以表征子句关系。
在一些实施例中,可以删除表征子句关系的第二边。即,删除第二边E812。
图8B是根据本公开的一个实施例的修改后的依存句法信息的示意图。
如上文所述,在删除第二边E812之后,经由第三边E831将作为第二结点的结点“某消防救援支队”811和作为第二结点的结点“营救”813相连,得到如图8B所示的修改后的依存句法信息802。
如图8B所示,修改后的依存句法信息802也可以是一个树结构。修改后的依存句法信息802可以与目标文本“某消防救援支队共参与抗洪抢险330多起,营救、疏散群众13000多人。”对应。修改后的依存句法信息802包括结点“某消防救援支队”811、结点“参与”812、结点“营救”813。
结点“某消防救援支队”811和结点“参与”812之间经由第二边E811连接。结点“某消防救援支队”811和结点“营救”813之间经由第三边E831连接。
可以根据该修改后的依存句法信息802,得到更新后的依存句法信息。
图9A是根据本公开的另一个实施例的依存句法信息的示意图。
如图9A所示,依存句法信息901可以是一个树结构。依存句法信息901可以与目标文本“某货物协会最新数据显示,11月全国货物市场成交量为6.41亿手,成交额为46.49万亿元,同比分别增长63.99%和70.26%。”对应。依存句法信息901包括多个依存句法子信息。其中一个依存句法子信息包括:作为第二结点的结点“成交量”911,作为第一结点的结点“为”912,作为第二结点的结点“增长”913,连接结点“成交量”911和结点“为”912的第二边E911,连接结点“增长”913和结点“为”912的第二边E912。
第二边E911可以表征结点“成交量”911和结点“为”912之间的关系为主谓关系。第二边E912可以表征结点“为”912和结点“增长”913之间的关系为并列关系。
即,第二边E911可以表征主谓关系,第二边E912可以表征并列关系。
在一些实施例中,可以删除表征并列关系的第二边。即,删除第二边E912。
图9B是根据本公开的一个实施例的修改后的依存句法信息的示意图。
如上文所述,在删除第二边E912之后,经由第三边E931将作为第二结点的结点“成交量”911和作为第二结点的结点“增长”913相连,得到如图9B所示的修改后的依存句法信息802。
如图9B所示,修改后的依存句法信息902也可以是一个树结构。修改后的依存句法信息902可以与目标文本“某货物协会最新数据显示,11月全国货物市场成交量为6.41亿手,成交额为46.49万亿元,同比分别增长63.99%和70.26%。”对应。修改后的依存句法信息902包括结点“成交量”911、结点“为”912、结点“增长”913。
结点“成交量”911和结点“为”912之间经由第二边E911连接。结点“成交量”911和结点“增长”913之间经由第三边E931连接。
可以理解,在依存句法信息901中,结点“为”912和结点“为”914之间经由第二边E913相连。第二边E913也可以表征并列关系。对第二边E913的处理可以参照对第二边E912的处理方式,本公开在此不再赘述。
可以根据该修改后的依存句法信息902,得到更新后的依存句法信息。
在一些实施例中,可以将修改后的依存句法信息702、修改后的依存句法信息802或修改后的依存句法信息902作为依存句法信息,以得到更新后的依存句法信息。例如,在利用上文所述的图Transformer编码块400或图Transformer编码块500根据更新后的依存句法信息进行处理时,图Transformer编码块中的Mask层还可以关注第三边连接的两个结点之间的相关性。
在一些实施例中,依存句法信息还包括多个第二边,第二边用于连接两个结点,目标文本包括多个子文本,子文本对应依存句法信息中多个结点,根据至少一个第一边,得到更新后的依存句法信息包括:确定至少一个第四边,使得子文本对应的多个结点之间经由第二边或第四边相连;以及根据至少一个第一边和至少一个第四边,得到更新后的依存句法信息。
例如,以目标文本是“陈某在上海工作了半年,并且开始交税”为示例。目标文本对应两个子文本,分别为“陈某在上海工作了半年”,以及“并且开始交税”。在一个示例中,在与子文本“陈某在上海工作了半年”对应的结点中,如图7B所示,结点“陈某”和“上海”之间没有经由第二边相连。可以经由第四边将结点“陈某”和“上海”相连。采用类似的方式,可以确定至少一个第四边,使得子文本“陈某在上海工作了半年”对应的多个结点之间经由第二边或第四边相连。类似地,可以确定其他的第四边,使得子文本“并且开始交税”对应的多个结点之间经由第二边或第四边相连,以获取再次修改后的依存句法信息。
在一些实施例中,可以将再次修改后的依存句法信息作为依存句法信息,以得到更新后的依存句法信息。例如,在利用上文所述的图Transformer编码块400或图Transformer编码块500根据再次修改后的依存句法信息进行处理时,图Transformer编码块中的Mask层还可以关注第四边连接的两个结点之间的相关性。
图10是根据本公开的另一个实施例的文本处理装置的框图。
如图10所示,该装置1000可以包括第一获得模块1010、第一确定模块1030、第三获得模块1030和第二确定模块1040。
第一获得模块1010,用于根据目标文本,得到依存句法信息。例如,所述依存句法信息包括至少一个结点,所述结点对应至少一个字。
第一确定模块1020,用于根据所述至少一个结点和所述结点对应的至少一个字,确定至少一个第一边。
第二获得模块1030,用于根据所述至少一个第一边,得到更新后的依存句法信息。
第二确定模块1040,用于根据所述更新后的依存句法信息,确定所述目标文本中词之间的关联关系。
在一些实施例中,所述依存句法信息还包括多个第二边,所述第二边用于连接两个所述结点,所述依存句法信息还包括M个依存句法子信息,所述依存句法子信息包括:作为第一结点的一个所述结点,作为第二结点的两个所述结点,所述两个第二结点分别经由两个所述第二边与所述第一结点相连,M为大于或等于1的整数;所述第二获得模块包括:执行子模块,用于针对所述M个依存句法子信息,通过以下单元执行相关操作,得到N个更新后的依存句法子信息,N为小于或等于M的整数:删除单元,用于响应于确定所述依存句法子信息中一个第二边表征第一关系且另一个第二边表征第二关系,删除表征所述第一关系的第二边;相连单元,用于经由第三边将两个所述第二结点相连,得到更新后的依存句法子信息;第一获得子模块,用于根据所述至少一个第一边和所述N个更新后的依存句法子信息,得到所述更新后的依存句法信息。
在一些实施例中,所述依存句法信息还包括多个第二边,所述第二边用于连接两个所述结点,所述目标文本包括多个子文本,所述子文本对应所述依存句法信息中多个结点,所述第二获得模块包括:第一确定子模块,用于确定至少一个第四边,使得所述子文本对应的多个结点之间经由所述第二边或所述第四边相连;以及第二获得子模块,用于根据所述至少一个第一边和所述至少一个第四边,得到所述更新后的依存句法信息。
在一些实施例中,所述第一关系为并列关系或子句关系,所述第二关系为主谓关系。
在一些实施例中,所述第二确定模块包括:第三获得子模块,用于根据所述更新后的依存句法信息,得到掩码矩阵;第二确定子模块,用于根据所述掩码矩阵、所述目标文本的查询特征信息和所述目标文本的键特征信息,确定相似度信息;以及第三确定子模块,用于根据所述相似度信息和所述目标文本的值特征信息,确定所述目标文本中词之间的关联关系。
在一些实施例中,所述第二确定子模块包括:第一获得单元,用于根据所述更新后的依存句法信息,得到嵌入特征信息;第一融合单元,用于将所述目标文本的查询特征信息和所述嵌入特征信息融合,得到融合后的查询特征信息;第二融合单元,用于将所述目标文本的键特征信息和所述嵌入特征信息融合,得到融合后的键特征信息;以及第一确定单元,用于根据所述掩码矩阵、所述融合后的查询特征信息和所述融合后的键特征信息,确定所述相似度信息。
在一些实施例中,所述第三确定子模块包括:第二确定单元,用于根据所述相似度信息,确定注意力权重;以及第三确定单元,用于根据所述注意力权重和所述目标文本的值特征信息,确定所述目标文本中词之间的关联关系。
在一些实施例中,所述第二确定模块包括:处理子模块,用于根据所述更新后的依存句法信息,进行至少一个周期的处理,以确定所述目标文本中词之间的关联关系。
在一些实施例中,所述处理子模块包括:第二获得单元,用于针对当前周期,根据所述相似度信息和所述值特征信息,得到当前周期的中间特征信息;处理单元,用于利用长短时记忆网络根据所述当前周期的中间特征信息和上一周期的输出特征信息进行处理,得到当前周期的输出特征信息;以及第四确定单元,用于根据所述当前周期的输出特征信息,确定与当前周期对应的所述目标文本中词之间的关联关系。
在一些实施例中,所述第四确定单元包括:第一获得子单元,用于根据所述当前周期的输出特征信息,得到当前周期的初始标签序列;第二获得子单元,用于将所述当前周期的初始标签序列输入条件随机场网络,得到当前周期的更新标签序列;以及确定子单元,用于根据所述当前周期的更新标签序列,确定与当前周期对应的所述目标文本中词之间的关联关系。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图11所示,设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序,来执行各种适当的动作和处理。在RAM 1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106,例如键盘、鼠标等;输出单元1107,例如各种类型的显示器、扬声器等;存储单元1108,例如磁盘、光盘等;以及通信单元1109,例如网卡、调制解调器、无线通信收发机等。通信单元1109允许设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理,例如文本处理方法。例如,在一些实施例中,文本处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到设备1100上。当计算机程序加载到RAM 1103并由计算单元1101执行时,可以执行上文描述的文本处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行文本处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (18)

1.一种文本处理方法,包括:
根据目标文本,得到依存句法信息,其中,所述依存句法信息包括至少一个结点,所述结点对应至少一个字;
根据所述至少一个结点和所述结点对应的至少一个字,确定至少一个第一边;
根据所述至少一个第一边,得到更新后的依存句法信息;
根据所述更新后的依存句法信息,得到掩码矩阵;
根据所述掩码矩阵、所述目标文本的查询特征信息和所述目标文本的键特征信息,确定相似度信息;以及
根据所述相似度信息和所述目标文本的值特征信息,确定所述目标文本中词之间的关联关系。
2.根据权利要求1所述的方法,其中,所述依存句法信息还包括多个第二边,所述第二边用于连接两个所述结点,
所述依存句法信息还包括M个依存句法子信息,所述依存句法子信息包括:作为第一结点的一个所述结点,作为第二结点的两个所述结点,所述两个第二结点分别经由两个所述第二边与所述第一结点相连,M为大于或等于1的整数;
所述根据所述至少一个第一边,得到更新后的依存句法信息包括:
针对所述M个依存句法子信息,执行以下操作,得到N个更新后的依存句法子信息,N为小于或等于M的整数:
响应于确定所述依存句法子信息中一个第二边表征第一关系且另一个第二边表征第二关系,删除表征所述第一关系的第二边,其中,所述第一关系为并列关系或子句关系,所述第二关系为主谓关系;
经由第三边将两个所述第二结点相连,得到更新后的依存句法子信息;
根据所述至少一个第一边和所述N个更新后的依存句法子信息,得到所述更新后的依存句法信息。
3.根据权利要求1所述的方法,其中,所述依存句法信息还包括多个第二边,所述第二边用于连接两个所述结点,
所述目标文本包括多个子文本,所述子文本对应所述依存句法信息中多个结点,
所述根据所述至少一个第一边,得到更新后的依存句法信息包括:
确定至少一个第四边,使得所述子文本对应的多个结点中没有经由所述第二边连接的结点经由所述第四边相连;以及
根据所述至少一个第一边和所述至少一个第四边,得到所述更新后的依存句法信息。
4.根据权利要求1所述的方法,其中,所述根据所述掩码矩阵、所述目标文本的查询特征信息和所述目标文本的键特征信息,确定相似度信息包括:
根据所述更新后的依存句法信息,得到嵌入特征信息;
将所述目标文本的查询特征信息和所述嵌入特征信息融合,得到融合后的查询特征信息;
将所述目标文本的键特征信息和所述嵌入特征信息融合,得到融合后的键特征信息;以及
根据所述掩码矩阵、所述融合后的查询特征信息和所述融合后的键特征信息,确定所述相似度信息。
5. 根据权利要求1所述的方法,其中,所述根据所述相似度信息和所述目标文本的值特征信息,确定所述目标文本中词之间的关联关系包括:
根据所述相似度信息,确定注意力权重;以及
根据所述注意力权重和所述目标文本的值特征信息,确定所述目标文本中词之间的关联关系。
6.根据权利要求4或5所述的方法,其中,所述根据所述更新后的依存句法信息,确定所述目标文本中词之间的关联关系包括:
根据所述更新后的依存句法信息,进行至少一个周期的处理,以确定所述目标文本中词之间的关联关系。
7.根据权利要求6所述的方法,其中,所述根据所述更新后的依存句法信息,进行至少一个周期的处理包括:
针对当前周期,
根据所述相似度信息和所述值特征信息,得到当前周期的中间特征信息;
利用长短时记忆网络根据所述当前周期的中间特征信息和上一周期的输出特征信息进行处理,得到当前周期的输出特征信息;以及
根据所述当前周期的输出特征信息,确定与所述当前周期对应的所述目标文本中词之间的关联关系。
8.根据权利要求7所述的方法,其中,所述根据所述当前周期的输出特征信息,确定与当前周期对应的所述目标文本中词之间的关联关系包括:
根据所述当前周期的输出特征信息,得到当前周期的初始标签序列;
将所述当前周期的初始标签序列输入条件随机场网络,得到当前周期的更新标签序列;以及
根据所述当前周期的更新标签序列,确定与当前周期对应的所述目标文本中词之间的关联关系。
9.一种文本处理装置,包括:
第一获得模块,用于根据目标文本,得到依存句法信息,其中,所述依存句法信息包括至少一个结点,所述结点对应至少一个字;
第一确定模块,用于根据所述至少一个结点和所述结点对应的至少一个字,确定至少一个第一边;
第二获得模块,用于根据所述至少一个第一边,得到更新后的依存句法信息;以及
第二确定模块,用于根据所述更新后的依存句法信息,确定所述目标文本中词之间的关联关系;
其中,所述第二确定模块包括:
第三获得子模块,用于根据所述更新后的依存句法信息,得到掩码矩阵;
第二确定子模块,用于根据所述掩码矩阵、所述目标文本的查询特征信息和所述目标文本的键特征信息,确定相似度信息;以及
第三确定子模块,用于根据所述相似度信息和所述目标文本的值特征信息,确定所述目标文本中词之间的关联关系。
10.根据权利要求9所述的装置,其中,所述依存句法信息还包括多个第二边,所述第二边用于连接两个所述结点,
所述依存句法信息还包括M个依存句法子信息,所述依存句法子信息包括:作为第一结点的一个所述结点,作为第二结点的两个所述结点,所述两个第二结点分别经由两个所述第二边与所述第一结点相连,M为大于或等于1的整数;
所述第二获得模块包括:
执行子模块,用于针对所述M个依存句法子信息,通过以下单元执行相关操作,得到N个更新后的依存句法子信息,N为小于或等于M的整数:
删除单元,用于响应于确定所述依存句法子信息中一个第二边表征第一关系且另一个第二边表征第二关系,删除表征所述第一关系的第二边,其中,所述第一关系为并列关系或子句关系,所述第二关系为主谓关系;
相连单元,用于经由第三边将两个所述第二结点相连,得到更新后的依存句法子信息;
第一获得子模块,用于根据所述至少一个第一边和所述N个更新后的依存句法子信息,得到所述更新后的依存句法信息。
11.根据权利要求9所述的装置,其中,所述依存句法信息还包括多个第二边,所述第二边用于连接两个所述结点,
所述目标文本包括多个子文本,所述子文本对应所述依存句法信息中多个结点,
所述第二获得模块包括:
第一确定子模块,用于确定至少一个第四边,使得所述子文本对应的多个结点中没有经由所述第二边连接的结点经由所述第四边相连;以及
第二获得子模块,用于根据所述至少一个第一边和所述至少一个第四边,得到所述更新后的依存句法信息。
12.根据权利要求9所述的装置,其中,所述第二确定子模块包括:
第一获得单元,用于根据所述更新后的依存句法信息,得到嵌入特征信息;
第一融合单元,用于将所述目标文本的查询特征信息和所述嵌入特征信息融合,得到融合后的查询特征信息;
第二融合单元,用于将所述目标文本的键特征信息和所述嵌入特征信息融合,得到融合后的键特征信息;以及
第一确定单元,用于根据所述掩码矩阵、所述融合后的查询特征信息和所述融合后的键特征信息,确定所述相似度信息。
13. 根据权利要求9所述的装置,其中,所述第三确定子模块包括:
第二确定单元,用于根据所述相似度信息,确定注意力权重;以及
第三确定单元,用于根据所述注意力权重和所述目标文本的值特征信息,确定所述目标文本中词之间的关联关系。
14.根据权利要求12或13所述的装置,其中,所述第二确定模块包括:
处理子模块,用于根据所述更新后的依存句法信息,进行至少一个周期的处理,以确定所述目标文本中词之间的关联关系。
15.根据权利要求14所述的装置,其中,所述处理子模块包括:
第二获得单元,用于针对当前周期,根据所述相似度信息和所述值特征信息,得到当前周期的中间特征信息;
处理单元,用于利用长短时记忆网络根据所述当前周期的中间特征信息和上一周期的输出特征信息进行处理,得到当前周期的输出特征信息;以及
第四确定单元,用于根据所述当前周期的输出特征信息,确定与当前周期对应的所述目标文本中词之间的关联关系。
16.根据权利要求15所述的装置,其中,所述第四确定单元包括:
第一获得子单元,用于根据所述当前周期的输出特征信息,得到当前周期的初始标签序列;
第二获得子单元,用于将所述当前周期的初始标签序列输入条件随机场网络,得到当前周期的更新标签序列;以及
确定子单元,用于根据所述当前周期的更新标签序列,确定与当前周期对应的所述目标文本中词之间的关联关系。
17. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至8中任一项所述的方法。
CN202210340057.0A 2022-04-02 2022-04-02 文本处理方法、装置、电子设备和存储介质 Active CN114444472B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210340057.0A CN114444472B (zh) 2022-04-02 2022-04-02 文本处理方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210340057.0A CN114444472B (zh) 2022-04-02 2022-04-02 文本处理方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN114444472A CN114444472A (zh) 2022-05-06
CN114444472B true CN114444472B (zh) 2022-07-12

Family

ID=81359084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210340057.0A Active CN114444472B (zh) 2022-04-02 2022-04-02 文本处理方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN114444472B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110069636A (zh) * 2019-05-05 2019-07-30 苏州大学 融合依存关系与篇章修辞关系的事件时序关系识别方法
CN111324699A (zh) * 2020-02-20 2020-06-23 广州腾讯科技有限公司 语义匹配的方法、装置、电子设备及存储介质
CN111581396A (zh) * 2020-05-06 2020-08-25 西安交通大学 一种基于多维特征融合与依存句法的事件图谱构建系统及方法
CN111783461A (zh) * 2020-06-16 2020-10-16 北京工业大学 一种基于句法依存关系的命名实体识别方法
CN113239186A (zh) * 2021-02-26 2021-08-10 中国科学院电子学研究所苏州研究院 一种基于多依存关系表示机制的图卷积网络关系抽取方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111767379B (zh) * 2020-06-29 2023-06-27 北京百度网讯科技有限公司 图像问答方法、装置、设备以及存储介质
CN111832316B (zh) * 2020-06-30 2024-05-24 北京小米松果电子有限公司 语义识别的方法、装置、电子设备和存储介质
CN112507715B (zh) * 2020-11-30 2024-01-16 北京百度网讯科技有限公司 确定实体之间关联关系的方法、装置、设备和存储介质
CN113158666A (zh) * 2021-04-09 2021-07-23 杭州电子科技大学 基于依存句法树的中文问题的关键词抽取方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110069636A (zh) * 2019-05-05 2019-07-30 苏州大学 融合依存关系与篇章修辞关系的事件时序关系识别方法
CN111324699A (zh) * 2020-02-20 2020-06-23 广州腾讯科技有限公司 语义匹配的方法、装置、电子设备及存储介质
CN111581396A (zh) * 2020-05-06 2020-08-25 西安交通大学 一种基于多维特征融合与依存句法的事件图谱构建系统及方法
CN111783461A (zh) * 2020-06-16 2020-10-16 北京工业大学 一种基于句法依存关系的命名实体识别方法
CN113239186A (zh) * 2021-02-26 2021-08-10 中国科学院电子学研究所苏州研究院 一种基于多依存关系表示机制的图卷积网络关系抽取方法

Also Published As

Publication number Publication date
CN114444472A (zh) 2022-05-06

Similar Documents

Publication Publication Date Title
EP4060565A1 (en) Method and apparatus for acquiring pre-trained model
US20080120257A1 (en) Automatic online form filling using semantic inference
JP7301922B2 (ja) 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム
US11494420B2 (en) Method and apparatus for generating information
CN113657100A (zh) 实体识别方法、装置、电子设备及存储介质
CN114861889A (zh) 深度学习模型的训练方法、目标对象检测方法和装置
CN113407851A (zh) 基于双塔模型的确定推荐信息的方法、装置、设备和介质
CN113011155A (zh) 用于文本匹配的方法、装置、设备、存储介质和程序产品
CN115099239A (zh) 一种资源识别方法、装置、设备以及存储介质
CN112528146B (zh) 内容资源推荐方法、装置、电子设备及存储介质
CN115248890A (zh) 用户兴趣画像的生成方法、装置、电子设备以及存储介质
EP4116884A2 (en) Method and apparatus for training tag recommendation model, and method and apparatus for obtaining tag
CN114444472B (zh) 文本处理方法、装置、电子设备和存储介质
CN113704494B (zh) 基于知识图谱的实体检索方法、装置、设备以及存储介质
CN115510860A (zh) 一种文本情感分析方法、装置、电子设备及存储介质
CN113553834B (zh) 文本纠错方法、装置、电子设备及存储介质
CN113961672A (zh) 信息标注方法、装置、电子设备和存储介质
CN114218431A (zh) 视频搜索方法、装置、电子设备以及存储介质
CN113869042A (zh) 文本标题生成方法、装置、电子设备以及存储介质
CN115809313A (zh) 一种文本相似度确定方法及设备
CN113239215A (zh) 多媒体资源的分类方法、装置、电子设备及存储介质
CN112560466A (zh) 链接实体关联方法、装置、电子设备和存储介质
CN116383655B (zh) 样本生成方法、模型训练方法、文本处理方法及装置
CN114255427B (zh) 视频理解方法、装置、设备以及存储介质
CN113822057B (zh) 地点信息确定方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant