CN111259671B - 文本实体的语义描述处理方法、装置及设备 - Google Patents
文本实体的语义描述处理方法、装置及设备 Download PDFInfo
- Publication number
- CN111259671B CN111259671B CN202010041592.7A CN202010041592A CN111259671B CN 111259671 B CN111259671 B CN 111259671B CN 202010041592 A CN202010041592 A CN 202010041592A CN 111259671 B CN111259671 B CN 111259671B
- Authority
- CN
- China
- Prior art keywords
- entity
- main
- text
- target text
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 124
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 description 6
- 238000002372 labelling Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本申请提出了一种文本实体的语义描述处理方法、装置及设备,涉及知识图谱技术领域,具体实现方案为:获取包含主实体的多个目标文本,从每个目标文本中提取描述主实体的其他相关实体;获取每个目标文本中主实体与每个相关实体对之间的子关系向量;根据每个目标文本中主实体与每个相关实体对之间的子关系向量,计算主实体在不同目标文本之间的相似度距离;根据主实体在不同目标文本之间的相似度距离确定不同目标文本对主实体描述的语义相似度。由此,通过确定不同文本对实体描述的语义相似度,实现了准确获取不同文本对于同一实体描述的相似程度。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及知识图谱技术领域,提出一种文本实体的语义描述处理方法、装置及设备。
背景技术
文本相似度被广泛应用于自然语言处理、知识图谱等领域,目前已有多种确定文本相似度的方案,例如可以通过语言模型计算文本相似度。然而,存在需要区分不同文本对于同一实体描述是否相近的场景,例如对于均包含某一人名的两篇文本,会存在两篇文本对于该人物语义描述是否相似的需求。
针对上述场景,需要一种能够确定在不同文本中对实体的语义描述是否相似的方案。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种文本实体的语义描述处理方法,以准确获取不同文本对于同一实体描述的相似程度。
本申请的第二个目的在于提出一种文本实体的语义描述处理装置。
本申请的第三个目的在于提出一种电子设备。
本申请的第四个目的在于提出一种计算机可读存储介质。
本申请第一方面实施例提出了一种文本实体的语义描述处理方法,包括:
获取包含主实体的多个目标文本,从每个目标文本中提取描述所述主实体的其他相关实体;
获取每个目标文本中所述主实体与每个相关实体对之间的子关系向量;
根据每个目标文本中所述主实体与每个相关实体对之间的子关系向量,计算所述主实体在不同目标文本之间的相似度距离;
根据所述主实体在不同目标文本之间的相似度距离确定不同目标文本对所述主实体描述的语义相似度。
本申请第二方面实施例提出了一种文本实体的语义描述处理装置,包括:
提取模块,用于获取包含主实体的多个目标文本,从每个目标文本中提取描述所述主实体的其他相关实体;
获取模块,用于获取每个目标文本中所述主实体与每个相关实体对之间的子关系向量;
生成模块,用于根据每个目标文本中所述主实体与每个相关实体对之间的子关系向量,计算所述主实体在不同目标文本之间的相似度距离;
确定模块,用于根据所述主实体在不同目标文本之间的相似度距离确定不同目标文本对所述主实体描述的语义相似度。
本申请第三方面实施例提出了一种电子设备,包括至少一个处理器,以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面实施例所述的文本实体的语义描述处理方法。
本申请第四方面实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如第一方面实施例所述的文本实体的语义描述处理方法。
上述申请中的一个实施例具有如下优点或有益效果:由于采用了获取包含主实体的多个目标文本,从每个目标文本中提取描述主实体的其他相关实体;获取每个目标文本中主实体与每个相关实体对之间的子关系向量;根据每个目标文本中主实体与每个相关实体对之间的子关系向量,计算主实体在不同目标文本之间的相似度距离;根据主实体在不同目标文本之间的相似度距离确定不同目标文本对主实体描述的语义相似度。由此,通过确定不同文本对实体描述的语义相似度,能够对不同文本中涉及特定实体的描述信息进行比较,而忽略掉其他无关实体,实现了准确获取不同文本中对于同一实体描述是否相似,可以应用于智能问答的多文章校验、百科词条分类等场景。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例所提供的一种文本实体的语义描述处理方法的流程示意图;
图2为本申请实施例所提供的另一种文本实体的语义描述处理方法的流程示意图;
图3为本申请实施例所提供的另一种文本实体的语义描述处理方法的流程示意图;
图4为本申请实施例所提供的另一种文本实体的语义描述处理方法的流程示意图;
图5为本申请实施例所提供的一种文本实体的语义描述处理装置的结构示意图;
图6示出了适于用来实现本申请实施例的示例性电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1为本申请实施例所提供的一种文本实体的语义描述处理方法的流程示意图,如图1所示,该方法包括:
步骤101,获取包含主实体的多个目标文本,从每个目标文本中提取描述主实体的其他相关实体。
在实际应用中,存在需要确定两篇文本中对于某个实体的描述是否相同或相近的场景。例如,对于均包含实体:人物XXX的两篇文本,需要确定两篇文本对于该实体描述的语义相似度,以进一步确定两篇文本是否描述同一人物。
本实施例中,在确定多篇文本中主实体之间的语义关系时,可以获取包含主实体的多个目标文本,从每个目标文本中提取描述主实体的其他相关实体。
作为一种示例,可以获取多个包含主实体的目标文本,进而,通过相关命名实体识别方法获取实体集合,实体集合中包括主实体和目标文本中的其他实体,将识别出的其他实体作为描述主实体的其他相关实体。
作为另一种示例,对每个目标文本进行命名实体识别,获取候选实体集合。进而,获取候选实体集合中的各候选实体与主实体在目标文本中的距离,确定与主实体在目标文本中的距离小于预设距离的候选实体,作为描述主实体的其他相关实体。
步骤102,获取每个目标文本中主实体与每个相关实体对之间的子关系向量。
本实施例中,对于每个目标文本,可以获取主实体与每个相关实体对之间的子关系向量,例如,主实体为A,相关实体包括B和C,获取A和B之间的子关系向量,A和C之间的子关系向量。其中,获取子关系向量的方式有多种。
在本申请的一个实施例中,获取目标文本中每个字的第一向量表示,进而,根据预先训练的转换模型对第一向量表示、所述主实体和每个相关实体进行加权处理,获取目标文本中与主实体和每个相关实体关联的文本内容的第二向量表示。对第二向量表示进行池化处理,生成主实体与每个相关实体对之间的子关系向量。
在本申请的一个实施例中,根据预先训练的关系抽取模型对目标文本、主实体和每个相关实体进行处理,获取主实体与每个相关实体对关系的概率分布。进而,根据预先训练的映射模型对概率分布进行映射,获取主实体与每个相关实体对之间的子关系向量。
步骤103,根据每个目标文本中主实体与每个相关实体对之间的子关系向量,计算主实体在不同目标文本之间的相似度距离。
在本申请的一个实施例中,对每个目标文本中主实体与每个相关实体对之间的子关系向量求和,计算与每个目标文本中的主实体对应的主关系向量,进而,根据与每个目标文本中的主实体对应的主关系向量,计算主实体在不同目标文本之间的相似度距离。
作为一种示例,获取主实体A与相关实体B之间的子关系向量1,以及主实体A与相关实体C之间的子关系向量2,通过子关系向量1和2求和,获取主实体对应的主关系向量。进而,对于每一目标文本分别获取主实体对应的主关系向量,基于主关系向量计算相似度,从而确定主实体在不同目标文本之间的相似度距离。其中,相似度计算的实现方式可以根据需要选择,此处不作限制。
步骤104,根据主实体在不同目标文本之间的相似度距离确定不同目标文本对主实体描述的语义相似度。
本实施例中,可以根据相似度距离确定不同目标文本对主实体描述的语义相似度,例如,相似度距离越接近,在两篇文本中对主实体描述的语义越接近。
本申请实施例的文本实体的语义描述处理方法,通过获取包含主实体的多个目标文本,从每个目标文本中提取描述主实体的其他相关实体;获取每个目标文本中主实体与每个相关实体对之间的子关系向量;根据每个目标文本中主实体与每个相关实体对之间的子关系向量,计算主实体在不同目标文本之间的相似度距离;根据主实体在不同目标文本之间的相似度距离确定不同目标文本对主实体描述的语义相似度。由此,通过确定不同文本对实体描述的语义相似度,能够对不同文本中涉及特定实体的描述信息进行比较,而忽略掉其他无关实体,实现了准确获取不同文本中对于同一实体描述是否一致,可以应用于智能问答的多文章校验、百科词条分类等场景。
基于上述实施例,下面对根据子关系向量获取主关系向量进行说明。
图2为本申请实施例所提供的另一种文本实体的语义描述处理方法的流程示意图,如图2所示,该方法包括:
步骤201,对每个目标文本中主实体与每个相关实体对之间的子关系向量求和,计算与每个目标文本中的主实体对应的主关系向量。
在本申请的一个实施例中,可以预先训练实体描述模型,其中,实体描述模型输入为子关系向量,输出为主关系向量。通过获取包含预设实体的样本文本集,样本文本集中标注预设实体是否相似,根据样本文本集获取预设实体与相关实体的子关系向量,进而,将子关系向量输入预设模型中进行处理,生成主关系向量,进一步根据主关系向量获取预设实体描述的相似度预测结果,根据预测结果和标注结果通过反向传播的方式训练预设模型的处理参数,确定实体描述模型。其中,预设模型可以通过图注意力神经网络实现。
本实施例中,将在获取每个目标文本中主实体与每个相关实体对之间的多个子关系向量后,将多个子关系向量输入预先训练的实体描述模型进行加权处理,获取与每个目标文本中的主实体对应的主关系向量。
步骤202,根据与每个目标文本中的主实体对应的主关系向量,计算主实体在不同目标文本之间的相似度距离。
作为一种示例,获取第一文本和第二文本,第一文本和第二文本中均包括主实体。进而,确定第一文本中主实体对应的N个相关实体,获取N个子关系向量,进一步,根据N个子关系向量计算主实体对应的主关系向量1。对于第二文本确定主实体对应的M个相关实体,获取M个子关系向量,进一步,根据M个子关系向量计算主实体对应的主关系向量2。通过主关系向量1和2计算相似度,确定主实体在不同目标文本之间的相似度距离。
本申请实施例的文本实体的语义描述处理方法,通过对每个目标文本中主实体与每个相关实体对之间的子关系向量求和,计算与每个目标文本中的主实体对应的主关系向量。进而,根据与每个目标文本中的主实体对应的主关系向量,计算主实体在不同目标文本之间的相似度距离。由此,实现了获取描述主实体的主关系向量,以进一步提高不同目标文本对主实体描述的语义相似度计算的准确性。
下面对获取主实体与每个相关实体对之间的子关系向量的一种实现方式进行说明。
图3为本申请实施例所提供的另一种文本实体的语义描述处理方法的流程示意图,如图3所示,该方法包括:
步骤301,获取目标文本中每个字的第一向量表示。
作为一种可能的实现方式,可以通过语言模型对目标文本进行处理,获取目标文本中每个字的向量表示,作为第一向量表示。其中,语言模型包括但不限于BERT模型(Bidirectional Encoder Representations from Transformers)、ERNIE(知识增强语义表示模型,Enhanced Representation from kNowledge IntEgration)等。
步骤302,根据预先训练的转换模型对第一向量表示、主实体和每个相关实体进行加权处理,获取目标文本中与主实体和每个相关实体关联的文本内容的第二向量表示。
在本申请的一个实施例中,可以获取样本文本集,其中,样本文本集中标注预设实体对的关系是否相似。进而,将样本文本集输入预设模型中进行处理,获取预设实体对关系的相似度预测结果,根据相似度预测结果和标注结果训练预设模型的处理参数,确定转换模型。
作为一种示例,预设模型可包括transformer结构、池化层以及相似度计算部分,对于样本文本集中的第一文本和第二文本,样本文本包括预设实体A和B,标注预设实体A和B之间的关系在该两篇文本中是否相似。将第一文本输入语言模型,获取第一文本中每个字的向量表示。根据预设实体对和每个字的向量表示输入transformer结构进行加权处理,进而根据加权处理后的向量表示输入池化层进行池化处理,获取第一文本中预设实体对的子关系向量。以及,参照第一文本的方式获取第二文本中预设实体对的子关系向量。进一步,根据第一文本和第二文本中预设实体对的子关系向量进行相似度计算,确定预设实体对语义关系的相似度预测结果。根据预测结果和标注结果通过反向传播的方式调整transformer结构的处理参数,直至预测结果与标注结果匹配,通过训练确定转换模型。
本实施例中,根据目标文本中的主实体和每个相关实体组成实体对,进而根据预先训练的转换模型对第一向量表示和实体对进行处理,对于主实体和每个相关实体获取目标文本中关联的文本内容的第二向量表示。
步骤303,对第二向量表示进行池化处理,生成主实体与每个相关实体对之间的子关系向量。
作为一种示例,对于N×M矩阵的第二向量表示(N个字,M个维度),根据每个字的第m个维度求平均值。通过对每个维度求平均值,生成1×M形式的子关系向量。
需要说明的是,上述进行池化处理的方式仅为一种示例,例如还可以通过对每个维度取最大值/最小值的方式实现,此处不作限制。
本申请实施例的文本实体的语义描述处理方法,通过预先训练的转换模型和池化层对目标文本、主实体和每个相关实体进行处理,生成主实体和每个相关实体对的子关系向量,实现了获取实体对之间关系的向量表示。
下面对获取主实体与每个相关实体对之间的子关系向量的另一种实现方式进行说明。
图4为本申请实施例所提供的另一种文本实体的语义描述处理方法的流程示意图,如图4所示,该方法包括:
步骤401,根据预先训练的关系抽取模型对目标文本、主实体和每个相关实体进行处理,获取主实体与每个相关实体对关系的概率分布。
本实施例中,根据预先训练的关系抽取模型对目标文本和主实体和每个相关实体进行处理,获取主实体与每个相关实体对关系的概率分布。例如,主实体包括实体A,相关实体包括实体B和C,获取A和B关系的概率分布[0.6,0.2,0.2],A和C关系的概率分布[0.2,0.7,0.1]。其中,训练关系收取模型的实现方式可以根据需要进行选择,此处不再赘述。
步骤402,根据预先训练的映射模型对概率分布进行映射,获取主实体与每个相关实体对之间的子关系向量。
在本申请的一个实施例中,可以获取样本文本集,样本文本集中标注预设实体对关系是否相似。进而,将样本文本集输入预设模型中进行处理,获取预设实体对关系的相似度预测结果,根据预测结果和标注结果训练预设模型的处理参数,确定映射模型。可选地,映射模型可以通过全连接层实现。
作为一种示例,预设模型包括关系抽取模型和全连接层。对于样本文本集中的第一文本和第二文本,样本文本包括预设实体A和B,标注预设实体A和B之间的关系在该两篇文本中是否相似,将第一文本和预设实体对输入关系抽取模型,获取第一文本中预设实体对的关系的概率分布,根据概率分布输入至全连接层,生成第一文本中预设实体对的子关系向量。以及,参照第一文本的方式获取第二文本中预设实体对的子关系向量。进一步,根据第一文本和第二文本中预设实体对的子关系向量进行相似度计算,确定预设实体对关系的相似度预测结果。根据预测结果和标注结果通过反向传播的方式调整全连接层的处理参数,直至预测结果与标注结果匹配,通过训练确定映射模型。
本实施例中,根据预先训练的映射模型对概率分布进行处理,获取主实体与每个相关实体对之间的子关系向量。例如,对于A和B关系的概率分布[0.6,0.2,0.2],A和C关系的概率分布[0.2,0.7,0.1],分别获取子关系向量1和子关系向量2。
本申请实施例的文本实体的语义描述处理方法,通过关系抽取模型和映射模型对目标文本、主实体和每个相关实体对进行处理,获取主实体和每个相关实体对的子关系向量,实现了获取实体对之间关系的向量表示。
为了实现上述实施例,本申请还提出一种文本实体的语义描述处理装置。
图5为本申请实施例所提供的一种文本实体的语义描述处理装置的结构示意图,如图5所示,该装置包括:提取模块10,获取模块20,生成模块30,确定模块40。
其中,提取模块10,用于获取包含主实体的多个目标文本,从每个目标文本中提取描述主实体的其他相关实体。
获取模块20,用于获取每个目标文本中主实体与每个相关实体对之间的子关系向量。
生成模块30,用于根据每个目标文本中主实体与每个相关实体对之间的子关系向量,计算主实体在不同目标文本之间的相似度距离。
确定模块40,用于根据主实体在不同目标文本之间的相似度距离确定不同目标文本对主实体描述的语义相似度。
在本申请的一个实施例中,提取模块10具体用于:对每个目标文本进行命名实体识别,获取候选实体集合;获取候选实体集合中与主实体在目标文本中的距离小于预设距离的候选实体,作为描述主实体的其他相关实体。
在本申请的一个实施例中,获取模块20具体用于:获取目标文本中每个字的第一向量表示;根据预先训练的转换模型对第一向量表示、主实体和每个相关实体进行加权处理,获取目标文本中与主实体和每个相关实体关联的文本内容的第二向量表示;对第二向量表示进行池化处理,生成主实体与每个相关实体对之间的子关系向量。
在本申请的一个实施例中,获取模块20具体用于:根据预先训练的关系抽取模型对目标文本、主实体和每个相关实体进行处理,获取主实体与每个相关实体对关系的概率分布;根据预先训练的映射模型对概率分布进行映射,获取主实体与每个相关实体对之间的子关系向量。
在本申请的一个实施例中,生成模块30具体用于:对每个目标文本中主实体与每个相关实体对之间的子关系向量求和,计算与每个目标文本中的主实体对应的主关系向量;根据与每个目标文本中的主实体对应的主关系向量,计算主实体在不同目标文本之间的相似度距离。
需要说明的是,前述实施例对文本实体的语义描述处理方法的解释说明同样适用于本实施例的文本实体的语义描述处理装置,此处不再赘述。
本申请实施例的文本实体的语义描述处理装置,通过获取包含主实体的多个目标文本,从每个目标文本中提取描述主实体的其他相关实体;获取每个目标文本中主实体与每个相关实体对之间的子关系向量;根据每个目标文本中主实体与每个相关实体对之间的子关系向量,计算主实体在不同目标文本之间的相似度距离;根据主实体在不同目标文本之间的相似度距离确定不同目标文本对主实体描述的语义相似度。由此,通过确定不同文本对实体描述的语义相似度,能够对不同文本中涉及特定实体的描述信息进行比较,而忽略掉其他无关实体,实现了准确获取不同文本中对于同一实体描述是否一致,可以应用于智能问答的多文章校验、百科词条分类等场景。
为了实现上述实施例,本申请还提出一种计算机程序产品,当计算机程序产品中的指令被处理器执行时实现如前述任一实施例所述的文本实体的语义描述处理方法。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的文本实体的语义描述处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的文本实体的语义描述处理方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的文本实体的语义描述处理方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的文本实体的语义描述处理方法对应的程序指令/模块(例如,附图5所示的提取模块10,获取模块20,生成模块30,确定模块40)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的文本实体的语义描述处理方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
文本实体的语义描述处理方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,获取的候选框位置更加准确,解决了密集场景文本实体的语义描述处理获取候选框的准确度有待提高的问题,从而提高了文本实体的语义描述处理的准确度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (10)
1.一种文本实体的语义描述处理方法,其特征在于,包括:
获取包含主实体的多个目标文本,从每个目标文本中提取描述所述主实体的其他相关实体;
获取每个目标文本中所述主实体与每个相关实体对之间的子关系向量;
根据每个目标文本中所述主实体与每个相关实体对之间的子关系向量,计算所述主实体在不同目标文本之间的相似度距离;
根据所述主实体在不同目标文本之间的相似度距离确定不同目标文本对所述主实体描述的语义相似度;
其中,所述根据每个目标文本中所述主实体与每个相关实体对之间的子关系向量,计算所述主实体在不同目标文本之间的相似度距离,包括:
对每个目标文本中所述主实体与每个相关实体对之间的子关系向量求和,计算与每个目标文本中的主实体对应的主关系向量;
根据与每个目标文本中的主实体对应的主关系向量,计算所述主实体在不同目标文本之间的相似度距离。
2.如权利要求1所述的方法,其特征在于,所述从每个目标文本中提取描述所述主实体的其他相关实体,包括:
对每个目标文本进行命名实体识别,获取候选实体集合;
获取所述候选实体集合中与所述主实体在所述目标文本中的距离小于预设距离的候选实体,作为描述所述主实体的其他相关实体。
3.如权利要求1所述的方法,其特征在于,所述获取每个目标文本中所述主实体与每个相关实体对之间的子关系向量,包括:
获取所述目标文本中每个字的第一向量表示;
根据预先训练的转换模型对所述第一向量表示、所述主实体和每个相关实体进行加权处理,获取目标文本中与所述主实体和每个相关实体关联的文本内容的第二向量表示;
对所述第二向量表示进行池化处理,生成所述主实体与每个相关实体对之间的子关系向量。
4.如权利要求1所述的方法,其特征在于,所述获取每个目标文本中所述主实体与每个相关实体对之间的子关系向量,包括:
根据预先训练的关系抽取模型对目标文本、所述主实体和每个相关实体进行处理,获取所述主实体与每个相关实体对关系的概率分布;
根据预先训练的映射模型对所述概率分布进行映射,获取所述主实体与每个相关实体对之间的子关系向量。
5.一种文本实体的语义描述处理装置,其特征在于,包括:
提取模块,用于获取包含主实体的多个目标文本,从每个目标文本中提取描述所述主实体的其他相关实体;
获取模块,用于获取每个目标文本中所述主实体与每个相关实体对之间的子关系向量;
生成模块,用于根据每个目标文本中所述主实体与每个相关实体对之间的子关系向量,计算所述主实体在不同目标文本之间的相似度距离;
确定模块,用于根据所述主实体在不同目标文本之间的相似度距离确定不同目标文本对所述主实体描述的语义相似度;
其中,所述生成模块具体用于:
对每个目标文本中所述主实体与每个相关实体对之间的子关系向量求和,计算与每个目标文本中的主实体对应的主关系向量;
根据与每个目标文本中的主实体对应的主关系向量,计算所述主实体在不同目标文本之间的相似度距离。
6.如权利要求5所述的装置,其特征在于,所述提取模块具体用于:
对每个目标文本进行命名实体识别,获取候选实体集合;
获取所述候选实体集合中与所述主实体在所述目标文本中的距离小于预设距离的候选实体,作为描述所述主实体的其他相关实体。
7.如权利要求5所述的装置,其特征在于,所述获取模块具体用于:
获取所述目标文本中每个字的第一向量表示;
根据预先训练的转换模型对所述第一向量表示、所述主实体和每个相关实体进行加权处理,获取目标文本中与所述主实体和每个相关实体关联的文本内容的第二向量表示;
对所述第二向量表示进行池化处理,生成所述主实体与每个相关实体对之间的子关系向量。
8.如权利要求5所述的装置,其特征在于,所述获取模块具体用于:
根据预先训练的关系抽取模型对目标文本、所述主实体和每个相关实体进行处理,获取所述主实体与每个相关实体对关系的概率分布;
根据预先训练的映射模型对所述概率分布进行映射,获取所述主实体与每个相关实体对之间的子关系向量。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的文本实体的语义描述处理方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的文本实体的语义描述处理方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010041592.7A CN111259671B (zh) | 2020-01-15 | 2020-01-15 | 文本实体的语义描述处理方法、装置及设备 |
US17/149,226 US11669690B2 (en) | 2020-01-15 | 2021-01-14 | Method and apparatus for processing sematic description of text entity, and storage medium |
EP21151567.1A EP3852000A1 (en) | 2020-01-15 | 2021-01-14 | Method and apparatus for processing semantic description of text entity, device and storage medium |
KR1020210005895A KR20210092151A (ko) | 2020-01-15 | 2021-01-15 | 텍스트 엔티티의 시맨틱 설명 처리 방법, 장치 및 기기 |
JP2021005300A JP7113097B2 (ja) | 2020-01-15 | 2021-01-15 | テキストエンティティの語義記述処理方法、装置及び機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010041592.7A CN111259671B (zh) | 2020-01-15 | 2020-01-15 | 文本实体的语义描述处理方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111259671A CN111259671A (zh) | 2020-06-09 |
CN111259671B true CN111259671B (zh) | 2023-10-31 |
Family
ID=70945163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010041592.7A Active CN111259671B (zh) | 2020-01-15 | 2020-01-15 | 文本实体的语义描述处理方法、装置及设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11669690B2 (zh) |
EP (1) | EP3852000A1 (zh) |
JP (1) | JP7113097B2 (zh) |
KR (1) | KR20210092151A (zh) |
CN (1) | CN111259671B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113407610B (zh) * | 2021-06-30 | 2023-10-24 | 北京百度网讯科技有限公司 | 信息抽取方法、装置、电子设备和可读存储介质 |
CN113609291A (zh) * | 2021-07-27 | 2021-11-05 | 科大讯飞(苏州)科技有限公司 | 实体分类方法、装置、电子设备和存储介质 |
CN113642336B (zh) * | 2021-08-27 | 2024-03-08 | 青岛全掌柜科技有限公司 | 一种基于SaaS的保险自动问答方法及系统 |
KR20230043609A (ko) * | 2021-09-24 | 2023-03-31 | 삼성전자주식회사 | 음성 인식 장치 및 그 동작 방법 |
CN114925210B (zh) * | 2022-03-21 | 2023-12-08 | 中国电信股份有限公司 | 知识图谱的构建方法、装置、介质及设备 |
US20230306203A1 (en) * | 2022-03-24 | 2023-09-28 | International Business Machines Corporation | Generating semantic vector representation of natural language data |
CN114970666B (zh) * | 2022-03-29 | 2023-08-29 | 北京百度网讯科技有限公司 | 一种口语处理方法、装置、电子设备及存储介质 |
CN117010010B (zh) * | 2023-06-01 | 2024-02-13 | 湖南信安数字科技有限公司 | 一种基于区块链的多服务器协作高安全度存储方法 |
CN116894489B (zh) * | 2023-09-08 | 2023-11-17 | 北京睿企信息科技有限公司 | 一种文本生成方法、电子设备及存储介质 |
CN117454843A (zh) * | 2023-11-14 | 2024-01-26 | 生命奇点(北京)科技有限公司 | 一种基于电子病历问答模型的数据预处理系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280061A (zh) * | 2018-01-17 | 2018-07-13 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
CN109933785A (zh) * | 2019-02-03 | 2019-06-25 | 北京百度网讯科技有限公司 | 用于实体关联的方法、装置、设备和介质 |
CN110188168A (zh) * | 2019-05-24 | 2019-08-30 | 北京邮电大学 | 语义关系识别方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246491A (ja) | 2003-02-12 | 2004-09-02 | Mitsubishi Electric Corp | テキストマイニング装置及びテキストマイニングプログラム |
US8112402B2 (en) * | 2007-02-26 | 2012-02-07 | Microsoft Corporation | Automatic disambiguation based on a reference resource |
US10289957B2 (en) * | 2014-12-30 | 2019-05-14 | Excalibur Ip, Llc | Method and system for entity linking |
US10643120B2 (en) * | 2016-11-15 | 2020-05-05 | International Business Machines Corporation | Joint learning of local and global features for entity linking via neural networks |
CN110245342B (zh) | 2018-03-07 | 2023-06-09 | 阿里巴巴集团控股有限公司 | 文本匹配的方法、装置和存储介质 |
CN108829669A (zh) | 2018-06-01 | 2018-11-16 | 北京玄科技有限公司 | 支持极性区分和多义的词向量生成方法及装置 |
CN109582967B (zh) | 2018-12-03 | 2023-08-18 | 深圳前海微众银行股份有限公司 | 舆情摘要提取方法、装置、设备及计算机可读存储介质 |
CN110287312B (zh) | 2019-05-10 | 2023-08-25 | 平安科技(深圳)有限公司 | 文本相似度的计算方法、装置、计算机设备及计算机存储介质 |
-
2020
- 2020-01-15 CN CN202010041592.7A patent/CN111259671B/zh active Active
-
2021
- 2021-01-14 US US17/149,226 patent/US11669690B2/en active Active
- 2021-01-14 EP EP21151567.1A patent/EP3852000A1/en not_active Withdrawn
- 2021-01-15 KR KR1020210005895A patent/KR20210092151A/ko not_active Application Discontinuation
- 2021-01-15 JP JP2021005300A patent/JP7113097B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280061A (zh) * | 2018-01-17 | 2018-07-13 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
CN109933785A (zh) * | 2019-02-03 | 2019-06-25 | 北京百度网讯科技有限公司 | 用于实体关联的方法、装置、设备和介质 |
CN110188168A (zh) * | 2019-05-24 | 2019-08-30 | 北京邮电大学 | 语义关系识别方法和装置 |
Non-Patent Citations (2)
Title |
---|
Masumi Shirakawa,Kotaro Nakayama,Takahiro Hara,Shojiro Nishio.Wikipedia-Based Semantic Similarity Measurements for Noisy Short Texts Using Extended Naive Bayes.IEEE Transactions on Emerging Topics in Computing ( Volume: 3, Issue: 2, June 2015).2015,全文. * |
孙雅铭.基于文本表示学习的实体消歧研究.中国博士论文全文数据库.2019,全文. * |
Also Published As
Publication number | Publication date |
---|---|
JP7113097B2 (ja) | 2022-08-04 |
CN111259671A (zh) | 2020-06-09 |
US11669690B2 (en) | 2023-06-06 |
US20210216722A1 (en) | 2021-07-15 |
KR20210092151A (ko) | 2021-07-23 |
JP2021111420A (ja) | 2021-08-02 |
EP3852000A1 (en) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259671B (zh) | 文本实体的语义描述处理方法、装置及设备 | |
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
KR102484617B1 (ko) | 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
KR102532396B1 (ko) | 데이터 세트 처리 방법, 장치, 전자 기기 및 저장 매체 | |
US11847164B2 (en) | Method, electronic device and storage medium for generating information | |
KR20210092148A (ko) | 시계열 지식그래프 생성 방법, 장치, 기기 및 매체 | |
CN113094550B (zh) | 视频检索方法、装置、设备和介质 | |
KR102615957B1 (ko) | 점군 데이터 처리방법, 장치, 전자기기 및 판독 가능 기록매체 | |
KR20210040301A (ko) | 이미지 문답 방법, 장치, 기기, 저장매체 및 컴퓨터 프로그램 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN111241819B (zh) | 词向量生成方法、装置及电子设备 | |
CN111737954B (zh) | 文本相似度确定方法、装置、设备和介质 | |
CN111507355B (zh) | 一种字符识别方法、装置、设备和存储介质 | |
CN111488740B (zh) | 一种因果关系的判别方法、装置、电子设备及存储介质 | |
US20220067439A1 (en) | Entity linking method, electronic device and storage medium | |
US20210200813A1 (en) | Human-machine interaction method, electronic device, and storage medium | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN111078878B (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN111797216B (zh) | 检索项改写方法、装置、设备以及存储介质 | |
US20220027575A1 (en) | Method of predicting emotional style of dialogue, electronic device, and storage medium | |
KR20210092692A (ko) | 구두점 예측 방법 및 장치 | |
CN112529180A (zh) | 模型蒸馏的方法和装置 | |
CN113157829A (zh) | 一种兴趣点名称比对方法、装置、电子设备和存储介质 | |
CN112597288B (zh) | 人机交互方法、装置、设备及存储介质 | |
CN112559715B (zh) | 态度的识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |