CN114385827A - 面向会议知识图谱的检索方法 - Google Patents

面向会议知识图谱的检索方法 Download PDF

Info

Publication number
CN114385827A
CN114385827A CN202111632562.4A CN202111632562A CN114385827A CN 114385827 A CN114385827 A CN 114385827A CN 202111632562 A CN202111632562 A CN 202111632562A CN 114385827 A CN114385827 A CN 114385827A
Authority
CN
China
Prior art keywords
graph
node
relation
gcn
retrieval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111632562.4A
Other languages
English (en)
Inventor
孙建伟
许佑骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Yunsi Intelligent Information Technology Co ltd
Original Assignee
Shanghai Yunsi Intelligent Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Yunsi Intelligent Information Technology Co ltd filed Critical Shanghai Yunsi Intelligent Information Technology Co ltd
Priority to CN202111632562.4A priority Critical patent/CN114385827A/zh
Publication of CN114385827A publication Critical patent/CN114385827A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了面向会议图谱的检索方法,具体地,包含以下三个步骤:1)用户请求图建立。2)会议知识图谱候选子图集建立。3)用户请求图与候选子图匹配,本发明采用用户请求图来建模自然语言问题中的查询意图,在此基础上将会议检索简化为用户请求图与候选子图匹配问题。一方面解决了会议信息的检索中自然语言问题的模糊性,提高了精度,大大提高了查询性能。

Description

面向会议知识图谱的检索方法
技术领域
本发明涉及自然语言处理领域,尤其涉及一种面向会议知识图谱检索方法。
背景技术
随着在线会议系统的深入建设,各类会议记录和会议纪要数据呈几何级数增长。针对海量会议信息在搜索过程中带来的挑战,本发明提出了一种基于会议知识图谱的检索方法。知识图谱是包含大量概念和关系的语义网络,具有可解释性,一般以RDF格式存储。虽然SPARQL是访问RDF数据的标准方法,但由于SPARQL语法和RDF模式的复杂性,它对用户的使用来说仍然是困难的。由于用户请求语句是非结构化数据,而会议知识图谱是图结构数据,两者之间存在空白,通过将用户请求语句建模为用户请求图,可将会议检索问题建模为在会议知识图谱上找到用户请求图的匹配问题。
发明内容
本发明面向海量会议文本的知识图谱构建方法包括以下步骤:
步骤S1、用户请求图建立。
步骤S1.1:使用jieba分词,将用户输入的检索句划分为实体集
步骤S1.5:使用Stanford parser进行检索句的依赖树构建
步骤S1.6:结构构建,输入为检索句子N,节点集合V以及依赖树Y。输出为检索图Q。首先初始化visit集合为空集,对于V中的每一个节点u,如果V中的节点v在依赖树Y中与u联通且v不属于visit集合,则将v添加到visit集合
步骤S2、候选子图建立。
步骤S2.1:匹配边,输入为关系集合T以及关系支持集合S。输出为k个可能的路径L,首先,找到关系支持集合中的节点v1和v2的所有图中长度小于阈值θ的简单路径L,加入path集合中;将所有节点之间的path加入PS集合;如果关系集合T中的某个关系rel在PS集合中,计算该关系对应的所有L的TF-IDF值,选择k个具有最大IF-IDF值的路径,作为该关系的谓词路径;将TF-IDF作为关系rel映射为路径L的置信概率;构建关系词典,关系词典为一个列数为3的表格,第一列为关系短语,第二列为路径,第三列为置信概率;根据关系词典,可以将检索图中的边映射到会议知识图谱中
步骤S2.2:匹配点,输入检索图Q和会议知识图谱G。输出为G中k个与Q匹配的候选子图
步骤S3、用户请求图与候选子图匹配。
步骤S3.1:节点嵌入,将每个图的节点转换为一个向量,通过GCN对每个节点周围的特征和结构信息进行编码。计算节点间的相似性和执行注意机制需要节点级嵌入,将每个节点表示为向量,本发明采用图卷积网络GCN作为节点级嵌入算法,一方面由于GCN对于测试集中任何不可见的图都具有图表示不变性,一方面由于GCN是节点嵌入最简洁的空间模型。GCN模型使用图的结构来聚合邻居节点信息,然后通过非线性激活函数更新节点表示。其核心操作是空间图卷积层,表示如下:
Hl+1=f1(AHlW1 l)
其中,A是一个归一化的邻接矩阵,Hl是第l层GCN的节点级嵌入,例如,H0即节点特征矩阵,W1 l是第l层GCN的可学习权重,f1是非线性激活函数。
应用到候选子图与用户检索图中,分别得出用户请求图Q的节点级嵌入HQ与候选子图H的节点级嵌入HG,这里GCN的权重对于Q和G是共享的,因为我们期望更相似的节点有更多相似的嵌入。
Figure BDA0003441443920000021
Figure BDA0003441443920000022
步骤S3.2:相似性计算,前一阶段产生了两个节点级嵌入,计算它们之间相似性的一种简单方法是取它们之间的内积。然而,这种简单的数据表示使用通常会造成节点对之间的弱连接。由于神经张量网络(NTN)适用于推理两个实体之间的关系。可以通过NTN计算出用户请求图中的一对节点和候选子图中的相似性。神经张量网络(NTN)使用了一个双线性张量层,它直接关联了跨多个维度的两个实体向量,故通过以下基于NTN的函数计算两个实体处于某种关系中的可能性的分数:
Figure BDA0003441443920000031
其中,f2是一个非线性激活函数,
Figure BDA0003441443920000032
V2和b2都是可学习的参数,e1和e2是两个实体的表示;
应用到候选子图与用户检索图中,可建模得到两个节点之间的关系为:
Figure BDA0003441443920000033
Figure BDA0003441443920000034
OPl=Sl*ATTl
其中,
Figure BDA0003441443920000035
Figure BDA0003441443920000036
是用户请求图Q与候选子图G的一个节点的嵌入。ATTl是节点到节点的注意力,Sl是经过GCN层后得出的节点与节点之间的相似度,f2是sigmoid函数,σ是一个softmax函数用来保证ATTl的每一行之和为1,OPl是第l层GCN的相似性张量。
步骤S3.3:输出;前面步骤获得l个OPl,通过对它们执行连接操作。使用1x1卷积将连接的相似张量的维数减少到与ground-truth矩阵形状相同输出;
OP=σ(Conv1×1(concatenation(OP1,...,OPl)))
其中,OP是最终输出,σ是一个softmax函数用来保证OP的每一行之和为1,训练阶段,通过与ground-truth矩阵M逼近来收敛模型,训练阶段所使用的损失函数为:
Figure BDA0003441443920000037
其中,D为训练集,|D|为训练集中样本的个数。
训练集的构建,使用一个无向图生成器,生成器有三个参数,包括要生成的图的大小|g|、在节点和节点之间生成一条边的概率p以及节点特征N的最大值。每个节点都被分配一个范围为[1,N]的随机整数作为节点特征。我们将查询图Q随机插入到每个中候选字图G,从而得到样本,每个样本都是一个包含一个数据图和一个查询图的图对。
附图说明
图1为本发明面向会议知识图谱的检索方法的整体流程图。
图2为本发明面向会议知识图谱的检索方法的用户请求图与候选子图匹配的流程图。
具体实施方式
下面将结合本发明实施例中的图1~2,对本发明实施例中的技术方案进行清楚完整地描述,显然,所有描述地实施例仅是本发明一部分实施例,而不是全部的实施例。融合本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的范围。
本发明的目的是基于知识图谱的会议检索,能自动将检索语句生成请求子图,再将请求,使其具有较好的可扩展性。构造好的会议知识图谱可用于后续的会议检索引擎、会议内容可视化场景。
为使本发明的上述目的,特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明做进一步详细说明。
图1为本发明一种面向会议知识图谱检索方法一个整体流程图,如图1所示,实现整个方法的步骤包括。
步骤S1:用户请求图建立,包括以下步骤:
步骤S1.1:使用jieba分词,将用户输入的检索句划分为实体集;
步骤S1.2:使用Stanford parser进行检索句的依赖树构建;
步骤S1.3:结构构建,输入为检索句子N,节点集合V以及依赖树Y。输出为检索图Q。首先初始化visit集合为空集,对于V中的每一个节点u,如果V中的节点v在依赖树Y中与u联通且v不属于visit集合,则将v添加到visit集合;
步骤S2:;候选子图建立,包括以下步骤:
步骤S2.1:匹配边,输入为关系集合T以及关系支持集合S。输出为k个可能的路径L,首先,找到关系支持集合中的节点v1和v2的所有图中长度小于阈值θ的简单路径L,加入path集合中;将所有节点之间的path加入PS集合;如果关系集合T中的某个关系rel在PS集合中,计算该关系对应的所有L的TF-IDF值,选择k个具有最大IF-IDF值的路径,作为该关系的谓词路径;将TF-IDF作为关系rel映射为路径L的置信概率;构建关系词典,关系词典为一个列数为3的表格,第一列为关系短语,第二列为路径,第三列为置信概率;根据关系词典,可以将检索图中的边映射到会议知识图谱中;
步骤S2.2:匹配点,输入检索图Q和会议知识图谱G。输出为G中k个与Q匹配的候选子图;
步骤S3:用户请求图与候选子图匹配,本发明采用一个端到端的神经网络来学习用户请求图与k个候选子图的关系,最终生成一个预测匹配矩阵。
图2为本发明面向会议知识图谱的检索方法的用户请求图与候选子图匹配的流程图,如图2所示,实现用户请求图与候选子图匹配的步骤包括:
步骤S3.1:节点嵌入,将每个图的节点转换为一个向量,通过GCN对每个节点周围的特征和结构信息进行编码。计算节点间的相似性和执行注意机制需要节点级嵌入,将每个节点表示为向量,本发明采用图卷积网络GCN作为节点级嵌入算法,一方面由于GCN对于测试集中任何不可见的图都具有图表示不变性,一方面由于GCN是节点嵌入最简洁的空间模型。GCN模型使用图的结构来聚合邻居节点信息,然后通过非线性激活函数更新节点表示。其核心操作是空间图卷积层,表示如下:
Hl+1=f1(AHlW1 l)
其中,A是一个归一化的邻接矩阵,Hl是第l层GCN的节点级嵌入,例如,H0即节点特征矩阵,W1 l是第l层GCN的可学习权重,f1是非线性激活函数。
应用到候选子图与用户检索图中,分别得出用户请求图Q的节点级嵌入HQ与候选子图H的节点级嵌入HG,这里GCN的权重对于Q和G是共享的,因为我们期望更相似的节点有更多相似的嵌入。
Figure BDA0003441443920000051
Figure BDA0003441443920000052
步骤S3.2:相似性计算,前一阶段产生了两个节点级嵌入,计算它们之间相似性的一种简单方法是取它们之间的内积。然而,这种简单的数据表示使用通常会造成节点对之间的弱连接。由于神经张量网络(NTN)适用于推理两个实体之间的关系。可以通过NTN计算出用户请求图中的一对节点和候选子图中的相似性。神经张量网络(NTN)使用了一个双线性张量层,它直接关联了跨多个维度的两个实体向量,故通过以下基于NTN的函数计算两个实体处于某种关系中的可能性的分数:
Figure BDA0003441443920000061
其中,f2是一个非线性激活函数,
Figure BDA0003441443920000062
V2和b2都是可学习的参数,e1和e2是两个实体的表示;
应用到候选子图与用户检索图中,可建模得到两个节点之间的关系为:
Figure BDA0003441443920000063
Figure BDA0003441443920000064
OPl=Sl*ATTl
其中,
Figure BDA0003441443920000065
Figure BDA0003441443920000066
是用户请求图Q与候选子图G的一个节点的嵌入。ATTl是节点到节点的注意力,Sl是经过GCN层后得出的节点与节点之间的相似度,f2是sigmoid函数,σ是一个softmax函数用来保证ATTl的每一行之和为1,OPl是第l层GCN的相似性张量;
步骤S3.3:输出;前面步骤获得l个OPl,通过对它们执行连接操作。使用1x1卷积将连接的相似张量的维数减少到与ground-truth矩阵形状相同输出;
OP=σ(Conv1×1(concatenation(OP1,...,OPl)))
其中,OP是最终输出,σ是一个softmax函数用来保证OP的每一行之和为1,训练阶段,通过与ground-truth矩阵M逼近来收敛模型,训练阶段所使用的损失函数为:
Figure BDA0003441443920000071
其中,D为训练集,|D|为训练集中样本的个数。
训练集的构建,使用一个无向图生成器,生成器有三个参数,包括要生成的图的大小|g|、在节点和节点之间生成一条边的概率p以及节点特征N的最大值。每个节点都被分配一个范围为[1,N]的随机整数作为节点特征。我们将查询图Q随机插入到每个中候选字图G,从而得到样本,每个样本都是一个包含一个数据图和一个查询图的图对。以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明实际内容。

Claims (1)

1.一种面向面向会议图谱的检索方法,其特征在于,包含以下步骤:
步骤S1:用户请求图建立,包括以下步骤:
步骤S1.1:使用jieba分词,将用户输入的检索句划分为实体集;
步骤S1.2:使用Stanford parser进行检索句的依赖树构建;
步骤S1.3:结构构建,输入为检索句子N,节点集合V以及依赖树Y;输出为检索图Q;首先初始化visit集合为空集,对于V中的每一个节点u,如果V中的节点v在依赖树Y中与u联通且v不属于visit集合,则将v添加到visit集合;
步骤S2:;候选子图建立,包括以下步骤:
步骤S2.1:匹配边,输入为关系集合T以及关系支持集合S;输出为k个可能的路径L,首先,找到关系支持集合S中的节点v1和v2所有图中有长度小于阈值θ的简单路径L,加入path集合中;将所有节点之间的path加入PS集合;如果关系集合T中的某个关系rel在PS集合中,计算该关系对应的所有L的TF-IDF值,选择k个具有最大IF-IDF值的路径,作为该关系的谓词路径;将TF-IDF作为关系rel映射为路径L的置信概率;构建关系词典,关系词典为一个列数为3的表格,第一列为关系短语,第二列为路径,第三列为置信概率;根据关系词典,将检索图中的边映射到会议知识图谱中;
步骤S2.2:匹配点,输入检索图Q和会议知识图谱G;输出为G中k个与Q匹配的候选子图;
步骤S3:用户请求图与候选子图匹配,采用一个端到端的神经网络来学习用户请求图与k个候选子图的关系,最终生成一个预测匹配矩阵;包括以下步骤:
步骤S3.1:节点嵌入,将每个图的节点转换为一个向量,通过GCN对每个节点周围的特征和结构信息进行编码;计算节点间的相似性和执行注意机制需要节点级嵌入,将每个节点表示为向量,采用图卷积网络GCN作为节点级嵌入算法,一方面由于GCN对于测试集中任何不可见的图都具有图表示不变性,一方面由于GCN是节点嵌入最简洁的空间模型;GCN模型使用图的结构来聚合邻居节点信息,然后通过非线性激活函数更新节点表示;其核心操作是空间图卷积层,表示如下:
Hl+1=f1(AHlW1 l)
其中,A是一个归一化的邻接矩阵,Hl是第l层GCN的节点级嵌入,W1 l是第l层GCN的可学习权重,f1是非线性激活函数;
应用到候选子图与用户检索图中,分别得出用户请求图Q的节点级嵌入HQ与候选子图H的节点级嵌入HG,这里GCN的权重对于Q和G是共享的;
Figure FDA0003441443910000021
Figure FDA0003441443910000022
步骤S3.2:通过以下基于神经网络的函数计算两个实体处于某种关系中的可能性的分数:
Figure FDA0003441443910000023
其中,f2是一个非线性激活函数,
Figure FDA0003441443910000024
V2和b2都是可学习的参数,e1和e2是两个实体的表示;
应用到候选子图与用户检索图中,可建模得到两个节点之间的关系为:
Figure FDA0003441443910000025
Figure FDA0003441443910000026
OPl=Sl*ATTl
其中,
Figure FDA0003441443910000027
Figure FDA0003441443910000028
是用户请求图Q与候选子图G的一个节点的嵌入;ATTl是节点到节点的注意力,Sl是经过GCN层后得出的节点与节点之间的相似度,f2是sigmoid函数,σ是一个softmax函数用来保证ATTl的每一行之和为1,OPl是第l层GCN的相似性张量;
步骤S3.3:输出;前面步骤获得l个OPl,通过对它们执行连接操作;使用1x1卷积将连接的相似张量的维数减少到与ground-truth矩阵形状相同输出;
OP=σ(Conv1×1(concatenation(OP1,...,OPl)))
其中,OP是最终输出,σ是一个softmax函数用来保证OP的每一行之和为1,训练阶段,通过与ground-truth矩阵M逼近来收敛模型,训练阶段所使用的损失函数为:
Figure FDA0003441443910000031
其中,D为训练集,|D|为训练集中样本的个数;
训练集的构建,使用一个无向图生成器,生成器有三个参数,包括要生成的图的大小|g|、在节点和节点之间生成一条边的概率p以及节点特征N的最大值;每个节点都被分配一个范围为[1,N]的随机整数作为节点特征;将查询图Q随机插入到每个中候选字图G,从而得到样本,每个样本都是一个包含一个数据图和一个查询图的图对。
CN202111632562.4A 2021-12-29 2021-12-29 面向会议知识图谱的检索方法 Pending CN114385827A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111632562.4A CN114385827A (zh) 2021-12-29 2021-12-29 面向会议知识图谱的检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111632562.4A CN114385827A (zh) 2021-12-29 2021-12-29 面向会议知识图谱的检索方法

Publications (1)

Publication Number Publication Date
CN114385827A true CN114385827A (zh) 2022-04-22

Family

ID=81200627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111632562.4A Pending CN114385827A (zh) 2021-12-29 2021-12-29 面向会议知识图谱的检索方法

Country Status (1)

Country Link
CN (1) CN114385827A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116304109A (zh) * 2023-03-30 2023-06-23 上海云思智慧信息技术有限公司 基于会议知识图谱的检索方法、系统、介质及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915340A (zh) * 2014-03-10 2015-09-16 北京大学 自然语言问答方法及装置
CN112487168A (zh) * 2020-12-11 2021-03-12 润联软件系统(深圳)有限公司 知识图谱的语义问答方法、装置、计算机设备及存储介质
CN112529057A (zh) * 2020-12-03 2021-03-19 中山大学 一种基于图卷积网络的图相似性计算方法及装置
CN112765312A (zh) * 2020-12-31 2021-05-07 湖南大学 一种基于图神经网络嵌入匹配的知识图谱问答方法和系统
WO2021169718A1 (zh) * 2020-02-26 2021-09-02 京东方科技集团股份有限公司 信息获取方法、装置、电子设备及计算机可读存储介质
CN113806554A (zh) * 2021-09-14 2021-12-17 上海云思智慧信息技术有限公司 面向海量会议文本的知识图谱构建方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915340A (zh) * 2014-03-10 2015-09-16 北京大学 自然语言问答方法及装置
WO2021169718A1 (zh) * 2020-02-26 2021-09-02 京东方科技集团股份有限公司 信息获取方法、装置、电子设备及计算机可读存储介质
CN112529057A (zh) * 2020-12-03 2021-03-19 中山大学 一种基于图卷积网络的图相似性计算方法及装置
CN112487168A (zh) * 2020-12-11 2021-03-12 润联软件系统(深圳)有限公司 知识图谱的语义问答方法、装置、计算机设备及存储介质
CN112765312A (zh) * 2020-12-31 2021-05-07 湖南大学 一种基于图神经网络嵌入匹配的知识图谱问答方法和系统
CN113806554A (zh) * 2021-09-14 2021-12-17 上海云思智慧信息技术有限公司 面向海量会议文本的知识图谱构建方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116304109A (zh) * 2023-03-30 2023-06-23 上海云思智慧信息技术有限公司 基于会议知识图谱的检索方法、系统、介质及电子设备

Similar Documents

Publication Publication Date Title
US10719662B2 (en) Knowledge map-based question-answer method, device, and storage medium
WO2017092380A1 (zh) 用于人机对话的方法、神经网络系统和用户设备
CN106021457B (zh) 基于关键词的rdf分布式语义搜索方法
KR20180041200A (ko) 정보 처리 방법 및 장치
CN110555208B (zh) 一种信息查询中的歧义消除方法、装置及电子设备
CN114565104A (zh) 语言模型的预训练方法、结果推荐方法及相关装置
CN113254616B (zh) 面向智能问答系统的句向量生成方法及系统
CN111930894A (zh) 长文本匹配方法及装置、存储介质、电子设备
CN114896377A (zh) 一种基于知识图谱的答案获取方法
Sun et al. Graph force learning
CN114385827A (zh) 面向会议知识图谱的检索方法
CN114064926A (zh) 多模态电力知识图谱构建方法、装置、设备及存储介质
Gunaratna et al. Alignment and dataset identification of linked data in semantic web
US11120214B2 (en) Corpus generating method and apparatus, and human-machine interaction processing method and apparatus
CN112417170A (zh) 面向不完备知识图谱的关系链接方法
CN109977194B (zh) 基于无监督学习的文本相似度计算方法、系统、设备及介质
CN114579605B (zh) 表格问答数据处理方法、电子设备及计算机存储介质
CN116069876A (zh) 基于知识图谱的问答方法、装置、设备及存储介质
CN113033205A (zh) 实体链接的方法、装置、设备以及存储介质
CN112100342A (zh) 一种基于知识表示学习技术的知识图谱问答方法
Jeon et al. Random forest algorithm for linked data using a parallel processing environment
CN112163430B (zh) 面向mes系统的工业设备数据的本体融合方法和系统
KR102389555B1 (ko) 가중 트리플 지식 그래프를 생성하는 장치, 방법 및 컴퓨터 프로그램
CN110688446B (zh) 一种句义数学空间表示方法、系统、介质和设备
CN115796127B (zh) 位置编码方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20220422

RJ01 Rejection of invention patent application after publication