CN113672693B - 基于知识图谱和标签关联的在线问答平台的标签推荐方法 - Google Patents

基于知识图谱和标签关联的在线问答平台的标签推荐方法 Download PDF

Info

Publication number
CN113672693B
CN113672693B CN202110970089.4A CN202110970089A CN113672693B CN 113672693 B CN113672693 B CN 113672693B CN 202110970089 A CN202110970089 A CN 202110970089A CN 113672693 B CN113672693 B CN 113672693B
Authority
CN
China
Prior art keywords
label
knowledge
question
qtree
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110970089.4A
Other languages
English (en)
Other versions
CN113672693A (zh
Inventor
李洋
王乐田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeast Forestry University
Original Assignee
Northeast Forestry University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeast Forestry University filed Critical Northeast Forestry University
Priority to CN202110970089.4A priority Critical patent/CN113672693B/zh
Publication of CN113672693A publication Critical patent/CN113672693A/zh
Application granted granted Critical
Publication of CN113672693B publication Critical patent/CN113672693B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • G06F16/322Trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

基于知识图谱和标签关联的在线问答平台的标签推荐方法,涉及人工智能、自然语言处理、推荐系统技术领域。本发明是为了解决目前的标签推荐方法并不适用于问答平台的场景从而导致推荐效果差的问题。本发明具体过程为:将在线问答平台的问题文本和外部知识图谱输入到训练好的KOCIN模型中获得推荐的标签;KOCIN模型包括:知识集成层、序列编码层、关联捕获层;知识集成层用于从问题文本qi和外部知识图谱
Figure DDA0003225345390000011
中提取知识三元组,将知识三元组合集成到问题文本qi中,生成Qtree;序列编码层用于将Qtree转化为Qtree的稠密向量化表示进而获得预测的问题文本原始标签;关联捕获层用于根据预测的问题文本原始标签获得问题文本的推荐标签。本发明用于获取问答平台的推荐标签。

Description

基于知识图谱和标签关联的在线问答平台的标签推荐方法
技术领域
本发明涉及人工智能、自然语言处理、推荐系统技术领域,特别涉及基于知识图谱和标签关联的在线问答平台的标签推荐方法。
背景技术
随着互联网的迅速发展,互联网在各行业内越来越广泛的普及与应用,电商、互联网金融、生活服务、游戏等多个领域的企业都致力于通过互联网向用户更好的推荐产品或服务,以挖掘用户需求,增加用户流量,提高服务质量。问答网站就丰富了信息的来源,加速了信息的扩散,但也同时引发了信息过载、搜寻负荷加重、信息品质降低等问题。那么,用户如何从海量网络信息资源中快速地、低成本地、有效地获取合适而又高质量的信息,这就体现了标签推荐的重要性,标签如何可以根据用户的喜好有针对性的给用户推荐可能感兴趣的话题,成为了摆在我们前面的不可逾越的重大研究课题。
目前的标签推荐方法分为:基于用户的方法和基于内容的方法。基于用户的方法里代表性的方法包括协同过滤、张量分解和基于图的方法。协同过滤(CF)方法充分利用了集体智能,旨在填补用户-项目关联矩阵中缺失的条目。Kywe等人提出了一种协同过滤模型,将用户的偏好和推特内容都包含在标签推荐工作中。随着信息的日益丰富,Wang等人将主题信息和用户的偏好结合起来,根据特定微博的相关分数来推荐标签。但是上述这些基于协同过滤的方法还存在冷启动问题。Rendle和Schmidt-Thieme提出了一种基于Tucker分解的成对交互张量分解(PITF)模型用于标签推荐。Chen和Li将张量分解与敌对学习相结合,以增强标签推荐模型的稳健性。近年来,图神经网络(GNN)被应用于推荐系统中。Mao等人把标签推荐任务表述为图上的关系预测问题,提出了基于异构图神经网络的TagGNN模型。基于内容的方法致力于建立标签和问题文本之间的语义关系,这可以缓解协同过滤方法的冷启动问题。基于内容的方法大致可以分为四类:相似度模型、主题模型、翻译模型和文本分类模型。基于相似度的方法致力于基于问题文本和标签之间的相似度推荐标签。Mishne提出的基于内容的TF-IDF相似性为博客帖子推荐标签。Wu等人提出基于相似文本应该共享相似标签的假设,提出了一种相似性模型来将问题文本与适当的标签相匹配。Krestel等人引入了LDA模型来挖掘主题信息去推荐标签。Liu等人首先采用了翻译模型,应用统计机器翻译模型来推荐标签。Ding等人将主题信息集成到翻译模型中,并提出了用于微博标签推荐的主题翻译模型。Song等将标签推荐转化为多标签分类问题,提出了基于稀疏高斯过程的分类框架,为标签推荐提供了一个新的视角。近年来,文本分类方法已经被证明在标签推荐任务中是有效的。各种分类方法已经被用于标签推荐,从传统的机器学习方法包括朴素贝叶斯(NB),支持向量机(SVM),到深度学习方法包括多层感知器(MLP,递归神经网络(RNN,卷积神经网络(CNN),基于注意力的方法,Transformer,和图神经网络(GNN)都是目前常用的文本分类方法,但是这些方法都是基于用户或基于内容的,并不能利用问题的语义,进而导致不能根据每个用户的个人兴趣来进行Stack Exchange上的标签推荐。Stanley和Byrne提出了一个贝叶斯概率模型来预测StackOverflow上问题的标签。Nie等人出了一种自适应概率超图,并使用类似问题为新问题推荐标签。随后,Wu等人提出的基于Quora上的标签推荐的监督随机游走框架中的标签图,将问题相似性和标签相似性一起使用。Duan等人结合了基于用户和基于内容的方法,并引入了个性化序列存储网络(PSMN),不仅利用问题的语义,而且利用每个用户的个人兴趣来进行Stack Exchange上的标签推荐。但是这些标签推荐方法中模型的标签空间都比较大。极端多标签文本分类(XMTC)是在一个非常大的标签空间中为每个文档找到最相关的标签。传统的XMTC方法可以分为三个方向:OneVSAll方法是基于树的方法和基于嵌入的方法。最近,一些深度学习模型已经被用于极端多标签文本分类,包括XML-CNN,AttendationXML和X-Transformer。他们都改进了原来的模型,以解决标签空间大的问题。除此之外,Xun等人将标签相关性作为一种元数据纳入,并提出了一种标签关联模型来增强具有标签相关性的原始标签预测。上述的传统标签推荐工作往往有以下特点:1.主要集中于微博等社交媒体平台;2.基于内容的方法仅仅关注问题句子本身来推荐标签,对平台上频繁出现的生僻专业词汇不适用;但是问答平台标签推荐任务上,问题与回答的语料常常包含罕见的专业词汇,而通用领域的词向量或预训练模型不能对这些专业词汇进行向量化从而导致效果下降,因此目前的标签推荐方法并不适用于问答平台的场景。
发明内容
本发明目的是为了解决目前的标签推荐方法并不适用于问答平台的场景从而导致推荐效果差的问题,而提出了基于知识图谱和标签关联的在线问答平台的标签推荐方法。
基于知识图谱和标签关联的在线问答平台的标签推荐方法具体过程为:
将在线问答平台的问题文本和外部知识图谱输入到训练好的KOCIN模型中获得推荐的标签;
所述KOCIN模型包括:知识集成层、序列编码层、关联捕获层;
所述知识集成层用于从问题文本qi和外部知识图谱
Figure BDA0003225345370000021
中提取知识三元组,然后将知识三元组集成到问题文本qi中,生成句子树Qtree;
所述序列编码层采用基于BERT的序列编码器,用于将Qtree转化为Qtree的稠密向量化表示进而获得预测的问题文本原始标签;
所述关联捕获层包括:多个标签关联网络CorNet,用于根据预测的问题文本原始标签获得问题文本的推荐标签。
本发明的有益效果为:
本发明提出了基于Transformer的神经网络模型KOCIN,将大规模的外部知识图谱和内部标签关联网络结合到一个统一的框架中。KOCIN将专业知识作为文本的补充,将标签关联作为一种元数据,丰富了问题文本的表现形式,缓解了标签的长尾效应。本发明提出的KOCIN是第一个结合外部知识图的模型,也是第一个融合内部标签相关性的模型,本发明大大缓解了标签的长尾问题,更适用于问答平台场景,同时提高了标签推荐的效果。
附图说明
图1为KOCIN模型的结构图;
其中(a)为总体结构图,(b)为知识集层结构图,(c)为关联捕获层中单个关联网络(CorNet)的结构图。
具体实施方式
具体实施方式一:本实施方式基于知识图谱和标签关联的在线问答平台的标签推荐方法具体过程为:将在线问答平台的问题文本和外部知识图谱输入到训练好的KOCIN模型中获得推荐的标签。
所述KOCIN模型包括:知识集成层、序列编码层、关联捕获层;
所述知识集成层用于从问题文本和外部知识图谱
Figure BDA0003225345370000031
中提取知识三元组,然后将知识三元组集成到问题文本中,生成句子树Qtree;
所述序列编码层采用基于BERT的序列编码器,用于将Qtree转化为Qtree的稠密向量化表示进而获得预测的问题文本原始标签;
所述关联捕获层包括:多个标签关联网络CorNet,用于根据预测的问题文本原始标签获得问题文本的推荐标签,学习预测标签之间的相关性,从而缓解标签的稀疏性问题;本发明将标签推荐任务表述为多标签文本分类问题。
具体实施方式二:所述知识集成层用于从问题文本和外部知识图谱
Figure BDA0003225345370000032
中提取知识三元组,然后将知识三元组集成到问题文本中,生成句子树Qtree,包括以下步骤:
步骤一一、对于问题文本qi中的每个实体ej进行知识查询,从而提取知识三元组的集合,具体过程为:
Figure BDA0003225345370000041
其中,E={(ej,rj1,ej1),...,(ej,rjk,ejk)}是与ej匹配的知识三元组的集合,rj1是实体ej与匹配到的第一个知识三元组的关系,ej1是实体ej匹配到的第1个知识三元组的实体,(ej,rjk,ejk)是第k个知识三元组,K_Query()是查询函数;
步骤一二、将E中的所有知识三元组插入到问题文本qi中相应的位置,生成句子树Qtree:
Qtree=K_Insert(ej,E)={w1,w2,...ej{(rj1,ej1),...,(rjk,ejk)},...,wn}
其中,Qtree={w1,w2,...ej{(rj1,ej1),...,(rjk,ejk)},...,wn},wi是构成句子的词,i∈[1,n]是当前是第i个词,K_Insert()是插入函数,n表示词的总数量。
本实施方式允许每个实体链接多个知识三元组。然而,为了防止句子树产生无关分支,避免引入无关知识加重噪声,只能根据实体加入一跳的知识查询。
具体实施方式三:所述序列编码层采用基于BERT的序列编码器,用于将Qtree转化为Qtree的稠密向量化表示进而获得预测的问题文本原始标签,包括以下步骤:
步骤二一、将步骤一二获得的Qtree的开头插入多个[CLS]标记:
Qtree_CLS={[CLS1],...,[CLSc],w1,w2,...ej{(rj1,ej1),...,(rjk,ejk)},...,wn}
其中,c是插入的[CLS]标记总数,实体ej是匹配到知识三元组的词wi;
步骤二二、利用Qtree_CLS获得[CLS]标记的隐藏状态向量,再根据[CLS]标记的隐藏状态向量获取Qtree的稠密向量化表示:
采用动态最大池化的方法,将多[CLS]捕获的信息进行汇总,并生成一个综合特征向量u:
Figure BDA0003225345370000042
其中,
Figure BDA0003225345370000043
为第a个[CLS]对应的隐藏状态向量,a∈[1,c],c是插入的[CLS]标记总数;
步骤二三、利用Qtree的稠密向量化表示获得预测的问题文本原始标签:
y=Wσ(u)+b
其中,W是权重矩阵,b是偏差,σ是sigmoid激活函数。
本实施方式的效果为:基于BERT的模型在分类任务中通常在每个输入句子前添加一个特殊符号[CLS],并使用其对应的最终隐藏状态h_CLS作为句子序列的表示,这对大多数普通任务来说效果不错。然而,对于现实世界语料库中的CQA标签推荐,问题文本通常很短,其标签空间非常大。因此我们对BERT进行了改进,使其更适合这项任务。我们首先将融合了知识图谱的句子树Qtree转化为为词向量形式。假设我们使用了300维的词向量,那么BERT的[CLS]将相应地输出一个300维向量,在此向量的基础上我们可以进行文本分类任务。一个潜在的问题是,输入的所有必要信息都必须被压缩到一个固定长度的向量。这可能会使我们难以应付长问题和大量的分类标签,因此,我们采用了一种多[CLS]策略。得到综合特征向量u后,普通标签推荐不会考虑到标签之间的关联性,仅仅使用全连接层和激活函数得到最终的标签作为预测结果输出,因此本发明添加了标签关联网络来解决这一问题。
具体实施方式四:所述关联捕获层包括:多个标签关联网络CorNet,用于根据预测的问题文本原始标签获得问题文本的推荐标签,如下式:
y'=W1δ(W2σ(y)+b1)+b2+y
其中,y'是作为输出的相关增强标签(问题文本的推荐标签),W1、W2是权重矩阵,b1,b2是偏差,σ是sigmoid激活函数,δ是ELU激活函数。
本实施方式的效果为:在CQA标签推荐任务中,标签的数量是巨大的。标签之间的关联性是一种有价值的元数据。例如,如果一个问题包含"CNN"和"Backpropagation"的标签,那么"Deep Learning"很有可能也是其标签。为了充分利用标签的相关性,我们在模型中添加了一个关联捕获层。具体地说,我们在y'和y之间添加了一个瓶颈层,如图1中的(c)所示,它可以防止模型参数在标签数量变大时呈指数增长。此外,我们将多个CorNets堆叠起来,形成一个深度的关联捕获网络,以获得标签之间的相关性。值得注意的是,第一层CorNet的输入即是上文得到综合特征向量u。而第二层CorNet的输入即是第一层输出的y'。经实验发现,CorNet的层数为3时模型效果最好。上述所有的设置都是为了缓解长尾标签的问题。
具体实施方式五:所述KOCIN模型的损失函数为:
loss(y',b)=Mean{l1,...lN}
其中,
lm=-(bm*log(σ(y'm))+(1-bm)*log(1-σ(y'm)))
其中,m∈[1,N]为批量(Batch)的序号,N为批量的数目,b为问题文本的真实标签,σ代表sigmoid激活函数,lm为第m个批量的损失值,y'm是第m个批量的推荐标签,bm是第m个批量问题文本的真实标签,Mean{}是求平均函数。
实施例:
本发明在一个公开的大规模CQA数据集上将KOCIN与众多基线方法进行了对比试验。实验结果表明,该模型明显优于现有方法。与标准的Transformer模型相比,知识图和关联网络相结合的KOCIN将F1得分提高了8.3%以上。此外,本发明还将KOCIN与AttentionXML(极端多标签文本分类领域的SOTA方法)进行了比较。在F1评分上比AttentionXML高5.6%。

Claims (7)

1.基于知识图谱和标签关联的在线问答平台的标签推荐方法,其特征在于所述方法具体过程为:将在线问答平台的问题文本和外部知识图谱输入到训练好的KOCIN模型中获得推荐的标签;
所述KOCIN模型包括:知识集成层、序列编码层、关联捕获层;所述知识集成层用于从问题文本qi和外部知识图谱
Figure FDA0003570134050000011
中提取知识三元组,然后将知识三元组集成到问题文本qi中,生成句子树Qtree;
所述序列编码层采用基于BERT的序列编码器,用于将Qtree转化为Qtree的稠密向量化表示进而获得预测的问题文本原始标签;
所述关联捕获层包括:多个标签关联网络CorNet,用于根据预测的问题文本原始标签获得问题文本的推荐标签,如下式:
y'=W1δ(W2σ(y)+b1)+b2+y
其中,y'是问题文本的推荐标签,W1、W2是权重矩阵,b1,b2是偏差,σ是sigmoid激活函数,δ是ELU激活函数,y是预测的问题文本原始标签;
KOCIN模型的损失函数为:
loss(y',b)=Mean{l1,...lN}
其中,m∈[1,N]为批量的序号,N为批量的数目,b为问题文本的真实标签,lm为第m个批量的损失值,Mean{}是求平均函数;
所述lm为第m个批量的损失值,如下式:
lm=-(bm*log(σ(y'm))+(1-bm)*log(1-σ(y'm)))
其中,y'm是第m个批量的问题文本的推荐标签,bm是第m个批量问题文本的真实标签。
2.根据权利要求1所述的基于知识图谱和标签关联的在线问答平台的标签推荐方法,其特征在于:所述知识集成层用于从问题文本和外部知识图谱
Figure FDA0003570134050000012
中提取知识三元组,然后将知识三元组集成到问题文本中,生成句子树Qtree,包括以下步骤:
步骤一一、对于问题文本qi中的每个实体ej进行知识查询,从而提取知识三元组的集合E;
步骤一二、将知识三元组的集合E中的所有知识三元组插入到问题文本qi中,生成句子树Qtree。
3.根据权利要求2所述的基于知识图谱和标签关联的在线问答平台的标签推荐方法,其特征在于:所述步骤一一中对于问题文本qi中的每个实体ej进行知识查询,从而提取知识三元组的集合E,如下式:
Figure FDA0003570134050000021
其中,E={(ej,rj1,ej1),…,(ej,rjk,ejk)}是与ej匹配的知识三元组的集合,rj1是实体ej与匹配到的第一个知识三元组的关系,ej1是实体ej匹配到的第一个知识三元组的实体,(ej,rjk,ejk)是第k个知识三元组,K_Query()是查询函数,
Figure FDA0003570134050000022
是外部知识图谱。
4.根据权利要求3所述的基于知识图谱和标签关联的在线问答平台的标签推荐方法,其特征在于:所述步骤一二中将知识三元组的集合E中的所有知识三元组插入到问题文本qi中,生成句子树Qtree,如下式:
Qtree=K_Insert(ej,E)={w1,w2,...ej{(rj1,ej1),...,(rjk,ejk)},...,wn}
其中,Qtree={w1,w2,...ej{(rj1,ej1),...,(rjk,ejk)},...,wn},wi是构成句子的词,i∈[1,n],K_Insert()是插入函数,n是构成句子的词的总数量。
5.根据权利要求4所述的基于知识图谱和标签关联的在线问答平台的标签推荐方法,其特征在于:所述序列编码层采用基于BERT的序列编码器,用于将Qtree转化为Qtree的稠密向量化表示进而获得预测的问题文本原始标签,包括以下步骤:
步骤二一、将步骤一二获得的Qtree的开头插入多个[CLS]标记,获得插入[CLS]标记后的句子树:
Qtree_CLS={[CLS1],…,[CLSc],w1,w2,…ej{(rj1,ej1),...,(rjk,ejk)},...,wn}
其中,c是插入的[CLS]标记总数;
步骤二二、序列编码器利用Qtree_CLS获得[CLS]标记的隐藏状态向量,再根据[CLS]标记的隐藏状态向量获取Qtree的稠密向量化表示;
步骤二三、利用Qtree的稠密向量化表示获得问题文本的原始标签。
6.根据权利要求5所述的基于知识图谱和标签关联的在线问答平台的标签推荐方法,其特征在于:所述步骤二二中的根据[CLS]标记的隐藏状态向量获取Qtree的稠密向量化表示,如下式:
Figure FDA0003570134050000031
其中,
Figure FDA0003570134050000032
为第a个[CLS]对应的隐藏状态向量,a∈[1,c],MaxPooling()是最大池化函数。
7.根据权利要求6所述的基于知识图谱和标签关联的在线问答平台的标签推荐方法,其特征在于:所述步骤二三中利用Qtree的稠密向量化表示获得预测的问题文本原始标签,如下:
y=Wσ(u)+b
其中,W是权重矩阵,b是偏差,σ是sigmoid激活函数。
CN202110970089.4A 2021-08-23 2021-08-23 基于知识图谱和标签关联的在线问答平台的标签推荐方法 Active CN113672693B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110970089.4A CN113672693B (zh) 2021-08-23 2021-08-23 基于知识图谱和标签关联的在线问答平台的标签推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110970089.4A CN113672693B (zh) 2021-08-23 2021-08-23 基于知识图谱和标签关联的在线问答平台的标签推荐方法

Publications (2)

Publication Number Publication Date
CN113672693A CN113672693A (zh) 2021-11-19
CN113672693B true CN113672693B (zh) 2022-05-10

Family

ID=78545177

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110970089.4A Active CN113672693B (zh) 2021-08-23 2021-08-23 基于知识图谱和标签关联的在线问答平台的标签推荐方法

Country Status (1)

Country Link
CN (1) CN113672693B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114328934B (zh) * 2022-01-18 2024-05-28 重庆邮电大学 一种基于注意力机制的多标签文本分类方法及系统
CN115422442B (zh) * 2022-08-15 2024-01-19 暨南大学 一种面向冷启动推荐的对抗自编码迁移学习方法
CN116151242B (zh) * 2023-04-19 2023-07-18 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种编程学习场景的智能习题推荐方法、系统及储存介质
CN116127079B (zh) * 2023-04-20 2023-06-20 中电科大数据研究院有限公司 一种文本分类方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021054514A1 (ko) * 2019-09-18 2021-03-25 주식회사 솔트룩스 지식 그래프 기반의 사용자 맞춤형 질의 응답 시스템
CN113127646A (zh) * 2021-04-20 2021-07-16 清华大学 基于知识图谱的智能对话推荐方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668719A (zh) * 2020-11-06 2021-04-16 北京工业大学 基于工程能力提升的知识图谱构建方法
CN112883172B (zh) * 2021-02-03 2022-04-12 大连理工大学 一种基于双重知识选择的生物医学问答方法
CN113239210B (zh) * 2021-05-25 2022-09-27 河海大学 基于自动化补全知识图谱的水利文献推荐方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021054514A1 (ko) * 2019-09-18 2021-03-25 주식회사 솔트룩스 지식 그래프 기반의 사용자 맞춤형 질의 응답 시스템
CN113127646A (zh) * 2021-04-20 2021-07-16 清华大学 基于知识图谱的智能对话推荐方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
旅游知识图谱特征学习的景点推荐;贾中浩等;《智能系统学报》;20190422(第03期);全文 *
面向生物医学领域的篇章关系抽取算法研究;冯靖焜;《信息科技》;20210215;全文 *

Also Published As

Publication number Publication date
CN113672693A (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
Kaur et al. Comparative analysis on cross-modal information retrieval: A review
CN113672693B (zh) 基于知识图谱和标签关联的在线问答平台的标签推荐方法
CN111581401B (zh) 一种基于深度相关性匹配的局部引文推荐系统及方法
CN109271537B (zh) 一种基于蒸馏学习的文本到图像生成方法和系统
Shi et al. Deep adaptively-enhanced hashing with discriminative similarity guidance for unsupervised cross-modal retrieval
CN108595708A (zh) 一种基于知识图谱的异常信息文本分类方法
Rehman et al. A benchmark dataset and learning high-level semantic embeddings of multimedia for cross-media retrieval
Ju et al. An efficient method for document categorization based on word2vec and latent semantic analysis
Elzayady et al. Arabic Opinion Mining Using Combined CNN-LSTM Models.
Huang et al. Learning social image embedding with deep multimodal attention networks
CN116127090B (zh) 基于融合和半监督信息抽取的航空系统知识图谱构建方法
Cao et al. An improved convolutional neural network algorithm and its application in multilabel image labeling
Sharma et al. Automatic detection of satire in bangla documents: A cnn approach based on hybrid feature extraction model
Huang et al. A Low‐Cost Named Entity Recognition Research Based on Active Learning
Halevy et al. Discovering structure in the universe of attribute names
Samih et al. Enhanced sentiment analysis based on improved word embeddings and XGboost.
Bhende et al. Integrating multiclass light weighted BiLSTM model for classifying negative emotions
Ding et al. Context-aware semantic type identification for relational attributes
CN112445862B (zh) 物联网设备数据集构建方法、装置、电子设备和存储介质
CN113901228A (zh) 融合领域知识图谱的跨境民族文本分类方法及装置
CN111737507A (zh) 一种单模态图像哈希检索方法
Dourado et al. Event prediction based on unsupervised graph-based rank-fusion models
Tian et al. Research on image classification based on a combination of text and visual features
Li et al. Otcmr: Bridging heterogeneity gap with optimal transport for cross-modal retrieval
CN116226638A (zh) 模型训练方法、数据对标方法、装置以及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant