CN117893839A - 一种基于图注意力机制的多标记分类方法及系统 - Google Patents
一种基于图注意力机制的多标记分类方法及系统 Download PDFInfo
- Publication number
- CN117893839A CN117893839A CN202410295128.9A CN202410295128A CN117893839A CN 117893839 A CN117893839 A CN 117893839A CN 202410295128 A CN202410295128 A CN 202410295128A CN 117893839 A CN117893839 A CN 117893839A
- Authority
- CN
- China
- Prior art keywords
- label
- mark
- layer
- data
- denoted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000007246 mechanism Effects 0.000 title claims abstract description 32
- 238000003062 neural network model Methods 0.000 claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 44
- 238000010586 diagram Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000010606 normalization Methods 0.000 claims abstract description 15
- 230000004931 aggregating effect Effects 0.000 claims abstract description 12
- 238000013507 mapping Methods 0.000 claims abstract description 6
- 239000003550 marker Substances 0.000 claims description 90
- 239000013598 vector Substances 0.000 claims description 32
- 238000012360 testing method Methods 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000003064 k means clustering Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于图注意力机制的多标记分类方法及系统,该方法通过对多标记分类数据的特征进行归一化处理;将多标记分类数据中的标记进行编码,生成节点特征;利用多层图注意力层来构建标记嵌入模块,并在标记嵌入模块的每一层均聚合节点特征的邻接特征信息;利用一个多层感知机将原始特征空间映射到潜在特征空间;获取邻接特征信息,指导潜在特征空间;将标记特定特征生成对应标记的置信度评分;将多标记分类数据的特征以及图数据作为神经网络模型的输入,标记作为输出,训练神经网络模型;将待分类的数据输入神经网络模型,输出对应的目标标记,并计算置信度评分,以将标记分类,最终解决了语义信息损失导致的网络正确率低的问题。
Description
技术领域
本发明属于机器学习和深度学习技术领域,特别涉及一种基于图注意力机制的多标记分类方法及系统。
背景技术
近些年来,多标记学习(multi-label learning)在生物医学、图像分类、机器学习等人工智能邻域引起了众多学者高度的关注。传统的单标记学习(single-labellearning)是指一个对象和一个标记相关联,而多标记学习是指一个对象可以和多个标记进行关联。对于多标记任务来说,由于多标记的对象具有多语义的特点,传统的单标记学习并不适合多标记学习任务,因此多标记学习算法引起了众多学者的广泛关注。
传统多标记算法分为两大类:首先是"问题转换"方法,将多标记问题转为单标记问题。例如,Binary Relevance(BR)转化为二分类,Calibrated Label Ranking转化为标记排序,Random k-labelsets转化为多类别分类。其次是"算法适应"方法,改进单标记算法以适应多标记学习,如ML-KNN改进KNN,Rank-SVM利用支持向量机核学习,LEDA改造贝叶斯网络。然而,这些方法未充分考虑不同标记之间的差异和判别特征的不同,缺乏标记特定特征学习(label-specific feature learning)。标记特定特征学习致力于捕捉每个类标记的最相关和最具判别性的特征,因此备受研究者关注。这一方法有望更好地建模不同标记之间的关系,提高多标记学习的性能。
深度学习在传统分类任务中取得了巨大成功,能够通过构建深层潜在空间,来更好的捕捉特征与标记依赖关系。近年来,深度学习广泛应用于多标记分类,研究者利用其捕获标记和特征的关联,还研究如何捕获标记相关性。例如,使用图神经网络(GNN)嵌入标记,将标记语义和相关性融入潜在空间,指导多标记分类。但传统GNN通常只考虑0或1的连接关系,未充分利用标记相关性强弱。实际中,标记关联更复杂,如物理与数学成绩相关性高于物理与化学成绩。此外,标记在嵌入网络结构可能有语义损失,但多数网络忽略此问题,邻接特征信息的损失可能会对多标记分类网络做出错误的指导,从而降低网络的正确率。
另外,在以往多标记分类研究中通常假设标记权重是均匀分布的,但实际生活中每个对象对应的标记权重可能是不同的。例如,在图像标注中,不同标记在整幅图像中的占据比重可能不均衡。
发明内容
基于此,本发明实施例当中提供了一种基于图注意力机制的多标记分类方法及系统,以解决现有技术中,标记嵌入网络结构中的语义信息损失导致的网络正确率低的问题。
本发明实施例的第一方面提供了一种基于图注意力机制的多标记分类方法,所述方法包括:
将训练集中归一化处理后的多标记分类数据的特征以及标记图数据作为神经网络模型的输入,多标记分类数据的标记评分作为输出,以训练神经网络模型,得到目标神经网络模型,具体包括:获取多标记分类数据,并按照预设比例,将所述多标记分类数据划分为训练集和测试集,去除训练集和测试集中的异常数据,提取训练集和测试集中剩余的多标记分类数据的特征,并进行归一化处理;
提取训练集和测试集中剩余的多标记分类数据的标记,并进行编码,生成每个图数据中的节点特征,并确定两两节点特征的标记相关性,以构建由节点特征和标记相关性组成的标记图数据;
利用多层图注意力层及标记图数据来构建标记嵌入模块,并在所述标记嵌入模块的每一层均聚合所述节点特征的邻接特征信息;
通过计算每个标记和其它标记之间的平均条件概率,得到每个标记的重要度评分,并根据每个标记的重要度评分,生成每个标记的标记权重,其中,每个标记的重要度评分的计算公式为:
;
li和lj表示为两个不同标记的标记向量,表示为出现lj条件下出现li的概率,m表示为标签个数;
生成每个标记的标记权重的计算公式为:
;
lwi表示为标记权重;
提取训练集和测试集中剩余的多标记分类数据的多标记数据对象,并将多标记数据对象转化为多标记图数据对象,其中,利用K-means聚类将多标记数据对象进行划分,使得属于相同类别多标记数据对象之间产生一条边,并根据边将多标记数据对象转化为多标记图数据对象,边采用邻接矩阵表示;
利用多层图卷积层,将各多标记数据对象按照边的关系聚合邻接节点特征,得到一原始特征空间;
利用一个多层感知机将所述原始特征空间映射到潜在特征空间;
获取通过所述标记嵌入模块得来的邻接特征信息,并根据所述邻接特征信息指导所述潜在特征空间,以生成标记特定特征空间;
将所述标记特定特征空间内的标记特定特征生成对应标记的置信度评分,以得到各多标记分类数据的各标记的置信度评分;
将训练集中归一化处理后的多标记分类数据的特征以及标记图数据作为神经网络模型的输入,各多标记分类数据的各标记的置信度评分作为输出,同时,设置优化器、训练轮数及神经网络模型参数,以训练神经网络模型,得到目标神经网络模型,所述目标神经网络模型的分类损失根据标记权重确定;
将待分类的数据输入目标神经网络模型中,根据输出的标记评分来划分相关标记和无关标记。
进一步的,所述提取训练集和测试集中剩余的多标记分类数据的标记,并进行编码,生成每个图数据中的节点特征,并确定两两节点特征的标记相关性,以构建由节点特征和标记相关性组成的标记图数据的步骤中,确定两两节点特征的标记相关性的表达式为:
;
其中,和表示为两个不同标记的标记向量,表示和的相关性。
进一步的,所述邻接矩阵表示为:
;
其中,kmeans表示为K-means聚类函数,xi表示为多标记数据对象i,xj表示为多标记数据对象j。
进一步的,所述利用多层图注意力层及标记图数据来构建标记嵌入模块的步骤中,每层图注意力层的表达式为:
;
其中,表示为sigmoid函数,Ni表示为标记i的邻居标记,表示为标记i和标记j之间的注意力评分,W表示为对应权重矩阵,表示为第n层标记i对应节点的特征向量;
的表达式为:
;
其中,表示为待学习的注意力权重的向量,||表示为拼接操作,表示为标记i对应节点的特征向量,表示为标记j对应节点的特征向量,表示为标记g对应节点的特征向量。
进一步的,所述利用多层图注意力层及标记图数据来构建标记嵌入模块,并在所述标记嵌入模块的每一层均聚合所述节点特征的邻接特征信息的步骤中,在标记嵌入模块中引入多头注意力机制,其中,在标记嵌入模块的第一图注意力层中,采用拼接策略,第一图注意力层的表达式为:
;
其中,K表示为注意力头的个数,表示为标记i和标记j之间的注意力评分的k次方,表示为对应注意力的权重,在标记嵌入模块的第二图注意力层中,将所述拼接策略改为平均策略来更新最后一层的节点特征,第二图注意力层的表达式为:
。
进一步的,所述利用一个多层感知机将所述原始特征空间映射到潜在特征空间的过程表示为:
;
;
其中,Z1表示为多层感知机,表示为多层感知机对应的线性层,和分别表示为可供学习的第一权重和第一偏置值,多层感知机的每一层采用leakyReLU来激活,x表示为特征向量。
进一步的,所述获取通过所述标记嵌入模块得来的邻接特征信息,并根据所述邻接特征信息指导所述潜在特征空间,以生成标记特定特征空间的步骤中,首先通过一层线性层来将标记嵌入转化为每个标记对每个潜在特征重要度的评分,并利用sigmoid函数来激活,该过程表示为:
;
其中,Lend表示为标记嵌入模块的最后一层,和分别表示为可供学习的第二权重和第二偏置值,随后通过计算每个标记对每个潜在特征的重要度评分与特征嵌入的哈德玛积,完成了标记语义的指导过程,并利用一层全连接层通过leakyReLU来激活以获取最终的标记特定特征,该过程表示为:
;
其中,表示为哈德玛积,和分别表示为可供学习的第三权重和第三偏置值。
本发明实施例的第二方面提供了一种基于图注意力机制的多标记分类系统,用于实现第一方面所述的基于图注意力机制的多标记分类方法,所述系统包括:
训练模块,用于将训练集中归一化处理后的多标记分类数据的特征以及标记图数据作为神经网络模型的输入,多标记分类数据的标记评分作为输出,以训练神经网络模型,得到目标神经网络模型;
划分模块,用于将待分类的数据输入目标神经网络模型中,根据输出的标记评分来划分相关标记和无关标记。
本发明实施例的第三方面提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面提供的基于图注意力机制的多标记分类方法。
本发明实施例的第四方面提供了一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现第一方面提供的基于图注意力机制的多标记分类方法。
本发明实施例当中提供的一种基于图注意力机制的多标记分类方法及系统,该方法利用了神经网络强大学习能力来捕获标记和特征之间的依赖关系,能够更为高效准确的学习出标记特定特征。同时,为了利用标记之间的相关性来指导多标记的分类过程,利用多层图注意力层来进行标记嵌入,在聚合领域特征的过程中,利用注意力评分来优化每个节点的连接,并利用多头注意力机制来获得丰富而稳定的节点表达。另外,为了保证标记节点特征在标记嵌入前后,其相关性依然能够保持一致性,利用一种一致性标记损失来解决这一问题,能够正确指导标记的分类过程,从而最终有效解决标记嵌入网络结构中的语义信息损失导致的网络正确率低的问题,另外,还考虑了标记之间可能存在的不均衡权重,以进一步提高准确性。
附图说明
图1为神经网络模型的结构示意图;
图2为标记嵌入模块的结构示意图;
图3为标记权重实现流程图;
图4为邻接节点特征聚合的示意图;
图5为本发明实施例二提供的一种基于图注意力机制的多标记分类系统的结构框图;
图6为本发明实施例三提供的一种电子设备的结构框图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
需要说明的是,当元件被称为“固设于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
实施例一
基于图注意力机制的多标记分类方法具体包括步骤S01至步骤S11。
步骤S01,获取多标记分类数据,并按照预设比例,将所述多标记分类数据划分为训练集和测试集,去除训练集和测试集中的异常数据,提取训练集和测试集中剩余的多标记分类数据的特征,并进行归一化处理。
在本实施例当中,从网络上找到多标签分类数据集存储库,下载需要的多标记的数据集。将收集来的数据集,按照一定比例划分为训练集和测试集,去除异常样本,可通过手动提取的方式,提取训练集和测试集中剩余的多标记分类数据的特征,并进行归一化处理。
具体的,归一化处理的公式为:
;
其中,fnor表示为归一化后的特征,f表示为归一化前的特征,fmin表示为归一化前的特征的最小值,fmax表示为归一化前的特征的最大值,可以理解的,上述操作的目的在于,将特征值归一化到[0,1]。
步骤S02,提取训练集和测试集中剩余的多标记分类数据的标记,并进行编码,生成每个图数据中的节点特征,并确定两两节点特征的标记相关性,以构建由节点特征和标记相关性组成的标记图数据。
具体的,由于图神经只能接受图数据的输入,于是需要利用标记和标记相关性信息来构建图数据。为了度量两两标记之间的相关性,本发明实施例中采用余弦相似度来经行度量,表达式为:
;
其中,li和lj表示为两个不同标记的标记向量,corr(li,lj)表示li和lj的相关性。需要说明的是,一张图可以由G(V,E)来表示,其中V代表的是节点,而E代表的是边矩阵(邻接矩阵)。每个节点利用标记的编码矩阵来表示每个标记节点特征,在本发明实施例当中,利用高斯函数来对标记进行编码,利用高斯函数满足(μ=0,σ=1),μ为均值,σ为标准差,也即对应为标准正态分布,另外,节点特征向量的维度的维度等同于标记的个数。相比于one-hot编码,利用高斯函数来对标记进行编码能够获取更好效果。边的构造可以利用之前的得到的相关性矩阵求得,表达式为:
;
i表示为标记i,j表示为标记j,corr表示为相关性,u表示为除标记i以外的其它标记,q表示为标记的总数,也即标签的个数,需要说明的是,在所有相关性矩阵中,如果i和j这两个标记之间的相关性大于标记i和其它标记之间的平均值,那么两者之间就存在着一条边Eij。标记i与其存在边的标记都互为邻居标记i的邻居标记也包含自身。
可以理解的,通过每个标记之间的相关性来产生图数据的边,用于后续的聚合,以得到邻接特征信息。
步骤S03,利用多层图注意力层来构建标记嵌入模块,并在所述标记嵌入模块的每一层均聚合所述节点特征的邻接特征信息。
请参阅图2,为标记嵌入模块的结构示意图,具体的,在多标记任务中,如何利用标记与标记之间的相关性,是该任务的关键。为了将邻接特征信息成功的嵌入到网络结构中,用于指导多标记分类网络,多层图注意力神经网络(GAT)来构建标记嵌入模块。图注意力神经网络使用注意力权重代替了原先非0即1的节点连接关系,即两个节点间的关系可以被优化为连续数值,从而获得更丰富的表达,其中,每层图注意力层的表达式为:
;
其中,表示为sigmoid函数,Ni表示为标记i的邻居标记,表示为标记i和标记j之间的注意力评分,W表示为对应权重矩阵,表示为第n层标记i对应节点的特征向量,具体的,每一层图注意力层按照标记相关性得来的邻接矩阵来聚合邻居的标记特征,然后更新每个节点;
的表达式为:
;
其中,表示为待学习的注意力权重的向量,||表示为拼接操作,表示为标记i对应节点的特征向量,表示为标记j对应节点的特征向量,表示为标记g对应节点的特征向量,需要说明的是,为了使得每个标记节点具有更高等级的表现能力,因此需要原本的标记节点通过一组线性变换(每个节点共享一组权重),将原本的标记节点特征映射到更加高级的特征空间中。利用当前的标记节点特征与邻居标记节点拼接起来,再通过一层线性层来计算每个邻居标记节点对于当前节点的注意力机制评分,对于每个注意力的输出采用leakyReLU激活,通过softmax函数经行归一化操作。
另外,为了获取更加丰富而稳定的节点链接,在标记嵌入模块中引入多头注意力机制,其中,在标记嵌入模块的第一图注意力层中,采用拼接策略,即利用在不同注意力下更新的标记节点特征拼接起来更新下一层的标记节点特征,
第一图注意力层的表达式为:
;
其中,K表示为注意力头的个数,表示为标记i和标记j之间的注意力评分的k次方,表示为对应注意力的权重,在标记嵌入模块的第二图注意力层中,将所述拼接策略改为平均策略来更新最后一层的节点特征,第二图注意力层的表达式为:
。
步骤S04,通过计算每个标记和其它标记之间的平均条件概率,得到每个标记的重要度评分,并根据每个标记的重要度评分,生成每个标记的标记权重。
请参阅图3,为标记权重实现流程图,每个标记的重要度评分的计算公式为:
;
li和lj表示为两个不同标记的标记向量,表示为出现lj条件下出现li的概率,m表示为标签个数,生成每个标记的标记权重的计算公式为:
;
lwi表示为标记权重。
步骤S05,提取训练集和测试集中剩余的多标记分类数据的多标记数据对象,并将多标记数据对象转化为多标记图数据对象。
具体的,利用K-means聚类将多标记数据对象进行划分,使得属于相同类别多标记数据对象之间产生一条边,产生边的目的在于,在聚合特征时,只考虑存在边的对象,使得具有近似特征的数据对象之间共享其特征,也即根据边将多标记数据对象转化为多标记图数据对象,边采用邻接矩阵表示,邻接矩阵表示为:
;
其中,kmeans表示为K-means聚类函数,xi表示为多标记数据对象i,xj表示为多标记数据对象j,另外,多标记图数据对象可以表示为,x表示为多标记数据对象,E表示为邻接矩阵,也即上述的。
步骤S06,利用多层图卷积层,将各多标记数据对象按照边的关系聚合邻接节点特征,得到一原始特征空间。
在本实施例当中,多层图卷积层由两层图卷积神经网络(GCN)组成,请参阅图4,为邻接节点特征聚合的示意图,其中包括第一图卷积神经网络层和第二图卷积神经网络层,每一层图卷积神经网络表示为:
;
;
其中,D表示为度矩阵,I表示为单位矩阵,X表示为多标记数据对象,WX表示可供学习的权重。在这里用矩阵代替邻接矩阵E主要是考虑到了信息传播的限制和节点特征的缺失等问题。根据,每个节点特征按照邻接矩阵进行更新,每一层的激活函数采用LeakyReLU。
步骤S07,利用一个多层感知机将原始特征空间映射到潜在特征空间。
具体的,该过程表示为:
;
;
其中,Z1表示为多层感知机,表示为多层感知机对应的线性层,和分别表示为可供学习的第一权重和第一偏置值,多层感知机的每一层采用leakyReLU来激活,x表示为特征向量。
步骤S08,获取通过所述标记嵌入模块得来的邻接特征信息,并根据所述邻接特征信息指导所述潜在特征空间,以生成标记特定特征空间。
具体的,在学习标记特定的特征的时候,不仅考虑标记和特征之间的依赖关系,还需要考虑标记之间的相关性。因此在这里需要利用到之前的标记嵌入的邻接特征信息来指导标签特定特征的学习,首先通过一层线性来将标记嵌入转化为每个标记对每个潜在特征重要度的评分,并利用sigmoid函数来激活,该过程表示为:
;
其中,Lend表示为标记嵌入模块的最后一层,和分别表示为可供学习的第二权重和第二偏置值,随后通过计算每个标记对每个潜在特征的重要度评分与特征嵌入的哈德玛积,完成了标记语义的指导过程,并利用一层全连接通过leakyReLU来激活以获取最终的标记特定特征,该过程表示为:
;
其中,表示为哈德玛积,和分别表示为可供学习的第三权重和第三偏置值。
步骤S09,将所述标记特定特征空间内的标记特定特征生成对应标记的置信度评分,以得到各多标记分类数据的各标记的置信度评分。
具体的,置信度评分的表达式为:
;
其中,Wl和bl分别表示为可供学习的第四权重和第四偏置值。
步骤S10,将训练集中归一化处理后的多标记分类数据的特征以及标记图数据作为神经网络模型的输入,各多标记分类数据的各标记的置信度评分作为输出,同时,设置优化器、训练轮数及神经网络模型参数,以训练神经网络模型,得到目标神经网络模型。
具体的,请参阅图3,为标记权重实现流程图,其中,设置合适优化器和训练轮数来训练神经网络模型,拟合神经网络模型的参数,直到达到相关的性能要求,最后得到合适的模型,即目标神经网络模型,其中,神经网络模型的结构示意图请参阅图1。需要说明的是,该神经网络模型主要包括以下两个损失,包括标记一致性损失(label consistency loss)和分类损失(classification loss),其中,标记一致性损失的表达式为:
;
q表示为标签的个数,表示为标记i在标记嵌入模块中的输出,表示为标记j在标记嵌入模块中的输出,分类损失的表达式为:
;
其中,BR_Cross表示为二元交叉熵损失,yi表示为标记i的真实结果,hi表示为标记i的置信度评分,lwi表示为标记权重,网络的分类损失是每个标记损失乘以各自的标记权重,那么,最终的总体损失表示为:
;
其中,λ为可供调整的变量。
步骤S11,将待分类的数据输入目标神经网络模型中,根据输出的标记评分来划分相关标记和无关标记。
对于一个未知的多标记样本,将其输入目标神经网络模型中,最终的分类结果可以表示为:
;
具体的,当该样本的标记的置信度评分大于0.5时,则说明标记是该样本的相关标记,反之则是无关标记。
综上,本发明上述实施例当中的基于图注意力机制的多标记分类方法,该方法利用了神经网络强大学习能力来捕获标记和特征之间的依赖关系,能够更为高效准确的学习出标记特定特征。同时,为了利用标记之间的相关性来指导多标记的分类过程,利用多层图注意力层来进行标记嵌入,在聚合领域特征的过程中,利用注意力评分来优化每个节点的连接,并利用多头注意力机制来获得丰富而稳定的节点表达。另外,为了保证标记节点特征在标记嵌入前后,其相关性依然能够保持一致性,利用一种一致性标记损失来解决这一问题,能够正确指导标记的分类过程,从而最终有效解决标记嵌入网络结构中的语义信息损失导致的网络正确率低的问题。
实施例二
请参阅图5,图5是本发明实施例二提供的一种基于图注意力机制的多标记分类系统200的结构框图,该基于图注意力机制的多标记分类系统200包括:训练模块21和划分模块22,其中:
训练模块21,用于将训练集中归一化处理后的多标记分类数据的特征以及标记图数据作为神经网络模型的输入,多标记分类数据的标记评分作为输出,以训练神经网络模型,得到目标神经网络模型,所述目标神经网络模型的分类损失根据标记权重确定;
划分模块22,用于将待分类的数据输入目标神经网络模型中,根据输出的标记评分来划分相关标记和无关标记。
进一步的,在本发明其它一些实施例当中,所述训练模块21包括:
归一化处理单元,用于获取多标记分类数据,并按照预设比例,将所述多标记分类数据划分为训练集和测试集,去除训练集和测试集中的异常数据,提取训练集和测试集中剩余的多标记分类数据的特征,并进行归一化处理;
标记图数据构建单元,用于提取训练集和测试集中剩余的多标记分类数据的标记,并进行编码,生成每个图数据中的节点特征,并确定两两节点特征的标记相关性,以构建由节点特征和标记相关性组成的标记图数据,确定两两节点特征的标记相关性的表达式为:
;
其中,和表示为两个不同标记的标记向量,表示和的相关性;
第一聚合单元,用于利用多层图注意力层及标记图数据来构建标记嵌入模块,并在所述标记嵌入模块的每一层均聚合所述节点特征的邻接特征信息,其中,每层图注意力层的表达式为:
;
其中,表示为sigmoid函数,Ni表示为标记i的邻居标记,表示为标记i和标记j之间的注意力评分,W表示为对应权重;矩阵,表示为第n层标记i对应节点的特征向量;
的表达式为:
;
其中,表示为待学习的注意力权重的向量,||表示为拼接操作,表示为标记i对应节点的特征向量,表示为标记j对应节点的特征向量,表示为标记g对应节点的特征向量,为了获取更加丰富而稳定的节点链接,在标记嵌入模块中引入多头注意力机制,其中,在标记嵌入模块的第一图注意力层中,采用拼接策略,第一图注意力层的表达式为:
;
其中,K表示为注意力头的个数,表示为标记i和标记j之间的注意力评分的k次方,表示为对应注意力的权重,在标记嵌入模块的第二图注意力层中,将所述拼接策略改为平均策略来更新最后一层的节点特征,第二图注意力层的表达式为:
;
标记权重生成单元,用于通过计算每个标记和其它标记之间的平均条件概率,得到每个标记的重要度评分,并根据每个标记的重要度评分,生成每个标记的标记权重,其中,每个标记的重要度评分的计算公式为:
;
li和lj表示为两个不同标记的标记向量,表示为出现lj条件下出现li的概率,m表示为标签个数;
生成每个标记的标记权重的计算公式为:
;
lwi表示为标记权重;
转化单元,用于提取训练集和测试集中剩余的多标记分类数据的多标记数据对象,并将多标记数据对象转化为多标记图数据对象,其中,利用K-means聚类将多标记数据对象进行划分,使得属于相同类别多标记数据对象之间产生一条边,并根据边将多标记数据对象转化为多标记图数据对象,边采用邻接矩阵表示,邻接矩阵表示为:
;
其中,kmeans表示为K-means聚类函数,xi表示为多标记数据对象i,xj表示为多标记数据对象j;
第二聚合单元,用于利用多层图卷积层,将各多标记数据对象按照边的关系聚合邻接节点特征,得到一原始特征空间;
映射单元,用于利用一个多层感知机将所述原始特征空间映射到潜在特征空间,表示为:
;
;
其中,Z1表示为多层感知机,表示为多层感知机对应的线性层,和分别表示为可供学习的第一权重和第一偏置值,多层感知机的每一层采用leakyReLU来激活,x表示为特征向量;
指导单元,用于获取通过所述标记嵌入模块得来的邻接特征信息,并根据所述邻接特征信息指导所述潜在特征空间,以生成标记特定特征空间,首先通过一层线性层来将标记嵌入转化为每个标记对每个潜在特征重要度的评分,并利用sigmoid函数来激活,该过程表示为:
;
其中,Lend表示为标记嵌入模块的最后一层,和分别表示为可供学习的第二权重和第二偏置值,随后通过计算每个标记对每个潜在特征的重要度评分与特征嵌入的哈德玛积,完成了标记语义的指导过程,并利用一层全连接层通过leakyReLU来激活以获取最终的标记特定特征,该过程表示为:
;
其中,表示为哈德玛积,和分别表示为可供学习的第三权重和第三偏置值;
置信度评分生成单元,用于将所述标记特定特征空间内的标记特定特征生成对应标记的置信度评分,以得到各多标记分类数据的各标记的置信度评分。
实施例三
本发明另一方面还提出一种电子设备,请参阅图6,所示为本发明实施例三当中的电子设备,包括存储器20、处理器10以及存储在存储器上并可在处理器上运行的计算机程序30,所述处理器10执行所述计算机程序30时实现如上述的基于图注意力机制的多标记分类方法。
其中,处理器10在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器20中存储的程序代码或处理数据,例如执行访问限制程序等。
其中,存储器20至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器20在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的硬盘。存储器20在另一些实施例中也可以是电子设备的外部存储装置,例如电子设备上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(FlashCard)等。进一步地,存储器20还可以既包括电子设备的内部存储单元也包括外部存储装置。存储器20不仅可以用于存储电子设备的应用软件及各类数据,还可以用于暂时地存储已经输出或者将要输出的数据。
需要指出的是,图6示出的结构并不构成对电子设备的限定,在其它实施例当中,该电子设备可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
本发明实施例还提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述的基于图注意力机制的多标记分类方法。
本领域技术人员可以理解,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或它们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于图注意力机制的多标记分类方法,其特征在于,所述方法包括:
将训练集中归一化处理后的多标记分类数据的特征以及标记图数据作为神经网络模型的输入,多标记分类数据的标记评分作为输出,以训练神经网络模型,得到目标神经网络模型,具体包括:获取多标记分类数据,并按照预设比例,将所述多标记分类数据划分为训练集和测试集,去除训练集和测试集中的异常数据,提取训练集和测试集中剩余的多标记分类数据的特征,并进行归一化处理;
提取训练集和测试集中剩余的多标记分类数据的标记,并进行编码,生成每个图数据中的节点特征,并确定两两节点特征的标记相关性,以构建由节点特征和标记相关性组成的标记图数据;
利用多层图注意力层及标记图数据来构建标记嵌入模块,并在所述标记嵌入模块的每一层均聚合所述节点特征的邻接特征信息;
通过计算每个标记和其它标记之间的平均条件概率,得到每个标记的重要度评分,并根据每个标记的重要度评分,生成每个标记的标记权重,其中,每个标记的重要度评分的计算公式为:
;
li和lj表示为两个不同标记的标记向量,表示为出现lj条件下出现li的概率,m表示为标签个数;
生成每个标记的标记权重的计算公式为:
;
lwi表示为标记权重;
提取训练集和测试集中剩余的多标记分类数据的多标记数据对象,并将多标记数据对象转化为多标记图数据对象,其中,利用K-means聚类将多标记数据对象进行划分,使得属于相同类别多标记数据对象之间产生一条边,并根据边将多标记数据对象转化为多标记图数据对象,边采用邻接矩阵表示;
利用多层图卷积层,将各多标记数据对象按照边的关系聚合邻接节点特征,得到一原始特征空间;
利用一个多层感知机将所述原始特征空间映射到潜在特征空间;
获取通过所述标记嵌入模块得来的邻接特征信息,并根据所述邻接特征信息指导所述潜在特征空间,以生成标记特定特征空间;
将所述标记特定特征空间内的标记特定特征生成对应标记的置信度评分,以得到各多标记分类数据的各标记的置信度评分;
将训练集中归一化处理后的多标记分类数据的特征以及标记图数据作为神经网络模型的输入,各多标记分类数据的各标记的置信度评分作为输出,同时,设置优化器、训练轮数及神经网络模型参数,以训练神经网络模型,得到目标神经网络模型,所述目标神经网络模型的分类损失根据标记权重确定;
将待分类的数据输入目标神经网络模型中,根据输出的标记评分来划分相关标记和无关标记。
2.根据权利要求1所述的基于图注意力机制的多标记分类方法,其特征在于,所述提取训练集和测试集中剩余的多标记分类数据的标记,并进行编码,生成每个图数据中的节点特征,并确定两两节点特征的标记相关性,以构建由节点特征和标记相关性组成的标记图数据的步骤中,确定两两节点特征的标记相关性的表达式为:
;
其中,和表示为两个不同标记的标记向量,表示和的相关性。
3.根据权利要求2所述的基于图注意力机制的多标记分类方法,其特征在于,所述邻接矩阵表示为:
;
其中,kmeans表示为K-means聚类函数,xi表示为多标记数据对象i,xj表示为多标记数据对象j。
4.根据权利要求3所述的基于图注意力机制的多标记分类方法,其特征在于,所述利用多层图注意力层及标记图数据来构建标记嵌入模块的步骤中,每层图注意力层的表达式为:
;
其中,表示为sigmoid函数,Ni表示为标记i的邻居标记,表示为标记i和标记j之间的注意力评分,W表示为对应权重矩阵,表示为第n层标记i对应节点的特征向量;
的表达式为:
;
其中,表示为待学习的注意力权重的向量,||表示为拼接操作,表示为标记i对应节点的特征向量,表示为标记j对应节点的特征向量,表示为标记g对应节点的特征向量。
5.根据权利要求4所述的基于图注意力机制的多标记分类方法,其特征在于,所述利用多层图注意力层及标记图数据来构建标记嵌入模块,并在所述标记嵌入模块的每一层均聚合所述节点特征的邻接特征信息的步骤中,在标记嵌入模块中引入多头注意力机制,其中,在标记嵌入模块的第一图注意力层中,采用拼接策略,第一图注意力层的表达式为:
;
其中,K表示为注意力头的个数,表示为标记i和标记j之间的注意力评分的k次方,表示为对应注意力的权重,在标记嵌入模块的第二图注意力层中,将所述拼接策略改为平均策略来更新最后一层的节点特征,第二图注意力层的表达式为:
。
6.根据权利要求5所述的基于图注意力机制的多标记分类方法,其特征在于,所述利用一个多层感知机将所述原始特征空间映射到潜在特征空间的过程表示为:
;
;
其中,Z1表示为多层感知机,表示为多层感知机对应的线性层,和分别表示为可供学习的第一权重和第一偏置值,多层感知机的每一层采用leakyReLU来激活,x表示为特征向量。
7.根据权利要求6所述的基于图注意力机制的多标记分类方法,其特征在于,所述获取通过所述标记嵌入模块得来的邻接特征信息,并根据所述邻接特征信息指导所述潜在特征空间,以生成标记特定特征空间的步骤中,首先通过一层线性层来将标记嵌入转化为每个标记对每个潜在特征重要度的评分,并利用sigmoid函数来激活,该过程表示为:
;
其中,Lend表示为标记嵌入模块的最后一层,和分别表示为可供学习的第二权重和第二偏置值,随后通过计算每个标记对每个潜在特征的重要度评分与特征嵌入的哈德玛积,完成了标记语义的指导过程,并利用一层全连接层通过leakyReLU来激活以获取最终的标记特定特征,该过程表示为:
;
其中,表示为哈德玛积,和分别表示为可供学习的第三权重和第三偏置值。
8.一种基于图注意力机制的多标记分类系统,其特征在于,用于实现如权利要求1-7任一项所述的基于图注意力机制的多标记分类方法,所述系统包括:
训练模块,用于将训练集中归一化处理后的多标记分类数据的特征以及标记图数据作为神经网络模型的输入,多标记分类数据的标记评分作为输出,以训练神经网络模型,得到目标神经网络模型;
划分模块,用于将待分类的数据输入目标神经网络模型中,根据输出的标记评分来划分相关标记和无关标记。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7任一项所述的基于图注意力机制的多标记分类方法。
10.一种电子设备,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1-7任一项所述的基于图注意力机制的多标记分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410295128.9A CN117893839B (zh) | 2024-03-15 | 2024-03-15 | 一种基于图注意力机制的多标记分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410295128.9A CN117893839B (zh) | 2024-03-15 | 2024-03-15 | 一种基于图注意力机制的多标记分类方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117893839A true CN117893839A (zh) | 2024-04-16 |
CN117893839B CN117893839B (zh) | 2024-06-07 |
Family
ID=90650880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410295128.9A Active CN117893839B (zh) | 2024-03-15 | 2024-03-15 | 一种基于图注意力机制的多标记分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117893839B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118174958A (zh) * | 2024-05-10 | 2024-06-11 | 中移(苏州)软件技术有限公司 | 流量分类方法、装置、电子设备、存储介质和程序产品 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947938A (zh) * | 2019-01-28 | 2019-06-28 | 萍乡学院 | 多标记分类方法、系统、可读存储介质及计算机设备 |
CN111801725A (zh) * | 2018-09-12 | 2020-10-20 | 株式会社阿尔法代码 | 图像显示控制装置及图像显示控制用程序 |
CN111970456A (zh) * | 2020-09-14 | 2020-11-20 | Oppo广东移动通信有限公司 | 拍摄控制方法、装置、设备及存储介质 |
CN112766376A (zh) * | 2021-01-20 | 2021-05-07 | 重庆邮电大学 | 一种基于gacnn的多标签眼底图像识别方法 |
US20210295089A1 (en) * | 2019-01-02 | 2021-09-23 | Boe Art Cloud Technology Co., Ltd. | Neural network for automatically tagging input image, computer-implemented method for automatically tagging input image, apparatus for automatically tagging input image, and computer-program product |
CN113947161A (zh) * | 2021-10-28 | 2022-01-18 | 广东工业大学 | 一种基于注意力机制的多标签文本分类方法及系统 |
CN114155443A (zh) * | 2021-09-29 | 2022-03-08 | 中国人民解放军火箭军工程大学 | 一种基于多感受野图注意力网络的高光谱图像分类方法 |
CN114299342A (zh) * | 2021-12-30 | 2022-04-08 | 安徽工业大学 | 一种基于深度学习的多标记图片分类中未知标记分类方法 |
CN114328934A (zh) * | 2022-01-18 | 2022-04-12 | 重庆邮电大学 | 一种基于注意力机制的多标签文本分类方法及系统 |
CN114648635A (zh) * | 2022-03-15 | 2022-06-21 | 安徽工业大学 | 一种融合标签间强相关性的多标签图像分类方法 |
CN114821298A (zh) * | 2022-03-22 | 2022-07-29 | 大连理工大学 | 一种具有自适应语义信息的多标签遥感图像分类方法 |
CN116206158A (zh) * | 2023-03-09 | 2023-06-02 | 华南理工大学 | 基于双超图神经网络的场景图像分类方法及系统 |
US20230186072A1 (en) * | 2021-12-13 | 2023-06-15 | International Business Machines Corporation | Extracting explanations from attention-based models |
CN116740474A (zh) * | 2023-08-15 | 2023-09-12 | 南京信息工程大学 | 一种基于锚定条纹注意力机制的遥感图像分类方法 |
CN116740422A (zh) * | 2023-05-24 | 2023-09-12 | 中国科学院空天信息创新研究院 | 基于多模态注意力融合技术的遥感图像分类方法及装置 |
CN117456230A (zh) * | 2023-10-08 | 2024-01-26 | 四川用联信息技术有限公司 | 一种数据分类方法、系统及电子设备 |
CN117557804A (zh) * | 2023-11-10 | 2024-02-13 | 南京理工大学 | 联合目标结构嵌入和多层次特征融合的多标签分类方法 |
-
2024
- 2024-03-15 CN CN202410295128.9A patent/CN117893839B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111801725A (zh) * | 2018-09-12 | 2020-10-20 | 株式会社阿尔法代码 | 图像显示控制装置及图像显示控制用程序 |
US20210295089A1 (en) * | 2019-01-02 | 2021-09-23 | Boe Art Cloud Technology Co., Ltd. | Neural network for automatically tagging input image, computer-implemented method for automatically tagging input image, apparatus for automatically tagging input image, and computer-program product |
CN109947938A (zh) * | 2019-01-28 | 2019-06-28 | 萍乡学院 | 多标记分类方法、系统、可读存储介质及计算机设备 |
CN111970456A (zh) * | 2020-09-14 | 2020-11-20 | Oppo广东移动通信有限公司 | 拍摄控制方法、装置、设备及存储介质 |
CN112766376A (zh) * | 2021-01-20 | 2021-05-07 | 重庆邮电大学 | 一种基于gacnn的多标签眼底图像识别方法 |
CN114155443A (zh) * | 2021-09-29 | 2022-03-08 | 中国人民解放军火箭军工程大学 | 一种基于多感受野图注意力网络的高光谱图像分类方法 |
CN113947161A (zh) * | 2021-10-28 | 2022-01-18 | 广东工业大学 | 一种基于注意力机制的多标签文本分类方法及系统 |
US20230186072A1 (en) * | 2021-12-13 | 2023-06-15 | International Business Machines Corporation | Extracting explanations from attention-based models |
CN114299342A (zh) * | 2021-12-30 | 2022-04-08 | 安徽工业大学 | 一种基于深度学习的多标记图片分类中未知标记分类方法 |
CN114328934A (zh) * | 2022-01-18 | 2022-04-12 | 重庆邮电大学 | 一种基于注意力机制的多标签文本分类方法及系统 |
CN114648635A (zh) * | 2022-03-15 | 2022-06-21 | 安徽工业大学 | 一种融合标签间强相关性的多标签图像分类方法 |
CN114821298A (zh) * | 2022-03-22 | 2022-07-29 | 大连理工大学 | 一种具有自适应语义信息的多标签遥感图像分类方法 |
CN116206158A (zh) * | 2023-03-09 | 2023-06-02 | 华南理工大学 | 基于双超图神经网络的场景图像分类方法及系统 |
CN116740422A (zh) * | 2023-05-24 | 2023-09-12 | 中国科学院空天信息创新研究院 | 基于多模态注意力融合技术的遥感图像分类方法及装置 |
CN116740474A (zh) * | 2023-08-15 | 2023-09-12 | 南京信息工程大学 | 一种基于锚定条纹注意力机制的遥感图像分类方法 |
CN117456230A (zh) * | 2023-10-08 | 2024-01-26 | 四川用联信息技术有限公司 | 一种数据分类方法、系统及电子设备 |
CN117557804A (zh) * | 2023-11-10 | 2024-02-13 | 南京理工大学 | 联合目标结构嵌入和多层次特征融合的多标签分类方法 |
Non-Patent Citations (3)
Title |
---|
LIN TAO; CHEN BIAO; WANG RUIXIA; ZHANG JIN; ZHU JIANLIN: "Design and Implementation of Painting Classification System Based on Double Attention Network", 《2021 6TH INTERNATIONAL CONFERENCE ON INTELLIGENT INFORMATICS AND BIOMEDICAL SCIENCES (ICIIBMS)》, 29 December 2021 (2021-12-29) * |
宋宇鹏;边继龙;安翔;张锡英;: "基于注意力机制的DenseNet模型的树种识别应用", 实验室研究与探索, no. 07, 25 July 2020 (2020-07-25) * |
陈科峻;张叶;: "循环神经网络多标签航空图像分类", 光学精密工程, no. 06, 9 June 2020 (2020-06-09) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118174958A (zh) * | 2024-05-10 | 2024-06-11 | 中移(苏州)软件技术有限公司 | 流量分类方法、装置、电子设备、存储介质和程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN117893839B (zh) | 2024-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110532417B (zh) | 基于深度哈希的图像检索方法、装置及终端设备 | |
Changpinyo et al. | Synthesized classifiers for zero-shot learning | |
CN105354307B (zh) | 一种图像内容识别方法及装置 | |
Chong et al. | Simultaneous image classification and annotation | |
Socher et al. | Parsing natural scenes and natural language with recursive neural networks | |
Ahmad et al. | Medical image retrieval with compact binary codes generated in frequency domain using highly reactive convolutional features | |
Faraki et al. | Fisher tensors for classifying human epithelial cells | |
CN117893839B (zh) | 一种基于图注意力机制的多标记分类方法及系统 | |
CN110188827B (zh) | 一种基于卷积神经网络和递归自动编码器模型的场景识别方法 | |
CN108197666A (zh) | 一种图像分类模型的处理方法、装置及存储介质 | |
Batra et al. | Learning class-specific affinities for image labelling | |
CN114358188A (zh) | 特征提取模型处理、样本检索方法、装置和计算机设备 | |
CN112163114B (zh) | 一种基于特征融合的图像检索方法 | |
Cui et al. | Measuring dataset granularity | |
CN113821670A (zh) | 图像检索方法、装置、设备及计算机可读存储介质 | |
Peng et al. | Deep boosting: joint feature selection and analysis dictionary learning in hierarchy | |
Tu et al. | Topic modeling and improvement of image representation for large-scale image retrieval | |
CN104036021A (zh) | 混合生成式和判别式学习模型的图像语义标注方法 | |
CN115439715A (zh) | 基于反标签学习的半监督少样本图像分类学习方法及系统 | |
Gu et al. | Unsupervised deep triplet hashing with pseudo triplets for scalable image retrieval | |
Sun et al. | A novel semantics-preserving hashing for fine-grained image retrieval | |
CN118132786A (zh) | 一种相似图片的检索方法、装置、设备及存储介质 | |
Gao et al. | An improved XGBoost based on weighted column subsampling for object classification | |
WO2021057046A1 (en) | Image hash for fast photo search | |
CN113704534A (zh) | 图像处理方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |