CN113657473B - 一种基于迁移学习的Web服务分类方法 - Google Patents

一种基于迁移学习的Web服务分类方法 Download PDF

Info

Publication number
CN113657473B
CN113657473B CN202110891224.6A CN202110891224A CN113657473B CN 113657473 B CN113657473 B CN 113657473B CN 202110891224 A CN202110891224 A CN 202110891224A CN 113657473 B CN113657473 B CN 113657473B
Authority
CN
China
Prior art keywords
web service
app
model
classification
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110891224.6A
Other languages
English (en)
Other versions
CN113657473A (zh
Inventor
杨溢龙
李兆天
张莉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202110891224.6A priority Critical patent/CN113657473B/zh
Publication of CN113657473A publication Critical patent/CN113657473A/zh
Application granted granted Critical
Publication of CN113657473B publication Critical patent/CN113657473B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出的一种基于迁移学习的Web服务分类方法,首先构建一个与Web服务数据集类似且具有大量高质量标记数据的App数据集作为源数据集,利用相关领域上丰富的标记数据预训练一个用于App分类任务的深度学习模型,然后将预训练模型的词嵌入和特征提取部分迁移到Web服务分类模型上,经迁移学习在Web服务分类中复用App分类任务学到的知识,最后采用适当的模型微调策略使Web服务精确分类。本发明具有分类准确率高、泛化性能强等特点,能较好地解决现有标记Web服务数量少、分布不均匀的问题,使模型具有更好的泛化性能和更高的分类精度。

Description

一种基于迁移学习的Web服务分类方法
技术领域
本发明涉及软件技术领域,具体涉及一种基于迁移学习的Web服务分类方法。
背景技术
软件重用是软件开发中非常重要的手段和方法,它能够降低软件开发的成本,使开发者专注于核心功能的开发。Web服务(Web Services)是一种基于网络的、分布式、自描述的模块化组件,它遵循W3C的技术规范并执行特定的任务,能够使用标准的互联网协议如TCP/IP和HTTP,提供通过互联网动态请求的能力,使人们在重用软件代码的同时还能够方便地重用代码背后的数据。随着互联网开发和云计算的高速增长,Web服务分类成为软件重用的常用方法之一。基于关键字的方法是大多数情况下发现Web服务的首选方法,如何为Web服务分配适当的关键字成为了基于关键字搜索的一个重要任务。目前Web服务共享平台ProgrammableWeb有400多种类型的服务,由于人工水平的差异和服务标签种类繁多,人工为每个Web服务正确标记是困难的。因此如何根据Web服务的名称和描述自动为Web服务分配准确的标签成为迫切需求。现有的Web服务自动分类的机器学习方法主要可以被分为两大类:一类是传统机器学习方法,另一类是基于深度学习的方法。
基于传统机器学习的Web服务分类,主要利用Web服务描述语言(WSDL)结构化文档进行服务聚类和其他一些机器学习方法如支持向量机(SVM)、朴素贝叶斯、词袋模型、k邻近算法(KNN)和随机森林算法(RF)等进行Web服务分类;此类方法主要问题在于构建分类器之前,通常需要复杂的人工特征工程,并且分类精度很大程度上依赖人工特征工程的质量,因此特征提取受设计者经验影响较大,自适应性较差。
近年来也有越来越多基于深度学习的Web服务分类相关研究。Cao等人提出了一种基于局部注意力和LSTM的Web服务分类方法(参见文献:Cao Y,Liu J,Cao B,et al.Webservice s classification with topical attention based Bi-LSTM[C]//International Conference on Collaborativ e Computing:Networking,Applicationsand Worksharing.Springer,Cham,2019:394-407),通过注意力机制将双向LSTM和局部模型结合起来考虑Web服务间的关系。Yang等人在ICWS’19’20上提出了ServeNet模型。ServeNet2019(参见文献:Yang Y,Ke W,Wang W,et al.Deep learning for web servicesclassification[C]//2019IEEE International Conference on Web Services(ICWS).IEEE,2019:440-442.)将二维CNN与双向LSTM堆叠起来用于自动特征提取,不仅可以提取相邻词间局部特征,而且可以提取词内小区域。在此基础上,ServeNet2020(参见文献:YangY,Qamar N,Liu P,et al.ServeNet:A Deep Neural Network for Web Services Classification[C]//2020IEEE International Conference on Web Services(ICWS).IEEE,2020.)进一步加入了BERT语言模型作为词嵌入层做上下文相关的词嵌入,考虑了词在句子上的位置信息。不仅可以从服务描述中提取特征,还可以从服务名称中提取特征,而且特征可以是任意长度的,然后自动地将它们合并成统一的特征来预测服务类别。这种提升使得ServeNet达到更高的准确率。除上述方法外,图卷积网络(GCN)也是一种重要的文本分类方法。工作中利用自注意力机制和衡量邻近Web服务节点的重要性方法构建了一个图注意力网络用于Web服务分类(参见文献:Peng M,Cao B,Chen J,et al.SC-GAT:Web ServicesClassification Based on Graph Attention Network[C]//International Conferenceon Collaborative Computing:Net working,Applications and Worksharing.Springer,Cham,2020:513-529.)。双重图卷积网络(dual-GCN)框架(参见文献:Wang X,Liu J,Liu X,et al.A Novel Dual-Graph Convolutional Net work based Web ServiceClassification Framework[C]//2020IEEE International Conference on WebServices(ICWS).IEEE,2020:281-288.)也被用于Web服务分类,可以通过区分Web服务描述文档和融合API(Mashup-API)联合调用模式来抑制文本内容的噪声传播。
如何设计并构建一个高分类精度的Web服务分类方法是一项非常有挑战性的工作,目前存在多方面的难题:(1)对于传统机器学习而言,需要依赖大量人工特征工程,并且要想达到高精度则非常依赖高质量的特征工程;(2)深度学习可以提供一种端到端的解决方案,但是目前Web服务公共数据集中缺乏高质量的标记数据,现有的机器学习方法分类准确率还不高。深度学习的方法必须有足够可利用的训练样本才能训练得到一个好的分类模型,而目前有标签的样本数据较为有限,我们无法得到足够的标记数据样本,并且收集到的样本数据质量也不高,存在着诸如服务数据集分布非常不平衡、不同服务类别数据量相差较大以及服务描述本身质量差异等问题。
发明内容
针对目前web服务分类数据集质量不高、长尾效应严重的问题,本发明采用迁移学习的策略,将移动App分类任务的知识复用到Web服务分类上,以提高Web服务分类的准确率。
为了实现上述发明目的,本发明提供了如下的技术方案:
一种基于迁移学习的Web服务分类方法,方法如下:首先构建一个与Web服务非常相似且具有大量高质量标记数据的App数据集作为源数据集,利用相关领域上丰富的标记数据预训练一个用于App分类任务的深度学习模型,然后将预训练模型的词嵌入和特征提取迁移到Web服务分类模型上,通过迁移学习在Web服务分类中复用App分类任务学到的知识,最后采用适当的模型微调策略使Web服务精确分类。
进一步地,一种基于迁移学习的Web服务分类方法,具体步骤为:
步骤1、源域数据的获取、分析与处理,搜集来自Apple Store由官方审核的移动端应用程序mobile App领域数据,令搜集到的App数据只保留名称、描述和类别三种属性参数,然后下采样App数据所含数据量较多的类别使数据集分布尽量均衡,构建一个与Web服务非常相似且具有大量高质量标记数据的App数据集作为源域;
步骤2、将App数据每个类别中按比例随机划分训练集和测试集,使二者遵循同分布,之后将App数据按描述由短到长划分小批次,用于分批装入内存进行训练,在小批次内对App描述进行分词和动态填充,填充至小批次内的最长描述长度nLen,预处理Web服务数据亦是如此;
步骤3、根据App分类数N,设计N分类的源模型结构,用预处理所得到的App描述和名称,输入到源模型的网络结构中,通过多层模型结构计算得到最终的M维向量输出,其中M=N;
步骤4、结合App分类中源模型的N维向量输出和输入样本对应的标签,构建损失函数和合适的优化器,通过最小化损失函数训练源模型;
步骤5、训练好App分类的源模型后,将预训练模型的词嵌入和特征提取部分用基于模型参数的迁移学习方式迁移至Web服务分类任务的模型上;
步骤6、根据Web服务分类数N′,设计N′分类的目标模型结构,用预处理所得到的Web服务描述和名称,输入到目标模型的网络结构中,通过多层模型结构计算得到最终的M′维向量输出,其中M′=N′;
步骤7、结合Web服务分类上目标模型的N′维向量输出和输入样本对应的标签,构建损失函数和合适的优化器,通过最小化损失函数训练目标模型,训练过程中对所迁移层进行冻结;
步骤8、结合迁移学习训练好最终的Web服务分类的目标模型后,即可用于Web服务分类。
进一步地,所述步骤3中,源模型结构由BERT语言模型、CNN和双向LSTM以及后面的权重融合层和数层全连接层组成,其中所述BERT语言模型作为词嵌入层分别将名称和描述的输入转化为词向量和矩阵,用于后面的特征提取,所述CNN代表二维卷积层,所述LSTM代表双向长短期记忆网络。
进一步地,所述步骤3中,fbert_seq用于表示描述的词嵌入输出,是一个nLen×n的矩阵,fbert_pool用于表示名称的词嵌入输出,是一个n维向量;对于描述,使用两层卷积层和双向LSTM从中提取高级特征,两层卷积层用于发现和提取相邻词间的局部特征,双向LSTM用于提取描述中长期相关的全局特征;对于名称,直接使用一个全连接层加上一个tanh激活函数来提取名称中的特征,名称与描述二者的特征向量可由以下公式得出:
h1=flstm·fcnn(fbert_seq(x1))
h2=ffull·fbert_pool(x2)
得到App描述的特征h1和名称的特征h2后,结合不同权重将二者融合为统一的特征用于分类,在此将描述特征和名称特征的权重分别记作w1和w2,统一特征h可由以下公式计算得出:
h-h1×w1+h2×w2
特征融合后,任务层根据特征h对App进行分类任务,借助一个具有N个节点的全连接层以及softmax激活函数的全连接层作为App分类器,得到M维向量,其中M=N。
进一步地,所述步骤4中,构建损失函数和合适的优化器具体过程为:选择categorical_crossentropy(CE)作为模型的损失函数,即:
Figure BDA0003196174090000041
上式中,N代表总分类类别数,x代表输入样本,yi代表第i类对应的真实标签,如果是真实标签则为1,否则为0,fi(x)代表预测概率。
本发明提供的自动Web服务分类是解决服务发现的搜索空间爆炸的一个有效途径。本发明延续发明人在服务计算顶会ICWS′20年的工作,更进一步提升Web服务任务的准确性和鲁棒性,其创新性表现在:1)找到一个高质量无严重长尾问题的相近任务,并论证可迁移性,2)建立源域任务(移动App分类任务)与目标任务(Web服务分类)的关系,通过消融实验,剔除负迁移的影响,将源域正迁移知识复用到目标任务上,3)证明方法的有效性,比目前最先进的模型提高准确性和鲁棒性。
本发明所达到的有益效果是:本发明通过重用在App分类问题上学到的知识来帮助解决Web服务分类问题,利用App中的大量高质量标记数据在App数据集上训练一个源模型解决App分类问题,并将其作为迁移学习的预训练模型,并通过迁移并冻结模型的词嵌入和特征提取层而重新训练其他层来提高Web服务的特征提取能力,进而提升Web服务分类的准确率;本发明具有分类准确率高、泛化性能强等特点,能较好地解决现有标记Web服务数量少、长尾分布严重的问题,使模型具有更好的泛化性能和更高的分类精度。
附图说明
图1为本发明方法流程图。
图2为基于迁移学习的Web服务分类方法框架图。
图3为Web服务分类方法Top-1准确率雷达图。
具体实施方式
为了使本发明的目的、优势能够被清晰的了解,下面结合附图和具体实施方式对本发明内容做进一步详细的阐述。
如图1所示,本发明具体实现如下步骤:
步骤1、源域数据的获取、分析与处理,搜集移动端应用程序(mobileApp)领域数据,令搜集到的App数据只保留名称、描述和类别三种属性参数,然后下采样App数据所含数据量较多的类别使数据集分布尽量均衡。构建一个与Web服务非常相似且具有大量高质量标记数据的App数据集作为源域。
步骤2、将App数据每个类别中按4∶1比例随机划分训练集和测试集,使二者遵循同分布,之后将App数据按描述由短到长划分小批次,用于分批装入内存进行训练,在小批次内对App描述进行分词和动态填充,预处理Web服务数据亦是如此。即将Web服务数据集每个类别按4∶1比例随机划分训练集和测试集,使训练集和测试集遵循同分布,之后将Web服务数据按描述长度由短到长排序并划分小批次,在每个小批次内对Web服务描述进行分词和动态填充,填充至小批次内的最长描述长度nLen。经过此种处理,模型可以接受任意长度的描述输入,如图2所示。
步骤3、根据App分类数N,设计N分类的源模型结构,用预处理所得到的App描述和名称,输入到源模型的网络结构中,通过多层模型结构计算得到最终的M维向量输出,其中M=N。具体来讲,源模型架构由BERT语言模型、CNN和双向LSTM以及后面的权重融合层和数层全连接层组成。如图2所示,CNN代表二维卷积层,LSTM代表双向长短期记忆网络,FC代表全连接层。其中,模型的输入表示是由符号(token)、分词(segment)和位置嵌入(positionembeddings)三部分组成。BERT语言模型作为词嵌入层分别将名称和描述的输入转化为词向量和矩阵,用于后面的特征提取。由于名称和描述的长度相差较大,因此采用不同的词嵌入方法。fbert_pool用于表示名称的词嵌入输出,是一个n维向量。fbert_seq用于表示描述的词嵌入输出,是一个nLen×n的矩阵。对于描述,使用两层卷积层和双向LSTM从中提取高级特征,两层卷积层用于发现和提取相邻词间的局部特征,双向LSTM用于提取描述中长期相关的全局特征。对于名称,直接使用一个全连接层加上一个tanh激活函数来提取名称中的特征。二者的特征向量可由以下公式得出:
h1=flstm·fcnn(fbert_seq(x1))h2=ffull·fbert_pool(x2)
得到App描述的特征h1和名称的特征h2后,结合不同权重将二者融合为统一的特征用于分类,在此将描述特征和名称特征的权重分别记作w1和w2。统一特征h可由以下公式计算得出:
h=h1×w1+h2×w2
特征融合后,任务层根据特征h对App进行分类任务。借助一个具有N个节点的全连接层以及softmax激活函数的全连接层作为App分类器,得到M维向量,其中M=N,作为输入的App数据对于N分类的归属概率。
Figure BDA0003196174090000061
上式中,h1代表softmax前的输出值,p(hi)代表输入App属于第i类的概率。
步骤4、结合App分类中源模型的N维向量输出和输入样本对应的标签,构建损失函数和合适的优化器,通过最小化损失函数训练源模型。其中,构建损失函数和合适的优化器具体过程为:选择categorical_crossentropy(CE)作为模型的损失函数,即:
Figure BDA0003196174090000062
上式中,N代表总分类类别数,x代表输入样本,yi代表第i类对应的真实标签,如果是真实标签则为1,否则为0,fi(x)代表预测概率。优化器为使用Nesterov动量的随机梯度下降(SGD)算法。
步骤5、训练好App分类的源模型后,将预训练模型的词嵌入和特征提取部分用基于模型参数的迁移学习方式迁移至Web服务分类任务的模型上。其中,所迁移的模型部分如图2所示,将源模型的嵌入描述层和嵌入名称层及其对应的219百万个参数,以及两层二维CNN和双向LSTM层组成的特征提取层及其对应的近6百万个参数从用于App分类的模型迁移至用于Web服务分类的目标模型上。
步骤6、根据Web服务分类数N′,设计N′分类的目标模型结构,用预处理所得到的Web服务描述和名称,输入到目标网络结构中,通过多层模型结构计算得到最终的M′维向量输出,其中M′=N′。
步骤7、结合Web服务分类中目标模型的N′维向量输出和输入样本对应的标签,构建损失函数和合适的优化器,通过最小化损失函数训练目标模型,训练过程中对所迁移层进行冻结。对于目标模型,将迁移的词嵌入层和特征提取层都进行冻结,与源模型不同的是,将后面的特征融合层和任务层进行初始化重新训练,其中任务层是一个带有M′个节点和softmax激活函数的全连接层。
步骤8、结合迁移学习训练好最终的Web服务分类的目标模型后,即可用于Web服务分类。
在本实施例中,针对本发明提出的基于迁移学习的Web服务分类方法进行了实验验证,下面对实施例的数据集、评估指标和实验结果及分析进行描述:
数据集:
为了评估本发明提出的Web服务分类方法,采用ICWS’20最新发表的Web服务数据集,收集自Web服务共享平台ProgrammableWeb,它包含50个类别和10000个来自工业界的Web服务。在每个类别上用随机切分的方式按4:1划分训练集和测试集。App数据集来自Apple App Store的移动端应用程序,经过数据预处理后的26类90118条应用程序(App)数据。
表1:App与Web服务类别对比
Figure BDA0003196174090000071
如表1所示,对比App数据和Web服务数据集,它们有9个类别是完全相同的。此外两个数据集之间还有5个类别几乎相同,只是它们在两个数据集中的类别名字略有差异。例如,App数据集中名为Finance的类在Web服务中对应类被命名为Financial。由于Apple AppStore中照片和视频是被划分到一个类别Photo&Video中的,而Web服务中其对应的是Photos和Video两个类,因此应用程序中有14个类对应了Web服务当中的15个类。由此可见,从类别的分布来看,源域与目标域较为相似。
评估指标:
Top-1准确率,选取每条数据的概率向量50个类中预测概率最大的作为预测结果,若预测概率最大的类别是数据的真实类别,则认为模型预测正确。记:
Numtop1_correct为某一类c中概率向量中预测概率最大的类别为真实类别的数据条数,即预测正确的条数。
Numc为某一类c中所有参与预测的数据总条数。
Numall为某一类c中所有参与预测的数据总条数。
对于某个类c的Top-1准确率,计算公式为:
Figure BDA0003196174090000081
对于全部50类的Top-1准确率,计算公式为:
Figure BDA0003196174090000082
此外,我们还计算了各Web服务分类方法的50类分类准确率的标准差,用来反映和比较分类方法的鲁棒性,计算公式为:
Figure BDA0003196174090000083
N在本Web服务分类任务中为Web服务的总类别数50。
对比方法:我们在Web服务分类任务上对本发明所提出的方法与现有的机器学习方法做了定量评估,现有的11种机器学习方法有传统机器学习方法和深度学习方法,所有的Web服务分类任务都在上述的公开Web数据集上进行。现有的11种机器学习方法包括朴素贝叶斯、随机森林算法、AdaBoost、LDA线性支持向量机、LDA径向基函数支持向量机(LDA-RBF-SVM)、CNN、递归CNN、LSTM、双向LSTM(BI-LSTM)、C-LSTM和ServeNet。
实验结果与分析:
表2:Web服务分类准确率和标准差对比
Web服务分类方法 Top-1准确率 标准差σ
CNN 27.60% 16.97
AdaBoost 34.93% 23.03
LDA-Linear-SVM 33.28% 25.01
LDA-RBF-SVM 39.79% 25.34
Naive-Bayes 47.74% 28.52
LSTM 51.18% 31.26
RF 54.29% 29.50
Recurrent-CNN 60.02% 24.84
C-LSTM 59.24% 26.36
BI-LSTM 60.45% 24.08
ServeNet 69.95% 19.86
Tr-ServeNet 72.58% 18.55
如表2所示,本发明提出的Tr-ServeNet在Top-1准确率上达到了72.58%,分类准确率的标准差为18.55,实现了目前最高的分类准确率和第二小的方差,超越了其他机器学习方法。实验结果表明本文提出的Tr-ServeNet在Web服务分类上具有更高的准确性和更好的鲁棒性,从App分类任务到Web服务分类的迁移学习是有效的。
图3所示的Web服务分类方法Top-1准确率雷达图中可以更清楚地看出,本发明提出的方法在许多类别上都超越之前的Web服务分类方法,实现了最高的准确率。尤其是对于Web服务数据集中数据很少但App数据集中具有较多高质量数据的长尾类别,Tr-ServeNet相比现有大多数机器学习模型表现更好,取得了更高的准确率。因为迁移学习可以将源域知识复用于目标域,先利用源域更多的标记数据来预训练模型,再通过迁移学习帮助目标模型更容易提取出对应类别数据的特征,从而达到更高的分类精度。因此迁移学习是解决Web服务长尾分布问题的一个很有前景的方向。
此外,对于Web服务数据中一些未在App数据集出现的类别,该模型也取得了比之前更高的分类准确率,如Marketing、Bitcoin、Media、Internet of Things等。其中,对于Internet of Things类,Tr-ServeNet的Top-1准确率比从头训练的ServeNet高出26.09%。一个可能的原因是,Tr-ServeNet的源模型在较大的App数据集上预训练得到了一个好的特征提取器,将这部分层次迁移可以帮助提高目标模型从Web服务中提取特征的能力。更重要的是,在目标域进行模型微调时,相应的层被冻结,使得预训练学习到的特征提取能力得以较好地保留,Web服务的特征提取相比之前有所改进。因此,即使是在与App类别不同的Web服务类别中,它的性能也比之前更好。
总之,本发明针对Web服务分类任务,通过构建一个与Web服务非常相似且具有大量高质量标记数据的App数据集作为源数据集,利用相关领域上丰富的标记数据预训练一个用于App分类任务的源模型,之后将预训练模型的词嵌入和特征提取迁移到Web服务分类模型上,经迁移学习在Web服务分类中复用App分类任务学到的知识,最后采用适当的模型微调策略,较好解决了现有标记Web服务数量少、长尾分布严重的问题,使Web服务分类达到更高的准确率。这一过程中,丰富且与目标域相似的标记数据有助于目标模型更好地提取Web服务特征,显著提升模型的泛化性能,进而取得更高的分类精度。

Claims (3)

1.一种基于迁移学习的Web服务分类方法,其特征在于方法如下:首先构建一个与Web服务数据集类似且具有大量高质量标记数据的App数据集作为源数据集,利用相关领域上丰富的标记数据预训练一个用于App分类任务的深度学习模型,然后将预训练模型的词嵌入和特征提取部分迁移到Web服务分类模型上,通过迁移学习在Web服务分类中复用App分类任务学到的知识,最后采用适当的模型微调策略使Web服务精确分类,具体步骤为:
步骤1、源域数据的获取、分析与处理,搜集移动端应用程序Mobile App领域数据,令搜集到的App数据只保留名称、描述和类别三种属性参数,然后下采样App数据所含数据量较多的类别使数据集分布尽量均衡,构建一个与Web服务非常相似且具有大量高质量标记数据的App数据集作为源域;
步骤2、将App数据每个类别中按比例随机划分训练集和测试集,使二者遵循同分布,之后将App数据按描述由短到长划分小批次,用于分批装入内存进行训练,在小批次内对App描述进行分词和动态填充,填充至小批次内的最长描述长度nLen,预处理Web服务数据亦是如此;
步骤3、根据App分类数N,设计N分类的源模型结构,用预处理所得到的App描述和名称,输入到源模型的网络结构中,通过多层模型结构计算得到最终的M维向量输出,其中M=N;
步骤4、结合App分类中源模型的N维向量输出和输入样本对应的标签,构建损失函数和合适的优化器,通过最小化损失函数训练源模型;
步骤5、训练好App分类的源模型后,将其作为预训练模型,把词嵌入和特征提取部分用基于模型参数的迁移学习方式迁移至Web服务分类任务的模型上;
步骤6、根据Web服务分类数N′,设计N′分类的目标模型结构,用预处理所得到的Web服务描述和名称,输入到目标模型的网络结构中,通过多层模型结构计算得到最终的M′维向量输出,其中M′=N′;
步骤7、结合Web服务分类中目标模型的N′维向量输出和输入样本对应的标签,构建损失函数和合适的优化器,通过最小化损失函数训练目标模型,训练过程中对所迁移层进行冻结;
步骤8、结合迁移学习训练好最终的Web服务分类的目标模型后,即可用于Web服务分类。
2.根据权利要求1所述的一种基于迁移学习的Web服务分类方法,其特征在于所述步骤3中,fbert_seq用于表示描述的词嵌入输出,是一个nLen×n的矩阵,fbert_pool用于表示名称的词嵌入输出,是一个n维向量;对于描述,使用两层卷积层和双向LSTM从中提取高级特征,两层卷积层用于发现和提取相邻词间的局部特征,双向LSTM用于提取描述中长期相关的全局特征;对于名称,直接使用一个全连接层加上一个tanh激活函数来提取名称中的特征,名称与描述二者的特征向量可由以下公式得出:
h1=flstm·fcnn(fbert_seq(x1))
h2=ffull·fbert_pool(x2)
得到App描述的特征h1和名称的特征h2后,结合不同权重将二者融合为统一的特征用于分类,在此将描述特征和名称特征的权重分别记作w1和w2,统一特征h可由以下公式计算得出:
h=h1×w1+h2×w2
特征融合后,任务层根据特征h对App进行分类任务,借助一个具有N个节点的全连接层以及softmax激活函数的全连接层作为App分类器,得到M维向量,其中M=N。
3.根据权利要求1所述的一种基于迁移学习的Web服务分类方法,其特征在于所述步骤4中,构建损失函数和合适的优化器具体过程为:选择categorical_crossentropy(CE)作为模型的损失函数,即:
Figure FDA0004209851380000021
上式中,N代表总分类类别数,x代表输入样本,yi代表第i类对应的真实标签,如果是真实标签则为1,否则为0,fi(x)代表预测概率。
CN202110891224.6A 2021-08-04 2021-08-04 一种基于迁移学习的Web服务分类方法 Active CN113657473B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110891224.6A CN113657473B (zh) 2021-08-04 2021-08-04 一种基于迁移学习的Web服务分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110891224.6A CN113657473B (zh) 2021-08-04 2021-08-04 一种基于迁移学习的Web服务分类方法

Publications (2)

Publication Number Publication Date
CN113657473A CN113657473A (zh) 2021-11-16
CN113657473B true CN113657473B (zh) 2023-06-30

Family

ID=78490391

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110891224.6A Active CN113657473B (zh) 2021-08-04 2021-08-04 一种基于迁移学习的Web服务分类方法

Country Status (1)

Country Link
CN (1) CN113657473B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114814776B (zh) * 2022-06-24 2022-10-14 中国空气动力研究与发展中心计算空气动力研究所 基于图注意力网络和迁移学习的pd雷达目标检测方法
CN115545080B (zh) * 2022-10-20 2023-05-23 南京航空航天大学 滑油屑末在线检测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717047A (zh) * 2019-10-22 2020-01-21 湖南科技大学 一种基于图卷积神经网络的Web服务分类方法
CN112487805A (zh) * 2020-11-30 2021-03-12 武汉大学 一种基于元学习框架的小样本Web服务分类方法
CN112836054A (zh) * 2021-03-08 2021-05-25 重庆大学 一种基于共生注意力表示学习的服务分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093969B2 (en) * 2019-09-27 2021-08-17 Knorex Pte. Ltd. Cross-domain contextual targeting without any in-domain labelled data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717047A (zh) * 2019-10-22 2020-01-21 湖南科技大学 一种基于图卷积神经网络的Web服务分类方法
CN112487805A (zh) * 2020-11-30 2021-03-12 武汉大学 一种基于元学习框架的小样本Web服务分类方法
CN112836054A (zh) * 2021-03-08 2021-05-25 重庆大学 一种基于共生注意力表示学习的服务分类方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Liu Lei et al. .Web API Search: Discover Web API and Its Endpoint with Natural Language Queries.Web Services - ICWS 2020.2020,第96-113页. *
Liu Lei et al..Web API Search: Discover Web API and Its Endpoint with Natural Language Queries.Web Services - ICWS 2020.2020,第96-113页. *
Narit Hnoohom et al..Classification of Dhamma Esan Characters by Transfer Learning of a Deep Neural Network.2018 15th International Joint Conference on Computer Science and Software Engineering.2018,第153-157页. *
Yang Yilong et al..ServeNet: A Deep Neural Network for Web Services Classification.2020 IEEE International Conference on Web Services.2020,第168-175页. *
基于内容语义和网络结构的Web服务分类方法研究;叶洪帆;中国优秀硕士学位论文全文数据库 (信息科技辑);第I138-853页 *

Also Published As

Publication number Publication date
CN113657473A (zh) 2021-11-16

Similar Documents

Publication Publication Date Title
US11816149B2 (en) Electronic device and control method thereof
Sivakumar et al. Review on word2vec word embedding neural net
CN110532379B (zh) 一种基于lstm的用户评论情感分析的电子资讯推荐方法
CN109271539B (zh) 一种基于深度学习的图像自动标注方法及装置
CN114298158A (zh) 一种基于图文线性组合的多模态预训练方法
CN110059181A (zh) 面向大规模分类体系的短文本标签方法、系统、装置
CN113657473B (zh) 一种基于迁移学习的Web服务分类方法
CN110674407A (zh) 基于图卷积神经网络的混合推荐方法
CN108897778B (zh) 一种基于多源大数据分析的图像标注方法
CN112819023A (zh) 样本集的获取方法、装置、计算机设备和存储介质
CN115114409B (zh) 一种基于软参数共享的民航不安全事件联合抽取方法
CN113535949B (zh) 基于图片和句子的多模态联合事件检测方法
CN107392311A (zh) 序列切分的方法和装置
CN113011126A (zh) 文本处理方法、装置、电子设备及计算机可读存储介质
CN113934835A (zh) 结合关键词和语义理解表征的检索式回复对话方法及系统
CN113486143A (zh) 一种基于多层级文本表示及模型融合的用户画像生成方法
CN112925983A (zh) 一种电网资讯信息的推荐方法及系统
Yang et al. Geographical feature classification from text using (active) convolutional neural networks
CN116089644A (zh) 一种融合多模态特征的事件检测方法
CN113051474B (zh) 一种融合多平台多终端搜索指数的客流预测方法及系统
CN111753151B (zh) 一种基于互联网用户行为的服务推荐方法
CN110427973B (zh) 一种面向歧义标注样本的分类方法
Qi et al. Big data prediction in location-aware wireless caching: A machine learning approach
Dong et al. Research on fast face retrieval optimization algorithm based on fuzzy clustering
Che et al. A feature and deep learning model recommendation system for mobile application

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant