CN114237621A - 一种基于细粒度共注意机制的语义代码搜索方法 - Google Patents
一种基于细粒度共注意机制的语义代码搜索方法 Download PDFInfo
- Publication number
- CN114237621A CN114237621A CN202111563221.6A CN202111563221A CN114237621A CN 114237621 A CN114237621 A CN 114237621A CN 202111563221 A CN202111563221 A CN 202111563221A CN 114237621 A CN114237621 A CN 114237621A
- Authority
- CN
- China
- Prior art keywords
- code
- feature
- query
- matrix
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 157
- 230000007246 mechanism Effects 0.000 title claims abstract description 46
- 239000011159 matrix material Substances 0.000 claims abstract description 188
- 239000013598 vector Substances 0.000 claims abstract description 152
- 238000012549 training Methods 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims 1
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 36
- 230000000875 corresponding effect Effects 0.000 description 29
- 239000012634 fragment Substances 0.000 description 14
- 235000019580 granularity Nutrition 0.000 description 9
- 230000006872 improvement Effects 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 101100153581 Bacillus anthracis topX gene Proteins 0.000 description 1
- 101150041570 TOP1 gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/42—Syntactic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/42—Syntactic analysis
- G06F8/425—Lexical analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/43—Checking; Contextual analysis
- G06F8/436—Semantic checking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/44—Encoding
- G06F8/445—Exploiting fine grain parallelism, i.e. parallelism at instruction level
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于细粒度共注意机制的语义代码搜索方法,包括如下步骤:首先,将代码特征(即方法名、API序列、令牌和语句树序列)和查询特征(即令牌序列)输入到一个注意力机制中,来获得代码/查询特征矩阵;然后,将获得的代码/查询特征矩阵分别输入四种细粒度的共注意机制中,得到每个代码特征与查询之间的细粒度相关性;最后,相互依赖的特征向量分别融合成最终的代码/查询向量,并计算两个代表性向量之间的余弦相似性,将余弦相似性降序排列,得到最终推荐的N个查询结果。使用本方法可以增强对代码/查询特征向量的信息使用效率,提高代码查询最终结果的准确性。
Description
技术领域
本发明涉及语义代码搜索领域,特别涉及一种基于细粒度共注意机制的语义代码搜索方法。
背景技术
现有为了提高软件开发效率,开发人员经常通过利用代码搜索模型,从大型软件存储库(例如,GitHub)中的代码库中搜索和重用现有的源代码片段。一般来说,代码搜索模型旨在找到其编程语义与在自然语言查询中表达的开发人员的意图相匹配的代码片段。
早期的模型利用信息检索(IR)技术来完成代码搜索任务。Sourcerer是一个具有代表性的模型。它将代码片段视为纯文本,并使用文本搜索引擎Lucene为它们构建索引,最后,通过匹配查询和索引代码片段之间的关键字来执行代码搜索。然而,简单的关键字匹配很难弥合查询和代码片段之间的语义差距。为了解决这个问题,Lv等人提出了模型CodeHow,它利用与编程上下文更相关的API来扩展查询,并利用扩展布尔模型来提升关键字匹配的性能。
近年来,研究人员已经证明,与传统的基于IR的模型相比,深度学习(DL)技术是一种更好的代码搜索选择。原因是基于DL的模型可以通过将代码片段和相关的自然语言描述嵌入到一个共享的向量空间中来直接学习它们之间的语义关系。这些模型可以通过自然语言中的代码片段和相应的注释进行训练。这样,可以通过在查询向量与代码库中计算向量之间的余弦相似性来搜索与查询相关的代码段。
DeepCS是一个具有代表性的基于DL的模型,它通过三个特征(即方法名、API序列和令牌)来表示代码片段,并采用长短期记忆模型(LSTM)和多层感知机(MLP)来嵌入查询和代码片段。最近,研究人员提出了一些模型来解决DeepCS的缺点。UNIF是一个更简单的模型,它用浅层神经网络模型fastText取代了复杂的嵌入(即LSTM和MLP),并通过注意力机制提高了性能。同时,一些研究人员观察到DeepCS在许多情况下无法工作,因为它忽略了查询和代码片段之间复杂的语义相关性。为了解决这一挑战,他们提出了两种改进的模型CARLCS-CNN和TabCS。CARLCS-CNN通过使用卷积神经网络(CNN)进行嵌入,并利用共注意机制]来学习语义相关性。TabCS是目前很先进的模型。这是一个基于注意力的两阶段代码搜索模型,它使用抽象语法树(AST)扩展了CARLCS-CNN,以更好地表示代码语义。实验结果表明,TabCS显著优于DeepCS、UNIF和CARLCS-CNN。
然而,TabCS仍然有两个局限性:语义丢失和语义混淆。TabCS将代码的结构信息分解为抽象语法树(AST)的令牌级单词,丢失了编程语句中单词之间的顺序语义,并在融合所有代码特征后构建代码和查询的语义相关性,这可能会混淆单个代码特征与查询之间的相关性。
发明内容
针对现有技术存在的上述问题,本发明要解决的技术问题是:在搜索过程中容易丢失编程语句中单词之间的顺序语义,同时代码与查询之间的语义相关性容易出现混淆,导致代码的查询结果不够准确。
为解决上述技术问题,本发明采用如下技术方案:一种基于细粒度共注意机制的语义代码搜索方法,包括如下步骤:
S1:构建代码搜索模型,该代码搜索模型由五部分堆叠而成:该五部分分别是数据预处理模块、特征表示网络模块、细粒度共注意力网络模块、语义特征融合网络模块和余弦相似度计算模块;
S2:选取公开Java数据集,该数据集包括若干个代码查询对,每个代码查询对包括一个Java代码片段和相应的自然语言查询令牌;
S3:数据预处理模块采用现有特征提取方法将数据集中所有的代码片段和查询令牌分别进行处理得到代码特征和查询特征,其中代码特征包括:方法名特征、API序列特征、代码令牌特征和语句树序列特征;
S4:特征表示网络模块将方法名特征、API序列特征、代码令牌特征和语句树序列特征分别经过WordEmbedding词嵌入技术处理后对应的得到方法名特征嵌入矩阵MethodName、API序列特征嵌入矩阵Api、代码令牌特征嵌入矩阵Token和语句树序列特征嵌入矩阵StatementTree;
方法名特征嵌入矩阵:MethodName=(m1,m2,mi,...,mp),其中,mi表示方法名中第i个词向量;
API序列特征嵌入矩阵:Api=(a1,a2,ai,...,aq),ai表示API序列中第i个API词向量;
代码令牌特征嵌入矩阵:Token=(t1,t2,ti,...,Tn),ti表示代码令牌中第i个代码词向量;
语句树序列特征嵌入矩阵:StatementTree=(staTree1,staTree2,staTreei,...,staTrees),staTreei表示第i个语句树向量;
将方法名特征嵌入矩阵MethodName、API序列特征嵌入矩阵Api、代码令牌特征嵌入矩阵Token和语句树序列特征嵌入矩阵StatementTree输入到注意力网络中,得到对应的特征矩阵,用M表示方法名特征矩阵、A表示API特征矩阵、T表示代码令牌特征矩阵、staTree表示语句树序列特征矩阵和Q表示查询特征矩阵,Q={q1,q2,qi,...,qo},qi表示查询中第i个查询词向量;
S5:细粒度共注意力网络模块将构成代码特征矩阵的M、A、T、staTree分别和查询特征矩阵Q通过细粒度共注意机制进行对齐;
S6:语义特征融合网络模块计算代码向量VC和查询向量VQ;
S7:余弦相似度计算模块计算代码向量VC和查询向量VQ的余弦相似度,表达式如下:
其中,sim表示代码向量和查询向量之间的余弦相似度;
S8:对代码搜索模型进行训练,具体步骤如下:
S81:采用S2获得的数据集构建训练样本集,训练样本集中每个训练样本为一个实例三元组<c、q+、q->,其中,<c,q+>是代码查询对,q-表示除<c,q+>代码查询对以外的其他的代码查询对中的一个查询语句;
其中θ表示模型中所有的参数,G表示训练样本集;
S84:当训练达到最大迭代次数时停止训练,并将当前代码搜索模型作为最优搜索模型,否则返回S82;
S80:对于一个待查询代码,将其输入最优搜索模型,同时在最优搜索模型中预设查询输出结果个数为N,最优搜索模型计算待查询代码与代码库中的各个代码向量计算余弦相似度,将余弦相似度自大到小排序,输出前N个余弦相似度对应的代码,该N个代码即为待查询代码的的查询结果。
作为改进,所述S3中语句树序列特征的提取步骤如下:
S31:将代码片段中的语句按行标记为S1,S2,S3,…Sn;
S32:根据代码片段构建相对应的AST结构,并将该AST结构分解为n个部分,每个部分对应每行代码语句;
S33:利用深度优先遍历算法遍历每个语句树,从而将每个语句树表示成序列形式得到n个语句树序列SubTreei,其中i=1,2,…,n;
S34:将n个语句树序列SubTreei拼接成一个序列,得到语句树序列特征StatementTree;
作为改进,所述S4中计算方法名特征矩阵、API特征矩阵、代码令牌特征矩阵、语句树序列特征矩阵和查询特征矩阵的步骤如下:
S41:计算MethodName中每个方法名词嵌入的注意力权重αmi,mi表示MethodName中第i个词向量,计算表达式如下:
αmi=SoftMax(tanh(Wmi+b)) (1);
其中,W为可训练参数矩阵,b为可训练偏差。
其中M∈Rk*p为方法名特征矩阵,k为词嵌入向量的维度,p为方法名中单词的个数;
S43:S41-S42中的方法,计算得到API特征矩阵A,代码令牌特征矩阵T,语句树序列特征矩阵staTree和查询特征矩阵Q。
作为改进,所述S5中将M、A、T、staTree分和查询特征矩阵Q进行对齐的具体步骤如下:
S51:计算方法名特征嵌入矩阵与查询特征嵌入矩阵之间相互关联的方法名关联矩阵,具体表达式如下:
B=tanh(MTUQ) (3);
其中,MT表示方法名特征嵌入矩阵的转置矩阵,B∈Rp*o表示方法名关联矩阵,其中p为方法名单词个数,o为查询单词个数;U∈Rk*k表示可训练的参数矩阵;Q表示查询特征嵌入矩阵;
S52:通过卷积神经网络沿着方法名关联矩阵B的行方向提取方法名特征嵌入矩阵与查询特征嵌入矩阵相关的方法名语义特征矩阵BM,通过卷积神经网络沿着方法名关联矩阵B的列方向提取查询特征嵌入矩阵与方法名特征嵌入矩阵相关的查询语义特征矩阵BQ;
S53:定义:VM表示为方法名特征嵌入矩阵与查询特征嵌入矩阵相关的方法名语义特征向量,VQM表示为查询特征嵌入矩阵与方法名特征嵌入矩阵相关的查询语义特征向量,计算方法名语义特征向量VM和相对应的查询语义特征向量VQM;
S54:使用相同方法计算API序列语义特征向量VA和相应的查询语义特征向量VQA,代码令牌语义特征向量VT和相应的查询语义特征向量VQT,语句树序列语义特征向量VstaTree和相应的查询语义特征向量VQstaTree,得到代码语义向量Code={VM、VA、VT、VstaTree}和查询语义特征向量Query={VQM、VQA、VQT、VQstaTree}。
作为改进,所述S52中所使用的神经网络为CNN,具体计算步骤如下:
其中,W∈Rk*h表示滤波器,bi,j表示语义关联矩阵B中的元素,FC表示完全连接的层,ave-pooling表示平均池策略;
作为改进,所述S53中计算方法名语义特征向量VM和相对应的查询语义特征向量VQM的具体步骤如下:
S531:计算VM的注意力权重aM∈Rp和VQM的注意力权重aQ∈Ro,计算表达式如下:
S532:通过对方法名特征嵌入矩阵和对应的注意力权重进行点积运算,得到VM和VQM,计算表达式如下:
VM=M·aM (8);
VQM=Q·aQ (9);
其中,aM表示VM的权重,aQ表示VQM的权重;M表示方法名特征嵌入;Q表示查询特征嵌入。
作为改进,所述S6中计算代码向量VC和查询向量VQ,具体步骤如下:
S61:计算代码向量权重αvc和查询向量权重αvq,具体计算表达式如下:
αvc=SoftMax(tanh(Wvc+b)) (10);
αvq=SoftMax(tanh(Wvq+b)) (11);
其中,W为可训练参数矩阵,b为可训练偏差,vc∈Code,vq∈Query;
S62:根据权重将语义特征进行融合,计算代码向量VC和查询向量VQ,具体计算表达式如下:
其中,vc表示代码语义向量中的元素,vq表示查询语义向量中的元素。
作为改进,所述S83中损失函数的具体表达式如下:
其中,θ表示搜索模型中的所有参数,sim表示代码向量和查询向量之间的余弦相似性,β为边缘约束参数。
作为改进,所述S83中损失函数中的边缘约束函数β设置为值0.05。
相对于现有技术,本发明至少具有如下优点:
1.本发明方法(命名为FcarCS),该方法通过一种细粒度的共注意机制捕获不同代码语句单词之间的顺序语义,分别区分查询和每个代码特征之间的相关表示,并通过考虑每个相关表示的贡献来增强表示融合。
2.提取结构信息。根据代码的语句顺序提取抽象语法树的结构特征,并将这种语句级的结构特征和代码文本特征相结合,共同表征代码向量,从而更精准的表达代码语义。
3.搜索效率更高。实验在一个大规模的数据集上进行了一个代码搜索实验,FcarCS模型显著优于三种最先进的模型(DeepCS、UNIF和TabCS)。
4.应用范围更广。对50个真实世界的查询进行了用户研究,发现FcarCS可以实质上搜索比DeepCS、UNIF和TabCS更相关的代码片段。
附图说明
图1表示本发明代码搜索模型的概览图。
图2表示本发明中细粒度共注意机制的工作流程。
图3表示本发明的对比方法TabCS检索“how to read text file line by line”的第一个结果。
图4表示本发明的方法FcarCS检索“how to read text file line by line”的第一个结果。
具体实施方式
下面对本发明作进一步详细说明。
参见图1,展示了FcarCS的整体框架,它通过三个阶段实现了代码搜索:特征表示、细粒度共注意网络和语义特征融合。第一阶段将代码特征嵌入矩阵(即方法名、API序列、令牌和语句树序列)和查询特征嵌入矩阵(即令牌序列)输入到一个注意力机制中,以获得代码/查询特征矩阵。然后,第二阶段将特征矩阵分别输入四种细粒度的共注意机制中,得到每个代码特征与查询之间的细粒度相关性,以增强代码/查询特征向量。在第三阶段,相互依赖的特征向量分别融合成最终的代码/查询向量。最后,FcarCS计算了两个代表性向量之间的余弦相似性。
本发明引入了一个语句级的代码结构特征,命名为语句树序列,这是一个更好的代码表示输入。该特征根据代码语句从AST中提取子树,并通过深度优先遍历将它们解析成许多序列。每个序列都被视为一个整体,以保存不同代码语句中的单词之间的顺序语义。
本发明没有对融合的代码特征执行一个共注意过程,而是构建了一种新的细粒度共注意机制,分别学习查询和每个代码特征之间的相互依赖表示。一般来说,该机制利用行/列级CNN,使模型能够关注代码特征和查询之间强相关的局部信息。此外,本发明通过为具有更高相关性的向量表示分配更大的权重来执行最后的特征向量融合。
一种基于细粒度共注意机制的语义代码搜索方法,包括如下步骤:
S1:构建代码搜索模型,该代码搜索模型由五部分堆叠而成:该五部分分别是数据预处理模块、特征表示网络模块、细粒度共注意力网络模块、语义特征融合网络模块和余弦相似度计算模块。
S2:选取公开Java数据集,该数据集包括若干个代码查询对,每个代码查询对包括一个Java代码片段和相应的自然语言查询令牌。
S3:数据预处理模块采用现有特征提取方法将数据集中所有的代码片段和查询令牌分别进行处理得到代码特征和查询特征,其中代码特征包括:方法名特征、API序列特征、代码令牌特征和语句树序列特征。通过使用现有技术EclipseJDT编译器解析代码的抽象语法树(即AST),根据AST得到代码对应的方法名特征和API序列特征。根据代码语句顺序将AST分解为多个子语法结构树,每个子树对应一行代码语句,通过深度优先遍历这些子树提取语句树序列特征;将代码片段通过空格将其中的单词分开,并根据驼峰命名法对每个单词进行分词得到代码令牌特征。
S4:特征表示网络模块将方法名特征、API序列特征、代码令牌特征和语句树序列特征分别经过WordEmbedding词嵌入技术处理后对应的得到方法名特征嵌入矩阵MethodName、API序列特征嵌入矩阵Api、代码令牌特征嵌入矩阵Token和语句树序列特征嵌入矩阵StatementTree。
方法名特征嵌入矩阵:MethodName=(m1,m2,mi,...,mp),其中,mi表示方法名中第i个词向量。
API序列特征嵌入矩阵:Api=(a1,a2,ai,...,aq),ai表示API序列中第i个API词向量。
代码令牌特征嵌入矩阵:Token=(t1,t2,ti,...,Tn),ti表示代码令牌中第i个代码词向量。
语句树序列特征嵌入矩阵:StatementTree=(staTree1,staTree2,staTreei,...,staTrees),staTreei表示第i个语句树向量。WordEmbedding为现有词嵌入技术。
将方法名特征嵌入矩阵MethodName、API序列特征嵌入矩阵Api、代码令牌特征嵌入矩阵Token和语句树序列特征嵌入矩阵StatementTree输入到注意力网络中,计算每个特征序列中单词的重要性程度,从而捕获序列中的关键语义信息,最终得到对应的特征矩阵,用M表示方法名特征矩阵、A表示API特征矩阵、T表示代码令牌特征矩阵、staTree表示语句树序列特征矩阵和Q表示查询特征矩阵,Q={q1,q2,qi,...,qo},qi表示查询中第i个查询词向量。
S5:细粒度共注意力网络模块将构成代码特征矩阵的M、A、T、staTree分别和查询特征矩阵Q通过细粒度共注意机制进行对齐。这种机制背后的关键思想是探索每个代码特征和查询之间更细粒度的语义相关性,并分别丰富它们的表示。这样,该模型清晰地识别了不同代码特征和查询之间的语义,避免了特征融合造成的语义混淆。
S6:语义特征融合网络模块计算代码向量VC和查询向量VQ。
S7:余弦相似度计算模块计算代码向量VC和查询向量VQ的余弦相似度,表达式如下:
其中,sim表示代码向量和查询向量之间的余弦相似度。
S8:对代码搜索模型进行训练,具体步骤如下:
S81:采用S2获得的数据集构建训练样本集,训练样本集中每个训练样本为一个实例三元组<c、q+、q->,其中,<c,q+>是代码查询对,即查询q+是代码c对应的查询语句。q-表示除<c,q+>代码查询对以外的其他的代码查询对中的一个查询语句。即与代码c的不相关查询。
其中θ表示模型中所有的参数,G表示训练样本集。
S84:当训练达到最大迭代次数时停止训练,并将当前代码搜索模型作为最优搜索模型,否则返回S82。
S80:对于一个待查询代码,将其输入最优搜索模型,同时在最优搜索模型中预设查询输出结果个数为N,最优搜索模型计算待查询代码与代码库中的各个代码向量计算余弦相似度,将余弦相似度自大到小排序,输出前N个余弦相似度对应的代码,该N个代码即为待查询代码的的查询结果。
具体的,所述S3中语句树序列特征的提取步骤如下:
S31:将代码片段中的语句按行标记为S1,S2,S3,…Sn;
S32:根据代码片段构建相对应的AST结构,并将该AST结构分解为n个部分(即n个语句树),每个部分对应每行代码语句。
S33:利用深度优先遍历算法遍历每个语句树,从而将每个语句树表示成序列形式得到n个语句树序列SubTreei,其中i=1,2,…,n。
S34:将n个语句树序列SubTreei拼接成一个序列,得到语句树序列特征StatementTree。
根据代码片段构建对应的AST,并根据每行代码语句提取AST中相应的部分。如摘要附图,代码的“S1”表示为以“MethodDeclaration”作为根节点的语句树。示例代码有四行语句,因此能提取四个语句树,然后利用深度优先遍历将每个语句树表示成序列形式(即图2中S1->SubTree1的过程),将这四个语句树序列拼接成一个序列,即“StaTree:[SubTree1][SubTree2][SubTree3][SubTree4]”,并作为包含四个单词的序列处理,用于后续的单词嵌入(即每个语句树序列被视为一个整体进行嵌入)。
代码的基本组成元素是代码语句,所以我们将AST按照代码语句分割成n个子结构(即语句树),每个子结构对应一行代码语句,然后通过树遍历算法获取每个子结构的序列表示,最后按照代码语句顺序将n个子结构序列拼接起来作为一个特征,这种处理方式能够保证语句结构的完整性和顺序性,从而更好的表征代码结构。
具体的,所述S4中计算方法名特征矩阵、API特征矩阵、代码令牌特征矩阵、语句树序列特征矩阵和查询特征矩阵的步骤如下:
S41:计算MethodName中每个方法名词嵌入的注意力权重αmi,mi表示MethodName中第i个词向量,计算表达式如下:
αmi=SoftMax(tanh(Wmi+b)) (1);
其中,W为可训练参数矩阵,b为可训练偏差。
其中M∈Rk*p为方法名特征矩阵,k为词嵌入向量的维度,p为方法名中单词的个数。
S43:S41-S42中的方法,计算得到API特征矩阵A,代码令牌特征矩阵T,语句树序列特征矩阵staTree和查询特征矩阵Q。
具体的,所述S5中将M、A、T、staTree分和查询特征矩阵Q进行对齐的具体步骤如下:
S51:计算方法名特征嵌入矩阵与查询特征嵌入矩阵之间相互关联的方法名关联矩阵,具体表达式如下:
B=tanh(MTUQ) (3);
其中,MT表示方法名特征嵌入矩阵的转置矩阵,B∈Rp*o表示方法名关联矩阵,其中p为方法名单词个数,o为查询单词个数;U∈Rk*k表示可训练的参数矩阵;Q表示查询特征嵌入矩阵;计算语义关联可以用于丰富代码特征和查询特征的表示,语义关联矩阵B表示每种代码特征中的单词与查询中的单词之间的相关性,同时使用tanh激活函数将矩阵中每个元素的值限制在-1和1之间。单词之间的相关性反映在矩阵B中的每个元素bi,j上,它表示第i个代码词与第j个查询词之间的相关性。
S52:通过卷积神经网络沿着方法名关联矩阵B的行方向提取方法名特征嵌入矩阵与查询特征嵌入矩阵相关的方法名语义特征矩阵BM,通过卷积神经网络沿着方法名关联矩阵B的列方向提取查询特征嵌入矩阵与方法名特征嵌入矩阵相关的查询语义特征矩阵BQ。
S53:定义:VM表示为方法名特征嵌入矩阵与查询特征嵌入矩阵相关的方法名语义特征向量,VQM表示为查询特征嵌入矩阵与方法名特征嵌入矩阵相关的查询语义特征向量,计算方法名语义特征向量VM和相对应的查询语义特征向量VQM。
S54:使用相同方法计算API序列语义特征向量VA和相应的查询语义特征向量VQA,代码令牌语义特征向量VT和相应的查询语义特征向量VQT,语句树序列语义特征向量VstaTree和相应的查询语义特征向量VQstaTree,得到代码语义向量Code={VM、VA、VT、VstaTree}和查询语义特征向量Query={VQM、VQA、VQT、VQstaTree}。
具体的,所述S52中所使用的神经网络为CNN,具体计算步骤如下:
其中,W∈Rk*h表示滤波器,bi,j表示语义关联矩阵B中的元素,FC表示完全连接的层,ave-pooling表示平均池策略。
卷积神经网络CNN可以感知矩阵的局部信息,并且很擅长提取抽象特征,此处滤波器窗口大小h可设置为2;FC可以聚合通过卷积网络计算得到局部信息和由于最大池策略可能忽略了一些重要的特征,所以采用平均池策略,在整个连接层聚合信息后,使用ave-pooling来提取更多的信息。
具体的,所述S53中计算方法名语义特征向量VM和相对应的查询语义特征向量VQM的具体步骤如下:
S531:计算VM的注意力权重aM∈Rp和VQM的注意力权重aQ∈Ro,计算表达式如下:
S532:通过对方法名特征嵌入矩阵和对应的注意力权重进行点积运算,得到VM和VQM,计算表达式如下:
VM=M·aM (8);
VQM=Q·aQ (9);
其中,aM表示VM的权重,aQ表示VQM的权重;M表示方法名特征嵌入;Q表示查询特征嵌入。
具体的,所述S6中计算代码向量VC和查询向量VQ,具体步骤如下:
S61:计算代码向量权重αvc和查询向量权重αvq,具体计算表达式如下:
αvc=SoftMax(tanh(Wvc+b)) (10);
αvq=SoftMax(tanh(Wvq+b)) (11);
其中,W为可训练参数矩阵,b为可训练偏差,vc∈Code,vq∈Query。
S62:根据权重将语义特征进行融合,计算代码向量VC和查询向量VQ,具体计算表达式如下:
其中,vc表示代码语义向量中的元素,vq表示查询语义向量中的元素。
具体的,所述S83中损失函数的具体表达式如下:
其中,θ表示搜索模型中的所有参数,sim表示代码向量和查询向量之间的余弦相似性,β为边缘约束参数。引入边缘约束参数β,是为了确保代码向量与正确查询向量之间的距离,至少比代码向量与错误查询向量之间的距离更接近β,这样可以得到更加准确的搜索模型参数。具体的,损失函数中的边缘约束函数β设置为值0.05。使用Adam算法来最小化损失函数。在训练过程中,损失函数通过Adam实现梯度下降,迭代更新模型参数。
实验设置
A、数据集
为了评估该模型的有效性,本实验在Hu等人收集的现有大规模Java数据集上进行了实验。该数据集包含475k个用于训练的代码查询对和10k个用于测试的代码查询对。该数据集的内容是从GitHub 2015年至2016年上创建的Java存储库中提取的,提取的每个项目至少有10颗星。此外还进行了一项用户研究,以测试本发明模型在Gu等人从StackOverflow中收集的50个真实查询上的性能。
B、基线模型
DeepCS模型。Gu等人提出了一个基于DL的代码搜索模型,它使用LSTM和MLP将代码片段和查询嵌入到一个共享的向量空间中,并计算向量之间的相似性。
UNIF模型。Cambronero等人提出的一个更简单的代码搜索模型。它使用了一个基于fastText的神经网络,并执行了一种针对代码表示的注意力机制,同时用余弦距离作为相似度度量。
TabCS模型。Yang等人提出了一种基于两阶段注意力机制的最新模型。第一阶段利用注意力机制从代码和查询中提取语义,并考虑到它们的语义差距;第二阶段利用共同注意机制来捕获它们的语义相关性,并学习更好的代码/查询表示。
C、评价指标
通过使用两个广泛使用的指标来评估所提出的模型的有效性:平均倒数排名(MRR)和前k个结果的成功率(SR@k)。
MRR是所有查询的倒数秩的平均值,计算方法如下:
其中FRankq为第q个查询的第一个正确结果的排名位置,|Q|为Q中的查询数。由于开发人员更喜欢检查列表中的前几个代码片段来找到预期的代码方法,所以本发明延续Gu等人的做法,在排名前10的列表上计算MRR。
SR@k是相关代码可以在排名前k的结果中找到的查询比例,跟随Gu等人,分别用k在1、5、10处评估SR。
如果在前k个结果中可以找到第q个查询对应的代码,则δ返回1,否则返回0。
实验数据
本发明将FcarCS模型与最先进的DeepCS、UNIF和TabCS模型进行了比较。表1给出了FcarCS在Hu等人的的数据集上与三种基线模型进行比较的实验结果。结果表明,FcarCS的MRR为0.595,SR/1/5/10为0.610/0.758/0.817。本发明提出的FcarCS在MRR方面比DeepCS、UNIF和TabCS多出110.99%、13.33%和9.38%;在SR/1/5/10方面比DeepCS、UNIF和TabCS多出119.42%/74.65%/58.33%、15.31%/11.14%/5.83%和10.91%/5.42%/3.16%。
其中,DeepCS模型:Gu等人提出了一个基于DL的代码搜索模型,它使用LSTM和MLP将代码片段和查询嵌入到一个共享的向量空间中,并计算向量之间的相似性。
UNIF模型:Cambronero等人提出的一个更简单的代码搜索模型。它使用了一个基于fastText的神经网络,并执行了一种针对代码表示的注意力机制,同时用余弦距离作为相似度度量。
TabCS模型:Yang等人提出了一种基于两阶段注意力机制的最新模型。第一阶段利用注意力机制从代码和查询中提取语义,并考虑到它们的语义差距;第二阶段利用共同注意机制来捕获它们的语义相关性,并学习更好的代码/查询表示。
FcarCS模型是本发明提出的模型。
SR@1,SR@5,SR@10表示:相关代码可以在排名前1、5、10的结果中找到的查询比例。
MRR表示所有查询的倒数秩的平均值。
表1.在SR@1/5/10和MRR指标上,DeepCS、UNIF、TabCS和FcarCS的性能比较
模型 | SR@1 | SR@5 | SR@10 | MRR |
DeepCS | 0.278 | 0.434 | 0.516 | 0.282 |
UNIF | 0.529 | 0.682 | 0.772 | 0.525 |
TabCS | 0.550 | 0.719 | 0.792 | 0.544 |
FcarCS | 0.610 | 0.758 | 0.817 | 0.595 |
结论:所提出的模型FcarCS模型在代码搜索方面显著优于最先进的基线DeepCS、UNIF和TabCS。
为了研究代码的四个特征(方法名、令牌、API序列和语句树序列)的相对重要性,本发明一次从FcarCS中删除一个特征。在表2中,FcarCS中的M、A、T和ST表示方法名、API序列、令牌序列和语句树序列。对于TabCS-staTree模型,是用本发明提取的语句树序列替换了原始模型TabCS中使用的代码结构序列而构建的对比模型。而UNIF-staTree表示本发明将语句树序列作为代码结构特征添加到模型的UNIF输入中构建的对比模型。
从表2可以看出,TabCS-staTree的SR@1/5/10和MRR对比TabCS分别提高了6.36%/4.17%/2.90%和5.33%。UNIF-staTree的SR@1/5/10和MRR对比UNIF分别提高了6.24%/5.72%/2.07%和4.57%。FcarCS在MRR方面分别比TabCS-staTree和UNIF-staTree高出3.84%和8.38%。对于FcarCS,通过删除方法名、API序列、令牌序列和语句树序列,MRR分别降低了2.19%/1.18%/7.90%/2.35%。
FcarCS(A+T+ST)表示本发明提出的模型在输入代码特征时删去方法名特征。
FcarCS(M+T+ST)表示本发明提出的模型在输入代码特征时删去API序列特征。
FcarCS(M+A+ST)表示本发明提出的模型在输入代码特征时删去代码令牌特征。
FcarCS(M+A+T)表示本发明提出的模型在输入代码特征时删去语句树序列特征。
FcarCS(M+A+T+ST)表示本发明提出的模型在输入代码特征使用全部特征。
表2.五种不同的特征设置在SR@1/5/10和MRR方面的有效性比较
模型 | SR@1 | SR@5 | SR@10 | MRR |
UNIF | 0.529 | 0.682 | 0.772 | 0.525 |
UNIF-staTree | 0.562 | 0.721 | 0.788 | 0.549 |
TabCS | 0.550 | 0.719 | 0.792 | 0.544 |
TabCS-staTree | 0.585 | 0.749 | 0.815 | 0.573 |
FcarCS(A+T+ST) | 0.598 | 0.747 | 0.805 | 0.582 |
FcarCS(M+T+ST) | 0.606 | 0.749 | 0.814 | 0.588 |
FcarCS(M+A+ST) | 0.563 | 0.719 | 0.784 | 0.548 |
FcarCS(M+A+T) | 0.597 | 0.750 | 0.512 | 0.581 |
FcarCS(M+A+T+ST) | 0.610 | 0.758 | 0.817 | 0.595 |
结果表明,这四种代码特征都可以提高FcarCS的性能。此外,本发明可以观察到,语句树序列可以提高UNIF、TabCS和FcarCS的性能。结果表明,将四种代码特征一起作为模型输入可以获得最佳的性能,而代码令牌对FcarCS模型的有效性影响最大。
结论:所提出的结构特征对代码搜索是必要的、有用的。同时,这四种代码特征都有助于FcarCS的有效性。
表3显示了以下使用相同特征的变体模型的有效性比较:TabCS-staTree是共同注意机制的代表;FcarCS-No表示本发明模型的一个变体,其在注意力机制后直接连接所有代码特征,以获得代码矩阵,然后平均池化层处理代码/查询矩阵分别得到代码/查询向量;FcarCS-Fusion表示本发明模型的一个变体,其在融合所有代码特征矩阵后使用细粒度共注意机制直接获得代码/查询向量;FcarCS是本发明提出的模型。
模型TabCS-staTree和FcarCS-Fusion的核心思想是首先融合所有代码特征嵌入,然后与查询计算共注意表示。然而,如表3所示,MRR和SR在FcarCS-No方面优于TabCS-staTree和FcarCS-Fusion。这一结果表明,融合特征后的代码和查询的共注意表示可能会混淆单个代码特征与查询之间的语义相关性,从而影响代码和查询的匹配。
此外,FcarCS在MRR方面比TabCS-staTree、FcarCS-No和FcarCS-Fusion高3.84%、2.41%和3.30%。这一结果表明,捕获代码特征和查询之间的语义相关性来丰富各自的向量表示可以提高模型性能,而细粒度的共注意机制有助于FcarCS的有效性。
表3.三种不同的共同注意力设置在SR@1/5/10和MRR方面的有效性比较
模型 | SR@1 | SR@5 | SR@10 | MRR |
TabCS-staTree | 0.585 | 0.749 | 0.815 | 0.573 |
FcarCS-No | 0.594 | 0.745 | 0.811 | 0.581 |
FcarCS-Fusion | 0.594 | 0.739 | 0.799 | 0.576 |
FcarCS | 0.610 | 0.758 | 0.817 | 0.595 |
结论:与其他具有代表性的共注意设置相比,所提出的细粒度共注意机制是代码搜索的最佳设置。
对于语句树序列,嵌入序列的方法也很不同。除了语句级的嵌入粒度外,本发明还考虑了另外两个粒度:令牌级和序列级。令牌级将序列中的每个令牌视为一个单词,而序列级别将整个序列视为一个单词。本发明分别比较了TabCS和FcarCS上的令牌级粒度、语句级粒度和序列级粒度。
从表4中可以观察到,语句级粒度是在TabCS和FcarCS上嵌入语句树序列的最佳选择。对于这两个模型,语句级粒度显示出更好的性能,MRR分别为0.573和0.595,分别优于令牌级和序列级。结果表明,语句级表示是令牌级和序列级表示之间很好的权衡。
Token-level表示语句树序列中的每个令牌都被视为一个单词。
Statement-level表示与每行代码语句对应的语句树序列子部分被视为一个单词。
Sequence-level表示整个语句树结构序列被视为一个词。
表4.不同的结构特征的词嵌入粒度在SR@1/5/10和MRR方面的有效性比较
模型(TabCS) | SR@1 | SR@5 | SR@10 | MRR |
Token-level | 0.584 | 0.746 | 0.815 | 0.568 |
Statement-level | 0.585 | 0.749 | 0.815 | 0.573 |
Sequence-level | 0.577 | 0.741 | 0.813 | 0.566 |
模型(FcarCS) | SR@1 | SR@5 | SR@10 | MRR |
Token-level | 0.592 | 0.746 | 0.806 | 0.579 |
Statement-level | 0.610 | 0.758 | 0.817 | 0.595 |
Sequence-level | 0.601 | 0.752 | 0.814 | 0.585 |
结论:语句级粒度是在特征表示中嵌入结构序列以实现代码搜索的最佳选择。
表5显示了FcarCS和对比基线模型对50个真实查询的用户研究。“Question ID”显示查询来自的Stack Overflow中问题的原始ID,“Query”表示问题中用户输入的查询语句。最后四列显示了每个模型的FRank结果,这是指模型返回第一个相关代码结果的排名位置。符号“NF”表示在前K结果(K=10)中没有找到相关结果,本发明保守地将符号为“NF”的查询的FRank视为11。本发明观察到FcarCS获得了更相关的结果,平均FRank(即Average Frank)为5.12,比DeepCS(8.12)、UNIF(6.70)和TabCS(6.84)的平均FRank分别降低了36.9%、23.6%和25.1%。结果表明,FcarCS通常返回的代码比DeepCS、UNIF和TabCS更相关。
此外,为了分析FcarCS和这些基线之间的统计学差异,本发明在5%的显著性水平上对FRank应用Wilcoxon符号检验。p值小于0.01,说明FcarCS对这些基线的改善有显著的统计学意义。
表5.基准测试查询和评估结果
(NF:未在TOP10中返回结果D:DeepCS U:UNIF T:TabCS F:FcarCS)
结论:对于目前公开的查询方法中,FcarCS在统计意义上大大优于目前最先进的模型。
上述实验说明,虽然TabCS在代码表示中同时考虑了文本和结构特征,但它将一组令牌级AST的单词作为代码结构,可能会导致语义丢失。对于FcarCS,它将结构语义分解为一组与代码语句对应的语句级子树,并将其转换为序列,允许模型在捕获结构语义的同时保留代码语句中单词之间的顺序语义。表2的结果证明,语句级结构可以显著提高TabCS和FcarCS的性能。
此外,FcarCS分别通过细粒度的共注意机制来学习查询和每个代码特征之间的语义相关性,这比TabCS中对融合所有特征的代码执行一个共注意过程更有利于学习相互依赖的代码/查询表示。图3和图4显示了TabCS和本发明提出的FcarCS关于查询“how to readtext file line by line”的第一个结果。从图3中可以观察到TabCS返回了一个不相关的代码,尽管方法名和API包含查询关键字(例如,“read”和“line”)。因为TabCS融合了所有的代码特征来计算与查询的共注意表示,其中许多不相关的代码字(例如,“InputStreamReader”、“getLineNumber”)会混淆代码和查询之间的语义相关性。相比之下,FcarCS可以检索图4中预期的代码片段,其中代码涉及许多与查询相关的关键字,如“readLines”、“fileName”、“reader”、“readLine”等。一个重要的原因是FcarCS通过一种细粒度的共注意机制分别获得每个代码特征和查询之间的相关性。通过这种方式,FcarCS清楚地捕获了代码和查询之间相互依赖的语义,并减轻了语义混淆。
本发明提出了一种用于语义代码搜索的细粒度共注意表示学习模型FcarCS,它不仅能提取代码文本特征,而且还通过引入语句级代码结构来提取结构信息。FcarCS不是学习孤立的表示,而是构建了一个细粒度的共注意机制来学习每个代码特征和查询的语义相关性,这可以直接增强它们各自的表示。基于这些语义特征表示,FcarCS可以更好地学习相互依赖的代码/查询向量。对最新开源数据集的评估显示,就MRR而言,FcarCS比最先进的模型(即DeepCS、UNIF和TabCS)分别好了110.99%、13.33%和9.38%。此外,通过对50个真实世界的查询进行了用户研究,结果显示FcarCS显著将DeepCS、UNIF和TabCS的平均FRank分别降低了36.9%、23.6%和25.1%。因此,FcarCS使用的语句级结构和细粒度共同注意机制是非常有助于搜索符合开发人员意图的代码片段。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种基于细粒度共注意机制的语义代码搜索方法,其特征在于:包括如下步骤:
S1:构建代码搜索模型,该代码搜索模型由五部分堆叠而成:该五部分分别是数据预处理模块、特征表示网络模块、细粒度共注意力网络模块、语义特征融合网络模块和余弦相似度计算模块;
S2:选取公开Java数据集,该数据集包括若干个代码查询对,每个代码查询对包括一个Java代码片段和相应的自然语言查询令牌;
S3:数据预处理模块采用现有特征提取方法将数据集中所有的代码片段和查询令牌分别进行处理得到代码特征和查询特征,其中代码特征包括:方法名特征、API序列特征、代码令牌特征和语句树序列特征;
S4:特征表示网络模块将方法名特征、API序列特征、代码令牌特征和语句树序列特征分别经过WordEmbedding词嵌入技术处理后对应的得到方法名特征嵌入矩阵MethodName、API序列特征嵌入矩阵Api、代码令牌特征嵌入矩阵Token和语句树序列特征嵌入矩阵StatementTree;
方法名特征嵌入矩阵:MethodName=(m1,m2,mi,...,mp),其中,mi表示方法名中第i个词向量;
API序列特征嵌入矩阵:Api=(a1,a2,ai,...,aq),ai表示API序列中第i个API词向量;
代码令牌特征嵌入矩阵:Token=(t1,t2,ti,...,Tn),ti表示代码令牌中第i个代码词向量;
语句树序列特征嵌入矩阵:StatementTree=(staTree1,staTree2,staTreei,...,staTrees),staTreei表示第i个语句树向量;
将方法名特征嵌入矩阵MethodName、API序列特征嵌入矩阵Api、代码令牌特征嵌入矩阵Token和语句树序列特征嵌入矩阵StatementTree输入到注意力网络中,得到对应的特征矩阵,用M表示方法名特征矩阵、A表示API特征矩阵、T表示代码令牌特征矩阵、staTree表示语句树序列特征矩阵和Q表示查询特征矩阵,Q={q1,q2,qi,...,qo},qi表示查询中第i个查询词向量;
S5:细粒度共注意力网络模块将构成代码特征矩阵的M、A、T、staTree分别和查询特征矩阵Q通过细粒度共注意机制进行对齐;
S6:语义特征融合网络模块计算代码向量VC和查询向量VQ;
S7:余弦相似度计算模块计算代码向量VC和查询向量VQ的余弦相似度,表达式如下:
其中,sim表示代码向量和查询向量之间的余弦相似度;
S8:对代码搜索模型进行训练,具体步骤如下:
S81:采用S2获得的数据集构建训练样本集,训练样本集中每个训练样本为一个实例三元组<c、q+、q->,其中,<c,q+>是代码查询对,q-表示除<c,q+>代码查询对以外的其他的代码查询对中的一个查询语句;
其中θ表示模型中所有的参数,G表示训练样本集;
S84:当训练达到最大迭代次数时停止训练,并将当前代码搜索模型作为最优搜索模型,否则返回S82;
S80:对于一个待查询代码,将其输入最优搜索模型,同时在最优搜索模型中预设查询输出结果个数为N,最优搜索模型计算待查询代码与代码库中的各个代码向量计算余弦相似度,将余弦相似度自大到小排序,输出前N个余弦相似度对应的代码,该N个代码即为待查询代码的的查询结果。
2.如权利要求1所述的一种基于细粒度共注意机制的语义代码搜索方法,其特征在于:所述S3中语句树序列特征的提取步骤如下:
S31:将代码片段中的语句按行标记为S1,S2,S3,…Sn;
S32:根据代码片段构建相对应的AST结构,并将该AST结构分解为n个部分,每个部分对应每行代码语句;
S33:利用深度优先遍历算法遍历每个语句树,从而将每个语句树表示成序列形式得到n个语句树序列SubTreei,其中i=1,2,…,n;
S34:将n个语句树序列SubTreei拼接成一个序列,得到语句树序列特征StatementTree。
3.如权利要求1或2所述的一种基于细粒度共注意机制的语义代码搜索方法,其特征在于:所述S4中计算方法名特征矩阵、API特征矩阵、代码令牌特征矩阵、语句树序列特征矩阵和查询特征矩阵的步骤如下:
S41:计算MethodName中每个方法名词嵌入的注意力权重αmi,mi表示MethodName中第i个词向量,计算表达式如下:
αmi=SoftMax(tanh(Wmi+b)) (1);
其中,W为可训练参数矩阵,b为可训练偏差。
其中M∈Rk*p为方法名特征矩阵,k为词嵌入向量的维度,p为方法名中单词的个数;
S43:S41-S42中的方法,计算得到API特征矩阵A,代码令牌特征矩阵T,语句树序列特征矩阵staTree和查询特征矩阵Q。
4.如权利要求3所述的一种基于细粒度共注意机制的语义代码搜索方法,其特征在于:所述S5中将M、A、T、staTree分和查询特征矩阵Q进行对齐的具体步骤如下:
S51:计算方法名特征嵌入矩阵与查询特征嵌入矩阵之间相互关联的方法名关联矩阵,具体表达式如下:
B=tanh(MTUQ) (3);
其中,MT表示方法名特征嵌入矩阵的转置矩阵,B∈Rp*o表示方法名关联矩阵,其中p为方法名单词个数,o为查询单词个数;U∈Rk*k表示可训练的参数矩阵;Q表示查询特征嵌入矩阵;
S52:通过卷积神经网络沿着方法名关联矩阵B的行方向提取方法名特征嵌入矩阵与查询特征嵌入矩阵相关的方法名语义特征矩阵BM,通过卷积神经网络沿着方法名关联矩阵B的列方向提取查询特征嵌入矩阵与方法名特征嵌入矩阵相关的查询语义特征矩阵BQ;
S53:定义:VM表示为方法名特征嵌入矩阵与查询特征嵌入矩阵相关的方法名语义特征向量,VQM表示为查询特征嵌入矩阵与方法名特征嵌入矩阵相关的查询语义特征向量,计算方法名语义特征向量VM和相对应的查询语义特征向量VQM;
S54:使用相同方法计算API序列语义特征向量VA和相应的查询语义特征向量VQA,代码令牌语义特征向量VT和相应的查询语义特征向量VQT,语句树序列语义特征向量VstaTree和相应的查询语义特征向量VQstaTree,得到代码语义向量Code={VM、VA、VT、VstaTree}和查询语义特征向量Query={VQM、VQA、VQT、VQstaTree}。
6.如权利要求3所述的一种基于细粒度共注意机制的语义代码搜索方法,其特征在于:所述S53中计算方法名语义特征向量VM和相对应的查询语义特征向量VQM的具体步骤如下:
S531:计算VM的注意力权重aM∈Rp和VQM的注意力权重aQ∈Ro,计算表达式如下:
S532:通过对方法名特征嵌入矩阵和对应的注意力权重进行点积运算,得到VM和VQM,计算表达式如下:
VM=M·aM (8);
VQM=Q·aQ (9);
其中,aM表示VM的权重,aQ表示VQM的权重;M表示方法名特征嵌入;Q表示查询特征嵌入。
9.如权利要求8所述的一种基于细粒度共注意机制的语义代码搜索方法,其特征在于:所述S83中损失函数中的边缘约束函数β设置为值0.05。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111563221.6A CN114237621B (zh) | 2021-12-20 | 2021-12-20 | 一种基于细粒度共注意机制的语义代码搜索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111563221.6A CN114237621B (zh) | 2021-12-20 | 2021-12-20 | 一种基于细粒度共注意机制的语义代码搜索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114237621A true CN114237621A (zh) | 2022-03-25 |
CN114237621B CN114237621B (zh) | 2024-06-25 |
Family
ID=80759348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111563221.6A Active CN114237621B (zh) | 2021-12-20 | 2021-12-20 | 一种基于细粒度共注意机制的语义代码搜索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114237621B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115017294A (zh) * | 2022-05-31 | 2022-09-06 | 武汉大学 | 代码搜索方法 |
CN117112851A (zh) * | 2023-10-24 | 2023-11-24 | 北京航空航天大学 | 一种基于后交互机制的代码搜索方法 |
CN117349453A (zh) * | 2023-12-04 | 2024-01-05 | 武汉大学 | 一种基于扩展代码的深度学习代码搜索模型的加速方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460478A (zh) * | 2018-11-06 | 2019-03-12 | 北京京航计算通讯研究所 | 基于细粒度特征语义网络的系统接口时序知识分析方法 |
CN109460362A (zh) * | 2018-11-06 | 2019-03-12 | 北京京航计算通讯研究所 | 基于细粒度特征语义网络的系统接口时序知识分析系统 |
US20190114435A1 (en) * | 2017-10-13 | 2019-04-18 | 2509757 Ontario Inc. | Security risk identification in a secure software lifecycle |
CN112860879A (zh) * | 2021-03-08 | 2021-05-28 | 南通大学 | 一种基于联合嵌入模型的代码推荐方法 |
-
2021
- 2021-12-20 CN CN202111563221.6A patent/CN114237621B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190114435A1 (en) * | 2017-10-13 | 2019-04-18 | 2509757 Ontario Inc. | Security risk identification in a secure software lifecycle |
CN109460478A (zh) * | 2018-11-06 | 2019-03-12 | 北京京航计算通讯研究所 | 基于细粒度特征语义网络的系统接口时序知识分析方法 |
CN109460362A (zh) * | 2018-11-06 | 2019-03-12 | 北京京航计算通讯研究所 | 基于细粒度特征语义网络的系统接口时序知识分析系统 |
CN112860879A (zh) * | 2021-03-08 | 2021-05-28 | 南通大学 | 一种基于联合嵌入模型的代码推荐方法 |
Non-Patent Citations (2)
Title |
---|
JIANHANG SHUAI等: ""Improving code search with co-attentive representation learning"", 《2020 IEEE/ACM 28TH INTERNATIONAL CONFERENCE ON PROGRAM COMPREHENSION(ICPC)》, 31 December 2020 (2020-12-31), pages 196 - 207 * |
ZHONGYANG DENG等: ""Fine-grained co-attentive representation learning for semantic code search"", 《2022 IEEE INTERNATIONAL CONFERENCE ON SOFTWARE ANALYSIS, EVOLUTION AND ENGINEERING(SANER)》, 21 July 2022 (2022-07-21), pages 396 - 407 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115017294A (zh) * | 2022-05-31 | 2022-09-06 | 武汉大学 | 代码搜索方法 |
CN117112851A (zh) * | 2023-10-24 | 2023-11-24 | 北京航空航天大学 | 一种基于后交互机制的代码搜索方法 |
CN117112851B (zh) * | 2023-10-24 | 2024-04-02 | 北京航空航天大学 | 一种基于后交互机制的代码搜索方法 |
CN117349453A (zh) * | 2023-12-04 | 2024-01-05 | 武汉大学 | 一种基于扩展代码的深度学习代码搜索模型的加速方法 |
CN117349453B (zh) * | 2023-12-04 | 2024-02-23 | 武汉大学 | 一种基于扩展代码的深度学习代码搜索模型的加速方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114237621B (zh) | 2024-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111159223B (zh) | 一种基于结构化嵌入的交互式代码搜索方法及装置 | |
Hu et al. | Improved lexically constrained decoding for translation and monolingual rewriting | |
CN111611361B (zh) | 抽取式机器智能阅读理解问答系统 | |
Yu et al. | Typesql: Knowledge-based type-aware neural text-to-sql generation | |
Lukovnikov et al. | Neural network-based question answering over knowledge graphs on word and character level | |
Qin et al. | A survey on text-to-sql parsing: Concepts, methods, and future directions | |
Adel et al. | Learning the Structure of Sum-Product Networks via an SVD-based Algorithm. | |
CN104169948B (zh) | 用于文本语义处理的方法、装置及产品 | |
CN114237621B (zh) | 一种基于细粒度共注意机制的语义代码搜索方法 | |
CN111831789B (zh) | 一种基于多层语义特征提取结构的问答文本匹配方法 | |
CN110674252A (zh) | 一种面向司法领域的高精度语义搜索系统 | |
Qiu et al. | Language-aware fine-grained object representation for referring expression comprehension | |
Zhang et al. | Attention-based multimodal entity linking with high-quality images | |
CN108536735A (zh) | 基于多通道自编码器的多模态词汇表示方法与系统 | |
CN116661852B (zh) | 一种基于程序依赖图的代码搜索方法 | |
Ahmed et al. | Named entity recognition by using maximum entropy | |
Monisha et al. | Classification of bengali questions towards a factoid question answering system | |
Deng et al. | Fine-grained co-attentive representation learning for semantic code search | |
Shifaz et al. | Elastic Similarity and Distance Measures for Multivariate Time Series | |
Choi et al. | Source code summarization using attention-based keyword memory networks | |
CN117453861A (zh) | 基于对比学习与预训练技术的代码搜索推荐方法和系统 | |
CN111785344A (zh) | 基于中医药领域专业词向量的中药处方用药安全检测方法 | |
CN115577075A (zh) | 一种基于关系图卷积网络的深度代码搜索方法 | |
Cai et al. | CSSAM: Code search via attention matching of code semantics and structures | |
Idris et al. | Comparative Study of Root and Light Stemming Algorithms for Arabic Document Categorisation based on Similarity Measures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |