CN116483337A - 一种基于提示学习和数据增强的api补全方法 - Google Patents

一种基于提示学习和数据增强的api补全方法 Download PDF

Info

Publication number
CN116483337A
CN116483337A CN202310445624.3A CN202310445624A CN116483337A CN 116483337 A CN116483337 A CN 116483337A CN 202310445624 A CN202310445624 A CN 202310445624A CN 116483337 A CN116483337 A CN 116483337A
Authority
CN
China
Prior art keywords
api
model
prompt
training
data enhancement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310445624.3A
Other languages
English (en)
Inventor
陈翔
顾亚锋
沈逸恒
杨少宇
黄一麟
于池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202310445624.3A priority Critical patent/CN116483337A/zh
Publication of CN116483337A publication Critical patent/CN116483337A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/33Intelligent editors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种基于提示学习和数据增强的API补全方法,属于计算机领域。解决了基于生成技术的API推荐模型预测能力有限和用于API推荐的训练数据不足的问题。其技术方案为:包括以下步骤:S1:语料库预处理并构造提示前缀;S2:构建预训练模型CodeT5和ATCom对抗训练方法;S3:在模型嵌入层使用ATCom,生成多组对抗样本;S4:利用原语料库和生成的对抗样本微调CodeT5并生成完整的API。本发明的有益效果为:根据不完整的API前缀和提示信息进行API补全,提高开发人员的效率和编程体验,通过对抗样本的训练,增强模型的鲁棒性,提高模型的泛化能力,从而提高API补全的准确性和稳定性。

Description

一种基于提示学习和数据增强的API补全方法
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于提示学习和数据增强的API补全方法。
背景技术
API(应用程序编程接口)推荐是指帮助开发人员根据用户需求和使用场景在众多候选API中找到最佳API的过程。实际上,一些API用于实现基本功能(如打印和日志生成)。这些API可以在任何地方调用。然而,基于生成技术的API推荐模型的预测能力有限,往往无法从查询的第一个字中准确地预测出最合适的API;此外,API推荐的训练数据不足,收集高质量的API问题和相应的答案是费时费力并且及其容易出错;随着可用API的快速增长和软件系统的日益复杂,开发人员很难根据自己的需求找到最合适的API。
有效的API推荐方法可以为软件开发人员提供更好的API选择,从而提高他们的工作效率和工作质量。首先,API推荐可以帮助开发人员快速找到适合他们需求的API,减少了他们寻找API的时间和精力。其次,API推荐可以帮助开发人员避免使用错误或不合适的API,提高了他们代码的可靠性和质量。此外,通过API推荐,开发人员可以更容易地利用已有的API资源,而不是重复开发相同的功能,从而减少了代码的冗余性,提高了代码的可维护性和可扩展性。
以前的研究主要将API推荐建模为推荐任务,该任务可以推荐多个API,但是推荐的可能并不是开发人员需要的。最近在神经机器翻译领域的推动下,研究人员将这个问题建模为生成任务,其目的是直接为开发人员生成所需的API。然而,初步调查表明,直接生成的方法可能会生成错误。
如何解决上述技术问题成为本发明面临的课题。
发明内容
本发明的目的在于提供一种基于提示学习和数据增强的API补全方法,该方法可以根据不完整的API前缀和提示信息进行API补全从而生成用户所需要的API。
本发明的发明思想为:本发明提出了一种基于示学习和数据增强的API补全方法,该方法利用用户已知的API前缀信息和启发式规则生成的API提示,通过嵌入层组合生成的对抗性示例来训练API补全模型,从而最终生成用户所需的API。相较于信息检索方法和深度学习方法,本发明提出的方法在相同语料库中表现出更优秀的性能。
本发明是通过如下措施实现的:一种基于提示学习和数据增强的API补全方法,其中,包括以下步骤:
(1)搜集高质量语料库,同时对数据进行预处理操作,构造不同的提示符,然后在不完整的API后面添加一个[mask]标记,表示API被屏蔽的部分,通过接下来训练的模型来预测;
(1-1)首先,为了生成不完整的API标题,我们需要准备不同的提示符。假设API包含n个单词,则需要生成一个随机数Nrand。
(1-2)然后,我们生成一个不完整的API,即前缀提示符,将其中最后Nrand个单词屏蔽。
(1-3)接着,开发人员按线性方式编写API,从第一个单词开始一直到最后一个单词,因此我们选择屏蔽最后一个连续单词作为屏蔽操作符。
(1-4)由于我们的研究主要集中在API补全任务上,要求不完整的API至少有一个单词,因此屏蔽操作符最多可以屏蔽n-1个单词。
(1-5)为了生成不完整的API,我们采用带有三个不同值的Nrand屏蔽操作符,从而为每个API生成3个不同的不完整标题。
(1-6)最后,我们将生成的提示符和原始描述作为我们建议的模型的输入。因此,最终的输入表示为
(2)将步骤(1)得到的预料库按照80%:10%:10%的比例划分为训练集、测试集和验证集。
(3)对数据进行预处理操作,首先使用随机掩蔽构造不同的提示符,然后在不完整的API后面添加一个[mask]标记,表示API被屏蔽的部分,这可以通过接下来训练的模型来预测;
(3-1)首先,我们在嵌入层中引入扰动。具体而言,给定输入嵌入序列x,我们通过多次迭代来寻找最佳扰动δ,生成k个对抗性样本。
(3-2)随后,我们利用增强训练集来训练codeT5模型。
(3-3)在更新参数时,我们采用k次迭代的平均梯度Gavg。
(4)使用一种对抗训练方法,根据模型输入自动生成k个对抗样本。然后将生成的对抗样本和原始输入作为训练数据来调整我们提出的API补全模型;
(4-1)在自注意力层中,首先计算查询和键的点积,然后将每个值除以使用softmax函数计算每个值的权重,从而得到输出矩阵。
(4-2)前馈网络由两个被Relu激活隔开的线性变换组成。
FFN(x)=max(0,xW1+b1)W2+b2
(4-3)层规范化应用于每个子组件的输入。在层规范化之后,剩余的跳过连接将每个子组件的输入添加到其输出。编码器的输出被定义为一个隐藏状态向量Xout。
(4-4)解码器在结构上与编码器相似,但其包含一个掩蔽的自注意力层,以防止模型在训练过程中注意到未知信息。
(4-5)在解码步骤中,该模型利用编码器输出Xout生成下一个API token。模型可以通过softmax层预测下一个token的概率。
(4-6)对于给定的输入文本x,我们利用损失函数L来训练模型参数θ,使其预测的token与实际token的差距最小化。
(5)使用CodeT5模型作为基础模型来解决API补全任务,其编码器包括12个子块,每个子块由两个子组建组成:自注意力层和前馈神经网络;解码器在结构上和编码器相似,其目的是防止模型在训练时注意到未知信息;
(5-1)首先通过逐个扫描每个步骤的API令牌来使用每个时间步的最低成本k令牌,其中k表示波束宽度。
(5-2)在修剪任何剩余的分支后,它继续为后续的标记选择潜在的标记,直到遇到序列结束符号。
(5-3)最后,我们的模型可以为每个查询返回k候选API。在波束搜索过程中,我们根据它们的平均概率对生成的候选API进行排序。
(6)基于BeamSearch为每个查询返回最可能的k个候选API,最终模型可以根据其平均概率对生成的候选API进行排序并且向用户推荐完整的API。
(6-1)首先通过逐个扫描每个步骤的API令牌来使用每个时间步的最低成本k令牌,其中k表示波束宽度。
(6-2)在修剪任何剩余的分支后,它继续为后续的标记选择潜在的标记,直到遇到序列结束符号。
(6-3)最后,我们的模型可以为每个查询返回k候选API。在BeamSearch搜索过程中,我们根据它们的平均概率对生成的候选API进行排序。
作为本发明提供的一种基于提示学习和数据增强的API补全方法进一步优化方案,将API推荐问题形式化为一个补全问题,然后提出了一种APICom方法。特别是,APICom在训练过程中考虑提示学习,可以根据提示生成与函数相关的API。此外,APICom利用了一种新的基于梯度的对抗性训练方法ATCom进行数据增强,可以提高其在生成对抗性实例时的稳定性。
该基于提示学习和数据增强进行API补全方法的参数设置如下:
解码层数:12
Hidden_size:768
最大输入长度:48
最大输出长度:16
Beam_search的大小:10
与现有技术相比,本发明的有益效果为:
(1)本发明提出的基于提示学习和数据增强的API补全方法,可以利用用户已知的API前缀信息和启发式规则生成的API提示。
(2)利用了一种新的基于梯度的对抗性训练方法进行数据增强,提高了本发明在生成对抗性实例时的稳定性。
(3)利用CodeT5作为基础模型解决API补全任务,更好的利用了从开发人员分配的标识符传递的代码语义。
(4)通过API补全模型,生成用户所需的API,解决了信息检索方法以及深度学习方法可能面临的问题,例如检索到的top-3个API与用户输入的自然语言查询无关以及生成错误的API等问题,从而更加精确地为用户推荐所需要的API。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明提供的一种基于提示学习和数据增强进行API补全方法的系统框架图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。当然,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
参见图1所示,本实施例提供了一种基于提示学习和数据增强的API补全方法,具体包括以下内容:
(1)通过挖掘Stack Overflow社区中帖子标题和对应的答案,该语料库包含大量API调用序列和相应API文档,对语料库中数据进行去重操作得到一个高质量语料库,最终的语料库包含3319个<自然语言查询,API>对。
(2)通过提示符生成和屏蔽,对API进行随机掩蔽,将未知部分用[mask]标记表示,生成多种提示符,将生成的提示符和原始描述作为模型的输入,完成对数据的预处理操作。对语料库中的数据进行统计,表1、表2分别显示了语料库中Query和API在分词后的长度的详细统计信息。
(3)为了确保与基准方法的公平比较,根据以往研究的数据划分方式,从语料库中提取了1,063对数据作为测试集,其余的语料库作为训练集。
(4)根据提示符和未知部分生成对抗样本,并将其和原始输入作为训练数据来调整API补全模型,以提高模型的鲁棒性和泛化能力,具体包括如下步骤:
(4-1)首先,我们在嵌入层中引入扰动。具体而言,给定输入嵌入序列x,我们通过多次迭代来寻找最佳扰动δ,生成k个对抗性样本。
(4-2)随后,我们利用增强训练集来训练codeT5模型。
(4-3)在更新参数时,我们采用k次迭代的平均梯度Gavg。
(5)使用训练好的模型进行API补全,将查询内容和提示信息输入,自动生成完整的API,具体包括以下步骤:
(5-1)在自注意力层中,首先计算查询和键的点积,然后将每个值除以使用softmax函数计算每个值的权重,从而得到输出矩阵。
(5-2)前馈网络由两个被Relu激活隔开的线性变换组成。
FFN(x)=max(0,xW1+b1)W2+b2
(5-3)层规范化应用于每个子组件的输入。在层规范化之后,剩余的跳过连接将每个子组件的输入添加到其输出。编码器的输出被定义为一个隐藏状态向量Xout。
(5-4)解码器在结构上与编码器相似,但其包含一个掩蔽的自注意力层,以防止模型在训练过程中注意到未知信息。
(5-5)在解码步骤中,该模型利用编码器输出Xout生成下一个API token。模型可以通过softmax层预测下一个token的概率。
(5-6)对于给定的输入文本x,我们利用损失函数L来训练模型参数θ,使其预测的token与实际token的差距最小化。
(6)由于本实施例的方法输出是一个API序列,因此使用了BeamSearch,可以返回最可能的补全API,最终模型可以根据其平均概率对生成的候选API进行排序并且向用户推荐完整的API。
(6-1)首先通过逐个扫描每个步骤的API令牌来使用每个时间步的最低成本k令牌,其中k表示波束宽度。
(6-2)在修剪任何剩余的分支后,它继续为后续的标记选择潜在的标记,直到遇到序列结束符号。
(6-3)最后,模型可以为每个查询返回k候选API。在波束搜索过程中,根据它们的平均概率对生成的候选API进行排序。
所述步骤(2)中使用机器学习中的BERT-whitening来进一步处理语义向量,即通过线性变换对CodeT5提取的语义向量进行关键特征提取和降维,从而减少了存储空间,提高了模型检索速度,训练速度可提高两倍以上。
该基于提示学习和数据增强进行API补全方法的参数设置如下:
解码器层:12
Hidden_size:768
最大输入长度:48
最大输出长度:16
Beam_search的大小:10
(7)在相同的语料库上对本实施例方法和已有API推荐方法进行评估,使用来自信息检索两个广泛使用的性能指标MRR和MAP以及神经机器翻译研究领域的性能指标EM来
自动评估生成注释的质量:
表三本实施例方法与已有API推荐方法的结果对照表
表四本实施例方法与已有深度学习预训练语言模型的结果对照表
经过实验证明,本实施例提出了一种基于提示学习和数据增强的API补全方法,相对于6个先进的基准方法,包括基于信息检索和深度学习的方法。在根据用户输入的自然语言查询推荐API时,能够更加精准。具体来说,相较于信息检索方法RACK、BIKER和CLEAR,本实施例方法在MRR指标上至少提高了5%的性能,在MAP指标上至少提高了8%的性能。相较于深度学习方法PLBART、UniXcoder和CodeBERT,本实施例方法将EM@5指标的性能分别至少提高了58%、30%和25%。这些结果表明本实施例提出的方法具有较高的竞争力和优势。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于提示学习和数据增强的API补全方法,其特征在于,包括以下步骤:
S1、通过挖掘Stack Overflow社区中帖子标题和对应的答案,最终构建了一个包含了33,243个样本的高质量语料库,设定语料库格式为<Query,API>;
S2、对构建的语料库随机划分成训练集、验证集和测试集;
S3、构造提示前缀,将缺失部分打上[MASK]标签,表示模型需要预测的部分;
S4、构建预训练模型CodeT5和ATCom对抗训练方法;
S5、使用编码器生成词嵌入E1,并沿着损失函数上升的方向在Embedding层使用ATCom对抗方法添加扰动,生成一系列对抗样本E2;
S6、使用所述步骤S5得到的词嵌入E1和对抗样本E2对预训练模型CodeT5微调,输出相应完整API。
2.根据权利要求1所述的基于提示学习和数据增强的API补全方法,其特征在于,所述步骤S1包括如下步骤:
S11:搜集高质量的语料库进行实验,该语料库包含大量API调用序列和相应API文档,用于评估API推荐任务,该语料库包含33,243个<Query,API>对;
S12:针对目标API使用随机掩码来构造不同的提示;
S13:添加一个标记在不完整的API之后,以指示API的屏蔽部分,通过训练的模型来预测。
3.根据权利要求1所述的基于提示学习和数据增强的API补全方法,其特征在于,所述步骤S2中,将步骤S1得到的语料库按照80%:10%:10%的比例划分为训练集、测试集和验证集。
4.根据权利要求1所述的基于提示学习和数据增强的API补全方法,其特征在于,所述步骤S3包括如下步骤:
S31:首先,为了生成不完整的API标题,需要准备不同的提示符,假设API包含n个单词,基于API中的.进行单词分割,则需要生成一个随机数Nrand;
S32:然后,生成一个不完整的API,即前缀提示符,将其中最后Nrand个单词屏蔽;
S33:接着,开发人员按线性方式编写API,从第一个单词开始一直到最后一个单词,因此选择屏蔽最后一个连续单词作为屏蔽操作符;
S34:由于研究主要集中在API补全任务上,要求不完整的API至少有一个单词,因此屏蔽操作符最多可以屏蔽n-1个单词;
S35:为了生成不完整的API,采用带有三个不同值的Nrand屏蔽操作符,从而为每个API生成3个不同的不完整标题;
S36:最后,将生成的提示符和原始描述作为建议的模型的输入,最终的输入表示为
5.根据权利要求1所述的基于提示学习和数据增强的API补全方法,其特征在于,所述步骤S4包括以下步骤:
S41:首先,在嵌入层中引入扰动,具体而言,给定输入嵌入序列x,通过多次迭代来寻找最佳扰动δ,生成k个对抗性样本;
S42:随后,利用增强训练集来训练codeT5模型;
S43:在更新参数时,采用k次迭代的平均梯度Gavg。
6.根据权利要求1所述的基于提示学习和数据增强的API补全方法,其特征在于,所述步骤S5包括以下步骤:
S51:在自注意力层中,首先计算查询和键的点积,然后将每个值除以使用softmax函数计算每个值的权重,从而得到输出矩阵;
其中,Q指的是query,即查询、要查询的信息;K指的是key,即索引、被查询的向量、V指的是value,即值、查询到的内容;dk代表k的维,除以k的维度的平方根,使训练时的梯度保持稳定;
S52:前馈网络由两个被Relu激活隔开的线性变换组成;
FFN(x)=max(0,xW1+b1)W2+b2
其中,FFN的指的是Feed Forward Nwtwork,其作用是空间变换;x为输入;W1、B1、W2、B2为可学习的参数;
S53:层规范化应用于每个子组件的输入,在层规范化之后,剩余的跳过连接将每个子组件的输入添加到其输出,编码器的输出被定义为一个隐藏状态向量Xout;
S54:解码器在结构上与编码器相似,但其包含一个掩蔽的自注意力层,以防止模型在训练过程中注意到未知信息;
S55:在解码步骤中,该模型利用编码器输出Xout生成下一个API单词,模型可以通过softmax层预测下一个token的概率;
S56:对于给定的输入文本x,利用损失函数L来训练模型参数θ,使其预测的单词与实际单词的差距最小化;
其中,L表示损失函数;P表示每个类别得到的概率;θ表示模型参数;yi表示样本i的标签。
7.根据权利要求1所述的基于提示学习和数据增强的API补全方法,其特征在于,所述步骤S6包括以下步骤:
S61:首先通过逐个扫描每个步骤的API token使得每个时间步的成本k token最低,其中k表示波束宽度;
S62:在修剪剩余的分支后,它继续为后续的内容选择潜在的token,直到遇到序列结束符号;
S63:最后,模型为每个查询返回k候选API,在beamsearch算法搜索过程中,根据它们的平均概率对生成的候选API进行排序。
8.根据权利要求1所述的基于提示学习和数据增强的API补全方法,其特征在于,参数设置如下:
解码层数:12
Hidden_size:768
最大输入长度:48
最大输出长度:16
Beam_search的大小:10。
CN202310445624.3A 2023-04-24 2023-04-24 一种基于提示学习和数据增强的api补全方法 Pending CN116483337A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310445624.3A CN116483337A (zh) 2023-04-24 2023-04-24 一种基于提示学习和数据增强的api补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310445624.3A CN116483337A (zh) 2023-04-24 2023-04-24 一种基于提示学习和数据增强的api补全方法

Publications (1)

Publication Number Publication Date
CN116483337A true CN116483337A (zh) 2023-07-25

Family

ID=87220865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310445624.3A Pending CN116483337A (zh) 2023-04-24 2023-04-24 一种基于提示学习和数据增强的api补全方法

Country Status (1)

Country Link
CN (1) CN116483337A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116703529A (zh) * 2023-08-02 2023-09-05 山东省人工智能研究院 基于特征空间语义增强的对比学习推荐方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116703529A (zh) * 2023-08-02 2023-09-05 山东省人工智能研究院 基于特征空间语义增强的对比学习推荐方法
CN116703529B (zh) * 2023-08-02 2023-10-20 山东省人工智能研究院 基于特征空间语义增强的对比学习推荐方法

Similar Documents

Publication Publication Date Title
CN111444320B (zh) 文本检索方法、装置、计算机设备和存储介质
US11544474B2 (en) Generation of text from structured data
CN102693309B (zh) 用于计算机辅助翻译的候选短语查询方法及辅助翻译系统
CN102262634B (zh) 一种自动问答方法及系统
CN104598611B (zh) 对搜索条目进行排序的方法及系统
CN106326484A (zh) 搜索词纠错方法及装置
CN103425687A (zh) 一种基于关键词的检索方法和系统
CN105393265A (zh) 人机交互学习中的主动特征化
Koehler et al. Data context informed data wrangling
CN110851584B (zh) 一种法律条文精准推荐系统和方法
CN112163145B (zh) 基于编辑距离与余弦夹角的网站检索方法、装置及设备
CN116151132B (zh) 一种编程学习场景的智能代码补全方法、系统及储存介质
CN111325018B (zh) 一种基于web检索和新词发现的领域词典构建方法
CN1629837A (zh) 电子文档的处理、浏览及分类查询的方法、装置及其系统
CN111881264B (zh) 一种开放领域问答任务中长文本检索的方法和电子设备
US20090234852A1 (en) Sub-linear approximate string match
CN116483337A (zh) 一种基于提示学习和数据增强的api补全方法
CN112434134A (zh) 搜索模型训练方法、装置、终端设备及存储介质
CN113220864A (zh) 智能问答数据处理系统
CN112464655A (zh) 中文字符和拼音相结合的词向量表示方法、装置、介质
CN111597400A (zh) 基于寻路算法的计算机检索系统及方法
CN106776590A (zh) 一种获取词条译文的方法及系统
CN111444414A (zh) 一种用于建模ad-hoc检索任务中多样相关特征的信息检索模型
CN112052649B (zh) 文本生成方法、装置、电子设备及存储介质
CN115757464A (zh) 一种基于深度强化学习的智能物化视图查询方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination