CN117130595A - 代码开发方法、装置、计算机设备和存储介质 - Google Patents

代码开发方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN117130595A
CN117130595A CN202310994435.1A CN202310994435A CN117130595A CN 117130595 A CN117130595 A CN 117130595A CN 202310994435 A CN202310994435 A CN 202310994435A CN 117130595 A CN117130595 A CN 117130595A
Authority
CN
China
Prior art keywords
program code
code
language model
large language
prediction sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310994435.1A
Other languages
English (en)
Inventor
杨旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bank of China Ltd
Original Assignee
Bank of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of China Ltd filed Critical Bank of China Ltd
Priority to CN202310994435.1A priority Critical patent/CN117130595A/zh
Publication of CN117130595A publication Critical patent/CN117130595A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/33Intelligent editors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/70Software maintenance or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Stored Programmes (AREA)

Abstract

本申请涉及一种代码开发方法、装置、计算机设备和存储介质。所述方法包括:获取输入的代码开发需求信息,将代码开发需求信息输入到大语言模型,得到与代码开发需求信息对应的预测程序代码,并获取针对预测程序代码的修改信息,基于修改信息对预测程序代码进行修改,得到与代码开发需求信息对应的目标小程序代码。由于本申请实施例无需开发人员人工编写所有的小程序代码,而是先由大语言模型输出预测程序代码,并对预测程序代码进行修改得到目标程序代码,因此比较省时省力,并且简化了小程序开发流程。

Description

代码开发方法、装置、计算机设备和存储介质
技术领域
本申请涉及人工智能技术领域,特别是涉及一种代码开发方法、装置、计算机设备和存储介质。
背景技术
随着小程序的功能日渐完善,越来越多的应用程序被简化为小程序迅速推出。相较于传统的应用程序,小程序大大降低了开发成本和难度,但也意味着开发人员在小程序的开发过程中需要掌握更多与传统应用程序开发不同的相关技术点。
目前,小程序开发(包括其前端设计及代码书写逻辑等)所有代码都需要开发人员人工编写,尚无小程序代码的自动生成方法,因此,小程序开发比较耗时耗力,开发流程复杂。
发明内容
基于此,有必要针对上述技术问题,提供一种比较省时省力并且能够简化开发流程的代码开发方法、装置、计算机设备和存储介质。
第一方面,本申请提供了一种代码开发方法。该方法包括:
获取输入的代码开发需求信息;
将该代码开发需求信息输入到大语言模型,得到与该代码开发需求信息对应的预测程序代码;该大语言模型为基于收集的小程序代码样本对初始大语言模型进行训练得到;
获取针对该预测程序代码的修改信息,并基于该修改信息对该预测程序代码进行修改,得到与该代码开发需求信息对应的目标小程序代码。
在其中一个实施例中,该方法还包括:
获取该小程序代码样本;
将该小程序代码样本输入到该初始大语言模型,得到第一程序代码预测样本;
根据该第一程序代码预测样本和该小程序代码样本,训练该初始大语言模型得到第一中间模型;
基于该第一中间模型得到该大语言模型。
在其中一个实施例中,该基于该第一中间模型得到该大语言模型,包括:
将目标程序代码预测样本输入到该第一中间模型,得到第二程序代码预测样本;该目标程序代码预测样本为根据该第一程序代码预测样本得到的样本;
根据该第二程序代码预测样本和该目标程序代码预测样本,训练该第一中间模型得到第二中间模型;
根据该第二中间模型得到该大语言模型。
在其中一个实施例中,该根据该第二中间模型得到该大语言模型,包括:
将该第二程序代码预测样本输入到该第二中间模型,并采用近端策略优化算法训练该第二中间模型,得到该大语言模型。
在其中一个实施例中,根据该第一程序代码预测样本和该小程序代码样本,训练该初始大语言模型得到第一中间模型,包括:
确定该第一程序代码预测样本与该小程序代码样本之间的差异;
根据该差异训练该初始大语言模型得到第一中间模型。
在其中一个实施例中,该方法还包括:
将该第一程序代码预测样本作为该目标程序代码预测样本;或者,对该第一程序代码预测样本进行修改得到该目标程序代码预测样本。
在其中一个实施例中,该大语言模型包括:
获取该预测代码的修改信息;
根据该修改信息对该预测代码进行修改,得到与该代码开发需求信息对应的目标小程序代码。
第二方面,本申请还提供了一种代码开发装置,该装置包括:
第一获取模块,用于获取输入的代码开发需求信息;
第二获取模块,用于将该代码开发需求信息输入到大语言模型,得到与该代码开发需求信息对应的预测程序代码;该大语言模型为基于收集的小程序代码样本对初始大语言模型进行训练得到;
修改模块,用于获取针对该预测程序代码的修改信息,并基于该修改信息对该预测程序代码进行修改,得到与该代码开发需求信息对应的目标小程序代码。
第三方面,本申请还提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行该计算机程序时实现上述任一方法的步骤。
第四方面,本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任一方法的步骤。
第五方面,本申请还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述任一方法的步骤。
上述代码代码开发方法、装置、计算机设备和存储介质,通过获取输入的代码开发需求信息,将代码开发需求信息输入到大语言模型,得到与代码开发需求信息对应的预测程序代码,并获取针对预测程序代码的修改信息,基于修改信息对预测程序代码进行修改,得到与代码开发需求信息对应的目标小程序代码。由于本申请实施例无需开发人员人工编写所有的小程序代码,而是先由大语言模型输出预测程序代码,并对预测程序代码进行修改得到目标程序代码,因此比较省时省力,并且简化了小程序开发流程。
附图说明
图1是本申请实施例提供的一种计算机设备的内部结构图;
图2是本申请实施例提供的一种代码开发方法的流程示意图;
图3是本申请实施例提供的一种大语言模型获取方法的流程示意图;
图4是本申请实施例提供的另一种大语言模型获取方法的流程示意图;
图5是本申请实施例提供的第一中间模型获取方法的流程示意图;
图6是本申请实施例提供的目标小程序代码获取流程示意图;
图7是本申请实施例提供的基于ChatGPT模型的小程序开发流程图;
图8是本申请实施例提供的一种代码开发装置的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
目前小程序功能不断完善,来越多的应用程序被简化为小程序迅速推出,同时,越来越多的具有独特应用的小程序被广泛应用。
然而,在小程序开发的整个过程(包括其前端设计及代码书写逻辑等)中,所有代码都需要开发人员人工编写,尚无小程序代码的自动生成方法,因此,小程序开发比较耗时耗力,开发流程复杂。
本申请实施例提供的代码开发方法,可以应用于如图1所示的应用环境中。图1是本申请实施例提供的一种计算机设备的内部结构图,该计算机设备可以是服务器,其内部结构图可以如图1所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种代码开发方法。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,如图2所示,图2是本申请实施例提供的一种代码开发方法的流程示意图,该方法可以应用于图1中计算机设备,该方法包括以下步骤:
S201,获取输入的代码开发需求信息。
代码开发需求信息包括开发人员所需要开发的小程序的名称和功能信息等信息中至少一个信息。
计算机设备可以获取开发人员通过界面输入的开发需求信息,或者,开发人员通过语音输入开发需求信息,计算机设备获取到语音信息后,对语音信息进行解析得到开发需求信息。
S202,将代码开发需求信息输入到大语言模型,得到与代码开发需求信息对应的预测程序代码;大语言模型为基于收集的小程序代码样本对初始大语言模型进行训练得到。
本申请实施例中,大语言模型可以为对已有的GPT-2大语言模型、GPT-3大语言模型、GPT-4大语言模型进行训练后得到的模型。GPT为Generative Pre-trainedTransformer的简称,是OpenAI发布的生成式预训练语言模型。
可选的,可以通过如下方式对初始大语言模型进行训练得到大语言模型:
获取小程序代码样本;将小程序代码样本输入到初始大语言模型,得到第一程序代码预测样本;根据第一程序代码预测样本和小程序代码样本,训练初始大语言模型得到第一中间模型,将第一中间模型作为大语言模型。或者,对第一中间模型进行训练得到大语言模型。
本申请实施例中,可以将代码开发需求信息输入到大语言模型,由大语言模型输出与代码开发需求信息对应的预测程序代码。
S203,获取针对预测程序代码的修改信息,并基于修改信息对预测程序代码进行修改,得到与代码开发需求信息对应的目标小程序代码。
本申请实施例中,通过获取输入的代码开发需求信息,将代码开发需求信息输入到大语言模型,得到与代码开发需求信息对应的预测程序代码,并获取针对预测程序代码的修改信息,基于修改信息对预测程序代码进行修改,得到与代码开发需求信息对应的目标小程序代码。由于本申请实施例无需开发人员人工编写所有的小程序代码,而是先由大语言模型输出预测程序代码,并对预测程序代码进行修改得到目标程序代码,因此比较省时省力,并且简化了小程序开发流程。
参照图3,图3是本申请实施例提供的一种大语言模型获取方法的流程示意图。在上述实施例的基础上,该方法包括如下步骤:
S301,获取小程序代码样本。
本申请实施例中,小程序代码样本包括收集到的若干现有小程序的前端页面代码和逻辑代码等。
计算机设备可以从本地获取已存储的小程序代码数据文件,将小程序代码数据文件作为小程序代码样本。或者可以通过在网络上搜索以获取现有的小程序代码数据,基于搜索得到的小程序代码数据得到小程序代码样本。
S302,将小程序代码样本输入到初始大语言模型,得到第一程序代码预测样本。
本申请实施例中,初始大语言模型可以为已有的GPT-2大语言模型、GPT-3大语言模型、GPT-4大语言模型中的任一个模型。
计算机设备通过将上述获得的小程序代码样本作为训练数据集输入初始大语言模型,得到第一程序代码预测样本。
S303,根据第一程序代码预测样本和小程序代码样本,训练初始大语言模型得到第一中间模型。
本申请实施例中,可以根据第一程序代码预测样本和小程序代码样本确定损失值,基于损失值调整初始大语言模型的超参数,得到第一中间模型。
S304,基于第一中间模型得到大语言模型。
本申请实施例中,可以将第一中间模型作为大语言模型,或者,对第一中间模型进行训练得到大语言模型。
本申请实施例提供的方法,通过获取小程序代码样本,将小程序代码样本输入到初始大语言模型,得到第一程序代码预测样本,第一程序代码预测样本和小程序代码样本,训练初始大语言模型得到第一中间模型,基于第一中间模型得到大语言模型,通过训练得到的大语言模型的精度更高,从而利用较高精度的大语言模型得到的小程序预测代码更加准确。
参照图4,图4是本申请实施例提供的另一种大语言模型获取方法的流程示意图。本实施例涉及的是如何基于第一中间模型得到大语言模型的一种可能的实现方式。在上述实施例的基础上,上述的S304包括如下步骤:
S401,将目标程序代码预测样本输入到第一中间模型,得到第二程序代码预测样本;目标程序代码预测样本为根据第一程序代码预测样本得到的样本。
本申请实施例中,上述第一程序代码预测样本为上述目标程序代码预测样本,或者,对上述第一程序代码预测样本进行修改得到上述目标程序代码预测样本。
计算机设备通过将上述目标程序代码预测样本作为训练数据集输入上述第一中间模型,得到第二程序代码预测样本。
S402,根据第二程序代码预测样本和目标程序代码预测样本,训练第一中间模型得到第二中间模型。
本申请实施例中,可以根据上述第二程序代码预测样本和目标程序代码预测样本确定损失值,基于损失值调整初始大语言模型的参数,得到第二中间模型。
S403,根据第二中间模型得到大语言模型。
本申请实施例中,可以将第二中间模型作为大语言模型,或者,对第二中间模型进行训练得到大语言模型。
本申请实施例提供的方法,通过将目标程序代码预测样本输入到第一中间模型,得到第二程序代码预测样本,根据第二程序代码预测样本和目标程序代码预测样本,训练第一中间模型得到第二中间模型,根据第二中间模型得到大语言模型。通过进一步对第一中间模型进行训练得到第二中间模型,使得对第一中间模型进一步强化,提高得到的第二中间模型的精度,从而提高得到的大语言模型的精度,从而利用较高精度的大语言模型得到的小程序预测代码的准确性也进一步提升。
在上述实施例的基础上,上述的S403,根据第二中间模型得到大语言模型,可以通过如下方式实现:
将第二程序代码预测样本输入到第二中间模型,并采用近端策略优化算法训练第二中间模型,得到大语言模型。
通过将上述第二程序代码预测样本作为训练集,根据近端策略优化算法对上述第二中间模型进行有监督微调训练,得到大语言模型,大语言模块可以为ChatGPT模型。
本申请实施例提供的方法,通过将上述第二程序代码预测样本输入到上述第二中间模型,并采用近端策略优化算法训练第二中间模型,得到大语言模型。经过训练的大语言模型的精度进一步提高,大语言模型的性能也有了较大幅度提升,进而利用大语言模型得到的小程序预测代码的准确性也进一步提升。
参照图5,图5是本申请实施例提供的第一中间模型获取方法的流程示意图。本实施例涉及的是如何根据第一程序代码预测样本和小程序代码样本,训练初始大语言模型得到第一中间模型的一种可能的实现方式。在上述实施例的基础上,上述的S303包括如下步骤:
S501,确定第一程序代码预测样本与小程序代码样本之间的差异。
S502,根据差异训练初始大语言模型得到第一中间模型。
通过对比上述第一程序代码预测样本与上述小程序代码样本的差异,调整上述初始大语言模型的超参数得到第一模型,之后将小程序代码样本输入到第一模型中得到新的第一程序代码预测样本,确定新的第一程序代码预测样本和小程序代码样本之间的新差异,根据新差异调整第一模型的超参数得到第二模型,直至在新差异小于阈值的情况下,将最近一次得到的第二模型作为第一中间模型。
本申请实施例中,通过调整上述训练初始大语言模型的参数,能够提升大语言模型的训练速度,提高大语言模型预测精度,从而利用大语言模型得到的预测程序代码的准确性提升,预测程序代码与目标小程序代码相比,需要的修改信息减少,进一步减少了开发人员对预测程序代码的修改工作量,省时省力。
在上述实施例的基础上,上述的S401中,目标程序代码预测样本可以通过如下方式得到:
将第一程序代码预测样本作为目标程序代码预测样本;或者,对第一程序代码预测样本进行修改得到目标程序代码预测样本。
本申请实施例中,通过将第一程序代码预测样本作为目标程序代码预测样本,或者,对第一程序代码预测样本进行修改得到目标程序代码预测样本,修改得到的目标程序代码预测样本质量更高,从而利用目标程序代码预测样本得到大语言模型准确性更高。
参照图6,图6是本申请实施例提供的目标小程序代码获取流程示意图。本实施例涉及的是如何得到目标小程序代码的一种可能的实现方式,包括如下步骤:
S601,获取预测代码的修改信息。
本申请实施例中,小程序开发人员可以通过对比上述预测程序代码与代码开发需求信息,获得修改信息,计算机设备可以获得开发人员输入的上述修改信息。
S602,根据上述修改信息对上述预测代码进行修改,得到与上述代码开发需求信息对应的目标小程序代码。
本申请实施例中,通过获取预测代码的修改信息,根据修改信息对预测代码进行修改,得到与代码开发需求信息对应的目标小程序代码,能够减少开发人员的工作量,减少小程序开发时间,缩短小程序开发流程。
参照图7,图7是本申请实施例提供的基于ChatGPT模型的小程序开发流程图。该方法包括如下步骤:
S701,获取小程序代码样本。
S702,将小程序代码样本输入到初始大语言模型,得到第一程序代码预测样本。
S703,确定第一程序代码预测样本与小程序代码样本之间的差异。
S704,根据差异训练初始大语言模型得到第一中间模型。
S705,将目标程序代码预测样本输入到第一中间模型,得到第二程序代码预测样本;目标程序代码预测样本为根据第一程序代码预测样本得到的样本。
S706,根据第二程序代码预测样本和目标程序代码预测样本,训练第一中间模型得到第二中间模型。
S707,将第二程序代码预测样本输入到第二中间模型,并采用近端策略优化算法训练第二中间模型,得到大语言模型。
S708,获取输入的代码开发需求信息。
S709,将代码开发需求信息输入到大语言模型,得到与代码开发需求信息对应的预测程序代码;大语言模型为基于收集的小程序代码样本对初始大语言模型进行训练得到。
S710,获取针对预测程序代码的修改信息,并基于修改信息对预测程序代码进行修改,得到与代码开发需求信息对应的目标小程序代码。
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的代码开发方法的代码开发装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个代码开发装置实施例中的具体限定可以参见上文中对于代码开发方法的限定,在此不再赘述。
在一个实施例中,如图8所示,图8是本申请实施例提供的一种代码开发装置的结构框图,该装置800包括:
第一获取模块801,用于获取输入的代码开发需求信息。
第二获取模块802,用于将代码开发需求信息输入到大语言模型,得到与代码开发需求信息对应的预测程序代码;大语言模型为基于收集的小程序代码样本对初始大语言模型进行训练得到。
修改模块803,用于获取针对预测程序代码的修改信息,并基于修改信息对预测程序代码进行修改,得到与代码开发需求信息对应的目标小程序代码。
在其中一个实施例中,装置800还包括:
第三获取模块,用于获取小程序代码样本。
第四获取模块,用于将小程序代码样本输入到初始大语言模型,得到第一程序代码预测样本。
第一训练模块,用于根据第一程序代码预测样本和小程序代码样本,训练初始大语言模型得到第一中间模型。
第五获取模块,用于基于第一中间模型得到大语言模型。
在其中一个实施例中,第五获取模块,包括:
第一获取单元,用于将目标程序代码预测样本输入到第一中间模型,得到第二程序代码预测样本;目标程序代码预测样本为根据第一程序代码预测样本得到的样本;
第一训练单元,用于根据第二程序代码预测样本和目标程序代码预测样本,训练第一中间模型得到第二中间模型;
第二获取单元,用于根据第二中间模型得到大语言模型。
在其中一个实施例中,第二获取单元,具体用于将第二程序代码预测样本输入到第二中间模型,并采用近端策略优化算法训练第二中间模型,得到大语言模型。
在其中一个实施例中,第一训练模块,包括:
第一确定子单元,确定第一程序代码预测样本与小程序代码样本之间的差异;
第二训练子单元,根据差异训练初始大语言模型得到第一中间模型。
在其中一个实施例中,装置800,包括:
确定模块,用于将第一程序代码预测样本作为目标程序代码预测样本;或者,对第一程序代码预测样本进行修改得到目标程序代码预测样本。
在其中一个实施例中,装置800,包括:
第六获取模块,用于获取预测代码的修改信息。
修改模块,用于根据修改信息对预测代码进行修改,得到与代码开发需求信息对应的目标小程序代码。
上述代码开发装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取输入的代码开发需求信息。
将代码开发需求信息输入到大语言模型,得到与代码开发需求信息对应的预测程序代码;大语言模型为基于收集的小程序代码样本对初始大语言模型进行训练得到。
获取针对预测程序代码的修改信息,并基于修改信息对预测程序代码进行修改,得到与代码开发需求信息对应的目标小程序代码。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取小程序代码样本。
将小程序代码样本输入到初始大语言模型,得到第一程序代码预测样本。
根据第一程序代码预测样本和小程序代码样本,训练初始大语言模型得到第一中间模型。
基于第一中间模型得到大语言模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将目标程序代码预测样本输入到第一中间模型,得到第二程序代码预测样本;目标程序代码预测样本为根据第一程序代码预测样本得到的样本。
根据第二程序代码预测样本和目标程序代码预测样本,训练第一中间模型得到第二中间模型。
根据第二中间模型得到大语言模型。
在一个实施例中,处理器执行计算机程序时还实现将第二程序代码预测样本输入到第二中间模型,并采用近端策略优化算法训练第二中间模型,得到大语言模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
确定第一程序代码预测样本与小程序代码样本之间的差异。
根据差异训练初始大语言模型得到第一中间模型。
在一个实施例中,处理器执行计算机程序时还实现将第一程序代码预测样本作为目标程序代码预测样本;或者,对第一程序代码预测样本进行修改得到目标程序代码预测样本。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取预测代码的修改信息。
根据修改信息对预测代码进行修改,得到与代码开发需求信息对应的目标小程序代码。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (11)

1.一种代码开发方法,其特征在于,所述方法包括:
获取输入的代码开发需求信息;
将所述代码开发需求信息输入到大语言模型,得到与所述代码开发需求信息对应的预测程序代码;所述大语言模型为基于收集的小程序代码样本对初始大语言模型进行训练得到;
获取针对所述预测程序代码的修改信息,并基于所述修改信息对所述预测程序代码进行修改,得到与所述代码开发需求信息对应的目标小程序代码。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述小程序代码样本;
将所述小程序代码样本输入到所述初始大语言模型,得到第一程序代码预测样本;
根据所述第一程序代码预测样本和所述小程序代码样本,训练所述初始大语言模型得到第一中间模型;
基于所述第一中间模型得到所述大语言模型。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一中间模型得到所述大语言模型,包括:
将目标程序代码预测样本输入到所述第一中间模型,得到第二程序代码预测样本;所述目标程序代码预测样本为根据所述第一程序代码预测样本得到的样本;
根据所述第二程序代码预测样本和所述目标程序代码预测样本,训练所述第一中间模型得到第二中间模型;
根据所述第二中间模型得到所述大语言模型。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第二中间模型得到所述大语言模型,包括:
将所述第二程序代码预测样本输入到所述第二中间模型,并采用近端策略优化算法训练所述第二中间模型,得到所述大语言模型。
5.根据权利要求2-4任一项所述的方法,其特征在于,根据所述第一程序代码预测样本和所述小程序代码样本,训练所述初始大语言模型得到第一中间模型,包括:
确定所述第一程序代码预测样本与所述小程序代码样本之间的差异;
根据所述差异训练所述初始大语言模型得到第一中间模型。
6.根据权利要求3或4所述的方法,其特征在于,所述方法还包括:
将所述第一程序代码预测样本作为所述目标程序代码预测样本;或者,对所述第一程序代码预测样本进行修改得到所述目标程序代码预测样本。
7.根据权利要求1-4任一项所述的方法,其特征在于,所述方法还包括:
获取所述预测代码的修改信息;
根据所述修改信息对所述预测代码进行修改,得到与所述代码开发需求信息对应的目标小程序代码。
8.一种代码开发装置,其特征在于,所述装置包括:
第一获取模块,用于获取输入的代码开发需求信息;
第二获取模块,用于将所述代码开发需求信息输入到大语言模型,得到与所述代码开发需求信息对应的预测程序代码;所述大语言模型为基于收集的小程序代码样本对初始大语言模型进行训练得到;
修改模块,用于获取针对所述预测程序代码的修改信息,并基于所述修改信息对所述预测程序代码进行修改,得到与所述代码开发需求信息对应的目标小程序代码。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
11.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202310994435.1A 2023-08-08 2023-08-08 代码开发方法、装置、计算机设备和存储介质 Pending CN117130595A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310994435.1A CN117130595A (zh) 2023-08-08 2023-08-08 代码开发方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310994435.1A CN117130595A (zh) 2023-08-08 2023-08-08 代码开发方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN117130595A true CN117130595A (zh) 2023-11-28

Family

ID=88851969

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310994435.1A Pending CN117130595A (zh) 2023-08-08 2023-08-08 代码开发方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN117130595A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118349270A (zh) * 2024-06-13 2024-07-16 杭州海康威视系统技术有限公司 算法管理方法、装置、电子设备及计算机程序产品

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118349270A (zh) * 2024-06-13 2024-07-16 杭州海康威视系统技术有限公司 算法管理方法、装置、电子设备及计算机程序产品

Similar Documents

Publication Publication Date Title
US11144831B2 (en) Regularized neural network architecture search
US11995539B2 (en) Electronic apparatus and method for re-learning trained model
US20200401899A1 (en) Computationally efficient neural network architecture search
CN111562977B (zh) 神经网络模型拆分方法、装置、存储介质和计算机系统
WO2022116436A1 (zh) 长短句文本语义匹配方法、装置、计算机设备及存储介质
US20180268295A1 (en) Risk evaluation method, computer-readable recording medium, and information processing apparatus
CN112016296B (zh) 句子向量生成方法、装置、设备及存储介质
CN111368061B (zh) 短文本过滤方法、装置、介质及计算机设备
CN117130595A (zh) 代码开发方法、装置、计算机设备和存储介质
CN111931492B (zh) 数据扩充混合策略生成方法、装置和计算机设备
CN112633423B (zh) 文本识别模型的训练方法、文本识别方法、装置及设备
CN112395857B (zh) 基于对话系统的语音文本处理方法、装置、设备及介质
EP3832485A1 (en) Question answering systems
WO2021001517A1 (en) Question answering systems
CN108052658B (zh) 基于人工智能的查询信息纠错构架生成方法和装置
CN113222014A (zh) 图像分类模型训练方法、装置、计算机设备和存储介质
CN110413994B (zh) 热点话题生成方法、装置、计算机设备和存储介质
CN110276081B (zh) 文本生成方法、装置及存储介质
CN111832693A (zh) 神经网络层运算、模型训练方法、装置及设备
CN111737417B (zh) 修正自然语言生成结果的方法和装置
CN117421241A (zh) 一种软件测试用例生成方法及装置
CN117634599A (zh) 基于知识图谱的路径推理方法、装置、电子设备及介质
CN113239171B (zh) 对话管理系统更新方法、装置、计算机设备及存储介质
CN112905763B (zh) 会话系统开发方法、装置、计算机设备及存储介质
CN111061875B (zh) 超参数确定方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination