CN112799655A - 一种基于预训练的多类型代码自动生成方法、装置及介质 - Google Patents
一种基于预训练的多类型代码自动生成方法、装置及介质 Download PDFInfo
- Publication number
- CN112799655A CN112799655A CN202110102379.7A CN202110102379A CN112799655A CN 112799655 A CN112799655 A CN 112799655A CN 202110102379 A CN202110102379 A CN 202110102379A CN 112799655 A CN112799655 A CN 112799655A
- Authority
- CN
- China
- Prior art keywords
- code
- generation model
- automatic
- internet
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 title claims abstract description 36
- 230000006870 function Effects 0.000 claims abstract description 48
- 238000012937 correction Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000000694 effects Effects 0.000 description 16
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/34—Graphical or visual programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/38—Creation or generation of source code for implementing user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/44—Encoding
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于预训练的多类型代码自动生成方法、装置及介质,属于文本生成领域。本发明主要包括利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的步骤;向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示的步骤;以及利用代码功能语义表示通过自动代码生成模型的代码解码器自动生成目标代码的步骤。本发明的有益效果是,利用了互联网上现成的海量代码数据资料,通过预训练技术提高文本生成模型生成代码的精度,自动生成多种语言类型的代码,可以极大的提高写代码的效率以及实现代码自动纠错。
Description
技术领域
本发明申请涉及文本生成领域,特别是一种基于预训练的多类型代码自动生成方法、装置及介质。
背景技术
在文本生成领域,随着深度学习和自然语言处理技术的发展,文本生成技术越来越成熟,越来越多的文本可以通过文本生成模型实现自动生成。代码作为一种特殊的文本,在计算机领域存在着广泛的应用,人们对于自动生成的代码的需求也越来越强烈。当前互联网上本身存在着海量的代码数据,比如github等网站上就现存着各种代码语言类型的大量代码,可以直接利用这些代码进行代码数据的自动生成。那么如何利用互联网上的海量代码数据通过文本生成模型,实现不同类型的自动代码自动生成呢。
发明内容
本发明申请提供了一种基于预训练的多类型代码自动生成方法、装置及介质,利用文本生成模型通过预训练,实现代码的自动生成。
为了实现上述目的,本发明申请采用的技术方案是,提供一种基于预训练的多类型代码自动生成方法,包括步骤:
利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型;
向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示;以及,
利用代码功能语义表示通过自动代码生成模型的代码解码器自动生成目标代码。
本发明申请的另外一个技术方案为,提供这一种基于预训练的多类型代码自动生成装置,包括:
用于利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的模块;
用于向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示的模块;以及,
用于利用代码功能语义表示通过自动代码生成模型的代码解码器自动生成目标代码的模块。
本发明申请的另外一个技术方案为,提供一种计算机可读存储介质,其存储计算机指令,其中计算机指令被操作用于执行上述基于预训练的多类型代码自动生成方法。
本发明申请的有益效果是:
本发明申请利用了互联网上现成的海量代码数据资料,通过预训练技术提高文本生成模型的生成代码的精度,自动生成多种语言类型的代码,可以极大的提高写代码的效率以及实现代码自动纠错。
附图说明
图1是本发明申请一种基于预训练的多类型代码自动生成方法的一个具体实施方式流程示意图;
图2是本发明申请一种基于预训练的多类型代码自动生成装置一个具体实施方式示意图;
具体实施方式
下面结合附图对本发明较佳实施例进行详细阐述,以使本发明的优点和特征更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚的界定。
需要说明的是,在本文中,诸如第一第二等之类的关系属于仅仅用来将一个实体或操作与另外一个实体或操作区分开来,而不一定要求或暗示这些实际操作之间存在任何这种实际的关系或顺序。而且,术语“包括”、“包含”或者任何其他变体意在涵盖非排他性的包含,从而使得包含一系列要素的过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
图1的流程图示出了本发明一种基于预训练的多类型代码自动生成方法的一个具体实施方式。
在图1所示的具体实施方式中,本申请基于预训练的多类型代码自动生成方法,包括过程S101、过程S102以及过程103。
图1示出的过程S101表示的是利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的过程,可以通过预训练技术提高文本生成模型的生成代码的效果,得到能够高精度生成代码的自动代码生成模型。
在本申请的一个具体实施例中,上述利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的过程包括,利用文本生成模型对互联网上的代码数据进行学习。使得文本生成模型能够充分地学习互联网上海量代码数据中的知识,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实施例中,上述利用文本生成模型对互联网上的代码数据进行学习的过程包括,利用文本生成模型对互联网上的代码数据的代码功能进行学习。使得文本生成模型能够充分地学习互联网上海量代码数据中代码功能的知识,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体是实例中,上述利用文本生成模型对互联网上的代码数据的代码功能进行学习的过程包括,利用文本生成模型对互联网上的代码数据的注释进行学习。注释往往能够反映代码数据的代码功能,因此对注释的学习使得文本生成模型能够充分地学习互联网上海量代码数据中代码功能的知识,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实施例中,上述利用文本生成模型对互联网上的代码数据进行学习的过程包括,利用文本生成模型对互联网上的代码数据的代码语言进行学习。使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言的知识,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实施例中,上述利用文本生成模型对互联网上的代码数据的代码语言进行学习的过程包括,利用文本生成模型对互联网上代码数据的代码语言类型进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言类型的知识,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实例中,上述利用文本生成模型对互联网上的代码数据的代码语言进行学习的过程包括,利用文本生成模型对互联网上代码数据的代码语言类型Python进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言类型的知识,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实例中,上述利用文本生成模型对互联网上的代码数据的代码语言进行学习的过程包括,利用文本生成模型对互联网上代码数据的代码语言类型C++进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言类型的知识,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实施例中,上述利用文本生成模型对互联网上代码数据的代码语言类型进行学习的过程包括,利用文本生成模型对互联网上代码数据的代码语言所属的语言类别进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言所属的语言类别,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实例中,上述利用文本生成模型对互联网上代码数据的代码语言所属的语言类别进行学习的过程为,利用文本生成模型对互联网上代码数据的代码语言是否为Python进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言所属的语言类别,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实例中,上述利用文本生成模型对互联网上代码数据的代码语言所属的语言类别进行学习的过程为,利用文本生成模型对互联网上代码数据的代码语言是否为C++进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言所属的语言类别,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实施例中,上述利用文本生成模型对互联网上代码数据的代码语言类型进行学习的过程包括,利用文本生成模型对互联网上代码数据的代码语言所属的语言类别的特性进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言所属的语言类别特性进行学习,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实例中,上述利用文本生成模型对互联网上代码数据的代码语言所属的语言类别的特点进行学习,利用文本生成模型对互联网上代码数据的代码语言类型Python的特性进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言所属的语言类别特性进行学习,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实例中,上述利用文本生成模型对互联网上代码数据的代码语言所属的语言类别的特点进行学习,利用文本生成模型对互联网上代码数据的代码语言类型C++的特性进行学习,使得文本生成模型能够充分地学习互联网上海量代码数据中代码语言所属的语言类别特性进行学习,以便提高文本生成模型生成代码的效果,得到自动代码生成模型。
在本申请的一个具体实施例中,以上所说的用于对互联网上的代码数据进行学习的文本生成模型可以为,transformer文本生成模型。
图1示出的过程S102表示的是向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示,以便进一步利用语义特征表自动生成目标代码。
在本申请的一个具体实施例中,上述向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示过程中,所输入的目标代码的功能描述可以为互联网上代码数据的注释,以便进一步自动生成符合目标代码要求的代码。
在本申请的一个具体实施例中,上述向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器所得到的代码功能语义特征表示,其中的内容包括目标代码所要实现的功能,以便进一步自动生成符合对于功能的要求的目标代码。
在本申请的一个具体实施例中,上述向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示过程中,所输入的目标代码语言类型可以为python,以便进一步自动生成目标代码语言为python的目标代码。
在本申请的一个具体实施例中,上述向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示过程中,所输入的目标代码语言类型可以为python,以便进一步自动生成目标代码语言为python的目标代码。
在本申请的一个具体实例中,如果用X表示代码功能描述,用L表示目标代码语言,用Z表示代码功能语义特征表示,那么X、L、Z之间的关系可以表示为,Z=f(X,L)。
图1示出的过程S103表示的是利用代码功能语义表示通过所述自动代码生成模型的代码解码器自动生成目标代码的过程,可以最终自动生成多种语言类型的代码极大的提高写代码的效率以及实现代码自动纠错。
在本申请的一个具体实施例中,如果用X表示代码功能描述,用Y表示目标代码,用L表示目标代码语言,用Z表示代码功能语义特征表示,那么目标代码Y=g(Z),整个自动代码生成的流程为Y=g(f(X,L)),这样就能够自动生成多种语言类型的代码极大的提高写代码的效率以及实现代码自动纠错。
图2的示意图示出了本申请一种基于预训练的多类型代码自动生成装置的一个具体实施方式。
在图2示出的示意图中,本申请一种基于预训练的多类型代码自动生成装置包括模块201,模块202以及模块203。
图2示出的模块201表示的是用于利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的模块,能够通过预训练技术提高文本生成模型的生成代码的效果,得到能够高精度生成代码的自动代码生成模型。
在本申请的一个具体实施例中,上述利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的模块,能够利用文本生成模型对互联网上的海量代码数据进行学习,从而提高文本生成模型的生成代码的效果,得到能够高精度生成代码的自动代码生成模型。
在本申请的一个具体实施例中,上述利用文本生成模型对互联网上的海量代码数据进行学习的文本生成模型可以为transformer文本生成模型。
图2示出的模块202表示的是用于向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示的模块,得到代码语义功能表示以便进一步自动生成目标代码。
在本申请的一个具体实施例中,上述用于向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示的模块中得到的代码功能语义特征表示包括,目标代码所要实现的功能,以便进一步自动生成符合对于功能的要求的目标代码。
图2示出的模块203表示的是用于利用代码功能语义表示通过自动代码生成模型的代码解码器自动生成目标代码的模块,能够最终自动生成多种语言类型的代码极大的提高写代码的效率以及实现代码自动纠错。
在本申请的一个具体实施例中,如果用X表示代码功能描述,用Y表示目标代码,用L表示目标代码语言,用Z表示代码功能语义特征表示,那么Z=f(X,L),Y=g(Z),整个自动代码生成的流程为Y=g(f(X,L)),这样就能够自动生成多种语言类型的代码极大的提高写代码的效率以及实现代码自动纠错。
在本申请的一个具体实施方式中,本申请的一种基于预训练的多类型代码自动生成装置的用于利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的模块、向自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用自动代码生成模型的代码编码器得到代码功能语义特征表示的模块,以及用于利用代码功能语义表示通过自动代码生成模型的代码解码器自动生成目标代码的模块可直接在硬件中、在由处理器执行的软件模块中或在两者的组合中。
软件模块可驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可装卸盘、CD-ROM或此项技术中已知的任何其它形式的存储介质中。示范性存储介质耦合到处理器,使得处理器可从存储介质读取信息和向存储介质写入信息。
处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application Specific Integrated Circuit,简称:ASIC)、现场可编程门阵列(英文:Field Programmable Gate Array,简称:FPGA)或其它可编程逻辑装置、离散门或晶体管逻辑、离散硬件组件或其任何组合等。通用处理器可以是微处理器,但在替代方案中,处理器可以是任何常规处理器、控制器、微控制器或状态机。处理器还可实施为计算装置的组合,例如DSP与微处理器的组合、多个微处理器、结合DSP核心的一个或一个以上微处理器或任何其它此类配置。在替代方案中,存储介质可与处理器成一体式。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替代方案中,处理器和存储介质可作为离散组件驻留在用户终端中。
在本申请的一个具体实施方式中,一种计算机可读存储介质,其存储计算机指令,计算机指令被操作以执行任一实施例描述的基于预训练的多类型代码自动生成方法。
在本申请所提供的实施方式中,应该理解到,所揭露的方法和系统,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分仅仅为一种逻辑功能的划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以省略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些借口,装置或单元的间接耦合或通信连接,可以是典型,机械或其他的形式。
所述作为分离不见说明的单元可以是或者可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种基于预训练的多类型代码自动生成方法,其特征在于包括,
利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型;
向所述自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用所述自动代码生成模型的代码编码器得到代码功能语义特征表示;以及,
利用所述代码功能语义表示通过所述自动代码生成模型的代码解码器自动生成目标代码。
2.根据权利要求1所述的基于预训练的多类型代码自动生成方法,其特征在于,所述利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的过程包括,利用所述文本生成模型对所述互联网上的所述代码数据进行学习。
3.根据权利要求2所述的基于预训练的多类型代码自动生成方法,其特征在于,所述利用所述文本生成模型对所述互联网上的所述代码数据进行学习的过程包括,对所述互联网上的所述代码数据的代码功能描述进行学习。
4.根据权利要求3所述的基于预训练的多类型代码自动生成方法,其特征在于,对所述互联网上的所述代码数据的代码功能描述进行学习的过程包括,
对所述互联网上的所述代码数据的注释进行学习。
5.根据权利要求2所述的基于预训练的多类型代码自动生成方法,其特征在于,所述利用所述文本生成模型对所述互联网上的所述代码数据进行学习的过程包括,对所述互联网上的所述代码数据的代码语言进行学习。
6.根据权利要求5所述的基于预训练的多类型代码自动生成方法,其特征在于,所述对所述互联网上的所述代码数据的代码语言进行学习的过程包括,对所述代码语言的类型进行学习。
7.根据权利要求1所述的基于预训练的多类型代码自动生成方法,其特征在于,所述代码功能语义特征表示包括所述目标代码的所要实现的功能。
8.根据权利要求1所述的基于预训练的多类型代码自动生成方法,其特征在于包括,所述文本生成模型包括transformer文本生成模型。
9.一种基于预训练的多类型代码自动生成装置,其特征在于包括:
用于利用互联网上的代码数据对文本生成模型进行预训练得到自动代码生成模型的模块;
用于向所述自动代码生成模型中输入目标代码功能描述和目标代码语言类型,利用所述自动代码生成模型的代码编码器得到代码功能语义特征表示的模块;以及,
用于利用所述代码功能语义表示通过所述自动代码生成模型的代码解码器自动生成目标代码的模块。
10.一种计算机可读存储介质,其存储计算机指令,其中所述计算机指令被操作用于执行权利要求1-8任一所述的基于预训练的多类型代码自动生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110102379.7A CN112799655A (zh) | 2021-01-26 | 2021-01-26 | 一种基于预训练的多类型代码自动生成方法、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110102379.7A CN112799655A (zh) | 2021-01-26 | 2021-01-26 | 一种基于预训练的多类型代码自动生成方法、装置及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112799655A true CN112799655A (zh) | 2021-05-14 |
Family
ID=75811799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110102379.7A Pending CN112799655A (zh) | 2021-01-26 | 2021-01-26 | 一种基于预训练的多类型代码自动生成方法、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112799655A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113434136A (zh) * | 2021-06-30 | 2021-09-24 | 平安科技(深圳)有限公司 | 代码生成方法、装置、电子设备及存储介质 |
CN116991391A (zh) * | 2023-09-26 | 2023-11-03 | 北京一平方科技有限公司 | 基于大语言模型的代码生成补缺方法 |
CN117289940A (zh) * | 2023-08-28 | 2023-12-26 | 深圳市众为精密科技有限公司 | 基于机外编程软件的蔡司三次元设备的优化方法及其系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040044990A1 (en) * | 2002-08-28 | 2004-03-04 | Honeywell International Inc. | Model-based composable code generation |
US20060158354A1 (en) * | 2002-08-02 | 2006-07-20 | Jan Aberg | Optimised code generation |
CN109614111A (zh) * | 2018-12-28 | 2019-04-12 | 北京百度网讯科技有限公司 | 用于生成代码的方法和装置 |
CN110941427A (zh) * | 2019-11-15 | 2020-03-31 | 珠海豹趣科技有限公司 | 代码生成方法及代码生成器 |
US10614382B1 (en) * | 2019-07-12 | 2020-04-07 | Capital One Services, Llc | Computer-based systems and methods configured to utilize automating deployment of predictive models for machine learning tasks |
-
2021
- 2021-01-26 CN CN202110102379.7A patent/CN112799655A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060158354A1 (en) * | 2002-08-02 | 2006-07-20 | Jan Aberg | Optimised code generation |
US20040044990A1 (en) * | 2002-08-28 | 2004-03-04 | Honeywell International Inc. | Model-based composable code generation |
CN109614111A (zh) * | 2018-12-28 | 2019-04-12 | 北京百度网讯科技有限公司 | 用于生成代码的方法和装置 |
US10614382B1 (en) * | 2019-07-12 | 2020-04-07 | Capital One Services, Llc | Computer-based systems and methods configured to utilize automating deployment of predictive models for machine learning tasks |
CN110941427A (zh) * | 2019-11-15 | 2020-03-31 | 珠海豹趣科技有限公司 | 代码生成方法及代码生成器 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113434136A (zh) * | 2021-06-30 | 2021-09-24 | 平安科技(深圳)有限公司 | 代码生成方法、装置、电子设备及存储介质 |
CN113434136B (zh) * | 2021-06-30 | 2024-03-05 | 平安科技(深圳)有限公司 | 代码生成方法、装置、电子设备及存储介质 |
CN117289940A (zh) * | 2023-08-28 | 2023-12-26 | 深圳市众为精密科技有限公司 | 基于机外编程软件的蔡司三次元设备的优化方法及其系统 |
CN116991391A (zh) * | 2023-09-26 | 2023-11-03 | 北京一平方科技有限公司 | 基于大语言模型的代码生成补缺方法 |
CN116991391B (zh) * | 2023-09-26 | 2023-12-08 | 北京一平方科技有限公司 | 基于大语言模型的代码生成补缺方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112799655A (zh) | 一种基于预训练的多类型代码自动生成方法、装置及介质 | |
Potter et al. | An introduction to formal specification and Z | |
CN110888966B (zh) | 自然语言问答 | |
Hogger | Introduction to logic programming | |
Torczon et al. | Engineering a compiler | |
Yalamanchili | VHDL starter's guide | |
Burns | Concurrent programming in Ada | |
TW201901661A (zh) | 語音識別方法及系統 | |
Dierbach | Introduction to computer science using python: A computational problem-solving focus | |
US20100223214A1 (en) | Automatic extraction using machine learning based robust structural extractors | |
CN102855244B (zh) | 文档目录处理方法和装置 | |
Heinkel et al. | The VHDL Reference: A Practical Guide to Computer-Aided Integrated Circuit Design (Including VHDL-AMS) with Other | |
CN111209396A (zh) | 实体识别模型的训练方法及实体识别方法、相关装置 | |
Diab | Word sense disambiguation within a multilingual framework | |
CN111753140A (zh) | Xml文件解析方法及相关设备 | |
CN101770388A (zh) | 获取芯片代码信息的方法和装置 | |
CN110175022B (zh) | 自动生成pojo类的方法、装置及存储介质、计算机设备 | |
CN111143038A (zh) | Risc-v架构微处理器内核信息模型建模及生成方法 | |
Perez-Marin | Adaptive Computer Assisted Assessment of free-text students' answers: an approach to automatically generate students' conceptual models | |
McFarland | Microprocessor Design | |
CN109902309B (zh) | 翻译方法、装置、设备和存储介质 | |
CN111738008A (zh) | 基于多层模型的实体识别方法、装置、设备及存储介质 | |
CN115390936A (zh) | 统一校验方法、装置、设备和存储介质 | |
Kari et al. | Descriptional complexity of error/edit systems | |
CN104657340A (zh) | 可扩展基于脚本的Word报告生成系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210514 |