CN116028031A - 代码自动生成模型训练方法、系统及存储介质 - Google Patents
代码自动生成模型训练方法、系统及存储介质 Download PDFInfo
- Publication number
- CN116028031A CN116028031A CN202310315734.8A CN202310315734A CN116028031A CN 116028031 A CN116028031 A CN 116028031A CN 202310315734 A CN202310315734 A CN 202310315734A CN 116028031 A CN116028031 A CN 116028031A
- Authority
- CN
- China
- Prior art keywords
- model
- initial
- semantic analysis
- final
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000003860 storage Methods 0.000 title claims abstract description 12
- 238000004458 analytical method Methods 0.000 claims abstract description 105
- 230000004931 aggregating effect Effects 0.000 claims abstract description 4
- 238000004220 aggregation Methods 0.000 claims description 24
- 230000002776 aggregation Effects 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 4
- 238000012706 support-vector machine Methods 0.000 claims description 4
- 238000003754 machining Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 10
- 238000006116 polymerization reaction Methods 0.000 description 9
- 238000009826 distribution Methods 0.000 description 7
- 230000006872 improvement Effects 0.000 description 5
- 125000004122 cyclic group Chemical group 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明公开了一种代码自动生成模型训练方法、系统及存储介质,所述方法包括:客户端利用预先准备的数据集训练好初始语音识别模型、初始语义分析模型和初始代码生成模型后,上传至服务器,服务器对多个客户端上传的初始语音识别模型、初始语义分析模型和初始代码生成模型分别进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型并下发各个客户端。本发明能够利用训练得到的模型根据用户输入的语音信息自动生成数控机床的加工代码,不再需要人工编写代码,降低了人工消耗,提升了工作效率,且将多个客户端训练的模型进行聚合的方式使得模型能够学习到更多的特征和规律,提升了模型的预测准确率。
Description
技术领域
本申请涉及数控机床加工技术领域,特别是涉及一种代码自动生成模型训练方法、系统及存储介质。
背景技术
数控机床是数字控制机床(Computer numerical control machine tools)的简称,是一种装有程序控制系统的自动化机床。该控制系统能够逻辑地处理具有控制编码或其他符号指令规定的程序,并将其译码,用代码化的数字表示,通过信息载体输入数控装置。经运算处理由数控装置发出各种控制信号,控制机床的动作,按图纸要求的形状和尺寸,自动地将零件加工出来。
目前,编写数控加工代码的难点在于精确计算和描述每个加工步骤,以及避免代码中的语法错误和逻辑错误。数控程序员需要具备数学、机械和编程方面的知识,同时需要对加工工艺和机床操作有深入的理解。同时,数控程序员还需要不断学习新技术和工具,以应对不断变化的加工需求,其导致数控加工代码对人工的要求较高,并且效率较低。
发明内容
有鉴于此,本申请提供一种代码自动生成模型训练方法、系统及存储介质,以解决现有数控机床加工代码的编写过于依赖人工知识水平且效率低下的问题。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种代码自动生成模型训练方法,其应用于代码自动生成模型训练系统,代码自动生成模型训练系统包括服务器和与服务器通信连接的多个客户端;方法包括:客户端利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,得到初始语音识别模型、初始语义分析模型和初始代码生成模型,语音数据集、文本数据集、代码数据集中均包括不同类型加工任务对应的数据子集;客户端将初始语音识别模型、初始语义分析模型和初始代码生成模型上传至服务器;服务器基于预设的聚合方式分别对初始语音识别模型、初始语义分析模型和初始代码生成模型进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型;服务器将最终语音识别模型、最终语义分析模型和最终代码生成模型反馈至各个客户端。
作为本申请的进一步改进,客户端利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,包括:客户端获取预先设定的加工任务的类型;客户端利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,且在训练过程中基于预设的自适应权重调整方式调整各个类型的加工任务的权重。
作为本申请的进一步改进,语音识别模型基于循环神经网络或卷积神经网络实现,语义分析模型基于循环神经网络、卷积神经网络、支持向量机或朴素贝叶斯中的一种实现,代码生成模型基于循环神经网络或Transformer网络实现。
作为本申请的进一步改进,预设的聚合方式包括加权平均聚合法和梯度聚合法中的一种。
作为本申请的进一步改进,服务器将最终语音识别模型、最终语义分析模型和最终代码生成模型反馈至各个客户端之后,还包括:客户端接收用户输入的加工要求语音信息;客户端将加工要求语音信息输入至最终语音识别模型进行语文本转换,得到加工要求文本信息;客户端将加工要求文本信息输入至最终语义分析模型进行语义分析,得到关键信息;客户端将关键信息输入至最终代码生成模型,得到相应的加工代码。
作为本申请的进一步改进,客户端将加工要求文本信息输入至最终语义分析模型进行语义分析,得到关键信息,包括:客户端对加工要求文本信息进行清洗操作;客户端将清洗后的加工要求文本信息按预设规则划分为多个独立的单元;客户端对每个单元的文本进行词性标注;客户端识别并提取清洗后的加工要求文本信息中的实体信息;客户端基于进行词性标注后的文本和实体信息进行语义分析,提取得到关键信息。
为解决上述技术问题,本申请采用的再一个技术方案是:提供一种代码自动生成模型训练系统,其包括服务器和客户端,客户端包括模型训练模块和模型上传模块,服务器包括模型聚合模块和模型反馈模块:模型训练模块,用于利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,得到初始语音识别模型、初始语义分析模型和初始代码生成模型,语音数据集、文本数据集、代码数据集中均包括不同类型加工任务对应的数据子集;模型上传模块,用于将初始语音识别模型、初始语义分析模型和初始代码生成模型上传至服务器;模型聚合模块,用于基于预设的聚合方式分别对初始语音识别模型、初始语义分析模型和初始代码生成模型进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型;模型反馈模块,用于将最终语音识别模型、最终语义分析模型和最终代码生成模型反馈至各个客户端。
为解决上述技术问题,本申请采用的再一个技术方案是:提供一种存储介质,存储有能够实现上述任一项的代码自动生成模型训练方法的程序指令。
本申请的有益效果是:本申请的代码自动生成方法通过在客户端本地训练得到初始语音识别模型、初始语义分析模型和初始代码生成模型,再将各个客户端得到的初始语音识别模型、初始语义分析模型和初始代码生成模型上传至服务器,由服务器对所有客户端的初始语音识别模型、初始语义分析模型和初始代码生成模型分别进行聚合,再将聚合得到的最终语音识别模型、最终语义分析模型和最终代码生成模型发送至各个客户端,以供各个客户端使用,该聚合方式得到的模型能够更为全面的学习到特征或规律,进而保证模型具有更高的准确度。并且,训练好的模型还能够直接根据用户输入的语音信息自动生成数控机床的加工代码,不再需要人工编写代码,降低了人工消耗,提升了工作效率。此外,对模型进行训练的语音数据集、文本数据集、代码数据集中均包括不同类型加工任务对应的数据子集,从而使得训练得到的模型能完成不同类型的加工任务,能力更为全面。
附图说明
图1是本发明实施例的数控机床加工代码自动生成系统一实施例的结构示意图;
图2是本发明实施例的代码自动生成模型训练方法的一流程示意图;
图3是本发明实施例的代码自动生成模型训练方法的另一流程示意图;
图4是本发明实施例的代码自动生成模型训练系统的功能模块示意图;
图5是本发明实施例的代码自动生成模型训练系统的客户端的功能模块示意图;
图6是本发明实施例的客户端的结构示意图;
图7是本发明实施例的服务器的结构示意图;
图8是本发明实施例的存储介质的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为便于理解本申请,先对本申请数控机床加工代码自动生成系统进行举例说明。
请参阅图1,图1是本发明代码自动生成模型训练系统一实施例的结构示意图。本实施例中,该系统包括服务器1以及与服务器1连接的若干客户端2。其中,客户端2可通过WIFI等无线网络或者以太网等有线网络与服务器1连接。该客户端2可以为能够提供被用户操作的任意终端,例如为手机、平板电脑、笔记本等。服务器1可以为云端服务器。
具体地,客户端2用于在本地训练得到初始语音识别模型、初始语义分析模型、初始代码生成模型,并将训练得到的初始语音识别模型、初始语义分析模型、初始代码生成模型上传至服务器1;服务器1将各个客户端2上传的初始语音识别模型、初始语义分析模型、初始代码生成模型分别进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型,再将最终语音识别模型、最终语义分析模型和最终代码生成模型下发至各个客户端2。此外,客户端2还用于采集用户的加工要求语音信息,再利用语音识别模型将语音信息转换为文本信息,然后利用语义分析模型从文本信息中提取其中的关键信息,最后利用代码生成模型根据关键信息自动生成相应的加工代码。本实施例通过在将本地训练的模型上传至服务器1进行聚合,再将聚合得到的最新模型反馈至各个客户端2,能够将在不同的数据子集或不同的训练条件下学习到的不同的特征或规律进行整合,从而得到更全面、更准确的特征或规律,使得模型的准确性更高。并且,模型在训练好之后还能够实现加工代码的自动生成,用户只需要通过语音输入加工要求语音信息即可,降低了对用户的编程能力的限制,并且相比于人工编写加工代码而言,其效率更高。
图2是本发明实施例的代码自动生成模型训练方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图2所示的流程顺序为限。该代码自动生成模型训练方法应用于代码自动生成模型训练系统,代码自动生成模型训练系统包括服务器和与服务器通信连接的多个客户端。如图2所示,该方法包括步骤:
步骤S101:客户端利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,得到初始语音识别模型、初始语义分析模型和初始代码生成模型,语音数据集、文本数据集、代码数据集中均包括不同类型加工任务对应的数据子集。
具体地,本实施例中,通过预先设定模型任务,定义损失函数,利用预先准备的语音数据集、文本数据集、代码数据集,结合模型任务和损失函数分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,直至到达预设精度要求时为止,得到初始语音识别模型、初始语义分析模型和初始代码生成模型。
需要说明的是,数控机床的加工任务并不只局限于一种,比如不同批次或不同订单的加工任务的主要加工方式和参数不同,从而导致不同的加工任务具有批次特性,因此,为了使得模型更加适应不同的加工任务,本实施例中语音数据集、文本数据集、代码数据集中均包括不同类型加工任务对应的数据子集,从而能够对语音识别模型、语义分析模型、代码生成模型进行全方面的训练,使得训练得到的初始语音识别模型、初始语义分析模型和初始代码生成模型能够执行不同类型的加工任务,而不是局限于某一类型的加工任务。
进一步的,步骤S101具体包括:
1、客户端获取预先设定的加工任务的类型。
具体地,用户可以根据加工任务的具体需求进行加工任务划分,例如加工圆柱体和加工长方体的任务就可以划分为两种加工任务。
2、客户端利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,且在训练过程中基于预设的自适应权重调整方式调整各个类型的加工任务的权重。
需要说明的是,为了保证对模型的训练,该预先准备的语音数据集、文本数据集、代码数据集均需要包括所有加工任务对应的数据子集。
具体地,在训练模型的过程中,利用预设的自适应权重调整方式调整各个类型的加工任务的权重,从而让每个任务对模型的影响相等或者合理。其中,自适应权重调整方法可以通过监督学习中的动态权重分配方法实现。该方法可以根据不同加工任务的学习进度来自适应地调整任务的权重,使得对于难度较大的加工任务分配更高的权重,对于难度较小的加工任务分配较低的权重,以保证每个加工任务对模型的影响相等或者合理。具体可采用梯度反向传播法、基于误差分解的方法、基于置信度的方法、基于样本分布的方法中的一种。梯度反向传播(gradient backpropagation):基于反向传播算法,可以根据每个任务的梯度来动态调整任务的权重,使得对于梯度较大的任务分配更高的权重,对于梯度较小的任务分配较低的权重;基于误差分解的方法(error decomposition-based methods):将模型的总误差分解成各个任务的误差之和,然后根据每个任务的误差比例来动态调整任务的权重;基于置信度的方法(confidence-based methods):对于每个任务,可以根据模型对该任务的置信度来动态调整任务的权重,使得对于置信度较高的任务分配更高的权重,对于置信度较低的任务分配较低的权重;基于样本分布的方法(sample distribution-basedmethods):对于每个任务,可以根据模型在训练集上对该任务的样本分布情况来动态调整任务的权重,使得对于样本分布较均匀的任务分配较低的权重,对于样本分布不均匀的任务分配较高的权重。
步骤S102:客户端将初始语音识别模型、初始语义分析模型和初始代码生成模型上传至服务器。
具体地,客户端在完成对语音识别模型、语义分析模型、代码生成模型的初步训练后,将训练好的模型上传至服务器中。
步骤S103:服务器基于预设的聚合方式分别对初始语音识别模型、初始语义分析模型和初始代码生成模型进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型。
需要说明的是,预设的聚合方式包括加权平均聚合法和梯度聚合法中的一种。
具体地,加权平均聚合方法是指将所有本地模型的参数进行平均,并对平均后的参数进行加权处理。每个本地模型的权重可以根据其准确性、训练时间等指标来确定,具体来说,如果有个本地模型,每个模型的参数为,权重为,则聚合后的模型参数为:,其中,表示所有模型的权重之和。梯度聚合方法是指将所有本地模型的梯度进行聚合,以更新全局模型的参数,其首先在服务器初始化一个全局模型的参数,然后将每个本地模型的梯度进行聚合,得到一个全局梯度,最终通过梯度下降等优化算法来更新全局模型的参数,具体地,如果有个本地模型,每个模型的梯度为,则聚合后的全局梯度为:,其中,表示每个本地模型的权重,可以根据其准确性、训练时间等指标来确定。
步骤S104:服务器将最终语音识别模型、最终语义分析模型和最终代码生成模型反馈至各个客户端。
具体地,服务器将聚合得到的最终语音识别模型、最终语义分析模型和最终代码生成模型下发至各个客户端,由各个客户端利用模型实现加工代码的自动生成。
进一步的,语音识别模型基于循环神经网络或卷积神经网络实现,语义分析模型基于循环神经网络、卷积神经网络、支持向量机或朴素贝叶斯中的一种实现,代码生成模型基于循环神经网络或Transformer网络实现。
进一步的,在一些实施例中,当模型训练好之后,如图3所示,步骤S104之后还包括:
步骤S105:客户端接收用户输入的加工要求语音信息。
具体地,用户可通过麦克风、话筒等传感器将输入加工要求语音信息。其中,该加工要求语音信息需要包括加工形状、尺寸、表面要求等。例如“我需要一个直径为30mm的圆柱体,表面光洁度要求Ra为0.8um”。
步骤S106:客户端将加工要求语音信息输入至最终语音识别模型进行语文本转换,得到加工要求文本信息。
具体地,在得到加工要求语音信息后,将其输入至最终语音识别模型,以将语音信息转换为文本信息。
步骤S107:客户端将加工要求文本信息输入至最终语义分析模型进行语义分析,得到关键信息。
具体地,在得到加工要求文本信息后,将其输入至最终语义分析模型,从加工要求文本信息中提取得到关键信息。
进一步的,步骤S107具体包括:
1、客户端对加工要求文本信息进行清洗操作。
具体地,文本清洗是指去除文本中的噪声、停用词和标点符号等无关信息,减少无关信息可能对模型的精度造成的负面影响。
2、客户端将清洗后的加工要求文本信息按预设规则划分为多个独立的单元。
具体地,将清洗后的文本按照一定的规则进行分割,将文本划分成一个个独立的单元,例如单词或短语,该预设规则可以通过分词工具实现,如中文分词器和英文分词器等。
3、客户端对每个单元的文本进行词性标注。
具体地,对分词后的文本进行词性标注,即为每个词汇确定它在句子中所扮演的角色(如名词、动词、形容词等),本步骤是为了更好地理解句子的含义,为后续的语义分析提供更多信息。
4、客户端识别并提取清洗后的加工要求文本信息中的实体信息。
具体地,对于加工要求文本信息,还需要对文本中的实体(如零件名称、加工方法、加工尺寸等)进行识别和提取,本步骤可以通过使用命名实体识别(NER)技术来实现。需要说明的是,在一些实施例中,实体提取还可通过手动设定关键字来进行,通过对历史加工要求文本信息进行分析和总结,提取出一些常见的关键字,然后与加工要求文本信息进行匹配。
5、客户端基于进行词性标注后的文本和实体信息进行语义分析,提取得到关键信息。
具体地,在得到词性标注后的文本和实体信息,进行语义分析,将文本中的关键信息提取出来,其通过使用深度学习模型,如卷积神经网络(CNN)和循环神经网络(RNN)等来实现。
步骤S108:客户端将关键信息输入至最终代码生成模型,得到相应的加工代码。
具体地,在得到关键信息后,将其输入至最终代码生成模型,即可得到对应的加工代码,再将该加工代码下发到数控机床的控制模块上运行,以加工出相应的零件。
需要理解的是,本实施例中通过获取用户输入的语音信息,利用最终语音识别模型将语音信息转换为文本信息,再利用最终语义分析模型从文本信息中提取其中的关键信息,最后利用最终代码生成模型根据关键信息自动生成相应的加工代码,其一方面对工作人员的知识水平的要求降低了,另一方面该生成加工代码的方式相对于手动编写代码的效率更高。
本发明实施例的代码自动生成模型训练方法通过在客户端本地训练得到初始语音识别模型、初始语义分析模型和初始代码生成模型,再将各个客户端得到的初始语音识别模型、初始语义分析模型和初始代码生成模型上传至服务器,由服务器对所有客户端的初始语音识别模型、初始语义分析模型和初始代码生成模型分别进行聚合,再将聚合得到的最终语音识别模型、最终语义分析模型和最终代码生成模型发送至各个客户端,以供各个客户端使用,该聚合方式得到的模型能够更为全面的学习到特征或规律,进而保证模型具有更高的准确度。并且,训练好的模型还能够直接根据用户输入的语音信息自动生成数控机床的加工代码,不再需要人工编写代码,降低了人工消耗,提升了工作效率。此外,对模型进行训练的语音数据集、文本数据集、代码数据集中均包括不同类型加工任务对应的数据子集,从而使得训练得到的模型能完成不同类型的加工任务,能力更为全面。
图4是本发明实施例的代码自动生成模型训练系统的功能模块示意图。如图4所示,该代码自动生成模型训练系统包括服务器1和客户端2,客户端2包括模型训练模块21和模型上传模块22,服务器1包括模型聚合模块11和模型反馈模块12:
模型训练模块21,用于利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,得到初始语音识别模型、初始语义分析模型和初始代码生成模型,语音数据集、文本数据集、代码数据集中均包括不同类型加工任务对应的数据子集;
模型上传模块22,用于将初始语音识别模型、初始语义分析模型和初始代码生成模型上传至服务器;
模型聚合模块11,用于基于预设的聚合方式分别对初始语音识别模型、初始语义分析模型和初始代码生成模型进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型;
模型反馈模块12,用于将最终语音识别模型、最终语义分析模型和最终代码生成模型反馈至各个客户端。
可选地,模型训练模块21执行利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练的操作,具体包括:获取预先设定的加工任务的类型;利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,且在训练过程中基于预设的自适应权重调整方式调整各个类型的加工任务的权重。
可选地,语音识别模型基于循环神经网络或卷积神经网络实现,语义分析模型基于循环神经网络、卷积神经网络、支持向量机或朴素贝叶斯中的一种实现,代码生成模型基于循环神经网络或Transformer网络实现。
可选地,预设的聚合方式包括加权平均聚合法和梯度聚合法中的一种。
可选地,如图5所示,客户端2还包括接收模块23、语音识别模块24、语义分析模块25和代码生成模块26。其中,接收模块23,用于接收用户输入的加工要求语音信息;语音识别模块24,用于将加工要求语音信息输入至最终语音识别模型进行语文本转换,得到加工要求文本信息;语义分析模块25,用于将加工要求文本信息输入至最终语义分析模型进行语义分析,得到关键信息;代码生成模块26,用于将关键信息输入至最终代码生成模型,得到相应的加工代码。
可选地,语义分析模块25执行将加工要求文本信息输入至最终语义分析模型进行语义分析,得到关键信息的操作,具体包括:对加工要求文本信息进行清洗操作;将清洗后的加工要求文本信息按预设规则划分为多个独立的单元;对每个单元的文本进行词性标注;识别并提取清洗后的加工要求文本信息中的实体信息;基于进行词性标注后的文本和实体信息进行语义分析,提取得到关键信息。
关于上述实施例代码自动生成模型训练系统中各模块实现技术方案的其他细节,可参见上述实施例中的代码自动生成模型训练方法中的描述,此处不再赘述。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
请参阅图6,图6为本发明实施例的客户端的结构示意图。如图6所示,该客户端40包括处理器41及和处理器41耦接的存储器42,存储器42中存储有程序指令,程序指令被处理器41执行时,使得处理器41执行如下步骤:
利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,得到初始语音识别模型、初始语义分析模型和初始代码生成模型,语音数据集、文本数据集、代码数据集中均包括不同类型加工任务对应的数据子集;
将初始语音识别模型、初始语义分析模型和初始代码生成模型上传至服务器。
其中,处理器41还可以称为CPU(Central Processing Unit,中央处理单元)。处理器41可能是一种集成电路芯片,具有信号的处理能力。处理器41还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
请参阅图7,图7为本发明实施例的服务器的结构示意图。如图7所示,该服务器50包括处理器51及和处理器51耦接的存储器52,存储器52中存储有程序指令,程序指令被处理器51执行时,使得处理器51执行如下步骤:
基于预设的聚合方式分别对各个客户端上传的初始语音识别模型、初始语义分析模型和初始代码生成模型进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型;
将最终语音识别模型、最终语义分析模型和最终代码生成模型反馈至各个客户端。
其中,处理器51还可以称为CPU(Central Processing Unit,中央处理单元)。处理器51可能是一种集成电路芯片,具有信号的处理能力。处理器51还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
参阅图8,图8为本发明实施例的存储介质的结构示意图。本发明实施例的存储介质存储有能够实现上述代码自动生成模型训练方法的程序指令61,其中,该程序指令61可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等计算机设备。
在本申请所提供的几个实施例中,应该理解到,所揭露的计算机设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (8)
1.一种代码自动生成模型训练方法,其特征在于,其应用于代码自动生成模型训练系统,所述代码自动生成模型训练系统包括服务器和与所述服务器通信连接的多个客户端;方法包括:
所述客户端利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,得到初始语音识别模型、初始语义分析模型和初始代码生成模型,所述语音数据集、所述文本数据集、所述代码数据集中均包括不同类型加工任务对应的数据子集;
所述客户端将所述初始语音识别模型、所述初始语义分析模型和所述初始代码生成模型上传至所述服务器;
所述服务器基于预设的聚合方式分别对所述初始语音识别模型、所述初始语义分析模型和所述初始代码生成模型进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型;
所述服务器将所述最终语音识别模型、所述最终语义分析模型和所述最终代码生成模型反馈至各个所述客户端。
2.根据权利要求1所述的代码自动生成模型训练方法,其特征在于,所述客户端利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,包括:
所述客户端获取预先设定的加工任务的类型;
所述客户端利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,且在训练过程中基于预设的自适应权重调整方式调整各个类型的所述加工任务的权重。
3.根据权利要求1所述的代码自动生成模型训练方法,其特征在于,所述语音识别模型基于循环神经网络或卷积神经网络实现,所述语义分析模型基于循环神经网络、卷积神经网络、支持向量机或朴素贝叶斯中的一种实现,所述代码生成模型基于循环神经网络或Transformer网络实现。
4.根据权利要求1的所述代码自动生成模型训练方法,其特征在于,所述预设的聚合方式包括加权平均聚合法和梯度聚合法中的一种。
5.根据权利要求1的所述代码自动生成模型训练方法,其特征在于,所述服务器将所述最终语音识别模型、所述最终语义分析模型和所述最终代码生成模型反馈至各个所述客户端之后,还包括:
所述客户端接收用户输入的加工要求语音信息;
所述客户端将所述加工要求语音信息输入至所述最终语音识别模型进行语文本转换,得到加工要求文本信息;
所述客户端将所述加工要求文本信息输入至所述最终语义分析模型进行语义分析,得到关键信息;
所述客户端将所述关键信息输入至所述最终代码生成模型,得到相应的加工代码。
6.根据权利要求5的所述代码自动生成模型训练方法,其特征在于,所述客户端将所述加工要求文本信息输入至所述最终语义分析模型进行语义分析,得到关键信息,包括:
所述客户端对所述加工要求文本信息进行清洗操作;
所述客户端将清洗后的所述加工要求文本信息按预设规则划分为多个独立的单元;
所述客户端对每个单元的文本进行词性标注;
所述客户端识别并提取清洗后的所述加工要求文本信息中的实体信息;
所述客户端基于进行词性标注后的文本和所述实体信息进行语义分析,提取得到所述关键信息。
7.一种代码自动生成模型训练系统,其特征在于,其包括服务器及客户端,所述客户端包括模型训练模块和模型上传模块,所述服务器包括模型聚合模块和模型反馈模块:
所述模型训练模块,用于利用预先准备的语音数据集、文本数据集、代码数据集分别对待训练的语音识别模型、语义分析模型、代码生成模型进行训练,得到初始语音识别模型、初始语义分析模型和初始代码生成模型,所述语音数据集、所述文本数据集、所述代码数据集中均包括不同类型加工任务对应的数据子集;
所述模型上传模块,用于将所述初始语音识别模型、所述初始语义分析模型和所述初始代码生成模型上传至所述服务器;
所述模型聚合模块,用于基于预设的聚合方式分别对所述初始语音识别模型、所述初始语义分析模型和所述初始代码生成模型进行聚合,得到最终语音识别模型、最终语义分析模型和最终代码生成模型;
所述模型反馈模块,用于将所述最终语音识别模型、所述最终语义分析模型和所述最终代码生成模型反馈至各个所述客户端。
8.一种存储介质,其特征在于,存储有能够实现如权利要求1-6中任一项所述的代码自动生成模型训练方法的程序指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310315734.8A CN116028031A (zh) | 2023-03-29 | 2023-03-29 | 代码自动生成模型训练方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310315734.8A CN116028031A (zh) | 2023-03-29 | 2023-03-29 | 代码自动生成模型训练方法、系统及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116028031A true CN116028031A (zh) | 2023-04-28 |
Family
ID=86089748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310315734.8A Pending CN116028031A (zh) | 2023-03-29 | 2023-03-29 | 代码自动生成模型训练方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116028031A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116841523A (zh) * | 2023-07-19 | 2023-10-03 | 上海海启科技有限公司 | 一种基于人工智能的在线编程方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292721A (zh) * | 2020-02-20 | 2020-06-16 | 深圳壹账通智能科技有限公司 | 代码编写方法、装置及计算机设备 |
CN111949255A (zh) * | 2020-09-03 | 2020-11-17 | 平安银行股份有限公司 | 基于语音的脚本编写方法、装置、设备及存储介质 |
CN112002323A (zh) * | 2020-08-24 | 2020-11-27 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、计算机设备及存储介质 |
CN113409794A (zh) * | 2021-06-30 | 2021-09-17 | 平安科技(深圳)有限公司 | 声纹识别模型的优化方法、装置、计算机设备及存储介质 |
CN113568740A (zh) * | 2021-07-16 | 2021-10-29 | 开放智能机器(上海)有限公司 | 基于联邦学习的模型聚合方法、系统、设备及介质 |
CN115116434A (zh) * | 2022-06-25 | 2022-09-27 | 平安银行股份有限公司 | 应用实现方法、装置、存储介质及电子设备 |
-
2023
- 2023-03-29 CN CN202310315734.8A patent/CN116028031A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292721A (zh) * | 2020-02-20 | 2020-06-16 | 深圳壹账通智能科技有限公司 | 代码编写方法、装置及计算机设备 |
CN112002323A (zh) * | 2020-08-24 | 2020-11-27 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、计算机设备及存储介质 |
CN111949255A (zh) * | 2020-09-03 | 2020-11-17 | 平安银行股份有限公司 | 基于语音的脚本编写方法、装置、设备及存储介质 |
CN113409794A (zh) * | 2021-06-30 | 2021-09-17 | 平安科技(深圳)有限公司 | 声纹识别模型的优化方法、装置、计算机设备及存储介质 |
CN113568740A (zh) * | 2021-07-16 | 2021-10-29 | 开放智能机器(上海)有限公司 | 基于联邦学习的模型聚合方法、系统、设备及介质 |
CN115116434A (zh) * | 2022-06-25 | 2022-09-27 | 平安银行股份有限公司 | 应用实现方法、装置、存储介质及电子设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116841523A (zh) * | 2023-07-19 | 2023-10-03 | 上海海启科技有限公司 | 一种基于人工智能的在线编程方法及系统 |
CN116841523B (zh) * | 2023-07-19 | 2023-12-22 | 上海海启科技有限公司 | 一种基于人工智能的在线编程方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377911B (zh) | 对话框架下的意图识别方法和装置 | |
CN110765759B (zh) | 意图识别方法及装置 | |
CN109165294B (zh) | 一种基于贝叶斯分类的短文本分类方法 | |
CN110019732B (zh) | 一种智能问答方法以及相关装置 | |
CN111209740A (zh) | 文本模型训练方法、文本纠错方法、电子设备及存储介质 | |
CN111382248A (zh) | 一种问题回复方法、装置、存储介质及终端设备 | |
CN114154570A (zh) | 一种样本筛选方法、系统及神经网络模型训练方法 | |
CN116028031A (zh) | 代码自动生成模型训练方法、系统及存储介质 | |
CN116628163A (zh) | 客服服务处理方法、装置、设备及存储介质 | |
CN117633008A (zh) | 语句转换模型的训练方法、装置、设备、存储介质及产品 | |
CN112925895A (zh) | 自然语言软件运维方法及装置 | |
CN116361442B (zh) | 基于人工智能的营业厅数据分析方法及系统 | |
CN112487813A (zh) | 命名实体识别方法及系统、电子设备及存储介质 | |
CN116910599A (zh) | 数据聚类方法、系统、电子设备及存储介质 | |
CN116932736A (zh) | 一种基于用户需求结合倒排表的专利推荐方法 | |
CN114281950B (zh) | 基于多图加权融合的数据检索方法与系统 | |
CN110245331A (zh) | 一种语句转换方法、装置、服务器及计算机存储介质 | |
CN115270810A (zh) | 一种基于句子相似度的意图识别装置和方法 | |
CN114676227A (zh) | 样本生成方法、模型的训练方法以及检索方法 | |
CN114398482A (zh) | 一种词典构造方法、装置、电子设备及存储介质 | |
CN103474063A (zh) | 语音辨识系统以及方法 | |
CN113377951A (zh) | 智能客服机器人的语料构建方法及装置 | |
CN116150379B (zh) | 短信文本分类方法、装置、电子设备及存储介质 | |
CN112949313A (zh) | 信息处理模型训练方法、装置、设备及存储介质 | |
CN112241786B (zh) | 模型超参数的确定方法及设备、计算设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230428 |