CN113469358A - 一种神经网络训练方法、装置、计算机设备及存储介质 - Google Patents

一种神经网络训练方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN113469358A
CN113469358A CN202110757398.3A CN202110757398A CN113469358A CN 113469358 A CN113469358 A CN 113469358A CN 202110757398 A CN202110757398 A CN 202110757398A CN 113469358 A CN113469358 A CN 113469358A
Authority
CN
China
Prior art keywords
neural network
target
training
data
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110757398.3A
Other languages
English (en)
Inventor
詹明捷
梁鼎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202110757398.3A priority Critical patent/CN113469358A/zh
Publication of CN113469358A publication Critical patent/CN113469358A/zh
Priority to PCT/CN2022/100439 priority patent/WO2023279963A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供了一种神经网络训练方法、装置、计算机设备及存储介质,其中,该方法包括:响应于任务选取操作,确定多种任务类型中被选中的目标任务类型;获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络;获取通过训练数据配置页面输入的训练配置数据;响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。

Description

一种神经网络训练方法、装置、计算机设备及存储介质
技术领域
本公开涉及神经网络技术领域,具体而言,涉及一种神经网络训练方法、装置、计算机设备及存储介质。
背景技术
深度学习是一种计算密集型的算法,随着神经网络相关技术的快速发展,对算法准确性及实时性要求不断增高,因此神经网络的规模越来越大,种类也越来越多。
相关技术中,需要由标注人员对样本数据进行标注,再由训练人员根据样本数据对神经网络进行训练,最后由部署人员对训练好的神经网络进行部署,用户才能使用训练好的神经网络,整个流程较为繁琐,效率低下。
发明内容
本公开实施例至少提供一种神经网络训练方法、装置、计算机设备及存储介质。
第一方面,本公开实施例提供了一种神经网络训练方法,应用于神经网络训练平台,包括:
响应于任务选取操作,确定多种任务类型中被选中的目标任务类型;
获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络;
获取通过训练数据配置页面输入的训练配置数据;
响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。
这样,用户通过神经网络训练平台即可完成神经网络的构建和训练的全流程操作,简化了操作流程,提高了神经网络的构建和训练效率。
一种可能的实施方式中,在调用样本数据对所述初始神经网络进行训练,得到训练好的目标神经网络之后,所述方法还包括:
响应于神经网络部署操作,将所述目标神经网络部署在目标服务器;
生成与所述目标服务器对应的目标接口,以通过所述目标接口调用所述目标神经网络。
这样,通过神经网络训练平台的部署操作,即可将训练完成的目标神经网络进行部署,并可以通过远程调用的方式完成对所述目标神经网络的使用,从而提高了神经网络的部署和使用效率。
一种可能的实施方式中,在获取与所述目标任务类型对应的配置文件有多个的情况下,所述获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络,包括:
响应于针对所述初始神经网络的目标配置参数的选择指令,从多个所述配置文件中确定目标配置文件;
基于所述目标配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络。
这样,基于与所述目标配置参数对应的目标配置文件,构建所述初始神经网络,可以使得构建的所述初始神经网络能够符合不同用户的实际需求。
一种可能的实施方式中,所述方法还包括根据以下步骤获取所述样本数据:
获取样本图像;
响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据;其中,所述标注信息包括:识别字段的标注框和所述识别字段的字段信息。
一种可能的实施方式中,所述响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据,包括:
响应于针对所述样本图像的标注指令,获取与所述样本图像的类型对应的识别模板;
基于所述识别模板对所述样本图像进行识别,并基于识别结果确定所述样本图像对应的标注信息。
这样,通过生成识别模板对样本图像进行识别,并将识别结果作为所述样本图像对应的标注信息,使得用户只需要标注少量的内容,得到识别模板后即可将标注任务交由神经网络训练平台自动执行,从而提高了样本图像的标注效率。
一种可能的实施方式中,所述训练配置数据包括:
所述样本数据对应的数据集标识信息、目标计算资源类型、以及用于训练所述初始神经网络的目标设备标识;
所述按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,包括:
通过所述数据集标识信息调用所述样本数据,在所述目标设备标识对应的目标设备上,通过所述目标计算资源类型对应的计算资源对所述初始神经网络进行训练。
一种可能的实施方式中,在调用样本数据对所述初始神经网络进行训练之后,所述方法还包括:
在对所述初始神经网络训练失败的情况下,响应于重训练指令,对所述训练配置数据进行更新;
按照更新后的训练配置数据,调用所述样本数据对所述初始神经网络进行训练。
这样,通过在初始神经网络训练失败的情况下,可以响应用户的相关操作,对所述初始神经网络进行重新训练,提高了神经网络训练平台的容错度,能够得到更多训练成功的目标神经网络。
一种可能的实施方式中,在生成与所述目标服务器对应的目标接口之后,所述方法还包括:
响应针对所述目标接口的测试指令,获取测试数据;其中,所述测试指令用于测试能否通过所述目标接口调用所述目标神经网络;
基于所述测试数据对所述目标接口进行测试,生成所述目标接口对应的测试报告。
这样,通过对所述目标服务器对应的目标接口进行测试,可以通过生成的测试报告了解到目标神经网络的部署情况,便于对所述目标神经网络进行调整和使用。
第二方面,本公开实施例还提供一种神经网络训练装置,应用于神经网络训练平台,包括:
确定模块,用于响应于任务选取操作,确定多种任务类型中被选中的目标任务类型;
构建模块,用于获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络;
获取模块,用于获取通过训练数据配置页面输入的训练配置数据;
训练模块,用于响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。
一种可能的实施方式中,所述装置还包括部署模块,在调用样本数据对所述初始神经网络进行训练,得到训练好的目标神经网络之后,用于:
响应于神经网络部署操作,将所述目标神经网络部署在目标服务器;
生成与所述目标服务器对应的目标接口,以通过所述目标接口调用所述目标神经网络。
一种可能的实施方式中,在获取与所述目标任务类型对应的配置文件有多个的情况下,所述构建模块,在获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络时,用于:
响应于针对所述初始神经网络的目标配置参数的选择指令,从多个所述配置文件中确定目标配置文件;
基于所述目标配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络。
一种可能的实施方式中,所述获取模块,还用于根据以下步骤获取所述样本数据:
获取样本图像;
响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据;其中,所述标注信息包括:识别字段的标注框和所述识别字段的字段信息。
一种可能的实施方式中,所述获取模块,在响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据时,用于:
响应于针对所述样本图像的标注指令,获取与所述样本图像的类型对应的识别模板;
基于所述识别模板对所述样本图像进行识别,并基于识别结果确定所述样本图像对应的标注信息。
一种可能的实施方式中,所述训练配置数据包括:
所述样本数据对应的数据集标识信息、目标计算资源类型、以及用于训练所述初始神经网络的目标设备标识;
所述训练模块,在按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练时,用于:
通过所述数据集标识信息调用所述样本数据,在所述目标设备标识对应的目标设备上,通过所述目标计算资源类型对应的计算资源对所述初始神经网络进行训练。
一种可能的实施方式中,在调用样本数据对所述初始神经网络进行训练之后,所述训练模块,还用于:
在对所述初始神经网络训练失败的情况下,响应于重训练指令,对所述训练配置数据进行更新;
按照更新后的训练配置数据,调用所述样本数据对所述初始神经网络进行训练。
一种可能的实施方式中,在生成与所述目标服务器对应的目标接口之后,所述训练模块,还用于:
响应针对所述目标接口的测试指令,获取测试数据;其中,所述测试指令用于测试能否通过所述目标接口调用所述目标神经网络;
基于所述测试数据对所述目标接口进行测试,生成所述目标接口对应的测试报告。
第三方面,本公开实施例还提供一种计算机设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当计算机设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
第四方面,本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
关于上述神经网络训练装置、计算机设备、及计算机可读存储介质的效果描述参见上述神经网络训练方法的说明,这里不再赘述。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种神经网络训练方法的流程图;
图2a示出了本公开实施例所提供的神经网络训练方法中,神经网络训练平台的项目创建示意图;
图2b示出了本公开实施例所提供的神经网络训练方法中,训练数据配置页面的示意图;
图2c示出了本公开实施例所提供的神经网络训练方法中,神经网络训练平台的标注页面的示意图;
图2d示出了本公开实施例所提供的神经网络训练方法中,神经网络训练平台的训练任务管理页面的示意图;
图3示出了本公开实施例所提供的神经网络训练方法中,构建所述初始神经网络的具体方法的流程图;
图4示出了本公开实施例所提供的神经网络训练方法中,获取样本数据的具体方法的流程图;
图5示出了本公开实施例所提供的神经网络训练方法中,得到样本图像对应的标注信息的具体方法的流程图;
图6示出了本公开实施例所提供的神经网络训练方法中,对初始神经网络进行重训练的具体方法的流程图;
图7示出了本公开实施例所提供的神经网络训练方法中,对训练好的目标神经网络进行部署的具体方法的流程图;
图8示出了本公开实施例所提供的神经网络训练方法中,对目标接口进行测试的具体方法的流程图;
图9示出了本公开实施例所提供的一种神经网络训练装置的示意图;
图10示出了本公开实施例所提供的一种计算机设备的结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
经研究发现,相关技术中,需要由标注人员对样本数据进行标注,再由训练人员根据样本数据对神经网络进行训练,最后由部署人员对训练好的神经网络进行部署,用户才能使用训练好的神经网络,整个流程较为繁琐,效率低下。
基于上述研究,本公开提供了一种神经网络训练方法、装置、计算机设备及存储介质,通过响应用户在神经网络训练平台上发起的任务选取操作,确定多种任务类型中被选中的目标任务类型;获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络,这样,可以根据用户选择的任务类型快速的构建神经网络,从而提高神经网络的构建效率;然后可以获取通过训练数据配置页面输入的训练配置数据;响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练。这样,用户通过神经网络训练平台即可完成神经网络的构建和训练的全流程操作,简化了操作流程,提高了神经网络的构建和训练效率。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种神经网络训练方法进行详细介绍,本公开实施例所提供的神经网络训练方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,所述终端设备可以为带有显示功能的智能终端设备,例如,可以为智能手机、平板电脑、智能穿戴设备等。在一些可能的实现方式中,该神经网络训练方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
参见图1所示,为本公开实施例提供的一种神经网络训练方法的流程图,应用于神经网络训练平台,所述方法包括步骤S101~S104,其中:
S101:响应于任务选取操作,确定多种任务类型中被选中的目标任务类型。
S102:获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络。
S103:获取通过训练数据配置页面输入的训练配置数据。
S104:响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。
以下是对上述步骤的详细介绍。
针对S101,所述任务选取操作可以是用户在所述神经网络训练平台,针对目标任务类型发起的选取操作,所述任务类型表征训练完成后的神经网络所要处理的任务的类型,比如文档内容理解、文档内容提取、文档分类等。
示例性的,所述神经网络训练平台的项目创建示意图可以如图2a所示,图2a中,用户通过触发对应的“选择”按钮,从多种任务类型中选取了目标任务类型“文档内容提取”。
S102:获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络。
这里,所述配置文件为用于配置初始神经网络的网络参数,包括网络参数配置信息、网络结构配置信息等。
具体的,根据处理任务的不同,神经网络所需要配置的网络参数也不同,因此可以提前根据需要处理的任务的类型,为不同类型的任务设置对应的配置文件,并通过配置文件和任务类型的对应关系,在用户选择目标任务类型之后,根据配置文件和预先构建的神经网络框架,快速的构建可用于处理所述目标任务类型对应的任务的初始神经网络。
其中,所述预设构建的神经网络框架可以是多模式框架,比如,图像理解和信息提取的多模态框架(Multimodal framework for image UnderStanding and informationexTraction,MUST)。多模式框架中包含了多模态学习领域结合视觉和语义信息的多种模型,可用于快速构建神经网络模型,其中,模型可包括一个或多个神经网络。
进一步的,还可以根据所述需要处理的任务的不同任务量等实际部署需求,为同一类型的任务设置多个配置文件,以使得通过所述神经网络训练平台能够构建多种神经网络,且通过用户的选择之后,最终训练好的神经网络能够较好的满足实际部署需求。
示例性的,以所述任务类型为文档内容提取为例,根据任务量的大小,可以设置三个配置文件,分别为配置文件1、配置文件2、配置文件3,分别对应任务量少、任务量中等、任务量多这三种任务量,以供用户根据实际部署需求进行选择。
一种可能的实施方式中,在获取与所述目标任务类型对应的配置文件有多个的情况下,如图3所示,可以通过以下步骤构建所述初始神经网络:
S301:响应于针对所述初始神经网络的目标配置参数的选择指令,从多个所述配置文件中确定目标配置文件。
这里,所述目标配置参数可以是所述初始神经网络的网络规模,在接收到针对所述初始神经网络的目标配置参数的选择指令后,可以根据网络规模与配置文件的对应关系,确定所述目标配置文件。
承接上例,仍以所述任务类型为文档内容提取为例,在分别针对任务量少、任务量中等、任务量多这三种任务量设置配置文件1、配置文件2、配置文件3之后,可以将各配置文件对应的网络规模依次设置为小规模、中规模、大规模。这样,当用户选择的目标配置参数为小规模时(如图2a所示),即可确定对应的目标配置文件为所述配置文件1。
S302:基于所述目标配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络。
具体的,可以对所述目标配置文件进行解析,得到网络配置参数;其中,所述网络配置参数包括网络参数配置信息、网络结构配置信息等;
通过所述网络参数配置信息,可以确定所述初始神经网络对应的参数信息,比如,可以确定出所述初始神经网络的超参数、可调参数的初始值等;
通过所述网络结构配置信息,可以确定所述初始神经网络的网络结构信息,例如,初始神经网络的网络层数,内部结构,每个网络层之前的连接关系等。
进一步的,在获取到上述网络配置参数之后,模型模块可以根据确定的网络配置参数,利用多模态融合方法,构建待训练的初始神经网络。
这样,基于与所述目标配置参数对应的目标配置文件,构建所述初始神经网络,可以使得构建的所述初始神经网络能够符合不同用户的实际需求。
S103:获取通过训练数据配置页面输入的训练配置数据。
这里,所述训练配置数据包括所述样本数据对应的数据集标识信息、目标计算资源类型、以及用于训练所述初始神经网络的目标设备标识。
其中,所述样本数据对应的数据集标识信息,用于表示训练所述初始神经网络所使用的样本数据所在的数据集标识,比如用户通过训练数据配置页面输入“数据集1”,表示用户选择数据集1中的样本数据对所述初始神经网络进行训练;
所述目标计算资源类型,为用户从多种计算资源类型中选择的用于执行所述初始神经网络训练任务的计算资源类型,比如中央处理器(Central Processing Unit,CPU)资源、图形处理器(Graphics Processing Unit,GPU)资源等;
所述目标设备标识,为用户从多个设备标识中选择的用于执行所述初始神经网络训练任务的设备标识,比如用户通过训练数据配置页面输入“设备19”,表示用户选择在设备标识为“设备19”的设备上对所述初始神经网络进行训练。
示例性的,所述训练数据配置页面的示意图可以如图2b所示,用户可以在所述神经网络训练平台上构建所述初始神经网络之后,通过触发“创建训练任务”按钮(如图2d右上角所示)进入到所述训练数据配置页面,所述训练数据配置页面(即图2b)中,包含可输入的多种训练配置数据,包括训练任务名称、样本数据对应的数据集标识、用于训练所述初始神经网络的目标设备标识、训练模式(即训练所使用的目标计算资源类型)、训练任务描述,用户可以通过所述训练数据配置页面,输入训练任务名称“训练任务1”、样本数据对应的数据集标识“数据集1”、用于训练所述初始神经网络的目标设备标识“设备19”、训练模式“CPU”、训练任务描述“文档内容提取模型的训练任务”,以完成对所述初始神经网络所对应的训练配置数据的设置。
实际应用中,所述数据集中的样本数据可以是预先上传至所述神经网络训练平台的;或者,也可以是用户在所述神经网络训练平台对样本图像进行标注后获取到的。
一种可能的实施方式中,如图4所示,可以通过以下步骤获取所述样本数据:
S401:获取样本图像。
S402:响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据;其中,所述标注信息包括:识别字段的标注框和所述识别字段的字段信息。
这里,所述样本图像可以是用户通过所述神经网络训练平台上传的样本图像,以所述初始神经网络为文档内容提取模型为例,所述样本图像可以是带有文字内容的图片,比如订购单、财报、商务邮件、销售合同、宣传单、发票、简历等。
一种可能的实施方式中,如图5所示,可以通过以下步骤得到样本图像对应的标注信息:
S4021:响应于针对所述样本图像的标注指令,获取与所述样本图像的类型对应的识别模板。
具体的,可以响应于用户在所述神经网络训练平台的标注页面上输入的所述标注指令,得到所述样本图像待识别字段在所述样本图像中的第一区域,以及参考字段在所述样本图像中的第二区域;基于所述第一区域和第二区域之间的相对位置关系以及所述参考字段,确定与所述样本图像对应的识别模板。
示例性的,所述神经网络训练平台的标注页面可以如图2c所示,用户可以在所述神经网络训练平台上通过触发“创建标注任务”按钮进入到所述标注页面,所述标注页面(即图2c)中,左侧为样本图像,用户在所述样本图像中标注出了第一区域(待识别字段“王某”)和第二区域(参考字段“姓名”),所述标注页面的右侧展示有识别的所述待识别字段“王某”和所述参考字段“姓名”,从而可以根据参考字段“姓名”和待识别字段“王某”各自对应区域之间的相对位置关系,得到一个确定样本图像中姓名的识别模板。
S4022:基于所述识别模板对所述样本图像进行识别,并基于识别结果确定所述样本图像对应的标注信息。
进一步的,在根据上述步骤确定所述识别模板之后,即可根据所述识别模板对样本图像进行识别,并将得到的识别结果作为所述样本图像对应的标注信息。
这样,通过生成识别模板对样本图像进行识别,并将识别结果作为所述样本图像对应的标注信息,使得用户只需要标注少量的内容,得到识别模板后即可将标注任务交由神经网络训练平台自动执行,从而提高了样本图像的标注效率。
S104:响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。
示例性的,如图2b所示,用户在完成对所述初始神经网络所对应的训练配置数据的设置之后,可以通过触发“开始训练”按钮,生成针对所述初始神经网络的训练指令,以指示所述神经网络平台按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练。
具体实施中,在按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练时,可以通过所述数据集标识信息调用所述样本数据,在所述目标设备标识对应的目标设备上,通过所述目标计算资源类型对应的计算资源对所述初始神经网络进行训练。
示例性的,以所述训练配置数据为样本数据对应的数据集标识信息为“数据集1”、用于训练所述初始神经网络的目标设备标识为“设备19”、目标计算资源类型为“CPU资源”为例,在对所述初始神经网络进行训练时,即可调用所述数据集1中的样本数据,通过所述设备19的CPU资源对所述初始神经网络进行训练。
实际应用中,在调用样本数据对所述初始神经网络进行训练之后,由于训练配置数据配置不合适等原因,可能会出现初始神经网络训练失败的情况。
一种可能的实施方式中,在对所述初始神经网络训练失败的情况下,如图6所示,可以通过以下步骤对初始神经网络进行重训练:
S501:响应于重训练指令,对所述训练配置数据进行更新。
S502:按照更新后的训练配置数据,调用所述样本数据对所述初始神经网络进行训练。
这里,所述重训练指令可以是用户在所述神经网络平台的训练任务管理页面发起的;所述对所述训练配置数据进行更新,可以是在响应用户的输入操作后,根据用户输入的内容对所述训练配置数据进行更新;
进一步的,还可以对训练失败的所述训练任务进行解析并得到解析后的解析结果;其中,所述解析结果包括训练失败的原因,可以通过展示相应的解析结果,以提示用户对所述训练配置数据进行调整,比如解析后得到的训练失败的原因为,目标设备标识对应的目标设备的目标计算资源不符合训练要求,则可以提示用户对所述目标设备标识进行更新,从而使得更新后的目标设备标识对应的目标设备的目标计算资源符合训练要求。
示例性的,所述神经网络训练平台的训练任务管理页面可以如图2d所示,图2d中,展示有所有已创建训练任务的训练任务名称、开始时间、结束时间、训练模式、数据集、设备标识、训练结果、任务操作,若所述训练结果为训练失败,则在该训练任务对应的“任务操作”处可以展示重训练按钮,通过触发所述重训练按钮,即可自动完成对所述训练配置数据的更新,并按照更新后的训练配置数据,调用所述样本数据对所述初始神经网络进行训练。
这样,通过在初始神经网络训练失败的情况下,可以响应用户的相关操作,对所述初始神经网络进行重新训练,提高了神经网络训练平台的容错度,能够得到更多训练成功的目标神经网络。
一种可能的实施方式中,在调用样本数据对所述初始神经网络进行训练,得到训练好的目标神经网络之后,如图7所示,可以通过以下步骤对训练好的目标神经网络进行部署:
S601:响应于神经网络部署操作,将所述目标神经网络部署在目标服务器。
这里,所述神经网络部署操作可以是用户在所述神经网络训练平台的训练任务管理页面上执行的。
具体的,针对任一训练任务,若该训练任务的训练结果为训练成功,则在所述神经网络训练平台的训练任务管理页面上,该训练任务对应的“任务操作”处可以展示模型部署按钮(如图2d所示),通过触发所述模型部署按钮,即可展示部署选择页面,所述部署选择页面中展示有多个服务器以供用户选择,当用户从所述多个服务器中选中目标服务器之后,所述神经网络训练平台即可将与该训练任务对应的神经网络部署在所述目标服务器上。
S602:生成与所述目标服务器对应的目标接口,以通过所述目标接口调用所述目标神经网络。
具体的,在所述目标服务器上完成部署之后,可以自动生成与所述目标服务器对应的应用程序接口(Application Programming Interface,API)。
这样,通过神经网络训练平台的部署操作,即可将训练完成的目标神经网络进行部署,并可以通过远程调用的方式完成对所述目标神经网络的使用,从而提高了神经网络的部署和使用效率。
进一步的,在生成与所述目标服务器对应的目标接口之后,如图8所示,还可以通过以下步骤对所述目标接口进行测试:
S701:响应针对所述目标接口的测试指令,获取测试数据;其中,所述测试指令用于测试能否通过所述目标接口调用所述目标神经网络。
S702:基于所述测试数据对所述目标接口进行测试,生成所述目标接口对应的测试报告。
示例性的,以所述目标神经网络为文档内容提取模型为例,在接收到针对所述文档内容提取模型的测试指令后,所述神经网络训练平台可以向所述文档内容提取模型所对应的目标接口发送至少一张带有文字内容的图片(即测试数据),并基于所述文档内容提取模型识别所述测试数据后反馈的识别结果生产测试报告,其中,所述测试报告中包括是否能够成功通过所述目标接口调用所述文档内容提取模型、模型识别结果的准确性、模型识别结果的反馈时间等。
本公开实施例提供的神经网络训练方法,通过响应用户在神经网络训练平台上发起的任务选取操作,确定多种任务类型中被选中的目标任务类型;获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络,这样,可以根据用户选择的任务类型快速的构建神经网络,从而提高神经网络的构建效率;然后可以获取通过训练数据配置页面输入的训练配置数据;响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练。这样,用户通过神经网络训练平台即可完成神经网络的构建和训练的全流程操作,简化了操作流程,提高了神经网络的构建和训练效率。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与神经网络训练方法对应的神经网络训练装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述神经网络训练方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参照图9所示,为本公开实施例提供的一种神经网络训练装置的架构示意图,所述装置包括:确定模块901、构建模块902、获取模块903、训练模块904;其中,
确定模块901,用于响应于任务选取操作,确定多种任务类型中被选中的目标任务类型;
构建模块902,用于获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络;
获取模块903,用于获取通过训练数据配置页面输入的训练配置数据;
训练模块904,用于响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。
一种可能的实施方式中,所述装置还包括部署模块905,在调用样本数据对所述初始神经网络进行训练,得到训练好的目标神经网络之后,用于:
响应于神经网络部署操作,将所述目标神经网络部署在目标服务器;
生成与所述目标服务器对应的目标接口,以通过所述目标接口调用所述目标神经网络。
一种可能的实施方式中,在获取与所述目标任务类型对应的配置文件有多个的情况下,所述构建模块902,在获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络时,用于:
响应于针对所述初始神经网络的目标配置参数的选择指令,从多个所述配置文件中确定目标配置文件;
基于所述目标配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络。
一种可能的实施方式中,所述获取模块903,还用于根据以下步骤获取所述样本数据:
获取样本图像;
响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据;其中,所述标注信息包括:识别字段的标注框和所述识别字段的字段信息。
一种可能的实施方式中,所述获取模块903,在响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据时,用于:
响应于针对所述样本图像的标注指令,获取与所述样本图像的类型对应的识别模板;
基于所述识别模板对所述样本图像进行识别,并基于识别结果确定所述样本图像对应的标注信息。
一种可能的实施方式中,所述训练配置数据包括:
所述样本数据对应的数据集标识信息、目标计算资源类型、以及用于训练所述初始神经网络的目标设备标识;
所述训练模块904,在按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练时,用于:
通过所述数据集标识信息调用所述样本数据,在所述目标设备标识对应的目标设备上,通过所述目标计算资源类型对应的计算资源对所述初始神经网络进行训练。
一种可能的实施方式中,在调用样本数据对所述初始神经网络进行训练之后,所述训练模块904,还用于:
在对所述初始神经网络训练失败的情况下,响应于重训练指令,对所述训练配置数据进行更新;
按照更新后的训练配置数据,调用所述样本数据对所述初始神经网络进行训练。
一种可能的实施方式中,在生成与所述目标服务器对应的目标接口之后,所述训练模块904,还用于:
响应针对所述目标接口的测试指令,获取测试数据;其中,所述测试指令用于测试能否通过所述目标接口调用所述目标神经网络;
基于所述测试数据对所述目标接口进行测试,生成所述目标接口对应的测试报告。
本公开实施例提供的神经网络训练装置,通过响应用户在神经网络训练平台上发起的任务选取操作,确定多种任务类型中被选中的目标任务类型;获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络,这样,可以根据用户选择的任务类型快速的构建神经网络,从而提高神经网络的构建效率;然后可以获取通过训练数据配置页面输入的训练配置数据;响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练。这样,用户通过神经网络训练平台即可完成神经网络的构建和训练的全流程操作,简化了操作流程,提高了神经网络的构建和训练效率。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
基于同一技术构思,本公开实施例还提供了一种计算机设备。参照图10所示,为本公开实施例提供的计算机设备1000的结构示意图,包括处理器1001、存储器1002、和总线1003。其中,存储器1002用于存储执行指令,包括内存10021和外部存储器10022;这里的内存10021也称内存储器,用于暂时存放处理器1001中的运算数据,以及与硬盘等外部存储器10022交换的数据,处理器1001通过内存10021与外部存储器10022进行数据交换,当计算机设备1000运行时,处理器1001与存储器1002之间通过总线1003通信,使得处理器1001在执行以下指令:
响应于任务选取操作,确定多种任务类型中被选中的目标任务类型;
获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络;
获取通过训练数据配置页面输入的训练配置数据;
响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的神经网络训练方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例还提供一种计算机程序产品,该计算机程序产品承载有程序代码,所述程序代码包括的指令可用于执行上述方法实施例中所述的神经网络训练方法的步骤,具体可参见上述方法实施例,在此不再赘述。
其中,上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

Claims (11)

1.一种神经网络训练方法,其特征在于,应用于神经网络训练平台,包括:
响应于任务选取操作,确定多种任务类型中被选中的目标任务类型;
获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络;
获取通过训练数据配置页面输入的训练配置数据;
响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。
2.根据权利要求1所述的方法,其特征在于,在调用样本数据对所述初始神经网络进行训练,得到训练好的目标神经网络之后,所述方法还包括:
响应于神经网络部署操作,将所述目标神经网络部署在目标服务器;
生成与所述目标服务器对应的目标接口,以通过所述目标接口调用所述目标神经网络。
3.根据权利要求1或2所述的方法,其特征在于,在获取与所述目标任务类型对应的配置文件有多个的情况下,所述获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络,包括:
响应于针对所述初始神经网络的目标配置参数的选择指令,从多个所述配置文件中确定目标配置文件;
基于所述目标配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络。
4.根据权利要求1~3任一所述的方法,其特征在于,所述方法还包括根据以下步骤获取所述样本数据:
获取样本图像;
响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据;其中,所述标注信息包括:识别字段的标注框和所述识别字段的字段信息。
5.根据权利要求4所述的方法,其特征在于,所述响应于针对所述样本图像的标注指令,生成与所述样本图像对应的携带有标注信息的样本数据,包括:
响应于针对所述样本图像的标注指令,获取与所述样本图像的类型对应的识别模板;
基于所述识别模板对所述样本图像进行识别,并基于识别结果确定所述样本图像对应的标注信息。
6.根据权利要求1~5任一所述的方法,其特征在于,所述训练配置数据包括:
所述样本数据对应的数据集标识信息、目标计算资源类型、以及用于训练所述初始神经网络的目标设备标识;
所述按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,包括:
通过所述数据集标识信息调用所述样本数据,在所述目标设备标识对应的目标设备上,通过所述目标计算资源类型对应的计算资源对所述初始神经网络进行训练。
7.根据权利要求1~6任一所述的方法,其特征在于,在调用样本数据对所述初始神经网络进行训练之后,所述方法还包括:
在对所述初始神经网络训练失败的情况下,响应于重训练指令,对所述训练配置数据进行更新;
按照更新后的训练配置数据,调用所述样本数据对所述初始神经网络进行训练。
8.根据权利要求2所述的方法,其特征在于,在生成与所述目标服务器对应的目标接口之后,所述方法还包括:
响应针对所述目标接口的测试指令,获取测试数据;其中,所述测试指令用于测试能否通过所述目标接口调用所述目标神经网络;
基于所述测试数据对所述目标接口进行测试,生成所述目标接口对应的测试报告。
9.一种神经网络训练装置,其特征在于,应用于神经网络训练平台,包括:
确定模块,用于响应于任务选取操作,确定多种任务类型中被选中的目标任务类型;
构建模块,用于获取与所述目标任务类型对应的配置文件,并基于所述配置文件构建用于处理所述目标任务类型对应的任务的初始神经网络;
获取模块,用于获取通过训练数据配置页面输入的训练配置数据;
训练模块,用于响应于针对所述初始神经网络的训练指令,按照所述训练配置数据,调用样本数据对所述初始神经网络进行训练,以得到训练好的用于处理所述目标任务类型对应的任务的目标神经网络。
10.一种计算机设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当计算机设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至8任一项所述的神经网络训练方法的步骤。
11.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至8任一项所述的神经网络训练方法的步骤。
CN202110757398.3A 2021-07-05 2021-07-05 一种神经网络训练方法、装置、计算机设备及存储介质 Pending CN113469358A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110757398.3A CN113469358A (zh) 2021-07-05 2021-07-05 一种神经网络训练方法、装置、计算机设备及存储介质
PCT/CN2022/100439 WO2023279963A1 (zh) 2021-07-05 2022-06-22 一种神经网络训练方法、装置、计算机设备、存储介质及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110757398.3A CN113469358A (zh) 2021-07-05 2021-07-05 一种神经网络训练方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN113469358A true CN113469358A (zh) 2021-10-01

Family

ID=77878042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110757398.3A Pending CN113469358A (zh) 2021-07-05 2021-07-05 一种神经网络训练方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN113469358A (zh)
WO (1) WO2023279963A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113987324A (zh) * 2021-10-21 2022-01-28 北京达佳互联信息技术有限公司 一种数据处理方法、装置、设备及存储介质
CN114329201A (zh) * 2021-12-27 2022-04-12 北京百度网讯科技有限公司 深度学习模型的训练方法、内容推荐方法和装置
WO2023279963A1 (zh) * 2021-07-05 2023-01-12 上海商汤智能科技有限公司 一种神经网络训练方法、装置、计算机设备、存储介质及程序

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116029462B (zh) * 2023-03-27 2023-07-14 清华大学 渠池闸门流量预测模型的训练方法
CN116883950A (zh) * 2023-08-15 2023-10-13 广东省科学院广州地理研究所 基于遥感卫星数据的乡村人居环境动态监测方法及装置
CN116756576B (zh) * 2023-08-17 2023-12-12 阿里巴巴(中国)有限公司 数据处理方法、模型训练方法、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170116498A1 (en) * 2013-12-04 2017-04-27 J Tech Solutions, Inc. Computer device and method executed by the computer device
CN110837856A (zh) * 2019-10-31 2020-02-25 深圳市商汤科技有限公司 神经网络训练及目标检测方法、装置、设备和存储介质
CN111144561A (zh) * 2018-11-05 2020-05-12 杭州海康威视数字技术股份有限公司 一种神经网络模型确定方法及装置
CN111882059A (zh) * 2020-07-17 2020-11-03 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备和存储介质
CN112529167A (zh) * 2020-12-25 2021-03-19 东云睿连(武汉)计算技术有限公司 一种神经网络交互式自动训练系统和方法
CN112598063A (zh) * 2020-12-25 2021-04-02 深圳市商汤科技有限公司 神经网络生成方法及装置、电子设备和存储介质
WO2021068325A1 (zh) * 2019-10-12 2021-04-15 平安科技(深圳)有限公司 面部动作识别模型训练方法、面部动作识别方法、装置、计算机设备和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200104710A1 (en) * 2018-09-27 2020-04-02 Google Llc Training machine learning models using adaptive transfer learning
CN113469358A (zh) * 2021-07-05 2021-10-01 北京市商汤科技开发有限公司 一种神经网络训练方法、装置、计算机设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170116498A1 (en) * 2013-12-04 2017-04-27 J Tech Solutions, Inc. Computer device and method executed by the computer device
CN111144561A (zh) * 2018-11-05 2020-05-12 杭州海康威视数字技术股份有限公司 一种神经网络模型确定方法及装置
WO2021068325A1 (zh) * 2019-10-12 2021-04-15 平安科技(深圳)有限公司 面部动作识别模型训练方法、面部动作识别方法、装置、计算机设备和存储介质
CN110837856A (zh) * 2019-10-31 2020-02-25 深圳市商汤科技有限公司 神经网络训练及目标检测方法、装置、设备和存储介质
CN111882059A (zh) * 2020-07-17 2020-11-03 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备和存储介质
CN112529167A (zh) * 2020-12-25 2021-03-19 东云睿连(武汉)计算技术有限公司 一种神经网络交互式自动训练系统和方法
CN112598063A (zh) * 2020-12-25 2021-04-02 深圳市商汤科技有限公司 神经网络生成方法及装置、电子设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨博等: "基于Agent和数据切片的分布式神经网络协同学习研究", 《计算机研究与发展》, no. 12, pages 2096 - 2103 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023279963A1 (zh) * 2021-07-05 2023-01-12 上海商汤智能科技有限公司 一种神经网络训练方法、装置、计算机设备、存储介质及程序
CN113987324A (zh) * 2021-10-21 2022-01-28 北京达佳互联信息技术有限公司 一种数据处理方法、装置、设备及存储介质
CN114329201A (zh) * 2021-12-27 2022-04-12 北京百度网讯科技有限公司 深度学习模型的训练方法、内容推荐方法和装置
WO2023124029A1 (zh) * 2021-12-27 2023-07-06 北京百度网讯科技有限公司 深度学习模型的训练方法、内容推荐方法和装置
CN114329201B (zh) * 2021-12-27 2023-08-11 北京百度网讯科技有限公司 深度学习模型的训练方法、内容推荐方法和装置

Also Published As

Publication number Publication date
WO2023279963A1 (zh) 2023-01-12

Similar Documents

Publication Publication Date Title
CN113469358A (zh) 一种神经网络训练方法、装置、计算机设备及存储介质
CN109165249B (zh) 数据处理模型构建方法、装置、服务器和用户端
US11113475B2 (en) Chatbot generator platform
US9923949B2 (en) All-electronic ecosystems for design and collaboration
EP3874372B1 (en) Automatically performing and evaluating pilot testing of software
US11397565B2 (en) Automated generation of software applications using analysis of submitted content items
US11256484B2 (en) Utilizing natural language understanding and machine learning to generate an application
CN114155543A (zh) 神经网络训练方法、文档图像理解方法、装置和设备
CN109634579A (zh) 代码生成方法、装置、计算机装置及存储介质
Magrofuoco et al. GestMan: a cloud-based tool for stroke-gesture datasets
JP6596129B2 (ja) 自然言語処理を使用した職務の自動化の決定
CN114253556A (zh) 模型部署方法、识别方法、装置及电子设备
CN113094287A (zh) 页面兼容性检测方法、装置、设备及存储介质
CN113296769A (zh) 数据处理方法、视觉稿的处理方法、系统及电子设备
CN114550545A (zh) 一种课程生成、课程展示方法以及装置
CN113434722B (zh) 图像分类方法、装置、设备及计算机可读存储介质
CN114936637A (zh) 神经网络训练方法及装置
CN111699472A (zh) 确定用于开发、设计和/或部署不同技术领域的复杂的嵌入式或信息物理系统,特别是其中使用的复杂的软件架构的措施的方法和计算机程序产品
US20230222716A1 (en) Method and apparatus for automatically generating banner image, and computer-readable storage medium
CN113377980A (zh) 一种信息标注的方法、装置、电子设备及存储介质
Sánchez-Morales et al. Generation of user interfaces for mobile applications using neuronal networks
CN114090002A (zh) 前端界面构建方法、装置、电子设备和存储介质
CN112783483A (zh) 基于悬浮按钮组件的功能创建方法、装置、设备及介质
Benbelkacem et al. Integrating human–computer interaction and business practices for mixed reality systems design: a case study
CN113327591B (zh) 一种语音处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40056777

Country of ref document: HK