CN113723437B - 一种ai模型的自动化训练方法及ai模型训练系统 - Google Patents
一种ai模型的自动化训练方法及ai模型训练系统 Download PDFInfo
- Publication number
- CN113723437B CN113723437B CN202110363657.4A CN202110363657A CN113723437B CN 113723437 B CN113723437 B CN 113723437B CN 202110363657 A CN202110363657 A CN 202110363657A CN 113723437 B CN113723437 B CN 113723437B
- Authority
- CN
- China
- Prior art keywords
- image
- model
- training platform
- training
- platform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
一种AI模型的自动化训练方法及AI模型训练系统,涉及AI技术领域,可实现AI模型的自动化测试。安装Linux系统的训练平台获取多组数据对;获取第一AI模型的模型结构和调参信息;在Linux系统将每组数据对作为训练样本基于调参信息训练第一AI模型得到第二AI模型;将第二AI模型转换成ONNX模型并拷贝至Windows系统;通过Linux系统操作测试平台在Windows系统,将多个第三图像作为输入,运行转换ONNX模型得到的第三AI模型得到多个第四图像;在Linux系统操作测试平台在Windows系统对多个第四图像进行测试,得到第二AI模型的测试指标;根据测试指标调整第二AI模型得到第四AI模型。
Description
技术领域
本申请实施例涉及人工智能(artificial intelligence,AI)技术领域,尤其涉及一种AI模型的自动化训练方法及AI模型训练系统。
背景技术
在生物识别(如指纹识别或人脸识别等)场景下,经常需要修复终端产品采集的生物特征(如指纹图像或人脸图像等),以提升包括生物特征的图像的质量。这样,可以提升生物识别的成功率。例如,可以采用AI模型(也称为AI修复模型)执行上述图像修复。该AI模型需要经过样本训练,才可以具备修复图像提升图像质量的能力。
其中,AI模型的模型训练通常可以包括两个流程:训练流程和测试流程。目前,训练流程通常是在技术人员设置好训练样本、模型结构和相关参数后,由训练平台自动完成的。由于训练平台的系统功能限制,该系统可能不支持模型测试或者模型测试的效率过低;因此,AI模型经过训练流程后,通常由技术人员人为执行测试流程对AI模型的性能进行测试。但是,人为测试AI模型的效率低,且工作量大。
发明内容
本申请提供一种AI模型的自动化训练方法及AI模型训练系统,可实现AI模型的自动化测试,进而提升AI模型的测试效率。
第一方面,本申请提供一种AI模型的自动化训练方法,该方法可以应用于训练平台,该训练平台中安装有Linux系统。该方法可以分为两个流程:AI模型的训练流程和测试流程。
一方面,训练平台可以在该训练平台完成AI模型的训练流程。具体的,训练平台可以获取多组数据对,每组数据对包括第一图像和第二图像。其中,第一图像的图像质量高于第二图像的图像质量。训练平台还可以获取待训练的第一AI模型的模型结构和调参信息。该调参信息用于指示第一AI模型训练过程中的参数调整策略和图像处理策略。然后,训练平台可以将每组数据对作为训练样本,基于调参信息训练第一AI模型得到第二AI模型,该第二AI模型具备修复第二图像得到第一图像的能力。
另一方面,训练平台可以借助有Windows系统的测试平台完成AI模型的测试流程。具体的,训练平台可以在Linux系统将第二AI模型转换成开放神经网络交换(open neuralnetwork exchange,ONNX)模型,将ONNX模型转换成适配Windows系统的第三AI模型,再将第三AI模型拷贝至测试平台的Windows系统。之后,训练平台可以通过Linux系统操作测试平台在Windows系统,将多个第三图像作为输入,运行适配Windows系统的第三AI模型得到多个第四图像。最后,训练平台可以在Linux系统操作所述测试平台在Windows系统,对多个第四图像进行测试,得到第二AI模型的测试指标,该测试指标包括拒识率(false rejectionrate,FRR)和峰值信噪比(peak signal to noise ratio,PSNR)。训练平台可以根据该测试指标调整第二AI模型,得到第四AI模型。
应理解,Linux系统具备如下优势:Linux系统的图形处理器(graphicsprocessing unit,GPU)的图形处理能力较强。而Windows系统则具备不同的优势,如Windows系统的中央处理器(central processing unit,CPU)的运算能力较强。
本申请中,训练平台可以利用Linux系统图形处理能力较强的优势,在Linux系统下完成AI模型的训练流程。然后,训练平台可以借助于Windows系统运算能力较强的优势,在测试平台的Windows系统中完成AI模型的测试流程。
应注意,适配Linux系统的AI模型(如BP模型,即第二AI模型)与适配Windows系统的AI模型之间是不能直接相互转换的。而上述ONNX模型可使模型在不同框架之间进行转移。如此,本申请实施例中,训练平台100可以先将适配Linux系统的AI模型(如BP模型)转换成ONNX模型,再将ONNX模型转换成适配Windows系统的AI模型。如此,便可以实现适配Linux系统的AI模型与适配Windows系统的AI模型之间的转换。
也就是说,本申请的方法,可以利用Linux系统和Windows系统这两个系统各自的优势,实现能力复配,将AI模型的训练流程和测试流程按照这两个操作系统各自的优势分配给不同的操作系统来完成。如此,则不需要人为执行测试流程对AI模型的性能进行测试,实现了AI模型的自动化测试,可以提升AI模型的测试效率。
在第一方面的一种可能的设计方式中,在上述训练平台将第三AI模型拷贝至测试平台的所述Windows系统之前,本申请的方法还可以包括:训练平台利用安全外壳协议(secure shell,SSH)命令集,进行训练平台的Linux系统与测试平台的Windows系统的远程通信握手连接与账户认证。
其中,训练平台利用SSH命令集,进行训练平台的Linux系统与测试平台的Windows系统的远程通信握手连接与账户认证之后,Linux系统与Windows系统的通信环境便可以支持Linux系统与Windows系统之间的数据传输。如此,训练平台便可以利用Linux系统与Windows系统的通信环境,将第三AI模型拷贝至测试平台的Windows系统中。
在第一方面的另一种可能的设计方式中,上述训练平台在Linux系统操作测试平台在Windows系统,对多个第四图像进行测试,得到第二AI模型的测试指标的方法可以包括:训练平台利用SSH命令集,在Linux系统操作测试平台在所述Windows系统,对多个第四图像进行测试,得到测试指标。
在第一方面的另一种可能的设计方式中,上述第三AI模型包括bin文件和param文件。其中,bin文件是后缀为.bin的模型文件,param文件是后缀为.param的模型文件。
在第一方面的另一种可能的设计方式中,上述第二图像是处理第一图像得到的。也就是说,训练平台获取到多个第一图像后,便可以处理该多个第一图像得到对应的多个第二图像。
具体的,上述训练平台获取多组数据对,可以包括:训练平台获取多个第一图像;训练平台分别将每个第一图像作为输入,运行第一循环Cycle生成对抗网络(generativeadversarial network,GAN)模型,得到对应的第二图像。其中,第一Cycle GAN模型具备处理第一图像得到第二图像的能力。该第二图像的图像质量低于第一图像的图像质量。
其中,上述第一Cycle GAN模型也可以称为Cycle GAN退化模型或者Cycle GAN回退模型。
应理解,如果第一Cycle GAN模型具备处理图像以降低图像质量的能力,那么将图像质量较高的第一图像作为输入运行该第一Cycle GAN模型,便可以得到图像质量较低的第二图像。如此,训练平台便可以得到由第一图像和第二图像组成的数据对。分别将多个第一图像作为输入运行该第一Cycle GAN模型,训练平台便可以得到多组数据对。该多组数据对可作为Linux系统的进行模型训练的训练样本,用于训练待训练的第一AI模型。
在第一方面的另一种可能的设计方式中,在训练平台获取多组数据对之前,本申请的方法还可以包括:训练平台获取第五图像和第六图像,该第五图像的图像质量高于第六图像的图像质量;训练平台将第五图像作为输入样本,并将第六图像作为输出样本,训练第一Cycle GAN模型,使得第一Cycle GAN模型具备处理图像以降低图像质量的能力。
在第一方面的另一种可能的设计方式中,上述第一Cycle GAN模型包括第一生成器和第一判别器。上述第一判别器具备对比两张图像并给出这两张图像的差异的能力。
其中,上述训练平台将第五图像作为输入样本,并将第六图像作为输出样本,训练第一Cycle GAN模型,使得第一Cycle GAN模型具备处理图像以降低图像质量的能力,可以包括:训练平台将第五图像作为输入样本,并将第六图像作为输出样本,训练第一生成器,使得第一生成器具备处理图像以降低图像质量的能力;训练平台将第五图像作为输入,运行训练后的第一生成器,得到第七图像;训练平台将第六图像和第七图像作为输入,运行第一判别器,得到第一判别结果,第一判别结果用于表征第六图像和第七图像的差异;训练平台将第一判别结果反馈给第一生成器,以调整第一生成器;训练平台继续训练并测试第一生成器,直至第一判别器反馈出满足第一预设条件的判别结果。
在第一方面的另一种可能的设计方式中,上述第一图像是处理第二图像得到的。也就是说,训练平台获取到多个第二图像后,便可以处理该多个第二图像得到对应的多个第一图像。
具体的,上述训练平台获取多组数据对,可以包括:训练平台获取多个第二图像;训练平台分别将每个第二图像作为输入,运行第二Cycle GAN模型,得到对应的第一图像。其中,第二Cycle GAN模型具备处理第二图像得到所述第一图像的能力。上述第一图像的图像质量高于第二图像的图像质量。其中,该第二Cycle GAN模型也可以称为Cycle GAN优化模型。
应理解,如果第二Cycle GAN模型具备处理图像以提升图像质量的能力,那么将图像质量较高的第二图像作为输入运行该第二Cycle GAN模型,便可以得到图像质量较高的第一图像。如此,训练平台便可以得到由第一图像和第二图像组成的数据对。分别将多个第二图像作为输入运行该第二Cycle GAN模型,训练平台便可以得到多组数据对。该多组数据对可作为Linux系统的进行模型训练的训练样本,用于训练待训练的第一AI模型。
在第一方面的另一种可能的设计方式中,在训练平台获取多组数据对之前,本申请的方法还可以包括:训练平台获取第五图像和第六图像,第五图像的图像质量高于第六图像的图像质量;训练平台将第六图像作为输入样本,并将第五图像作为输出样本,训练第二Cycle GAN模型,使得第二Cycle GAN模型具备处理图像以提升图像质量的能力。
在第一方面的另一种可能的设计方式中,上述第二Cycle GAN模型包括第二生成器和第二判别器。上述第二判别器具备对比两张图像并给出两张图像的差异的能力。
其中,训练平台将第六图像作为输入样本,并将第五图像作为输出样本,训练第二Cycle GAN模型,使得第二Cycle GAN模型具备处理图像以提升图像质量的能力,可以包括:训练平台将第六图像作为输入样本,并将第五图像作为输出样本,训练第二生成器,使得第二生成器具备处理图像以提升图像质量的能力;训练平台将第六图像作为输入,运行训练后的第二生成器,得到第八图像;训练平台将第五图像和第八图像作为输入,运行第二判别器,得到第二判别结果,第二判别结果用于表征第五图像和第八图像的差异;训练平台将第二判别结果反馈给第二生成器,以调整第二生成器;训练平台继续训练并测试第二生成器,直至第二判别器反馈出满足第二预设调整的判别结果。
在第一方面的另一种可能的设计方式中,上述训练平台获取待训练的第一AI模型的模型结构和调参信息,可以包括:训练平台通过AutoML平台为第一AI模型设置调参信息;训练平台接收用户设置的第一AI模型的模型结构。
其中,上述调参信息包括批处理数量、学习率、调整方式信息和上述学习率的变化方式信息。上述批处理数量为第一AI模型的一次模型训练所使用的样本的数量。学习率为第一AI模型的模型参数的调整值。调整方式信息用于指示采用上述学习率调整第一AI模型的模型参数的调整方式。上述变化方式信息用于指示上述学习率在多次模型训练过程中的变化趋势为由大变小。
应理解,不同AI模型的模型结构不同。其中,第一AI模型的模型结构可以是由设计人员根据业务需求预先设计的。或者,第二AI模型的模型结构可以是由设计人员根据业务需求从模型库中选择的,与该业务需求匹配的模型结构。或者,该第一AI模型的模型结构可以是按照业务需求,通过AutoML平台搜索到的。
AI模型的模型参数,用于表征该AI模型中各节点间互相关系的关系强度。也就是说,对第一AI模型进行模型训练得到第二AI模型,虽然AI模型中的节点以及节点间的互相关系(即模型结构)不会发生变化。即第一AI模型与对应第二AI模型的模型结构相同;但是,第一AI模型与第二AI模型中各节点间互相关系的关系强度会发生变化。
其中,本申请实施例中所述的AI模型进行图像修复的强度,不仅会受到AI模型的模型结构的影响,还会受到AI模型中节点间的关系强度的影响。对于每一个AI模型而言,无论经过多少次的模型训练,其模型结构是不会发生变化的。也就是说,对于一个AI模型而言,该AI模型中的节点以及节点间的互相关系(即结构)是固定。但是,AI模型中各节点间互相关系的关系强度会随着模型训练而发生变化。
在模型训练过程中,上述AI模型中各节点间互相关系的关系强度(即AI模型的模型参数)是基于上述调参信息来调整的。
第二方面,本申请提供一种AI模型训练系统,该AI模型训练系统包括训练平台,该训练平台中安装有Linux系统。该训练平台包括存储器、通信接口和一个或多个处理器。存储器、通信接口与处理器耦合。其中,通信接口用于与其他设备进行数据传输。存储器中存储有计算机程序代码,该计算机程序代码包括计算机指令,当计算机指令被处理器执行时,使得训练平台执行如第一方面及任一种可能的设计方式所述的方法。
第三方面,本申请提供一种AI模型训练系统,该AI模型训练系统包括训练平台,该训练平台中安装有Linux系统。该训练平台包括存储器、通信接口和一个或多个处理器。存储器、通信接口与处理器耦合。其中,通信接口用于与其他设备进行数据传输。存储器中存储有计算机程序代码,该计算机程序代码包括计算机指令。
其中,当上述计算机指令被处理器执行时,使得训练平台执行如下步骤:获取多组数据对,每组数据对包括第一图像和第二图像,该第一图像的图像质量高于第二图像的图像质量;获取待训练的第一AI模型的模型结构和调参信息,该调参信息用于指示第一AI模型训练过程中的参数调整策略和图像处理策略;将每组数据对作为训练样本,基于调参信息训练第一AI模型得到第二AI模型,第二AI模型具备修复第二图像得到第一图像的能力;在Linux系统将第二AI模型转换成ONNX模型,将ONNX模型转换成适配Windows系统的第三AI模型;将第三AI模型拷贝至测试平台的Windows系统;通过Linux系统操作测试平台在所述Windows系统,将多个第三图像作为输入,运行第三AI模型得到多个第四图像;在Linux系统操作测试平台在Windows系统,对多个第四图像进行测试,得到第二AI模型的测试指标,测试指标包括拒识率FRR和峰值信噪比;根据测试指标调整第二AI模型,得到第四AI模型。
在第三方面的一种可能的设计方式中,当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:在将第三AI模型拷贝至测试平台的Windows系统之前,利用SSH命令集,进行训练平台的Linux系统与测试平台的Windows系统的远程通信握手连接与账户认证。
在第三方面的一种可能的设计方式中,当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:利用SSH命令集,在Linux系统操作测试平台在Windows系统,对多个第四图像进行测试,得到测试指标。
在第三方面的一种可能的设计方式中,上述第三AI模型包括bin文件和param文件。
在第三方面的一种可能的设计方式中,上述第二图像是处理第一图像得到的。当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:获取多个第一图像;分别将每个第一图像作为输入,运行第一Cycle GAN模型,得到对应的第二图像。其中,第一Cycle GAN模型具备处理第一图像得到第二图像的能力,第二图像的图像质量低于第一图像的图像质量。
在第三方面的一种可能的设计方式中,当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:获取第五图像和第六图像,第五图像的图像质量高于第六图像的图像质量;将第五图像作为输入样本,并将第六图像作为输出样本,训练第一Cycle GAN模型,使得第一Cycle GAN模型具备处理图像以降低图像质量的能力。
在第三方面的一种可能的设计方式中,上述第一Cycle GAN模型包括第一生成器和第一判别器。该第一判别器具备对比两张图像并给出两张图像的差异的能力。
当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:将第五图像作为输入样本,并将第六图像作为输出样本,训练第一生成器,使得第一生成器具备处理图像以降低图像质量的能力;将第五图像作为输入,运行训练后的第一生成器,得到第七图像;将第六图像和第七图像作为输入,运行第一判别器,得到第一判别结果,第一判别结果用于表征第六图像和第七图像的差异;将第一判别结果反馈给第一生成器,以调整第一生成器;继续训练并测试第一生成器,直至第一判别器反馈出满足第一预设条件的判别结果。
在第三方面的一种可能的设计方式中,上述第一图像是处理第二图像得到的。当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:获取多个第二图像;分别将每个第二图像作为输入,运行第二Cycle GAN模型,得到对应的第一图像。其中,第二Cycle GAN模型具备处理第二图像得到第一图像的能力,第一图像的图像质量高于第二图像的图像质量。
在第三方面的一种可能的设计方式中,当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:获取第五图像和第六图像,第五图像的图像质量高于第六图像的图像质量;将第六图像作为输入样本,并将第五图像作为输出样本,训练第二Cycle GAN模型,使得第二Cycle GAN模型具备处理图像以提升图像质量的能力。
在第三方面的一种可能的设计方式中,上述第二Cycle GAN模型包括第二生成器和第二判别器。该第二判别器具备对比两张图像并给出两张图像的差异的能力。
当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:将第六图像作为输入样本,并将第五图像作为输出样本,训练第二生成器,使得第二生成器具备处理图像以提升图像质量的能力;将第六图像作为输入,运行训练后的第二生成器,得到第八图像;将第五图像和第八图像作为输入,运行第二判别器,得到第二判别结果,第二判别结果用于表征第五图像和第八图像的差异;将第二判别结果反馈给第二生成器,以调整第二生成器;继续训练并测试第二生成器,直至第二判别器反馈出满足第二预设调整的判别结果。
在第三方面的一种可能的设计方式中,当上述计算机指令被处理器执行时,使得训练平台还执行如下步骤:通过AutoML平台为第一AI模型设置调参信息;接收用户设置的第一AI模型的模型结构。其中,上述调参信息的具体内容可以参考第一方面的可能的设计方式中的介绍,这里不予赘述。
第四方面,本申请提供一种计算机可读存储介质,包括计算机指令,当所述计算机指令在训练平台上运行时,使得所述训练平台执行如第一方面及任一种可能的设计方式所述的方法。
第五方面,本申请提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得该计算机执行如第一方面及任一种可能的设计方式所述的方法。
可以理解地,上述提供的第二方面、第三方面及其任一种可能的设计方式所述的训练平台,第四方面所述的计算机存储介质,第五方面所述的计算机程序产品所能达到的有益效果,可参考第一方面及其任一种可能的设计方式中的有益效果,此处不再赘述。
附图说明
图1为本申请实施例提供的一种AI模型的自动化训练方法的原理框图;
图2为本申请实施例提供的一种AI模型的自动化训练方法流程图;
图3为本申请实施例提供的一种Cycle GAN模型的组成结构示意图;
图4为本申请实施例提供的另一种AI模型的自动化训练方法的原理框图;
图5为本申请实施例提供的一种第一Cycle GAN模型的训练原理示意图;
图6为本申请实施例提供的另一种AI模型的自动化训练方法的原理框图;
图7为本申请实施例提供的一种第二Cycle GAN模型的训练原理示意图;
图8为本申请实施例提供的一种第一Cycle GAN模型和第二Cycle GAN模型的训练原理示意图;
图9为本申请实施例提供的一种数据对(包括第一图像和第二图像)的实例示意图;
图10为本申请实施例提供的一种训练平台的结构组成示意图。
具体实施方式
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本申请实施例提供一种AI模型的自动化训练方法,该方法可以应用于图1所示的训练平台100。该训练平台100用于训练用于进行图像修复的AI模型。图1示出本申请实施例提供的一种AI模型的训练系统的系统架构示意图。
如图1所示,该AI模型的训练系统包括训练平台100和测试平台200。训练平台100中安装有Linux系统,测试平台200中安装有Windows系统。
其中,Linux系统具备如下优势:Linux系统的GPU的图形处理能力较强。而Windows系统则具备不同的优势,如Windows系统的CPU的运算能力较强。
本申请实施例中,训练平台100可以利用Linux系统图形处理能力较强的优势,在Linux系统下完成AI模型的训练流程。然后,训练平台100可以借助于Windows系统运算能力较强的优势,在测试平台200的Windows系统中完成AI模型的测试流程(如跑库测试)。
具体的,训练平台100可以通过Linux系统与Windows系统的通信环境,操作Windows系统完成训练后的AI模型的测试流程。例如,训练平台100可以在Linux系统中训练好AI模型。然后,训练平台100可以将训练好的AI模型转换为开放神经网络交换(openneural network exchange,ONNX)模型。之后,如图1所示,训练平台100可以向测试平台200传输该ONNX模型。该ONNX模型是一个用于表示深度学习模型的标准,可使模型在不同框架之间进行转移。也就是说,该ONNX模型可以被Windows识别。如此,测试平台200则可以在Windows系统中基于该ONNX模型执行测试流程,得到上述AI模型的测试指标,并向训练平台100反馈该测试指标。由训练平台100根据测试指标调整AI模型。
综上所述,本申请实施例的方法,可以利用Linux系统和Windows系统这两个系统各自的优势,实现能力复配,将AI模型的训练流程和测试流程按照这两个操作系统各自的优势分配给不同的操作系统来完成。如此,则不需要人为执行测试流程对AI模型的性能进行测试,实现了AI模型的自动化测试,可以提升AI模型的测试效率。
以下结合附图,通过具体实施例介绍本申请实施例的方法。
本申请实施例提供一种AI模型的自动化训练方法,该方法可以应用于图1所示的训练平台100,该训练平台100中安装有Linux系统。如图2所示,该AI模型的自动化训练方法可以包括S201-S209。
S201、训练平台100获取多组数据对,每组数据对包括第一图像和第二图像。该第一图像的图像质量高于第二图像的图像质量。
应注意,上述第一图像和第二图像是一组数据对。每组数据对中的第一图像和第二图像,是拍摄场景、拍摄角度、拍摄对象、相机的拍摄参数等数据均相同的同一张图像,只是图像质量不同而已。
在一些实施例中,训练平台100可以获取多个第一图像,然后采用预设图像回退算法或者预设图像回退AI模型处理分别处理每个第一图像,得到对应的第二图像。该预设图像回退算法和预设图像回退AI模型均具备处理图像以降低图像质量的功能。
在另一些实施例中,训练平台100可以获取多个第二图像,然后采用预设图像回退算法或者预设图像回退AI模型处理分别处理每个第二图像,得到对应的第一图像。该预设图像优化算法和预设图像优化AI模型均具备处理图像以提升图像质量的功能。
其中,上述预设图像回退算法和预设图像回退AI模型,以及预设图像优化算法和预设图像优化AI模型,可以为常规技术中具备对应功能的算法和模型。当然,本申请实施例提供的预设图像回退AI模型和预设图像优化AI模型也可以区别于常规技术中的模型。
在另一些实施例中,上述预设图像回退模型可以是本申请实施例提供的循环Cycle生成对抗网络(generative adversarial network,GAN)模型。其中,Cycle GAN模型可以包括两部分生成模型(Generative Model)和判别模型(Discriminative Model)。该Generative Model也可以称为生成器,该Discriminative Model也可以称为判别器。其中,Cycle GAN模型中的Generative Model和Discriminative Model的具体功能,可以参考以下实施例和常规技术中的详细介绍,这里不予赘述。
一般而言,训练一个Cycle GAN模型可以得到两个Generative Model:A2BGenerative Model(简称为A2B Generative)和B2A Generator Model(简称为B2AGenerative)。A2BGenerative具备处理图像以降低图像质量的功能,B2A Generator具备处理图像以提升图像质量的功能。
例如,如图3所示,Cycle GAN模型300可以包括第一Cycle GAN模型301和第二Cycle GAN模型302。该第一Cycle GAN模型301包括A2B Generative(即第一生成器)和第一判别器(如Discriminative B),该第一判别器是上述Discriminative Model,可简称为Discriminative。该第二Cycle GAN模型302包括B2A Generative(即第二生成器)和第二判别器(如Discriminative A),该第二判别器是上述Discriminative Model,可简称为Discriminative。应注意,上述第二判别器和第一判别器可以是同一个判别器,即第一Cycle GAN模型301和第二Cycle GAN模型302可以共用一个判别器。第二判别器和第一判别器还可以是不同的两个判别器。
在本申请实施例的一种实现方式(如实现方式a)中,本申请实施例提供的CycleGAN模型包括A2B Generative。该Cycle GAN模型称为第一Cycle GAN模型、Cycle GAN退化模型或者Cycle GAN回退模型。
在该实现方式a中,上述第二图像是训练平台100采用第一Cycle GAN模型处理第一图像得到的。具体的,上述S201可以包括S201A-S201B。
S201A:训练平台100获取多个第一图像。
其中,训练平台100可以获取图像质量(如清晰度和/或完整度)高于一定阈值的多个第一图像。应理解,相比于获取数据对(包括第一图像和第二图像),获取图像质量高于一定阈值的单个图像的难度较小。
示例性的,一个图像的图像质量也可以通过该图像的清晰度和完整度来表示。其中,一个图像的清晰度越高,该图像的图像质量则越高。一个图像越完整,该图像的图像质量则越高。一个图像(如图像a)的图像质量高于另一个图像(如图像b)的图像质量,可以包括:图像a的清晰度高于图像b的清晰度,和/或图像a的完整度高于图像b的完整度。
其中,影响图像质量的图像参数包括但不限于清晰度和完整度。不同的图像参数(如清晰度和完整度)对图像质量的影响权重不同。例如,以该图像参数包括清晰度和完整度为例。清晰度对图像质量的影响权重可以为a%,完整度对图像质量的影响权重可以为b%,a%+b%=100%。其中,一个图像的图像质量可以通过该图像的图像参数(如清晰度和完整度)的加权和来表示。如一张图像的清晰度为A,完整度为B,则该图像的图像质量可以表示为A*a%+B*b%。当然,图像的图像质量的表示方式包括但不限于上述示例的方式,本申请实施例对此不作限制。
S201B:训练平台100分别将每个第一图像作为输入,运行第一Cycle GAN模型,得到对应的第二图像。
其中,第一Cycle GAN模型具备处理第一图像得到第二图像的能力,该第二图像的图像质量低于第一图像的图像质量。也就是说,第一Cycle GAN模型具备处理图像以降低图像质量的能力。如此,将第一图像作为输入运行第一Cycle GAN模型,便可以得到对应的第二图像。
本申请实施例这里介绍上述第一Cycle GAN模型的训练方法。具体的,训练平台100训练第一Cycle GAN模型的方法可以包括S1-S2。
S1:训练平台100获取第五图像和第六图像,该第五图像的图像质量高于第六图像的图像质量。
应注意,上述第一图像和第二图像是一组数据对。每组数据对中的第一图像和第二图像,是拍摄场景、拍摄角度、拍摄对象、相机的拍摄参数等数据均相同的同一张图像,只是图像质量不同而已。与上述数据对中的两张图像不同的是,第五图像和第六图像则不要求上述拍摄场景、拍摄角度、拍摄对象、相机的拍摄参数等相同。第五图像和第六图像可以是图像质量高低不同的两张图像。其中,相比于获取数据对,获取图像质量高低不同的两张图像的难度较小。如此,可以降低Cycle GAN模型的训练成本。
S2:训练平台100将第五图像作为输入样本,并将第六图像作为输出样本,训练第一Cycle GAN模型,使得第一Cycle GAN模型具备处理图像以降低图像质量的能力。
应理解,第五图像的图像质量高于第六图像的图像质量。因此,将第五图像作为输入样本并将第六图像作为输出样本,训练第一Cycle GAN模型,便可以使第一Cycle GAN模型学习到处理第五图像这样的高质量图像得到第六图像这样的低质量图像的能力。
需要说明的是,在本申请实施例中,第五图像的图像质量(如清晰度和/或完整度)与第一图像的图像质量相同或相当;第二图像的图像质量与第六图像的图像质量相同或相当。
例如,请参考图4,其示出本申请实施例提供的一种AI模型的自动化训练方法的原理示意图。如图4所示,训练平台100可执行GAN模型生成401,将第五图像和第六图像作为训练样本,训练第一Cycle GAN模型(如Cycle GAN退化模型),使得第一Cycle GAN模型具备处理图像以降低图像质量的能力。
应理解,如果第一Cycle GAN模型具备处理图像以降低图像质量的能力,那么将图像质量较高的第一图像作为输入运行该第一Cycle GAN模型,便可以得到图像质量较低的第二图像。如此,训练平台100便可以得到由第一图像和第二图像组成的数据对。分别将多个第一图像作为输入运行该第一Cycle GAN模型,训练平台100便可以得到多组数据对。该多组数据对可作为图4所示的Linux系统的模型训练402的训练样本,用于训练本申请实施例提供的待训练的第一AI模型。
本申请实施例这里结合图5或图8,介绍上述第一Cycle GAN模型的训练原理。如图3所示,上述第一Cycle GAN模型包括第一生成器(如A2B Generative)和第一判别器(如Discriminative B),第一判别器(如Discriminative B)具备对比两张图像并给出这两张图像的差异的能力。上述S2可以包括S2.1-S2.5。
S2.1:训练平台100将第五图像作为输入样本,并将第六图像作为输出样本,训练第一生成器(如A2B Generative),使得第一生成器(如A2B Generative)具备处理图像以降低图像质量的能力。
其中,第五图像的图像质量高于第六图像的图像质量。因此,本申请实施例中,可以将第五图像称为Best数据,将第六图像称为Bad数据。
应理解,第五图像的图像质量高于第六图像的图像质量。因此,将第五图像作为输入样本并将第六图像作为输出样本,训练第一生成器(如A2B Generative),便可以使A2BGenerative学习到处理第五图像这样的高质量图像得到第六图像这样的低质量图像的能力。
虽然A2B Generative已经具备了处理图像以降低图像质量的能力。但是,A2BGenerative的这种能力不一定满足本申请实施例对该能力的要求;因此,还需要继续测试并训练该A2BGenerative。
S2.2:训练平台100将第五图像作为输入,运行训练后的第一生成器(如A2BGenerative),得到第七图像。
如图5或图8所示,训练平台100可以将Input_A(即第五图像,如Best数据)作为第一生成器(如A2B Generative)的输入,运行A2B Generative。如此,便可以得到图5或图8所示的Generator_B(即第七图像)。该Generator_B的图像质量低于Input_A的图像质量。
S2.3训练平台100将第六图像和第七图像作为输入,运行第一判别器(如Discriminative B),得到第一判别结果。该第一判别结果用于表征第六图像和第七图像的差异。
其中,如果A2B Generative处理第五图像得到的第七图像的图像质量与第六图像的图像质量相同或者差异较小,则表示该A2B Generative满足要求。因此,如图5或图8所示,训练平台100可以将Generator_B(即第七图像)和Input_B(即第六图像)作为输入,运行Discriminative B来对比该Generator_B和Input_B。其中,上述第一判别结果是Discriminative B对比Generator_B和Input_B的结果,可以表征Generator_B和Input_B的差异。
S2.4:训练平台100将第一判别结果反馈给第一生成器(如A2B Generative),以调整第一生成器(如A2B Generative)。
例如,第一判别结果可以是图5或图8所示的结果Decision[0,1]500。该Decision[0,1]500可以表示该Generator_B和Input_B的差异的大小。
例如,当Decision[0,1]500为0时,则表示Generator_B(即第七图像)和Input_B(即第六图像)的差异为0%,第一生成器(如A2B Generative)已具备处理第五图像得到第六图像的能力,即A2B Generative已满足本申请实施例的要求。
又例如,当Decision[0,1]500为0.5时,则表示Generator_B(即第七图像)和Input_B(即第六图像)的差异为50%,第一生成器(如A2B Generative)还需要继续训练才可以具备处理第五图像得到第六图像的能力,即A2B Generative还不满足本申请实施例的要求。
又例如,当Decision[0,1]500为100%时,则表示Generator_B(即第七图像)和Input_B(即第六图像)的差异为100%,第一生成器(如A2B Generative)还需要更大强度的训练才可以具备处理第五图像得到第六图像的能力,即A2B Generative还不满足本申请实施例的要求。
S2.5:训练平台100继续训练并测试第一生成器(如A2B Generative),直至第一判别器(如Discriminative B)反馈出满足第一预设条件的判别结果。
例如,第一判别结果满足第一预设条件具体可以为上述Decision[0,1]500大于第一预设阈值。例如,该第一预设阈值可以为90%、95%或者88%等任一数值。
在本申请实施例的另一种实现方式(如实现方式b)中,本申请实施例提供的CycleGAN模型包括B2A Generative,该Cycle GAN模型是第二Cycle GAN模型。该第二Cycle GAN模型也可以称为Cycle GAN优化模型。该第二Cycle GAN模型具备处理第二图像得到第一图像的能力,该第一图像的图像质量高于第二图像的图像质量。
在该实现方式b中,上述第一图像是训练平台100采用第二Cycle GAN模型处理第二图像得到的。具体的,上述S201可以包括S201a-S201b。
S201a:训练平台100获取多个第二图像。
其中,训练平台100可以获取图像质量(如清晰度和/或完整度)低于一定阈值的多个第二图像。应理解,相比于获取数据对(包括第一图像和第二图像),获取图像质量低于一定阈值的单个图像的难度较小。
S201b:训练平台100分别将每个第二图像作为输入,运行第二Cycle GAN模型,得到对应的第一图像。
其中,第二Cycle GAN模型具备处理第二图像得到第一图像的能力,该第一图像的图像质量高于第二图像的图像质量。也就是说,第二Cycle GAN模型具备处理图像以提升图像质量的能力。如此,将第二图像作为输入运行第二Cycle GAN模型,便可以得到对应的第一图像。
本申请实施例这里介绍上述第二Cycle GAN模型的训练方法。具体的,训练平台100训练第二Cycle GAN模型的方法可以包括Si-Sii。
Si:训练平台100获取第五图像和第六图像,该第五图像的图像质量高于第六图像的图像质量。
其中,Si可以参考S1,本申请实施例这里不予赘述。
Sii:训练平台100将第六图像作为输入样本,并将第五图像作为输出样本,训练第二Cycle GAN模型,使得第二Cycle GAN模型具备处理图像以提升图像质量的能力。
应理解,第六图像的图像质量低于第五图像的图像质量。因此,将第六图像作为输入样本并将第五图像作为输出样本,训练第二Cycle GAN模型,便可以使第二Cycle GAN模型学习到处理第六图像这样的低质量图像得到第五图像这样的高质量图像的能力。
例如,请参考图6,其示出本申请实施例提供的一种AI模型的自动化训练方法的原理示意图。如图6所示,训练平台100可执行GAN模型生成600,将第五图像和第六图像作为训练样本,训练第二Cycle GAN模型(如Cycle GAN退化模型),使得第二Cycle GAN模型具备处理图像以提升图像质量的能力。
应理解,如果第二Cycle GAN模型具备处理图像以提升图像质量的能力,那么将图像质量较高的第二图像作为输入运行该第二Cycle GAN模型,便可以得到图像质量较高的第一图像。如此,训练平台100便可以得到由第一图像和第二图像组成的数据对。分别将多个第二图像作为输入运行该第二Cycle GAN模型,训练平台100便可以得到多组数据对。该多组数据对可作为图6所示的Linux系统的模型训练402的训练样本,用于训练本申请实施例提供的待训练的第一AI模型。
本申请实施例这里结合图7或图8,介绍上述第二Cycle GAN模型的训练原理。如图3所示,上述第二Cycle GAN模型包括第二生成器(如B2A Generative)和第二判别器(如Discriminative A),第二判别器(如Discriminative A)具备对比两张图像并给出这两张图像的差异的能力。上述Sii可以包括Sii.1-Sii.5。
Sii.1:训练平台100将第六图像作为输入样本,并将第五图像作为输出样本,训练第二生成器(如B2A Generative),使得第二生成器(如B2A Generative)具备处理图像以提升图像质量的能力。
应理解,第六图像的图像质量低于第五图像的图像质量。因此,将第六图像作为输入样本并将第五图像作为输出样本,训练第二生成器(如B2A Generative),便可以使B2AGenerative学习到处理第六图像这样的高质量图像得到第五图像这样的低质量图像的能力。
虽然B2A Generative已经具备了处理图像以提升图像质量的能力。但是,B2AGenerative的这种能力不一定满足本申请实施例对该能力的要求;因此,还需要继续测试并训练该B2AGenerative。
Sii.2:训练平台100将第六图像作为输入,运行训练后的第二生成器,得到第八图像。
如图7或图8所示,训练平台100可以将Input_B(即第六图像,如Bad数据)作为第二生成器(如B2A Generative)的输入,运行B2A Generative。如此,便可以得到图7或图8所示的Generator_A(即第八图像)。该Generator_A的图像质量高于Input_B的图像质量。
Sii.3训练平台100将第五图像和第八图像作为输入,运行第二判别器(如Discriminative A),得到第二判别结果。该第二判别结果用于表征第五图像和第八图像的差异。
其中,如果B2A Generative处理第六图像得到的第八图像的图像质量与第五图像的图像质量相同或者差异较小,则表示该B2A Generative满足要求。因此,如图7或图8所示,训练平台100可以将Generator_A(即第八图像)和Input_A(即第五图像)作为输入,运行Discriminative A来对比该Generator_A和Input_A。其中,上述第二判别结果是Discriminative A对比Generator_A和Input_A的结果,可以表征Generator_A和Input_A的差异。
Sii.4:训练平台100将第二判别结果反馈给第二生成器(如B2A Generative),以调整第二生成器(如B2A Generative)。
例如,第二判别结果可以是图7或图8所示的结果Decision[0,1]600。该Decision[0,1]600可以表示该Generator_A和Input_A的差异的大小。
例如,当Decision[0,1]600为0时,则表示Generator_A(即第八图像)和Input_A(即第五图像)的差异为0%,第二生成器(如B2A Generative)已具备处理第六图像得到第五图像的能力,即B2A Generative已满足本申请实施例的要求。
又例如,当Decision[0,1]600为0.5时,则表示Generator_A(即第八图像)和Input_A(即第五图像)的差异为50%,第二生成器(如B2A Generative)还需要继续训练才可以具备处理第六图像得到第五图像的能力,即B2A Generative还不满足本申请实施例的要求。
又例如,当Decision[0,1]600为100%时,则表示Generator_A(即第八图像)和Input_A(即第五图像)的差异为100%,第二生成器(如B2A Generative)还需要更大强度的训练才可以具备处理第六图像得到第五图像的能力,即B2A Generative还不满足本申请实施例的要求。
Sii.5:训练平台100继续训练并测试第二生成器(如B2A Generative),直至第二判别器(如Discriminative A)反馈出满足第二预设条件的判别结果。
例如,第二判别结果满足第二预设条件具体可以为上述Decision[0,1]600大于第二预设阈值。例如,该第二预设阈值可以为90%、95%或者88%等任一数值。
需要说明的是,相比于处理图像以提升图像质量,处理图像以降低图像质量的难度更小。因此,本申请实施例中可以采用上述实现方式a的方案执行S201A-S201B,利用Cycle GAN模型中的第一Cycle GAN模型(如A2B Generative)得到多组数据对。当然,也可以采用上述实现方式b的方案执行S201a-S201b,利用Cycle GAN模型中的第二Cycle GAN模型(如B2A Generative)得到多组数据对,本申请实施例对此不作限制。
S202:训练平台100获取待训练的第一AI模型的模型结构和调参信息。该调参信息用于指示第一AI模型训练过程中的参数调整策略和图像处理策略。
其中,第一AI模型的模型结构可以是由设计人员根据业务需求预先设计的。或者,第二AI模型的模型结构可以是由设计人员根据业务需求从模型库中选择的,与该业务需求匹配的模型结构。或者,该第一AI模型的模型结构可以是按照业务需求,通过AutoML平台搜索到的。本申请实施例中,训练平台100可以获取到多个第一AI模型的模型结构和调参信息。然后,训练平台100可以针对每个第一AI模型均执行S202-S208。
应理解,不同AI模型的模型结构不同。其中,多个AI模型的模型结构不同,具体可以表现为第(1)方面和第(2)方面这两个方面。
第(1)方面:多个AI模型的模型结构所包括的节点不同。例如,AI模型a的模型结构包括2个卷积算子、1个加和算子和1个反卷积算子。又例如,AI模型b的模型结构包括2个卷积算子和1个加和算子,不包括反卷积算子。由此可见,AI模型a与AI模型b的模型结构不同。
第(2)方面:不同AI模型的模型结构中,节点间的相互关系不同。例如,上述AI模型a的模型结构中,2个卷积算子的下一个节点是加和算子,加和算子的下一个节点是反卷积算子。又例如,AI模型c的模型结构也包括2个卷积算子、1个加和算子和1个反卷积算子;但是,与AI模型a的模型结构不同的是,AI模型c的模型结构中,1个卷积算子和1个反卷积算子的下一个节点是加和算子,加和算子的下一个节点是卷积算子。由此可见,AI模型a与AI模型c的,模型结构不同。
AI模型的模型参数,用于表征该AI模型中各节点间互相关系的关系强度。也就是说,对第一AI模型进行模型训练得到第二AI模型,虽然AI模型中的节点以及节点间的互相关系(即模型结构)不会发生变化。即第一AI模型与对应第二AI模型的模型结构相同;但是,第一AI模型与第二AI模型中各节点间互相关系的关系强度会发生变化。
其中,本申请实施例中所述的AI模型进行图像修复的强度,不仅会受到AI模型的模型结构的影响,还会受到AI模型中节点间的关系强度的影响。对于每一个AI模型而言,无论经过多少次的模型训练,其模型结构是不会发生变化的。也就是说,对于一个AI模型而言,该AI模型中的节点以及节点间的互相关系(即结构)是固定。但是,AI模型中各节点间互相关系的关系强度会随着模型训练而发生变化。
在模型训练过程中,上述AI模型中各节点间互相关系的关系强度(即AI模型的模型参数)是基于上述调参信息来调整的。
示例性的,上述调参信息可以包括批处理数量、学习率(learning rate)、调整方式信息和上述学习率的变化方式信息。
上述批处理数量为第一AI模型的一次模型训练所使用的样本的数量。例如,bathsize=1000,第一AI模型的一次模型训练使用1000组训练样本(即数据对)。又例如,bathsize=900,第一AI模型的一次模型训练使用900组训练样本(即数据对)。
上述学习率(learning rate)为第一AI模型的模型参数的调整值。上述调整方式信息用于指示采用上述学习率(learning rate)调整第一AI模型的模型参数的调整方式(optimal type)。上述变化方式信息用于指示上述学习率(learning rate)在多次模型训练过程中的变化趋势是由大变小。
应理解,上述learning rate是第一AI模型的模型参数的调整值,变化方式信息指示learning rate在多次模型训练过程中由大变小。如此,在第一AI模型的训练过程中,可以实现该第一AI模型的模型参数由粗调到细调的逐渐变化,有利于提升第一AI模型的训练精度,以提升训练后的AI模型的图像处理的准确度。
在一些实施例中,训练平台100可以通过AutoML平台为第一AI模型设置上述调参信息。具体的,如图9所示,S202可以包括:训练平台100通过AutoML平台为第一AI模型设置调参信息;训练平台100接收用户设置的第一AI模型的模型结构。
例如,如图4或图6所示,训练平台100可以结合AutoML平台来实现对第一AI模型的训练。具体的,AutoML平台用于为第一AI模型设置上述调参信息。当然,AutoML平台也可以用于设置第一AI模型的模型结构。
示例性的,本申请实施例提供的AutoML平台可以为:Google Cloud AutoML、EasyDL或者阿里云机器学习平台(platform of artificial intelligence,PAI)等AutoML平台中的任一种。其中,PAI是阿里巴巴TM推出的机器学习服务平台,EasyDL是百度TM的AutoML平台。
S203:训练平台100将每组数据对作为训练样本,基于调参信息训练第一AI模型得到第二AI模型,该第二AI模型具备修复第二图像得到第一图像的能力。
示例性的,如图9所示,第一图像902和第二图像901是一组数据对,第一图像904和第二图像903是一组数据对。由图9可知:第一图像902的图像质量高于第二图像901的图像质量;第一图像904的图像质量高于第二图像903的图像质量。
例如,如图4或图6所示,训练平台100可以执行Linux系统的模型训练402,将第一图像和第二图像组成的数据对作为训练样本,基于AutoML平台设置的调参信息训练第一AI模型得到第二AI模型。
其中,训练平台100执行图4或图6所示的Linux系统的模型训练402,训练第一AI模型得到第二AI模型的方法,可以参考常规技术中的详细描述,这里不予赘述。
S204:训练平台100在Linux系统将第二AI模型转换成ONNX模型。
例如,第二AI模型可以是.BP格式的模型,称为BP模型。BP模型适配于Linux系统,但是BP模型并不适配Windows系统。如此,如果利用Windows系统的CPU的运算能力较强的优势对BP模型进行测试,则可以将该BP模型转换为Windows系统可以识别的模型格式。
本申请实施例中,训练平台100可以将BP模型转换成ONNX模型。该ONNX模型是一个用于表示深度学习模型的标准,可使模型在不同框架之间进行转移。应注意,适配Linux系统的AI模型(如BP模型,即第二AI模型)与适配Windows系统的AI模型之间是不能直接相互转换的。而上述ONNX模型可使模型在不同框架之间进行转移。如此,本申请实施例中,训练平台100可以先将适配Linux系统的AI模型(如BP模型)转换成ONNX模型,再将ONNX模型转换成适配Windows系统的AI模型。如此,便可以实现适配Linux系统的AI模型与适配Windows系统的AI模型之间的转换。
S205:训练平台100在Linux系统将ONNX模型转换为适配Windows系统的第三AI模型。
可选的,该第三AI模型包括bin文件和param文件。其中,bin文件是后缀为.bin的模型文件,param文件是后缀为.param的模型文件。
示例性的,训练平台100可以利用预设模型转换工具,将ONNX模型转换成第三AI模型。应理解,针对执行不同任务的AI模型,对该AI模型进行模型转换所使用的模型转换工具可以不同。
S206:训练平台100利用Linux系统与测试平台200的Windows系统的通信环境,将第三AI模型拷贝至测试平台200的Windows系统中。
在S206之前,训练平台100可以利用SSH命令集,进行Linux系统与测试平台200的Windows系统的远程通信握手连接与账户认证。例如,如图2所示,在S205之前,本申请实施例的方法还可以包括S206'。S206':训练平台100利用SSH命令集,进行训练平台100的Linux系统与测试平台200的Windows系统的远程通信握手连接与账户认证。其中,S206'的详细介绍,可以参考常规技术中的相关描述,这里不予赘述。
其中,训练平台100利用SSH命令集,进行训练平台100的Linux系统与测试平台200的Windows系统的远程通信握手连接与账户认证之后,Linux系统与Windows系统的通信环境便可以支持Linux系统与Windows系统之间的数据传输。如此,训练平台100便可以执行S205,利用Linux系统与Windows系统的通信环境,将第三AI模型拷贝至测试平台200的Windows系统中。
S207:训练平台100通过Linux系统操作测试平台200在Windows系统,将多个第三图像作为输入,运行第三AI模型得到多个第四图像。
其中,该多个第三图像可以是图像质量低于一定阈值的多个图像。训练平台100通过Linux系统可以操作测试平台200在Windows系统,将这多个图像质量较低的第三图像作为输入运行第三AI模型,由第三AI模型修复(也可以称为推理inference)该多个第三图像得到多个第四图像。
例如,如图4或图6所示,训练平台100可以执行Windows系统的模型测试403。Windows系统的模型测试403中,可以将多个第三图像(如Bad数据)作为输入运行第三AI模型,可以得到多个第四图像(如Best数据)。
应理解,第三AI模型是由上述第二AI模型经过两次模型转换得到的。该第三AI模型与第二AI模型(如BP模型)的格式不同;但是,第三AI模型与第二AI模型的功能是相同的,均具备修复图像以提升图像质量的能力。因此,经过第三AI模型修复后的第四图像的图像质量高于第三图像的图像质量。
S208:训练平台100在Linux系统操作测试平台200在Windows系统,对多个第四图像进行测试,得到第二AI模型的测试指标。
示例性的,训练平台100可以利用SSH命令集,在Linux系统操作测试平台200在Windows系统,对多个第四图像进行测试得到上述测试指标。例如,测试平台200可以利用Windows系统与Linux系统的通信环境,向训练平台100反馈(即发送)该测试指标。训练平台100可以接收来自测试平台200的测试指标。
其中,测试指标包括拒识率(false rejection rate,FRR)和峰值信噪比(peaksignal to noise ratio,PSNR)。FRR用于表征上述多个第四图像用于生物识别的失败概率。例如,假设上述多个第四图像是100个指纹图像。这100个指纹图像用于指纹识别,有20个失败,80个成功。该100个指纹图像的FRR为20%。PSNR用于表征第四图像失真情况。其中,PSNR越大,则第四图像失真越少;PSNR越小,则第四图像失真越严重。
例如,如图4或图6所示,Windows系统的模型测试403中,可以采用模型测试算法对多个第四图像(如Best数据)进行测试,得到测试指标;然后将测试指标反馈给Linux系统。如此,训练平台100则可以执行S209根据测试指标调整上述第二AI模型,得到图4或图6所示的第四AI模型404。该第四AI模型404用于修复Bad数据得到Best数据。
示例性的,以上述第四图像是指纹图像为例。采用模型测试算法对第四图像(如Best数据)进行测试得到测试指标,可以包括:采用模型测试算法模拟第四图像的指纹识别,根据第四图像的指纹识别结果(如指纹识别成功或失败),得到测试指标。
本申请实施例中,采用模型测试算法可以模拟上述多个第四图像的指纹识别,得到多个模拟的指纹识别结果(如指纹识别成功或失败);再根据该多个模拟的指纹识别结果确定上述测试指标。
例如,如上述示例中,假设上述多个第四图像是100个指纹图像。这100个指纹图像用于指纹识别,有20个失败,80个成功。该100个指纹图像的FRR为20%。PSNR用于表征第四图像失真情况。
需要说明的是,本申请实施例中,模拟指纹图像的指纹识别,根据指纹图像的指纹识别结果(如指纹识别成功或失败)得到测试指标的方法,可以参考常规技术中的相关描述,本申请实施例这里不予赘述。
S209、训练平台100根据测试指标调整上述第二AI模型,得到第四AI模型。
本申请实施例的方法,可以利用Linux系统和Windows系统这两个系统各自的优势,实现能力复配,将AI模型的训练流程和测试流程按照这两个操作系统各自的优势分配给不同的操作系统来完成。如此,则不需要人为执行测试流程对AI模型的性能进行测试,实现了AI模型的自动化测试,可以提升AI模型的测试效率。
并且,本申请实施例中,还可以通过训练GAN网络生成多组用于训练AI模型的数据对。这样,降低采集Best数据与Bad数据组成的数据对的难度。进一步的,本申请实施例中,可以结合AutoML平台实现AI模型的自动化训练。解决了模型训练调参耗时长,耗费人力多,重复劳动较多的问题。
综上所述,本申请实施例的方法,将训练数据(即上述多组数据对)采集、模型训练、模型测试等流程结合到一起,实现了AI模型的自动化训练,提升了模型训练的效率。
可以理解的是,上述设备等为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本发明实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请实施例的范围。
本申请实施例可以根据上述方法示例对上述训练平台等进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本发明实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用对应各个功能划分各个功能模块的情况下,本申请实施例提供了一种AI模型训练系统,该AI模型训练系统包括训练平台,如训练平台1000。
如图10所示,该训练平台1000包括:存储器1003、通信接口1002和一个或多个处理器1001。存储器1003、通信接口1002与处理器1001耦合。例如,存储器1003、通信接口1002与处理器1001可以通过总线1004耦合在一起。
其中,通信接口1002用于与其他设备进行数据传输。存储器1003中存储有计算机程序代码。计算机程序代码包括计算机指令,当计算机指令被处理器1001执行时,使得训练平台1000执行上述实施例中的各个步骤。
具体的,上述处理器1001用于支持上述实施例中的S201、S201A、S201B、S1-S2、S2.1-S2.5、S201a-S201b、Si-Sii,Sii.1-Sii.5,S202,S203,S204,S205、S207和S208中“操作测试平台200在Windows系统”的相关处理操作、S209,和/或用于本文所描述的技术的其它过程。通信接口1002用于支持上述实施例中的S206、S207和S208中“训练平台100与测试平台200之间的数据通信”,和/或用于本文所描述的技术的其它过程。
上述存储器1003还可以用于保存上述第一AI模型、第二AI模型、ONNX模型、第三AI模型和第四AI模型等。具体的,存储器1003可以保存上述AI模型的模型代码。本申请实施例中,训练平台(如训练平台1000或者训练平台100)运行AI模型,具体可以包括:训练平台运行该AI模型的模型代码。
其中,处理器1001可以是处理器或控制器,例如可以是中央处理器(CentralProcessing Unit,CPU),通用处理器,数字信号处理器(Digital Signal Processor,DSP),专用集成电路(Application-Specific Integrated Circuit,ASIC),现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本发明公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等等。
其中,总线1004可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。上述总线1004可以分为地址总线、数据总线、控制总线等。为便于表示,图10中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
示例性的,训练平台1000可以包括一个或多个处理器1001,即训练平台1000可以包括多核处理器。
本申请实施例还提供一种计算机存储介质,该计算机存储介质中存储有计算机程序代码,当上述处理器执行该计算机程序代码时,该训练平台执行上述方法实施例中的相关方法步骤实现上述实施例中的方法。
本申请实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述方法实施例中的相关方法步骤实现上述实施例中的方法。
其中,本申请提供的训练平台、计算机存储介质或者计算机程序产品均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
通过以上实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (13)
1.一种人工智能AI模型的自动化训练方法,其特征在于,应用于训练平台,所述训练平台中安装有Linux系统,所述方法包括:
所述训练平台获取多组数据对,每组数据对包括第一图像和第二图像,所述第一图像的图像质量高于所述第二图像的图像质量;
所述训练平台获取待训练的第一AI模型的模型结构和调参信息,所述调参信息用于指示所述第一AI模型训练过程中的参数调整策略和图像处理策略;
所述训练平台将所述每组数据对作为训练样本,基于所述调参信息训练所述第一AI模型得到第二AI模型,所述第二AI模型具备修复所述第二图像得到所述第一图像的能力;
所述训练平台在所述Linux系统将所述第二AI模型转换成开放神经网络交互ONNX模型,将所述ONNX模型转换成适配Windows系统的第三AI模型;
所述训练平台将所述第三AI模型拷贝至测试平台的所述Windows系统;
所述训练平台通过所述Linux系统操作所述测试平台在所述Windows系统,将多个第三图像作为输入,运行所述第三AI模型得到多个第四图像;
所述训练平台在所述Linux系统操作所述测试平台在所述Windows系统,对所述多个第四图像进行测试,得到所述第二AI模型的测试指标,所述测试指标包括拒识率FRR和峰值信噪比;
所述训练平台根据所述测试指标调整所述第二AI模型,得到第四AI模型。
2.根据权利要求1所述的方法,其特征在于,在所述训练平台将所述第三AI模型拷贝至所述测试平台的所述Windows系统之前,所述方法还包括:
所述训练平台利用安全外壳协议SSH命令集,进行所述训练平台的所述Linux系统与所述测试平台的所述Windows系统的远程通信握手连接与账户认证。
3.根据权利要求2所述的方法,其特征在于,所述训练平台在所述Linux系统操作所述测试平台在所述Windows系统,对所述多个第四图像进行测试,得到所述第二AI模型的测试指标,包括:
所述训练平台利用所述SSH命令集,在所述Linux系统操作所述测试平台在所述Windows系统,对所述多个第四图像进行测试,得到所述测试指标。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述第三AI模型包括bin文件和param文件。
5.根据权利要求1-3中任一项所述的方法,其特征在于,所述第二图像是处理所述第一图像得到的;
其中,所述训练平台获取多组数据对,包括:
所述训练平台获取多个所述第一图像;
所述训练平台分别将每个所述第一图像作为输入,运行第一循环Cycle生成对抗网络GAN模型,得到对应的第二图像;
其中,第一Cycle GAN模型具备处理所述第一图像得到所述第二图像的能力,所述第二图像的图像质量低于所述第一图像的图像质量。
6.根据权利要求5所述的方法,其特征在于,在所述训练平台获取多组数据对之前,所述方法还包括:
所述训练平台获取第五图像和第六图像,所述第五图像的图像质量高于所述第六图像的图像质量;
所述训练平台将所述第五图像作为输入样本,并将所述第六图像作为输出样本,训练所述第一Cycle GAN模型,使得所述第一Cycle GAN模型具备处理图像以降低图像质量的能力。
7.根据权利要求6所述的方法,其特征在于,所述第一Cycle GAN模型包括第一生成器和第一判别器,所述第一判别器具备对比两张图像并给出所述两张图像的差异的能力;
所述训练平台将所述第五图像作为输入样本,并将所述第六图像作为输出样本,训练所述第一Cycle GAN模型,使得所述第一Cycle GAN模型具备处理图像以降低图像质量的能力,包括:
所述训练平台将所述第五图像作为输入样本,并将所述第六图像作为输出样本,训练所述第一生成器,使得所述第一生成器具备处理图像以降低图像质量的能力;
所述训练平台将所述第五图像作为输入,运行训练后的所述第一生成器,得到第七图像;
所述训练平台将所述第六图像和所述第七图像作为输入,运行所述第一判别器,得到第一判别结果,所述第一判别结果用于表征所述第六图像和所述第七图像的差异;
所述训练平台将所述第一判别结果反馈给所述第一生成器,以调整所述第一生成器;
所述训练平台继续训练并测试所述第一生成器,直至所述第一判别器反馈出满足第一预设条件的判别结果。
8.根据权利要求1-3中任一项所述的方法,其特征在于,所述第一图像是处理所述第二图像得到的;
其中,所述训练平台获取多组数据对,包括:
所述训练平台获取多个所述第二图像;
所述训练平台分别将每个所述第二图像作为输入,运行第二Cycle GAN模型,得到对应的第一图像;
其中,所述第二Cycle GAN模型具备处理所述第二图像得到所述第一图像的能力,所述第一图像的图像质量高于所述第二图像的图像质量。
9.根据权利要求8所述的方法,其特征在于,在所述训练平台获取多组数据对之前,所述方法还包括:
所述训练平台获取第五图像和第六图像,所述第五图像的图像质量高于所述第六图像的图像质量;
所述训练平台将所述第六图像作为输入样本,并将所述第五图像作为输出样本,训练所述第二Cycle GAN模型,使得所述第二Cycle GAN模型具备处理图像以提升图像质量的能力。
10.根据权利要求9所述的方法,其特征在于,所述第二Cycle GAN模型包括第二生成器和第二判别器,所述第二判别器具备对比两张图像并给出所述两张图像的差异的能力;
所述训练平台将所述第六图像作为输入样本,并将所述第五图像作为输出样本,训练所述第二Cycle GAN模型,使得所述第二Cycle GAN模型具备处理图像以提升图像质量的能力,包括:
所述训练平台将所述第六图像作为输入样本,并将所述第五图像作为输出样本,训练所述第二生成器,使得所述第二生成器具备处理图像以提升图像质量的能力;
所述训练平台将所述第六图像作为输入,运行训练后的所述第二生成器,得到第八图像;
所述训练平台将所述第五图像和所述第八图像作为输入,运行所述第二判别器,得到第二判别结果,所述第二判别结果用于表征所述第五图像和所述第八图像的差异;
所述训练平台将所述第二判别结果反馈给所述第二生成器,以调整所述第二生成器;
所述训练平台继续训练并测试所述第二生成器,直至所述第二判别器反馈出满足第二预设调整的判别结果。
11.根据权利要求1-3中任一项所述的方法,其特征在于,所述训练平台获取待训练的第一AI模型的模型结构和调参信息,包括:
所述训练平台通过AutoML平台为所述第一AI模型设置所述调参信息,所述调参信息包括批处理数量、学习率、调整方式信息和所述学习率的变化方式信息,所述批处理数量为所述第一AI模型的一次模型训练所使用的样本的数量,所述学习率为所述第一AI模型的模型参数的调整值,所述调整方式信息用于指示采用所述学习率调整所述第一AI模型的模型参数的调整方式,所述变化方式信息用于指示所述学习率在多次模型训练过程中的变化趋势为由大变小;
所述训练平台接收用户设置的所述第一AI模型的模型结构。
12.一种人工智能AI模型训练系统,其特征在于,所述系统包括训练平台,所述训练平台中安装有Linux系统,所述训练平台包括存储器、通信接口和一个或多个处理器,所述存储器、所述通信接口与所述处理器耦合;其中,所述通信接口用于与其他设备进行数据传输,所述存储器中存储有计算机程序代码,所述计算机程序代码包括计算机指令,当所述计算机指令被所述处理器执行时,使得所述训练平台执行如权利要求1-11任一项所述的方法。
13.一种计算机可读存储介质,其特征在于,包括计算机指令,当所述计算机指令在训练平台上运行时,使得所述训练平台执行如权利要求1-11中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110363657.4A CN113723437B (zh) | 2021-04-02 | 2021-04-02 | 一种ai模型的自动化训练方法及ai模型训练系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110363657.4A CN113723437B (zh) | 2021-04-02 | 2021-04-02 | 一种ai模型的自动化训练方法及ai模型训练系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113723437A CN113723437A (zh) | 2021-11-30 |
CN113723437B true CN113723437B (zh) | 2022-06-07 |
Family
ID=78672624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110363657.4A Active CN113723437B (zh) | 2021-04-02 | 2021-04-02 | 一种ai模型的自动化训练方法及ai模型训练系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113723437B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529154A (zh) * | 2020-12-07 | 2021-03-19 | 北京百度网讯科技有限公司 | 图像生成模型训练方法和装置、图像生成方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7755645B2 (en) * | 2007-03-29 | 2010-07-13 | Microsoft Corporation | Object-based image inpainting |
US8856785B2 (en) * | 2012-05-24 | 2014-10-07 | International Business Machines Corporation | Predicting and generating a quantity of image clones |
CN108257100A (zh) * | 2018-01-12 | 2018-07-06 | 北京奇安信科技有限公司 | 一种图像修复方法及服务器 |
US20220036236A1 (en) * | 2018-09-19 | 2022-02-03 | Huawei Technologies Co., Ltd. | Ai model development method and apparatus |
CN109785244B (zh) * | 2018-11-30 | 2020-12-11 | 中国农业大学 | 一种多目标图像的修复方法 |
CN110399844A (zh) * | 2019-07-29 | 2019-11-01 | 南京图玩智能科技有限公司 | 一种应用于跨平台的人脸关键点识别与追踪方法及系统 |
CN110569721B (zh) * | 2019-08-01 | 2023-08-29 | 平安科技(深圳)有限公司 | 识别模型训练方法、图像识别方法、装置、设备及介质 |
CN112258381B (zh) * | 2020-09-29 | 2024-02-09 | 北京达佳互联信息技术有限公司 | 模型训练方法、图像处理方法、装置、设备及存储介质 |
-
2021
- 2021-04-02 CN CN202110363657.4A patent/CN113723437B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529154A (zh) * | 2020-12-07 | 2021-03-19 | 北京百度网讯科技有限公司 | 图像生成模型训练方法和装置、图像生成方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113723437A (zh) | 2021-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3848887A1 (en) | Gan network-based vehicle damage image enhancement method and apparatus | |
JP7074460B2 (ja) | 画像検査装置および方法 | |
CN109508717A (zh) | 一种车牌识别方法、识别装置、识别设备及可读存储介质 | |
CN110287104A (zh) | 测试用例生成方法、装置、终端及计算机可读存储介质 | |
CN113608518A (zh) | 数据生成方法、装置、终端设备及介质 | |
CN113033373B (zh) | 用于训练人脸识别模型及识别人脸的方法及相关装置 | |
CN113723437B (zh) | 一种ai模型的自动化训练方法及ai模型训练系统 | |
CN111027589B (zh) | 一种多分制目标检测算法评价系统及方法 | |
CN115859128B (zh) | 一种基于档案数据交互相似度的分析方法和系统 | |
CN112399177A (zh) | 一种视频编码方法、装置、计算机设备及存储介质 | |
US20220058530A1 (en) | Method and device for optimizing deep learning model conversion, and storage medium | |
CN113313086B (zh) | 特征向量转换模型处理方法、装置、服务器及存储介质 | |
CN115564709A (zh) | 一种对抗场景下电力算法模型鲁棒性的评估方法和系统 | |
CN111062468B (zh) | 生成网络的训练方法和系统、以及图像生成方法及设备 | |
CN114519520A (zh) | 模型评估方法、装置及存储介质 | |
CN114782822A (zh) | 电力设备的状态检测方法、装置、电子设备及存储介质 | |
US11507803B2 (en) | System for generating synthetic digital data for data multiplication | |
CN114398250A (zh) | 基于功能场景的车辆测试评估方法及装置 | |
CN114913513A (zh) | 一种公章图像的相似度计算方法、装置、电子设备和介质 | |
CN115866235A (zh) | 视频质量评估方法、装置、电子设备及存储介质 | |
CN113673476A (zh) | 人脸识别模型训练方法、装置、存储介质与电子设备 | |
CN113240032A (zh) | 一种图像分类方法、装置、设备及存储介质 | |
CN113158801A (zh) | 用于训练人脸识别模型以及识别人脸的方法以及相关装置 | |
CN112381456A (zh) | 基于冲突数据融合的装备研制阶段测试性评估及系统 | |
CN111340137A (zh) | 图像识别方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230906 Address after: 201306 building C, No. 888, Huanhu West 2nd Road, Lingang New District, China (Shanghai) pilot Free Trade Zone, Pudong New Area, Shanghai Patentee after: Shanghai Glory Smart Technology Development Co.,Ltd. Address before: Unit 3401, unit a, building 6, Shenye Zhongcheng, No. 8089, Hongli West Road, Donghai community, Xiangmihu street, Futian District, Shenzhen, Guangdong 518000 Patentee before: Honor Device Co.,Ltd. |
|
TR01 | Transfer of patent right |