CN111191789B - 模型优化部署系统、芯片、电子设备及介质 - Google Patents
模型优化部署系统、芯片、电子设备及介质 Download PDFInfo
- Publication number
- CN111191789B CN111191789B CN202010064764.2A CN202010064764A CN111191789B CN 111191789 B CN111191789 B CN 111191789B CN 202010064764 A CN202010064764 A CN 202010064764A CN 111191789 B CN111191789 B CN 111191789B
- Authority
- CN
- China
- Prior art keywords
- model
- training
- data
- deployment system
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 48
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012827 research and development Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Stored Programmes (AREA)
Abstract
模型优化部署系统、芯片、电子设备及介质,包括:数据预处理模块,接受回流数据,然后输出经过预处理的数据集;模型训练模块,对数据集执行模型训练优化方法,得到最优配置模型;模型部署模块,根据待部署的硬件的环境对最优配置模型进行适配并转换,最终部署于所述硬件。本发明能将训练出来的模型自动转换为caffe或TFpb或其他常用模型格式,并且自动验证是否能在相应希望部署的硬件平台上部署的方法,并能够自动做一些优化。
Description
技术领域
本发明涉及计算机数据处理系统和方法,具体地说是一种模型优化部署系统、芯片、电子设备及介质。
背景技术
目前现有的人工智能(AI)研发系统的实质是提供软件的数据库,使用上需要用户有一定编程背景;若要获得好的计算模型,则需要用户自己进行参数调整和选择,因而还需有相关深度学习优化知识。同时,现有的人工智能(AI)研发系统一般只能支持单一用户单一任务,而在多用户情况下只能手动分配各种资源,计算资源利用率差。
而在人工智能(AI)研发系统中,现有的训练工具一般只支持将在数据输入后,单纯地通过预设的模型进行训练,在面对新任务的时候往往效果不佳。而若需对模型进行优化,则也需要有相关模型优化的知识,并且手动设计并编程实现优化——使得其用户范围较窄。而现有的其他自动模型优化算法,一般通过RNN等方法自动设计网络模型,这种方法过程较慢、可并行性差,同时必须要大量数据;对于数据量中等、计算资源较小的情形缺并不适用。
此外,应用系统部署和运行在云平台上来对外提供服务。目前在模型部署环节,针对部署的环境和目标格式,需要手动编写转换代码进行转换;并且不能验证是否失败,需要手动编写测试脚本测试,十分繁琐,切要耗费大量时间。
发明内容
本发明针对上述人工智能研发系统的不足,旨在提供一种模型优化部署系统、芯片、电子设备及介质,以解决现有问题。
为了达到上述目的,本发明提供一种模型优化部署系统,包括:
数据预处理模块,接受回流数据,然后输出经过预处理的数据集;
模型训练模块,对数据集执行模型训练优化方法,得到最优配置模型;
模型部署模块,根据待部署的硬件的环境对最优配置模型进行适配并转换,最终部署于所述硬件。
在一些实施例中,还包括数据标注模块,对辅助数据进行标注。
在一些实施例中,还包括存储模块,执行整个系统数据的统一存储。
本发明还提供基于上述模型优化部署系统的模型训练方法,包括:
S1,在预设的基础神经网络上训练一组模型,选出在验证集上性能最好的模型T0;
S2,在T0上进行优化然后获得若干备选实验配置,对所述若干备选实验配置训练并获得其中性能最优的模型T1’;
S3,对T1’重新训练,确保重新训练的性能结果的平均值大于T0的性能;即得到最优的模型配置。
在一些实施例中,S2中,所述在T0上进行优化的方法为调整参数。
在一些实施例中,所述调整的参数包括以下之一或组合:模型宽度,学习速率,
优化策略,是否使用数据增强,数据增强的参数,网络单位模块。
在一些实施例中,S3对T1’的重新训练中,如果重新训练的性能结果大于T0的性能结果,则替代T0作为新的备选实验配置,即迭代优化。
在一些实施例中,所述优化的过程反复循环进行,直至性能最优时停止。
在一些实施例中,迭代优化的次数为两轮。
基于上述系统,本发明还提供一种模型部署方法,包括:
步骤一,获得欲转换的模型配置的训练结果;
步骤二,对于训练结果进行拆分;
步骤三,在数据库中查找拆分后的结果,并转换代码;
步骤四,将转换完成的模型代码重新连接,得部署模型。
在一些实施例中,还包括步骤五,以测试数据对欲转换的网络模型和欲部署硬件环境下的部署模型提取特征层,依次对应计算两两之间的给定向量距离;若其差小于可接受阈值,则认为结果对齐,并输出可部署的模型作为转换结果。
在一些实施例中,步骤二中,所述拆分按照训练结果的网络结构进行。
在一些实施例中,所述网络结构为计算层或子结构。
在一些实施例中,步骤二中,若拆分时识别发现有数据库中预设的结构,则保存该结构;部署时则根据所述结构选择转换方法。
在一些实施例中,步骤三中,所述查找以查表方式进行,以获得代码。
在一些实施例中,步骤三中,所述数据库为硬件环境-计算框架的数据库。
本发明还提供一种芯片,包括处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行上述任一项所述的模型训练方法。
本发明还提供一种电子设备,包括处理器、以及用于存储处理器的可执行指令的存储器,所述处理器运行时执行上述任一所述的模型训练方法。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序指令被处理执行时,实现上述任一所述的模型训练方法。和现有技术相比,本发明能将训练出来的模型自动转换为caffe或TF pb或其他常用模型格式,并且自动验证是否能在相应希望部署的硬件平台上部署的方法,并能够自动做一些优化。
本发明还提出了一种能让没有编程背景和深度学习算法背景的人员在有数据的情况下进行模型优化部署的系统,该系统能够自动进行数据的预处理、AI模型的自动训练调优、AI模型的评估验证和AI模型的自动部署、并且通过计算资源容器化模块,存储资源模块,支持多用户多任务的模型研发。
本发明在得到指定任务类型和模型的输入输出形式后,输入训练数据和验证数据,可自动训练并在训练时调整模型参数,同时通过调优算法对模型的超参数以及结构进行调整,最终迭代并选取到最优的模型。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程示意图;
图2为模型优化部署系统的构架设计示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述;显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图2,本实施例基于一种模型优化部署系统,系统的构架设计如图2所示,该系统内主要包含训练流程部分和资源调度部分。训练流程部分,包括对辅助数据进行标注的数据标注模块,数据标注后对数据进行预处理、清洗和切分的数据预处理模块,对处理好的数据进行自动训练和参数调优的模型训练模块。
调度部分,在反复的数据迭代和模型调优后,获得的模型可以通过模型部署模块,则根据希望部署的硬件环境自动适配并转换。最后完成整个训练流程的高效简单进行。
其中:数据预处理模块,接受回流数据,输出经过预处理的数据集;
模型训练模块,对处理好的数据集进行自动训练和参数调优,得到最优配置模型;模型部署模块,根据待部署的硬件的环境对最优配置模型自动适配并转换,最终部署于所述硬件。
还包括数据标注模块,对辅助数据进行标注。为了支持多用户多任务,优选通过容器化的共享模块进行计算资源的统一调度,以及储存模块进行数据的统一存储,从而高效的利用计算资源。
上述模型优化部署系统实现了算法配置的自动优化,可以根据计划布置环境,选择更优的技术模式;同时也可以根据目标场景避免使用不可用的结构,并列为“黑名单”。
参见图1,基于上述系统,在其中的模型训练模块中有本实施例的内容,即模型训练方法为:
S1,在预设的基础神经网络上训练一组模型,选出在验证集上性能最好的模型T0;
S2,在T0上进行优化然后获得若干备选实验配置,对所述若干备选实验配置训练并获得其中性能最优的模型T1’;作为优选,所述优化的方法为依次尝试调整各种预设的参数。
而所述调整参数包括以下一种或组合:模型宽度、学习速率、优化策略、是否使用数据增强、数据增强的参数、网络单位模块选择。
S3,对T1’重新训练,确保其性能结果的平均值大于T0的性能结果,此时最优的模型配置则为最后优化的结果。尤其对T1’的重新训练中,如果大于T0的性能结果,则替代T0作为新的实验配置,并继续上述过程迭代优化;直到模型配置的性能无法继续稳定提升时,则停止迭代优化。
作为优选,上述迭代优化的次数一般为两轮。
在优化时,根据事先设定的将部署的硬件环境对尝试的优化参数进行限制,如限制运行速度不能低于某些下限,在网络模块选择时使用特定硬件平台上所支持的或优化较好的等。
在对网络模型进行多次迭代优化,得到最后优化的结果之后,执行模型部署方法,包括:
步骤一,获得欲转换的模型配置的训练结果,即前述S3中停止迭代优化后所得结果;
步骤二,对于训练结果进行拆分;一般按计算层进行拆分。如果拆分时识别发现有库中预设的结构,则保存此结构。
步骤三,在数据库中查找拆分后的结果,并转换代码;该数据库为硬件环境-计算框架的数据库,包括可以部署的服务器类型,以及计算框架的类型。其中服务器包括但不限于ARM、AI芯片和手机等;计算框架包括但不限于TF、caffe和torch等。应尽可能地包括尽可能多的类型,以满足不同需求。
其中,Caffe是一个兼具表达性、速度和思维模块化的深度学习框架;支持多种类型的深度学习架构,面向图像分类和图像分割,还支持CNN、RCNN、LSTM和全连接神经网络设计。
TF,即TensorFlow,是一个基于数据流编程的符号数学系统,被广泛应用于各类机器学习算法的编程实现;TF框架拥有多层级结构,可部署于各类服务器、PC终端和网页并支持GPU和TPU高性能数值计算。
而Torch是一个有大量机器学习算法支持的科学计算框架,Torch的特点在于特别灵活,采用了编程语言Lua。
接着将拆分的计算层或者子结构,在数据库中查找(查表方式)按预设的代码进行转换。数据库中有的子结构,根据就计划转换的格式或者希望部署的平台,选择最优的转换方法
步骤四,将转换完成的模型代码重新连接,得部署模型。
由于实验环境和实际部署环境差别较大,可能是不同的硬件平台、不同的计算框架。因此在整体模型训练过程中最后一环,需要将训练好的网络以及其对应的权重转换成目标环境的模型格式以用于最后部署。这一步骤传统上需要对于网络结构和来源/目标模型格式,进行针对性的编写转换代码。作为端到端AI系统的一部分,此环境应当自动进行。
最后使用预设的测试数据(图片、视频等),分别对实验环境下的原模型和欲部署环境下的部署模型进行运算,分别提取其中部分特征层,依次对应计算两两之间的给定向量距离。若其差小于某可接受阈值,则认为结果对齐,转换成功,并输出模型作为最后的转换结果。
上述方法能将训练出来的模型,自动转换为caffe或TF pb或其他常用模型格式,并且自动验证是否能在相应希望部署的硬件平台上部署,并自动做一些优化。参见图2,本发明还提供一种模型优化部署系统,包括:
数据预处理模块,接受回流数据,然后输出经过预处理的数据集。
模型训练模块,对数据集执行训练方法,得到最优配置模型;具体地,现在预设的基础神经网络上训练一组模型,选出在验证集上性能最好的模型T0;再在T0上进行优化然后获得若干备选实验配置,对所述若干备选实验配置训练并获得其中性能最优的模型T1’,而对T0的优化方法调整参数,包括以下之一或组合:模型宽度,学习速率,优化策略,是否使用数据增强,数据增强的参数,网络单位模块;
最后对T1’重新训练,确保重新训练的性能结果的平均值大于T0的性能;即得到最优的模型配置。对T1’的重新训练中,如果重新训练的性能结果大于T0的性能结果,则替代以之T0作为新的备选实验配置,即迭代优化。反复循环进行,直至性能最优时停止。且一般为两次。
模型部署模块,根据待部署的硬件的环境对最优配置模型进行适配并转换,最终部署于所述硬件。具体地,先获得欲转换的网络模型的训练结果;再对于训练结果按照训练结果的网络结构等网络结构进行拆分;然后在硬件环境-计算框架的数据库中通过查表查找拆分后的结果,并转换代码;最后将转换完成的模型代码重新连接,得部署模型。以及,以测试数据对欲转换的网络模型和欲部署硬件环境下的部署模型提取特征层,依次对应计算两两之间的给定向量距离;若其差小于预设阈值,则认为结果对齐,并输出可部署的模型作为转换结果。
此外,本发明还提供一种电子设备,包括:至少一个处理器;与至少一个处理器耦合的存储器,存储器存储有可执行指令,其中,可执行指令在被至少一个处理器执行时使得实现本发明上述的方法。
例如,存储器可以包括随机存储器、闪存、只读存储器、可编程只读存储器、非易失性存储器或寄存器等。处理器可以是中央处理器(Central Processing Unit,CPU)等。或者是图像处理器(Graphic Processing Unit,GPU)存储器可以存储可执行指令。处理器可以执行在存储器中存储的可执行指令,从而实现本文描述的各个过程。
可以理解,本实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是ROM(Read-OnlyMemory,只读存储器)、PROM(ProgrammableROM,可编程只读存储器)、EPROM(ErasablePROM,可擦除可编程只读存储器)、EEPROM(ElectricallyEPROM,电可擦除可编程只读存储器)或闪存。易失性存储器可以是RAM(RandomAccessMemory,随机存取存储器),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如SRAM(StaticRAM,静态随机存取存储器)、DRAM(DynamicRAM,动态随机存取存储器)、SDRAM(SynchronousDRAM,同步动态随机存取存储器)、DDRSDRAM(DoubleDataRate SDRAM,双倍数据速率同步动态随机存取存储器)、ESDRAM(Enhanced SDRAM,增强型同步动态随机存取存储器)、SLDRAM(SynchlinkDRAM,同步连接动态随机存取存储器)和DRRAM(DirectRambusRAM,直接内存总线随机存取存储器)。本文描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器存储了如下的元素,升级包、可执行单元或者数据结构,或者他们的子集,或者他们的扩展集:操作系统和应用程序。
其中,操作系统,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序,包含各种应用程序,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序中。在本发明实施例中,处理器通过调用存储器存储的程序或指令,具体的,可以是应用程序中存储的程序或指令,处理器用于执行上述的方法步骤。
本发明实施例还提供一种芯片,用于执行上述的方法。具体地,该芯片包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有该芯片的设备用于执行上述方法。
本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现本发明上述的方法的步骤。
例如,机器可读存储介质可以包括但不限于各种已知和未知类型的非易失性存储器。
本发明实施例还提供一种计算机程序产品,包括计算机程序指令,该计算机程序指令使得计算机执行上述方法。
本领域技术人员可以明白的是,结合本文中所公开的实施例描述的各示例的单元及算法步骤能够以电子硬件、或者软件和电子硬件的结合来实现。这些功能是以硬件还是软件方式来实现,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以针对每个特定的应用,使用不同的方式来实现所描述的功能,但是这种实现并不应认为超出本申请的范围。
在本申请实施例中,所公开的系统、电子设备和方法可以通过其它方式来实现。例如,单元的划分仅仅为一种逻辑功能划分,在实际实现时还可以有另外的划分方式。例如,多个单元或组件可以进行组合或者可以集成到另一个系统中。另外,各个单元之间的耦合可以是直接耦合或间接耦合。另外,在本申请实施例中的各功能单元可以集成在一个处理单元中,也可以是单独的物理存在等等。
应理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请的实施例的实施过程构成任何限定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在机器可读存储介质中。因此,本申请的技术方案可以以软件产品的形式来体现,该软件产品可以存储在机器可读存储介质中,其可以包括若干指令用以使得电子设备执行本申请实施例所描述的技术方案的全部或部分过程。上述存储介质可以包括ROM、RAM、可移动盘、硬盘、磁盘或者光盘等各种可以存储程序代码的介质。
以上内容仅为本申请的具体实施方式,本申请的保护范围并不局限于此。本领域技术人员在本申请所公开的技术范围内可以进行变化或替换,这些变化或替换都应当在本申请的保护范围之内。
Claims (9)
1.一种模型优化部署系统,其特征在于,包括:
数据预处理模块,接受回流数据,然后输出经过预处理的数据集;
模型训练模块,对数据集执行模型训练方法,得到最优配置模型;
所述模型训练方法为:
S1,在预设的基础神经网络上训练一组模型,选出在验证集上性能最好的模型T0;
S2,在T0上进行优化获得若干备选实验配置,对所述若干备选实验配置训练并获得其中性能最优的模型T1’;
S3,对T1’重新训练,确保重新训练的性能结果的平均值大于T0的性能,得到最优的模型配置;
模型部署模块,根据待部署的硬件的环境对最优配置模型进行适配并转换;
具体包括:获得欲转换的模型配置的训练结果;对于训练结果进行拆分;在数据库中查找拆分后的结果,并转换代码;最终部署于所述硬件。
2.根据权利要求1所述的模型优化部署系统,其特征在于:还包括数据标注模块,对辅助数据进行标注。
3.根据权利要求1所述的模型优化部署系统,其特征在于:S2中,所述在T0上进行优化的方法为调整参数。
4.根据权利要求3所述的模型优化部署系统,其特征在于:所述参数包括以下之一或组合:模型宽度,学习速率,优化策略,是否使用数据增强,数据增强的参数,网络单位模块。
5.根据权利要求1-4任一所述的模型优化部署系统,其特征在于:S3对T1’的重新训练中,如果重新训练的性能结果大于T0的性能结果,则替代T0作为新的备选实验配置。
6.根据权利要求5所述的模型优化部署系统,其特征在于:所述优化的过程反复循环进行,直至性能最优时停止。
7.一种芯片,其特征在于,包括处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备基于权利要求1-6任一所述的模型优化部署系统,执行所述的模型训练方法。
8.一种电子设备,其特征在于:包括处理器、以及用于存储处理器的可执行指令的存储器,所述处理器运行时基于权利要求1-6任一所述的模型优化部署系统,执行任一所述的模型训练方法。
9.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质上存储有权利要求1-6任一所述的模型优化部署系统及对应计算机程序,所述计算机程序指令被处理执行时,实现任一所述的模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010064764.2A CN111191789B (zh) | 2020-01-20 | 2020-01-20 | 模型优化部署系统、芯片、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010064764.2A CN111191789B (zh) | 2020-01-20 | 2020-01-20 | 模型优化部署系统、芯片、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111191789A CN111191789A (zh) | 2020-05-22 |
CN111191789B true CN111191789B (zh) | 2023-11-28 |
Family
ID=70708291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010064764.2A Active CN111191789B (zh) | 2020-01-20 | 2020-01-20 | 模型优化部署系统、芯片、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111191789B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111967568B (zh) * | 2020-06-29 | 2023-09-01 | 北京百度网讯科技有限公司 | 深度学习模型的适配方法、装置及电子设备 |
CN112379869A (zh) * | 2020-11-13 | 2021-02-19 | 广东电科院能源技术有限责任公司 | 一种标准化开发训练平台 |
CN114861836B (zh) * | 2022-07-05 | 2022-10-28 | 浙江大华技术股份有限公司 | 一种基于人工智能平台的模型部署方法及相关设备 |
CN117035065A (zh) * | 2023-10-10 | 2023-11-10 | 浙江大华技术股份有限公司 | 模型评估的方法及相关装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220217A (zh) * | 2017-05-31 | 2017-09-29 | 北京京东尚科信息技术有限公司 | 基于逻辑回归的特征系数训练方法和装置 |
CN109145981A (zh) * | 2018-08-17 | 2019-01-04 | 上海非夕机器人科技有限公司 | 深度学习自动化模型训练方法及设备 |
CN110188862A (zh) * | 2019-04-12 | 2019-08-30 | 北京迈格威科技有限公司 | 用于数据处理的模型超参数的搜索方法、装置、系统 |
CN110210619A (zh) * | 2019-05-22 | 2019-09-06 | 上海商汤智能科技有限公司 | 神经网络的训练方法及装置、电子设备和存储介质 |
CN110443364A (zh) * | 2019-06-21 | 2019-11-12 | 深圳大学 | 一种深度神经网络多任务超参数优化方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6678930B2 (ja) * | 2015-08-31 | 2020-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム |
US10600005B2 (en) * | 2018-06-01 | 2020-03-24 | Sas Institute Inc. | System for automatic, simultaneous feature selection and hyperparameter tuning for a machine learning model |
-
2020
- 2020-01-20 CN CN202010064764.2A patent/CN111191789B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220217A (zh) * | 2017-05-31 | 2017-09-29 | 北京京东尚科信息技术有限公司 | 基于逻辑回归的特征系数训练方法和装置 |
CN109145981A (zh) * | 2018-08-17 | 2019-01-04 | 上海非夕机器人科技有限公司 | 深度学习自动化模型训练方法及设备 |
CN110188862A (zh) * | 2019-04-12 | 2019-08-30 | 北京迈格威科技有限公司 | 用于数据处理的模型超参数的搜索方法、装置、系统 |
CN110210619A (zh) * | 2019-05-22 | 2019-09-06 | 上海商汤智能科技有限公司 | 神经网络的训练方法及装置、电子设备和存储介质 |
CN110443364A (zh) * | 2019-06-21 | 2019-11-12 | 深圳大学 | 一种深度神经网络多任务超参数优化方法及装置 |
Non-Patent Citations (2)
Title |
---|
Sebastian Raschka.Model Evaluation, Model Selection, and Algorithm Selection in Machine Learning.《arXiv[cs.LG]》.2018,第1-49页. * |
解谦 等.移动智能终端基于神经网络的人工智能技术与应用.《信息通信技术与政策》.2019,第45卷(第12期),第45-50页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111191789A (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111178517B (zh) | 模型部署方法、系统、芯片、电子设备及介质 | |
CN111191789B (zh) | 模型优化部署系统、芯片、电子设备及介质 | |
CN107958285A (zh) | 面向嵌入式系统的神经网络的映射方法及装置 | |
CN113128478B (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
CN110633785B (zh) | 一种卷积神经网络的计算方法及系统 | |
JP2024527903A (ja) | 多重人工知能モデルの連続処理構造に基づく画像自動分類及び処理方法、及び、これを実行させるためにコンピュータ読み取り可能な記録媒体に格納されたコンピュータプログラム | |
CN114116236B (zh) | 一种异构计算系统的构建方法及系统 | |
CN109684088B (zh) | 云平台资源约束的遥感大数据快速处理任务调度方法 | |
US20210295158A1 (en) | End-to-end optimization | |
CN113157917B (zh) | 基于OpenCL的优化分类模型的建立、优化分类方法及系统 | |
CN112099848B (zh) | 一种业务处理方法、装置及设备 | |
CN111831355A (zh) | 权重精度配置方法、装置、设备及存储介质 | |
CN111831359A (zh) | 权重精度配置方法、装置、设备及存储介质 | |
CN115829006A (zh) | 神经网络模型的编译方法、装置、电子设备和存储介质 | |
CN114429208A (zh) | 基于残差结构剪枝的模型压缩方法、装置、设备及介质 | |
US20240346016A1 (en) | Real Time Optimization Apparatus Using Smart Contracts for Dynamic Code Validation and Approval | |
CN111831356B (zh) | 权重精度配置方法、装置、设备及存储介质 | |
CN110889316B (zh) | 一种目标对象识别方法、装置及存储介质 | |
Tong et al. | Study on mindspore deep learning framework | |
Tiwari et al. | NCS based ultra low power optimized machine learning techniques for image classification | |
CN114092313A (zh) | 一种基于gpu设备的模型推理加速方法及系统 | |
Rahmani et al. | RTLB_Sched: Real Time Load Balancing Scheduler for CPU-GPU Heterogeneous Systems | |
Li et al. | Accelerating gpu computing at runtime with binary optimization | |
Balamane et al. | Using Deep Neural Networks for Estimating Loop Unrolling Factor | |
US20220284293A1 (en) | Combining compression, partitioning and quantization of dl models for fitment in hardware processors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |