CN116009889A - 深度学习模型的部署方法、装置、电子设备及存储介质 - Google Patents

深度学习模型的部署方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN116009889A
CN116009889A CN202310129526.9A CN202310129526A CN116009889A CN 116009889 A CN116009889 A CN 116009889A CN 202310129526 A CN202310129526 A CN 202310129526A CN 116009889 A CN116009889 A CN 116009889A
Authority
CN
China
Prior art keywords
deep learning
learning model
target
flow
modules
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310129526.9A
Other languages
English (en)
Inventor
马鸿策
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Great Wall Motor Co Ltd
Original Assignee
Great Wall Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Great Wall Motor Co Ltd filed Critical Great Wall Motor Co Ltd
Priority to CN202310129526.9A priority Critical patent/CN116009889A/zh
Publication of CN116009889A publication Critical patent/CN116009889A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供一种深度学习模型的部署方法、装置、电子设备及存储介质。该方法包括:将待部署在指定应用场景的目标深度学习模型按照部署流程划分为M个目标流程模块;在预先确定的模块库中查找与M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块,模块库中预存有多个类别的各个应用场景下的流程模块,M≥N,M,N均为不小于零的整数;调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块;基于N个已配置流程模块,在指定应用场景部署目标深度学习模型。本发明能够提高深度学习模型的部署效率。

Description

深度学习模型的部署方法、装置、电子设备及存储介质
技术领域
本发明涉及深度学习模型部署技术领域,尤其涉及一种深度学习模型的部署方法、装置、电子设备及存储介质。
背景技术
深度学习模型部署是将使用数据集训练得到的深度学习模型应用于实际场景,对实际数据进行深度学习推理得到结果的过程。深度学习模型种类众多,应用广泛,适用于不同的应用场景,深度学习模型的部署效率直接决定着项目的进度和工期。
当前,在部署深度学习模型时,绝大多数会按照深度学习模型的流程重新编写代码,配置相应的配置参数,导致部署效率低。
发明内容
本发明提供了一种深度学习模型的部署方法、装置、电子设备及存储介质,以解决当前在部署深度学习模型时,需要按照深度学习模型的流程重新编写代码,配置相应的配置参数,导致部署效率低的问题。
第一方面,本发明提供了一种深度学习模型的部署方法,包括:
将待部署在指定应用场景的目标深度学习模型按照部署流程划分为M个目标流程模块;
在预先确定的模块库中查找与M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块,模块库中预存有多个类别的各个应用场景下的流程模块,M≥N,M,N均为不小于零的整数;
调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块;
基于N个已配置流程模块,在指定应用场景部署目标深度学习模型。
在一种可能的实现方式中,在指定应用场景部署目标深度学习模型之后,方法还包括:
将已部署的目标深度学习模型中各个流程模块的执行数据存入预设的全局数据空间,执行数据包括输入数据和输出数据。
在一种可能的实现方式中,将已部署的目标深度学习模型中各个流程模块的执行数据存入预设的全局数据空间,包括:
对于已部署的目标深度学习模型中的每一个流程模块,确定流程模块的身份标识;
根据身份标识和输入数据,构建第一键值对;
根据身份标识和输出数据,构建第二键值对;
将第一键值对和第二键值对存入全局数据空间。
在一种可能的实现方式中,执行数据还包括各个流程模块产生的中间数据,在确定流程模块的身份标识之后,该方法还可以包括:
根据身份标识和中间数据,构建第三键值对,并将第三键值对存入全局数据空间。
在一种可能的实现方式中,该方法还包括:
将M个目标流程模块的配置参数存入目标学习模型的配置文件;
相应的,调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块,包括:
在配置文件中,调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块。
在一种可能的实现方式中,在得到目标深度学习模型适用于指定场景的N个已配置流程模块之后,目标深度学习模型包括N个已配置流程模块和M-N个未配置的目标流程模块;
基于N个已配置流程模块,在指定应用场景部署目标深度学习模型,包括:
对于M-N个未配置的目标流程模块中的每一个目标流程模块,建立目标流程模块的执行程序,并调整目标流程模块的配置参数,得到目标深度学习模型适用于指定场景的已配置目标流程模块;
按照深度学习模型的部署流程,在指定应用场景对M-N个已配置目标流程模块和N个已配置流程模块进行部署。
在一种可能的实现方式中,该方法还包括:
将得到的M-N个已配置目标流程模块存入模块库。
第二方面,本发明提供了一种深度学习模型的部署装置,包括:
划分单元,用于将待部署在指定应用场景的目标深度学习模型按照部署流程划分为M个目标流程模块;
查找单元,用于在预先确定的模块库中查找与M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块,模块库中预存有多个类别的各个应用场景下的流程模块,M≥N,M,N均为不小于零的整数;
调整单元,用于调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块;
部署单元,用于基于N个已配置流程模块,在指定应用场景部署目标深度学习模型。
第三方面,本发明提供了一种电子设备,包括存储器和处理器,存储器中存储有可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式深度学习模型的部署方法的步骤。
第四方面,本发明提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如上第一方面或第一方面的任一种可能的实现方式深度学习模型的部署方法的步骤。
本发明提供一种深度学习模型的部署方法、装置、电子设备及存储介质,通过将待部署的目标深度学习模型按照部署流程划分为M个目标流程模块,将深度学习模型的部署过程模块化,可以提高部署效率。随后,在预先确定的模块库中查找与M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块,N个替代流程模块无需再重新编写程序,只需要调整N个替代流程模块的配置参数,进一步降低了深度学习模型的部署时长,可以大幅提升部署效率,具有极高的实用性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的深度学习模型的部署方法的实现流程图;
图2是本申请实施例提供的机器视觉深度学习模型一般部署流程;
图3是本申请实施例提供的流程模块与全局数据空间的交互示意图;
图4是本发明实施例提供的深度学习模型的部署装置的结构示意图;
图5是本发明实施例提供的电子设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
深度学习模型部署是将使用数据集训练得到的深度学习模型应用于实际场景,进而高效率的解决响应的问题,满足实际需求。一般的深度学习模型可以包括数据预处理、模型推理和数据后处理三个部分。深度学习模型部署过程需要通过一步步编写执行程序,实现上述三个部分,完成部署。该种方式需要从头编写执行程序,部署效率低下。
申请人发现,部分场景中使用的深度学习模型存在逻辑相同的数据预处理流程或者数据后处理流程,需要在每个深度学习模型部署流程中分别进行实现,其处理逻辑相同,只在部分配置参数上存在差别。基于上述发现,本申请实施例提供了一种深度学习模型的部署方法,通过将深度学习模型部署过程模块化,达到提高部署效率的目的。下面进行详细说明:
参见图1,其示出了本发明实施例提供的深度学习模型的部署方法的实现流程图。如图1所示,一种深度学习模型的部署方法,可以包括S101至S104。
S101,将待部署在指定应用场景的目标深度学习模型按照部署流程划分为M个目标流程模块。
深度学习模型多种多样,不同的深度学习模型具有不同的部署流程,根据深度学习模型的部署流程可以划分为M个目标流程模块,M为不小于零的整数,一般情况下,M至少为2。例如,深度学习模型可以包括机器视觉深度学习模型、电子围栏深度学习模型或者指差呼深度学习模型等等。
同一个深度学习模型在不同的应用场景可以有不同的部署流程,因此,本申请实施例结合具体的指定应用场景,将待部署的目标深度学习模型划分为M个目标流程模块。初步划分得到的M个目标流程模块中不包括相应的执行程序以及配置参数。
示例性的,如图2所示,其示出了本申请实施例提供的机器视觉深度学习模型一般部署流程。机器视觉深度学习模型一般包括数据预处理、深度学习模型推理和推理结果后处理三个部分。
数据预处理部分包括对输入的图像数据进行尺寸缩放、裁切、标准化,以及将图像数据格式转化为张量等的操作,目的是将输入数据处理为深度学习模型可以接受的数据格式。
深度学习模型推理部分使用数据预处理结果作为输入,使用神经网络提取数据的特征,得到模型推理结果。
推理结果后处理部分负责将深度学习模型推理结果使用特定算法或判断逻辑进行处理并格式化,按需求对结果进行输出。
因此,可以将机器视觉深度学习模型依次划分为:图像缩放模块、裁剪模块、标准化模块、神经网络特征提取模块、推理模块等至少5个目标流程模块。将上述5个目标流程模块按照顺序进行连接之后,就可以得到流水线形式的机器视觉深度学习模型
S102,在预先确定的模块库中查找与M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块,模块库中预存有多个类别的各个应用场景下的流程模块,M≥N,M,N均为不小于零的整数。
模块库中存储有多个类别的各个应用场景下的流程模块,模块库中存储的流程模块可以为已部署的各个深度学习模型中已配置好的流程模块。模块库中的流程模块已配置执行程序。
示例性的,已部署的电子围栏深度学习模型或者已部署的指差呼深度学习模型均可以包括目标监测模块和人体关键点检测模块,可以将已配置相关执行程序的目标监测模块和人体关键点检测模块存入模块库中,作为模块库中的流程模块。
在模块库中查找与M个目标流程模块类别相同的流程模块,将查找到的N个具有执行程序的流程模块作为目标深度学习模型的N个替代流程模块。在进行替换之后,目标深度学习模型可以包括N个具有执行程序的替代流程模块和M-N个不具备执行程序的目标流程模块。
示例性的,目标深度学习模型为电子围栏深度学习模型,M个目标流程模块中包括目标检测模块。模块库中存储有已配置执行程序的指差呼动作识别深度学习模型的目标检测模块。通过查找模块库,发现指差呼动作识别深度学习模型的目标检测模块与电子围栏深度学习模型的目标检测模块类别相同,此时,可以将指差呼动作识别深度学习模型的目标检测模块作为电子围栏深度学习模型的目标检测模块的替代流程模块,由于该替代流程模块中已具有相关的执行程序,因此无需再从头编写电子围栏深度学习模型中目标检测模块的执行程序,极大提升了部署效率。
本申请实施例通过查找得到N个替代流程模块,可以降低目标深度学习模型的编写执行程序的时间,大幅提升目标深度学习模型的部署效率。
S103,调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块。
N个具有执行程序的替代流程模块的配置参数可能不适用于指定应用场景。例如,配置参数可以包括模型存放路径、条件判断阈值或者其他与应用场景密切相关的参数等。
因此,需要根据指定应用场景的需求,调整N个具有执行程序的替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块。
本申请实施例仅需调整配置参数,无需重新编写执行程序,可以尽可能多地降低重复工作,提高目标深度学习模型的部署效率。
S104,基于N个已配置流程模块,在指定应用场景部署目标深度学习模型。
通过上述S101-S103,可以得到N个适用于指定场景的、具有相应执行程序的已配置流程模块。可以仅针对剩下的M-N个目标流程模块,根据实际应用场景编写对应的执行程序以及配置相关的参数,得到M-N个配置好的目标流程模块。
根据N个已配置好的流程模块和M-N个配置好的目标流程模块,按照目标深度学习模型的部署流程,按照顺序依次连接,在指定应用场景部署目标深度学习模型。
本申请实施例通过将待部署的目标深度学习模型模块化,然后通过模块库中查找类别相同的替代流程模块,可以有效降低目标深度学习模型的部署时长,提高部署效率。
在本申请的一些实施例中,在得到目标深度学习模型适用于指定场景的N个已配置流程模块之后,目标深度学习模型包括N个已配置流程模块和M-N个未配置的目标流程模块。
此时,上述S104可以包括:
对于M-N个未配置的目标流程模块中的每一个目标流程模块,建立目标流程模块的执行程序,并调整目标流程模块的配置参数,得到目标深度学习模型适用于指定场景的已配置目标流程模块;
按照深度学习模型的部署流程,在指定应用场景对M-N个已配置目标流程模块和N个已配置流程模块进行部署。
在本申请的实施例中,还可以不断地扩展模块库中流程模块的类别,以增加模块库的丰富度。例如,由于模块库中不存在M-N个已配置目标流程模块,因此,在得到M-N个已配置目标流程模块之后,可以将M-N个已配置的目标流程模块存入模块库中,以丰富模块库,便于下一次部署查找。本申请实施例可以通过不断丰富模块库,进一步降低深度学习模型的部署时间。
在本发明的一些实施例中,上述S102中的“在预先确定的模块库中查找与M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块”,可以包括:
对于每一个目标流程模块,判断模块库中是否存在与目标流程模块类别相同的流程模块;若存在,则将流程模块标记为目标流程模块的替代流程模块。经过上述判断过程之后,可以得到N个替代流程模块,N≤M。
一般而言,目标深度学习模型中各个流程模块会按照顺序连接而成,在实际应用过程中,每一个流程模块均可以为可调用对象。调用对象的返回值即为流程模块的处理结果,对于多个模块的衔接形成的流水线需要设计流程模块间数据传递的机制。
在本发明的一些实施例中,在指定应用场景部署目标深度学习模型之后,为进一步提高应用过程中的调试测试效率,该方法还可以包括:
将已部署的目标深度学习模型中各个流程模块的执行数据存入预设的全局数据空间,执行数据包括输入数据和输出数据。
每一个深度学习模型可以设置一个全局数据空间,全局数据空间中可以存储各个流程模块在工作过程中的输入数据、输出数据以及中间数据。可以实现各个流程模块均可以方便的获取其他流程模块的相关数据,方便进行调试和中间数据的记录。
具体的,可以以键值对的方式将输入数据和输出数据存入全局数据空间,具体如下:
对于已部署的目标深度学习模型中的每一个流程模块,确定流程模块的身份标识。
根据身份标识和输入数据,构建第一键值对。
根据身份标识和输出数据,构建第二键值对。
将第一键值对和第二键值对存入全局数据空间。
其中,每一个输入数据可以对应一个第一键值对,每一个输出数据可以对应一个第二键值对,全局数据空间中可以存储有第一数量的第一键值对和第二数量的第二键值对。
本申请实施例通过将第一键值对和第二键值对存入全局数据空间,方便各个流程模块在需要时可以获取其他流程模块的输入数据或者输出数据,不必受流程模块部署顺序的限制,使得数据读取效率提高。
在本申请的一些实施例中,执行数据还可以包括各个流程模块产生的中间数据,同样可以以键值对的方式将中间数据存入全局数据空间,具体如下:
在确定流程模块的身份标识之后,根据身份标识和中间数据,构建第三键值对,并将第三键值对存入全局数据空间。其中,每一个中间数据可以对应一个第三键值对,全局数据空间中可以存储有第三数量的第三键值对。
在外部需要对部署过程中或者已部署完成的深度学习模型进行测试、调试、或者记录时,无需与各个流程模块直接进行交互,可以通过读取第三键值的方式直接从全局数据空间获取相应的中间数据,方便快捷。
本申请实施例使用全局数据空间实现目标深度学习模型的各个流程模块间数据交换的方法,即为目标深度学习模型分配用于存储部分参数和模块输入输出的数据存储结构,也即全局数据空间,由目标深度学习中已配置好的各个流程模块共用。
参见图3,其示出了本申请实施例提供的流程模块与全局数据空间的交互示意图。全局数据空间以键值对的形式对输入输出数据以及每个流程模块产生的中间数据进行存储。每个流程模块在处理流程开始时以指定的键在全局数据空间中获取本流程模块的输入数据,进行处理后将流程模块处理结果以键值对的形式存储至全局数据空间中。在工作时,部分参数和流程模块的输入输出数据也以键值对的形式,可以在全局数据空间中完成存取操作。
全局数据空间满足了流程模块间数据传递的需要,提供了一种简单高效的数据存取方式。且目标深度学习模型的流程模块进行数据存取时不受部署编排顺序的影响,后边的流程模块可以获取其之前任一流程模块存入全局数据空间的数据,提高了部署流程实现的灵活性。同时,外部也可以通过访问全局数据空间的方式获取目标深度学习模型的任一流程模块的输出,方便进行调试和中间数据记录工作。
对于单个流程模块,其在不同的深度学习模型进行部署时,需要依据本流程模块的需求以及使用的深度学习模型对输入输出的要求对配置参数进行调整。可以将配置参数直接硬编码在流程模块中,不过相应的配置参数会分散在编写的工程代码中,管理起来较为复杂,且面对之后修改参数的情景时需要在整体流程代码中定位待修改参数,灵活性较差、效率较低。
为解决上述问题,在本发明的一些实施例中,该方法还可以包括:
将M个目标流程模块的配置参数存入目标学习模型的配置文件。
相应的,调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块,可以包括:
在配置文件中,调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块。
在本申请的实施例中,可以预先建立目标深度学习模型的配置文件,该配置文件用于存储目标深度学习模型中各个流程模块的配置参数。在需要将目标深度学习模型部署在不同的应用场景时,可以通过直接适应性修改配置文件中的配置参数,无需逐个修改流程模块,易管理,灵活性高且修改效率高。
本申请实施例通过利用配置文件的方式对配置参数以及深度学习模型的流程模块进行统一管理,针对每一个应用场景可以编写一个配置文件,该配置文件可以存储深度学习模型的流程模块组成以及对应的配置参数。还可以将所有应用场景的配置文件集中存放,统一管理。在后续优化部署流程时可以通过修改对应配置文件的方式快速定位并优化相应的配置参数。
本申请实施例制定了深度学习模型部署的统一标准化流程,将深度学习模型部署流程模块化,同时实现了在多个深度学习模型部署流程中复用预处理和后处理逻辑,通过配置参数使单个模块适配不同应用场景的部署流程。
示例性的,实际使用该方法对电子围栏和指差呼动作识别两个深度学习应用场景进行部署,两个应用场景都涉及了机器视觉目标检测以及机器视觉人体关键点检测两个类型的任务,使用复用率对两个部署流程进行评价。
复用率=(C/D)*100%
其中,C表示两个深度学习模型共用的流程模块类别数量,D表示两个深度学习模型总流程模块的类别数量。
经计算,两个深度学习模型的流程模块的复用率达到了56.25%。在对两个深度学习模型进行部署的过程中,由于对共有的流程模块直接利用,无需从头部署,可以大大提高部署效率。流程模块的高复用率也使得在部署完成电子围栏的深度学习模型之后,在部署指差呼动作识别应用场景时,开发时间可以从一般部署流程的4工日缩短至2工日。
同时,部署时使用配置文件对各流程模块的参数进行了统一管理,提高之后优化工作的效率。之后在遇到涉及目标检测或是人体关键点检测类型的应用场景时也能通过调节配置的方法快速复用现有的流程。
除此之外,调用流程模块部分的代码也同时实现复用,且该部分与具体的深度学习模型部署流程无关,降低了深度学习模型推理流程与数据输入输出处理流程间的耦合性,提升了后续整体系统调试和测试工作的效率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。
图4示出了本发明实施例提供的深度学习模型的部署装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
如图4所示,深度学习模型的部署装置20可以包括:
划分单元201,用于将待部署在指定应用场景的目标深度学习模型按照部署流程划分为M个目标流程模块;
查找单元202,用于在预先确定的模块库中查找与M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块,模块库中预存有多个类别的各个应用场景下的流程模块,M≥N,M,N均为不小于零的整数;
调整单元203,用于调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块;
部署单元204,用于基于N个已配置流程模块,在指定应用场景部署目标深度学习模型。
在本发明的一些实施例中,查找单元202还可以用于对于每一个目标流程模块,判断模块库中是否存在与目标流程模块类别相同的流程模块;若存在,则将流程模块标记为目标流程模块的替代流程模块。
在本发明的一些实施例中,该装置20还可以包括:
数据存储单元,用于在指定应用场景部署目标深度学习模型之后,将已部署的目标深度学习模型中各个流程模块的执行数据存入预设的全局数据空间,执行数据包括输入数据和输出数据。
在本发明的一些实施例中,数据存储单元可以包括:
标记子单元,用于对于已部署的目标深度学习模型中的每一个流程模块,确定流程模块的身份标识;
第一构建子单元,用于根据身份标识和输入数据,构建第一键值对;
第二构建子单元,用于根据身份标识和输出数据,构建第二键值对;
数据存储子单元,用于将第一键值对和第二键值对存入全局数据空间。
在本发明的一些实施例中,执行数据还包括各个流程模块产生的中间数据,数据存储单元还可以包括:
第三构建子单元,用于在确定流程模块的身份标识之后,根据身份标识和中间数据,构建第三键值对,并将第三键值对存入全局数据空间。
在本发明的一些实施例中,该装置20还可以包括:
参数存储单元,用于将M个目标流程模块的配置参数存入目标学习模型的配置文件;
相应的,调整单元203还可以用于在配置文件中,调整N个替代流程模块的配置参数,以得到目标深度学习模型适用于指定场景的N个已配置流程模块。
在本发明的一些实施例中,在得到目标深度学习模型适用于指定场景的N个已配置流程模块之后,目标深度学习模型包括N个已配置流程模块和M-N个未配置的目标流程模块;
部署单元204可以包括:
程序建立子单元,用于对于M-N个未配置的目标流程模块中的每一个目标流程模块,建立目标流程模块的执行程序,并调整目标流程模块的配置参数,得到目标深度学习模型适用于指定场景的已配置目标流程模块;
部署子单元,用于按照深度学习模型的部署流程,在指定应用场景对M-N个已配置目标流程模块和N个已配置流程模块进行部署。
在本发明的一些实施例中,该装置20还可以包括:
流程模块存储单元,用于将得到的M-N个已配置目标流程模块存入模块库。
图5是本发明实施例提供的电子设备的示意图。如图5所示,该实施例的电子设备30包括:处理器300和存储器301,存储器301中存储有可在处理器300上运行的计算机程序302。处理器300执行计算机程序302时实现上述各个深度学习模型的部署方法实施例中的步骤,例如图1所示的S101至S104。或者,处理器300执行计算机程序302时实现上述各装置实施例中各模块/单元的功能,例如图4所示单元201至204的功能。
示例性的,计算机程序302可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器301中,并由处理器300执行,以完成本发明。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序302在电子设备30中的执行过程。例如,计算机程序302可以被分割成图4所示的单元201至204。
电子设备30可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。电子设备30可包括,但不仅限于,处理器300、存储器301。本领域技术人员可以理解,图5仅仅是电子设备30的示例,并不构成对电子设备30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如电子设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器300可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器301可以是电子设备30的内部存储单元,例如电子设备30的硬盘或内存。存储器301也可以是电子设备30的外部存储设备,例如电子设备30上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器301还可以既包括电子设备30的内部存储单元也包括外部存储设备。存储器301用于存储计算机程序以及电子设备所需的其他程序和数据。存储器301还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个深度学习模型的部署方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、电载波信号、电信信号以及软件分发介质等。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种深度学习模型的部署方法,其特征在于,包括:
将待部署在指定应用场景的目标深度学习模型按照部署流程划分为M个目标流程模块;
在预先确定的模块库中查找与所述M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块,所述模块库中预存有多个类别的各个应用场景下的流程模块,M≥N,M,N均为不小于零的整数;
调整所述N个替代流程模块的配置参数,以得到所述目标深度学习模型适用于指定场景的N个已配置流程模块;
基于所述N个已配置流程模块,在指定应用场景部署所述目标深度学习模型。
2.根据权利要求1所述的深度学习模型的部署方法,其特征在于,在指定应用场景部署所述目标深度学习模型之后,所述方法还包括:
将已部署的所述目标深度学习模型中各个流程模块的执行数据存入预设的全局数据空间,所述执行数据包括输入数据和输出数据。
3.根据权利要求2所述的深度学习模型的部署方法,其特征在于,所述将已部署的所述目标深度学习模型中各个流程模块的执行数据存入预设的全局数据空间,包括:
对于已部署的所述目标深度学习模型中的每一个流程模块,确定所述流程模块的身份标识;
根据所述身份标识和所述输入数据,构建第一键值对;
根据所述身份标识和所述输出数据,构建第二键值对;
将所述第一键值对和所述第二键值对存入所述全局数据空间。
4.根据权利要求3所述的深度学习模型的部署方法,其特征在于,所述执行数据还包括各个流程模块产生的中间数据,在确定所述流程模块的身份标识之后,所述方法还包括:
根据所述身份标识和所述中间数据,构建第三键值对,并将所述第三键值对存入所述全局数据空间。
5.根据权利要求1所述的深度学习模型的部署方法,其特征在于,所述方法还包括:
将所述M个目标流程模块的配置参数存入所述目标学习模型的配置文件;
相应的,所述调整所述N个替代流程模块的配置参数,以得到所述目标深度学习模型适用于指定场景的N个已配置流程模块,包括:
在所述配置文件中,调整所述N个替代流程模块的配置参数,以得到所述目标深度学习模型适用于指定场景的N个已配置流程模块。
6.根据权利要求1至5任一项所述的深度学习模型的部署方法,其特征在于,在得到所述目标深度学习模型适用于指定场景的N个已配置流程模块之后,所述目标深度学习模型包括N个已配置流程模块和M-N个未配置的目标流程模块;
所述基于所述N个已配置流程模块,在指定应用场景部署所述目标深度学习模型,包括:
对于M-N个未配置的目标流程模块中的每一个目标流程模块,建立所述目标流程模块的执行程序,并调整所述目标流程模块的配置参数,得到所述目标深度学习模型适用于指定场景的已配置目标流程模块;
按照所述深度学习模型的部署流程,在指定应用场景对M-N个已配置目标流程模块和N个已配置流程模块进行部署。
7.根据权利要求6所述的深度学习模型的部署方法,其特征在于,所述方法还包括:
将得到的M-N个已配置目标流程模块存入所述模块库。
8.一种深度学习模型的部署装置,其特征在于,包括:
划分单元,用于将待部署在指定应用场景的目标深度学习模型按照部署流程划分为M个目标流程模块;
查找单元,用于在预先确定的模块库中查找与所述M个目标流程模块中每个目标流程模块类别相同的流程模块,得到N个替代流程模块,所述模块库中预存有多个类别的各个应用场景下的流程模块,M≥N,M,N均为不小于零的整数;
调整单元,用于调整所述N个替代流程模块的配置参数,以得到所述目标深度学习模型适用于指定场景的N个已配置流程模块;
部署单元,用于基于所述N个已配置流程模块,在指定应用场景部署所述目标深度学习模型。
9.一种电子设备,包括存储器和处理器,存储器中存储有在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上的权利要求1至7中任一项所述深度学习模型的部署方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上的权利要求1至7中任一项所述深度学习模型的部署方法的步骤。
CN202310129526.9A 2023-02-17 2023-02-17 深度学习模型的部署方法、装置、电子设备及存储介质 Pending CN116009889A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310129526.9A CN116009889A (zh) 2023-02-17 2023-02-17 深度学习模型的部署方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310129526.9A CN116009889A (zh) 2023-02-17 2023-02-17 深度学习模型的部署方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN116009889A true CN116009889A (zh) 2023-04-25

Family

ID=86021263

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310129526.9A Pending CN116009889A (zh) 2023-02-17 2023-02-17 深度学习模型的部署方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116009889A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116306856A (zh) * 2023-05-17 2023-06-23 之江实验室 一种基于搜索的深度学习模型部署方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116306856A (zh) * 2023-05-17 2023-06-23 之江实验室 一种基于搜索的深度学习模型部署方法及装置
CN116306856B (zh) * 2023-05-17 2023-09-05 之江实验室 一种基于搜索的深度学习模型部署方法及装置

Similar Documents

Publication Publication Date Title
CN109298998A (zh) 工作量评估及模型训练方法、电子设备及存储介质
CN111290956A (zh) 基于脑图的测试方法、装置、电子设备及存储介质
CN111639470B (zh) 一种处理器协同芯片的仿真测试方法、系统及相关组件
CN116009889A (zh) 深度学习模型的部署方法、装置、电子设备及存储介质
CN112948233A (zh) 一种接口测试方法、装置、终端设备及介质
CN115576834A (zh) 支撑故障还原的软件测试复用方法、系统、终端及介质
CN109522305B (zh) 一种大数据去重方法及装置
CN112631920A (zh) 一种测试方法、装置、电子设备及可读存储介质
CN116166967B (zh) 基于元学习与残差网络的数据处理方法、设备和存储介质
CN112579454A (zh) 一种任务数据的处理方法、装置以及设备
CN109408035B (zh) 一种业务系统的流程配置方法、存储介质和服务器
CN111382189A (zh) 一种异源异构数据碰撞分析方法、终端设备及存储介质
CN107515724A (zh) 用于再现存储系统的输入输出的方法和设备
JPS6126112A (ja) システムの異常診断方式
CN111679924B (zh) 构件化软件系统可靠性仿真方法、装置及电子设备
CN111400145B (zh) 流水图监控页面的配置方法、装置及终端设备
CN104572482A (zh) 一种过程变量的存储方法及装置
CN111930630B (zh) 基于数据流的大数据测试用例的生成方法及装置
CN113536716A (zh) Soc系统验证方法、装置、计算机设备和可读存储介质
CN113254332A (zh) 一种存储系统多场景测试方法、系统、终端及存储介质
WO2020138386A1 (ja) 以前のトレースデータを使用する協調シミュレーションリピータ
CN112559331A (zh) 测试方法和装置
CN111859985A (zh) Ai客服模型测试方法、装置、电子设备及存储介质
CN111027196A (zh) 一种电力设备的仿真分析任务处理方法、装置及存储介质
CN117408198B (zh) 一种仿真模型建模方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination