CN112114892B - 深度学习模型的获取方法、加载方法及选取方法 - Google Patents

深度学习模型的获取方法、加载方法及选取方法 Download PDF

Info

Publication number
CN112114892B
CN112114892B CN202010803957.5A CN202010803957A CN112114892B CN 112114892 B CN112114892 B CN 112114892B CN 202010803957 A CN202010803957 A CN 202010803957A CN 112114892 B CN112114892 B CN 112114892B
Authority
CN
China
Prior art keywords
target
deep learning
learning model
model
hardware performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010803957.5A
Other languages
English (en)
Other versions
CN112114892A (zh
Inventor
尹逊宫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing QIYI Century Science and Technology Co Ltd
Original Assignee
Beijing QIYI Century Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing QIYI Century Science and Technology Co Ltd filed Critical Beijing QIYI Century Science and Technology Co Ltd
Priority to CN202010803957.5A priority Critical patent/CN112114892B/zh
Publication of CN112114892A publication Critical patent/CN112114892A/zh
Application granted granted Critical
Publication of CN112114892B publication Critical patent/CN112114892B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44505Configuring for program initiating, e.g. using registry, configuration files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3419Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment by assessing time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本申请提供了一种深度学习模型的获取方法、加载方法、选取方法、系统、电子设备及服务器。所述获取方法包括:电子设备响应于目标应用程序的启动指令,生成模型获取请求,并将模型获取请求发送至服务器;模型获取请求中携带有电子设备中至少两个数据处理器的硬件性能参数;服务器根据至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取目标数据处理器对应的目标深度学习模型,并将目标深度学习模型发送至电子设备;电子设备接收并加载目标深度学习模型;目标深度学习模型是与目标应用程序实现的功能关联的模型。本申请能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。

Description

深度学习模型的获取方法、加载方法及选取方法
技术领域
本申请涉及深度学习模型处理技术领域,特别是涉及一种深度学习模型的获取方法、加载方法、选取方法、系统、电子设备及服务器。
背景技术
近年来,深度学习开始火热,但是其计算量确非常大,因此深度学习要部署在移动端困难重重,目前深度学习的推理引擎都会对深度学习的各种算子进行加速,例如,1、针对arm架构CPU(CentralProcessingUnit,中央处理器)的neon指令集加速;2、针对GPU(GraphicsProcessingUnit,图形处理器)的加速;3、针对高通DSP(DigitalSignalProcessing,数值信号处理)芯片的加速,针对华为NPU的加速等等。
目前Android机器碎片化特别严重,不同的手机硬件性能各不相同。在某些手机上GPU的速度明显要快于CPU,DSP的速度要明显快于GPU。而且利用CPU进行深度学习的推理,其功耗也非常高。但是为了兼容性,目前大部分的做法是,只加载能跑在通用CPU上的模型,这明显不能充分利用移动端的硬件性能,造成浪费。而且即便是做动态模型更新一般也都采用白名单机制,就是测过一款手机或者硬件,对该硬件做特殊配置。当有硬件性能提升时需要修改配置,十分繁琐。
发明内容
本申请实施例的目的在于提供一种深度学习模型的获取方法、加载方法、选取方法、系统、电子设备及服务器,以实现自动匹配最适合改手机的模型,能充分利用手机的硬件性能,提高深度学习算法的运行速度和用户体验。
具体技术方案如下:
在本申请实施的第一方面,提供了一种深度学习模型的获取方法,所述方法适用于系统,所述方法包括:
电子设备响应于目标应用程序的启动指令,生成模型获取请求,并将所述模型获取请求发送至服务器;所述模型获取请求中携带有所述电子设备中至少两个数据处理器的硬件性能参数;
所述服务器根据所述至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备;
所述电子设备接收并加载所述目标深度学习模型;
其中,所述目标深度学习模型是与所述目标应用程序实现的功能关联的模型。
在本申请实施的第二方面,提供了一种深度学习模型的加载方法,所述方法适用于电子设备,所述方法包括:
在接收到目标应用程序的启动指令之后,生成模型获取请求;所述模型获取请求中携带有至少两个数据处理器的硬件性能参数;
将所述模型获取请求发送至服务器;
接收并加载所述服务器根据所述硬件性能参数获取的目标数据处理器对应的目标深度学习模型。
可选地,所述在接收到目标应用程序的启动指令之后,生成模型获取请求,包括:
在接收到所述启动指令之后,获取所述电子设备支持的至少两个数据处理器;
通过所述至少两个数据处理器中分别运行相同的测试模型;
根据运行结果,获取所述至少两个数据处理器的硬件性能参数;
根据所述硬件性能参数,生成所述模型获取请求。
可选地,所述根据运行结果,获取所述至少两个数据处理器的硬件性能参数,包括:
获取所述至少两个数据处理器运行所述测试模型的运行时间;
根据所述运行时间,确定所述至少两个数据处理器的硬件性能参数。
在本申请实施的第三方面,提供了一种深度学习模型的选取方法,所述方法适用于服务器,所述方法包括:
获取电子设备的至少两个数据处理器对应的硬件性能参数;
根据所述至少两个数据处理器的硬件性能参数对应的排序结果,确定所述至少两个数据处理器中的目标数据处理器;
获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备。
可选地,所述根据所述至少两个数据处理器的硬件性能参数对应的排序结果,确定所述至少两个数据处理器中的目标数据处理器,包括:
根据所述排序结果,从所述至少两个数据处理器中筛选出硬件性能参数最大的第一数据处理器,并将所述第一数据处理器作为所述目标数据处理器。
可选地,所述根据所述排序结果,从所述至少两个数据处理器中筛选出硬件性能参数最大的第一数据处理器,并将所述第一数据处理器作为所述目标数据处理器,包括:
在不存在硬件性能参数最大的数据处理器对应的深度学习模型的情况下,根据所述排序结果,从所述至少两个数据处理器除所述第一数据处理器之外的其它数据处理器中,筛选出硬件性能参数最大的第二数据处理器,并将所述第二数据处理器作为所述目标数据处理器。
可选地,所述至少两个数据处理器包括:中央处理器、图形处理器和数字信号处理器中的至少两个。
在本申请实施的第四方面,提供了一种系统,所述系统包括:电子设备和服务器,
所述电子设备,用于响应于目标应用程序的启动指令,生成模型获取请求,并将所述模型获取请求发送至服务器;所述模型获取请求中携带有所述电子设备中至少两个数据处理器的硬件性能参数;
所述服务器,用于根据所述至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备;
所述电子设备,还用于接收并加载所述目标深度学习模型;
其中,所述目标深度学习模型是与所述目标应用程序实现的功能关联的模型。
在本申请实施的第五方面,提供了一种电子设备,包括:
模型获取请求生成模块,用于在接收到目标应用程序的启动指令之后,生成模型获取请求;所述模型获取请求中携带有至少两个数据处理器的硬件性能参数;
模型获取请求发送模块,用于将所述模型获取请求发送至服务器;
目标学习模型加载模块,用于接收并加载所述服务器根据所述硬件性能参数获取的目标数据处理器对应的目标深度学习模型。
可选地,所述模型获取请求生成模块包括:
数据处理器获取单元,用于在接收到所述启动指令之后,获取所述电子设备支持的至少两个数据处理器;
测试模型运行单元,用于通过所述至少两个数据处理器中分别运行相同的测试模型;
模型性能参数获取单元,用于根据运行结果,获取所述至少两个数据处理器的硬件性能参数;
模型获取请求生成单元,用于根据所述硬件性能参数,生成所述模型获取请求。
可选地,所述模型性能参数获取单元包括:
运行时间获取子单元,用于获取所述至少两个数据处理器运行所述测试模型的运行时间;
硬件性能参数确定子单元,用于根据所述运行时间,确定所述至少两个数据处理器的硬件性能参数。
在本申请实施的第六方面,提供了一种服务器,包括:
硬件性能参数获取模块,用于获取电子设备的至少两个数据处理器对应的硬件性能参数;
目标处理器确定模块,用于根据所述至少两个数据处理器的硬件性能参数对应的排序结果,确定所述至少两个数据处理器中的目标数据处理器;
目标学习模型发送模块,用于获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备。
可选地,所述目标处理器确定模块包括:
目标处理器获取单元,用于根据所述排序结果,从所述至少两个数据处理器中筛选出硬件性能参数最大的第一数据处理器,并将所述第一数据处理器作为所述目标数据处理器。
可选地,所述目标处理器获取单元包括:
目标处理器获取子单元,用于在不存在硬件性能参数最大的数据处理器对应的深度学习模型的情况下,根据所述排序结果,从所述至少两个数据处理器除所述第一数据处理器之外的其它数据处理器中,筛选出硬件性能参数最大的第二数据处理器,并将所述第二数据处理器作为所述目标数据处理器。
可选地,所述至少两个数据处理器包括:中央处理器、图形处理器和数字信号处理器中的至少两个。
在本申请实施的又一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述深度学习模型的获取方法,或上述任一项所述的深度学习模型的加载方法,或上述任一项所述的深度学习模型选取方法。
在本申请实施的又一方面,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述深度学习模型的获取方法,或上述任一项所述的深度学习模型的加载方法,或上述任一项所述的深度学习模型选取方法。
本申请实施例提供的方案,通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的一种深度学习模型的获取方法的步骤流程图;
图2为本申请实施例提供的一种深度学习模型的加载方法的步骤流程图;
图3为本申请实施例提供的一种深度学习模型的选取方法的步骤流程图;
图4为本申请实施例提供的一种系统的结构示意图;
图5为本申请实施例提供的一种电子设备的结构示意图;
图6为本申请实施例提供的一种服务器的结构示意图;
图7为本申请实施例提供的另一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
实施例一
参照图1,示出了本申请实施例提供的一种深度学习模型的获取方法的步骤流程图,该深度学习模型的获取方法适用于系统,具体可以包括如下步骤:
步骤101:电子设备响应于目标应用程序的启动指令,生成模型获取请求,并将所述模型获取请求发送至服务器。
本申请实施例可以应用于根据电子设备中数据处理器的硬件性能参数获取匹配的目标深度学习模型,并由服务器将目标深度学习发送至电子设备内进行加载的场景中。
在本实施例中,系统可以包括电子设备和服务器,电子设备可以为手机、平板电脑、台式计算机等设备。
目标应用程序是指电子设备内预先安装的具有AI(ArtificialIntelligence,人工智能)功能的应用程序,如可以进行短视频拍摄的应用程序,或可以进行用户后期处理(如美白、磨皮、超分、去噪等)的应用程序等,具体地,可以根据业务需求而定,本实施例对此不加以限制。
启动指令是指用于启动目标应用程序的指令。
在某些示例中,启动指令可以为用户点击目标应用程序的图标形成的指令,例如,在手机的显示屏幕上显示有目标应用程序的应用图标,在用户需要启动目标应用程序时,可以由用户点击该应用图标,以生成目标应用程序对应的启动指令。
当然,不仅限于此,在具体实现中,启动指令还可以为用户对目标应用程序执行的其它操作所形成的指令,如双击目标应用程序的应用图标等,具体地,可以根据业务需求而定,本实施例对此不加以限制。
模型获取请求是指用于获取数据处理器对应的深度学习模型的请求。在本实施例中,数据处理器可以包括CPU、GPU和DSP中的至少一种,而对应的深度学习模型则可以包括CPU模型、GPU模型和DSP模型中的至少一种。
在本实施例中,CPU模型是指可以由电子设备内的中央处理器运行的深度学习模型。GPU模型是指可以由电子设备内的图形处理器运行的深度学习模型。DSP模型是指可以由电子设备内的数字信号处理器运行的深度学习模型。
在电子设备接收到针对目标应用程序的启动指令之后,可以响应于该启动指令,以生成模型获取请求,并在该模型获取请求中携带电子设备中至少两个数据处理器的硬件性能参数,具体地,在接收到针对目标应用程序的启动指令之后,可以获取电子设备内的至少两个数据处理器的硬件性能参数,并结合硬件性能参数生成模型获取请求。
在某些示例中,硬件性能参数可以是根据至少两个数据处理器运行测试模型确定的性能参数,例如,电子设备内的至少两个数据处理器包括CPU和DSP,在需要获取CPU和DSP的硬件性能参数时,则可以通过CPU和DSP运行相同的测试模型,进而,可以根据CPU和DSP运行相同测试模型所用的时间,确定CPU和DSP的硬件性能参数。
在某些示例中,硬件性能参数可以是根据至少两个数据处理器的型号确定的,例如,电子设备的至少两个数据处理器包括CPU和GPU,在需要获取CPU和GPU的硬件性能参数时,可以获取CPU和GPU的硬件型号,根据硬件型号获取到CPU和GPU的硬件性能参数。
可以理解地,上述示例仅是为了更好地理解本申请实施例的技术方案而列举的示例,不作为对本实施例的唯一限制。
在电子设备接收到针对目标应用程序的启动指令之后,可以响应该启动指令,以结合电子设备中至少两个数据处理器的硬件性能参数生成模型获取请求,并将模型获取请求发送至服务器。
在将模型获取请求发送至服务器之后,执行步骤102。
步骤102:所述服务器根据所述至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备。
目标数据处理器是指根据至少两个数据处理器的硬件性能参数从至少两个数据处理器中筛选出的数据处理器,在本示例中,可以根据硬件性能参数从至少两个数据处理器中筛选出硬件性能参数最大的数据处理器以作为目标数据处理器,例如,至少两个数据处理器包括:CPU、GPU和DSP,其中,硬件性能参数的大小关系为:CPU>DSP>GPU,此时,可以将CPU作为目标数据处理器。当然,在服务器中未包含CPU对应的深度学习模型时,可以将DSP作为目标数据处理器,而在服务器中同时未包含DSP对应的深度学习模型时,则将GPU作为目标数据处理。
在电子设备发送的模型获取请求中包含有至少两个数据处理器的硬件性能参数,通过硬件性能参数确定至少两个数据处理器的硬件性能强弱,进而,可以由服务器根据至少两个数据处理器的硬件性能强弱,由服务器获取硬件性能最强的数据处理器对应的深度学习模型,可以使电子设备加载该深度学习模型,可以最大化利用电子设备的硬件性能,例如,服务器根据至少两个数据处理器的硬件性能参数确定硬件性能最强的数据处理器为CPU,此时,服务器可以选取CPU模型作为目标深度学习模型,并将CPU模型发送至电子设备,此时,可以使电子设备内的CPU运行效率最大化,也可以避免其它数据处理器(如DSP、GPU等)过渡消耗处理资源。
当然,在本实施例中,还可以根据数据处理器的利用率选取目标深度学习模型,例如,预先设定的利用率阈值为50%,当数据处理器的利用率低于50%时,则选取该数据处理器对应的深度学习模型作为目标深度学习模型,如,至少两个数据处理器为:CPU、GPU和DSP,其中,根据这三个数据处理器的硬件性能参数确定的这三个数据处理器的利用率分别为:60%、45%和30%,则选取GPU和DSP对应的深度学习模型作为目标深度学习模型,此时,可以设置这两个深度学习模型的优先级,以供电子设备优先选择优先级高的深度学习模型进行加载,以最大化利用电子设备内的数据处理器的硬件性能,提高电子设备内的数据处理器的利用率。
目标深度学习模型是指目标数据处理器对应的深度学习模型,例如,在目标数据处理器为CPU时,则目标深度学习模型为CPU模型。而在目标数据处理器为GPU时,则目标深度学习模型为GPU模型。在目标数据处理器为DSP时,则目标深度学习模型为DSP模型。
在本实施例中,对于同一种目标深度学习模型而言,可以根据目标应用程序所实现的功能获取对应的深度学习模型,例如,目标应用程序包括程序1和程序2,深度学习模型为CPU模型,而程序1所实现的功能为功能A,程序2所实现的功能为功能B,此时,对于程序1可以获取A类型的CPU模型,对于程序2可以获取B类型的CPU模型等。
可以理解地,上述示例仅是为了更好地理解本申请实施例的技术方案而列举的示例,不作为对本实施例的唯一限制。
在服务器接收到电子设备发送的模型获取请求之后,可以对模型获取请求进行解析,以获取模型获取请求中携带的电子设备中的至少两个数据处理器的硬件性能参数,进而,可以根据硬件性能参数获取至少两个数据处理器中的目标数据处理器,并获取目标数据处理器对应的目标深度学习模型,进而,可以由服务器将目标深度学习模型发送至电子设备。
在服务器将目标深度学习模型发送至电子设备之后,执行步骤103。
步骤103:所述电子设备接收并加载所述目标深度学习模型。
在电子设备接收到服务器发送的目标深度学习模型之后,可以由电子设备加载目标深度学习模型,进而,在电子设备运行目标应用程序的过程中,可以在实现某些功能时,通过目标深度学习模型实现对应功能的处理流程。
当然,在本示例中,在电子设备加载目标深度学习模型之后,可以由电子设备控制目标深度学习模型对应的数据处理器处于工作状态,并控制其它数据处理器处于休眠状态,例如,目标深度学习模型为CPU模型,在电子设备加载CPU模型之后,可以由电子设备控制CPU处于工作状态,并控制GPU和DSP处于休眠状态,可以提高电子设备内的数据处理器的硬件性能的利用率,提高模型的运行速度。
本申请实施例通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
本申请实施例提供的深度学习模型的获取方法,通过电子设备响应于目标应用程序的启动指令,生成模型获取请求,并将模型获取请求发送至服务器,模型获取请求中携带有电子设备中至少两个数据处理器的硬件性能参数,服务器根据至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取目标数据处理器对应的目标深度学习模型,并将目标深度学习模型发送至电子设备,电子设备接收并加载目标深度学习模型。本申请实施例通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
实施例二
参照图2,示出了本申请实施例提供的一种深度学习模型的加载方法的步骤流程图,该深度学习模型的加载方法适用于电子设备,具体可以包括如下步骤:
步骤201:在接收到目标应用程序的启动指令之后,生成模型获取请求;所述模型获取请求中携带有至少两个数据处理器的硬件性能参数。
在本申请实施例中,电子设备可以为手机、平板电脑等设备,具体地,可以根据业务需求而定,本实施例对此不加以限制。
目标应用程序是指电子设备内预先安装的具有AI(ArtificialIntelligence,人工智能)功能的应用程序,如可以进行短视频拍摄的应用程序,或可以进行用户后期处理(如美白、磨皮、超分、去噪等)的应用程序等,具体地,可以根据业务需求而定,本实施例对此不加以限制。
启动指令是指用于启动目标应用程序的指令。
在某些示例中,启动指令可以为用户点击目标应用程序的图标形成的指令,例如,在手机的显示屏幕上显示有目标应用程序的应用图标,在用户需要启动目标应用程序时,可以由用户点击该应用图标,以生成目标应用程序对应的启动指令。
当然,不仅限于此,在具体实现中,启动指令还可以为用户对目标应用程序执行的其它操作所形成的指令,如双击目标应用程序的应用图标等,具体地,可以根据业务需求而定,本实施例对此不加以限制。
模型获取请求是指用于获取数据处理器对应的深度学习模型的请求。在本实施例中,数据处理器可以包括CPU、GPU和DSP中的至少一种,而对应的深度学习模型则可以包括CPU模型、GPU模型和DSP模型中的至少一种。
在接收到针对目标应用程序的启动指令之后,可以响应于该启动指令,以生成模型获取请求,并在该模型获取请求中携带电子设备中至少两个数据处理器的硬件性能参数,具体地,在接收到针对目标应用程序的启动指令之后,可以获取电子设备内的至少两个数据处理器的硬件性能参数,并结合硬件性能参数生成模型获取请求。具体地,可以结合下述具体实现方式进行详细描述。
在本申请的一种具体实现方式中,上述步骤201可以包括:
子步骤A1:在接收到所述启动指令之后,获取所述电子设备支持的至少两个数据处理器。
在本实施例中,可以获取电子设备支持的数据处理器类型,电子设备以手机为例,可以通过cat/proc/cpuinfo,查看该手机的CPU信息,通过adbshell dumpsys|grepGLES,获取系统的GPU信息,然后通过加载不同的so库来判断,是否有DSP、NPU或者其他深度学习数据处理器的支持,以此确定出电子设备支持的至少两个数据处理器。
在获取电子设备支持的至少两个数据处理器之后,执行子步骤A2。
子步骤A2:通过所述至少两个数据处理器中分别运行相同的测试模型。
测试模型是指用于对至少两个数据处理器的性能进行测试的模型,在本实施例中,测试模型可以为一个神经网络等。
在获取电子设备支持的至少两个数据处理器之后,可以通过至少两个数据处理器分别运行相同的测试模型,进而,执行子步骤A3。
子步骤A3:根据运行结果,获取所述至少两个数据处理器的硬件性能参数。
在通过至少两个数据处理器分别运行相同的测试模型之后,可以根据运行结果获取至少两个数据处理器的硬件性能参数,在本示例中,分别利用各个数据处理器运行一个相同的测试模型,如全卷积网络等,各数据处理器耗时(即运行时间)越少,表明性能越强,其全卷积网络如下:(网络的输入为232维特征,实际中输出17类。在中间的隐藏层使用200个隐藏节点,如图3所示)。
根据运行结果获取至少两个数据处理器的硬件性能参数的具体过程可以结合下述具体实现方式进行详细描述。
在本申请的另一种具体实现方式中,上述子步骤A3可以包括:
子步骤B1:获取所述至少两个数据处理器运行所述测试模型的运行时间。
在本实施例中,运行时间是指数据处理器运行测试模型所用的时间。
在至少两个数据处理器运行相同的测试模型之后,可以获取至少两个数据处理器运行测试模型所花费的时间。
在获取至少两个数据处理器运行测试模型的运行时间之后,执行子步骤B2。
子步骤B2:根据所述运行时间,确定所述至少两个数据处理器的硬件性能参数。
在获取至少两个数据处理器对应的运行时间之后,可以根据运行时间获取至少两个数据处理器的硬件性能参数,具体地,可以预先设置一个运行时间与性能参数之间的对应关系,进而,在获取到至少两个数据处理器的运行时间之后,可以结合运行时间和对应关系确定至少两个数据处理器的硬件性能参数。
当然,在本实施例中,硬件性能参数可以是根据至少两个数据处理器的型号确定的,例如,电子设备的至少两个数据处理器包括CPU和GPU,在需要获取CPU和GPU的硬件性能参数时,可以获取CPU和GPU的硬件型号,根据硬件型号获取到CPU和GPU的硬件性能参数。
可以理解地,上述示例仅是为了更好地理解本申请实施例的技术方案而列举的示例,不作为对本实施例的唯一限制。
在获取至少两个数据处理器的硬件性能参数之后,执行子步骤A4。
子步骤A4:根据所述硬件性能参数,生成所述模型获取请求。
在获取到至少两个数据处理器的硬件性能参数之后,可以结合硬件性能参数生成模型获取请求。
在生成模型获取请求之后,执行步骤202。
步骤202:将所述模型获取请求发送至服务器。
在生成模型获取请求之后,可以由电子设备将模型获取请求发送至服务器,进而,执行步骤203。
步骤203:接收并加载所述服务器根据所述硬件性能参数获取的目标数据处理器对应的目标深度学习模型。
目标数据处理器是指根据至少两个数据处理器的硬件性能参数从至少两个数据处理器中筛选出的数据处理器,在本示例中,可以根据硬件性能参数从至少两个数据处理器中筛选出硬件性能参数最大的数据处理器以作为目标数据处理器,例如,至少两个数据处理器包括:CPU、GPU和DSP,其中,硬件性能参数的大小关系为:CPU>DSP>GPU,此时,可以将CPU作为目标数据处理器。当然,在服务器中未包含CPU对应的深度学习模型时,可以将DSP作为目标数据处理器,而在服务器中同时未包含DSP对应的深度学习模型时,则将GPU作为目标数据处理。
目标深度学习模型是指目标数据处理器对应的深度学习模型,例如,在目标数据处理器为CPU时,则目标深度学习模型为CPU模型。而在目标数据处理器为GPU时,则目标深度学习模型为GPU模型。在目标数据处理器为DSP时,则目标深度学习模型为DSP模型。
在本实施例中,对于同一种目标深度学习模型而言,可以根据目标应用程序所实现的功能获取对应的深度学习模型,例如,目标应用程序包括程序1和程序2,深度学习模型为CPU模型,而程序1所实现的功能为功能A,程序2所实现的功能为功能B,此时,对于程序1可以获取A类型的CPU模型,对于程序2可以获取B类型的CPU模型等。
可以理解地,上述示例仅是为了更好地理解本申请实施例的技术方案而列举的示例,不作为对本实施例的唯一限制。
在服务器接收到电子设备发送的模型获取请求之后,可以对模型获取请求进行解析,以获取模型获取请求中携带的电子设备中的至少两个数据处理器的硬件性能参数,进而,可以根据硬件性能参数获取至少两个数据处理器中的目标数据处理器,并获取目标数据处理器对应的目标深度学习模型,进而,可以由服务器将目标深度学习模型发送至电子设备。
在电子设备接收到服务器发送的目标深度学习模型之后,可以由电子设备加载目标深度学习模型,进而,在电子设备运行目标应用程序的过程中,可以在实现某些功能时,通过目标深度学习模型实现对应功能的处理流程。
本申请实施例通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
本申请实施例提供的深度学习模型的加载方法,通过在接收到目标应用程序的启动指令之后,生成模型获取请求,模型获取请求中携带有至少两个数据处理器的硬件性能参数,将模型获取请求发送至服务器,接收并加载服务器根据硬件性能参数获取的目标数据处理器对应的目标深度学习模型。本申请实施例通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
实施例三
参照图3,示出了本申请实施例提供的一种深度学习模型的选取方法的步骤流程图,该深度学习模型的选取方法适用于服务器,具体可以包括如下步骤:
步骤301:获取电子设备的至少两个数据处理器对应的硬件性能参数。
在本申请实施例中,至少两个数据处理器可以包括CPU、GPU和DSP中的至少两个。
电子是指用于获取并加载深度学习模型的设备,具体地,电子设备可以为移动终端,如手机、平板电脑等。当然,电子设备也可以为PC(Personal Computer,个人计算机)端,如台式电脑等终端。
硬件性能参数是指数据处理器的性能参数,可以用于指示数据处理器的性能优劣。
在某些示例中,硬件性能参数可以是根据至少两个数据处理器运行测试模型确定的性能参数,例如,电子设备内的至少两个数据处理器包括CPU和DSP,在需要获取CPU和DSP的硬件性能参数时,则可以通过CPU和DSP运行相同的测试模型,进而,可以根据CPU和DSP运行相同测试模型所用的时间,确定CPU和DSP的硬件性能参数。
在某些示例中,硬件性能参数可以是根据至少两个数据处理器的型号确定的,例如,电子设备的至少两个数据处理器包括CPU和GPU,在需要获取CPU和GPU的硬件性能参数时,可以获取CPU和GPU的硬件型号,根据硬件型号获取到CPU和GPU的硬件性能参数。
可以理解地,上述示例仅是为了更好地理解本申请实施例的技术方案而列举的示例,不作为对本实施例的唯一限制。
在电子设备获取到电子设备中的至少两个数据处理器的硬件性能参数之后,可以由电子设备结合至少两个数据处理器的硬件性能参数生成模型获取请求,并将模型获取请求发送至服务器。
在服务器接收到电子设备发送的模型获取请求之后,可以对模型获取请求进行解析,以获取电子设备的至少两个数据处理器的硬件性能参数,
在获取电子设备的至少两个数据处理器对应的硬件性能参数之后,执行步骤302。
步骤302:根据所述至少两个数据处理器的硬件性能参数对应的排序结果,确定所述至少两个数据处理器中的目标数据处理器。
在获取到电子设备的至少两个数据处理器的硬件性能参数之后,可以对至少两个数据处理器的硬件性能参数进行排序,如按照硬件性能参数由大到小的顺序进行排序,如至少两个数据处理器包括::CPU、GPU和DSP,GPU的性能强于DSP,DSP的性能强于CPU,此时,至少两个数据处理器的排序结果即为:GPU>DSP>CPU。
目标数据处理器是指根据至少两个数据处理器的硬件性能参数从至少两个数据处理器中筛选出的数据处理器,在本示例中,可以根据硬件性能参数从至少两个数据处理器中筛选出硬件性能参数最大的数据处理器以作为目标数据处理器,例如,至少两个数据处理器包括:CPU、GPU和DSP,其中,硬件性能参数的大小关系为:CPU>DSP>GPU,此时,可以将CPU作为目标数据处理器。当然,在服务器中未包含CPU对应的深度学习模型时,可以将DSP作为目标数据处理器,而在服务器中同时未包含DSP对应的深度学习模型时,则将GPU作为目标数据处理。
在获取电子设备的至少两个数据处理器的硬件性能参数之后,可以根据至少两个数据处理器的硬件性能参数对应的排序结果,确定至少两个数据处理器中的目标数据处理器,具体地,可以结合下述具体实现方式进行如下详细描述。
在本申请的一种具体实现方式中,上述步骤302可以包括:
子步骤S1:根据所述排序结果,从所述至少两个数据处理器中筛选出硬件性能参数最大的第一数据处理器,并将所述第一数据处理器作为所述目标数据处理器。
在本实施例中,第一数据处理器是指至少两个数据处理器中硬件性能参数最大的数据处理器,例如,至少两个数据处理器包括:CPU、GPU和DSP,其中,硬件性能参数的大小关系为:CPU>DSP>GPU,此时,可以将CPU作为第一数据处理器。
在获取电子设备的至少两个数据处理器的硬件性能参数之后,可以结合硬件性能参数对至少两个数据处理器进行排序,并根据排序结果从至少两个数据处理器中筛选出硬件性能参数最大的第一数据处理器,以将第一数据处理器作为目标数据处理器。
当然,在本实施例中,在不存在硬件性能参数最大的数据处理器对应的深度学习模型的情况下,可以根据上述排序结果,从至少两个数据处理器除第一数据处理器之外的其它数据处理器中,筛选出硬件性能参数最大的第二数据处理器,并将第二数据处理器作为目标数据处理器。
在根据至少两个数据处理器的硬件性能参数对应的排序结果,确定至少两个数据处理器中的目标数据处理器之后,执行步骤303。
步骤303:获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备。
目标深度学习模型是指目标数据处理器对应的深度学习模型,例如,在目标数据处理器为CPU时,则目标深度学习模型为CPU模型。而在目标数据处理器为GPU时,则目标深度学习模型为GPU模型。在目标数据处理器为DSP时,则目标深度学习模型为DSP模型。
在本实施例中,对于同一种目标深度学习模型而言,可以根据目标应用程序所实现的功能获取对应的深度学习模型,例如,目标应用程序包括程序1和程序2,深度学习模型为CPU模型,而程序1所实现的功能为功能A,程序2所实现的功能为功能B,此时,对于程序1可以获取A类型的CPU模型,对于程序2可以获取B类型的CPU模型等。
可以理解地,上述示例仅是为了更好地理解本申请实施例的技术方案而列举的示例,不作为对本实施例的唯一限制。
在服务器接收到电子设备发送的模型获取请求之后,可以对模型获取请求进行解析,以获取模型获取请求中携带的电子设备中的至少两个数据处理器的硬件性能参数,进而,可以根据硬件性能参数获取至少两个数据处理器中的目标数据处理器,并获取目标数据处理器对应的目标深度学习模型,进而,可以由服务器将目标深度学习模型发送至电子设备。
当然,在本实施例中,电子设备在向服务器发送模型获取请求时,还可以在模型获取请求中携带软件开发工具包版本,在获取目标深度学习模型时,可以结合软件开发工具包版本获取匹配的目标深度学习模型,即根据软件开发工具包版本获取对应版本的目标深度学习模型,以发送至电子设备。
本申请实施例提供的深度学习模型的选取方法,通过获取电子设备的至少两个数据处理器对应的硬件性能参数,根据至少两个数据处理器的硬件性能参数对应的排序结果,确定至少两个数据处理器中的目标数据处理器,获取目标数据处理器对应的目标深度学习模型,并将目标深度学习模型发送至电子设备。本申请实施例通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
实施例四
参照图4,示出了本申请实施例提供的一种系统的结构示意图,如图4所示,该系统400可以包括:电子设备410和服务器420,其中,
所述电子设备410,用于响应于目标应用程序的启动指令,生成模型获取请求,并将所述模型获取请求发送至服务器;所述模型获取请求中携带有所述电子设备中至少两个数据处理器的硬件性能参数;
所述服务器420,用于根据所述至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备;
所述电子设备410,还用于接收并加载所述目标深度学习模型;
其中,所述目标深度学习模型是与所述目标应用程序实现的功能关联的模型。
本申请实施例提供的系统,通过电子设备响应于目标应用程序的启动指令,生成模型获取请求,并将模型获取请求发送至服务器,模型获取请求中携带有电子设备中至少两个数据处理器的硬件性能参数,服务器根据至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取目标数据处理器对应的目标深度学习模型,并将目标深度学习模型发送至电子设备,电子设备接收并加载目标深度学习模型。本申请实施例通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
实施例五
参照图5,示出了本申请实施例提供的一种电子设备的结构示意图,如图5所示,该电子设备500具体可以包括如下模块:
模型获取请求生成模块510,用于在接收到目标应用程序的启动指令之后,生成模型获取请求;所述模型获取请求中携带有至少两个数据处理器的硬件性能参数;
模型获取请求发送模块520,用于将所述模型获取请求发送至服务器;
目标学习模型加载模块530,用于接收并加载所述服务器根据所述硬件性能参数获取的目标数据处理器对应的目标深度学习模型。
可选地,所述模型获取请求生成模块510包括:
数据处理器获取单元,用于在接收到所述启动指令之后,获取所述电子设备支持的至少两个数据处理器;
测试模型运行单元,用于通过所述至少两个数据处理器中分别运行相同的测试模型;
模型性能参数获取单元,用于根据运行结果,获取所述至少两个数据处理器的硬件性能参数;
模型获取请求生成单元,用于根据所述硬件性能参数,生成所述模型获取请求。
可选地,所述模型性能参数获取单元包括:
运行时间获取子单元,用于获取所述至少两个数据处理器运行所述测试模型的运行时间;
硬件性能参数确定子单元,用于根据所述运行时间,确定所述至少两个数据处理器的硬件性能参数。
本申请实施例提供的电子设备,通过在接收到目标应用程序的启动指令之后,生成模型获取请求,模型获取请求中携带有至少两个数据处理器的硬件性能参数,将模型获取请求发送至服务器,接收并加载服务器根据硬件性能参数获取的目标数据处理器对应的目标深度学习模型。本申请实施例通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
实施例六
参照图6,示出了本申请实施例提供的一种服务器的结构示意图,如图6所示,服务器600具体可以包括如下模块:
硬件性能参数获取模块610,用于获取电子设备的至少两个数据处理器对应的硬件性能参数;
目标处理器确定模块620,用于根据所述至少两个数据处理器的硬件性能参数对应的排序结果,确定所述至少两个数据处理器中的目标数据处理器;
目标学习模型发送模块630,用于获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备。
可选地,所述目标处理器确定模块620包括:
目标处理器获取单元,用于根据所述排序结果,从所述至少两个数据处理器中筛选出硬件性能参数最大的第一数据处理器,并将所述第一数据处理器作为所述目标数据处理器。
可选地,所述目标处理器获取单元包括:
目标处理器获取子单元,用于在不存在硬件性能参数最大的数据处理器对应的深度学习模型的情况下,根据所述排序结果,从所述至少两个数据处理器除所述第一数据处理器之外的其它数据处理器中,筛选出硬件性能参数最大的第二数据处理器,并将所述第二数据处理器作为所述目标数据处理器。
可选地,所述至少两个数据处理器包括:中央处理器、图形处理器和数字信号处理器中的至少两个。
本申请实施例提供的服务器,通过获取电子设备的至少两个数据处理器对应的硬件性能参数,根据至少两个数据处理器的硬件性能参数对应的排序结果,确定至少两个数据处理器中的目标数据处理器,获取目标数据处理器对应的目标深度学习模型,并将目标深度学习模型发送至电子设备。本申请实施例通过结合电子设备内数据处理器的硬件性能参数自适应获取相应的深度学习模型,可以自动匹配最适合电子设备的深度学习模型,能充分利用电子设备的数据处理器的性能参数,提高深度学习算法的运行速度和用户体验。
本申请实施例还提供了一种电子设备,如图7所示,包括处理器701、通信接口702、存储器703和通信总线704,其中,处理器701,通信接口702,存储器703通过通信总线704完成相互间的通信,
存储器703,用于存放计算机程序;
处理器701,用于执行存储器703上所存放的程序时,实现上述深度学习模型的获取方法,或上述深度学习模型的加载方法,或上述深度学习模型的选取方法。
上述终端提到的通信总线可以是外设部件互连标准(PeripheralComponentInterconnect,简称PCI)总线或扩展工业标准结构(ExtendedIndustryStandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述终端与其他设备之间的通信。
存储器可以包括随机存取存储器(RandomAccessMemory,简称RAM),也可以包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(CentralProcessing Unit,简称CPU)、网络处理器(NetworkProcessor,简称NP)等;还可以是数字信号处理器(DigitalSignalProcessing,简称DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-ProgrammableGateArray,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的深度学习模型的获取方法,或上述实施例中任一所述的深度学习模型的加载方法,或上述实施例中任一所述的深度学习模型的选取方法。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的深度学习模型的获取方法,或上述实施例中任一所述的深度学习模型的加载方法,或上述实施例中任一所述的深度学习模型的选取方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid StateDisk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。

Claims (13)

1.一种深度学习模型的获取方法,其特征在于,所述方法适用于系统,所述方法包括:
电子设备响应于目标应用程序的启动指令,生成模型获取请求,并将所述模型获取请求发送至服务器;所述模型获取请求中携带有所述电子设备中至少两个数据处理器的硬件性能参数;
所述服务器根据所述至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备;
所述电子设备接收并加载所述目标深度学习模型;
其中,所述目标深度学习模型是与所述目标应用程序实现的功能关联的模型。
2.一种深度学习模型的加载方法,其特征在于,所述方法适用于电子设备,所述方法包括:
在接收到目标应用程序的启动指令之后,生成模型获取请求;所述模型获取请求中携带有至少两个数据处理器的硬件性能参数;
将所述模型获取请求发送至服务器;
接收并加载所述服务器根据所述硬件性能参数获取的目标数据处理器对应的目标深度学习模型。
3.根据权利要求2所述的方法,其特征在于,所述在接收到目标应用程序的启动指令之后,生成模型获取请求,包括:
在接收到所述启动指令之后,获取所述电子设备支持的至少两个数据处理器;
通过所述至少两个数据处理器中分别运行相同的测试模型;
根据运行结果,获取所述至少两个数据处理器的硬件性能参数;
根据所述硬件性能参数,生成所述模型获取请求。
4.根据权利要求3所述的方法,其特征在于,所述根据运行结果,获取所述至少两个数据处理器的硬件性能参数,包括:
获取所述至少两个数据处理器运行所述测试模型的运行时间;
根据所述运行时间,确定所述至少两个数据处理器的硬件性能参数。
5.一种深度学习模型的选取方法,其特征在于,所述方法适用于服务器,所述方法包括:
获取电子设备的至少两个数据处理器对应的硬件性能参数;
根据所述至少两个数据处理器的硬件性能参数对应的排序结果,确定所述至少两个数据处理器中的目标数据处理器;
获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备。
6.根据权利要求5所述的方法,其特征在于,所述根据所述至少两个数据处理器的硬件性能参数对应的排序结果,确定所述至少两个数据处理器中的目标数据处理器,包括:
根据所述排序结果,从所述至少两个数据处理器中筛选出硬件性能参数最大的第一数据处理器,并将所述第一数据处理器作为所述目标数据处理器。
7.根据权利要求6所述的方法,其特征在于,所述根据所述排序结果,从所述至少两个数据处理器中筛选出硬件性能参数最大的第一数据处理器,并将所述第一数据处理器作为所述目标数据处理器,包括:
在不存在硬件性能参数最大的数据处理器对应的深度学习模型的情况下,根据所述排序结果,从所述至少两个数据处理器除所述第一数据处理器之外的其它数据处理器中,筛选出硬件性能参数最大的第二数据处理器,并将所述第二数据处理器作为所述目标数据处理器。
8.根据权利要求5至7任一项所述的方法,其特征在于,所述至少两个数据处理器包括:中央处理器、图形处理器和数字信号处理器中的至少两个。
9.一种系统,其特征在于,所述系统包括:电子设备和服务器,
所述电子设备,用于响应于目标应用程序的启动指令,生成模型获取请求,并将所述模型获取请求发送至服务器;所述模型获取请求中携带有所述电子设备中至少两个数据处理器的硬件性能参数;
所述服务器,用于根据所述至少两个数据处理器的硬件性能参数,确定目标数据处理器,获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备;
所述电子设备,还用于接收并加载所述目标深度学习模型;
其中,所述目标深度学习模型是与所述目标应用程序实现的功能关联的模型。
10.一种电子设备,其特征在于,包括:
模型获取请求生成模块,用于在接收到目标应用程序的启动指令之后,生成模型获取请求;所述模型获取请求中携带有至少两个数据处理器的硬件性能参数;
模型获取请求发送模块,用于将所述模型获取请求发送至服务器;
目标学习模型加载模块,用于接收并加载所述服务器根据所述硬件性能参数获取的目标数据处理器对应的目标深度学习模型。
11.一种服务器,其特征在于,包括:
硬件性能参数获取模块,用于获取电子设备的至少两个数据处理器对应的硬件性能参数;
目标处理器确定模块,用于根据所述至少两个数据处理器的硬件性能参数对应的排序结果,确定所述至少两个数据处理器中的目标数据处理器;
目标学习模型发送模块,用于获取所述目标数据处理器对应的目标深度学习模型,并将所述目标深度学习模型发送至所述电子设备。
12.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1所述的深度学习模型的获取方法,或权利要求2至4中任一项所述的深度学习模型的加载方法,或权利要求5至8任一项所述的深度学习模型选取方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1所述的深度学习模型的获取方法,或权利要求2至4中任一项所述的深度学习模型的加载方法,或权利要求5至8任一项所述的深度学习模型选取方法。
CN202010803957.5A 2020-08-11 2020-08-11 深度学习模型的获取方法、加载方法及选取方法 Active CN112114892B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010803957.5A CN112114892B (zh) 2020-08-11 2020-08-11 深度学习模型的获取方法、加载方法及选取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010803957.5A CN112114892B (zh) 2020-08-11 2020-08-11 深度学习模型的获取方法、加载方法及选取方法

Publications (2)

Publication Number Publication Date
CN112114892A CN112114892A (zh) 2020-12-22
CN112114892B true CN112114892B (zh) 2023-07-21

Family

ID=73804031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010803957.5A Active CN112114892B (zh) 2020-08-11 2020-08-11 深度学习模型的获取方法、加载方法及选取方法

Country Status (1)

Country Link
CN (1) CN112114892B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114691566A (zh) * 2020-12-31 2022-07-01 Oppo广东移动通信有限公司 Ai模型的运行方法、加载方法、装置及ic芯片
CN112799895A (zh) * 2021-01-27 2021-05-14 北京嘀嘀无限科技发展有限公司 硬件评测方法、装置、电子设备、存储介质和程序产品
CN112966824A (zh) * 2021-01-28 2021-06-15 北京百度网讯科技有限公司 推理库的部署方法、装置和电子设备
CN114969636B (zh) * 2021-03-23 2023-10-03 华为技术有限公司 一种模型推荐的方法、装置和计算机设备
CN113283084B (zh) * 2021-05-27 2022-10-21 深圳星地孪生科技有限公司 银河宇宙线模型选用方法及系统
CN113778458B (zh) * 2021-08-19 2024-04-05 北京爱芯科技有限公司 数据处理器功能开发系统、方法及计算设备
CN114327671A (zh) * 2021-12-03 2022-04-12 北京达佳互联信息技术有限公司 参数配置方法、装置、设备及存储介质
CN114820279B (zh) * 2022-05-18 2023-03-24 北京百度网讯科技有限公司 基于多gpu的分布式深度学习方法、装置及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102052624B1 (ko) * 2018-11-09 2019-12-05 주식회사 루닛 기계 학습 방법 및 장치

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250758A (ja) * 2009-04-20 2010-11-04 Ricoh Co Ltd 画像形成装置
US10303488B2 (en) * 2016-03-30 2019-05-28 Sony Interactive Entertainment Inc. Real-time adjustment of application-specific operating parameters for backwards compatibility
US10872598B2 (en) * 2017-02-24 2020-12-22 Baidu Usa Llc Systems and methods for real-time neural text-to-speech
WO2018155963A1 (en) * 2017-02-24 2018-08-30 Samsung Electronics Co., Ltd. Method of accelerating execution of machine learning based application tasks in a computing device
US11734584B2 (en) * 2017-04-19 2023-08-22 International Business Machines Corporation Multi-modal construction of deep learning networks
US11176485B2 (en) * 2017-09-06 2021-11-16 Facebook Inc. Dynamic integration of machine-learning modules
KR102159953B1 (ko) * 2018-08-13 2020-09-25 인천대학교 산학협력단 딥러닝 모델을 통한 추론 서비스를 제공할 때, 적어도 하나의 프로세서의 성능을 제어하는 전자 장치 및 그의 동작 방법
US11188348B2 (en) * 2018-08-31 2021-11-30 International Business Machines Corporation Hybrid computing device selection analysis
CN109522185A (zh) * 2018-11-19 2019-03-26 江苏镭博智能科技有限公司 一种模型分割提高运算速度的方法
CN110991649A (zh) * 2019-10-28 2020-04-10 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 深度学习模型搭建方法、装置、设备和存储介质
CN111147954A (zh) * 2019-12-30 2020-05-12 北京奇艺世纪科技有限公司 一种缩略图抽取方法及装置
CN111369430B (zh) * 2020-03-09 2023-04-07 中山大学 基于移动深度学习引擎的移动端人像智能背景替换方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102052624B1 (ko) * 2018-11-09 2019-12-05 주식회사 루닛 기계 학습 방법 및 장치

Also Published As

Publication number Publication date
CN112114892A (zh) 2020-12-22

Similar Documents

Publication Publication Date Title
CN112114892B (zh) 深度学习模型的获取方法、加载方法及选取方法
CN111461332B (zh) 深度学习模型在线推理方法、装置、电子设备和存储介质
US10666758B2 (en) Browser resource pre-pulling method, terminal and storage medium
CN107133174A (zh) 测试用例代码自动生成装置与方法
CN109901881B (zh) 应用程序的插件加载方法、装置、计算机设备及存储介质
CN109344062A (zh) 页面跨域跳转测试的方法及终端设备
CN109933381A (zh) 一种内核的加载方法及装置
CN108897692A (zh) 网络环境的动态切换方法及系统、服务器及存储介质
CN104050001A (zh) 基于Android系统的资源处理方法、装置和设备
CN107766307A (zh) 一种表单元素联动的方法和设备
CN113885971A (zh) 一种基于自适应平台系统的状态管理方法及装置
CN110750295B (zh) 一种信息处理方法,装置,电子设备和存储介质
CN107391361B (zh) 一种pos终端自动测试方法及装置
CN113127099B (zh) 服务器配置方法、装置、设备及存储介质
CN108733401B (zh) 一种实现浏览器兼容的方法及装置
CN115185832A (zh) 测试用例的生成方法、装置、计算机设备及可读存储介质
EP2477380A1 (en) Apparatus and method for providing and executing content
CN108809763B (zh) 一种网络性能参数采集方法、终端装置及存储介质
CN112685006A (zh) 流程管理方法、装置、电子设备及存储介质
CN109508434B (zh) 区块生成方法、网页渲染方法及装置
CN108958929B (zh) 应用算法库的方法、装置、存储介质及电子设备
CN113326237A (zh) 日志数据的加工方法、装置、终端设备以及存储介质
AU2013206622B2 (en) Download management method and device based on Android browser
CN112948013A (zh) 一种应用探针配置方法、装置、终端设备及存储介质
CN113900734B (zh) 一种应用程序文件配置方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant