CN112783506A - 一种模型运行方法及相关装置 - Google Patents
一种模型运行方法及相关装置 Download PDFInfo
- Publication number
- CN112783506A CN112783506A CN202110126081.XA CN202110126081A CN112783506A CN 112783506 A CN112783506 A CN 112783506A CN 202110126081 A CN202110126081 A CN 202110126081A CN 112783506 A CN112783506 A CN 112783506A
- Authority
- CN
- China
- Prior art keywords
- model
- target
- module
- control instruction
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Stored Programmes (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
本申请实施例公开一种模型运行方法及相关装置。其中,模型运行方法包括:接收模型调用指令,该模型调用指令用于调用目标模型执行目标任务;基于该模型调用指令,确定目标模型对应的至少一个模块模型,并从内存中获取各个模块模型的第一控制指令和第一模型参数;基于各个模块模型对应的第一控制指令和第一模型参数,执行该目标任务。通过这样的方式,终端设备在调用模型执行目标任务时,可以直接从内存中获取模型的编译结果,从而缩短调用模型执行目标任务的时间,提升模型执行目标任务的效率。
Description
技术领域
本申请涉及信息处理领域,尤其涉及一种模型运行方法及相关装置。
背景技术
随着终端设备(如移动手机、平板电脑和车载终端等)的快速发展,终端设备可以通过运行应用模型,使终端设备具有多元化功能,为人们的日常生活提供了极大的便利。
终端设备调用应用模型执行任务的过程可概述为两个阶段:模型编译阶段(或称模型准备阶段)和模型计算阶段。例如,基于神经网络的图像识别模型在终端设备中执行图像识别任务时,终端设备需要先加载和编译图像识别模型(即模型编译阶段),再基于该图像识别模型的模型编译结果来识别待识别的目标图像(即模型计算阶段)。模型编译阶段可以简单的理解为模型计算阶段的必要前提条件。若应用模型过于复杂,则会增加模型编译阶段(包括模型加载、模型优化和模型编译等)的时间损耗,降低终端设备调用该应用模型执行任务的效率。
可见,如何在调用应用模型执行任务时,提升模型执行任务的运行效率是一个亟待解决的问题。
发明内容
本申请实施例提供了一种模型运行方法及相关装置,通过本申请提供的方法,终端设备可以通过从内存中获取待调用模型的模型编译结果,从而缩短调用模型执行目标任务的时间,提升模型执行目标任务的效率。
第一方面,本申请实施例提供了一种模型运行方法,该方法包括:
接收模型调用指令,该模型调用指令用于调用目标模型执行目标任务;基于该模型调用指令,确定目标模型对应的至少一个模块模型,并从缓存cache中获取各个模块模型的第一控制指令和第一模型参数;基于各个模块模型对应的第一控制指令和第一模型参数,指示该目标任务。
可见,通过该模型运行方法终端设备可以从内存中获取提前编译的模型控制指令和模型参数,在模型调用过程中节省模型编译的时间,进而提升模型执行任务的效率(或称为调用模型的效率)。
一种可能的实现方式中,从缓存cache中获取各个模块模型的第一控制指令和第一模型参数之前,还可以基于该目标模型包括的多个算子,切分目标模型得到一个或多个模块模型,该模块模型包括至少一个算子;编译每个,模块模型,得到每个模块模型的第一控制指令和第一模型参数;存储每个模块模型的第一控制指令和第一模型参数于cache。
一种可能的实现方式中,该模块模型的数量为多个,该多个模块模型对应至少两种计算单元,该模块模型的第一控制指令和第一模型参数与计算单元对应。
一种可能的实现中,该计算单元的种类为:中央处理器CPU、图形处理器GPU或者神经网络处理器NPU。
一种可能的实现方式中,检测每个模块模型对应的计算单元是否处于不可用状态;基于检测结果,从模块模型中确定出目标模块模型,该目标模块模型对应的第一目标计算单元处于不可用状态;基于第二目标计算单元编译目标模块模型,得到目标模块模型对应的第二控制指令和第二模型参数,第二目标计算单元与目标模块模型具有对应关系,第二目标单元不同于第一目标单元;根据第二控制指令和第二模型参数更新cache中存储的目标模块模型的第一控制指令和第一模型参数。
一种可能的实现方式中,在根据第二控制指令和第二模型参数更新cache中存储的目标模块模型的第一控制指令和第一模型参数之后,还可以检测目标模块模型对应的第一目标计算单元是否处于不可用状态;若第一目标计算单元不处于不可用状态,则基于第一目标计算单元编译目标模块模型,得到目标模块模型对应的第三控制指令和第三模型参数,并根据第三控制指令和第三模型参数更新cache中存储的目标模块模型的第一控制指令和第一模型参数。
第二方面,本申请实施例提供了一种模型运行装置,所述模型运行装置包括:
接收单元,用于接收模型调用指令,所述模型调用指令用于调用目标模型执行目标任务;
处理单元,用于基于所述模型调用指令,确定所述目标模型对应的至少一个模块模型,并从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数;
所述处理单元,还用于基于各个所述模块模型对应的所述第一控制指令和所述第一模型参数,执行所述目标任务。
一种可能的实现中,所述从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数之前,所述处理单元还用于:基于所述目标模型包括的多个算子,切分所述目标模型得到一个或多个模块模型,所述模块模型包括至少一个所述算子;编译每个所述模块模型,得到每个所述模块模型的第一控制指令和第一模型参数;存储每个所述模块模型的所述第一控制指令和所述第一模型参数于cache。
一种可能的实现中,所述模块模型的数量为多个,所述多个模块模型部对应至少两种计算单元,所述模块模型的所述第一控制指令和所述第一模型参数与所述计算单元对应。
一种可能的实现中,所述计算单元的种类为:中央处理器CPU、图形处理器GPU或者神经网络处理器NPU。
一种可能的实现中,所述处理单元具体用于:检测每个所述模块模型对应的所述计算单元是否处于不可用状态;基于检测结果,从所述模块模型中确定出目标模块模型,所述目标模块模型对应的第一目标计算单元处于不可用状态;基于第二目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第二控制指令和第二模型参数,所述第二目标计算单元与所述目标模块模型具有对应关系,所述第二目标单元不同于所述第一目标单元;根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
一种可能的实现中,所述根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数之后,所述处理单元还用于:检测所述目标模块模型对应的所述第一目标计算单元是否处于不可用状态;若所述第一目标计算单元不处于不可用状态,则基于所述第一目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第三控制指令和第三模型参数,并根据所述第三控制指令和所述第三模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
第三方面,本申请提供了一种芯片,该芯片用于接收模型调用指令,该模型调用指令用于调用目标模型执行目标任务;基于模型调用指令,确定目标模型对应的至少一个模块模型,并从缓存cache中获取各个模块模型的第一控制指令和第一模型参数;基于各个模块模型对应的第一控制指令和第一模型参数,执行目标任务。
第四方面,本申请提供了一种芯片模组,该芯片模座包括前述第三方面中的芯片。
第五方面,本申请提供了一种终端设备,所述终端设备包括:
存储器,用于存储计算机程序;
处理器,调用计算机程序,用于执行以下操作:接收模型调用指令,该模型调用指令用于调用目标模型执行目标任务;基于该模型调用指令,确定目标模型对应的至少一个模块模型,并从缓存cache中获取各个模块模型的第一控制指令和第一模型参数;基于各个模块模型对应的第一控制指令和第一模型参数,指示该目标任务。
第六方面,本申请实施例提供一种计算机可读存储介质,用于储存上述终端设备所用的计算机软件指令,其包括用于执行上述第一方面任一所述的方法所涉及的程序。
附图说明
图1为本申请实施例提供的一种模型运行方法的流程示意图;
图2为本申请实施例提供的一种cache中存储数据的示意图;
图3为本申请实施例提供的一种目标模型的示意图;
图4为本申请实施例提供的另一种模型运行方法的流程示意图;
图5为本申请实施例提供的一种目标模型的各个模块模型与计算单元的对应关系的示意图;
图6为本申请实施例提供的一种模型运行装置的结构示意图;
图7为本申请实施例提供的一种终端设备的结构示意图。
具体实施方式
本申请实施例提供一种模型运行方法及相关装置,为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述。
本申请的说明书、权利要求书及附图中的术语“第一”和“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列操作或单元的过程、方法、系统、产品或设备没有限定于已列出的操作或单元,而是可选地还包括没有列出的操作或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它操作或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上,“至少两个(项)”是指两个或三个及三个以上,“和/或”,用于描述对应对象的对应关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后对应对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
本申请中的模型运行方法可应用于终端设备,需要知晓的是,本申请所提及的终端设备也可以称为终端、用户设备、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、用户代理或用户装置。本申请的实施例中的终端设备可以是手机(mobile phone)、平板电脑(Pad)、带无线收发功能的电脑、虚拟现实(virtualreality,VR)终端设备、增强现实(augmented reality,AR)终端设备、工业控制(industrial control)中的无线终端、无人驾驶(self driving)中的无线终端、远程医疗(remote medical)中的无线终端、智能电网(smart grid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smart city)中的无线终端、智慧家庭(smart home)中的无线终端等。
为便于理解本申请公开的实施例,首先对本申请实施例涉及的一些概念进行阐述。这些概念的阐述包括但不限于以下内容。
缓存(又称Cache)存储器:是位于中央处理器(Central Processing Unit,CPU)和动态随机存取存储器(Dynamic Random Access Memory,DRAM)之间,规模较小,但速度很高的存储器,通常由静态存储器(Static Random Access Memory,SRAM)组成。
中央处理器(Central Processing Unit,CPU),是终端设备的核心配件之一,其功能主要是解释计算机指令以及处理计算机软件中的数据,是终端设备的运算核心和控制核心。
图形处理器(Graphics Processing Unit,GPU):又称显示核心、视觉处理器、显示芯片,其采用多线程单指令多数据流(Single Instruction Multiple Data,SIMD)架构,是在终端设备上做图像和图形相关运算工作的微处理器。
神经网络处理器(Neural Network Processing Unit,NPU):它的运行原理是在电路层模拟人类神经元和突触,并且利用深度学习指令集直接处理大规模神经元和突触,一条指令完成一组神经元的处理。相比于CPU和GPU,NPU的运行效率高出很多。
为了更好地理解本申请提供的方案,下面将结合本申请实施例中的附图,对本申请实施例进行阐述。
请参见图1,图1是本申请实施例提供的一种模型运行方法的流程示意图。图1所示方法的执行主体可以为终端设备,或,为终端设备中的芯片。图1以终端设备为方法的执行主体为例进行说明。如图1所示,该模型运行方法包括步骤S101-步骤S103。
S101:接收模型调用指令,该模型调用指令用于调用目标模型执行目标任务。
终端设备接收用户输入的模型调用指令。例如,应用程序1用于实现人像识别功能,该人像识别功能是基于卷积神经网络(Convolutional Neural Networks,CNN)模型实现的。用户的手机终端中安装有应用程序1,当用户打开应用程序1启动人像识别功能时,则可视为终端设备接收到模型调用指令,基于该模型调用指令确定应用程序1对应的CNN模型为目标模型,调用该CNN模型执行人像识别(即目标任务)。
S102:基于该模型调用指令,确定目标模型对应的至少一个模块模型,并从cache中获取各个模块模型的第一控制指令和第一模型参数。
换而言之,终端设备的cache中存储有至少一个模块模型的第一控制指令和第一模型参数,每个模块模型上携带有目标模型的标识。终端设备接收模型调用指令之后,可以根据模型调用指令中目标模型的标识,从cache中确定出目标模型对应的模块模型的第一控制指令和第一模型参数。其中,一个模块模型对应有第一控制指令和第一模型参数,第一控制指令和第一模型参数之间具有关联或调用关系。
示例性地,如图2所示为终端设备cache中存储的多个模块模型包括的第一控制指令和第一模型参数,带有相同的模型标识的模块模型组成一个模型,例如模型1的模块模型1和模型1的模块模型2组成模型1。模型与终端设备中安装的应用程序相对应,示例性的,在一些实施方式中,一个模型与一个应用程序相对应;在另一些实施例中,一个应用程序可以对应多个模型,对此本申请不限定模型与应用程序之间的对应关系。
当终端设备接收模型调用指令,并根据该模型调用指令确定模型1为目标模型时,则终端设备从cache中获取模型1的模块模型1包括的第一控制指令和第一模型参数,以及模型1的模块模型2包括的第一控制指令和第一模型参数。
接下来,本申请对获取每个模块模型的第一控制指令和第一模型参数的具体方式进行详细介绍。
在一个可能的实现中,终端设备基于目标模型包括的多个算子,切分该目标模型得到一个或多个模块模型,该模块模型包括至少一个算子。进一步地,终端设备对每个模块模型进行编译,得到每个模块模型的第一控制指令和第一模型参数,并将每个模块模型的第一控制指令和第一模型参数存储于cache。
需要说明的是,算子是目标模型的计算单元,可以理解为模型中的一个函数,也可以理解为模型中多个函数的集合,在此不做具体限定。例如,就包含2层卷积层、2层池化层和1层全连接层的CNN模型而言,可以将每一层卷积层、池化层和全连接层视为1个算子。
示例性地,目标模型如图3所示,该目标模型包括算子1、算子2、算子3、算子4、算子5和算子6,在这种情况下,终端设备可以根据各个算子之间的连接结构特性将该目标模型切分为如图3所示的模块模型1、模块模型2、模块模型3和模块模型4,其中,模块模型1包括算子1,目标模块2包括串行连接的算子2、算子3和算子4,模块模型3包括算子5,模块模型4包括算子6。进一步地,终端设备对模块模型1、模块模型2、模块模型3和模块模型4进行编译,得到模块模型1的第一控制指令和第一模型参数,模块模型2的第一控制指令和第一模型参数,模块模型3的第一控制指令和第一模型参数,模块模型4的第一控制指令和第一模型参数,并将每个模块模型的第一控制指令和第一模型参数存储于cache。
在一个可能的实现中,目标模型的模块模型的数量为多个,该多个模块模型对应至少两种计算单元(又可以称为芯片或处理器)。模块模型的第一控制指令和第一模型参数与计算单元对应。
换而言之,终端设备中存在至少两种计算单元,则终端设备将目标模型切分为多个模块模型后,基于各个模块模型对应的计算单元对该模块模型进行编译,得到该模块模型的第一控制指令和第一模型参数。例如,模块模型对应CPU,则终端设备将该模块模型编译为CPU对应格式下的第一控制指令(或称为硬件指令)和第一控制指令对应的第一模型参数。其中,计算单元包括CPU、GPU和NPU。
示例性地,终端设备中包括CPU、GPU和NPU,以图3所示的目标模型为例,终端设备将该目标模型切分为模块模型1、模块模型2、模块模型3和模块模型4。若模块模型1和模块模型4运行于CPU,模块模型2运行于GPU,模块模型3运行于NPU,则终端设备基于CPU对模块模型1和模块模型4进行编译,分别得到模块模型1与模块模型4的第一控制指令和第一模型参数;基于GPU对模块模型2进行编译,得到模块模型2的第一控制指令和第一模型参数;基于NPU对模块模型3进行编译,得到模块模型3的第一控制指令和第一模型参数。
在另一个可能的实现中,目标模型的模块模型的数量为一个。在这种应用场景中,终端设备仅有一个芯片(又称为处理器或计算单元)时,或,终端设备有多个芯片,但该目标模型仅在其中一个芯片中运行时,目标模型对应一个模块模型(即该目标模型不存在模型异构的情况)。在这种情况下,该模块模型即是完整的目标模型,终端设备对目标模型进行编译(包括模型加载、模型优化和模型编译中的一种或多种),得到该目标模型的第一控制指令和第一模型参数。
S103:基于各个模块模型对应的第一控制指令和第一模型参数,执行该目标任务。
终端设备基于各个模块模型之间的连接关系、第一控制指令和第一模型参数,执行目标任务。
可见,终端设备将该目标模型对应的模块模型的第一控制指令和第一模型参数存储于cache中,以便后续接收到该目标模型的模型调用指令后,可直接从cache中获取第一控制指令和第一模型参数,缩短目标模型调用的时长,提升目标模型执行目标任务的效率。
请参见图4,图4是本申请实施例提供的一种模型运行方法的流程示意图。图4所示方法的执行主体可以为终端设备,或,为终端设备中的芯片。图4以终端设备为方法的执行主体为例进行说明。如图4所示,该模型运行方法包括步骤S401-步骤S407。
S401:接收模型调用指令,该模型调用指令用于调用目标模型执行目标任务。
S402:基于该模型调用指令,确定目标模型对应的至少一个模块模型。
其中,步骤S401-步骤S402的具体实施方式可参见前述实施例中步骤S101-步骤S102的相关描述,此处不再进行过多赘述。
S403:检测模块模型对应的计算单元是否处于不可用状态。
其中,计算单元处于不可用状态可以理解为:计算单元处于关闭状态(如当终端设备为了省电,关闭了终端NPU,在这种情况下,终端设备检测到NPU不可用),计算单元缓存不足导致计算单元无法正常运行,或计算单元硬件损坏而导致该计算单元不可用中的一种或多种。
终端设备中存在至少两种计算单元,则终端设备将目标模型切分为多个模块模型后,终端设备检测运行模块模型的计算单元是否处于不可用状态。例如,终端设备将该目标模型切分为模块模型1、模块模型2、模块模型3和模块模型4。其中,模块模型1和模块模型4运行于CPU,模块模型2运行于GPU,模块模型3运行于NPU。在这种情况下,终端设备检测CPU、GPU和NPU是否处于不可用状态。
S404:基于检测结果,从模块模型中确定出目标模块模型,该目标模块模型对应的第一目标计算单元处于不可用状态。
终端设备从终端设备包含的多个计算单元中确定处于不可用状态的第一目标计算单元,并将目标模型运行于该第一目标计算单元的模块模型确定为目标模块模型。
S405:基于第二目标计算单元编译目标模块模型,得到目标模块模型对应的第二控制指令和第二模型参数,该第二目标计算单元与目标模块模型具有对应关系,该第二目标单元不同于该第一目标单元。
其中,第二目标计算单元与目标模块模型具有对应关系,可以理解为目标模块模型在第二目标计算单元上运行。换而言之,终端设备确定出第一目标单元和目标模块模型之后,终端设备从除该第一目标单元以外的其他计算单元中,确定第二目标单元,并基于该第二目标单元编译该目标模块模型,得到第二控制指令和第二模型参数。
示例性地,目标模型如图3中所示包括模块模型1、模块模型2、模块模型3和模块模型4,其中,各个模块模型与计算单元的对应关系如图5中5a所示,模块模型1和模块模型4运行于CPU,模块模型2运行于GPU,模块模型3运行于NPU。在这种情况下,若终端设备检测到NPU处于不可用状态,则终端设备将NPU视为第一目标单元,运行于NPU的模块模型3确定为目标模块模型。进一步地,终端设备从除NPU外的其他计算单元(即CPU和GPU)中确定GPU为第二目标单元(也即是说将模块模型3运行于GPU上),则终端设备基于GPU对模块模型3进行编译,得到模块模型3的第二控制指令和第二模型参数。换而言之,更新后的各个模块模型与计算单元的对应关系如图5中模块5b所示,模块模型1和模块模型4运行于CPU,模块模型2和模块模型3运行于GPU。可选的,在一种可能的实现方式中,终端设备也可以将CPU确定为第二目标单元。之后,终端设备基于CPU对模块模型3进行编译,后续流程可参照上述介绍,此处不再赘述。
S406:根据该第二控制指令和第二模型参数更新cache中存储的目标模块模型的第一控制指令和第一模型参数。
终端设备得到目标模型的第二控制指令和第二模型参数之后,则终端设备更新cache中存储的目标模块模型的第一控制指令和第一模型参数,更新后的第一控制指令为第二控制指令,更新后的第一模型参数为第二模型参数。进一步的终端设备还从cache中获取除目标模块模型以外的其他模块模型的第一控制指令和第一模型参数。
在一个可能的实现中,终端设备在cache中更新该目标模块模型的第一控制指令和第一模型参数之后,终端设备检测该目标模块模型对应的第一目标计算单元是否处于不可用状态。若该第一目标计算单元不处于不可用状态,则基于该第一目标计算单元编译目标模块模型,得到所述目标模块模型对应的第三控制指令和第三模型参数,并根据该第三控制指令和第三模型参数更新cache中存储的目标模块模型的第一控制指令和第一模型参数。
示例性地,目标模型包括模块模型1、模块模型2、模块模型3和模块模型4。终端设备检测到NPU处于不可用状态,则终端设备将NPU视为第一目标单元,运行于NPU的模块模型3确定为目标模块模型。在终端设备基于GPU编译模块模型3得到更新后的第一控制指令(即第二控制指令)和更新后的第一模型参数(即第二模型参数)之后,终端设备检测到NPU(第一目标计算单元)不处于不可用状态(示例性的应用场景:由于终端设备电量不足,终端设备开启省电模式关闭高耗电的计算单元NPU,当终端设备电量充足后开启NPU),终端设备基于NPU对模块模型3进行编译,得到模块模型3的第三控制指令和第三模型参数。终端设备更新cache中存储的目标模块模型的第一控制指令(即前述第二控制指令)和第一模型参数(即前述第二模型参数),更新后的第一控制指令为第三控制指令,更新后的第一模型参数为第三模型参数。进一步的终端设备还从cache中获取除目标模块模型以外的其他模块模型的第一控制指令和第一模型参数。
S407:基于各个模块模型对应的第一控制指令和第一模型参数,执行该目标任务。
其中,步骤S407的具体实施方式可参见前述实施例中步骤S103的具体实现方式,对此不再进行过多赘述。
可见,通过这样的模型运行方式,终端设备可以根据自身计算单元的状态(是否处于不可用状态)动态地对目标模型进行调整,提升了模型运行效率的同时,还提升了模型运行的可靠性。
参见图6,图6是本发明实施例提供的模型运行装置的结构示意图,所述模型运行装置配置于终端设备中,所述模型运行装置包括:
接收单元601,用于接收模型调用指令,所述模型调用指令用于调用目标模型执行目标任务;
处理单元602,用于基于所述模型调用指令,确定所述目标模型对应的至少一个模块模型,并从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数;
所述处理单元602,还用于基于各个所述模块模型对应的所述第一控制指令和所述第一模型参数,执行所述目标任务。
在一个可能的实现中,所述从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数之前,所述处理单元602还用于:基于所述目标模型包括的多个算子,切分所述目标模型得到一个或多个模块模型,所述模块模型包括至少一个所述算子;编译每个所述模块模型,得到每个所述模块模型的第一控制指令和第一模型参数;存储每个所述模块模型的所述第一控制指令和所述第一模型参数于cache。
在一个可能的实现中,所述模块模型的数量为多个,所述多个模块模型部对应至少两种计算单元,所述模块模型的所述第一控制指令和所述第一模型参数与所述计算单元对应。
在一个可能的实现中,所述计算单元的种类为:中央处理器CPU、图形处理器GPU或者神经网络处理器NPU。
在一个可能的实现中,所述处理单元602具体用于:检测每个所述模块模型对应的所述计算单元是否处于不可用状态;基于检测结果,从所述模块模型中确定出目标模块模型,所述目标模块模型对应的第一目标计算单元处于不可用状态;基于第二目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第二控制指令和第二模型参数,所述第二目标计算单元与所述目标模块模型具有对应关系,所述第二目标单元不同于所述第一目标单元;根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
在一个可能的实现中,所述根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数之后,所述处理单元602还用于:检测所述目标模块模型对应的所述第一目标计算单元是否处于不可用状态;若所述第一目标计算单元不处于不可用状态,则基于所述第一目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第三控制指令和第三模型参数,并根据所述第三控制指令和所述第三模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
需要说明的是,本发明实施例所描述的模型运行装置的各单元模块的功能可根据图1或图4所述的方法实施例中的方法具体实现,其具体实现过程可以参照图1或图4的方法实施例的相关描述,此处不再赘述。
本申请实施例还提供一种芯片,该芯片可以执行前述方法实施例中终端设备的相关步骤。该芯片用于:接收模型调用指令,该模型调用指令用于调用目标模型执行目标任务;基于模型调用指令,确定目标模型对应的至少一个模块模型,并从缓存cache中获取各个模块模型的第一控制指令和第一模型参数;基于各个模块模型对应的第一控制指令和第一模型参数,执行目标任务。
一种可能的实现中,该芯片还用于:基于目标模型包括的多个算子,切分目标模型得到一个或多个模块模型,模块模型包括至少一个算子;编译每个模块模型,得到每个模块模型的第一控制指令和第一模型参数;存储每个模块模型的第一控制指令和第一模型参数于cache。
一种可能的实现中,该模块模型的数量为多个,该多个模块模型对应至少两种计算单元,其中,模块模型的第一控制指令和第一模型参数与计算单元对应。
一种可能的实现中,该计算单元的种类为:中央处理器CPU、图形处理器GPU或者神经网络处理器NPU。
一种可能的实现中,该芯片具体用于:检测每个模块模型对应的计算单元是否处于不可用状态;基于检测结果,从模块模型中确定出目标模块模型,目标模块模型对应的第一目标计算单元处于不可用状态;基于第二目标计算单元编译目标模块模型,得到目标模块模型对应的第二控制指令和第二模型参数,第二目标计算单元与目标模块模型具有对应关系,第二目标单元不同于第一目标单元;根据第二控制指令和第二模型参数更新cache中存储的目标模块模型的第一控制指令和第一模型参数。
一种可能的实现中,该芯片还用于检测目标模块模型对应的第一目标计算单元是否处于不可用状态;若第一目标计算单元不处于不可用状态,则基于第一目标计算单元编译目标模块模型,得到目标模块模型对应的第三控制指令和第三模型参数,并根据第三控制指令和第三模型参数更新cache中存储的目标模块模型的第一控制指令和第一模型参数。
本申请实施例还提供一种芯片模组,该芯片模组可以应用在终端设备中,该芯片模组包括上述的可以应用在终端设备的芯片。
请参见图7,图7为本申请实施例提供的一种终端设备的结构示意图。本申请实施例中所描述的终端设备70,包括:处理器701、存储器702,处理器701和存储器702通过一条或多条通信总线连接。
上述处理器701可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。处理器701被配置为支持用户设备执行图1或图4所述方法中终端设备相应的功能。
上述存储器702可以包括只读存储器和随机存取存储器,并向处理器701提供计算机程序和数据。存储器702的一部分还可以包括非易失性随机存取存储器。其中,所述处理器701调用所述计算机程序时用于执行:
接收模型调用指令,所述模型调用指令用于调用目标模型执行目标任务;
基于所述模型调用指令,确定所述目标模型对应的至少一个模块模型,并从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数;
基于各个所述模块模型对应的所述第一控制指令和所述第一模型参数,执行所述目标任务。
在一种可能的实现方式中,所述从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数之前,所述处理器701具体用于:基于所述目标模型包括的多个算子,切分所述目标模型得到一个或多个模块模型,所述模块模型包括至少一个所述算子;编译每个所述模块模型,得到每个所述模块模型的第一控制指令和第一模型参数;存储每个所述模块模型的所述第一控制指令和所述第一模型参数于cache。
在一种可能的实现方式中,所述模块模型的数量为多个,所述多个模块模型对应至少两种计算单元,所述模块模型的所述第一控制指令和所述第一模型参数与所述计算单元对应。
在一种可能的实现方式中,所述计算单元的种类为:中央处理器CPU、图形处理器GPU或者神经网络处理器NPU。
在一种可能的实现方式中,所述处理器701具体用于:检测每个所述模块模型对应的所述计算单元是否处于不可用状态;基于检测结果,从所述模块模型中确定出目标模块模型,所述目标模块模型对应的第一目标计算单元处于不可用状态;基于第二目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第二控制指令和第二模型参数,所述第二目标计算单元与所述目标模块模型具有对应关系,所述第二目标单元不同于所述第一目标单元;根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
在一种可能的实现方式中,所述根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数之后,所述处理器701还用于:检测所述目标模块模型对应的所述第一目标计算单元是否处于不可用状态;若所述第一目标计算单元不处于不可用状态,则基于所述第一目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第三控制指令和第三模型参数,并根据所述第三控制指令和所述第三模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
具体实现中,本发明实施例中所描述的处理器701和存储器702可执行本发明实施例提供的图1或图4所述的方法实施例所描述的实现方式,也可执行本发明实施例提供的图6所描述的模型运行装置的实现方法,在此不再赘述。
本申请实施例还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序被处理器执行时,可以用于实现本申请实施例图1或图4所对应实施例中描述的模型运行方法,在此不再赘述。
所述计算机可读存储介质可以是前述任一实施例所述的终端设备的内部存储单元,例如设备的硬盘或内存。所述计算机可读存储介质也可以是所述终端设备的外部存储设备,例如所述设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述计算机可读存储介质还可以既包括所述终端设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于可读取存储介质中,所述程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (16)
1.一种模型运行方法,其特征在于,所述方法包括:
接收模型调用指令,所述模型调用指令用于调用目标模型执行目标任务;
基于所述模型调用指令,确定所述目标模型对应的至少一个模块模型,并从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数;
基于各个所述模块模型对应的所述第一控制指令和所述第一模型参数,执行所述目标任务。
2.根据权利要求1所述方法,其特征在于,所述从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数之前,所述方法还包括:
基于所述目标模型包括的多个算子,切分所述目标模型得到一个或多个模块模型,所述模块模型包括至少一个所述算子;
编译每个所述模块模型,得到每个所述模块模型的第一控制指令和第一模型参数;
存储每个所述模块模型的所述第一控制指令和所述第一模型参数于cache。
3.根据权利要求1或2所述方法,其特征在于,所述模块模型的数量为多个,所述多个模块模型对应至少两种计算单元,所述模块模型的所述第一控制指令和所述第一模型参数与所述计算单元对应。
4.根据权利要求3所述方法,其特征在于,所述计算单元的种类为:中央处理器CPU、图形处理器GPU或者神经网络处理器NPU。
5.根据权利要求4所述方法,其特征在于,所述从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数,包括:
检测每个所述模块模型对应的所述计算单元是否处于不可用状态;
基于检测结果,从所述模块模型中确定出目标模块模型,所述目标模块模型对应的第一目标计算单元处于不可用状态;
基于第二目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第二控制指令和第二模型参数,所述第二目标计算单元与所述目标模块模型具有对应关系,所述第二目标单元不同于所述第一目标单元;
根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
6.根据权利要求5所述方法,其特征在于,所述根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数之后,所述方法还包括:
检测所述目标模块模型对应的所述第一目标计算单元是否处于不可用状态;
若所述第一目标计算单元不处于不可用状态,则基于所述第一目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第三控制指令和第三模型参数,并根据所述第三控制指令和所述第三模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
7.一种模型运行装置,其特征在于,所述模型运行装置包括:
接收单元,用于接收模型调用指令,所述模型调用指令用于调用目标模型执行目标任务;
处理单元,用于基于所述模型调用指令,确定所述目标模型对应的至少一个模块模型,并从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数;
所述处理单元,还用于基于各个所述模块模型对应的所述第一控制指令和所述第一模型参数,执行所述目标任务。
8.根据权利要求7所述装置,其特征在于,所述从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数之前,所述处理单元还用于:
基于所述目标模型包括的多个算子,切分所述目标模型得到一个或多个模块模型,所述模块模型包括至少一个所述算子;
编译每个所述模块模型,得到每个所述模块模型的第一控制指令和第一模型参数;
存储每个所述模块模型的所述第一控制指令和所述第一模型参数于cache。
9.根据权利要求7或8所述装置,其特征在于,所述模块模型的数量为多个,所述多个模块模型部对应至少两种计算单元,所述模块模型的所述第一控制指令和所述第一模型参数与所述计算单元对应。
10.根据权利要求9所述装置,其特征在于,所述计算单元的种类为:中央处理器CPU、图形处理器GPU或者神经网络处理器NPU。
11.根据权利要求10所述装置,其特征在于,所述处理单元具体用于:
检测每个所述模块模型对应的所述计算单元是否处于不可用状态;
基于检测结果,从所述模块模型中确定出目标模块模型,所述目标模块模型对应的第一目标计算单元处于不可用状态;
基于第二目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第二控制指令和第二模型参数,所述第二目标计算单元与所述目标模块模型具有对应关系,所述第二目标单元不同于所述第一目标单元;
根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
12.根据权利要求11所述装置,其特征在于,所述根据所述第二控制指令和所述第二模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数之后,所述处理单元还用于:
检测所述目标模块模型对应的所述第一目标计算单元是否处于不可用状态;
若所述第一目标计算单元不处于不可用状态,则基于所述第一目标计算单元编译所述目标模块模型,得到所述目标模块模型对应的第三控制指令和第三模型参数,并根据所述第三控制指令和所述第三模型参数更新所述cache中存储的所述目标模块模型的所述第一控制指令和所述第一模型参数。
13.一种芯片,其特征在于,
所述芯片,用于接收模型调用指令,所述模型调用指令用于调用目标模型执行目标任务;
所述芯片,还用于基于所述模型调用指令,确定所述目标模型对应的至少一个模块模型,并从缓存cache中获取各个所述模块模型的第一控制指令和第一模型参数;
所述芯片,还用于基于各个所述模块模型对应的所述第一控制指令和所述第一模型参数,执行所述目标任务。
14.一种芯片模组,其特征在于,该芯片模组包括如权利要求13所述的芯片。
15.一种终端设备,其特征在于,包括处理器和存储器,所述处理器和所述存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如权利要求1-6中任一项所述的方法。
16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-6中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110126081.XA CN112783506B (zh) | 2021-01-29 | 2021-01-29 | 一种模型运行方法及相关装置 |
PCT/CN2021/141399 WO2022161059A1 (zh) | 2021-01-29 | 2021-12-25 | 一种模型运行方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110126081.XA CN112783506B (zh) | 2021-01-29 | 2021-01-29 | 一种模型运行方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112783506A true CN112783506A (zh) | 2021-05-11 |
CN112783506B CN112783506B (zh) | 2022-09-30 |
Family
ID=75759742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110126081.XA Active CN112783506B (zh) | 2021-01-29 | 2021-01-29 | 一种模型运行方法及相关装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112783506B (zh) |
WO (1) | WO2022161059A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114327671A (zh) * | 2021-12-03 | 2022-04-12 | 北京达佳互联信息技术有限公司 | 参数配置方法、装置、设备及存储介质 |
WO2022161059A1 (zh) * | 2021-01-29 | 2022-08-04 | 展讯通信(上海)有限公司 | 一种模型运行方法及相关装置 |
CN115056784A (zh) * | 2022-07-04 | 2022-09-16 | 小米汽车科技有限公司 | 车辆控制方法、装置、车辆、存储介质及芯片 |
CN116985830A (zh) * | 2023-07-26 | 2023-11-03 | 小米汽车科技有限公司 | 车辆模式的运行方法、装置、车辆及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046913A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Combining cpu and special accelerator for implementing an artificial neural network |
CN107783782A (zh) * | 2016-08-25 | 2018-03-09 | 萨思学会有限公司 | 用于节点装置基于gpu的并行处理的编译 |
CN110908667A (zh) * | 2019-11-18 | 2020-03-24 | 北京迈格威科技有限公司 | 神经网络联合编译的方法、装置和电子设备 |
CN111340237A (zh) * | 2020-03-05 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 数据处理和模型运行方法、装置和计算机设备 |
CN112035220A (zh) * | 2020-09-30 | 2020-12-04 | 北京百度网讯科技有限公司 | 开发机操作任务的处理方法、装置、设备以及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10261765B1 (en) * | 2018-03-09 | 2019-04-16 | Oracle International Corporation | Enhancing program execution using optimization-driven inlining |
US10877766B2 (en) * | 2018-05-24 | 2020-12-29 | Xilinx, Inc. | Embedded scheduling of hardware resources for hardware acceleration |
CN111273953B (zh) * | 2018-11-19 | 2021-07-16 | Oppo广东移动通信有限公司 | 模型处理方法、装置、终端及存储介质 |
CN111651207B (zh) * | 2020-08-06 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 一种神经网络模型运算芯片、方法、装置、设备及介质 |
CN112783506B (zh) * | 2021-01-29 | 2022-09-30 | 展讯通信(上海)有限公司 | 一种模型运行方法及相关装置 |
-
2021
- 2021-01-29 CN CN202110126081.XA patent/CN112783506B/zh active Active
- 2021-12-25 WO PCT/CN2021/141399 patent/WO2022161059A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046913A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Combining cpu and special accelerator for implementing an artificial neural network |
CN107783782A (zh) * | 2016-08-25 | 2018-03-09 | 萨思学会有限公司 | 用于节点装置基于gpu的并行处理的编译 |
CN110908667A (zh) * | 2019-11-18 | 2020-03-24 | 北京迈格威科技有限公司 | 神经网络联合编译的方法、装置和电子设备 |
CN111340237A (zh) * | 2020-03-05 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 数据处理和模型运行方法、装置和计算机设备 |
CN112035220A (zh) * | 2020-09-30 | 2020-12-04 | 北京百度网讯科技有限公司 | 开发机操作任务的处理方法、装置、设备以及存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022161059A1 (zh) * | 2021-01-29 | 2022-08-04 | 展讯通信(上海)有限公司 | 一种模型运行方法及相关装置 |
CN114327671A (zh) * | 2021-12-03 | 2022-04-12 | 北京达佳互联信息技术有限公司 | 参数配置方法、装置、设备及存储介质 |
CN115056784A (zh) * | 2022-07-04 | 2022-09-16 | 小米汽车科技有限公司 | 车辆控制方法、装置、车辆、存储介质及芯片 |
CN115056784B (zh) * | 2022-07-04 | 2023-12-05 | 小米汽车科技有限公司 | 车辆控制方法、装置、车辆、存储介质及芯片 |
CN116985830A (zh) * | 2023-07-26 | 2023-11-03 | 小米汽车科技有限公司 | 车辆模式的运行方法、装置、车辆及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022161059A1 (zh) | 2022-08-04 |
CN112783506B (zh) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112783506B (zh) | 一种模型运行方法及相关装置 | |
US11016769B1 (en) | Method and apparatus for processing information | |
CN110471701B (zh) | 图像渲染的方法、装置、存储介质及电子设备 | |
CN111783197A (zh) | 三维建筑模型的构建方法及相关设备 | |
CN112463123A (zh) | 任务编译方法、装置、网络节点、系统及存储介质 | |
CN110232665B (zh) | 最大池化方法、装置、计算机设备及存储介质 | |
CN114237743B (zh) | 界面加载方法、装置、电子设备和存储介质 | |
CN110427213B (zh) | 一种智能配置软件的实现方法、装置、设备及存储介质 | |
CN110458285B (zh) | 数据处理方法、装置、计算机设备和存储介质 | |
CN115600664A (zh) | 算子处理方法、电子设备及存储介质 | |
CN110764905B (zh) | 网络模型生成方法、装置、计算机设备以及存储介质 | |
CN110806932A (zh) | 一种算法调度方法及装置 | |
WO2021068247A1 (zh) | 神经网络调度方法、装置、计算机设备及可读存储介质 | |
CN114564241B (zh) | 硬件设备的访问方法、装置、计算机设备和存储介质 | |
CN112769688B (zh) | 协议栈适配的方法、装置、电子设备及存储介质 | |
CN114285831B (zh) | 一种汽车开放架构的数据传输方法及装置 | |
CN109753293A (zh) | 一种插件的处理方法及相关设备 | |
CN114115673A (zh) | 车载屏幕的控制方法 | |
CN113805941A (zh) | 通过替换指令集对应用软件进行加速的系统及方法 | |
CN114356538A (zh) | 一种模型部署方法、装置、设备及计算机可读存储介质 | |
CN111832714A (zh) | 运算方法及装置 | |
CN114879962B (zh) | 一种实现批量系统调用的方法及装置 | |
CN118672965A (zh) | 信号处理方法、装置、终端、芯片、存储介质及程序产品 | |
CN113742096B (zh) | 一种事件队列的实现方法及系统 | |
CN114138507B (zh) | Python程序服务化方法、装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |