CN114925858B - 基于深度学习框架持续集成系统的任务处理方法及装置 - Google Patents
基于深度学习框架持续集成系统的任务处理方法及装置 Download PDFInfo
- Publication number
- CN114925858B CN114925858B CN202210845471.7A CN202210845471A CN114925858B CN 114925858 B CN114925858 B CN 114925858B CN 202210845471 A CN202210845471 A CN 202210845471A CN 114925858 B CN114925858 B CN 114925858B
- Authority
- CN
- China
- Prior art keywords
- compiling
- devices
- result
- test
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 72
- 238000003672 processing method Methods 0.000 title claims abstract description 39
- 238000012360 testing method Methods 0.000 claims abstract description 233
- 238000012545 processing Methods 0.000 claims abstract description 148
- 230000001133 acceleration Effects 0.000 claims abstract description 62
- 230000006870 function Effects 0.000 claims abstract description 55
- 230000010354 integration Effects 0.000 claims description 36
- 238000004806 packaging method and process Methods 0.000 claims description 35
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 abstract description 24
- 238000004590 computer program Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011056 performance test Methods 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012858 packaging process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Stored Programmes (AREA)
Abstract
本公开提供了基于深度学习框架持续集成系统的任务处理方法及装置,涉及深度学习技术领域,尤其涉及数据处理领域。具体实现方案为:获取待测试的编译结果,其中,编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能;基于编译结果生成多个测试任务;在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
Description
技术领域
本公开涉及深度学习技术领域,进一步涉及数据处理领域,尤其涉及一种基于深度学习框架持续集成系统的任务处理方法及装置。
背景技术
随着有关深度学习的研究和应用越来越广泛,各种深度学习框架层出不穷,这些深度学习框架可以被应用于计算机视觉、自然语言处理和语音处理等领域,并取得了极好的处理效果。目前深度学习框架持续集成系统对任务进行的处理主要包括编译和测试两部分,其中,在对任务执行测试时一般需要依赖加速芯片,但是在对任务执行编译时则不需要依赖加速芯片,因而任务在编译时就会产生加速芯片浪费的情况。
发明内容
本公开提供了一种基于深度学习框架持续集成系统的任务处理方法及装置,以至少解决相关技术中深度学习框架持续集成系统的测试效率低下的技术问题。
根据本公开的其中一方面,提供了一种基于深度学习框架持续集成系统的任务处理方法,包括:获取待测试的编译结果,其中,编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能;基于编译结果生成多个测试任务;在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
根据本公开的其中一方面,提供了一种基于深度学习框架持续集成系统的任务处理方法,包括:获取待执行的目标任务;在多个第一设备上对目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务,以使多个第二设备对多个测试任务进行分布式并行测试,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
根据本公开的其中一方面,提供了一种基于深度学习框架持续集成系统的任务处理方法,包括:在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务;在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
根据本公开的其中一方面,提供了一种基于深度学习框架持续集成系统的任务处理装置,包括:获取模块,用于获取待测试的编译结果,其中,编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能;生成模块,用于基于编译结果生成多个测试任务;测试模块,用于在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
根据本公开的其中一方面,提供了一种基于深度学习框架持续集成系统的任务处理装置,包括:获取模块,用于获取待执行的目标任务;编译模块,用于在多个第一设备上对目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务,以使多个第二设备对多个测试任务进行分布式并行测试,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
根据本公开的其中一方面,提供了一种基于深度学习框架持续集成系统的任务处理装置,包括:编译模块,用于在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务;测试模块,用于在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
根据本公开的又一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开提出的基于深度学习框架持续集成系统的任务处理方法。
根据本公开的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行本公开提出的基于深度学习框架持续集成系统的任务处理方法。
根据本公开的又一方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行本公开提出的基于深度学习框架持续集成系统的任务处理方法。
在本公开中,通过获取待测试的编译结果,进而基于编译结果生成多个测试任务,最后在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,达到了充分利用加速芯片对多个测试任务进行高效测试的目的,实现了提升深度学习框架持续集成系统的测试效率以及对于加速芯片的利用率的效果,从而解决了相关技术中深度学习框架持续集成系统的测试效率低下的技术问题。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例的一种用于实现基于深度学习框架持续集成系统的任务处理方法的计算机终端(或移动设备)的硬件结构框图;
图2是根据本公开实施例的一种基于深度学习框架持续集成系统的任务处理方法流程图;
图3是根据本公开实施例的又一种基于深度学习框架持续集成系统的任务处理方法流程图;
图4是根据本公开实施例的又一种基于深度学习框架持续集成系统的任务处理方法流程图;
图5是根据本公开实施例的一种基于深度学习框架持续集成系统的任务处理方法示意图;
图6是根据本公开实施例的一种基于深度学习框架持续集成系统的任务处理装置的结构框图;
图7是根据本公开实施例的又一种基于深度学习框架持续集成系统的任务处理装置的结构框图;
图8是根据本公开实施例的又一种基于深度学习框架持续集成系统的任务处理装置的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本公开实施例,提供了一种基于深度学习框架持续集成系统的任务处理方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本公开实施例所提供的方法实施例可以在移动终端、计算机终端或者类似的电子设备中执行。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。图1示出了一种用于实现基于深度学习框架持续集成系统的任务处理方法的计算机终端(或移动设备)的硬件结构框图。
如图1所示,计算机终端100包括计算单元101,其可以根据存储在只读存储器(ROM)102中的计算机程序或者从存储单元108加载到随机访问存储器(RAM)103中的计算机程序,来执行各种适当的动作和处理。在RAM 103中,还可存储计算机终端100操作所需的各种程序和数据。计算单元101、ROM 102以及RAM 103通过总线104彼此相连。输入/输出(I/O)接口105也连接至总线104。
计算机终端100中的多个部件连接至I/O接口105,包括:输入单元106,例如键盘、鼠标等;输出单元107,例如各种类型的显示器、扬声器等;存储单元108,例如磁盘、光盘等;以及通信单元109,例如网卡、调制解调器、无线通信收发机等。通信单元109允许计算机终端100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元101执行本文所描述的基于深度学习框架持续集成系统的任务处理方法。例如,在一些实施例中,基于深度学习框架持续集成系统的任务处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 102和/或通信单元109而被载入和/或安装到计算机终端100上。当计算机程序加载到RAM 103并由计算单元101执行时,可以执行本文描述的基于深度学习框架持续集成系统的任务处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行基于深度学习框架持续集成系统的任务处理方法。
本文中描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
此处需要说明的是,在一些可选实施例中,上述图1所示的电子设备可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述电子设备中的部件的类型。
在上述运行环境下,本公开提供了如图2所示的基于深度学习框架持续集成系统的任务处理方法,该方法可以由图1所示的计算机终端或者类似的电子设备执行。图2是根据本公开实施例提供的一种基于深度学习框架持续集成系统的任务处理方法流程图。如图2所示,该方法可以包括如下步骤:
步骤S20,获取待测试的编译结果,其中,编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能;
步骤S22,基于编译结果生成多个测试任务;
步骤S24,在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
例如,设备1、设备2和设备3为配置有第二处理芯片的多个第二设备,在设备1上执行测试任务1,得到测试结果1;在设备2上执行测试任务2,得到测试结果2;在设备3上执行测试任务3,得到测试结果3。其中,对于测试任务1、测试任务2和测试任务3可以进行并行测试。
根据本公开上述步骤S20至步骤S24,通过获取待测试的编译结果,进而基于编译结果生成多个测试任务,最后在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,达到了充分利用加速芯片对多个测试任务进行高效测试的目的,实现了提升深度学习框架持续集成系统的测试效率以及对于加速芯片的利用率的效果,从而解决了相关技术中深度学习框架持续集成系统的测试效率低下的技术问题。
下面对上述实施例的基于深度学习框架持续集成系统的任务处理方法进行进一步介绍。
作为一种可选的实施方式,在步骤S20,获取编译结果包括:
从第三设备下载编译结果,其中,第三设备用于缓存编译结果。
上述第三设备可以为云端服务器或者计算机终端,编译结果包括经过打包处理后得到的打包结果,例如,编译结果可以包括Python的压缩包(whl包)。
基于上述可选实施例,通过从第三设备下载编译结果,能够快速获取待测试的编译结果,以用于进一步基于编译结果生成多个测试任务,进而提高深度学习框架持续集成系统整体的测试效率。
作为一种可选的实施方式,在步骤S22,基于编译结果生成多个测试任务包括:
步骤S221,获取目标任务的多个测试指标,其中,多个测试指标用于从多个维度测试深度学习框架持续集成系统的处理性能;
步骤S222,基于多个测试指标对编译结果进行复用,生成多个测试任务。
上述多个测试指标可以包括运维(Operation and Maintenance,OP)测试指标、性能测试指标、应用程序接口(Application Programming Interface,API)测试指标、覆盖率测试指标等。基于多个测试指标对编译结果进行复用,生成多个测试任务,例如,基于OP测试指标生成测试任务1,基于性能测试指标生成测试任务2,基于API测试指标生成测试任务3,基于覆盖率测试指标生成测试任务4。其中,测试指标的类型越多,生成的测试任务越多,对于编译结果的测试则越全面。
基于上述步骤S221至步骤S222,通过获取目标任务的多个测试指标,进而基于多个测试指标对编译结果进行复用,生成多个测试任务,能够对编译结果进行复用,获得更为全面的测试任务,从而有效提升测试结果的可靠性。
图3是根据本公开实施例提供的又一种基于深度学习框架持续集成系统的任务处理方法流程图。如图3所示,该方法可以包括如下步骤:
步骤S30,获取待执行的目标任务;
步骤S32,在多个第一设备上对目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务,以使多个第二设备对多个测试任务进行分布式并行测试,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
基于上述步骤S30至步骤S32,通过获取待执行的目标任务,进而在多个第一设备上对目标任务进行编译处理,得到编译结果,达到了对目标任务进行高效编译的目的,实现了提升深度学习框架持续集成系统的编译效率的效果,从而解决了相关技术中深度学习框架持续集成系统的编译效率低下的技术问题。
下面对上述实施例的基于深度学习框架持续集成系统的任务处理方法进行进一步介绍。
作为一种可选的实施方式,在步骤S32,在多个第一设备上对目标任务进行编译处理,得到编译结果包括:
步骤S321,在多个第一设备中的每个第一设备上创建容器镜像,其中,容器镜像用于为目标任务提供编译环境;
步骤S322,利用容器镜像对目标任务进行编译处理,得到编译结果。
具体的,在多个第一设备中的每个第一设备上创建容器镜像(docker镜像),以为目标任务提供编译环境,进而利用docker镜像对目标任务进行编译处理得到编译结果,从而能够实现在无加速芯片的多个第一设备上进行编译处理,从而有效降低编译设备的成本。
基于上述步骤S321至步骤S322,通过在多个第一设备中的每个第一设备上创建容器镜像,进而利用容器镜像对目标任务进行编译处理,得到编译结果,能够对目标任务高效进行编译处理,有效降低编译设备的成本。
作为一种可选的实施方式,本公开实施例提供的任务处理方法还包括:
步骤S34,将编译结果上传至第三设备,其中,第三设备用于缓存编译结果。
基于上述可选实施例,通过将编译结果上传至第三设备,能够对编译结果进行可靠存储,以用于后续多个第二设备快速获取编译结果,进而提高深度学习框架持续集成系统整体的测试效率。
作为一种可选的实施方式,在步骤S34,将编译结果上传至第三设备包括:
步骤S341,响应于容器镜像对目标任务进行成功编译,对编译结果进行打包处理,得到打包结果;
步骤S342,将打包结果上传至第三设备。
具体的,上述打包结果可以包括whl包。
基于上述步骤S341至步骤S342,通过响应于容器镜像对目标任务进行成功编译,对编译结果进行打包处理,得到打包结果,进而将打包结果上传至第三设备,能够对编译结果进行可靠存储,以用于后续多个第二设备快速获取编译结果,进而提高深度学习框架持续集成系统整体的测试效率。
图4是根据本公开实施例提供的又一种基于深度学习框架持续集成系统的任务处理方法流程图。如图4所示,该方法可以包括如下步骤:
步骤S40,在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务;
步骤S42,在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
基于上述步骤S40至步骤S42,通过在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,进而在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,达到了对目标任务进行高效编译和测试的目的,实现了提升深度学习框架持续集成系统的处理效率和加速芯片的利用率的效果,从而解决了相关技术中深度学习框架持续集成系统的处理效率和加速芯片的利用率低下的技术问题。
图5是根据本公开实施例提供的一种基于深度学习框架持续集成系统的任务处理方法示意图,如图5所示,该方法可以包括如下步骤:
步骤S501,获取待执行的目标任务;
步骤S502,在多个第一设备中的每个第一设备上创建容器镜像;
步骤S503,响应于容器镜像对目标任务进行成功编译,对编译结果进行打包处理,得到打包结果;
步骤S504,将打包结果上传至第三设备;
步骤S505,从第三设备下载编译结果;
步骤S506,获取目标任务的多个测试指标;
步骤S507,基于多个测试指标对编译结果进行复用,生成多个测试任务;
步骤S508,在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果。
基于上述步骤S501至步骤S508,通过在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,进而在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,达到了对目标任务进行高效编译和测试的目的,实现了提升深度学习框架持续集成系统的处理效率和加速芯片的利用率的效果,从而解决了相关技术中深度学习框架持续集成系统的处理效率和加速芯片的利用率低下的技术问题。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本公开各个实施例所述的方法。
在本公开中还提供了一种基于深度学习框架持续集成系统的任务处理装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图6是根据本公开其中一实施例的一种基于深度学习框架持续集成系统的任务处理装置的结构框图,如图6所示,基于深度学习框架持续集成系统的任务处理装置包括:
获取模块601,用于获取待测试的编译结果,其中,编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能;
生成模块602,用于基于编译结果生成多个测试任务;
测试模块603,用于在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
可选地,获取模块601还用于:从第三设备下载编译结果,其中,第三设备用于缓存编译结果。
可选地,生成模块602还用于:获取目标任务的多个测试指标,其中,多个测试指标用于从多个维度测试深度学习框架持续集成系统的处理性能;基于多个测试指标对编译结果进行复用,生成多个测试任务。
图7是根据本公开其中一实施例的又一种基于深度学习框架持续集成系统的任务处理装置的结构框图,如图7所示,基于深度学习框架持续集成系统的任务处理装置包括:
获取模块701,用于获取待执行的目标任务;
编译模块702,用于在多个第一设备上对目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务,以使多个第二设备对多个测试任务进行分布式并行测试,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
可选地,编译模块702还用于:在多个第一设备中的每个第一设备上创建容器镜像,其中,容器镜像用于为目标任务提供编译环境;利用容器镜像对目标任务进行编译处理,得到编译结果。
可选地,任务处理装置还包括:传输模块703,用于将编译结果上传至第三设备,其中,第三设备用于缓存编译结果。
可选地,传输模块703还用于:响应于容器镜像对目标任务进行成功编译,对编译结果进行打包处理,得到打包结果;将打包结果上传至第三设备。
图8是根据本公开其中一实施例的又一种基于深度学习框架持续集成系统的任务处理装置的结构框图,如图8所示,基于深度学习框架持续集成系统的任务处理装置包括:
编译模块801,用于在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务;
测试模块802,用于在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
根据本公开的实施例,本公开还提供了一种电子设备,包括存储器和至少一个处理器,该存储器中存储有计算机指令,该处理器被设置为运行计算机指令以执行上述方法实施例中的步骤。
可选地,上述电子设备还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本公开中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取待测试的编译结果,其中,编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能;
S2,基于编译结果生成多个测试任务;
S3,在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
可选地,在本公开中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取待执行的目标任务;
S2,在多个第一设备上对目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务,以使多个第二设备对多个测试任务进行分布式并行测试,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
可选地,在本公开中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务;
S2,在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
可选地,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
根据本公开的实施例,本公开还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该非瞬时计算机可读存储介质中存储有计算机指令,其中,该计算机指令被设置为运行时执行上述方法实施例中的步骤。
可选地,在本实施例中,上述非瞬时计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取待测试的编译结果,其中,编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能;
S2,基于编译结果生成多个测试任务;
S3,在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
可选地,在本实施例中,上述非瞬时计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取待执行的目标任务;
S2,在多个第一设备上对目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务,以使多个第二设备对多个测试任务进行分布式并行测试,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
可选地,在本实施例中,上述非瞬时计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,其中,多个第一设备中的每个第一设备上配置有第一处理芯片,第一处理芯片不具备加速功能,编译结果用于生成多个测试任务;
S2,在多个第二设备上对多个测试任务进行分布式并行测试,得到多个测试任务中每个测试任务对应的测试结果,其中,多个第二设备中的每个第二设备上配置有第二处理芯片,第二处理芯片具备加速功能。
可选地,在本实施例中,上述非瞬时计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的实施例,本公开还提供了一种计算机程序产品。用于实施本公开方法实施例的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本公开所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM)、随机存取存储器(RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本公开的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本公开原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本公开的保护范围。
Claims (12)
1.一种基于深度学习框架持续集成系统的任务处理方法,包括:
获取待测试的编译结果,其中,所述编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,所述多个第一设备中的每个第一设备上配置有第一处理芯片,所述第一处理芯片不具备加速功能;
基于所述编译结果生成多个测试任务;
在多个第二设备上对所述多个测试任务进行分布式并行测试,得到所述多个测试任务中每个测试任务对应的测试结果,其中,所述多个第二设备中的每个第二设备上配置有第二处理芯片,所述第二处理芯片具备加速功能;
其中,获取所述编译结果包括:
从第三设备下载打包结果,其中,所述第三设备用于缓存所述打包结果,所述打包结果是通过对所述编译结果进行打包处理而得到;
其中,所述编译结果通过在所述多个第一设备中的每个第一设备上创建的容器镜像对所述目标任务进行编译处理后得到,其中,所述容器镜像用于为所述目标任务提供编译环境。
2.根据权利要求1所述的任务处理方法,其中,基于所述编译结果生成所述多个测试任务包括:
获取所述目标任务的多个测试指标,其中,所述多个测试指标用于从多个维度测试所述深度学习框架持续集成系统的处理性能;
基于所述多个测试指标对所述编译结果进行复用,生成所述多个测试任务。
3.一种基于深度学习框架持续集成系统的任务处理方法,包括:
获取待执行的目标任务;
在多个第一设备上对所述目标任务进行编译处理,得到编译结果,其中,所述多个第一设备中的每个第一设备上配置有第一处理芯片,所述第一处理芯片不具备加速功能,所述编译结果用于生成多个测试任务,以使多个第二设备对所述多个测试任务进行分布式并行测试,所述多个第二设备中的每个第二设备上配置有第二处理芯片,所述第二处理芯片具备加速功能;
其中,所述任务处理方法还包括:对所述编译结果进行打包处理,得到打包结果;将所述打包结果上传至第三设备;
其中,在所述多个第一设备上对所述目标任务进行编译处理,得到所述编译结果包括:在所述多个第一设备中的每个第一设备上创建容器镜像,其中,所述容器镜像用于为所述目标任务提供编译环境;利用所述容器镜像对所述目标任务进行编译处理,得到所述编译结果。
4.根据权利要求3所述的任务处理方法,其中,对所述编译结果进行打包处理包括:
响应于所述容器镜像对所述目标任务进行成功编译,对所述编译结果进行打包处理,得到打包结果。
5.一种基于深度学习框架持续集成系统的任务处理方法,包括:
在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,其中,所述多个第一设备中的每个第一设备上配置有第一处理芯片,所述第一处理芯片不具备加速功能,所述编译结果用于生成多个测试任务;
在多个第二设备上对所述多个测试任务进行分布式并行测试,得到所述多个测试任务中每个测试任务对应的测试结果,其中,所述多个第二设备中的每个第二设备上配置有第二处理芯片,所述第二处理芯片具备加速功能;
其中,所述任务处理方法还包括:
对所述编译结果进行打包处理,得到打包结果;将所述打包结果上传至第三设备;
其中,在所述多个第一设备上对所述目标任务进行编译处理,得到所述编译结果包括:在所述多个第一设备中的每个第一设备上创建容器镜像,其中,所述容器镜像用于为所述目标任务提供编译环境;利用所述容器镜像对所述目标任务进行编译处理,得到所述编译结果。
6.一种基于深度学习框架持续集成系统的任务处理装置,包括:
获取模块,用于获取待测试的编译结果,其中,所述编译结果由多个第一设备对待执行的目标任务进行编译处理后得到,所述多个第一设备中的每个第一设备上配置有第一处理芯片,所述第一处理芯片不具备加速功能;
生成模块,用于基于所述编译结果生成多个测试任务;
测试模块,用于在多个第二设备上对所述多个测试任务进行分布式并行测试,得到所述多个测试任务中每个测试任务对应的测试结果,其中,所述多个第二设备中的每个第二设备上配置有第二处理芯片,所述第二处理芯片具备加速功能;
所述获取模块还用于:从第三设备下载打包结果,其中,所述第三设备用于缓存所述打包结果,所述打包结果是通过对所述编译结果进行打包处理而得到;
其中,所述编译结果通过在所述多个第一设备中的每个第一设备上创建的容器镜像对所述目标任务进行编译处理后得到,其中,所述容器镜像用于为所述目标任务提供编译环境。
7.根据权利要求6所述的任务处理装置,其中,所述生成模块还用于:
获取所述目标任务的多个测试指标,其中,所述多个测试指标用于从多个维度测试所述深度学习框架持续集成系统的处理性能;
基于所述多个测试指标对所述编译结果进行复用,生成所述多个测试任务。
8.一种基于深度学习框架持续集成系统的任务处理装置,包括:
获取模块,用于获取待执行的目标任务;
编译模块,用于在多个第一设备上对所述目标任务进行编译处理,得到编译结果,其中,所述多个第一设备中的每个第一设备上配置有第一处理芯片,所述第一处理芯片不具备加速功能,所述编译结果用于生成多个测试任务,以使多个第二设备对所述多个测试任务进行分布式并行测试,所述多个第二设备中的每个第二设备上配置有第二处理芯片,所述第二处理芯片具备加速功能;
其中,所述任务处理装置还包括:打包模块,用于对所述编译结果进行打包处理,得到打包结果;传输模块,用于将所述打包结果上传至第三设备;
其中,所述编译模块还用于:在所述多个第一设备中的每个第一设备上创建容器镜像,其中,所述容器镜像用于为所述目标任务提供编译环境;利用所述容器镜像对所述目标任务进行编译处理,得到所述编译结果。
9.根据权利要求8所述的任务处理装置,其中,所述打包模块还用于:
响应于所述容器镜像对所述目标任务进行成功编译,对所述编译结果进行打包处理,得到打包结果。
10.一种基于深度学习框架持续集成系统的任务处理装置,包括:
编译模块,用于在多个第一设备上对待执行的目标任务进行编译处理,得到编译结果,其中,所述多个第一设备中的每个第一设备上配置有第一处理芯片,所述第一处理芯片不具备加速功能,所述编译结果用于生成多个测试任务;
测试模块,用于在多个第二设备上对所述多个测试任务进行分布式并行测试,得到所述多个测试任务中每个测试任务对应的测试结果,其中,所述多个第二设备中的每个第二设备上配置有第二处理芯片,所述第二处理芯片具备加速功能;
其中,所述任务处理装置还包括:打包模块,用于对所述编译结果进行打包处理,得到打包结果;传输模块,用于将所述打包结果上传至第三设备;
其中,所述编译模块还用于:在所述多个第一设备中的每个第一设备上创建容器镜像,其中,所述容器镜像用于为所述目标任务提供编译环境;利用所述容器镜像对所述目标任务进行编译处理,得到所述编译结果。
11. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的任务处理方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-5中任一项所述的任务处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210845471.7A CN114925858B (zh) | 2022-07-19 | 2022-07-19 | 基于深度学习框架持续集成系统的任务处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210845471.7A CN114925858B (zh) | 2022-07-19 | 2022-07-19 | 基于深度学习框架持续集成系统的任务处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114925858A CN114925858A (zh) | 2022-08-19 |
CN114925858B true CN114925858B (zh) | 2023-09-29 |
Family
ID=82815889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210845471.7A Active CN114925858B (zh) | 2022-07-19 | 2022-07-19 | 基于深度学习框架持续集成系统的任务处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114925858B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491210A (zh) * | 2018-03-27 | 2018-09-04 | 无锡华云数据技术服务有限公司 | 代码持续集成方法、装置、系统及服务器 |
CN109240662A (zh) * | 2018-08-09 | 2019-01-18 | 赛尔网络有限公司 | 一种基于云平台的软件开发方法、云平台、设备及介质 |
US10621379B1 (en) * | 2019-10-24 | 2020-04-14 | Deeping Source Inc. | Method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy, and training device and testing device using the same |
CN112328217A (zh) * | 2020-11-03 | 2021-02-05 | 中国平安人寿保险股份有限公司 | 一种代码部署方法、装置、系统、计算机设备和介质 |
CN113986234A (zh) * | 2021-09-19 | 2022-01-28 | 苏州浪潮智能科技有限公司 | 一种跨平台模型推理的方法、系统、存储介质及设备 |
CN114637511A (zh) * | 2022-02-21 | 2022-06-17 | 北京奕斯伟计算技术有限公司 | 代码测试系统、方法、装置、电子设备及可读存储介质 |
-
2022
- 2022-07-19 CN CN202210845471.7A patent/CN114925858B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491210A (zh) * | 2018-03-27 | 2018-09-04 | 无锡华云数据技术服务有限公司 | 代码持续集成方法、装置、系统及服务器 |
CN109240662A (zh) * | 2018-08-09 | 2019-01-18 | 赛尔网络有限公司 | 一种基于云平台的软件开发方法、云平台、设备及介质 |
US10621379B1 (en) * | 2019-10-24 | 2020-04-14 | Deeping Source Inc. | Method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy, and training device and testing device using the same |
CN112328217A (zh) * | 2020-11-03 | 2021-02-05 | 中国平安人寿保险股份有限公司 | 一种代码部署方法、装置、系统、计算机设备和介质 |
CN113986234A (zh) * | 2021-09-19 | 2022-01-28 | 苏州浪潮智能科技有限公司 | 一种跨平台模型推理的方法、系统、存储介质及设备 |
CN114637511A (zh) * | 2022-02-21 | 2022-06-17 | 北京奕斯伟计算技术有限公司 | 代码测试系统、方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114925858A (zh) | 2022-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11651198B2 (en) | Data processing method and apparatus for neural network | |
CN114416877A (zh) | 一种数据处理方法、装置、设备及可读存储介质 | |
CN114925858B (zh) | 基于深度学习框架持续集成系统的任务处理方法及装置 | |
CN112416533A (zh) | 在浏览器上运行应用程序的方法、装置及电子设备 | |
CN114374703B (zh) | 云手机信息的获取方法、装置、设备以及存储介质 | |
CN115481594B (zh) | 计分板实现方法、计分板、电子设备及存储介质 | |
CN110609786A (zh) | 软件测试方法、装置、计算机设备和存储介质 | |
CN112905457B (zh) | 软件测试方法及装置 | |
US11797277B2 (en) | Neural network model conversion method server, and storage medium | |
CN114743586A (zh) | 存储器模型的镜像存储实现方法、装置及存储介质 | |
CN113391813A (zh) | 程序编译方法和装置、存储介质及电子设备 | |
CN111913712A (zh) | 用于在Web端部署神经网络模型的方法和装置 | |
CN113361235B (zh) | Html文件的生成方法、装置、电子设备及可读存储介质 | |
CN116662276B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN116363262B (zh) | 图像生成方法、装置及电子设备 | |
CN116893819A (zh) | 程序的编译方法、装置、芯片、电子设备和存储介质 | |
CN113032040B (zh) | 用于处理任务的方法、装置、设备、介质和产品 | |
CN111324523B (zh) | 一种数据处理方法及装置 | |
CN114997329A (zh) | 用于生成模型的方法、装置、设备、介质和产品 | |
CN110825438B (zh) | 用于模拟人工智能芯片的数据处理的方法和装置 | |
CN117492706A (zh) | Gas消耗的扣减方法、装置、存储介质以及电子设备 | |
CN113656070A (zh) | 处理器的随机指令验证方法、装置、电子设备及存储介质 | |
CN117112383A (zh) | 基于人工智能的性能分析方法、装置、设备及存储介质 | |
CN117520122A (zh) | 运行状态信息确定方法、装置及电子设备 | |
CN113779413A (zh) | 基于边缘计算的个性化实时推荐方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |