CN114969636B - 一种模型推荐的方法、装置和计算机设备 - Google Patents
一种模型推荐的方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN114969636B CN114969636B CN202110309016.0A CN202110309016A CN114969636B CN 114969636 B CN114969636 B CN 114969636B CN 202110309016 A CN202110309016 A CN 202110309016A CN 114969636 B CN114969636 B CN 114969636B
- Authority
- CN
- China
- Prior art keywords
- model
- computing device
- application program
- data
- application
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000012545 processing Methods 0.000 claims abstract description 52
- 230000015654 memory Effects 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 18
- 230000035772 mutation Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 18
- 238000011176 pooling Methods 0.000 description 17
- 239000003795 chemical substances by application Substances 0.000 description 10
- 238000003062 neural network model Methods 0.000 description 10
- 238000005457 optimization Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 238000010845 search algorithm Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013077 scoring method Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012821 model calculation Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 102100025912 Melanopsin Human genes 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000013213 metal-organic polyhedra Substances 0.000 description 1
- 238000012011 method of payment Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Algebra (AREA)
- Physiology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
提供一种模型推荐的方法,该方法包括:模型推荐装置获取应用程序的代理数据集,其中,代理数据集用于评价应用程序处理数据的能力,应用程序运行于计算设备上;模型推荐装置根据代理数据集和计算设备的硬件参数推荐适合于应用程序的模型。以此为应用程序推荐适用于运行应用程序的计算设备以及使用应用程序的应用场景的模型,并且可以提高应用程序输出结果的准确性。
Description
技术领域
本申请涉及人工智能(artificial intelligence,AI)技术领域,尤其涉及一种模型推荐的方法、装置和计算机设备。
背景技术
近年来,随着人工智能领域的发展,包括深度学习等计算机技术逐渐被应用于各行各业之中,各种神经网络模型也层出不穷。然而,不同的神经网络模型的结构之间存在较大的差异,例如,模型的层数不同,每一层的结点数量不同,每个结点的算子的类型不同或者层与层之间连接关系不同等。不同结构的神经网络模型适用于不同的应用场景,因此,在实际应用中,需要从众多的神经网络模型中选择出适合当前用户需求的模型。人工进行神经网络模型的筛选需要有很强的专业知识和工作经验,并且筛选过程中非常耗时耗力。
使用神经网络模型搜索算法可以自动根据训练数据搜索并推荐出适合于当前应用场景的神经网络模型,推荐的模型的精度也可以超过人工筛选的神经网络模型,满足用户的需求。但是当前神经网络模型推荐的技术,搜索时间较长,在搜索过程中需要消耗大量的计算资源,并且选择出的模型不一定能完全适用于当前的应用场景。因此,如何提供一种高效且能感知用户使用的设备的计算能力的模型推荐方法成为亟待解决的技术问题。
发明内容
本申请提供了一种模型推荐的方法、装置和计算机设备,以此提供一种高效的且能感知用户使用的设备的计算能力的模型推荐的方法,提高应用程序处理数据的能力。
第一方面,提供一种模型推荐的方法,该方法包括:获取应用程序的代理数据集,其中,代理数据集用于评价应用程序处理数据的能力,应用程序运行于计算设备上;根据代理数据集和计算设备的硬件参数推荐适合于应用程序的模型。通过上述方法,可以为应用程序推荐适用于运行应用程序的计算设备以及使用应用程序的应用场景的模型,并且可以提高应用程序输出结果的准确性。
在一种可能的实现方式中,模型推荐方法运行于第一设备上,在推荐适合于应用程序的模型之前,该方法包括:数据中心获取计算设备的硬件参数,数据中心还根据计算设备的硬件参数指定第一设备,其中,第一设备的硬件参数与计算设备的硬件参数相同。通过上述方法,用户可以直接使用另一个设备执行模型推荐方法,无需在运行应用程序的计算设备上执行模型推荐算法,减少计算设备的资源消耗。
在另一种可能的实现方法中,模型推荐方法运行于计算设备上。通过上述方法,模型推荐方法可以直接获取运行应用程序的计算设备的硬件参数。
在另一种可能的实现方法中,根据代理数据和计算设备的硬件参数推荐适合于应用程序的模型,包括:根据计算设备的硬件参数确定适合于应用程序的基本操作的集合,其中,集合包括多个基本操作;根据计算设备的硬件参数确定适合于应用程序的连接结构,其中,连接结构用于将多个基本操作组合为不同的模型;最后,根据基本操作的集合、连接结构和代理数据集推荐适合于应用程序的模型。通过上述方法,模型推荐方法可以加快应用程序处理数据的速度,选择适合于应用程序的基本操作和连接结构组成模型。
在另一种可能的实现方法中,连接结构包括分支结构和输入结构。
在另一种可能的实现方法中,应用程序处理数据的能力,包括:应用程序处理数据的精度和处理数据的效率。
在另一种可能的实现方法中,计算设备的硬件参数,包括计算设备所包含的芯片的型号、芯片的核的数量或所述芯片的时钟频率。
第二方面,本申请提供一种模型推荐装置,模型推荐装置可以位于计算设备上也可以是一台单独的设备,所述模型推荐装置包括用于执行第一方面或第一方面任一种可能实现方式中的模型推荐方法的各个模块。
第三方面,本申请提供一种模型推荐系统,包括计算设备和模型推荐装置,计算设备用于运行应用程序。模型推荐装置可以位于计算设备上也可以是一台单独的设备,模型推荐装置用于实现如上述第一方面及第一方面任意一种可能实现方式中相应主体所执行的方法的操作步骤。
第四方面,本申请提供一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中用于存储计算机执行指令,所述计算机设备运行时,所述处理器执行所述存储器中的计算机执行指令以利用所述计算机设备中的硬件资源执行第一方面或第一方面任一种可能实现方式中所述方法的操作步骤。
第五方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面或第一方面任一种可能实现方式中所述方法的操作步骤。
第六方面,本申请提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行第一方面或第一方面任一种可能实现方式中所述方法的操作步骤。
本申请在上述各方面提供的实现方式的基础上,还可以进行进一步组合以提供更多实现方式。
附图说明
图1是本申请一个示例性实施例提供的系统架构图;
图2是本申请提供的一种模型推荐的方法的流程示意图;
图3是本申请实施例提供的一个7*7卷积操作的结构示意图;
图4是本申请实施例提供的不同实现方式的卷积算子示意图;
图5是本申请提供的一种不同分支结构的示意图;
图6是本申请提供的一种不同输入结构的示意图;
图7是本申请实施例提供的一个pareto解集的示意图;
图8是本申请实施例提供的一种确定基本操作的集合的流程示意图;
图9是本申请实施例提供的一种基本算子的连接结构的评分方法的流程示意图;
图10是本申请提供的一种基于进化的模型搜索算法的流程示意图
图11是本申请提供的一种计算R值的示意图;
图12是本实施例提供的一种变异操作的示意图;
图13是本实施例提供的一种模型推荐装置的示意图。
具体实施方式
下面结合附图对本申请实施例中的技术方案进行描述。
本申请实施例提供的模型推荐的方法,可以为用户推荐至少一个适用于处理当前应用场景并且满足计算设备的处理能力的神经网络模型,在对本申请实施例提供的模型搜索的方法介绍之前,对本申请实施例所适用的系统架构进行介绍。
图1为本申请实施例提供的一种模型推荐装置的系统100的示意图。如图所示,系统100包括计算设备110和模型推荐装置120。
计算设备110用于接收应用场景下生成的数据,并对其进行各项计算处理,可以进一步包括:数据采集装置111、处理器112以及存储器113。数据采集装置111、处理器112和存储器113通过总线连接,可以是数据总线,还可以是电源总线、控制总线和状态信号总线等,该总线也可以为其他类型实现设备内器件间连接的总线。
数据采集装置111用于采集应用场景下生成的数据,可以是图片、语音、视频或文本等数据类型。应用程序114运行于处理器112上,可以使用特定的模型对数据采集装置111的采集的数据进行处理,输出用户所需要的计算结果。模型由多个相同或不同的基本算子通过不同的连接方式组合,每一个基本算子可以看作对输入数据的一种操作,例如,卷积算子可以用于提取输入的数据的特征,而池化算子可以用于对输入的数据进行采样。不同的应用程序可以通过使用不同的模型以满足不同的需要。例如,在小区人脸识别的应用场景中,可以使用人脸识别应用程序,调用数据采集装置111(摄像头)获取人脸图像的数据后,通过人脸识别模型计算得到人脸图像的数据与预存的小区人员的人脸图像的相似度,为符合要求的小区人员放行。
可选地,计算设备110还可以包括图形处理器(graphics processing unit,GPU),应用程序114可以使用GPU运行特定的模型。
适合于应用程序的模型不仅需要符合应用场景的需要,还需要与运行应用程序的计算设备(例如计算设备110)的计算能力相匹配。例如,对于计算速度较慢的计算设备,应该避免模型对数据有较多复杂的处理,又例如,对于处理器核数较多的计算设备,模型可以包含更多的对数据进行并行处理的分支。
计算设备110是具有计算能力的电子设备,可以是一个终端计算设备(如笔记本电脑、手机、个人台式电脑、小区闸机),也可以是一台服务器,还可以是由若干台服务器组成的服务器集群,或者是一个云计算服务中心,本申请实施例对此不做限定。需要说明的是,数据采集装置111可以是计算设备110中的一个硬件组件,也可以是一个单独的设备。如图1所示,数据采集装置111集成在计算设备110内部,在其他实施例中,数据采集装置111也可以位于一个独立的设备中。
模型推荐装置120用于为应用程序114推荐符合应用场景需要和计算设备的计算能力的模型,包括:处理器121和存储器122。
示例性地,存储器122可以用于存储组成不同模型的基本算子,可以包括只读存储器和随机存取存储器,并向处理器121提供指令和数据。存储器122还可以包括非易失性随机存取存储器。例如,存储器122还可以存储设备类型的信息。
存储器122可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data date SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
处理器121用于使用不同的基本算子组成的不同的模型,并从中选择适合应用程序的模型推荐给应用程序114。处理器121可以是CPU,还可以是其他通用处理器、数字信号处理器(digital signal processing,DSP)、专用集成电路(application specificintegrated circuit,ASIC)、现场可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者是任何常规的处理器等。
模型推荐装置120也可以是一个终端计算设备,一台服务器,或者是由若干台服务器组成的服务器集群,或者是一个云计算服务中心。模型推荐装置120与计算设备110之间可以采用有线或无线的传输方式,其中,有线的传输方式包括利用以太、光纤等形式进行数据传输,无线传输方式包括移动热点(Wi-Fi)、蓝牙、红外等传输方式。
在其他实施例中,模型推荐装置120还可以是一个硬件装置上的硬件组件或者是运行在硬件装置上的一套软件装置。此时,处理器121和存储器122可以是模型推荐装置所在的硬件装置的处理器和存储器。该硬件装置也可以是一个终端计算设备,一台服务器,或者是由若干台服务器组成的服务器集群,或者是一个云计算服务中心,特别地,还可以是图1中的计算设备110。为了描述方便,本实施例将模型推荐装置120所在的硬件装置的处理器也称为模型推荐装置120的处理器,将模型推荐装置120所在的硬件装置的存储器也称为模型推荐装置120的存储器。
可选地,组成模型推荐装置120中的处理器121和存储器122可以分别部署在不同的系统或者硬件装置中。
下面将结合图2-12对本申请实施例提供的模型推荐的方法进行说明。图2是本申请提供的一种模型推荐的方法的流程示意图,可由如图1所示的模型推荐装置120执行,如图所示,具体方法包括:
S201、模型推荐装置120获取应用程序的代理数据集。
代理数据集包括代理输入数据和代理输入数据对应的标签,其中,代理输入数据为应用程序从图1中数据采集装置111获取到的数据的一部分,标签为这部分输入数据对应的真实结果。将代理输入数据输入应用程序,并使用应用程序经过模型计算得到的计算结果与代理输入数据对应的标签进行比较,可以评价应用程序处理数据的能力。应用程序得到的计算结果与标签的差值越小,说明应用程序处理数据的精度越高。应用程序得到计算结果使用的时间越短,说明应用程序处理数据的效率越高。
当模型推荐装置120位于计算设备110上时,模型推荐装置可以从应用程序114使用的数据采集装置111中获取代理输入数据,并为这些代理输入数据打上标签。可选地,模型推荐装置还可以使用用户预置的代理数据集。
当模型推荐装置120位于一个独立的设备上或模型推荐装置120就是一个独立的设备时,计算设备110或用户可以将计算设备的硬件参数发送给云端的数据中心,其中,硬件参数包括应用程序114运行时使用的处理器的型号、处理器的核的数量、处理器的时钟频率或者GPU的型号。数据中心可以提前获取所有模型推荐装置的硬件参数,然后根据计算设备110或用户发送的硬件参数指定具有相同硬件参数的模型推荐装置执行模型推荐方法。可选地,数据中心还可以根据用户发送的计算设备的硬件参数使用虚拟化技术构建相同硬件参数的虚拟计算设备,并在该虚拟计算设备上运行模型推荐装置。之后,计算设备110或用户可以将代理数据集发送给模型推荐装置。
S202、模型推荐装置确定适合于应用程序的基本操作的集合。
一个基本操作可以直接由一个基本算子构成,例如池化操作可以由步长相同的池化算子构成,比如一个2步长池化操作由一个2步长池化算子构成,可以每隔两个数据输出一个数据;也可以由多个基本算子组合而成,例如卷积操作可以由卷积核大小相同的卷积算子、修正线性单元(rectified linear unit,ReLU)算子和批量归一化(batchnormalization,BN)算子构成。其中,ReLU算子用于增强模型输入输出之间的非线性关系,表达式为Relu(x)=max(0,x);BN算子用于使用归一化变换函数,将输入数据变换为0均值,单位方差的正态分布。图3为本申请实施例提供的一个7*7卷积操作的结构示意图,如图所示,一个7*7卷积操作由一个Relu算子、一个7*7卷积算子和一个BN算子线性连接而成。
基本操作包括但不限于:1*1卷积操作、3*3卷积操作、5*5卷积操作、7*7卷积操作、2步长池化操作、3步长池化操作。
在实际应用中,卷积操作中的卷积算子可以有不同的实现方式,例如3*3卷积算子可以是一个3*3标准卷积算子,也可以是一个3*1卷积算子和一个1*3卷积算子组合而成的3*3组合卷积算子,两个算子均可以实现3*3的卷积功能。又例如,3*3*3卷积算子可以是一个3*3*3标准卷积算子,可以是三个3*3*1卷积算子和一个1*1*3卷积算子组合而成的3*3*3深度可分离卷积算子,两个算子均可以实现3*3*3的卷积功能。图4为本申请实施例提供的不同实现方式的卷积算子示意图,在图4(a)中,经过中间3*3标准卷积算子的处理之后,左边待处理的7*7数据变换为右边5*5大小的数据,在图4(b)中,待处理数据也可以经过一个3*3组合卷积算子,即先经过一个3*1卷积算子再经过一个1*3卷积算子,获得相同的处理结果。在图4(c)中,经过中间3*3*3标准卷积算子的处理之后,左边待处理的7*7*3数据变换为右边5*5*1大小的数据,而在图4(d)中,待处理数据也可以经过一个3*3*3深度可分离卷积算子,即先经过三个3*3*1卷积算子再经过一个1*1*3卷积算子,获得相同的处理结果。因此一个卷积操作又可以分为标准卷积操作、组合卷积操作以及深度可分离卷积操作三个不同的卷积操作,三个卷积操作可以实现相同的卷积功能。
同样,池化操作中的池化算子也可以有不同的实现方式,例如4步长池化算子,可以是4步长平均池化算子,实现方式为使用每4个数据的平均值作为采样值输出,也可以是4步长最大池化算子,实现方式为使用每4个数据中的最大值作为采样值输出。因此一个池化操作也可以分为平均池化操作和最大池化操作,两个操作可以实现相同的采样功能。
所有的基本操作可以提前存储在模型推荐装置的存储器中,模型推荐方法执行时,模型推荐装置使用模型搜索方法从存储器中选择适合于应用程序的基本操作组成推荐模型。对于实现相同功能的基本操作,在模型中可以相互替换,可以打上可替换的标签。实现不同功能的可替换的基本操作可以打上不同的可替换的标签。例如,可以使用0标识不可替换的基本操作,使用1标识,4步长平均池化操作和4步长最大池化操作,使用2标识7*7深度可分离卷积操作、7*7组合卷积操作和7*7标准卷积操作。
由于计算设备110中芯片架构的设计不同,基本操作在不同的实现方式下需要的计算时间却不一样。因此,可以记录所有可替换的基本操作完成数据处理的时间,对于同一功能的基本操作,从中选择处理时间低于阈值的基本操作加入适合于应用程序的基本操作的集合中。具体选择方法在后文中将结合图8进行详细说明。
S203、模型推荐装置确定适合于应用程序的连接结构。
连接结构用于将基本操作组合成模型,多个基本操作可以组合为一个操作,又称为操作节点;多个操作节点可以通过相互连接组合为一个单元(cell),每一个cell还包括一个输出节点;而多个cell组合为一个模型,每一个cell可以同时连接多个cell的输出节点。
因此,连接结构可以由两部分构成,一部分为分支结构,用于描述多个操作节点组成一个cell时的并行关系;另一部分为输入结构,用于描述多个cell之间的输入关系。
对于不同的分支结构,可以由分支结构中操作节点的数量和分支数量来标识,记做m-n分支结构,其中m表示操作操作节点数量,n表示分支数量。
分支数量可以由一个cell连接的其他cell的输出节点的连接数量Q、cell中操作节点的最大连接数量W以及输出节点的连接数量E,这三个连接数量的和(Q+W+E)计算得到。图5为本申请提供的一种不同分支结构的示意图,以一个cell包括4个操作节点为例,如图5所示,实线方框表示输出节点,圆形表示操作节点,虚线方框表示连接cell的其他cell的输出节点,在图5中为了便于描述,又被称为cell的输入节点。对于图5(a),cell存在一个输入节点,连接两个操作节点,Q值为2;同时,cell中每个操作节点都只连接一个操作结点,连接数量的最大值W为1;输出节点连接两个操作结点,E值为2;综上,图5(a)中的cell的分支数量为5,分支结构为4-5。对于图5(b),cell存在两个输入节点,分别连接两个和一个操作结点,Q值为3;类似地,W值为1,E值为2;则图5(b)中cell的分支数量为6,分支结构为4-6。对于图5(c),Q值为2,W值为3,E值为2,分支数量为7,分支结构为4-7。对于图5(d),Q值为3,W值为1,E值为3,分支数量为7,分支结构为4-7。由于不同的硬件平台计算设备对并行数据处理的能力不同,不同的分支结构的模型在不同的硬件平台计算设备中使用时需要的计算时间也不一样,在实际应用中,应该选择亲和运行应用程序硬件平台计算设备的分支结构组成模型。
对于输入结构,可以由模型中一个cell连接的其他cell的输出节点的数量标识。例如,图6为本申请提供的一种不同输入结构的示意图,以4个cell为例,如图6所示,每一个方框表示一个cell,在图6(a)中,每一个cell的输入只与跟它相连接的前一个cell有关系,记作1输入结构;在图6(b)中,每一个cell的输入与跟它相连接的前两个cell有关系,记作2输入结构;在图6(c)中,每一个cell的输入与跟它相连的前三个cell有关系,记作3输入结构。当一个cell的输入与多个cell有关时,例如图6(b),计算当前cell是需要额外将前两个cell的输出搬运到计算单元的内存中,一些计算设备110在设计时采用的内存架构对于多次的内存搬运导致的时延比较敏感,这些计算设备110并不适合在模型中使用多输入的结构。因此,在实际应用中,应该选择亲和运行应用程序计算设备的输入结构组成模型。
在本实施例中,可以记录所有不同的分支结构和不同输入结构完成数据处理的时间,根据时间对分支结构和输入结构进行打分,从而可以选择适合于应用程序的分支结构和输入结构。具体评分方法在后文中将结合图9进行详细说明。
S204、模型推荐装置确定适合于应用程序的模型。
模型搜索算法可以将不同类型以及数量的基本操作通过不同的连接结构组合成不同的模型,并从中选择出适合于应用程序的模型,作为推荐模型。选择推荐模型时,需要同时考虑模型处理数据的精度和时间,以及模型的连接结构的评分,是一个多目标优化问题(multi-objective optimization problems,MOPs)。对于一个多目标优化问题而言,由于存在目标之间的冲突的现象,一个解在某个目标上是最好的,在其他的目标上可能是最差的。这些在改进任何目标函数的同时,必然会削弱至少一个其他目标函数的解称为非支配解或pareto解,这些pareto解的集合称为pareto解集。图7为本申请实施例提供的一个pareto解集的示意图,如图所示,多目标优化问题包括两个优化目标,希望使f1和f2的值同时达到最小,其目标函数为f=(f1min,f2min)。其中A的f1的值和f2的值都比D值小,表示A支配了D,A的f2的值小于B的f2的值,但是A的f1的值大于B的f1的值,表示A和B之间为非支配的关系。A、B、C三个点均为pareto解,属于pareto解集,他们三者之间均为非支配关系。
求解多目标优化问题的解法有很多,包括目标规划方法,目标分解方法,目标化多为少方法(将多个目标减少为一个),基于进化算法的方法,强化学习算法等。其中,进化算法可以对多个目标函数同时进行优化,输出一组pareto解集。模型推荐装置可以采用基于进化的模型搜索算法,同时考虑模型处理数据的精度、处理数据的时间,以及模型的连接结构的评分三个优化目标,确定合适的推荐模型。后面将结合图10详细说明本申请提供的一种基于进化的模型搜索算法的流程示意图。
通过本申请提出的方法,可以为应用程序推荐适用于运行应用程序的计算设备以及使用应用程序的应用场景的模型,加快应用程序处理数据的速度,提高应用程序输出结果的准确性。
图8为本申请实施例提供的一种确定基本操作的集合的流程示意图,可由如图1所示的模型推荐装置120执行,如图所示,确定方法具体如下:
S801、确定输入数据,本方法对输入数据的数量和数值均不做限定,可以对所有的基本操作使用同样的输入数据。
S802、选择第一基本操作,判断第一基本操作是否标记为可替换,如果是则执行S5031,如果不是则执行S505。
S8031、使用第一基本操作对输入数据进行处理,记录完成处理的时间,并将第一基本操作标记为已完成。
S8032、选择未标记完成的并且与第一基本操作的可替换标记相同的第二基本操作。
S8033、使用第二基本操作对输入数据进行处理,记录完成处理的时间,并将第二基本操作标记为已完成。
S8034、判断与第一基本操作的可替换标记相同的基本操作是否全部标记为已完成,如果没有,则重复执行S8032和S8033;如果已经全部标记为完成,则继续执行S8035。
S8035、将可替换标记相同的基本操作中,处理时间最短的基本操作加入适合于应用程序的基本操作的集合中。
S804、判断是否所有基本操作标记为完成,如果没有,则跳转至S802,直至所有基本操作被标记为已完成。
S805、将第一基本操作加入适合于应用程序的基本操作的集合中,并将第一基本操作标记为完成。
通过上述方法,可以只将实现同一功能的可替换的基本操作中处理时间低于阈值的基本操作加入适合于应用程序的基本操作的集合中,以减少模型搜索中需要搜索的基本操作的数量,并且被选择的基本操作也更适合于应用程序之后运行时所使用的计算设备。确定了适合于应用程序的基本操作的集合后,可以进一步确定适合于应用程序的连接结构。
图9为本申请实施例提供的一种基本算子的连接结构的评分方法的流程示意图,可由如图1所示的模型推荐装置120执行。如图所示,具体流程如下:
S901、确定输入数据,本方法对输入数据的数量和数值均不做限定,可以对所有的分支结构使用同样的输入数据。
S902、确定分支结构中组成一个cell的操作节点的数量。操作节点的数量可以由用户指定,也可以根据经验值设定。可选地,该值也可以是一个范围。
S903、根据节点的数量确定待评分的不同的分支结构。当一种分支结构下包括多种不同的连接方式时,可以任选一种连接方式作为该分支数量下的待评分的分支结构。在本方法中,目的是为了测试不同的分支结构在运行应用程序的计算设备下的计算效率,因此对节点中的操作的类型不做限制,可以对所有的分支结构的操作节点中使用相同的操作。
S904、分别使用输入数据输入每一种分支结构,并记录每一种分支结构完成数据处理的时间。
S905、根据处理时间对所有分支结构进行评分,使得处理时间越快的分支结构的评分越高。本申请对评分的方式不做限制,示例性的,可以设置处理时间的阈值T1,当分支结构的处理时间t1大于T1时,记为0分,当分支结构的处理时间t1小于T1时,分数为(T1-t1)*A,其中,A为放大参数,可以根据经验值设置。
可选地,还可以根据跟据处理时间设置不同的等级,示例性的,可以将处理时间小于T1的分支结构设置为等级1,处理时间位于T1和T2之间的分支结构设置为等级2,处理时间大于T2的分支结构设置为等级3。
S906、确定输入结构中与一个cell的输入有关的cell的数量的最大值。该数值可以由用户指定,也可以根据经验值设定。
S907、确定最大值确定待评分的不同的输入结构。与S906类似,可以在所有待评分的输入结构中使用相同数量和相同结构的cell,其中,cell的数量可以为大于S907中最大值的任何数,一般可以设置为最大值+1。
S908、分别使用输入数据输入每一种输入结构,并记录每一种输入结构完成数据处理的时间。
S909、根据处理时间对所有输入结构进行评分,使得处理时间越快的输入结构的评分越高。可以采用类似S905的方法。确定了不同的分支结构和输入结构在运行应用程序的计算设备上的计算效率的评分标准之后,可以对下一步搜索出的模型的分支结构和输入结构进行相应的打分,从而选择出适合于运行在运行应用程序的计算设备上的模型。
图10为本申请提供的一种基于进化的模型搜索算法的流程示意图,可由如图1所示的模型推荐装置120执行,如图所示,具体方法如下:
S1001、初始化种群。
种群是多个模型的统称,模型搜索算法可以随机将不同类型的基本操作通过不同的连接结构组合成P个模型,作为种群。其中,组成每个模型的cell的数量为S806中的最大值,组成每一个cell中的节点的数量为S902中的节点的数量。
初始化的种群中模型的数量P可以根据经验值设置。
将代理数据集中的输入数据分为训练集和验证集两部分,使用训练集的部分数据以及这部分数据对应的标签作为模型的输入数据,对种群中的每个模型分别进行训练,得到训练好的种群。
S1002、从种群中随机挑选S个模型,生成第一种群。
S1003、根据目标函数获得第一种群中的pareto最优解。
根据前面所述,选择推荐模型时,需要同时考虑模型处理数据的精度、处理数据的时间,以及模型的连接结构的评分三个优化目标,目标函数为f=(Amin,Lmin,Rmax)。其中,A表示模型得到的输出数据与真实数据的差值,L表示模型完成数据处理的计算时间,R表示模型的连接结构的评分。
对于模型的A值和L值,可以将验证集的数据输入第一种群中的每个模型,得到输出数据,并记录每个模型完成数据处理的时间。其中,A值等于输出数据与验证集的数据对应的标签之间的差值,L值等于模型完成数据处理的时间。
对于模型的R值,可以由S203步骤中得到的分支结构和输入结构的评分获得。其中,R值等于模型的每个cell的分支结构的评分和乘以输入结构的评分。图11是本申请提供的一种模型计算R值的示意图,假设3-3分支结构和3-5分支结构的评分分别为M1和M2,1输入结构和2输入结构的评分分别为N1和N2。如图所示,模型a和模型b均由3个cell构成,每个cell由3个节点构成,每一个节点包括至少一个相同或不同的操作。模型a中每个cell的分支结构分别为3-3分支结构、3-5分支结构和3-3分支结构,输入结构为1输入结构,则模型a的R值为(M1+M2+M1)*N1。模型b中每个cell的分支结构分别为3-3分支结构、3-5分支结构和3-5分支结构,输入结构为2输入结构,则模型b的R值为(M1+M2+M2)*N2。
计算第一种群中每一个模型的三个参数的值(A,L,R),选择目标函数f的pareto解对应的模型。
S1004、对选择的模型进行变异操作,生成第二种群。
对每一个选择的模型进行一项变异操作,包括改变任意一个基本操作、改变节点之间的分支结构或者改变cell之间的输入结构。图12为本实施例提供的一种变异操作的示意图,如图所示,模型a为变异之前的操作,模型b、c和d均可以为模型a经过变异操作之后得到的模型。
使用S1001中的训练集的部分数据重新训练经过变异操作之后的模型,将训练后的模型加入第一种群中,并且删除第一种群中存在时间最长的模型,生成第二种群。其中,删除的模型的数量与新加入的模型的数量相等。
S1005、以S1003至S1004的步骤作为一次迭代,判断迭代次数是否达到阈值,如果未达到,则将第二种群作为第一种群,重复执行S1003和S1004,如果达到则停止迭代。
S1006、确定推荐模型。
与步骤S1003类似,根据目标函数得到停止迭代后的第二种群中具有pareto最优解的模型,可以任意选择一个模型作为推荐模型。
可选地,还可以将所有的具有pareto最优解的模型以及模型的(A,L,R)值发送给应用程序,由应用程序确定一个模型作为推荐模型。
可选地,可以继续用全部的训练集的数据重新训练第二种群中具有pareto最优解的模型,再使用验证集的数据输入第一种群中的每个模型,得到输出数据,并记录每个模型完成数据处理的时间。然后,再次使用目标函数求得具有pareto最优解的模型,从中任意选择一个模型作为推荐模型。
作为另一种可能的实施例,在使用基于进化的模型搜索算法确定推荐模型时,还可以根据得到的适用于应用程序的分支结构和输入结构的评分,在S1001初始化种群的步骤直接使用评分最高的分支结构和输入结构初始化每一个模型,只有每个模型中的基本操作是随机选择的。则在S1003中,优化目标只用考虑模型处理数据的精度和处理数据的时间,目标函数为f=(Amin,Lmin)。那么在S1004执行变异操作的时候,也只用对模型的基本操作进行改变。其余步骤与S1001至S1006类似。
通过上述方法,模型推荐装置在确定推荐模型的时候,同时考虑了模型处理数据的精度和时间,以及模型的连接结构的评分,使用多目标的优化算法得到适合于应用程序的模型。
值得说明的是,对于上述方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制。
本领域的技术人员根据以上描述的内容,能够想到的其他合理的步骤组合,也属于本申请的保护范围内。其次,本领域技术人员也应该熟悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本申请所必须的。
上文中结合图1至图12,详细描述了根据本申请实施例所提供的模型推荐方法,下面将结合图13,进一步介绍根据本申请实施例所提供的模型推荐装置。
图13为本申请提供的一种模型推荐装置120的示意图,用于实现图2所示的模型推荐方法,包括获取单元1301和推荐单元1302。
获取单元1301,用于获取应用程序的代理数据集,其中,代理数据集用于评价应用程序处理数据的能力,应用程序运行于计算设备上;
推荐单元1302,用于根据代理数据集和计算设备的硬件参数推荐适合于应用程序的模型。
应理解的是,本申请实施例的模型推荐装置120可以通过专用集成电路(application-specific integrated circuit,ASIC)实现,或可编程逻辑器件(programmable logic device,PLD)实现,上述PLD可以是复杂程序逻辑器件(complexprogrammable logical device,CPLD),现场可编程门阵列(field-programmable gatearray,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。也可以通过软件实现图2所示的模型推荐方法时,模型推荐装置120及其各个模块也可以为软件模块,此时,模型推荐装置120可以由图1所示的计算设备110执行,也可以由一台单独的设备执行。
可选地,模型推荐装置120可以运行于第一设备上,在根据所述代理数据集和所述计算设备的硬件参数推荐适合于所述应用程序的模型之前,所述第一设备由数据中心获取计算设备的硬件参数后,根据计算设备的硬件参数指定,其中,第一设备的硬件参数与计算设备的硬件参数相同。
可选地,模型推荐装置120还可以运行于计算设备上。
可选地,推荐单元1302,还用于根据计算设备的硬件参数确定适合于应用程序的基本操作的集合,其中,集合包括多个基本操作;根据计算设备的硬件参数确定适合于应用程序的连接结构,其中,连接结构用于将多个基本操作组合为不同的模型;最后,根据基本操作的集合、连接结构和代理数据集推荐适合于应用程序的模型。
根据本申请实施例的模型推荐装置120可对应于执行本申请实施例中描述的方法,并且模型推荐装置120中的各个单元的上述和其它操作和/或功能分别为了实现图2中的各个方法的相应流程,为了简洁,在此不再赘述。
综上所述,本申请实施例提供的模型推荐装置120,推荐单元可以综合考虑应用程序的使用场景以及运行时的硬件参数,避免运行应用程序的计算设备无法支持模型推荐装置推荐的模型对数据的处理,降低应用程序处理数据的准确度和速度。
本申请还提供一种模型推荐系统,包括计算设备和模型推荐装置,计算设备用于运行应用程序,模型推荐装置用于实现上述模型推荐方法中所执行的方法的操作步骤,模型推荐装置可以部署于计算设备上、其他设备上或为一台单独的设备。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘(solid state drive,SSD)。
以上所述,仅为本申请的具体实施方式。熟悉本技术领域的技术人员根据本申请提供的具体实施方式,可想到变化或替换,都应涵盖在本申请的保护范围之内。
Claims (10)
1.一种模型推荐方法,其特征在于,所述方法包括:
获取应用程序的代理数据集,所述代理数据集用于评价所述应用程序处理数据的能力,所述应用程序运行于计算设备上;
根据所述代理数据集和所述计算设备的硬件参数推荐适合于所述应用程序的模型,具体包括:根据所述计算设备的硬件参数确定适合于所述应用程序的基本操作的集合,所述集合包括多个基本操作,所述基本操作由基本算子构成;根据所述计算设备的硬件参数确定适合于所述应用程序的连接结构,所述连接结构用于将所述多个基本操作组合为不同的模型,所述连接结构包括分支结构和输入结构,所述分支结构用于描述多个操作节点组成一个单元时的并行关系;所述输入结构用于描述多个单元之间的输入关系,其中,多个基本操作组合为一个操作节点;将不同类型以及数量的基本操作通过不同的连接结构组合成不同的模型;根据所述基本操作的集合、所述连接结构和所述代理数据集推荐适合于所述应用程序的模型,包括:初始化种群;从种群中随机挑选S个模型,生成第一种群;根据目标函数获得第一种群中的pareto最优解;对选择的模型进行变异操作,生成第二种群;若达到预设迭代次数,停止迭代;根据目标函数得到停止迭代后的第二种群中具有pareto最优解的模型,从具有pareto最优解的模型中确定推荐模型。
2.根据权利要求1所述模型推荐方法,其特征在于,所述模型推荐方法运行于第一设备上,在所述推荐适合于所述应用程序的模型之前,所述方法还包括:
数据中心获取所述计算设备的硬件参数;
所述数据中心根据所述计算设备的硬件参数指定所述第一设备,所述第一设备的硬件参数与所述计算设备的硬件参数相同。
3.根据权利要求1所述模型推荐方法,其特征在于,所述模型推荐方法运行于所述计算设备上。
4.根据权利要求1-3任一所述模型推荐的方法,其特征在于,所述应用程序处理数据的能力,包括:
所述应用程序处理数据的精度和处理数据的效率。
5.根据权利要求1-3任一所述模型推荐方法,其特征在于,所述计算设备的硬件参数,包括所述计算设备所包含的芯片的型号、芯片的核的数量或所述芯片的时钟频率。
6.一种模型推荐装置,其特征在于,所述装置与计算设备通信,所述装置包括获取单元和推荐单元:
所述获取单元,用于获取应用程序的代理数据集,所述代理数据集用于评价所述应用程序处理数据的能力,所述应用程序运行于所述计算设备上;
所述推荐单元,用于根据所述代理数据集和所述计算设备的硬件参数推荐适合于所述应用程序的模型:
所述推荐单元,具体用于:
根据所述计算设备的硬件参数确定适合于所述应用程序的基本操作的集合,所述集合包括多个基本操作;所述基本操作由基本算子构成;
根据所述计算设备的硬件参数确定适合于所述应用程序的连接结构,所述连接结构用于将所述多个基本操作组合为不同的模型,所述连接结构包括分支结构和输入结构,所述分支结构用于描述多个操作节点组成一个单元时的并行关系;所述输入结构用于描述多个单元之间的输入关系,其中,多个基本操作组合为一个操作节点;
将不同类型以及数量的基本操作通过不同的连接结构组合成不同的模型;
根据所述基本操作的集合、所述连接结构和所述代理数据集推荐所述适合于所述应用程序的模型,包括:初始化种群;从种群中随机挑选S个模型,生成第一种群;根据目标函数获得第一种群中的pareto最优解;对选择的模型进行变异操作,生成第二种群;若达到预设迭代次数,停止迭代;根据目标函数得到停止迭代后的第二种群中具有pareto最优解的模型,从具有pareto最优解的模型中确定推荐模型。
7.根据权利要求6所述模型推荐装置,其特征在于,所述应用程序处理数据的能力,包括:
所述应用程序处理数据的精度和处理数据的效率。
8.根据权利要求6或7所述模型推荐装置,其特征在于,所述计算设备的硬件参数,包括所述计算设备所包含的芯片的型号、芯片的核的数量或所述芯片的时钟频率。
9.一种计算机设备,其特征在于,包括处理器和存储器,所述存储器用于存储计算机执行指令,所述处理器执行所述存储器中的计算机执行指令,使得所述计算机设备执行权利要求1-5中任一所述方法的操作步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括指令,当其在计算机上运行时,使得计算机执行权利要求1至5中任一所述的方法的操作步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110309016.0A CN114969636B (zh) | 2021-03-23 | 2021-03-23 | 一种模型推荐的方法、装置和计算机设备 |
EP22773923.2A EP4293540A4 (en) | 2021-03-23 | 2022-02-09 | MODEL RECOMMENDATION METHOD AND APPARATUS AND COMPUTER DEVICE |
PCT/CN2022/075585 WO2022199261A1 (zh) | 2021-03-23 | 2022-02-09 | 一种模型推荐的方法、装置和计算机设备 |
US18/472,390 US20240013027A1 (en) | 2021-03-23 | 2023-09-22 | Model recommendation method and apparatus, and computer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110309016.0A CN114969636B (zh) | 2021-03-23 | 2021-03-23 | 一种模型推荐的方法、装置和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114969636A CN114969636A (zh) | 2022-08-30 |
CN114969636B true CN114969636B (zh) | 2023-10-03 |
Family
ID=82974148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110309016.0A Active CN114969636B (zh) | 2021-03-23 | 2021-03-23 | 一种模型推荐的方法、装置和计算机设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240013027A1 (zh) |
EP (1) | EP4293540A4 (zh) |
CN (1) | CN114969636B (zh) |
WO (1) | WO2022199261A1 (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101556464A (zh) * | 2009-05-22 | 2009-10-14 | 天津大学 | 基于关联规则的城市电力负荷预测模型自动推荐方法 |
CN110276456A (zh) * | 2019-06-20 | 2019-09-24 | 山东大学 | 一种机器学习模型辅助构建方法、系统、设备及介质 |
CN112001496A (zh) * | 2020-08-27 | 2020-11-27 | 展讯通信(上海)有限公司 | 神经网络结构搜索方法及系统、电子设备及存储介质 |
CN112036558A (zh) * | 2019-06-04 | 2020-12-04 | 北京京东尚科信息技术有限公司 | 模型管理方法、电子设备和介质 |
CN112114892A (zh) * | 2020-08-11 | 2020-12-22 | 北京奇艺世纪科技有限公司 | 深度学习模型的获取方法、加载方法及选取方法 |
CN112418392A (zh) * | 2020-10-21 | 2021-02-26 | 华为技术有限公司 | 一种神经网络构建方法以及装置 |
WO2021036397A1 (zh) * | 2019-08-30 | 2021-03-04 | 华为技术有限公司 | 目标神经网络模型的生成方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3451237A4 (en) * | 2016-04-28 | 2019-04-17 | Sony Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD |
US20190138901A1 (en) * | 2017-11-06 | 2019-05-09 | The Royal Institution For The Advancement Of Learning/Mcgill University | Techniques for designing artificial neural networks |
US20200082247A1 (en) * | 2018-09-07 | 2020-03-12 | Kneron (Taiwan) Co., Ltd. | Automatically architecture searching framework for convolutional neural network in reconfigurable hardware design |
CN111428854A (zh) * | 2020-01-17 | 2020-07-17 | 华为技术有限公司 | 一种结构搜索方法及结构搜索装置 |
-
2021
- 2021-03-23 CN CN202110309016.0A patent/CN114969636B/zh active Active
-
2022
- 2022-02-09 WO PCT/CN2022/075585 patent/WO2022199261A1/zh active Application Filing
- 2022-02-09 EP EP22773923.2A patent/EP4293540A4/en active Pending
-
2023
- 2023-09-22 US US18/472,390 patent/US20240013027A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101556464A (zh) * | 2009-05-22 | 2009-10-14 | 天津大学 | 基于关联规则的城市电力负荷预测模型自动推荐方法 |
CN112036558A (zh) * | 2019-06-04 | 2020-12-04 | 北京京东尚科信息技术有限公司 | 模型管理方法、电子设备和介质 |
CN110276456A (zh) * | 2019-06-20 | 2019-09-24 | 山东大学 | 一种机器学习模型辅助构建方法、系统、设备及介质 |
WO2021036397A1 (zh) * | 2019-08-30 | 2021-03-04 | 华为技术有限公司 | 目标神经网络模型的生成方法和装置 |
CN112114892A (zh) * | 2020-08-11 | 2020-12-22 | 北京奇艺世纪科技有限公司 | 深度学习模型的获取方法、加载方法及选取方法 |
CN112001496A (zh) * | 2020-08-27 | 2020-11-27 | 展讯通信(上海)有限公司 | 神经网络结构搜索方法及系统、电子设备及存储介质 |
CN112418392A (zh) * | 2020-10-21 | 2021-02-26 | 华为技术有限公司 | 一种神经网络构建方法以及装置 |
Also Published As
Publication number | Publication date |
---|---|
EP4293540A1 (en) | 2023-12-20 |
EP4293540A4 (en) | 2024-09-04 |
WO2022199261A1 (zh) | 2022-09-29 |
CN114969636A (zh) | 2022-08-30 |
US20240013027A1 (en) | 2024-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111340237B (zh) | 数据处理和模型运行方法、装置和计算机设备 | |
CN111709533B (zh) | 机器学习模型的分布式训练方法、装置以及计算机设备 | |
CN109376615B (zh) | 用于提升深度学习网络预测性能的方法、装置及存储介质 | |
EP3446260B1 (en) | Memory-efficient backpropagation through time | |
US11288575B2 (en) | Asynchronous neural network training | |
US10902005B2 (en) | Parallel scoring of an ensemble model | |
CN114915630B (zh) | 基于物联网设备的任务分配方法、网络训练方法及装置 | |
US20220147877A1 (en) | System and method for automatic building of learning machines using learning machines | |
US11455523B2 (en) | Risk evaluation method, computer-readable recording medium, and information processing apparatus | |
CN105373800A (zh) | 分类方法及装置 | |
CN112381216A (zh) | 混合图神经网络模型的训练、预测方法和装置 | |
CN113435998B (zh) | 贷款逾期预测方法、装置、电子设备及存储介质 | |
CN113011529A (zh) | 文本分类模型的训练方法、装置、设备及可读存储介质 | |
CN112734008A (zh) | 分类网络构建方法以及基于分类网络的分类方法 | |
US11783221B2 (en) | Data exposure for transparency in artificial intelligence | |
Hu et al. | ROUTERBENCH: A Benchmark for Multi-LLM Routing System | |
CN114969636B (zh) | 一种模型推荐的方法、装置和计算机设备 | |
CN112734005B (zh) | 预测模型的确定方法、装置、电子设备及存储介质 | |
CN115860099A (zh) | 神经网络模型的压缩方法、装置、计算机设备和存储介质 | |
Kesarwani et al. | Charnes–Cooper scalarization and convex vector optimization | |
JP7424373B2 (ja) | 分析装置、分析方法及び分析プログラム | |
CN110021166B (zh) | 用于处理用户出行数据的方法、装置和计算设备 | |
CN109840790B (zh) | 用户流失的预测方法、装置及计算机设备 | |
CN111931058B (zh) | 一种基于自适应网络深度的序列推荐方法和系统 | |
EP4036811A1 (en) | Combining compression, partitioning and quantization of dl models for fitment in hardware processors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |