CN109685202A - 数据处理方法及装置、存储介质和电子装置 - Google Patents
数据处理方法及装置、存储介质和电子装置 Download PDFInfo
- Publication number
- CN109685202A CN109685202A CN201811545184.4A CN201811545184A CN109685202A CN 109685202 A CN109685202 A CN 109685202A CN 201811545184 A CN201811545184 A CN 201811545184A CN 109685202 A CN109685202 A CN 109685202A
- Authority
- CN
- China
- Prior art keywords
- processing
- submodel
- result
- model
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 331
- 238000000034 method Methods 0.000 claims abstract description 102
- 230000001537 neural effect Effects 0.000 claims abstract description 67
- 230000008569 process Effects 0.000 claims abstract description 62
- 238000007906 compression Methods 0.000 claims description 77
- 230000006835 compression Effects 0.000 claims description 77
- 238000013519 translation Methods 0.000 claims description 46
- 230000015654 memory Effects 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000013473 artificial intelligence Methods 0.000 claims description 6
- 210000004218 nerve net Anatomy 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 19
- 235000013399 edible fruits Nutrition 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000008602 contraction Effects 0.000 description 4
- 238000004821 distillation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013526 transfer learning Methods 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000005036 nerve Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241001396014 Priacanthus arenatus Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000005194 fractionation Methods 0.000 description 1
- 238000013140 knowledge distillation Methods 0.000 description 1
- 238000013141 low-rank factorization Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/04—Protocols for data compression, e.g. ROHC
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种数据处理方法及装置、存储介质和电子装置。其中,该方法包括:使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数;将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;接收第一服务器返回的目标处理结果。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种数据处理方法及装置、存储介质和电子装置。
背景技术
目前,随着移动端设备(例如,手机,智能可穿戴设备)的流行,使得人工智能AI(Artificial Intelligence,人工智能)模型(例如,深度学习模型)在资源(内存、CPU、能耗和带宽等)有限的便携式设备上部署变得越来越重要。
AI模型(例如,人脸识别模型)通常采用大型神经网络进行数据处理,拥有高精度的识别效果,用户对处理效果体验满意。但是,人工智能模型包含的大型神经网络具有大量的层级与结点,内存开销和计算量巨大,受资源的限制,在移动端设备中部署AI模型非常困难。
目前,为了在移动端设备中能够部署AI模型,考虑如何减少它们所需要的内存与计算量就非常重要,通常采用模型压缩技术对AI模型进行模型压缩。然而,对于高精度的大神经网络,使用当前的模型压缩技术之后,其计算量和内存开销对于移动端设备依然很大,无法部署运行。也就是说,相关技术中存在由于模型压缩技术的模型压缩能力有限导致无法在移动端设备中部署AI模型的问题。
发明内容
本发明实施例中提供了一种数据处理方法及装置、存储介质和电子装置,以至少解决相关技术中存在由于模型压缩技术的模型压缩能力有限导致无法在移动端设备中部署AI模型的技术问题。
根据本发明实施例的一个方面,提供了一种数据处理方法,包括:使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数;将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;接收第一服务器返回的目标处理结果。
根据本发明实施例的另一方面,还提供了一种数据处理装置,包括:处理单元,用于处理单元,用于使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数;发送单元,用于将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;第一接收单元,用于接收第一服务器返回的目标处理结果。
根据本发明实施例的又一方面,还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述方法。
根据本发明实施例的又一方面,还提供了一种电子装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,上述处理器通过计算机程序执行上述的方法。
在本发明实施例中,使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数;将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;接收第一服务器返回的目标处理结果,由于将AI处理模型的对应于M个神经网络层的第一子模型和包含K个神经网络层的第二子模型部署到不同的设备上,可以根据需要设定M、K的值,灵活设置第一子模型和第二子模型的规模,从而控制各子模型的计算量和内存开销,方便在移动端设备中进行AI模型的部署,达到了在移动端设备中部署AI模型的目的,从而实现了提高用户体验的技术效果,进而解决了相关技术中存在由于模型压缩技术的模型压缩能力有限导致无法在移动端设备中部署AI模型的问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种数据处理方法的应用环境的示意图;
图2是根据本发明实施例的一种可选的数据处理方法的流程示意图;
图3是根据本发明实施例的一种可选的数据处理方法的示意图;
图4是根据本发明实施例的另一种可选的数据处理方法的示意图;
图5是根据本发明实施例的又一种可选的数据处理方法的示意图;
图6是根据本发明实施例的一种可选的图片对象识别结果的示意图;
图7是根据本发明实施例的又一种可选的数据处理方法的示意图;
图8是根据本发明实施例的一种可选的数据处理装置的结构示意图;以及
图9是根据本发明实施例的一种可选的电子装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种数据处理方法,可选地,上述数据处理方法可以但不限于应用于如图1所示的应用环境中。移动端设备102通过网络104与服务器106相连。在移动端设备102中部署有AI处理模型的第一子模型,在服务器106中部署AI处理模型的第二子模型,其中,AI处理模型包括第一子模型和第二子模型,第一子模型对应于AI处理模型的M个神经网络层,第二子模型包括K个神经网络层,M、K均为大于或者等于1的正整数。
移动端设备102获取到待处理数据之后,使用第一子模型对待处理数据执行第一处理,得到中间处理结果,并将中间处理结果通过网络104发送给服务器106。
服务器106接收到中间处理结果之后,使用第二子模型对中间处理结果进行第二处理,得到待处理数据的目标处理结果,并将得到的目标处理结果通过网络104发送给移动端设备102。
移动端设备102接收服务器106返回的目标处理结果。
可选地,在本实施例中,上述移动端设备102可以包括但不限于以下至少之一:手机、平板电脑、笔记本电脑、智能可穿戴设备等。上述网络104可以包括但不限于有线网络和无线网络,其中,上述有线网络可以包括:局域网、城域网和广域网,上述无线网络可以包括:蓝牙、WIFI(Wireless Fidelity,无线保真)、移动网络及其他实现无线通信的网络。上述服务器106可以包括但不限于以下至少之一:PC机及其他用于提供服务的设备。上述只是一种示例,本实施例对此不做任何限定。
可选地,作为一种可选的实施方式,如图2所示,上述数据处理方法可以包括:
步骤S202,使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数。
步骤S204,将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;
步骤S206,接收第一服务器返回的目标处理结果。
上述数据处理方法可以应用于移动端设备通过传感器(例如,移动终端的摄像头)获取待处理数据的过程中。下面以通过移动终端的摄像头获取待处理数据的应用场景为例进行说明。
移动终端中安装的应用(例如,网络直播应用)调用移动终端的摄像头进行网络直播,调用摄像头的同时触发使用移动终端中部署的AI模型的第一子模型对通过摄像头获取到的图像数据进行处理(例如,对图像数据中的特定目标进行处理,可以包括但不限于滤镜处理、瘦脸处理、大眼处理等),并将处理后得到的中间数据通过无线网络(例如,移动网络、WIFI网络)传输到云端服务器,由云端服务器使用其部署的第二子模型对中间数据进行后续处理,并将得到的图像数据返回给移动终端,在移动终端上进行显示,或者传输给观看直播的其他移动终端进行显示。
获取待处理数据的操作以及对待处理数据的操作可以是实时的,也可以是非实时的。具体的获取方式,本实施例中对此不作限定。
目前,高效的深度学习方法可以显著地影响分布式系统、嵌入式设备和用于人工智能的FPGA(FPGA Field Programmable Gate Array,现场可编程门阵列)等。例如,ResNet-101(Residual Neural Network,残差神经网络)具有101层卷积网络、超过200MB的储存需求和计算每一张图片所需要的浮点数乘法时间。对于只有兆字节资源的手机和FPGA等设备,部署这种大模型就非常困难。
常用的高精度大模型包括:R-CNN(Region-Convolutional Neural Network,区域卷积神经网络),SSD(Single Shot Multibox Detector,单发多盒探测器)和YOLO(YouOnly Love One,一种基于卷积神经网络的目标检测模型)。R-CNN的识别精度随这基础网络模型的减小,而下降。如表1所示,表1示出了R-FCN(Region-base Fully ConvolutionalNetwork,基于区域的全卷积网络)的不同基础模型的精度。
表1
然而,这些高精度的大模型(即使最小的基础网络模型ResNet50),在移动端设备中根本无法部署。
移动端设备的数据采集sensor(传感器)获取的数据越来越大,比如手机摄像头,越来越高清,带来图片数据很大,传送到云端计算,速度慢,流量消耗大。因此,用户不愿意使用高精度的DNN(Deep Neural Network,深度神经网络)大模型。
如图3所示,为了能够在移动端设备中部署AI模型,相关的处理方式为:采用模型压缩算法对高精度的AI模型进行整体压缩,将大模型整体压缩为一个小模型,以损失AI模型的识别精度为代价,最终降低神经网络的计算量。上述处理方法一般分两个步骤:
步骤1,在超强计算能力的GPGPU(General Purpose Computer on GPU,在图形处理器上进行通用运算)集群上,训练出高识别精度和高计算量神经网络模型。
步骤2,在高精度的大模型基础上,神经网络压缩技术(模型压缩技术),训练一个低识别精度和计算量的小模型,最终满足嵌入式设备(移动端设备)的计算能力。
目前的模型压缩技术可以大致分为四类:参数修剪和共享(parameter pruningand sharing)、低秩分解(low-rank factorization)、迁移/压缩卷积滤波器(transfered/compact convolutional filter)和知识精炼(knowledge distillation)。
然而,由于模型压缩技术的压缩能力有限,很多高精度大模型压缩后,依然无法部署到移动端。表2和表3为相关模型压缩技术的性能数据,其中,表2示出了低秩分解技术在ILSVRC-2012数据集上的性能对比结果,表3示出了迁移/压缩卷积滤波器在CIFAR-10和CIFAR-100数据集上的性能对比结果。
表2
表3
表2和表3示出的当前模型压缩技术的性能数据,压缩比(Compression Rate)都是5倍以下,对于高精度的大神经网络,即使压缩5倍,其计算量和内存开销对于移动端设备依然很大,无法部署运行。
同时,相关的AI模型在移动端的部署方案,均会损失最终的AI模型识别精度。有些AI模型,最终压缩后的精度,可能完全无法被用户接受,体验极差。
在本申请中,从AI模型(AI处理模型)拆分出两部分:第一子模型和第二子模型,并将第一子模型部署在移动端设备,将第二子模型部署在服务器中,通过拆分的方式来减少AI模型部署在移动端设备中的模型的计算量和内存开销,达到可以在移动端设备中部署AI模型的目的,同时由于向服务器传输的仅为第一子模型的处理结果,在较少传输的数据量的同时,保护了用户隐私,提高了用户体验。
下面结合图2所示的步骤详述本申请的实施例。
在步骤S202提供的技术方案中,移动端设备使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果。
上述AI处理模型用于对待处理数据执行目标处理,得到目标处理结果。待处理数据可以是待处理多媒体数据,可以包括但不限于:图像数据、视频数据、语音数据。上述目标处理包括但不限于:图像处理(图像去模糊、图像对象识别、图像美化、图像渲染、文字翻译)、语音处理(语音翻译、语音去噪)。得到目标处理结果可以包括但不限于:图像处理结果(图像去模糊的结果、对象识别的结果、图像美化的而结果、图像渲染的结果、文字翻译的结果),语音处理结果(语音去噪的结果、语音翻译的结果)。
AI处理模型可以包括第一子模型和第二子模型,第一子模型对应于AI处理模型的M个神经网络层,第二子模型包括AI处理模型的K个神经网络层,其中,M、K均为大于或者等于1的正整数。第一子模型可以部署在移动端设备,第二子模型可以部署在第一服务器中(云端服务器)。
在部署AI处理模型之前,可以首先对初始AI模型进行训练,得到包括N个神经网络层的AI处理模型。
可选地,可以使用训练数据(可以是多媒体数据,例如,图像数据、视频数据、语音数据等)初始AI模型进行训练,得到AI处理模型(高精度的AI模型)。具体的训练过程可以结合相关技术,本实施例中对此不作赘述。
在得到AI处理模型之后,可以从AI处理模型中拆分出两个计算段,其中,拆出的M个神经网络层为第一计算段,拆出的K个神经网络层为第二计算段,其中,N大于或者等于M与K的和。
由于仅包含了高精度AI模型的部分神经网络层,第一计算段的计算量和内存开销可以控制在移动端设备可承受的范围内。因而拆分出的第一计算段可作为第一子模型直接部署到移动端设备中。
为了进一步控制第一计算段的计算量和内存开销,可以采用模型压缩算法(例如,蒸馏法)对第一计算段中包含的神经网络层进行压缩,得到第一子模型。
可选地,在使用AI模型的第一子模型对待处理数据进行处理之前,移动端设备接收第二服务器发送的第一子模型,其中,第二服务器用于使用目标压缩算法对上述M个神经网络层进行压缩,得到第一子模型,其中,目标压缩算法用于对神经网络进行压缩。
第二服务器可以使用用于对神经网络进行压缩的目标压缩算法(模型压缩算法)对第一计算段中包含的M个神经网络层进行压缩,得到第一子模型。
通过对M个神经网络层进行模型压缩,可以进一步减少第一计算段的计算量和内存开销,同时可以减少使用过程中向第一服务器传输的数据量,降低对移动端设备的资源消耗,提高用户体验。
可选地,第二子模型用于补偿AI处理模型由于对M个神经网络层进行压缩所损失的处理精度。
在对第一计算段进行模型压缩之后,为了保证整个AI处理模型的精度,可以对第二计算段中包含的神经网络层进行训练,调整第二计算段中包含的神经网络层的参数信息,以补偿由于对第一计算段进行模型压缩而造成的精度损失。
可选地,在使用AI处理模型的第一子模型对待处理数据进行处理之前,第二服务器可以使用目标压缩算法,对M个神经网络层进行压缩,得到第一子模型;获取第一子模型对训练对象执行第一处理得到的第一处理结果;对K个神经网络层进行训练,得到第二子模型,其中,K个神经网络层的输入为第一处理结果,训练的约束条件为:第二子模型的输出结果与第二处理结果的处理精度差值小于或等于目标阈值,其中,第二处理结果为使用AI处理模型(未进行过模型压缩时的AI处理模型)对训练对象进行处理得到的处理结果。
在对第二计算段中包含的神经网络层进行训练时,可以以第一子模型的输出作为第二计算段的输入,结合AI处理模型(未进行模型压缩)对训练数据的处理结果,使用模型训练算法对第二计算段中包含的神经网络层,训练出一个不损失最终精度的网络识别层(第二子模型)。
在第二服务器模型训练完成,得到第一子模型和第二子模型之后,可以将第一子模型部署到移动端设备,将第二子模型部署到第一服务器(云端处理器)。
例如,为了在移动端设别中直接部署高精度的R-FCN大模型(其基础模型采用ResNet-101),如图4所示,将其拆分为2段,云段计算部分(第二计算段)和移动端计算部分(第一计算段),移动端设备只部署压缩的前3层网络,除了前3层以外的网络部署在云端(这种情况下,N等于M与K的和)。
在对网络进行压缩时,可以采用蒸馏法训练前3层网络,得到压缩网络(第一子模型),并将其部署移动端设备。图5展示了训练网络压缩层一种方法,基于这个损失函数可以蒸馏出,最接近原始ResNet-101前3层的输出结果。
对于云端计算部分,可以利用压缩网络的输出作为输入,利用迁移学习的方法,训练出一个不损失最终精度的网络识别层(第二子模型),部署到云端(例如,第一服务器)。
在将第一子模型部署到移动端设备之后,移动端设备可以通过获取待处理数据,上述待处理数据可以是实时获取的数据,也可以是非实时获取的数据,获取的待处理数据的方式可以有多种。
作为一种可选的实施方式,待处理数据可以是移动端设备从其他设备(其他移动端设备、终端设备、服务器设备等)中接收到的。
作为另一种可选的实施方式,待处理数据可以是移动端设备通过自身的数据采集部件获取到的。上述数据采集部件可以但不限于:传感器(例如,摄像头),麦克风等。
可选地,在使用AI处理模型中的第一子模型对待处理数据执行第一处理之前,通过移动端设备的目标传感器获取待处理数据。
在获取到待处理数据之后,移动端设备可以使用第一子模型对待处理数据执行第一处理,得到中间处理结果。
对于不同类型的待处理数据,可以采用不同的AI处理模型进行处理。对于同一待处理数据,可以采用一种或多个AI处理模型进行处理。
可选地,在待处理数据为待处理图像的情况下,AI处理模型为AI识别模型,用于识别待处理图像中包含的目标对象,第一子模型执行的第一处理为第一识别处理。
使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果可以包括:使用第一子模型对待处理图像执行第一识别处理,得到中间识别结果。
可选地,在待处理数据为待处理图像的情况下,AI处理模型为AI去模糊模型,用于对待处理图像进行去模糊处理,得到去模糊结果的处理结果,第一子模型执行的第一处理为第一去模糊处理。
使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果可以包括:使用第一子模型对待处理图像执行第一去模糊处理,得到中间去模糊结果。
可选地,在待处理数据为待翻译数据(可以是语音,也可以是图片或其他需要进行翻译的数据)的情况下,AI处理模型为AI翻译模型,用于将待翻译数据中包含的使用第一语言的第一语言数据,翻译为使用第二语言的第二语言数据,第一子模型执行的第一处理为第一翻译处理。
使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果可以包括:使用第一子模型对待翻译数据执行第一翻译处理,得到中间翻译结果。
在步骤S204提供的技术方案中,将中间处理结果发送给第一服务器。
上述发送可以是通过移动端设备的移动网络进行的,也可以是移动端设备通过其他无线网络进行的。由于发送的是第一子网络的处理结果(计算结果),数据大小一般远小于原始待处理数据的大小,同时用户隐私方面也得到保证。
第一服务器接收到中间处理结果之后,可以使用部署的第二子模型对中间处理结果执行第二处理,得到目标处理结果。
对于不同类型的待处理数据,可以采用不同的AI处理模型的第二子模型对于中间处理结果进行处理。对于同一待处理数据,可以采用一种或多个AI处理模型的第二子模型对于中间处理结果进行处理。
可选地,在待处理数据为待处理图像的情况下,第二处理为第二识别处理,目标识别结果用于指示待处理图像中的目标对象。
第一服务器使用第二子模型对中间识别结果执行第二识别处理得到,得到待处理图像中的目标对象的识别结果。
可选地,在待处理数据为待处理图像的情况下,第二处理为第二去模糊处理,目标识别结果用于指示待处理图像的去模糊结果。
第一服务器使用第二子模型对中间去模糊结果执行第二去模糊处理,得到待处理图像中的目标去模糊结果。
可选地,在待处理数据为待翻译数据的情况下,第二处理为第二翻译处理,目标识别结果为包含第二语言数据的目标翻译结果。
第一服务器使用第二子模型对中间翻译结果执行第二翻译处理,得到包含第二语言数据的目标翻译结果。
在得到目标处理结果之后,第一服务器将目标翻译结果发送给移动端设备。
在步骤S206提供的技术方案中,移动端设备接收第一服务器返回的目标处理结果。
在接收到第一服务器返回的目标处理结果之后,移动端设备可以在移动端设备上显示目标识别结果(待处理图像),或者,播放目标识别结果(待处理语音数据,例如,待翻译数据)。
下面结合具体示例进行说明。高精度AI模型可以应用到视频产品中,用于对视频产品的AI处理,可以包括但不限于:AI自动去模糊,AI图片自动识别等,例如,AI自动图片识别技术。常用的高精度大模型包括:R-CNN、SSD和YOLO等,识别效果如图6所示。
本示例中的对象识别方法采用AI模型分段计算的方式,将高精度AI模型的计算拆分为两段:移动端计算部分和云端计算部分。移动端计算部分对应于AI模型的前m层神经网络层(例如,前3层),部署在移动端(移动端设备,嵌入式设备,如,手机等)中。云端计算部分对应于AI模型的剩余部分(除前m层神经网络层以外的其他神经网络层),部署在云端(云集群,云计算中心,云服务器)。
在进行传感器数据处理时,在移动端设备上,通过移动端计算部分执行计算,获得中间结果,并通过连接移动端和云端的网络(例如,移动网络,无线网络等),将获得的中间结果发送给云端。云端接收移动端发送的中间结果,使用AI模型的剩余部分接力计算,并将最终处理结果发送给移动端。
通过上述分段计算的方式,可以减少移动端的计算量和内存开销,保证在移动端部署高精度AI模型的可行性。并且,将移动端计算部分的中间结果作为云端计算部分的输入,可以减少移动端的数据通讯量,同时保护用户的隐私,从而提高用户体验。
可选地,可以对AI模型进行局部压缩:对移动端计算部分进行模型压缩,作为AI模型的局部高压缩比部分(高压缩比计算段,即高压缩比神经网络层),而云端计算部分不进行压缩,作为AI模型的其他无压缩部分(高精度计算段,即高精度神经网络层)。
在进行传感器数据处理时,在移动端设备上,通过高压缩比神经网络层的计算,获得一个近似原始网络的第一层或者前几层的网络中间结果(高压缩比神经网络层的输出结果),并通过连接移动端和云端的网络,将中间结果发送给云端。
云端接收移动端的中间结果,使用AI模型的剩余部分接力计算,并将最终识别结果发送给移动端。
由于高压缩比神经网络层所描述的网络层次简单,可以大幅度压缩计算量,所损失的信息比全网络压缩要少很多。并且,通过高压缩比神经网络层的计算,可以获得一个近似原始网络的第一层或者前几层的输出结果,而上述输出结果的数据大小一般远小于原始传感器数据的大小(也小于无压缩时移动端计算部分的输出结果的数据大小),可以降低最终的传输数据量。同时,通过其他无压缩部分的计算,可以保持或者尽量保持AI模型的原有识别精度,从而提高用户体验。
对于对象识别的流程,如图7所示,本示例中的对象识别方法包括以下步骤:
步骤1,在移动端和云端部署AI模型。
在使用AI模型进行处理之前,可以对AI模型进行训练,得到移动端计算部分和云端计算部分,并将移动端计算部分部署到移动端,将云端计算部分部署到云端。
在对AI模型进行训练时,对于无压缩的AI模型,可以对原始模型进行训练,得到高精度AI模型。对于局部压缩的AI模型,在上述训练的基础上,可以用得到的高精度AI模型的中间数据作为标签,采用用于对模型进行压缩的第一算法(例如,蒸馏法)对AI模型的前n层(例如,前3层)神经网络层进行训练压缩,得到移动端计算部分;可以用移动端计算部分的输出结果作为输入,用高精度AI模型的中间数据和/最终数据作为标签,采用第二算法(例如,迁移学习)训练AI模型中除前n层(例如,前3层)以外的其他神经网络层,得到云端计算部分。
上述AI模型的局部压缩方式可以应用在所有移动端AI模型的部署中。
以目前精度较好的R-FCN大模型为例进行说明,该模型的基础模型采用ResNet-101。如图4所示,将ResNet-101拆分为2段:移动端计算部分和云端计算部分。
对于移动端计算部分,该部分可以为压缩网络。可以用高精度AI模型的中间数据作为标签,采用蒸馏法指导训练压缩AI模型的前3层神经网络层,得到一个高压缩比的神经网络层(移动端计算部分),最终部署到移动端。
图5示出了训练网络压缩层的一种方式。基于图5中示出的损失函数可以蒸馏出最接近原始ResNet-101的前3层的输出结果。
对于云端计算部分,该部分可以为高精度网络。可以采用迁移学习的方法(transfer learning)对AI模型中除了前3层神经网络层以外的神经网络层进行训练,得到云端计算部分。该高精度网络的输入为压缩网络的输出,训练过程可以参考高精度AI模型的输出结果(中间数据和/或最终数据),以得到一个不损失或者尽量不损失最终精度的网络识别层,最终部署到移动端。
在训练时,将高压缩比神经网络层的输出结果,作为高精度模型的剩余子模块的输入,再次训练该子模型,确保模型适应压缩后的输入变化,以达到原始AI模型的精度。
在进行AI模型部署时,上述训练过程可以是由特定的设备(目标设备)或者特定的服务器执行的,也可以由云端执行的。在压缩网络和高精度网络训练完成之后,可以通过得到的压缩网络和高精度网络发送至移动端和云端,分别进行网络部署。
步骤2,通过移动端设备的传感器获取传感器数据。
在AI模型部署完成之后,移动端设备可以通过移动端设备的传感器获取传感器数据。上述传感器数据可以是任意通过传感器获取到的数据,可以包括但不限于:语音数据、图像数据或者其他数据。
步骤3,通过移动端设备的高压缩比的神经网络计算得到中间结果,并将中间结果发送给云计算中心。
在移动端设备中,使用AI模型的移动端计算部分(高压缩比的神经网络)对传感器数据进行计算,得到中间结果,并将中间结果通过网络发送给云计算中心。
步骤4,通过云计算中心的高精度的神经网络计算得到最终识别结果,并将最终识别结果发送给移动端设备。
通过本示例的上述技术方案,对高精度AI模型进行分段计算,将AI模型拆分为高压缩比计算段和高精度计算段,分别部署移动端和云端,接力计算完成一个高精度AI模型的计算任务,进一步地,采用对AI模型进行局部压缩的方式,利用高压缩比的神经网络替换高精度AI模型最开始的一层或者几层的子网络(而不是整个模型网络),完成第一层或者前几层的计算量,而不是同其他全网络压缩方法一样,以损失精度为代价,降低计算量,通过上述方式,可以使得用户在损失少量流量的情况下,可以借助云端,获取高精度的神经网络模型的体验,为移动端部署高精度AI模型提供了便利,扩大了对云端的计算需求。
通过上述步骤S202至步骤S206,终端侧设备使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数;将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;接收第一服务器返回的目标处理结果,解决了相关技术中存在由于模型压缩技术的模型压缩能力有限导致无法在移动端设备中部署AI模型的问题,达到了提高用户体验的效果。
作为一种可选的技术方案,在使用AI模型的第一子模型对待处理数据进行处理之前,上述方法还包括:
S1,接收第二服务器发送的第一子模型,其中,第二服务器用于使用目标压缩算法对M个神经网络层进行压缩,得到第一子模型,其中,目标压缩算法用于对神经网络进行压缩。
可选地,第二子模型用于补偿AI处理模型由于对M个神经网络层进行压缩所损失的处理精度。
可选地,在使用所述AI处理模型的所述第一子模型对待处理数据进行处理之前,上述方法还包括:
S1,第二服务器使用目标压缩算法,对M个神经网络层进行压缩,得到第一子模型;
S2,第二服务器获取第一子模型对训练对象执行第一处理得到的第一处理结果;
S3,第二服务器对K个神经网络层进行训练,得到第二子模型,其中,K个神经网络层的输入为第一处理结果,训练的约束条件为:第二子模型的输出结果与第二处理结果的处理精度差值小于或等于目标阈值,其中,第二处理结果为使用AI处理模型对训练对象进行处理得到的处理结果。
通过本实施例,使用目标压缩算法对M个神经网络层进行压缩,得到第一子模型,可以减少第一子模型的计算量和内存开销,以及移动端设备向第一服务器发送的中间处理结果所包含的数据量,提高用户体验。进一步地,通过对第一子模型和第二子模型进行训练,以通过第二子模型补偿由于第一子模型压缩所造成的精度损失,提高待处理数据的处理精度,进而提高用户体验。
作为一种可选的技术方案,
使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果包括:使用第一子模型对待处理图像执行第一识别处理,得到中间处理结果,其中,待处理数据为待处理图像,第一处理为第一识别处理,待处理图像中包含目标对象,AI处理模型用于识别待处理图像中的目标对象;
接收第一服务器返回的目标处理结果包括:接收第一服务器返回的目标识别结果,其中,目标处理结果为目标识别结果,目标识别结果由第一服务器使用第二子模型对中间识别结果执行第二识别处理得到,第二处理为第二识别处理,目标识别结果用于指示待处理图像中的目标对象。
作为另一种可选的技术方案,
使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果包括:使用第一子模型对待处理图像执行第一去模糊处理,得到中间处理结果,其中,待处理数据为待处理图像,第一处理为第一去模糊处理,AI处理模型用于对待处理图像执行去模糊操作,得到目标去模糊结果;
接收第一服务器返回的目标处理结果包括:接收第一服务器返回的目标去模糊结果,其中,目标处理结果为目标去模糊结果,目标去模糊结果由第一服务器使用第二子模型对中间去模糊结果执行第二去模糊处理得到,第二处理为第二去模糊处理。
作为又一种可选的技术方案,
使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果包括:使用第一子模型对待翻译数据执行第一翻译处理,得到中间翻译结果,其中,待处理数据为待翻译数据,第一处理为第一翻译处理,AI处理模型用于将待翻译数据中包含的使用第一语言的第一语言数据,翻译为使用第二语言的第二语言数据;
接收第一服务器返回的目标处理结果包括:接收第一服务器返回的目标翻译结果,其中,目标处理结果为目标翻译结果,目标翻译结果由第一服务器使用第二子模型对中间翻译结果执行第二翻译处理得到,第二处理为第二翻译处理,目标翻译结果中包含第二语言数据。
通过本实施例,对于不同类型的待处理数据执行一种或多种不同的处理(例如,对象识别、图像去模糊、数据翻译),满足用户不同的需求,提高终端业务处理的能力,提高用户体验。
作为一种可选的技术方案,在使用AI处理模型中的第一子模型对待处理数据执行第一处理之前,上述方法还包括:
S1,通过移动端设备的目标传感器获取待处理数据。
通过本实施例,通过移动端设备的目标传感器获取待处理数据,可以实现对待处理数据的实时处理,适应不同的应用需求,提高用户体验。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本申请实施例,还提供了一种用于实施上述数据处理方法的数据处理装置。图8是根据本申请实施例的一种可选的数据处理装置的示意图,如图8所示,该装置可以包括:
(1)处理单元82,用于使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K各神经网络层,M、K为大于或者等于1的正整数;
(2)发送单元84,用于将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;
(3)第一接收单元86,用于接收第一服务器返回的目标处理结果。
上述数据处理装置可以但不限于应用于移动端设备通过传感器(例如,移动终端的摄像头)获取待处理数据的过程中。
需要说明的是,该实施例中的处理单元82可以用于执行本申请实施例中的步骤S202,该实施例中的发送单元84可以用于执行本申请实施例中的步骤S204,该实施例中的第一接收单元86可以用于执行本申请实施例中的步骤S206。
通过本申请提供的实施例,终端侧设备使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数;将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;接收第一服务器返回的目标处理结果,解决了相关技术中存在由于模型压缩技术的模型压缩能力有限导致无法在移动端设备中部署AI模型的问题,达到了提高用户体验的效果。
作为一种可选的技术方案,上述装置还包括:
第二接收单元,用于在使用AI模型的第一子模型对待处理数据进行处理之前,接收第二服务器发送的第一子模型,其中,第二服务器用于使用目标压缩算法对M个神经网络层进行压缩,得到第一子模型,其中,目标压缩算法用于对神经网络进行压缩。
通过本实施例,使用目标压缩算法对M个神经网络层进行压缩,得到第一子模型,可以减少第一子模型的计算量和内存开销,以及移动端设备向第一服务器发送的中间处理结果所包含的数据量,提高用户体验。
作为一种可选的技术方案,上述处理单元82包括:处理模块,第一接收单元86包括,接收模块,其中,
(1)处理模块,用于使用第一子模型对待处理图像执行第一识别处理,得到中间识别结果,其中,待处理数据为待处理图像,第一处理为第一识别处理,待处理图像中包含目标对象,AI处理模型用于识别待处理图像中的目标对象;
(2)接收模块,用于接收第一服务器返回的目标识别结果,其中,目标处理结果为目标识别结果,目标识别结果由第一服务器使用第二子模型对中间识别结果执行第二识别处理得到,第二处理为第二识别处理,目标识别结果用于指示待处理图像中的目标对象。
作为另一种可选的技术方案,上述处理单元82包括:第一处理模块,第一接收单元86包括,第一接收模块,其中,
(1)第一处理模块,用于使用第一子模型对待处理图像执行第一去模糊处理,得到中间去模糊结果,其中,待处理数据为待处理图像,第一处理为第一去模糊处理,AI处理模型用于对待处理图像执行去模糊操作,得到目标去模糊结果;
(2)第一接收模块,用于接收第一服务器返回的目标去模糊结果,其中,目标处理结果为目标去模糊结果,目标去模糊结果由第一服务器使用第二子模型对中间去模糊结果执行第二去模糊处理得到,第二处理为第二去模糊处理。
作为又一种可选的技术方案,上述处理单元82包括:第二处理模块,第一接收单元86包括,第二接收模块,其中,
(1)第二处理模块,用于使用第一子模型对待翻译数据执行第一翻译处理,得到中间翻译结果,其中,待处理数据为待翻译数据,第一处理为第一翻译处理,AI处理模型用于将待翻译数据中包含的使用第一语言的第一语言数据,翻译为使用第二语言的第二语言数据;
(2)第二接收模块,用于接收第一服务器返回的目标翻译结果,其中,目标处理结果为目标翻译结果,目标翻译结果由第一服务器使用第二子模型对中间翻译结果执行第二翻译处理得到,第二处理为第二翻译处理,目标翻译结果中包含第二语言数据。
通过本实施例,对于不同类型的待处理数据执行一种或多种不同的处理(例如,对象识别、图像去模糊、数据翻译),满足用户不同的需求,提高终端业务处理的能力,提高用户体验。
作为一种可选的技术方案,上述装置还包括:
获取单元,用于在使用AI处理模型中的第一子模型对待处理数据执行第一处理之前,通过移动端设备的目标传感器获取待处理数据。
通过本实施例,通过移动端设备的目标传感器获取待处理数据,可以实现对待处理数据的实时处理,适应不同的应用需求,提高用户体验。
根据本发明的实施例的又一方面,还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数;
S2,将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;
S3,接收第一服务器返回的目标处理结果。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取器(Random Access Memory,简称为RAM)、磁盘或光盘等。
根据本发明实施例的又一个方面,还提供了一种用于实施上述数据处理方法的电子装置,如图9所示,该电子装置包括:处理器902、存储器904、数据总线906和传输装置908等。上述各部件可以通过数据总线906或者其他用于数据传输的线进行连接。该存储器中存储有计算机程序,该处理器被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子装置可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,使用AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,AI处理模型用于对待处理数据执行目标处理,得到目标处理结果,AI处理模型包括第一子模型和第二子模型,第一子模型对应于M个神经网络层,第二子模型包括K个神经网络层,M、K为大于或者等于1的正整数;
S2,将中间处理结果发送给第一服务器,其中,第一服务器用于使用第二子模型对中间处理结果执行第二处理,得到目标处理结果,目标处理包括第一处理和第二处理;
S3,接收第一服务器返回的目标处理结果。
可选地,本领域普通技术人员可以理解,图9所示的结构仅为示意,电子装置也可以是智能设备、智能手机(如Android手机、ios手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,简称为MID)、PAD等终端设备。图9其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图9中所示更多或者更少的组件(如网络接口等),或者具有与图9所示不同的配置。
其中,存储器904可用于存储软件程序以及模块,如本发明实施例中的数据处理方法和装置对应的程序指令/模块,处理器902通过运行存储在存储器904内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述签名信息的传输方法。存储器904可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器904可进一步包括相对于处理器902远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置908用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置908包括一个网络适配器(NetworkInterface Controller,简称为NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置908为射频(RadioFrequency,简称为RF)模块或蓝牙,其用于通过无线方式与互联网进行通讯。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (15)
1.一种数据处理方法,其特征在于,包括:
使用人工智能AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,所述AI处理模型用于对所述待处理数据执行目标处理,得到目标处理结果,所述AI处理模型包括所述第一子模型和第二子模型,所述第一子模型对应于M个神经网络层,所述第二子模型包括K个神经网络层,所述M、K为大于或者等于1的正整数;
将所述中间处理结果发送给第一服务器,其中,所述第一服务器用于使用所述第二子模型对所述中间处理结果执行第二处理,得到所述目标处理结果,所述目标处理包括所述第一处理和所述第二处理;
接收所述第一服务器返回的所述目标处理结果。
2.根据权利要求1所述的方法,其特征在于,在使用所述AI处理模型的所述第一子模型对所述待处理数据进行处理之前,所述方法还包括:
接收第二服务器发送的所述第一子模型,其中,所述第二服务器用于使用目标压缩算法对所述M个神经网络层进行压缩,得到所述第一子模型,所述目标压缩算法用于对神经网络进行压缩。
3.根据权利要求2所述的方法,其特征在于,所述第二子模型用于补偿所述AI处理模型由于对所述M个神经网络层进行压缩所损失的处理精度。
4.根据权利要求2所述的方法,其特征在于,在使用所述AI处理模型的所述第一子模型对待处理数据进行处理之前,所述方法还包括:
使用所述目标压缩算法,对所述M个神经网络层进行压缩,得到所述第一子模型;
获取所述第一子模型对训练对象执行所述第一处理得到的第一处理结果;
对所述K个神经网络层进行训练,得到所述第二子模型,其中,所述K个神经网络层的输入为所述第一处理结果,训练的约束条件为:所述第二子模型的输出结果与所述第二处理结果的处理精度差值小于或等于目标阈值,其中,所述第二处理结果为使用AI处理模型对所述训练对象进行处理得到的处理结果。
5.根据权利要求1所述的方法,其特征在于,
使用所述AI处理模型中的所述第一子模型对所述待处理数据执行第一处理,得到中间处理结果包括:使用所述第一子模型对待处理图像执行第一识别处理,得到中间识别结果,其中,所述待处理数据为所述待处理图像,所述第一处理为所述第一识别处理,所述待处理图像中包含目标对象,所述AI处理模型用于识别所述待处理图像中的所述目标对象;
接收所述第一服务器返回的所述目标处理结果包括:接收所述第一服务器返回的目标识别结果,其中,所述目标处理结果为所述目标识别结果,所述目标识别结果由所述第一服务器使用所述第二子模型对所述中间识别结果执行第二识别处理得到,所述第二处理为所述第二识别处理,所述目标识别结果用于指示所述待处理图像中的所述目标对象。
6.根据权利要求1所述的方法,其特征在于,
使用所述AI处理模型中的所述第一子模型对所述待处理数据执行第一处理,得到中间处理结果包括:使用所述第一子模型对待处理图像执行第一去模糊处理,得到中间去模糊结果,其中,所述待处理数据为所述待处理图像,所述第一处理为所述第一去模糊处理,所述AI处理模型用于对所述待处理图像执行去模糊操作,得到目标去模糊结果;
接收所述第一服务器返回的所述目标处理结果包括:接收所述第一服务器返回的所述目标去模糊结果,其中,所述目标处理结果为所述目标去模糊结果,所述目标去模糊结果由所述第一服务器使用所述第二子模型对所述中间去模糊结果执行第二去模糊处理得到,所述第二处理为所述第二去模糊处理。
7.根据权利要求1所述的方法,其特征在于,
使用所述AI处理模型中的所述第一子模型对所述待处理数据执行第一处理,得到中间处理结果包括:使用所述第一子模型对待翻译数据执行第一翻译处理,得到中间翻译结果,其中,所述待处理数据为所述待翻译数据,所述第一处理为所述第一翻译处理,所述AI处理模型用于将所述待翻译数据中包含的使用第一语言的第一语言数据,翻译为使用第二语言的第二语言数据;
接收所述第一服务器返回的所述目标处理结果包括:接收所述第一服务器返回的目标翻译结果,其中,所述目标处理结果为所述目标翻译结果,所述目标翻译结果由所述第一服务器使用所述第二子模型对所述中间翻译结果执行第二翻译处理得到,所述第二处理为所述第二翻译处理,所述目标翻译结果中包含所述第二语言数据。
8.根据权利要求1所述的方法,其特征在于,在使用所述AI处理模型中的所述第一子模型对所述待处理数据执行所述第一处理之前,所述方法还包括:
通过移动端设备的目标传感器获取所述待处理数据。
9.根据权利要求1至8中任一项所述的方法,其特征在于,所述第一子模型部署在移动端设备上,所述第一服务器为云端服务器。
10.一种数据处理装置,其特征在于,包括:
处理单元,用于使用人工智能AI处理模型中的第一子模型对待处理数据执行第一处理,得到中间处理结果,其中,所述AI处理模型用于对所述待处理数据执行目标处理,得到目标处理结果,所述AI处理模型包括所述第一子模型和第二子模型,所述第一子模型对应于M个神经网络层,所述第二子模型包括K个神经网络层,所述M、K为大于或者等于1的正整数;
发送单元,用于将所述中间处理结果发送给第一服务器,其中,所述第一服务器用于使用所述第二子模型对所述中间处理结果执行第二处理,得到所述目标处理结果,所述目标处理包括所述第一处理和所述第二处理;
第一接收单元,用于接收所述第一服务器返回的所述目标处理结果。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
第二接收单元,用于接收第二服务器发送的所述第一子模型,其中,所述第二服务器用于使用目标压缩算法对所述M个神经网络层进行压缩,得到所述第一子模型,其中,所述目标压缩算法用于对神经网络进行压缩。
12.根据权利要求10所述的装置,其特征在于,
所述处理单元包括:处理模块,用于使用所述第一子模型对待处理图像执行第一识别处理,得到中间识别结果,其中,所述待处理数据为所述待处理图像,所述第一处理为所述第一识别处理,所述待处理图像中包含目标对象,所述AI处理模型用于识别所述待处理图像中的所述目标对象;
所述第一接收单元包括,接收模块,用于接收所述第一服务器返回的目标识别结果,其中,所述目标处理结果为所述目标识别结果,所述目标识别结果由所述第一服务器使用所述第二子模型对所述中间识别结果执行第二识别处理得到,所述第二处理为所述第二识别处理,所述目标识别结果用于指示所述待处理图像中的所述目标对象。
13.根据权利要求10至12中任一项所述的装置,其特征在于,所述装置还包括:
获取单元,用于在使用所述AI处理模型中的所述第一子模型对所述待处理数据执行所述第一处理之前,通过移动端设备的目标传感器获取所述待处理数据。
14.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至8任一项中所述的方法。
15.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至8任一项中所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811545184.4A CN109685202B (zh) | 2018-12-17 | 2018-12-17 | 数据处理方法及装置、存储介质和电子装置 |
PCT/CN2019/115082 WO2020125236A1 (zh) | 2018-12-17 | 2019-11-01 | 数据处理方法及装置、存储介质和电子装置 |
EP19898280.3A EP3901829A4 (en) | 2018-12-17 | 2019-11-01 | DATA PROCESSING METHOD AND DEVICE, STORAGE MEDIA AND ELECTRONIC DEVICE |
US17/083,607 US11689607B2 (en) | 2018-12-17 | 2020-10-29 | Data processing method and apparatus, storage medium, and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811545184.4A CN109685202B (zh) | 2018-12-17 | 2018-12-17 | 数据处理方法及装置、存储介质和电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109685202A true CN109685202A (zh) | 2019-04-26 |
CN109685202B CN109685202B (zh) | 2023-03-21 |
Family
ID=66186259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811545184.4A Active CN109685202B (zh) | 2018-12-17 | 2018-12-17 | 数据处理方法及装置、存储介质和电子装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11689607B2 (zh) |
EP (1) | EP3901829A4 (zh) |
CN (1) | CN109685202B (zh) |
WO (1) | WO2020125236A1 (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110955915A (zh) * | 2019-12-14 | 2020-04-03 | 支付宝(杭州)信息技术有限公司 | 一种隐私数据的处理方法及装置 |
CN111049836A (zh) * | 2019-12-16 | 2020-04-21 | 北京澎思科技有限公司 | 数据处理方法、电子设备及计算机可读存储介质 |
CN111091182A (zh) * | 2019-12-16 | 2020-05-01 | 北京澎思科技有限公司 | 数据处理方法、电子设备及存储介质 |
CN111125760A (zh) * | 2019-12-20 | 2020-05-08 | 支付宝(杭州)信息技术有限公司 | 保护数据隐私的模型训练、预测方法及其系统 |
CN111260053A (zh) * | 2020-01-13 | 2020-06-09 | 支付宝(杭州)信息技术有限公司 | 使用可信执行环境来进行神经网络模型训练的方法和装置 |
WO2020125236A1 (zh) * | 2018-12-17 | 2020-06-25 | 腾讯科技(深圳)有限公司 | 数据处理方法及装置、存储介质和电子装置 |
CN111522278A (zh) * | 2020-05-22 | 2020-08-11 | 江苏中岚智能科技有限公司 | 一种集成数据采集控制传输功能的实时性系统 |
CN111709516A (zh) * | 2020-06-09 | 2020-09-25 | 深圳先进技术研究院 | 神经网络模型的压缩方法及压缩装置、存储介质、设备 |
CN112487440A (zh) * | 2019-09-11 | 2021-03-12 | 百度(美国)有限责任公司 | 用于数据处理(dp)加速器的使用模糊处理的数据传输 |
CN112905189A (zh) * | 2021-02-24 | 2021-06-04 | 嘉楠明芯(北京)科技有限公司 | 模型翻译方法、装置及计算机可读存储介质 |
WO2022001126A1 (zh) * | 2020-06-30 | 2022-01-06 | 浪潮(北京)电子信息产业有限公司 | 一种基于fpga的神经网络运算方法、装置及设备 |
CN114168251A (zh) * | 2022-02-14 | 2022-03-11 | 龙旗电子(惠州)有限公司 | 语言切换方法、装置、设备、计算机可读存储介质及产品 |
WO2022142478A1 (zh) * | 2020-12-31 | 2022-07-07 | 深圳大普微电子科技有限公司 | 一种模型计算方法及系统 |
WO2023036323A1 (zh) * | 2021-09-10 | 2023-03-16 | 华为技术有限公司 | 一种通信方法及装置 |
WO2023065656A1 (zh) * | 2021-10-20 | 2023-04-27 | 华为云计算技术有限公司 | 模型推理方法、云平台、设备和存储介质 |
WO2023143080A1 (zh) * | 2022-01-30 | 2023-08-03 | 华为技术有限公司 | 一种数据处理方法以及相关设备 |
US11963020B2 (en) | 2020-09-03 | 2024-04-16 | Samsung Electronics Co., Ltd. | Methods and wireless communication networks for handling data driven model |
WO2024082195A1 (zh) * | 2022-10-19 | 2024-04-25 | 北京小米移动软件有限公司 | 一种基于ai模型的终端定位方法及装置 |
CN112905189B (zh) * | 2021-02-24 | 2024-06-25 | 嘉楠明芯(北京)科技有限公司 | 模型翻译方法、装置及计算机可读存储介质 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
US11704125B2 (en) | 2018-02-13 | 2023-07-18 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
EP3651078B1 (en) | 2018-02-13 | 2021-10-27 | Shanghai Cambricon Information Technology Co., Ltd | Computation device and method |
CN116991226A (zh) * | 2018-02-14 | 2023-11-03 | 上海寒武纪信息科技有限公司 | 处理器的控制装置、方法及设备 |
EP3624020A4 (en) | 2018-05-18 | 2021-05-05 | Shanghai Cambricon Information Technology Co., Ltd | CALCULATION PROCEDURES AND RELATED PRODUCTS |
EP3825841A1 (en) | 2018-06-27 | 2021-05-26 | Shanghai Cambricon Information Technology Co., Ltd | Method and device for parallel computation of a network model |
EP3757896B1 (en) | 2018-08-28 | 2023-01-11 | Cambricon Technologies Corporation Limited | Method and device for pre-processing data in a neural network |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
CN111383637A (zh) | 2018-12-28 | 2020-07-07 | 上海寒武纪信息科技有限公司 | 信号处理装置、信号处理方法及相关产品 |
US11934940B2 (en) | 2019-04-18 | 2024-03-19 | Cambricon Technologies Corporation Limited | AI processor simulation |
CN111832737B (zh) | 2019-04-18 | 2024-01-09 | 中科寒武纪科技股份有限公司 | 一种数据处理方法及相关产品 |
CN112085192B (zh) | 2019-06-12 | 2024-03-29 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US12001955B2 (en) | 2019-08-23 | 2024-06-04 | Anhui Cambricon Information Technology Co., Ltd. | Data processing method, device, computer equipment and storage medium |
CN111753761B (zh) * | 2020-06-28 | 2024-04-09 | 北京百度网讯科技有限公司 | 模型生成方法、装置、电子设备及存储介质 |
JP2023105469A (ja) * | 2022-01-19 | 2023-07-31 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理システム、コンピュータ読み取り可能な記録媒体及び情報処理方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933463A (zh) * | 2015-07-07 | 2015-09-23 | 杭州朗和科技有限公司 | 深度神经网络模型的训练方法和设备 |
CN107909147A (zh) * | 2017-11-16 | 2018-04-13 | 深圳市华尊科技股份有限公司 | 一种数据处理方法及装置 |
CN108012121A (zh) * | 2017-12-14 | 2018-05-08 | 安徽大学 | 一种边缘计算和云计算融合的实时视频监控方法及系统 |
CN108629772A (zh) * | 2018-05-08 | 2018-10-09 | 上海商汤智能科技有限公司 | 图像处理方法及装置、计算机设备和计算机存储介质 |
US20180332116A1 (en) * | 2017-05-09 | 2018-11-15 | Microsoft Technology Licensing, Llc | Hierarchical split of application between cloud and edge |
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN108875899A (zh) * | 2018-02-07 | 2018-11-23 | 北京旷视科技有限公司 | 用于神经网络的数据处理方法、装置和系统及存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8463025B2 (en) * | 2011-04-26 | 2013-06-11 | Nec Laboratories America, Inc. | Distributed artificial intelligence services on a cell phone |
US10452971B2 (en) * | 2015-06-29 | 2019-10-22 | Microsoft Technology Licensing, Llc | Deep neural network partitioning on servers |
US11715009B2 (en) * | 2016-05-20 | 2023-08-01 | Deepmind Technologies Limited | Training neural networks using synthetic gradients |
CN107145946A (zh) * | 2017-03-17 | 2017-09-08 | 华南理工大学 | 一种在不同神经网络结构间进行知识迁移的方法 |
CN107025440A (zh) | 2017-03-27 | 2017-08-08 | 北京航空航天大学 | 一种基于新型卷积神经网络的遥感图像道路提取方法 |
CN110809771B (zh) * | 2017-07-06 | 2024-05-28 | 谷歌有限责任公司 | 用于机器学习模型的压缩和分发的系统和方法 |
US10652565B1 (en) * | 2017-10-12 | 2020-05-12 | Amazon Technologies, Inc. | Image compression and decompression using embeddings |
CN109993298B (zh) * | 2017-12-29 | 2023-08-08 | 百度在线网络技术(北京)有限公司 | 用于压缩神经网络的方法和装置 |
CN108564552A (zh) * | 2018-04-28 | 2018-09-21 | 深圳市商汤科技有限公司 | 图像去模糊的方法及装置 |
WO2020005471A1 (en) * | 2018-06-29 | 2020-01-02 | D5Ai Llc | Using back propagation computation as data |
KR102606287B1 (ko) * | 2018-09-19 | 2023-11-27 | 삼성전자주식회사 | 애플리케이션의 번역 정보를 제공하는 디바이스 및 방법 |
CN109685202B (zh) * | 2018-12-17 | 2023-03-21 | 腾讯科技(深圳)有限公司 | 数据处理方法及装置、存储介质和电子装置 |
-
2018
- 2018-12-17 CN CN201811545184.4A patent/CN109685202B/zh active Active
-
2019
- 2019-11-01 EP EP19898280.3A patent/EP3901829A4/en active Pending
- 2019-11-01 WO PCT/CN2019/115082 patent/WO2020125236A1/zh unknown
-
2020
- 2020-10-29 US US17/083,607 patent/US11689607B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933463A (zh) * | 2015-07-07 | 2015-09-23 | 杭州朗和科技有限公司 | 深度神经网络模型的训练方法和设备 |
US20180332116A1 (en) * | 2017-05-09 | 2018-11-15 | Microsoft Technology Licensing, Llc | Hierarchical split of application between cloud and edge |
CN107909147A (zh) * | 2017-11-16 | 2018-04-13 | 深圳市华尊科技股份有限公司 | 一种数据处理方法及装置 |
CN108012121A (zh) * | 2017-12-14 | 2018-05-08 | 安徽大学 | 一种边缘计算和云计算融合的实时视频监控方法及系统 |
CN108875899A (zh) * | 2018-02-07 | 2018-11-23 | 北京旷视科技有限公司 | 用于神经网络的数据处理方法、装置和系统及存储介质 |
CN108629772A (zh) * | 2018-05-08 | 2018-10-09 | 上海商汤智能科技有限公司 | 图像处理方法及装置、计算机设备和计算机存储介质 |
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
Non-Patent Citations (4)
Title |
---|
GUANGLI LI等: "Auto-tuning Neural Network Quantization Framework for Collaborative Inference Between the Cloud and Edge", 《LECTURE NOTES IN COMPUTER SCIENCE》 * |
YIPING KANG等: "Neurosurgeon: Collaborative Intelligence Between the Cloud and Mobile Edge", 《ASPLOS "17: PROCEEDINGS OF THE TWENTY-SECOND INTERNATIONAL CONFERENCE ON ARCHITECTURAL SUPPORT FOR PROGRAMMING LANGUAGES AND OPERATING SYSTEMS》 * |
蔡汉明等: "基于SSD网络模型的多目标检测算法", 《机电工程》 * |
陈衡等: "基于网络理论的数据压缩方法研究", 《通化师范学院学报》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11689607B2 (en) | 2018-12-17 | 2023-06-27 | Tencent Technology (Shenzhen) Company Limited | Data processing method and apparatus, storage medium, and electronic device |
WO2020125236A1 (zh) * | 2018-12-17 | 2020-06-25 | 腾讯科技(深圳)有限公司 | 数据处理方法及装置、存储介质和电子装置 |
CN112487440A (zh) * | 2019-09-11 | 2021-03-12 | 百度(美国)有限责任公司 | 用于数据处理(dp)加速器的使用模糊处理的数据传输 |
CN110955915A (zh) * | 2019-12-14 | 2020-04-03 | 支付宝(杭州)信息技术有限公司 | 一种隐私数据的处理方法及装置 |
CN111049836A (zh) * | 2019-12-16 | 2020-04-21 | 北京澎思科技有限公司 | 数据处理方法、电子设备及计算机可读存储介质 |
CN111091182A (zh) * | 2019-12-16 | 2020-05-01 | 北京澎思科技有限公司 | 数据处理方法、电子设备及存储介质 |
CN111125760A (zh) * | 2019-12-20 | 2020-05-08 | 支付宝(杭州)信息技术有限公司 | 保护数据隐私的模型训练、预测方法及其系统 |
CN111125760B (zh) * | 2019-12-20 | 2022-02-15 | 支付宝(杭州)信息技术有限公司 | 保护数据隐私的模型训练、预测方法及其系统 |
CN111260053A (zh) * | 2020-01-13 | 2020-06-09 | 支付宝(杭州)信息技术有限公司 | 使用可信执行环境来进行神经网络模型训练的方法和装置 |
CN111522278A (zh) * | 2020-05-22 | 2020-08-11 | 江苏中岚智能科技有限公司 | 一种集成数据采集控制传输功能的实时性系统 |
CN111709516A (zh) * | 2020-06-09 | 2020-09-25 | 深圳先进技术研究院 | 神经网络模型的压缩方法及压缩装置、存储介质、设备 |
CN111709516B (zh) * | 2020-06-09 | 2023-07-28 | 深圳先进技术研究院 | 神经网络模型的压缩方法及压缩装置、存储介质、设备 |
WO2022001126A1 (zh) * | 2020-06-30 | 2022-01-06 | 浪潮(北京)电子信息产业有限公司 | 一种基于fpga的神经网络运算方法、装置及设备 |
US11963020B2 (en) | 2020-09-03 | 2024-04-16 | Samsung Electronics Co., Ltd. | Methods and wireless communication networks for handling data driven model |
WO2022142478A1 (zh) * | 2020-12-31 | 2022-07-07 | 深圳大普微电子科技有限公司 | 一种模型计算方法及系统 |
CN112905189A (zh) * | 2021-02-24 | 2021-06-04 | 嘉楠明芯(北京)科技有限公司 | 模型翻译方法、装置及计算机可读存储介质 |
CN112905189B (zh) * | 2021-02-24 | 2024-06-25 | 嘉楠明芯(北京)科技有限公司 | 模型翻译方法、装置及计算机可读存储介质 |
WO2023036323A1 (zh) * | 2021-09-10 | 2023-03-16 | 华为技术有限公司 | 一种通信方法及装置 |
WO2023065656A1 (zh) * | 2021-10-20 | 2023-04-27 | 华为云计算技术有限公司 | 模型推理方法、云平台、设备和存储介质 |
WO2023143080A1 (zh) * | 2022-01-30 | 2023-08-03 | 华为技术有限公司 | 一种数据处理方法以及相关设备 |
CN114168251A (zh) * | 2022-02-14 | 2022-03-11 | 龙旗电子(惠州)有限公司 | 语言切换方法、装置、设备、计算机可读存储介质及产品 |
WO2024082195A1 (zh) * | 2022-10-19 | 2024-04-25 | 北京小米移动软件有限公司 | 一种基于ai模型的终端定位方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3901829A4 (en) | 2022-03-23 |
US20210042889A1 (en) | 2021-02-11 |
CN109685202B (zh) | 2023-03-21 |
WO2020125236A1 (zh) | 2020-06-25 |
US11689607B2 (en) | 2023-06-27 |
EP3901829A1 (en) | 2021-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685202A (zh) | 数据处理方法及装置、存储介质和电子装置 | |
US11809955B2 (en) | Processing images using deep neural networks | |
CN112418392A (zh) | 一种神经网络构建方法以及装置 | |
CN115357748A (zh) | 头戴式装置 | |
CN113065635A (zh) | 一种模型的训练方法、图像增强方法及设备 | |
CN113516227B (zh) | 一种基于联邦学习的神经网络训练方法及设备 | |
CN107563357A (zh) | 基于场景分割的直播服饰装扮推荐方法、装置及计算设备 | |
CN110251942A (zh) | 控制游戏场景中虚拟角色的方法及装置 | |
CN115081588A (zh) | 一种神经网络参数量化方法和装置 | |
CN107590811A (zh) | 基于场景分割的风景图像处理方法、装置及计算设备 | |
CN110149551A (zh) | 媒体文件播放方法和装置、存储介质及电子装置 | |
CN107644423A (zh) | 基于场景分割的视频数据实时处理方法、装置及计算设备 | |
CN114282678A (zh) | 一种机器学习模型的训练的方法以及相关设备 | |
CN111357051A (zh) | 语音情感识别方法、智能装置和计算机可读存储介质 | |
CN113536970A (zh) | 一种视频分类模型的训练方法及相关装置 | |
CN112446462B (zh) | 目标神经网络模型的生成方法和装置 | |
CN110166759A (zh) | 图像的处理方法和装置、存储介质、电子装置 | |
CN113627421A (zh) | 一种图像处理方法、模型的训练方法以及相关设备 | |
CN111382839B (zh) | 剪枝神经网络的方法和装置 | |
CN115113855B (zh) | 音频数据处理方法、装置、电子设备、存储介质和产品 | |
CN112532251A (zh) | 一种数据处理的方法及设备 | |
CN115983362A (zh) | 一种量化方法、推荐方法以及装置 | |
CN116974584A (zh) | 模型部署方法、装置、设备及存储介质 | |
CN107622498A (zh) | 基于场景分割的图像穿越处理方法、装置及计算设备 | |
CN115712828A (zh) | 一种图像分类方法及其相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |