CN116028482A - 数据处理的方法、电子设备和计算机程序产品 - Google Patents
数据处理的方法、电子设备和计算机程序产品 Download PDFInfo
- Publication number
- CN116028482A CN116028482A CN202111235817.3A CN202111235817A CN116028482A CN 116028482 A CN116028482 A CN 116028482A CN 202111235817 A CN202111235817 A CN 202111235817A CN 116028482 A CN116028482 A CN 116028482A
- Authority
- CN
- China
- Prior art keywords
- data
- distillation
- model
- training
- additional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开的实施例提供了一种数据处理的方法、电子设备和计算机程序产品。在此描述的方法包括在边缘设备处接收用于训练模型的新数据,边缘设备已经存储有用于代表历史数据来训练模型的蒸馏数据,历史数据被存储在远程设备中并且历史数据的量大于蒸馏数据的量。方法还包括基于新数据和蒸馏数据来训练模型。利用本申请的数据处理的方案,能够在具有较少存储资源的边缘设备处基于蒸馏数据来训练模型,从而实现较高的模型准确性。
Description
技术领域
本公开的实施例涉及数据处理领域,并且具体地,涉及数据处理的方法、电子设备和计算机程序产品。
背景技术
诸如自动驾驶等人工智能产业依赖于海量的数据。诸如自动驾驶汽车之类的终端设备每天都产生大量的数据。这些数据可以用于训练机器学习模型以实现各种人工智能应用。这些数据也需要被存储以供审计和查验。然而,海量数据的存储需要消耗大量的存储资源。因此,需要能够高效地存储用于训练机器学习模型的训练数据的方法,从而减少资源消耗。
发明内容
在本公开的第一方面,提供了一种数据处理的方法。该方法包括在边缘设备处接收用于训练模型的新数据,边缘设备已经存储有用于代表历史数据来训练模型的蒸馏数据,历史数据被存储在远程设备中并且历史数据的量大于蒸馏数据的量。方法还包括基于新数据和蒸馏数据来训练模型。
在第一方面的一些实施例中,基于新数据和蒸馏数据来训练模型包括:基于新数据来进一步训练基于蒸馏数据被训练的模型。
在第一方面的一些实施例中,新数据代表在历史数据之后被收集的附加数据,附加数据被存储在远程设备中并且附加数据的量大于新数据的量,方法还包括存储新数据。
在第一方面的一些实施例中,新数据利用数据蒸馏算法在远程设备处基于附加数据被确定。
在第一方面的一些实施例中,方法还包括接收用于代表新数据来训练模型或其他模型的附加蒸馏数据;以及存储附加蒸馏数据以扩充蒸馏数据。
在第一方面的一些实施例中,附加蒸馏数据利用数据蒸馏算法在远程设备处基于新数据被确定。
在第一方面的一些实施例中,蒸馏数据利用数据蒸馏算法在远程设备处基于历史数据被确定。
在本公开的第二方面,提供了一种电子设备。该电子设备包括处理器以及与处理器耦合的存储器,存储器具有存储于其中的指令,指令在被处理器执行时使设备执行动作。动作包括在边缘设备处接收用于训练模型的新数据,边缘设备已经存储有用于代表历史数据来训练模型的蒸馏数据,历史数据被存储在远程设备中并且历史数据的量大于蒸馏数据的量。动作还包括基于新数据和蒸馏数据来训练模型。
在本公开的第三方面中,提供了一种计算机程序产品,计算机程序产品被有形地存储在计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器执行根据第一方面的方法。
在本公开的实施例中,利用本申请的数据处理的方案,利用本申请的数据处理的方案,能够在具有较少存储资源的边缘设备处基于蒸馏数据来训练模型,从而实现较高的模型准确性。
提供发明内容部分是为了简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的实施例的关键特征或主要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开的示例性实施例进行更详细的描述,本公开的实施例的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开的示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了本公开的实施例能够在其中被实现的环境的示意图;
图2示出了根据本公开的一些实施例的数据处理的示例方法的流程图;
图3示出了根据本公开的一些实施例的利用新数据来更新数据存储的过程的示意图;
图4示出了根据本公开的一些实施例的训练模型的第一过程的示意图;
图5示出了根据本公开的一些实施例的训练模型的第二过程的示意图;以及
图6示出了可以用来实施本公开的实施例的示例计算设备的框图。
具体实施方式
下面将参考附图中示出的若干示例实施例来描述本公开的实施例的原理。虽然附图中显示了本公开的优选实施例,但应当理解,描述这些实施例仅是为了使本领域技术人员能够更好地理解进而实现本公开的实施例,而并非以任何方式限制本公开的范围。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一些实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上文所提及的,需要能够高效地存储用于训练机器学习模型的数据(下文中也称为训练数据)的方法。由于终端设备产生的数据量非常大,通常所生成的数据被存储在服务器中并且在服务器处被用于训练机器学习模型。服务器可以将经训练的机器学习模型推送给终端设备,以供终端设备利用经训练的模型进行推理。或者,服务器可以将推理结果推送给终端设备。
在一些常规的方案中,可以将海量的数据存储在远程设备中,例如数据中心或云服务器中。这些数据可以以较低的成本在远程设备处存储非常久的时间(例如十年)以符合诸如法律法规等规则要求。边缘设备可以从远程设备获取经训练的模型,并且在边缘设备处利用模型进行推理。边缘设备可以将推理结果发送给终端设备,以供终端设备使用。
在另一些方案中,边缘设备可以存储一部分的训练数据,以用于进一步训练从远程设备获取的经训练的模型。例如,边缘设备可以存储最新收集的一部分训练数据以用于更新模型。这样,边缘设备可以快速地更新模型,并且使用经更新的模型来进行推理。然而,由于边缘设备的计算和存储能力有限,边缘设备只能利用少量的数据来训练模型,因而模型的准确性难以满足要求。
本公开的实施例提出了一种数据处理的方案。在该方案中,在边缘设备处接收用于训练模型的新数据,边缘设备已经存储有用于代表历史数据来训练模型的蒸馏数据,历史数据被存储在远程设备中并且历史数据的量大于蒸馏数据的量。方法还包括基于新数据和蒸馏数据来训练模型。
以此方式,通过在边缘设备处存储能够代表大量历史数据来训练模型的蒸馏数据,可以在具有较少存储资源的边缘设备处利用蒸馏数据来训练模型,同时使得经训练的模型的准确性满足要求。
以下参考图1至图5来说明本公开的基本原理和若干示例实施例。应当理解,给出这些示例性实施例仅是为了使本领域技术人员能够更好地理解进而实现本公开的实施例,而并非以任何方式限制本公开的范围。
图1示出了本公开的实施例能够在其中被实现的环境100。如图1所示,环境100包括边缘设备110和远程设备120。边缘设备110和远程设备120之间具有通信连接。
边缘设备110和远程设备120可以是通用计算设备形式的任何计算设备。边缘设备110和远程设备120的组件可以包括但不限于一个或多个处理器或处理单元、存储器、存储设备、一个或多个通信单元、一个或多个输入设备以及一个或多个输出设备。这些组件可以被集成在单个设备上,也可以以云计算架构的形式被设置。
在一些实施例中,远程设备120可以是云服务器。远程设备120可以使用适当的协议通过广域网(诸如因特网)提供服务。例如,云计算提供商通过广域网提供应用,并且它们可以通过web浏览器或任何其他计算组件被访问。备选地,远程设备120也可以是常规服务器。在一些实施例中,边缘设备110(也称为边缘节点)可以与网络服务提供商的基站相关联。例如,可以在基站侧部署边缘设备110。
远程设备120可以存储从终端设备(未示出)收集的历史数据125。终端设备的示例包括自动驾驶汽车、智能手机、平板电脑、智能家居等。例如,自动驾驶汽车中的传感器可以产生大量的数据,这些数据可以作为历史数据125被存储在远程设备120中。取决于预定规则,历史数据125需要在远程设备120中存储预定时间段。
边缘设备110可以存储用于代表历史数据125来训练模型的蒸馏数据115。蒸馏数据115的量小于历史数据125的量。蒸馏数据115可以是利用数据蒸馏算法基于历史数据125的部分或全部数据而被确定的。蒸馏数据115可以代表历史数据125来训练模型,以使得可以以少量的训练数据实现较好的模型准确性。可以利用各种数据蒸馏算法来基于历史数据125确定蒸馏数据115。本公开的范围在此不受限制。
边缘设备110可以接收新数据135来进一步训练模型,也即更新模型。边缘设备110可以与终端设备通信,以快速地从终端设备获得最近收集的新数据135。备选地或附加地,边缘设备110可以从远程设备120接收新数据135。例如,可以先将从终端设备收集的新数据135发送到远程设备120以用于长期存储。然后远程设备120可以将新数据135发送到边缘设备110以用于训练模型。
应当理解,图1所示出的环境100仅仅是示例性的,而不应当构成对本公开所描述的实现的功能和范围的任何限制。例如,环境100还可以包括数据中心。数据中心可以接收来自终端设备的数据,并将其发送到远程设备120或边缘设备110。
图2示出了根据本公开的一些实施例的数据处理的示例方法200的流程图。方法200例如可以在如图1所示的环境100中实现。方法200例如可以在如图1所示的边缘设备110处实现。应当理解,方法200还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框210处,在边缘设备110处接收用于训练模型的新数据135,边缘设备110已经存储有用于代表历史数据125来训练模型的蒸馏数据115,历史数据125被存储在远程设备120中并且历史数据125的量大于蒸馏数据115的量。新数据135可以是从终端设备或远程设备120最近接收的原始数据。备选地,新数据135也可以是基于最近接收的原始数据而确定的蒸馏数据。下文将参考图3来描述利用新数据135来更新边缘设备110和远程设备120中所存储的数据的过程。
图3示出了根据本公开的一些实施例的利用新数据135来更新数据存储的过程300的示意图。新数据135可以是未经蒸馏的附加数据305。备选地,新数据135可以是经蒸馏的附加蒸馏数据315。附加数据305可以是用于训练模型的、不同于历史数据125或蒸馏数据115的补充数据。附加数据305可以是在历史数据125之后从终端设备收集的数据。
如图3所示,附加数据305可以被输入到数据蒸馏模块310。数据蒸馏模块310可以利用各种数据蒸馏算法来基于附加数据305确定附加蒸馏数据315。附加蒸馏数据315可以代表附加数据305来训练模型,同时附加蒸馏数据315的数据量小于附加数据305的数据量。本公开的范围在数据蒸馏算法的方面不受限制。
在一些实施例中,可以将数据量较大的附加数据305存储在远程设备120中。这样,最近接收的附加数据305可以以较低的成本在远程设备120中存储预定时间段。
可以将数据量较小的附加蒸馏数据315存储在边缘设备110中。可以利用附加蒸馏数据315来扩充边缘设备110中所存储的蒸馏数据115。经扩充的蒸馏数据可以用于更新经训练的模型或训练新模型。这样,可以在具有较少存储资源的边缘设备110处利用蒸馏数据来训练模型,从而实现较高的模型准确性。
在一些实施例中,数据蒸馏模块310可以在远程设备120处实现。备选地或附加地,数据蒸馏模块310可以在边缘设备110处实现。备选地或附加地,数据蒸馏模块310可以在其他合适的服务器处实现。
继续参考图2,在框220处,在边缘设备110处基于新数据135和蒸馏数据115来训练模型。在一些实施例中,在接收新数据135之前,边缘设备110中已经存储有基于蒸馏数据115被训练的模型。在这种情况下,边缘设备110可以基于所接收的新数据135来进一步训练模型。下文将参考图4来描述基于新数据135来进一步训练模型的过程。
图4示出了根据本公开的一些实施例的训练模型的第一过程400的示意图。如图4所示,在边缘设备110处,训练模块410可以基于蒸馏数据115来训练模型,并输出经训练的模型415。边缘设备110可以利用经训练的模型415来进行推理。在接收新数据135之后,更新模块420可以基于新数据来进一步训练模型415,并输出经更新的模型425。训练模块415和更新模块420可以由相同或不同模块实现。
备选地或附加地,可以基于新数据135和所存储的蒸馏数据115两者来进一步训练模型415。备选地或附加地,在新数据135是经蒸馏的附加蒸馏数据315的情况下,可以利用新数据135的蒸馏信息来辅助对模型415的训练。以此方式,可以在具有较少存储资源的边缘设备110处利用新数据135来训练模型,同时实现较高的模型准确性。
图5示出了根据本公开的一些实施例的训练模型的第二过程500的示意图。如图5所示,在边缘设备110处,在接收新数据135之后,训练模块510可以基于蒸馏数据115和新数据135来训练新的模型,并输出经训练的模型515。边缘设备110可以利用经训练的模型515来进行推理。以此方式,可以在具有较少存储资源的边缘设备110处利用新数据135和蒸馏数据115来训练模型,同时实现较高的模型准确性。
在一些实施例中,在新数据135是未经蒸馏的附加数据305的情况下,边缘设备110在基于新数据135来训练或更新模型之后可以丢弃新数据135。相反,边缘设备110可以存储附加蒸馏数据315以用于进一步训练模型或训练新的模型。
在一些实施例中,在新数据135是经蒸馏的附加蒸馏数据315的情况下,边缘设备110在基于新数据135来训练或更新模型之后可以存储新数据135以用于进一步训练模型或训练新的模型。
在常规的方案中,边缘设备由于具有较少的存储资源,因而只能利用少量的原始数据来训练模型。由于训练数据的数据量较少,经训练的模型的准确性难以满足要求。与常规的方案相比,由于数据量较小的蒸馏数据115可以代表数据量较大的历史数据125来训练模型,因此在边缘设备处基于蒸馏数据115来训练模型可以实现较高的模型准确性。
上文参考图2至图5描述了根据本公开的实施例的一种数据处理的方法。本公开的实施例还提供了一种分级存储(tiered storage)系统。该系统可以包括热数据存储模块和冷数据存储模块。热数据存储模块可以在边缘设备110处实现,以用于存储用于训练模型的蒸馏数据115。冷数据存储模块可以在远程设备120处实现,以用于存储历史数据125。相比热数据存储模块,冷数据存储模块具有存储容量大、价格低的特点。因此,冷数据存储模块可以用于长期存储训练数据,而热数据存储模块可以存储数据量更小的经蒸馏的训练数据。利用分级存储系统,可以提高存储和利用训练数据的效率。
图6示出了可以用来实施本公开内容的实施例的示例设备600的示意性框图。例如,设备600可以在如图1所示的环境100处实现。设备600可以被实现为图1所示的边缘设备110或远程设备120。如图6所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200,可由处理单元601执行。例如,在一些实施例中,方法200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序被加载到RAM 603并由CPU 601执行时,可以执行上文描述的方法200的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、SRAM、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (15)
1.一种数据处理方法,包括:
在边缘设备处接收用于训练模型的新数据,所述边缘设备已经存储有用于代表历史数据来训练所述模型的蒸馏数据,所述历史数据被存储在远程设备中并且所述历史数据的量大于所述蒸馏数据的量;以及
基于所述新数据和所述蒸馏数据来训练所述模型。
2.根据权利要求1所述的方法,其中基于所述新数据和所述蒸馏数据来训练所述模型包括:
基于所述新数据来进一步训练基于所述蒸馏数据被训练的所述模型。
3.根据权利要求1至2中任一项所述的方法,其中所述新数据代表在所述历史数据之后被收集的附加数据,所述附加数据被存储在所述远程设备中并且所述附加数据的量大于所述新数据的量,所述方法还包括存储所述新数据。
4.根据权利要求3所述的方法,其中所述新数据利用数据蒸馏算法在所述远程设备处基于所述附加数据被确定。
5.根据权利要求1至2中任一项所述的方法,还包括:
接收用于代表所述新数据来训练所述模型或其他模型的附加蒸馏数据;以及
存储所述附加蒸馏数据以扩充所述蒸馏数据。
6.根据权利要求5所述的方法,其中所述附加蒸馏数据利用数据蒸馏算法在所述远程设备处基于所述新数据被确定。
7.根据权利要求1所述的方法,其中所述蒸馏数据利用数据蒸馏算法在所述远程设备处基于所述历史数据被确定。
8.一种电子设备,包括:
处理器;以及
与所述处理器耦合的存储器,所述存储器具有存储于其中的指令,所述指令在被处理器执行时使所述设备执行动作,所述动作包括:
在边缘设备处接收用于训练模型的新数据,所述边缘设备已经存储有用于代表历史数据来训练所述模型的蒸馏数据,所述历史数据被存储在远程设备中并且所述历史数据的量大于所述蒸馏数据的量;以及
基于所述新数据和所述蒸馏数据来训练所述模型。
9.根据权利要求8所述的设备,其中基于所述新数据和所述蒸馏数据来训练所述模型包括:
基于所述新数据来进一步训练基于所述蒸馏数据被训练的所述模型。
10.根据权利要求8至9中任一项所述的设备,其中所述新数据代表在所述历史数据之后被收集的附加数据,所述附加数据被存储在所述远程设备中并且所述附加数据的量大于所述新数据的量,所述方法还包括存储所述新数据。
11.根据权利要求10所述的设备,其中所述新数据利用数据蒸馏算法在所述远程设备处基于所述附加数据被确定。
12.根据权利要求8至9中任一项所述的设备,所述动作还包括:
接收用于代表所述新数据来训练所述模型或其他模型的附加蒸馏数据;以及
存储所述附加蒸馏数据以扩充所述蒸馏数据。
13.根据权利要求12所述的设备,其中所述附加蒸馏数据利用数据蒸馏算法在所述远程设备处基于所述新数据被确定。
14.根据权利要求8所述的设备,其中所述蒸馏数据利用数据蒸馏算法在所述远程设备处基于所述历史数据被确定。
15.一种计算机程序产品,所述计算机程序产品被有形地存储在计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求1至7中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111235817.3A CN116028482A (zh) | 2021-10-22 | 2021-10-22 | 数据处理的方法、电子设备和计算机程序产品 |
US17/541,360 US11989263B2 (en) | 2021-10-22 | 2021-12-03 | Method, electronic device, and computer program product for data processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111235817.3A CN116028482A (zh) | 2021-10-22 | 2021-10-22 | 数据处理的方法、电子设备和计算机程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116028482A true CN116028482A (zh) | 2023-04-28 |
Family
ID=86055593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111235817.3A Pending CN116028482A (zh) | 2021-10-22 | 2021-10-22 | 数据处理的方法、电子设备和计算机程序产品 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11989263B2 (zh) |
CN (1) | CN116028482A (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10083462B2 (en) * | 2012-12-05 | 2018-09-25 | Capital One Services, Llc | Methods and systems for dynamically providing content |
US20230103817A1 (en) * | 2021-09-17 | 2023-04-06 | EMC IP Holding Company LLC | Distributed dataset distillation for efficient bootstrapping of operational states classification models |
US20230122139A1 (en) * | 2021-10-20 | 2023-04-20 | EMC IP Holding Company LLC | Adaptable dataset distillation for heterogeneous environments |
CN116501732A (zh) * | 2022-01-21 | 2023-07-28 | 戴尔产品有限公司 | 用于管理训练数据的方法、电子设备和计算机程序产品 |
US20240062057A1 (en) * | 2022-08-09 | 2024-02-22 | Adobe Inc. | Regularizing targets in model distillation utilizing past state knowledge to improve teacher-student machine learning models |
-
2021
- 2021-10-22 CN CN202111235817.3A patent/CN116028482A/zh active Pending
- 2021-12-03 US US17/541,360 patent/US11989263B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11989263B2 (en) | 2024-05-21 |
US20230129929A1 (en) | 2023-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109214632B (zh) | 一种风险控制方法及设备 | |
US11373642B2 (en) | Voice interaction method, system, terminal device and medium | |
CN111340220A (zh) | 用于训练预测模型的方法和装置 | |
US11934287B2 (en) | Method, electronic device and computer program product for processing data | |
CN111277511A (zh) | 传输速率控制方法、装置、计算机系统及可读存储介质 | |
CN111510466B (zh) | 客户端的数据更新方法、装置、电子设备及可读介质 | |
CN114297475A (zh) | 一种对象推荐方法、装置、电子设备及存储介质 | |
CN111353601A (zh) | 用于预测模型结构的延时的方法和装置 | |
WO2022188534A1 (zh) | 信息推送的方法和装置 | |
CN108989383B (zh) | 数据处理方法和客户端 | |
US20200184014A1 (en) | Internet of everything | |
US11410023B2 (en) | Lexicographic deep reinforcement learning using state constraints and conditional policies | |
CN116028482A (zh) | 数据处理的方法、电子设备和计算机程序产品 | |
CN113630476B (zh) | 应用于计算机集群的通信方法及通信装置 | |
CN113986312B (zh) | 软件升级方法、装置、电子设备及计算机可读存储介质 | |
CN113722007B (zh) | Vpn分支设备的配置方法、装置及系统 | |
CN115391661A (zh) | 训练推荐模型的方法、推荐资源的方法及其装置 | |
CN116340574A (zh) | 用于管理知识图谱的方法、设备和程序产品 | |
CN116501732A (zh) | 用于管理训练数据的方法、电子设备和计算机程序产品 | |
CN111857558B (zh) | 用于存储管理的方法、设备和计算机程序产品 | |
CN113760929A (zh) | 数据同步方法、装置、电子设备和计算机可读介质 | |
CN111831473B (zh) | 备份管理的方法、设备和计算机程序产品 | |
CN117251035B (zh) | 散热控制方法、装置、电子设备和计算机可读介质 | |
CN113362097B (zh) | 一种用户确定方法和装置 | |
CN111582482B (zh) | 用于生成网络模型信息的方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |