CN114138546A - 数据备份的方法、装置、计算设备及计算机存储介质 - Google Patents
数据备份的方法、装置、计算设备及计算机存储介质 Download PDFInfo
- Publication number
- CN114138546A CN114138546A CN202010916710.4A CN202010916710A CN114138546A CN 114138546 A CN114138546 A CN 114138546A CN 202010916710 A CN202010916710 A CN 202010916710A CN 114138546 A CN114138546 A CN 114138546A
- Authority
- CN
- China
- Prior art keywords
- target
- training
- backup data
- sequence
- data type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000004891 communication Methods 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims description 219
- 239000013598 vector Substances 0.000 claims description 59
- 238000000605 extraction Methods 0.000 claims description 52
- 238000013527 convolutional neural network Methods 0.000 claims description 43
- 230000006870 function Effects 0.000 claims description 30
- 238000011176 pooling Methods 0.000 claims description 11
- 238000004140 cleaning Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1448—Management of the data involved in backup or backup restore
- G06F11/1451—Management of the data involved in backup or backup restore by selection of backup contents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1458—Management of the backup or restore process
- G06F11/1464—Management of the backup or restore process for networked environments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例涉及通信技术领域,公开了一种数据备份的方法、装置、计算设备及计算机存储介质,该方法包括:接收用户发送的目标切片实例创建请求,目标切片实例创建请求包括目标切片实例的目标SLA需求信息和目标应用场景信息;对目标SLA需求信息和目标应用场景信息进行处理,得到目标SLA需求信息对应的目标第一序列和目标应用场景信息对应的目标第二序列;将目标第一序列和目标第二序列输入备份数据建议器,得到目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;根据目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行数据备份。通过上述方式,本发明实施例实现了数据备份。
Description
技术领域
本发明实施例涉及通信技术领域,具体涉及一种数据备份的方法、装置、计算设备及计算机存储介质。
背景技术
随着互联网进一步发展,传统的2G到4G网络无法满足海量数据带来的新业务需求。网络切片可以面向多连接与多样化业务,实现网络灵活部署,满足了海量数据带来的新业务需求。
为了防止切片网络中的数据丢失,切片实例需要对切片网络中的数据进行备份。现有技术中的数据备份主要采用全量备份的方式。随着切片业务的爆发式增长,备份空间有限,全量备份的方式占用备份空间较大。
发明内容
鉴于上述问题,本发明实施例提供了一种数据备份的方法、装置、计算设备及计算机存储介质,用于解决现有技术中存在的全量备份数据的方式占用空间大的问题。
根据本发明实施例的一个方面,提供了一种数据备份的方法,该方法包括:
接收用户发送的目标切片实例创建请求,所述目标切片实例创建请求包括所述目标切片实例的目标SLA需求信息和目标应用场景信息;
对所述目标SLA需求信息和所述目标应用场景信息进行处理,得到所述目标SLA需求信息对应的目标第一序列和所述目标应用场景信息对应的目标第二序列;
将所述目标第一序列和所述目标第二序列输入备份数据建议器,得到所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;其中,所述备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网络模型得到的,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列;所述训练标签用于表征所述训练切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;
根据所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行数据备份。
可选的,所述对所述目标SLA需求信息和所述目标应用场景信息进行处理,得到所述目标SLA需求信息对应的目标第一序列和所述目标应用场景信息对应的目标第二序列,包括:
分别对所述目标SLA需求信息和所述目标应用场景信息进行文本清洗,得到所述目标SLA需求信息对应的第一文本序列和所述目标应用场景信息对应的第二文本序列;
分别将所述第一文本序列中的每一个单词和所述第二文本序列中的每一个单词转换为整数,得到所述第一文本序列对应的第一整数组合所述第二文本序列对应的第二整数组合;
将所述第一整数组合和所述第二整数组合分别填充为预设长度,得到所述目标第一序列和所述目标第二序列。
可选的,所述分别对所述目标SLA需求信息和所述目标应用场景信息进行文本清洗,得到所述目标SLA需求信息对应的第一文本序列和所述目标应用场景信息对应的第二文本序列,包括:
分别去除所述目标SLA需求信息和所述目标应用场景信息中的标点符号,得到第一目标SLA需求信息和第一目标应用场景信息;
分别将所述第一目标SLA需求信息和所述第一目标应用场景信息中的英文字母转化为小写,得到所述第一文本序列和所述第二文本序列。
可选的,所述接收用户发送的目标切片实例创建请求之前,所述方法还包括:
获取多个训练切片实例创建请求及各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;所述多个训练切片实例创建请求中的每一个训练切片实例创建请求均包括该训练切片实例创建请求对应的训练SLA需求信息和训练应用场景信息;
对每一个训练切片实例创建请求对应的训练SLA需求信息和训练应用场景信息进行处理,以得到多组训练数据,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列;
对各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行编码,得到各训练切片实例对应的训练标签;
根据所述多组训练数据和所述训练标签训练深度卷积神经网络模型,得到所述备份数据建议器。
可选的,所述根据所述多组训练数据和所述训练标签训练深度卷积神经网络模型,得到所述备份数据建议器,包括:
将所述多组训练数据输入所述深度卷积神经网络模型,得到相应的输出结果;
根据所述输出结果和所述训练标签计算损失函数值;
根据所述损失函数值更新所述深度卷积神经网络模型的权重,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数值最小的权重作为所述深度卷积神经网络模型的权重,得到所述备份数据建议器。
可选的,所述所述深度卷积神经网络模型模型包括第一特征向量提取层、第二特征向量提取层和第三特征提取层;
所述第一特征向量提取层和所述第二特征向量提取层均包括依次连接的卷积层、池化层和平整层;
所述第三特征提取层包括合并层、全连接层、丢弃层和输出层;
所述将所述多组训练数据输入所述深度卷积神经网络模型,得到相应的输出结果,包括:
将所述多组训练数据中的训练第一序列和所述训练第二序列分别输入所述第一特征向量提取层和所述第二特征向量提取层,得到相应的第一特征向量和第二特征向量;
所述合并层将所述第一特征向量提取层输出的第一特征向量和所述第二特征向量提取层输出的第二特征向量合并,得到合并特征向量;
所述全连接层和所述丢弃层对所述合并特征向量进行加权计算,并通过所述输出层得到所述输出结果。
可选的,所述根据所述损失函数值更新所述深度卷积神经网络模型的权重,直至达到预设迭代次数,包括:
根据所述损失函数值通过梯度下降法更新所述深度卷积神经网络模型的权重,直至达到预设迭代次数。
根据本发明实施例的另一方面,提供了一种数据备份的装置,所述装置包括:
接收模块,用于接收用户发送的目标切片实例创建请求,所述目标切片实例创建请求包括所述目标切片实例的目标SLA需求信息和目标应用场景信息;
处理模块,用于对所述目标SLA需求信息和所述目标应用场景信息进行处理,得到所述目标SLA需求信息对应的目标第一序列和所述目标应用场景信息对应的目标第二序列;
输入模块,用于将所述目标第一序列和所述目标第二序列输入备份数据建议器,得到所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;其中,所述备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网络模型得到的,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列;所述训练标签用于表征所述训练切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;
备份模块,用于根据所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行数据备份。
根据本发明实施例的另一方面,提供了一种数据备份的装置,该装置包括:
接收模块,用于接收用户发送的目标切片实例创建请求,所述目标切片实例创建请求包括所述目标切片实例的目标SLA需求信息和目标应用场景信息;
处理模块,用于对所述目标SLA需求信息和所述目标应用场景信息进行处理,得到所述目标SLA需求信息对应的目标第一序列和所述目标应用场景信息对应的目标第二序列;
输入模块,用于将所述目标第一序列和所述目标第二序列输入备份数据建议器,得到所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;其中,所述备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网络模型得到的,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列;所述训练标签用于表征所述训练切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;
备份模块,用于根据所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行数据备份。
根据本发明实施例的另一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如上述的一种数据备份的方法对应的操作。
根据本发明实施例的又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使计算设备/装置执行如上述的一种数据备份的方法对应的操作。
本发明实施例接收到的目标切片实例创建请求中包括目标切片实例的目标SLA需求信息和目标应用场景信息,通过对目标SLA需求信息和目标应用场景信息进行处理得到目标第一序列和目标第二序列,根据备份数据建议器得到目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型。备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网网络模型得到的,训练好的备份数据建议器中的权重是根据多组训练数据与相应的训练标签之间的对应关系学习到的,因此,备份数据建议器综合了历史多组训练数据和训练标签的对应规则,通过备份数据建议器得到的目标切片实例的数据备份建议更加准确;且,本发明实施例中得到的数据备份建议包括了必选备份数据类型、可选备份数据类型及无需备份数据类型,相较于将全量数据类型进行备份,本发明实施例节约了数据备份空间。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
附图仅用于示出实施方式,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种网络管理架构的结构示意图;
图2示出了本发明实施例提供的一种数据备份的方法的流程示意图;
图3示出了本发明实施例提供的一种数据备份的方法中备份数据建议器的结构示意图;
图4示出了本发明另一实施例提供的一种数据备份的方法的流程示意图;
图5示出了本发明实施例提供的一种数据备份的装置的功能框图;
图6示出了本发明实施例提供的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。
本发明实施例的技术方案可以应用于各种通信系统,例如:全球移动通讯(GlobalSystem of Mobile communication,简称为“GSM”)系统、码分多址(Code DivisionMultiple Access,简称为“CDMA”)系统、宽带码分多址(Wideband Code DivisionMultiple Access,简称为“WCDMA”)系统、通用分组无线业务(General Packet RadioService,简称为“GPRS”)系统、长期演进(Long Term Evolution,简称为“LTE”)系统等。
本发明实施例涉及网络切片技术。网络切片技术是将网络在逻辑上抽象为一个或多个网络切片,其中每个网络切片包含一系列的逻辑网络功能,针对性地满足不同业务类型的差异化需求。例如在第五代移动通信(The 5th Generation,简称为“5G”)网络中,网络切片是一种按需组网的方式,为运营商带来能根据不断变化的用户需求进行调整,并快速满足新型应用需求的新服务。
网络切片技术将5G网络物理基础设施资源根据场景需求抽象为多个网络切片。每个网络切片按照业务场景的需要和业务模型进行网络功能的定制裁剪及相应网络功能的编排管理。一个网络切片可以视为一个实例化5G网络。这样的网络结构允许运营商将网络作为一种服务提供给用户,并可以根据速率、容量、覆盖性、延迟、可靠性、安全性和可用性等指标对实体网络进行自由组合,从而满足不同用户的需求。
为了便于理解,首先对本发明实施例中出现的一些技术术语进行解释说明:
网络切片:网络切片是一个概念,指在物理或者虚拟的网络基础设施之上,根据不同的服务需求定制化不同的逻辑网络。
网络切片实例:是一个真实运行的逻辑网络,能够满足一定网络特性或服务需求。
为了便于理解本发明实施例,图1示出了一种网络管理架构的结构示意图。如图1所示,本发明实施例中的网络管理架构包括通信业务管理功能(communication servicemanagement function,简称“CSMF”)模块10、网络切片管理功能(network slicemanagement function,简称“NSMF”)模块20和子切片管理功能(network slice subnetmanagement function,简称“NSSMF”)模块30。CMSF模块10和NSMF模块20通信,NSMF模块20和NSSMF模块30通信。CMSF模块10接收客户的通信业务订购需求,并将通信业务订购需求转化为网络切片需求,将网络切片需求发送至NSMF模块20。NSMF模块20接收CSMF模块10发送的网络切片需求,根据网络切片需求对网络切片实例的生命周期、性能、故障等进行管理,编排网络切片实例的组成,并将网络切片实例的需求分解为各网络切片子网实例的网络切片需求,将各网络切片子网实例的网络切片需求发送至NSSMF模块30。NSSMF模块30接收各网络切片子网实例的网络切片需求,对子切片实例的生命周期、性能、故障等进行管理。
图2示出了本发明实施例一种数据备份方法的流程图。如图2所示,该方法包括以下步骤:
步骤110:接收用户发送的目标切片实例创建请求。
在本步骤中,目标切片实例创建请求是任意一个切片用户发送的切片实例创建请求。目标切片实例创建请求是由切片用户发送至CSMF,由CSMF对切片实例创建请求进行处理,以将切片用户的切片实例创建需求转换为对网络切片的需求。在本发明实施例中,目标切片实例创建请求包括目标切片实例的目标服务等级协议(service-level agreement,简称“SLA”)需求信息和目标应用场景信息。其中,目标SLA需求信息包括安全性、可见性、可靠性、以及具体的业务特征。具体业务特征包括业务类型、空口需求、定制化网络功能、性能指标等。性能指标包括时延、吞吐率、丢包率、掉话率、可靠性、服务范围、用户规模、隔离性(例如,强、中、弱)、安全性(例如,强、中、弱)、接入方式、max TP/site(例如5Gbps)等。目标应用场景信息包括车联网、工业控制、智能制造、智能交通物流、环境监测、智能抄表、智能农业、视频直播和分享、虚拟现实、随时随地云存取、高速移动上网等场景。
步骤120:对目标SLA需求信息和目标应用场景信息进行处理,得到目标SLA需求信息对应的目标第一序列和目标应用场景信息对应的目标第二序列。
在本步骤中,目标SLA需求信息和目标应用场景信息均为文本形式。分别对目标SLA需求信息和目标应用场景信息进行文本清洗,得到目标SLA需求信息对应的第一文本序列和目标应用场景信息对应的第二文本序列。将第一文本序列中的每一个单词和第二文本序列中的每一个单词转换为整数,得到第一文本序列对应的第一整数组合和第二文本序列对应的第二整数组合。将第一整数组合和第二整数组合分别填充为预设长度,得到目标第一序列和目标第二序列。
文本清洗包括去除目标SLA需求信息和目标应用场景信息中的标点符号,得到第一目标SLA需求信息和第一目标应用场景信息;分别将第一目标SLA需求信息和第一目标场景信息中的英文字母转化为小写,得到第一文本序列和第二文本序列。
本发明实施例并不限定将第一文本序列和第二文本序列中的每一个单词转换为整数的具体方式。例如,在一种具体的实施方式中,通过词嵌入(word embedding)将每一个单词转化为整数。在另外一些实施例中,也可以通过现有技术中任意一种文本序列化模块实现,例如,Python中的tokenize模块。
目标第一序列的长度与训练备份数据建议器时使用的训练数据中的训练第一序列的长度相同。训练第一序列的长度以所有训练第一序列中的长度最大值为阈值,各训练第一序列的长度值相同,且均大于或等于该阈值。如果目标第一序列的长度与训练第一序列的长度不相同,则通过在相应的位置补零的方式将目标第一序列扩展为与训练第一序列相同的长度,以便于训练备份数据建议器的计算,保证计算结果的可靠性。
同样的,目标第二序列的长度与训练备份数据建议器时使用的训练数据中的训练第二序列的长度相同。如果目标第二序列的长度与训练第二序列的长度不相同,则通过在相应的位置补零的方式将目标第二序列填充为与训练第二序列相同的长度。
步骤130:将目标第一序列和目标第二序列输入备份数据建议器,得到目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型。
在本步骤中,备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网络模型得到的。每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列。训练标签用于表征训练切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型。
将目标第一序列和目标第二序列输入备份数据建议器后,备份数据建议器对目标第一序列和目标第二序列进行特征提取,并根据提取到的特征计算得到目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型。其中,必选备份数据类型是所有数据类型中必须要进行备份的数据类型;可选备份数据类型是在满足存储空间时可以进行备份,不满足存储空间时可以不进行备份的数据类型;无需备份数据类型是不需要备份的数据类型。在一种具体的实施方式中,数据类型包括:操作系统数据、应用程序数据、系统日志、操作日志、切片用户信息、终端用户信息、计费信息、流媒体、图片、音视频等。备份数据建议器输出的结果包括各个数据类型对应的标识信息,每一种标识用于表示必选备份数据类型、可选备份数据类型和无需备份数据类型中的任一种。各个数据类型按照一定顺序排列,每一个顺序位置表示一种数据类型。例如,标识信息共三种,分别用1、-1、0表示,1表示必选备份数据类型、-1表示可选备份数据类型、0表示无需备份数据类型。假设数据类型共五种,则备份数据建议器的输出结果为[1,-1,0,0,1]。
图3示出了本发明实施例提供的一种备份数据建议器的结构示意图,如图3所示,该备份数据建议器包括第一特征向量提取层、第二特征向量提取层和第三特征提取层。第一特征向量提取层和第二特征向量提取层的结构相同,均包括依次连接的卷积层、池化层和平整层。第三特征提取层包括合并层、全连接层、丢弃层和输出层。第一特征向量提取层对目标SLA需求信息进行特征提取得到第一特征向量。具体的,第一特征向量提取层中的卷积层对目标SLA需求信息进行特征提取,并通过池化层对提取到的特征进行降维,得到降维后的目标SLA特征。目标SLA特征通过平整层平整层转换为一维向量,得到第一特征向量。同样的,第二特征提取层按照相同的方式对目标场景信息进行特征提取,得到第二特征向量。通过第一特征提取层和第二特征提取层分别对目标SLA需求信息和目标应用场景信息进行处理,相较于将目标SLA需求信息和目标应用场景信息合并进行特征提取,提取到的特征不会相互干扰,提取的特征更加准确。
第三特征提取层中的合并层接收第一特征向量和第二特征向量,并将第一特征向量和第二特征向量合并后得到合并特征向量输入全连接层。全连接层对合并特征向量进行加权计算,并将计算结果通过输出层输出。
本发明实施例并不对上述备份数据建议器各层的神经元数量进行限定。在一种具体的实施方式中,第一特征提取层和第二特征提取层中卷积层的卷积核数量均为48个,卷积核的空域窗长度均为2,即,卷积核每次连续读取2个数值。激活函数设置为“relu”。第一特征提取层和第二特征提取层中池化层的池化方式可以是最大池化、平均池化等。在一种具体的实施方式中,池化层采用最大池化,即,将卷积核提取的特征中的最大值保留,其余值丢弃。
第三特征提取层中的合并层是一个功能单元层,不包含神经元。全连接层有32个神经元,激活函数为“relu”函数。丢弃层以一定概率丢弃全连接层的神经元,避免过拟合。例如,丢弃层的丢弃概率为0.2。输出层神经元的个数与数据类型的总个数相同。每一个神经元输出一个数据类型属于必选备份数据、可选备份数据和无需备份数据的概率。输出层的激活函数设置为“softmax”,用于选择三个概率中的最大值作为该数据类型所属的类别。
步骤140:根据目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行数据备份。
在本步骤中,必选备份数据类型的数据是必须进行备份的数据,在存储空间较大时,可选择性将可选备份数据备份,无需备份数据不需要进行备份。切片用户根据数据备份建议器的输出结果选择全部必选备份数据类型和部分可选备份数据类型进行备份。执行本发明实施例的设备/装置接收切片用户发送的备份数据类型,并根据切片用户发送的备份数据类型进行数据备份。这种方式相较于全量数据备份节省了存储空间。
本发明实施例接收到的目标切片实例创建请求中包括目标切片实例的目标SLA需求信息和目标应用场景信息,通过对目标SLA需求信息和目标应用场景信息进行处理得到目标第一序列和目标第二序列,根据备份数据建议器得到目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型。备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网网络模型得到的,训练好的备份数据建议器中的权重是根据多组训练数据与相应的训练标签之间的对应关系学习到的,因此,备份数据建议器综合了历史多组训练数据和训练标签的对应规则,通过备份数据建议器得到的目标切片实例的数据备份建议更加准确;且,本发明实施例中得到的数据备份建议包括了必选备份数据类型、可选备份数据类型及无需备份数据类型,相较于将全量数据类型进行备份,本发明实施例节约了数据备份空间。
在一些实施例中,除包含图2中的步骤110~步骤140,在步骤110之前还包括如图4示出的以下步骤:
步骤410:获取多个训练切片实例创建请求及各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型。
在本步骤中,训练切片实例创建请求是已知必选备份数据类型、可选备份数据类型及无需备份数据类型的切片实例创建请求。各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型是根据专家经验确定的。
步骤420:对每一个训练切片实例创建请求对应的训练SLA需求信息和训练应用场景信息进行处理,以得到多组训练数据。
在本步骤中,得到的多组训练数据中的每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列。对每一个训练切片实例创建请求对应的训练SLA需求信息和训练应用场景信息进行处理的方式与上一实施例中步骤120中对目标SLA需求信息和目标应用场景信息进行处理的方式相同,请参阅步骤120中对目标SLA需求信息和目标应用场景信息进行处理的方式,为了描述简洁,在此不做赘述。
步骤430:对各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行编码,得到各训练切片实例对应的训练标签。
在本步骤中,对必选备份数据类型、可选备份数据类型及无需备份数据类型进行编码的方式可以由本领域技术人员在实施本发明实施例时人为设定,本发明实施例并不限定训练标签的具体形式。例如,必选备份数据类型、可选备份数据类型和无需备份数据类型分别使用阿拉伯数字1、2、0进行编码。
步骤440:根据多组训练数据和训练标签训练深度卷积神经网络模型,得到备份数据建议器。
在本步骤中,深度卷积神经网络模型的架构如图3所示,通过训练各层中各神经元之间的权重得到训练好的备份数据建议器。将训练第一序列和训练第二序列输入深度卷积神经网络模型中,得到第一输出结果。第一输出结果用于表征输入训练第一序列和训练第二序列通过该深度卷积神经网络模型预测后得到的必选备份数据类型、可选备份数据类型及无需备份数据类型。第一输出结果包括多个数值,多个数值的个数与数据类型总数相同,每一个数值用于表征该数据类型属于必选备份数据类型、可选备份数据类型和无需备份数据类型中的任一种。根据第一输出结果和相应的训练标签计算损失函数值,根据损失函数值更新深度卷积神经网络模型的权重,直至达到预设迭代次数。每次迭代,根据损失函数值调整深度卷积神经网络模型的权重。权重调整的方式可以采用神经网络模型参数调整策略中的任意一种方法,本发明实施例并不以此为限。在一些实施方式中,根据损失函数值通过梯度下降法调整深度卷积神经网络模型的权重,直至达到预设迭代次数。将达到预设迭代次数时深度卷积神经网络模型的权重作为备份数据建议器的权重,以得到训练好的备份数据建议器。
本发明实施例通过多组训练数据训练深度卷积神经网络模型,从而得到备份数据建议器,由于深度卷积神经网络模型中的卷积核可以提取训练第一序列和训练第二序列中中不同长度的连续值,因此,可以提取到多种表征数据类型为必选备份数据类型、可选备份数据类型及无需备份数据类型中任一种的特征,综合多个特征提取结果进行备份数据建议器的训练可以使训练得到的备份数据建议器更加可靠。
图5示出了本发明实施例的一种数据备份的装置的结构示意图。如图5所示,该装置包括:接收模块510、处理模块520、输入模块530和备份模块540。接收模块510用于接收用户发送的目标切片实例创建请求,所述目标切片实例创建请求包括所述目标切片实例的目标SLA需求信息和目标应用场景信息。处理模块520用于对所述目标SLA需求信息和所述目标应用场景信息进行处理,得到所述目标SLA需求信息对应的目标第一序列和所述目标应用场景信息对应的目标第二序列。输入模块530用于将所述目标第一序列和所述目标第二序列输入备份数据建议器,得到所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;其中,所述备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网络模型得到的,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列;所述训练标签用于表征所述训练切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型。备份模块540用于根据所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行数据备份。
在一种可选的方式中,处理模块520进一步用于:
分别对所述目标SLA需求信息和所述目标应用场景信息进行文本清洗,得到所述目标SLA需求信息对应的第一文本序列和所述目标应用场景信息对应的第二文本序列;
分别将所述第一文本序列中的每一个单词和所述第二文本序列中的每一个单词转换为整数,得到所述第一文本序列对应的第一整数组合所述第二文本序列对应的第二整数组合;
将所述第一整数组合和所述第二整数组合分别填充为预设长度,得到所述目标第一序列和所述目标第二序列。
在一种可选的方式中,处理模块520进一步用于:
分别去除所述目标SLA需求信息和所述目标应用场景信息中的标点符号,得到第一目标SLA需求信息和第一目标应用场景信息;
分别将所述第一目标SLA需求信息和所述第一目标应用场景信息中的英文字母转化为小写,得到所述第一文本序列和所述第二文本序列。
在一种可选的方式中,所述装置还包括:
获取模块550,用于获取多个训练切片实例创建请求及各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;所述多个训练切片实例创建请求中的每一个训练切片实例创建请求均包括该训练切片实例创建请求对应的训练SLA需求信息和训练应用场景信息。
第一处理模块560,用于对每一个训练切片实例创建请求对应的训练SLA需求信息和训练应用场景信息进行处理,以得到多组训练数据,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列。
编码模块570,用于对各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行编码,得到各训练切片实例对应的训练标签。
训练模块580,用于根据所述多组训练数据和所述训练标签训练深度卷积神经网络模型,得到所述备份数据建议器。
在一种可选的方式中,训练模块580进一步用于:
将所述多组训练数据输入所述深度卷积神经网络模型,得到相应的输出结果;
根据所述输出结果和所述训练标签计算损失函数值;
根据所述损失函数值更新所述深度卷积神经网络模型的权重,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数值最小的权重作为所述深度卷积神经网络模型的权重,得到所述备份数据建议器。
在一种可选的方式中,所述所述深度卷积神经网络模型模型包括第一特征向量提取层、第二特征向量提取层和第三特征提取层;
所述第一特征向量提取层和所述第二特征向量提取层均包括依次连接的卷积层、池化层和平整层;
所述第三特征提取层包括合并层、全连接层、丢弃层和输出层;
训练模块580进一步用于:
将所述多组训练数据中的训练第一序列和所述训练第二序列分别输入所述第一特征向量提取层和所述第二特征向量提取层,得到相应的第一特征向量和第二特征向量;
所述合并层将所述第一特征向量提取层输出的第一特征向量和所述第二特征向量提取层输出的第二特征向量合并,得到合并特征向量;
所述全连接层和所述丢弃层对所述合并特征向量进行加权计算,并通过所述输出层得到所述输出结果。
在一种可选的方式中,训练模块580进一步用于:
根据所述损失函数值通过梯度下降法更新所述深度卷积神经网络模型的权重,直至达到预设迭代次数。
本发明实施例接收到的目标切片实例创建请求中包括目标切片实例的目标SLA需求信息和目标应用场景信息,通过对目标SLA需求信息和目标应用场景信息进行处理得到目标第一序列和目标第二序列,根据备份数据建议器得到目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型。备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网网络模型得到的,训练好的备份数据建议器中的权重是根据多组训练数据与相应的训练标签之间的对应关系学习到的,因此,备份数据建议器综合了历史多组训练数据和训练标签的对应规则,通过备份数据建议器得到的目标切片实例的数据备份建议更加准确;且,本发明实施例中得到的数据备份建议包括了必选备份数据类型、可选备份数据类型及无需备份数据类型,相较于将全量数据类型进行备份,本发明实施例节约了数据备份空间。
图6示出了本发明实施例的一种计算设备结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图6所示,该计算设备可以包括:处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
其中:处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。处理器602,用于执行程序610,具体可以执行上述用于数据备份的方法实施例中的相关步骤。
具体地,程序610可以包括程序代码,该程序代码包括计算机可执行指令。
处理器602可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器606,用于存放程序610。存储器606可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序610具体可以被处理器602调用使计算设备执行图2中的步骤110~步骤140,图4中的步骤410~步骤440,或者用于实现图5中的模块510~模块580的功能。
本发明实施例提供了一种计算机可读存储介质,所述存储介质存储有至少一可执行指令,该可执行指令在计算设备/装置上运行时,使得所述计算设备/装置执行上述任意方法实施例中的一种数据备份的方法。
本发明实施例提供了一种计算机程序,所述计算机程序可被处理器调用使计算设备执行上述任意方法实施例中的一种数据备份的方法。
本发明实施例提供了一种计算机程序产品,计算机程序产品包括存储在计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令在计算机上运行时,使得所述计算机执行上述任意方法实施例中的一种数据备份的方法。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。
本领域技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (10)
1.一种数据备份的方法,其特征在于,所述方法包括:
接收用户发送的目标切片实例创建请求,所述目标切片实例创建请求包括所述目标切片实例的目标SLA需求信息和目标应用场景信息;
对所述目标SLA需求信息和所述目标应用场景信息进行处理,得到所述目标SLA需求信息对应的目标第一序列和所述目标应用场景信息对应的目标第二序列;
将所述目标第一序列和所述目标第二序列输入备份数据建议器,得到所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;其中,所述备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网络模型得到的,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列;所述训练标签用于表征所述训练切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;
根据所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行数据备份。
2.根据权利要求1所述的方法,其特征在于,所述对所述目标SLA需求信息和所述目标应用场景信息进行处理,得到所述目标SLA需求信息对应的目标第一序列和所述目标应用场景信息对应的目标第二序列,包括:
分别对所述目标SLA需求信息和所述目标应用场景信息进行文本清洗,得到所述目标SLA需求信息对应的第一文本序列和所述目标应用场景信息对应的第二文本序列;
分别将所述第一文本序列中的每一个单词和所述第二文本序列中的每一个单词转换为整数,得到所述第一文本序列对应的第一整数组合所述第二文本序列对应的第二整数组合;
将所述第一整数组合和所述第二整数组合分别填充为预设长度,得到所述目标第一序列和所述目标第二序列。
3.根据权利要求2所述的方法,其特征在于,所述分别对所述目标SLA需求信息和所述目标应用场景信息进行文本清洗,得到所述目标SLA需求信息对应的第一文本序列和所述目标应用场景信息对应的第二文本序列,包括:
分别去除所述目标SLA需求信息和所述目标应用场景信息中的标点符号,得到第一目标SLA需求信息和第一目标应用场景信息;
分别将所述第一目标SLA需求信息和所述第一目标应用场景信息中的英文字母转化为小写,得到所述第一文本序列和所述第二文本序列。
4.根据权利要求1所述的方法,其特征在于,所述接收用户发送的目标切片实例创建请求之前,所述方法还包括:
获取多个训练切片实例创建请求及各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;所述多个训练切片实例创建请求中的每一个训练切片实例创建请求均包括该训练切片实例创建请求对应的训练SLA需求信息和训练应用场景信息;
对每一个训练切片实例创建请求对应的训练SLA需求信息和训练应用场景信息进行处理,以得到多组训练数据,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列;
对各训练切片实例创建请求对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行编码,得到各训练切片实例对应的训练标签;
根据所述多组训练数据和所述训练标签训练深度卷积神经网络模型,得到所述备份数据建议器。
5.根据权利要求4所述的方法,其特征在于,所述根据所述多组训练数据和所述训练标签训练深度卷积神经网络模型,得到所述备份数据建议器,包括:
将所述多组训练数据输入所述深度卷积神经网络模型,得到相应的输出结果;
根据所述输出结果和所述训练标签计算损失函数值;
根据所述损失函数值更新所述深度卷积神经网络模型的权重,直至达到预设迭代次数;
将达到所述预设迭代次数时,使所述损失函数值最小的权重作为所述深度卷积神经网络模型的权重,得到所述备份数据建议器。
6.根据权利要求5所述的方法,其特征在于,所述所述深度卷积神经网络模型模型包括第一特征向量提取层、第二特征向量提取层和第三特征提取层;
所述第一特征向量提取层和所述第二特征向量提取层均包括依次连接的卷积层、池化层和平整层;
所述第三特征提取层包括合并层、全连接层、丢弃层和输出层;
所述将所述多组训练数据输入所述深度卷积神经网络模型,得到相应的输出结果,包括:
将所述多组训练数据中的训练第一序列和所述训练第二序列分别输入所述第一特征向量提取层和所述第二特征向量提取层,得到相应的第一特征向量和第二特征向量;
所述合并层将所述第一特征向量提取层输出的第一特征向量和所述第二特征向量提取层输出的第二特征向量合并,得到合并特征向量;
所述全连接层和所述丢弃层对所述合并特征向量进行加权计算,并通过所述输出层得到所述输出结果。
7.根据权利要求5所述的方法,其特征在于,所述根据所述损失函数值更新所述深度卷积神经网络模型的权重,直至达到预设迭代次数,包括:
根据所述损失函数值通过梯度下降法更新所述深度卷积神经网络模型的权重,直至达到预设迭代次数。
8.一种数据备份的装置,其特征在于,所述装置包括:
接收模块,用于接收用户发送的目标切片实例创建请求,所述目标切片实例创建请求包括所述目标切片实例的目标SLA需求信息和目标应用场景信息;
处理模块,用于对所述目标SLA需求信息和所述目标应用场景信息进行处理,得到所述目标SLA需求信息对应的目标第一序列和所述目标应用场景信息对应的目标第二序列;
输入模块,用于将所述目标第一序列和所述目标第二序列输入备份数据建议器,得到所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;其中,所述备份数据建议器是根据多组训练数据及相应的训练标签训练深度卷积神经网络模型得到的,每一组训练数据均包括一个训练切片实例创建请求对应的一个训练第一序列和一个训练第二序列;所述训练标签用于表征所述训练切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型;
备份模块,用于根据所述目标切片实例对应的必选备份数据类型、可选备份数据类型及无需备份数据类型进行数据备份。
9.一种计算设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7任意一项所述的一种数据备份的方法对应的操作。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一可执行指令,所述可执行指令在计算设备/装置上运行时,使得所述计算设备/装置执行如权利要求1-7任意一项所述的一种数据备份的方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010916710.4A CN114138546B (zh) | 2020-09-03 | 2020-09-03 | 数据备份的方法、装置、计算设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010916710.4A CN114138546B (zh) | 2020-09-03 | 2020-09-03 | 数据备份的方法、装置、计算设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114138546A true CN114138546A (zh) | 2022-03-04 |
CN114138546B CN114138546B (zh) | 2024-05-10 |
Family
ID=80438236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010916710.4A Active CN114138546B (zh) | 2020-09-03 | 2020-09-03 | 数据备份的方法、装置、计算设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114138546B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107291577A (zh) * | 2017-06-19 | 2017-10-24 | 腾讯科技(深圳)有限公司 | 文件备份方法、装置及存储介质 |
CN110866115A (zh) * | 2019-10-16 | 2020-03-06 | 平安科技(深圳)有限公司 | 序列标注方法、系统、计算机设备及计算机可读存储介质 |
WO2020140386A1 (zh) * | 2019-01-02 | 2020-07-09 | 平安科技(深圳)有限公司 | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 |
-
2020
- 2020-09-03 CN CN202010916710.4A patent/CN114138546B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107291577A (zh) * | 2017-06-19 | 2017-10-24 | 腾讯科技(深圳)有限公司 | 文件备份方法、装置及存储介质 |
WO2020140386A1 (zh) * | 2019-01-02 | 2020-07-09 | 平安科技(深圳)有限公司 | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 |
CN110866115A (zh) * | 2019-10-16 | 2020-03-06 | 平安科技(深圳)有限公司 | 序列标注方法、系统、计算机设备及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
郝叶林;罗兵;杨锐;常津津;: "复杂场景图像中人员目标检测算法的改进", 五邑大学学报(自然科学版), no. 01, 15 February 2018 (2018-02-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN114138546B (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111859023A (zh) | 视频分类方法、装置、设备及计算机可读存储介质 | |
CN116978011B (zh) | 一种用于智能目标识别的图像语义通信方法及系统 | |
CN113673260A (zh) | 模型处理方法、装置、存储介质和处理器 | |
Ngo et al. | Adaptive anomaly detection for IoT data in hierarchical edge computing | |
WO2024175045A1 (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN116150612A (zh) | 模型训练的方法和通信装置 | |
Brennsteiner et al. | A real-time deep learning OFDM receiver | |
CN114138546B (zh) | 数据备份的方法、装置、计算设备及计算机存储介质 | |
CN111951260A (zh) | 基于部分特征融合卷积神经网络实时目标计数系统及方法 | |
WO2023273956A1 (zh) | 一种基于多任务网络模型的通信方法、装置及系统 | |
CN113824670B (zh) | 5g切片空口协议栈调度方法、装置及计算设备 | |
CN113825148B (zh) | 网络节点告警等级的确定方法、装置及计算设备 | |
CN115759107A (zh) | 语义通信系统的生成方法、装置、电子设备及介质 | |
CN113822453B (zh) | 5g切片的多用户投诉共性确定方法及装置 | |
CN113806498A (zh) | 网络切片实例运行状况的在线问答方法及装置 | |
CN112633285A (zh) | 领域适应方法、装置、电子设备及存储介质 | |
CN112805723A (zh) | 一种图像处理系统、方法以及包括该系统的自动驾驶车辆 | |
CN111291602A (zh) | 视频检测方法、装置、电子设备及计算机可读存储介质 | |
CN109670598A (zh) | 一种基于深度学习的数据处理方法 | |
CN113810211B (zh) | 网络切片模板的归纳方法及装置、监控方法及装置 | |
CN113810212B (zh) | 5g切片用户投诉的根因定位方法及装置 | |
CN116798052B (zh) | 文本识别模型的训练方法和装置、存储介质及电子设备 | |
CN117992775B (zh) | 一种卫星情报与训练数据能效管理与优化方法及系统 | |
CN113411195B (zh) | 5g切片的物理层配置方法、装置及计算设备 | |
CN112749705B (zh) | 训练模型更新方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |