CN110798227A - 模型预测优化方法、装置、设备及可读存储介质 - Google Patents

模型预测优化方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN110798227A
CN110798227A CN201910884629.XA CN201910884629A CN110798227A CN 110798227 A CN110798227 A CN 110798227A CN 201910884629 A CN201910884629 A CN 201910884629A CN 110798227 A CN110798227 A CN 110798227A
Authority
CN
China
Prior art keywords
data
neural network
prediction
deep neural
prediction result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910884629.XA
Other languages
English (en)
Other versions
CN110798227B (zh
Inventor
王健宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910884629.XA priority Critical patent/CN110798227B/zh
Priority to PCT/CN2019/118263 priority patent/WO2021051596A1/zh
Publication of CN110798227A publication Critical patent/CN110798227A/zh
Application granted granted Critical
Publication of CN110798227B publication Critical patent/CN110798227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及人工智能技术领域,公开了一种模型预测优化方法,包括以下步骤:通过隐藏神经元后的深度神经网络输出第一预测结果;对第一预测结果归一化处理,得到预测结果集合;基于预测结果的准确度为各个深度神经网络设置权重,对第一待预测数据进行预测得到第二预测结果;判断第二预测结果是否满足预置准确率;若否,则调节各个深度神经网络所占的权重,得到第三预测结果;判断数据中的错误数据量是否大于预置纠错码对错误数据的处理量。本发明还公开了一种模型预测优化装置、设备及计算机可读存储介质。本发明提供的模型预测优化方法提高了模型对待预测数据的预测效果。

Description

模型预测优化方法、装置、设备及可读存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种模型预测优化方法、装置、设备及计算机可读存储介质。
背景技术
目前,现有的通信系统一般包括发送端和接收端,接收端需要对来自发送端的信号进行数据后处理。在后处理过程中需要对信号进行纠错处理,目前普遍依赖于纠错码进行纠错处理,例如重复累加RA码和多边型LDPC码。然而,RA码和多边型LDPC码具有相当高的字错误率,并且在非常低的信噪比下,RA编码具有较差的效率,从而导致通信系统的传输性能较低。如何对预测模型进行优化,以提高模型对待传输数据的预测效果,是目前本领域技术人员亟待解决的问题。
发明内容
本发明的主要目的在于提供一种模型预测优化方法、装置、设备及计算机可读存储介质,旨在解决现有技术中,模型对待传输数据预测结果的准确率低的技术问题。
为实现上述目的,本发明提供一种模型预测优化方法,所述模型预测优化方法包括以下步骤:
将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果;
通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,所述预测结果集合中包括多个第一预测结果;
根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,以及基于所述准确度为各个隐藏神经元后的深度神经网络设置权重,得到第一预测模型;
通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果;
根据第二实际结果判断所述第二预测结果是否满足预置准确率;
若所述第二预测结果满足预置准确率,则得第二预测模型,若所述第二预测结果不满足预置准确率,则通过反向传播算法调节各个深度神经网络所占的权重,直至所述第二预测结果满足预置准确率;
通过所述第二预测模型对第二待预测数据进行预测,得到第三预测结果;
判断所述第三预测结果中错误数据量是否大于预置纠错码对错误数据的处理量;
若当前数据中的错误数据量大于预置纠错码对错误数据的处理量,则通过预先部署在机器学习框架tensorflow内的支持向量机模型对所述当前数据进行分类,得到错误数据与正确数据以及将所述正确数据传送至数据接收端,若当前数据中的错误数据量小于或等于预置纠错码对错误数据的处理量,则将所述第三预测结果传送至数据接收端。
可选地,在所述将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果的步骤之前,还包括以下步骤:
根据预先设置的随机隐藏神经元的策略,通过随机算法随机隐藏同一深度神经网络的神经元;
采用第二训练样本数据训练所述隐藏神经元后的深度神经网络,得到初始深度神经网络;
通过所述初始深度神经网络对第三待预测数据进行预测,得到初始预测结果集合,所述初始预测结果集合包括多个初始预测结果;
根据预置人工预测结果从所述初始预测结果集合中筛选出正确率最高的初始预测结果,以及基于所述正确率最高的初始预测结果确定隐藏神经元之间的预置隐藏比例。
可选地,在所述通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果的步骤之前,还包括以下步骤:
接收光信号,并对所述光信号进行时域采样操作,得到多帧子光信号;
将所述子光信号转换为数字信号;
对所述数字信号进行标准化处理,得到第一待预测数据。
可选地,所述对所述数字信号进行标准化处理,得到第一待预测数据包括以下步骤:
计算所述数字信号包括的n个数据的平均值M,并查找所述n个数据中的最大值max和最小值min,其中,每个数据记作Xi,i为不同数据的标识;
通过公式(Xi-M)/(max-min)计算得到n个离散数据;
对所述n个离散数据进行压缩,得到第一待预测数据。
可选地,在所述将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果的步骤之前,还包括以下步骤:
将所述多帧用于训练的子光信号转换为多帧用于训练的数字信号;
对所述多帧用于训练的数字信号进行标注,得到每帧用于训练的数字信号的标注信息;
对所述多帧用于训练的数字信号进行标准化处理,得到多帧标准数据;
基于所述标注信息,将所述多帧标准数据分为多组,其中,每组中的标准数据的标注信息相同;
从每组中获取相同数量级的标准数据,组成训练样本。
可选地,所述对所述多帧用于训练的数字信号进行标注,得到每帧用于训练的数字信号的标注信息包括以下步骤:
通过正交振幅调制QAM将每一帧用于训练的数字信号映射至正交调幅星座图;
并根据每一帧用于训练的数字信号在希尔伯特空间的分布情况,确定所述正交调幅星座图上与每一帧用于训练的数字信号最近的点;
根据所述最近的点的坐标信息,得到每一帧用于训练的数字信号的标注信息。
进一步地,为实现上述目的,本发明还提供第一种模型预测优化装置,所述模型预测优化装置包括:
训练输出模块,用于将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果;
归一计算模块,用于通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,所述预测结果集合中包括多个第一预测结果;
计算模块,用于根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,以及基于所述准确度为各个隐藏神经元后的深度神经网络设置权重,得到第一预测模型;
第一预测模块,用于通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果;
第一判断模块,用于根据第二实际结果判断所述第二预测结果是否满足预置准确率;
调节模块,用于若所述第二预测结果满足预置准确率,则得第二预测模型,若所述第二预测结果不满足预置准确率,则通过反向传播算法调节各个深度神经网络所占的权重,直至所述第二预测结果满足预置准确率;
第二预测模块,用于通过所述第二预测模型对第二待预测数据进行预测,得到第三预测结果;
第二判断模块,用于判断所述第三预测结果中错误数据量是否大于预置纠错码对错误数据的处理量;
第一分类模块,用于若当前数据中的错误数据量大于预置纠错码对错误数据的处理量,则通过预先部署在机器学习框架tensorflow内的支持向量机模型对所述当前数据进行分类,得到错误数据与正确数据以及将所述正确数据传送至数据接收端,若当前数据中的错误数据量小于或等于预置纠错码对错误数据的处理量,则将所述第三预测结果传送至数据接收端。
可选地,所述模型预测优化装置还包括以下模块:
接收模块,用于接收光信号,并对所述光信号进行时域采样操作,得到多帧子光信号;
转换模块,用于将所述子光信号转换为数字信号;
第一标准化处理模块,用于对所述数字信号进行标准化处理,得到第一待预测数据。
可选地,所述标准化处理模块以下单元:
第一计算单元,用于计算所述数字信号包括的n个数据的平均值M,并查找所述n个数据中的最大值max和最小值min,其中,每个数据记作Xi,i为不同数据的标识;
第二计算单元,用于通过公式(Xi-M)/(max-min)计算得到n个离散数据;
压缩单元,用于对所述n个离散数据进行压缩,得到第一待预测数据。
可选地,所述模型预测优化装置还包括以下模块:
转换模块,用于将所述多帧用于训练的子光信号转换为多帧用于训练的数字信号;
标注模块,用于对所述多帧用于训练的数字信号进行标注,得到每帧用于训练的数字信号的标注信息;
第二标准化处理模块,用于对所述多帧用于训练的数字信号进行标准化处理,得到多帧标准数据;
分组模块,用于基于所述标注信息,将所述多帧标准数据分为多组,其中,每组中的标准数据的标注信息相同;
获取模块,用于从每组中获取相同数量级的标准数据,组成训练样本。
可选地,所述标注模块包括以下单元:
映射单元,用于通过正交振幅调制QAM将每一帧用于训练的数字信号映射至正交调幅星座图;
筛选单元,用于根据每一帧用于训练的数字信号在希尔伯特空间的分布情况,确定所述正交调幅星座图上与每一帧用于训练的数字信号最近的点;
输出单元,用于根据所述最近的点的坐标信息,得到每一帧用于训练的数字信号的标注信息。
进一步地,为实现上述目的,本发明还提供一种模型预测优化方法设备,所述模型预测优化方法设备包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的模型预测优化方法程序,所述模型预测优化方法程序被所述处理器执行时实现如上述任一项所述的模型预测优化方法方法的步骤。
进一步地,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有模型预测优化方法程序,所述模型预测优化方法程序被处理器执行时实现如上述任一项所述的模型预测优化方法方法的步骤。
本发明通过预测模型对后处理部分的通信信号进行预测,很好地解决了协商纠错中效率低下的难题,另外,若预测结果表明错误数据的量已经超过纠错码的纠错能力,则对数据进行分类,分类出错误数据与正确数据,并将正确数据传送至数据接收端,提高了数据传输的准确率,对模型的训练过程进行了优化,提高了模型对待传输数据的预测效果。
附图说明
图1为本发明实施例方案涉及的模型预测优化设备运行环境的结构示意图;
图2为本发明模型预测优化方法第一实施例的流程示意图;
图3为本发明模型预测优化方法第二实施例的流程示意图;
图4为本发明模型预测优化方法第三实施例的流程示意图;
图5为图4中步骤S180的细化流程示意图;
图6为本发明模型预测优化方法第四实施例的流程示意图;
图7为图6中步骤S210的细化流程示意图;
图8为本发明模型预测优化装置第一实施例的功能模块示意图;
图9为本发明模型预测优化装置第二实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供一种模型预测优化设备。
参照图1,图1为本发明实施例方案涉及的模型预测优化设备运行环境的结构示意图。
如图1所示,该模型预测优化设备包括:处理器1001,例如CPU,通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的模型预测优化设备的硬件结构并不构成对模型预测优化设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及模型预测优化程序。其中,操作系统是管理和控制模型预测优化设备和软件资源的程序,支持模型预测优化程序以及其它软件和/或程序的运行。
在图1所示的模型预测优化设备的硬件结构中,网络接口1004主要用于接入网络;用户接口1003主要用于侦测确认指令和编辑指令等。而处理器1001可以用于调用存储器1005中存储的模型预测优化程序,并执行以下模型预测优化方法的各实施例的操作。
基于上述模型预测优化设备硬件结构,提出本发明模型预测优化方法的各个实施例。
参照图2,图2为本发明模型预测优化方法第一实施例的流程示意图。本实施例中,所述模型预测优化方法包括以下步骤:
步骤S10,将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果;
本实施例中,在训练深度神经网络的时候,会遇到两个问题:一是容易出现过拟合现象,即当待预测数据发生变化时,训练好的模型无法根据变化后的数据输出准确的预测结果,二是比较费时,在实际训练过程中往往需要大量的训练样本才能训练出符合预测标准的模型。为了解决这上述问题,因此通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果。
步骤S20,通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,所述预测结果集合中包括多个第一预测结果;
本实施例中,通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,所述预测结果集合中包括多个第一预测结果,由于是按照预置比例,随机性地隐藏了深度神经网络中的神经元,因此每个深度神经网络输出的预测结果可能不尽相同,就因为输出的预测结果存在不完全相同的情况,因此可以极大减少过拟合现象的发生,进而可提高预测结果的准确性,另外,由于采用的是由多个深度神经网络对训练样本进行处理的方式,提高了模型训练的速度。例如,通过归一化算法对第一深度神经网络输出的结果的进行归一化处理后,得到的值是正为0.8,负为0.2,第二深度神经网络到的值是正为0.6,负为0.4,第三深度神经网络到的值是正为0.3,负为0.7。
步骤S30,根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,以及基于所述准确度为各个隐藏神经元后的深度神经网络设置权重,得到第一预测模型;
本实施例中,第一实际结果是预置的,根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,第一实际结果指的是已知被掩盖掉的数据是什么数据的校验数据,用于检验准确度,例如,将“我喜欢吃苹果”中的“苹果”预先设置为错误数据,并将“苹果”掩盖掉,但是人是知道被掩盖的是“苹果”,此处是“苹果”就是校验数据,由于隐藏神经元后的深度神经网络并不知道被掩盖的数据是“苹果”,因此通过隐藏神经元后的深度神经网络进行预测后,会得到预测结果,此处的预测结果可能是“苹果”,也可能是“香蕉”,通过计算预测结果中“苹果”的出现次数与所有预测结果的比值,即可得到准确度。
考虑的单一的神经网络模型对数据进行预测的能力是有限的,因此采用多个深度神经网络算法相互结合的方式,解决了单一的深度神经网络算法对数据处理的局限性,对数据进行预测的目的是,检验当前数据中的错误数据的量是否已经超过纠错码可纠错的数量,若是,则说明信息接收方存在接收到错误的信息的情况,为了保证信息的安全传输,因此需要对数据中的错误数据进行实时预测。
步骤S40,通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果;
本实施例中,通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果,将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果,通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,以及基于所述准确度为各个隐藏神经元后的深度神经网络设置权重,得到第一预测模型,此时的神经网络通过训练后已经具备了预测的能力,因此可以通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果。
步骤S50,根据第二实际结果判断所述第二预测结果是否满足预置准确率;
本实施例中,第二实际结果是预置的,是已知被掩盖掉的数据是什么数据的校验数据,第二预测结果指的是,通过第一预测模型对待预测数据进行预测后,得到到的被预先掩盖掉的文本数据。例如,预先掩盖掉的数据为“评估”,必须要知道被预先掩盖掉的数据才可以检验通过第一预测模型输出的第二预测结果是否为“评估”。根据第二实际结果判断所述第二预测结果是否满足预置准确率,为了检验第二预测结果是否满足预置准确率,因此需要预先准备好对第一待预测数据的人工预测结果,例如通过标注方式对不同的数据进行标注。
步骤S60,若所述第二预测结果不满足预置准确率,则返回步骤S10,通过反向传播算法调节各个深度神经网络所占的权重,直至所述第二预测结果满足预置准确率;
本实施例中,若所述第二预测结果满足预置准确率,则得第二预测模型,第二预测模型指的是训练完整的第一预测模型,且可以对待预测数据进行正常预测。若所述第一预测结果不满足预置准确率,则说明输出错误预测结果的深度神经网络所占的权重太高,因此需要通过反向传播算法调节各个深度神经网络所占的权重,直至所述第二预测结果满足预置准确率。
步骤S70,若所述第二预测结果满足预置准确率,则得第二预测模型;
本实施例中,若所述第二预测结果满足预置准确率,说明第一预测模型输出的预测结果已经满足预置准确率,例如,98%,则得第二预测模型。
步骤S80,通过所述第二预测模型对第二待预测数据进行预测,得到第三预测结果;
本实施例中,将第二待预测数据输入第二预测模型后,第二预测模型输出一个四行一列的向量,假设该向量为y=[-0.5,0.1,0,0.3],首先取以自然数e的幂,变成以下形式:
y1=[exp(-0.5),exp(0),exp(0.1),exp(0.3)]=[0.6065,1.1051,1.0,1.3498],对y1所有元素求和得到y1_sum=0.6065+1.1051+1.0+1.3498=4.061,记y2=y1/y1_sum=[0.149,0.272,0.246,0.332],y2中第4列元素最大,那么y的类别就是4,即得到与第四列元素相对应的数据。
步骤S90,判断所述第三预测结果中错误数据量是否大于预置纠错码对错误数据的处理量;
本实施例中,根据所述第二预测结果判断当前数据中的错误数据量是否大于预置纠错码对错误数据的处理量,例如,对第一个数据的预测结果是错误数据,对第二个数据的预测结果为错误数据......对第一百个数据的预测结果为错误数据,其中,纠错码仅能处理九十九个错误数据,则说明当前数据中的错误数据量是否大于预置纠错码对错误数据的处理量。
步骤S100,若当前数据中的错误数据量大于预置纠错码对错误数据的处理量,则通过预先部署在机器学习框架tensorflow内的支持向量机模型对所述当前数据进行分类,得到错误数据与正确数据以及将所述正确数据传送至数据接收端;
本实施例中,若当前数据中的错误数据量大于预置纠错码对错误数据的处理量,则通过预先部署在机器学习框架tensorflow内的支持向量机模型对所述当前数据进行分类,得到错误数据与正确数据以及将所述正确数据传送至数据接收端。
步骤S110,若当前数据中的错误数据量小于或等于预置纠错码对错误数据的处理量,则将所述第三预测结果传送至数据接收端。
本实施例中,通过预测模型对后处理部分的通信信号进行预测,很好地解决了协商纠错中效率低下的难题,另外,若预测结果表明错误数据的量已经超过纠错码的纠错能力,则对数据进行分类,分类出错误数据与正确数据,并将正确数据传送至数据接收端,提高了数据传输的准确率。
参照图3,图3为本发明模型预测优化方法第二实施例的流程示意图。本实施例中,在图2的步骤S10之前,还包括以下步骤:
步骤S120,根据预先设置的随机隐藏神经元的策略,通过随机算法随机隐藏同一深度神经网络的神经元;
本实施例中,根据预先设置的随机隐藏神经元的策略,通过随机算法随机隐藏同一深度神经网络的神经元,随机隐藏神经元的策略指的是,随机隐藏深度神经网络的神经元,隐藏的规律可以是随机隐藏10%的神经元、随机隐藏20%的神经元、随机隐藏30%的神经元......随机隐藏100%的神经元。
步骤S130,采用第二训练样本数据训练所述隐藏神经元后的深度神经网络,得到初始深度神经网络;
本实施例中,采用第二训练样本数据训练所述隐藏神经元后的深度神经网络,得到初始深度神经网络,例如,目前有三个神经网络,第一个神经网络随机隐藏掉10%的神经元,第二个神经网络随机隐藏掉20%的神经元,第三个神经网络随机隐藏掉30%的神经元,然后采用同一训练样本训练所述隐藏神经元后的深度神经网络,得到三个初始深度神经网络。
步骤S140,通过所述初始深度神经网络对第三待预测数据进行预测,得到初始预测结果集合,所述初始预测结果集合包括多个初始预测结果;
本实施例中,通过所述初始深度神经网络对第三待预测数据进行预测,得到初始预测结果集合,所述初始预测结果集合包括多个初始预测结果,根据预先设置的随机隐藏神经元的策略,通过随机算法随机隐藏同一深度神经网络的神经元,然后,采用第二训练样本数据训练所述隐藏神经元后的深度神经网络,得到初始深度神经网络,为了检验初始深度神经网络是否具备了一定的预测准确率,例如97%,则需要通过所述初始深度神经网络对第三待预测数据进行预测,得到初始预测结果集合,初始预测结果集合包括多个初始预测结果。
步骤S150,根据预置人工预测结果从所述初始预测结果集合中筛选出正确率最高的初始预测结果,以及基于所述正确率最高的初始预测结果确定隐藏神经元之间的预置隐藏比例。
本实施例中,需要预先设置随机隐藏神经元的策略,例如,先通过第一训练样本数据去训练通过随机算法随机隐藏10%的神经元,训练一千次后,再通过所述隐藏10%的神经元后的深度神经网络对第二样本数据进行预测,得到第一个预测结果;再通过第一训练样本数据去训练通过随机算法随机隐藏20%的神经元后的深度神经网络,训练一千次后,对第二样本数据进行预测,得到第二个预测结果......最后通过通过第一训练样本数据去训练隐藏90%的神经元后的深度神经网络,训练一千次后,对第二样本数据进行预测,得到第九个预测结果。通过预先准备好的人工预测结果检验上述九个预测结果的正确率的大小,筛选出正确率最大预测结果,从而可以确定隐藏的神经元所占的最佳比例。
参照图4,图4为本发明模型预测优化方法第三实施例的流程示意图。本实施例中,在图2的步骤S40之前,还包括以下步骤:
步骤S160,接收光信号,并对所述光信号进行时域采样操作,得到多帧子光信号;
本实施例中,为了将光纤信道中传输的光信号转为计算机可识别的数字信号,在信号接收端需要首先需要对光信号进行时域的采样操作,得到多帧子光信号。具体的,可通过动态偏振控制器对信道中的光子进行线性双折射,改变入射光信号的相位差,实现偏振态转换。然后通过偏振光分束器对偏振态的光信号进行分束,形成两束性质一致光强可调的信号光,对这两束光信号进行相位调制,形成同相、正交两支光束。
步骤S170,将所述子光信号转换为数字信号;
本实施例中,通过模数转换器对子光信号进一步处理,将子光信号变为可以携带光子信息的数字信号。该步完成了由模拟信号至数字信号的转换。
步骤S180,对所述数字信号进行标准化处理,得到第一待预测数据。
本实施例中,假设一帧数字信号包括100个数据:X1、X2、X3......X100,计算这100个数据的平均值M,并查找这100个数据中的最大值max和最小值min,然后代入公式(Xi-M)/(max-min),计算得到100个离散数据,并将100个离散数据压缩至[-1,1]的范围,作为第一待预测数据。该步骤可提高预测准确率。
参照图5,图5为图4中步骤S180的细化流程示意图。本实施例中,步骤S180包括以下步骤:
步骤S1801,计算所述数字信号包括的n个数据的平均值M,并查找所述n个数据中的最大值max和最小值min,其中,每个数据记作Xi,i为不同数据的标识;
本实施例中,计算所述数字信号包括的n个数据的平均值M,并查找所述n个数据中的最大值max和最小值min,其中,每个数据记作Xi,i为不同数据的标识。
步骤S1802,通过公式(Xi-M)/(max-min)计算得到n个离散数据;
本实施例中,通过公式(Xi-M)/(max-min)计算得到n个离散数据。
步骤S1803,对所述n个离散数据进行压缩,得到第一待预测数据。
本实施例中,假设一帧数字信号包括100个数据:X1、X2、X3......X100,计算这100个数据的平均值M,并查找这100个数据中的最大值max和最小值min,然后代入公式(Xi-M)/(max-min),计算得到100个离散数据,并将100个离散数据压缩至[-1,1]的范围,作为第一待预测数据。该步骤可提高预测准确率。
参照图6,图6为本发明模型预测优化方法第四实施例的流程示意图。本实施例中,在图2的步骤S10之前,还包括以下步骤:
步骤S190,获取用于训练的光信号,并对所述用于训练的光信号进行时域采样操作,得到多帧用于训练的子光信号;
本实施例中,获取用于训练的光信号,并对所述用于训练的光信号进行时域采样操作,得到多帧用于训练的子光信号。
步骤S200,将所述多帧用于训练的子光信号转换为多帧用于训练的数字信号;
本实施例中,为了将光纤信道中传输的光信号转为计算机可识别的数字信号,在信号接收端需要首先需要对用于训练的光信号进行时域的采样操作。然后通过模数转换器对信号进一步处理变为可以携带光子信息的用于训练的数字信号。
步骤S210,对所述多帧用于训练的数字信号进行标注,得到每帧用于训练的数字信号的标注信息;
本实施例中,将每一帧数据依次按照变换映射至N阶正交调幅星座图上。根据数据在希尔伯特空间的分布情况,标注与之最近的一个星座图的点作为输出的label。对于N阶的正交调幅星座图的信号分类问题来说,所需要相应的分类结果数为N。
步骤S220,对所述多帧用于训练的数字信号进行标准化处理,得到多帧标准数据;
本实施例中,由于要通过深度神经网络进行训练,所以在数据在输入前会对数据进行标准化处理,具体为:假设一帧用于训练的数字信号包括100个数据:X1、X2、X3......X100,计算这100个数据的平均值M,并查找这100个数据中的最大值max和最小值min,然后代入公式:
(Xi-M)/(max-min),计算得到100个离散数据,将离散数据映射压缩至[-1,1]的范围,以便在前馈网络学习和反向传播权重更新的过程中避免发生特征的偏移。
步骤S230,基于所述标注信息,将所述多帧标准数据分为多组,其中,每组中的标准数据的标注信息相同;
本实施例中,若采用四阶正交调幅星座图,则标注信息分为四种:第一类、第二类、第三类以及第四类。则根据标注信息,可将多帧标准数据分为四组,且每组中的标准数据的标注信息相同。
步骤S240,从每组中获取相同数量级的标准数据,组成训练样本。
本实施例中,从每组中获取相同数量级(例如50个)的标准数据,组成训练数据,这样可以更好的对数据特征进行学习,以达到更准确的模型训练效果。
参照图7,图7为图6中步骤S210的细化流程示意图。本实施例中,步骤S210包括以下步骤:
步骤S2101,通过正交振幅调制QAM将每一帧用于训练的数字信号映射至正交调幅星座图;
本实施例中,通过正交振幅调制QAM将每一帧用于训练的数字信号映射至正交调幅星座图,通过正交振幅调制QAM实现将数字信号映射至正交调幅星座图,例如,通过QAM将数字信号映射到一个调制星座,以便进行传输,根据所应用的函数,例如,根据三角函数的正交性对数字信号进行映射,将产生不同的星座点。
步骤S2102,并根据每一帧用于训练的数字信号在希尔伯特空间的分布情况,确定所述正交调幅星座图上与每一帧用于训练的数字信号最近的点;
本实施例中,并根据每一帧用于训练的数字信号在希尔伯特空间的分布情况,确定所述正交调幅星座图上与每一帧用于训练的数字信号最近的点。
步骤S2103,根据所述最近的点的坐标信息,得到每一帧用于训练的数字信号的标注信息。
本实施例中,将每一帧数据依次按照变换映射至四阶正交调幅星座图上。根据数据在希尔伯特空间的分布情况,标注与之最近的一个星座图的点作为输出的label。对于N阶的正交调幅星座图的信号分类问题来说,所需要相应的分类结果数为N。
参照图8,图8为本发明模型预测优化装置第一实施例的功能模块示意图。本实施例中,所述模型预测优化装置包括:
训练输出模块10,用于将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果;
归一计算模块20,用于通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,所述预测结果集合中包括多个第一预测结果;
计算模块30,用于根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,以及基于所述准确度为各个隐藏神经元后的深度神经网络设置权重,得到第一预测模型;
第一预测模块40,用于通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果;
第一判断模块50,用于根据第二实际结果判断所述第二预测结果是否满足预置准确率;
调节模块60,用于若所述第二预测结果满足预置准确率,则得第二预测模型,若所述第二预测结果不满足预置准确率,则通过反向传播算法调节各个深度神经网络所占的权重,直至所述第二预测结果满足预置准确率;
第二预测模块70,用于通过所述第二预测模型对第二待预测数据进行预测,得到第三预测结果;
第二判断模块80,用于判断所述第三预测结果中错误数据量是否大于预置纠错码对错误数据的处理量;
分类模块90,用于若当前数据中的错误数据量大于预置纠错码对错误数据的处理量,则通过预先部署在机器学习框架tensorflow内的支持向量机模型对所述当前数据进行分类,得到错误数据与正确数据以及将所述正确数据传送至数据接收端,若当前数据中的错误数据量小于或等于预置纠错码对错误数据的处理量,则将所述第三预测结果传送至数据接收端。
本实施例中,通过分类模块解决了协商纠错中效率低下的难题,若预测结果表明错误数据的量已经超过纠错码可纠错的数量,则对数据进行分类,分类出错误数据与正确数据,并将正确数据传送至数据接收端,提高了数据传输的准确率。
参照图9,图9为本发明模型预测优化装置第二实施例的功能模块示意图。本实施例中,所述模型预测优化装置包括:
训练输出模块10,用于将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果;
归一计算模块20,用于通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,所述预测结果集合中包括多个第一预测结果;
计算模块30,用于根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,以及基于所述准确度为各个隐藏神经元后的深度神经网络设置权重,得到第一预测模型;
第一预测模块40,用于通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果;
第一判断模块50,用于根据第二实际结果判断所述第二预测结果是否满足预置准确率;
调节模块60,用于若所述第二预测结果满足预置准确率,则得第二预测模型,若所述第二预测结果不满足预置准确率,则通过反向传播算法调节各个深度神经网络所占的权重,直至所述第二预测结果满足预置准确率;
第二预测模块70,用于通过所述第二预测模型对第二待预测数据进行预测,得到第三预测结果;
第二判断模块80,用于判断所述第三预测结果中错误数据量是否大于预置纠错码对错误数据的处理量;
分类模块90,用于若当前数据中的错误数据量大于预置纠错码对错误数据的处理量,则通过预先部署在机器学习框架tensorflow内的支持向量机模型对所述当前数据进行分类,得到错误数据与正确数据以及将所述正确数据传送至数据接收端,若当前数据中的错误数据量小于或等于预置纠错码对错误数据的处理量,则将所述第三预测结果传送至数据接收端;
接收模块100,用于接收光信号,并对所述光信号进行时域采样操作,得到多帧子光信号;
转换模块110,用于将所述子光信号转换为数字信号;
标准化处理模块120,用于对所述数字信号进行标准化处理,得到第一待预测数据。
本发明还提供一种计算机可读存储介质。
本实施例中,所述计算机可读存储介质上存储有模型预测优化程序,所述模型预测优化程序被处理器执行时实现如上述任一项实施例中所述的模型预测优化方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,这些均属于本发明的保护之内。

Claims (10)

1.一种模型预测优化方法,其特征在于,所述模型预测优化方法包括以下步骤:
将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果;
通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,所述预测结果集合中包括多个第一预测结果;
根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,以及基于所述准确度为各个隐藏神经元后的深度神经网络设置权重,得到第一预测模型;
通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果;
根据第二实际结果判断所述第二预测结果是否满足预置准确率;
若是,则得第二预测模型,若否,则通过反向传播算法调节各个深度神经网络所占的权重,直至所述第二预测结果满足预置准确率;
通过所述第二预测模型对第二待预测数据进行预测,得到第三预测结果;
判断所述第三预测结果中错误数据量是否大于预置纠错码对错误数据的处理量;
若是,则通过预先部署在机器学习框架tensorflow内的支持向量机模型对所述当前数据进行分类,得到错误数据与正确数据以及将所述正确数据传送至数据接收端,若否,则将所述第三预测结果传送至数据接收端。
2.如权利要求1所述的模型预测优化方法,其特征在于,在所述将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果的步骤之前,还包括以下步骤:
根据预先设置的随机隐藏神经元的策略,通过随机算法随机隐藏同一深度神经网络的神经元;
采用第二训练样本数据训练所述隐藏神经元后的深度神经网络,得到初始深度神经网络;
通过所述初始深度神经网络对第三待预测数据进行预测,得到初始预测结果集合,所述初始预测结果集合包括多个初始预测结果;
根据预置人工预测结果从所述初始预测结果集合中筛选出正确率最高的初始预测结果,以及基于所述正确率最高的初始预测结果确定隐藏神经元之间的预置隐藏比例。
3.如权利要求1所述的模型预测优化方法,其特征在于,在所述通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果的步骤之前,还包括以下步骤:
接收光信号,并对所述光信号进行时域采样操作,得到多帧子光信号;
将所述子光信号转换为数字信号;
对所述数字信号进行标准化处理,得到第一待预测数据。
4.如权利要求3所述的模型预测优化方法,其特征在于,所述对所述数字信号进行标准化处理,得到第一待预测数据包括以下步骤:
计算所述数字信号包括的n个数据的平均值M,并查找所述n个数据中的最大值max和最小值min,其中,每个数据记作Xi,i为不同数据的标识;
通过公式(Xi-M)/(max-min)计算得到n个离散数据;
对所述n个离散数据进行压缩,得到第一待预测数据。
5.如权利要求1所述的模型预测优化方法,其特征在于,在将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果的步骤之前,还包括以下步骤:
将所述多帧用于训练的子光信号转换为多帧用于训练的数字信号;
对所述多帧用于训练的数字信号进行标注,得到每帧用于训练的数字信号的标注信息;
对所述多帧用于训练的数字信号进行标准化处理,得到多帧标准数据;
基于所述标注信息,将所述多帧标准数据分为多组,其中,每组中的标准数据的标注信息相同;
从每组中获取相同数量级的标准数据,组成训练样本。
6.如权利要求5所述的模型预测优化方法,其特征在于,所述对所述多帧用于训练的数字信号进行标注,得到每帧用于训练的数字信号的标注信息包括以下步骤:
通过正交振幅调制QAM将每一帧用于训练的数字信号映射至正交调幅星座图;
并根据每一帧用于训练的数字信号在希尔伯特空间的分布情况,确定所述正交调幅星座图上与每一帧用于训练的数字信号最近的点;
根据所述最近的点的坐标信息,得到每一帧用于训练的数字信号的标注信息。
7.一种模型预测优化装置,其特征在于,所述模型预测优化装置包括:
训练输出模块,用于将第一训练样本数据输入预先部署在机器学习框架tensorflow内的深度神经网络集,在通过所述第一训练样本数据训练所述深度神经网络集中的各个深度神经网络时,通过随机算法按照预置隐藏比例,随机隐藏各个深度神经网络中的神经元,得到隐藏神经元后的深度神经网络以及输出所述各个深度神经网络的第一预测结果;
归一计算模块,用于通过归一化算法对所述隐藏神经元后的深度神经网络所输出的第一预测结果进行归一化处理,得到预测结果集合,所述预测结果集合中包括多个第一预测结果;
计算模块,用于根据第一实际结果计算所述预测结果集合中各个第一预测结果的准确度,以及基于所述准确度为各个隐藏神经元后的深度神经网络设置权重,得到第一预测模型;
第一预测模块,用于通过所述第一预测模型对第一待预测数据进行预测,得到第二预测结果;
第一判断模块,用于根据第二实际结果判断所述第二预测结果是否满足预置准确率;
调节模块,用于若所述第二预测结果满足预置准确率,则得第二预测模型,若所述第二预测结果不满足预置准确率,则通过反向传播算法调节各个深度神经网络所占的权重,直至所述第二预测结果满足预置准确率;
第二预测模块,用于通过所述第二预测模型对第二待预测数据进行预测,得到第三预测结果;
第二判断模块,用于判断所述第三预测结果中错误数据量是否大于预置纠错码对错误数据的处理量;
分类模块,用于若当前数据中的错误数据量大于预置纠错码对错误数据的处理量,则通过预先部署在机器学习框架tensorflow内的支持向量机模型对所述当前数据进行分类,得到错误数据与正确数据以及将所述正确数据传送至数据接收端,若当前数据中的错误数据量小于或等于预置纠错码对错误数据的处理量,则将所述第三预测结果传送至数据接收端。
8.如权利要求7所述的模型预测优化装置,其特征在于,所述模型预测优化装置还包括以下模块:
接收模块,用于接收光信号,并对所述光信号进行时域采样操作,得到多帧子光信号;
转换模块,用于将所述子光信号转换为数字信号;
第一标准化处理模块,用于对所述数字信号进行标准化处理,得到第一待预测数据。
9.一种模型预测优化设备,其特征在于,所述模型预测优化设备包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的模型预测优化程序,所述模型预测优化程序被所述处理器执行时实现如权利要求1-6中任一项所述的模型预测优化方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有模型预测优化程序,所述模型预测优化程序被处理器执行时实现如权利要求1-6中任一项所述的模型预测优化方法的步骤。
CN201910884629.XA 2019-09-19 2019-09-19 模型预测优化方法、装置、设备及可读存储介质 Active CN110798227B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910884629.XA CN110798227B (zh) 2019-09-19 2019-09-19 模型预测优化方法、装置、设备及可读存储介质
PCT/CN2019/118263 WO2021051596A1 (zh) 2019-09-19 2019-11-14 模型预测优化方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910884629.XA CN110798227B (zh) 2019-09-19 2019-09-19 模型预测优化方法、装置、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN110798227A true CN110798227A (zh) 2020-02-14
CN110798227B CN110798227B (zh) 2023-07-25

Family

ID=69427341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910884629.XA Active CN110798227B (zh) 2019-09-19 2019-09-19 模型预测优化方法、装置、设备及可读存储介质

Country Status (2)

Country Link
CN (1) CN110798227B (zh)
WO (1) WO2021051596A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507855A (zh) * 2020-12-04 2021-03-16 国网浙江省电力有限公司武义县供电公司 一种基于瞬时包络等势星球图的通信辐射源个体识别方法
CN113177074A (zh) * 2021-04-02 2021-07-27 北京科技大学 一种提升环境自适应性的光学性能监测系统及方法
WO2022052647A1 (zh) * 2020-09-11 2022-03-17 华为技术有限公司 一种数据处理方法、神经网络的训练方法以及相关设备

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837383B (zh) * 2021-10-18 2023-06-23 中国联合网络通信集团有限公司 模型训练方法、装置、电子设备及存储介质
CN114925920B (zh) * 2022-05-25 2024-05-03 中国平安财产保险股份有限公司 离线位置预测方法、装置、电子设备及存储介质
CN115642972B (zh) * 2022-12-23 2023-03-21 鹏城实验室 动态信道通信检测方法、装置、设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622418A (zh) * 2012-02-21 2012-08-01 北京联合大学 一种基于bp神经网络的预测装置及设备
CN109408583A (zh) * 2018-09-25 2019-03-01 平安科技(深圳)有限公司 数据处理方法及装置、计算机可读存储介质、电子设备
CN109905271A (zh) * 2018-05-18 2019-06-18 华为技术有限公司 一种预测方法、训练方法、装置及计算机存储介质
US20190188598A1 (en) * 2017-12-15 2019-06-20 Fujitsu Limited Learning method, prediction method, learning device, predicting device, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8775341B1 (en) * 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
CN109146076A (zh) * 2018-08-13 2019-01-04 东软集团股份有限公司 模型生成方法及装置、数据处理方法及装置
US11568211B2 (en) * 2018-12-27 2023-01-31 Intel Corporation Defending neural networks by randomizing model weights
CN109919304B (zh) * 2019-03-04 2021-07-02 腾讯科技(深圳)有限公司 图像处理方法、装置、可读存储介质和计算机设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622418A (zh) * 2012-02-21 2012-08-01 北京联合大学 一种基于bp神经网络的预测装置及设备
US20190188598A1 (en) * 2017-12-15 2019-06-20 Fujitsu Limited Learning method, prediction method, learning device, predicting device, and storage medium
CN109905271A (zh) * 2018-05-18 2019-06-18 华为技术有限公司 一种预测方法、训练方法、装置及计算机存储介质
CN109408583A (zh) * 2018-09-25 2019-03-01 平安科技(深圳)有限公司 数据处理方法及装置、计算机可读存储介质、电子设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022052647A1 (zh) * 2020-09-11 2022-03-17 华为技术有限公司 一种数据处理方法、神经网络的训练方法以及相关设备
CN112507855A (zh) * 2020-12-04 2021-03-16 国网浙江省电力有限公司武义县供电公司 一种基于瞬时包络等势星球图的通信辐射源个体识别方法
CN113177074A (zh) * 2021-04-02 2021-07-27 北京科技大学 一种提升环境自适应性的光学性能监测系统及方法
CN113177074B (zh) * 2021-04-02 2023-09-29 北京科技大学 一种提升环境自适应性的光学性能监测系统及方法

Also Published As

Publication number Publication date
WO2021051596A1 (zh) 2021-03-25
CN110798227B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
CN110798227A (zh) 模型预测优化方法、装置、设备及可读存储介质
CN110728328B (zh) 分类模型的训练方法和装置
CN109359149B (zh) 一种模拟测试方法及相关装置
CN104636118A (zh) 基于光平衡的qr二维码自适应二值化处理方法和装置
US20140286527A1 (en) Systems and methods for accelerated face detection
CN111460155B (zh) 一种基于知识图谱的信息可信度评估方法及装置
CN106612511B (zh) 一种基于支持向量机的无线网络吞吐量的评估方法及装置
US20170164219A1 (en) Network Parameter Adjustment Method, and Base Station Device
CN111224779A (zh) 基于码本的物理层密钥生成方法、装置、存储介质及终端
CN113869521A (zh) 构建预测模型的方法、装置、计算设备和存储介质
CN111784401A (zh) 下单率预测方法、装置、设备及可读存储介质
CN113792892A (zh) 联邦学习建模优化方法、设备、可读存储介质及程序产品
KR20230041031A (ko) 전력 제어 방법, 장치, 통신 노드 및 저장 매체
CN113033457A (zh) 一种软故障识别模型训练和软故障识别方法、装置
CN117252149A (zh) 芯片验证方法及装置、芯片验证系统和可读存储介质
CN115187821B (zh) 验证模型转换前后正确性的方法、相关装置及程序产品
CN111488950A (zh) 分类模型信息输出方法及装置
CN116912556A (zh) 图片分类方法、装置、电子设备及存储介质
CN111222558A (zh) 图像处理方法及存储介质
CN115730553A (zh) 芯片版图图形生成方法、系统、控制器及存储介质
CN114913513A (zh) 一种公章图像的相似度计算方法、装置、电子设备和介质
CN114241253A (zh) 违规内容识别的模型训练方法、系统、服务器及存储介质
CN113301673A (zh) 无线传感网络的分布式滤波方法、装置、设备及存储介质
CN114785433A (zh) 信道场景识别的方法、网络设备及存储介质
CN113139563A (zh) 一种图像分类模型的优化方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant