CN110348566B - 一种生成神经网络训练用数字信号的方法和系统 - Google Patents

一种生成神经网络训练用数字信号的方法和系统 Download PDF

Info

Publication number
CN110348566B
CN110348566B CN201910635158.9A CN201910635158A CN110348566B CN 110348566 B CN110348566 B CN 110348566B CN 201910635158 A CN201910635158 A CN 201910635158A CN 110348566 B CN110348566 B CN 110348566B
Authority
CN
China
Prior art keywords
signal
neural network
digital signal
network model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910635158.9A
Other languages
English (en)
Other versions
CN110348566A (zh
Inventor
夏广武
杨建�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Dianji Industry Co ltd
Original Assignee
Shanghai Dianji Industry Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Dianji Industry Co ltd filed Critical Shanghai Dianji Industry Co ltd
Priority to CN201910635158.9A priority Critical patent/CN110348566B/zh
Publication of CN110348566A publication Critical patent/CN110348566A/zh
Application granted granted Critical
Publication of CN110348566B publication Critical patent/CN110348566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Abstract

本发明公开了一种生成神经网络训练用数字信号的方法和系统,方法包括:获取多个标准数字信号;获取目标预处理操作;对所述多个标准数字信号进行目标预处理操作,得到多个输入数字信号,所述输入数字信号用于训练预设类型的深度卷积神经网络模型。通过该技术方案,可以生成神经网络训练用数字信号,进而训练深度卷积神经网络模型,通过深度卷积神经网络模型对数字信号进行处理,而该深度卷积神经网络模型可以将所有使用过滤器的效果包含在其中,从而简化数字信号的预处理过程。

Description

一种生成神经网络训练用数字信号的方法和系统
技术领域
本发明涉及深度学习算法技术领域,更具体地,涉及一种生成神经网络训练用数字信号的方法和系统。
背景技术
相关技术中,对于数字信号的预处理,如数字信号的还原、增强和去噪等,一般采用过滤器进行处理,但是,采用过滤器进行处理时,每种过滤器只能解决部分问题,这样,可能需要几十种过滤器,很难找到通用的过滤器。
发明内容
鉴于上述问题,本发明提出了一种生成神经网络训练用数字信号的方法和系统,其可以生成神经网络训练用数字信号,进而训练深度卷积神经网络模型,通过深度卷积神经网络模型对数字信号进行处理,而该深度卷积神经网络模型可以将所有使用过滤器的效果包含在其中,从而简化数字信号的预处理过程。
根据本发明实施例的第一方面,提供一种生成神经网络训练用数字信号的方法,包括:
获取多个标准数字信号;
获取目标预处理操作;
对所述多个标准数字信号进行目标预处理操作,得到多个输入数字信号,所述输入数字信号用于训练预设类型的深度卷积神经网络模型。
在一个实施例中,优选地,所述获取标准数字信号,包括:
从第一预定存储空间中调用信号发生程序,获取所述信号发生程序生成的多个标准数字信号保存在内存中。
在一个实施例中,优选地,所述获取目标预处理操作包括:
获取所述预设类型的深度卷积神经网络模型的用途,所述用途包括以下任一项:信号去噪操作,信号还原操作,相位还原操作,信号放大操作;
根据所述用途确定对应的目标预处理操作。
在一个实施例中,优选地,根据所述用途确定对应的目标预处理操作,包括:
当所述预设类型的深度卷积神经网络模型用于进行信号去噪操作时,确定对应的目标预处理操作为噪声叠加操作;
当所述预设类型的深度卷积神经网络模型用于进行信号还原操作时,确定对应的目标预处理操作为信号转换操作;
当所述预设类型的深度卷积神经网络模型用于进行相位还原操作时,确定对应的目标预处理操作为相位偏移操作;
当所述预设类型的深度卷积神经网络模型用于进行信号放大操作时,确定对应的目标预处理操作为信号缩小操作。
在一个实施例中,优选地,所述噪声叠加操作包括:
获取多个随机高斯噪声信号并保存在内存中;
从内存中分别读取各个标准数字信号及各个所述随机高斯噪声信号,按照预定的规则利用所述内存中的随机高斯噪声信号对所述内存中的标准数字信号进行叠加,得到多个所述输入数字信号,将所述标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第一训练样本信号集合中;
所述信号转换操作包括:
获取至少一种转换方式保存在内存中;
从内存中选取转换方式对所述内存中的标准数字信号进行转换,得到多个所述输入数字信号,将所述标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第二训练样本信号集合中。
所述相位还原操作包括:
获取至少一个相位偏移量保存在内存中;
从内存中选取相位偏移量对所述内存中的标准数字信号进行相位偏移,得到多个所述输入数字信号,将所述标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第三训练样本信号集合中;
所述信号缩小操作包括:
获取至少一个信号放大系数保存在内存中;
根据所述信号放大系数确定信号缩小系数;
从内存中选取信号缩小系数对所述内存中的标准数字信号进行缩小处理,得到多个缩小数字信号,将所述标准数字信号与对应的缩小数字信号关联保存到位于第二预定存储空间的第四训练样本信号集合中。
在一个实施例中,优选地,所述方法还包括:
获取训练样本信号集合,所述训练样本信号集合包括多组训练样本信号,每组训练样本信号包括所述标准数字信号和输入数字信号;
将所述训练样本信号集合中的输入数字信号输入预设类型的深度卷积神经网络模型中,得到每组训练样本信号对应的训练结果信号;
将每个所述训练结果信号与各自对应的训练样本信号中的所述标准数字信号进行对比,得到对比结果;
根据所述对比结果确定所述预设类型的深度卷积神经网络模型的神经网络参数。
在一个实施例中,优选地,所述将每个所述训练结果信号与各自对应的训练样本信号中的所述标准数字信号进行对比,得到对比结果,包括:
计算每个所述训练结果信号与各自对应的训练样本信号中的所述标准数字信号之间的信号差值;
所述根据所述对比结果确定所述预设类型的深度卷积神经网络模型的神经网络参数,包括:
根据各个信号差值确定当前神经网络的精度,在所述精度达到精度阈值时,将当前神经网络参数确定为目标神经网络参数;
在所述精度未达到精度阈值时,调整所述当前神经网络参数。
在一个实施例中,优选地,方法还包括:
接收待处理的数字信号;
利用预设类型的深度卷积神经网络模型对所述数字信号进行预处理操作,获得处理后的数字信号;
输出所述处理后的数字信号。
在一个实施例中,优选地,所述利用预设类型的深度卷积神经网络模型对所述数字信号进行预处理操作,获得处理后的数字信号,包括:
在确定预处理目标为信号还原后,利用第一深度卷积神经网络模型对所述数字信号进行去噪操作,获得去噪后的数字信号;利用第二深度卷积神经网络模型对所述去噪后的数字信号进行相位还原操作,获得相位还原后的数字信号;利用第三深度卷积神经网络模型对所述去噪后的数字信号进行信号还原操作,得到所述数字信号对应的原始信号;
在确定预处理目标为信号增强后,利用第一深度卷积神经网络模型对所述数字信号进行去噪操作,获得去噪后的数字信号;利用第二深度卷积神经网络模型对所述去噪后的数字信号进行相位还原操作,获得相位还原后的数字信号;利用第四深度卷积神经网络模型对所述去噪后的数字信号进行信号增强处理,得到所述数字信号对应的放大数字信号。
根据本发明实施例的第二方面,提供一种生成神经网络训练用数字信号的系统,包括:
一个或多个处理器;
一个或多个存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序被配置为执行权利要求1至9任一项所述的方法。
本发明实施例中,可以生成神经网络训练用数字信号,进而训练深度卷积神经网络模型,通过深度卷积神经网络模型对数字信号进行处理,而该深度卷积神经网络模型可以将所有使用过滤器的效果包含在其中,从而简化数字信号的预处理过程,并且可以满足不同噪声环境下的数字信号处理需求。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例的生成神经网络训练用数字信号的方法流程图。
图2是本发明一个实施例的生成神经网络训练用数字信号的方法流程图。
图3是本发明另一个实施例的生成神经网络训练用数字信号的方法流程图。
图4A是本发明另一个实施例的生成神经网络训练用数字信号的方法流程图。
图4B是本发明另一个实施例的生成神经网络训练用数字信号的方法数字信号示意图。
图4C是本发明一个实施例的标准数字信号示意图。
图4D是本发明一个实施例的随机高斯噪声信号示意图。
图4E是本发明一个实施例的输入数字信号示意图。
图4F是本发明一个实施例的处理后的还原信号示意图。
图5是本发明另一个实施例的生成神经网络训练用数字信号的方法流程图。
图6A是本发明又一个实施例的生成神经网络训练用数字信号的方法流程图。
图6B是本发明另一个实施例的生成神经网络训练用数字信号的方法数字信号示意图。
图7是本发明又一个实施例的生成神经网络训练用数字信号的方法流程图。
图8是本发明又一个实施例的生成神经网络训练用数字信号的方法流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如101、102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明一个实施例的生成神经网络训练用数字信号的方法流程图。
如图1所示,生成神经网络训练用数字信号的方法包括:
步骤S101,获取多个标准数字信号;标准数字信号可以是不同类型的波形,如方波,正弦波或者其他任意波形。
步骤S102,获取目标预处理操作;
步骤S103,对多个标准数字信号进行目标预处理操作,得到多个输入数字信号,输入数字信号用于训练预设类型的深度卷积神经网络模型。
在该实施例中,可以对标准数字信号进行目标预处理操作,得到输入数字信号,从而根据输入数字信号训练得到预设类型的深度卷积神经网络模型。
图2是本发明一个实施例的生成神经网络训练用数字信号的方法流程图。
如图2所示,在一个实施例中,优选地,上述步骤S101包括:
步骤S201,从第一预定存储空间中调用信号发生程序,获取信号发生程序生成的多个标准数字信号保存在内存中。
在该实施例中,可以调用信号发生程序产生大量的标准数字信号,从而扩大训练集。
图3是本发明另一个实施例的生成神经网络训练用数字信号的方法流程图。
如图3所示,在一个实施例中,优选地,上述步骤S102包括:
步骤S301,获取预设类型的深度卷积神经网络模型的用途,用途包括以下任一项:信号去噪操作,信号还原操作,相位还原操作,信号放大操作;
步骤S302,根据用途确定对应的目标预处理操作。
在一个实施例中,优选地,根据用途确定对应的目标预处理操作,包括:
当预设类型的深度卷积神经网络模型用于进行信号去噪操作时,确定对应的目标预处理操作为噪声叠加操作;
在一个实施例中,优选地,噪声叠加操作包括:
获取多个随机高斯噪声信号并保存在内存中;
从内存中分别读取各个标准数字信号及各个随机高斯噪声信号,按照预定的规则利用内存中的随机高斯噪声信号对内存中的标准数字信号进行叠加,得到多个输入数字信号,将标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第一训练样本信号集合中;其中,高斯噪声信号可以是随机生成之后存储在预定存储空间,也可以是存储了高斯噪声列表,随机或者按照某个规则从列表中选取高斯噪声。高斯噪声信号可以有多种,这样,标准数字信号叠加随机高斯噪声信号可以扩大数据集,从而得到较多的训练数据,使得训练得到的神经网络模型更加准确。
当预设类型的深度卷积神经网络模型用于进行信号还原操作时,确定对应的目标预处理操作为信号转换操作;信号转换操作包括:获取至少一种转换方式保存在内存中;从内存中选取转换方式对内存中的标准数字信号进行转换,得到多个输入数字信号,将标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第二训练样本信号集合中。
当预设类型的深度卷积神经网络模型用于进行相位还原操作时,确定对应的目标预处理操作为相位偏移操作;相位偏移操作包括:获取至少一个相位偏移量保存在内存中;从内存中选取相位偏移量对内存中的标准数字信号进行相位偏移,得到多个输入数字信号,将标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第三训练样本信号集合中;
当预设类型的深度卷积神经网络模型用于进行信号放大操作时,确定对应的目标预处理操作为信号缩小操作。信号缩小操作包括:获取至少一个信号放大系数保存在内存中;根据信号放大系数确定信号缩小系数;从内存中选取信号缩小系数对内存中的标准数字信号进行缩小处理,得到多个缩小数字信号,将标准数字信号与对应的缩小数字信号关联保存到位于第二预定存储空间的第四训练样本信号集合中。
图4A是本发明另一个实施例的生成神经网络训练用数字信号的方法流程图。
如图4A所示,在一个实施例中,优选地,方法还包括:
步骤S401,获取训练样本信号集合,训练样本信号集合包括多组训练样本信号,每组训练样本信号包括标准数字信号和输入数字信号;
步骤S402,将训练样本信号集合中的输入数字信号输入预设类型的深度卷积神经网络模型中,得到每组训练样本信号对应的训练结果信号;
步骤S403,将每个训练结果信号与各自对应的训练样本信号中的标准数字信号进行对比,得到对比结果;
步骤S404,根据对比结果确定预设类型的深度卷积神经网络模型的神经网络参数。
在一个实施例中,优选地,神经网络参数包括以下至少一项:神经网络的层数和神经网络的节点数。
在该实施例中,可以通过端对端训练的方式训练得到预设类型的深度卷积神经网络模型,具体地,通过预先设定的深度卷积神经网络模型对输入数字信号进行处理,得到训练结果信号,再通过训练结果信号和标准数字信号的差异确定神经网络的层数和节点数,从而得到合适的深度卷积神经网络模型。
下面以对数字信号进行信号去噪为例,详细说明书本发明的上述技术方案。
如图4B所示,获取标准数字信号和随机高斯噪声信号,将两者进行叠加,得到输入数字信号,之后利用具有信号去噪功能的深度卷积神经网络模型对输入数字信号进行深度学习以及训练推理过程的处理,得到处理后的还原信号,将处理后的还原信号与标准数字信号进行对比,以确定神经网络的参数。其中,标准数字信号示意图如图4C所示,随机高斯噪声信号如图4D所示,输入数字信号如图4E所示,处理后的还原信号如图4F所示,处理过程中的数据如表1所示。这样,不需要通过多个过滤器进行信号处理,而只通过深度卷积神经网络模型就可以实现信号还原处理,该深度卷积神经网络模型可以将所有使用过滤器的效果包含在其中,从而简化数字信号的预处理过程。
表1
Figure BDA0002129976340000091
Figure BDA0002129976340000101
Figure BDA0002129976340000111
Figure BDA0002129976340000121
Figure BDA0002129976340000131
其中,神经网络的层数和深度可以根据实际需求进行调整,层数一般在5-13层,每层节点数在7-19个之间。
图5是本发明另一个实施例的生成神经网络训练用数字信号的方法流程图。
如图5所示,在一个实施例中,优选地,上述步骤S403包括:
步骤S501,计算每个训练结果信号与各自对应的训练样本信号中的标准数字信号之间的信号差值;
上述步骤S404包括:
步骤S502,根据各个信号差值确定当前神经网络的精度,在精度达到精度阈值时,将当前神经网络参数确定为目标神经网络参数;
步骤S503,在精度未达到精度阈值时,调整当前神经网络参数。
在该实施例中,根据每个训练结果信号与各自对应的训练样本中的标准数字信号之间的信号差值确定当前神经网络的精度,如果精度未达到精度阈值,则调整当前神经网络参数,直到精度达到精度阈值为止,从而训练出准确的深度卷积神经网络模型。
图6A是本发明又一个实施例的生成神经网络训练用数字信号的方法流程图。
如图6A所示,在一个实施例中,优选地,方法还包括:
步骤601,接收待处理的数字信号;
步骤602,利用预设类型的深度卷积神经网络模型对数字信号进行预处理操作,获得处理后的数字信号;
步骤603,输出处理后的数字信号。
在该实施例中,通过预设类型的深度卷积神经网络模型对数字信号进行对应的预处理操作,如进行数字信号的还原,增强和去噪等操作,这样,不需要通过多个过滤器进行信号处理,而只通过深度卷积神经网络模型就可以实现信号处理,该深度卷积神经网络模型可以将所有使用过滤器的效果包含在其中,从而简化数字信号的预处理过程。
下面以对数字信号进行信号还原为例,详细说明书本发明的上述技术方案。
如图6B所示,接收实测输入信号,即实测数字信号,之后利用具有信号还原功能的深度卷积神经网络模型对实测输入信号进行深度学习以及训练推理过程的处理,得到处理后的还原信号,并输出还原后的信号。这样,不需要通过多个过滤器进行信号处理,而只通过深度卷积神经网络模型就可以实现信号还原处理,该深度卷积神经网络模型可以将所有使用过滤器的效果包含在其中,从而简化数字信号的预处理过程。
图7是本发明又一个实施例的生成神经网络训练用数字信号的方法流程图。
如图7所示,在一个实施例中,优选地,上述步骤S602,包括:
步骤S701,在确定预处理目标为信号还原后,利用第一深度卷积神经网络模型对数字信号进行去噪操作,获得去噪后的数字信号;利用第二深度卷积神经网络模型对去噪后的数字信号进行相位还原操作,获得相位还原后的数字信号;利用第三深度卷积神经网络模型对去噪后的数字信号进行信号还原操作,得到数字信号对应的原始信号;
在一些应用场景下,预处理操作的目的是信号还原,由于信号在传输过程中必然包含噪声,因此,如果需要对信号进行信号还原,则依次对信号进行去噪,相位还原和信号还原的操作,从而得到原始信号。
图8是本发明又一个实施例的生成神经网络训练用数字信号的方法流程图。
如图8所示,在一个实施例中,优选地,上述步骤S602包括:
步骤S801,在确定预处理目标为信号增强后,利用第一深度卷积神经网络模型对数字信号进行去噪操作,获得去噪后的数字信号;利用第二深度卷积神经网络模型对去噪后的数字信号进行相位还原操作,获得相位还原后的数字信号;利用第四深度卷积神经网络模型对去噪后的数字信号进行信号增强处理,得到数字信号对应的放大数字信号。
在一些应用场景下,预处理操作的目的是信号增强,由于信号在传输过程中必然包含噪声,如果需要对信号进行信号增强,则依次对信号进行去噪,相位还原和信号增强的操作,从而得到放大数字信号。
根据本发明实施例的第二方面,提供一种生成神经网络训练用数字信号的系统,包括:
一个或多个处理器;
一个或多个存储器;
一个或多个应用程序,其中一个或多个应用程序被存储在一个或多个存储器中并被配置为由一个或多个处理器执行,一个或多个程序被配置为执行如第一方面或第一方面任一实施例中的方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上对本发明所提供的一种便捷式多功能设备进行了详细介绍,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种生成神经网络训练用数字信号的方法,其特征在于,包括:
获取多个标准数字信号;
获取标准数字信号,包括:从第一预定存储空间中调用信号发生程序,获取所述信号发生程序生成的多个标准数字信号保存在内存中;
获取目标预处理操作;
对所述多个标准数字信号进行目标预处理操作,得到多个输入数字信号,所述输入数字信号用于训练预设类型的深度卷积神经网络模型;
所述获取目标预处理操作包括:
获取所述预设类型的深度卷积神经网络模型的用途,所述用途包括信号去噪操作;
根据所述用途确定对应的目标预处理操作;
根据所述用途确定对应的目标预处理操作,包括:
当所述预设类型的深度卷积神经网络模型用于进行信号去噪操作时,确定对应的目标预处理操作为噪声叠加操作;
所述噪声叠加操作包括:
获取多个随机高斯噪声信号并保存在内存中;
从内存中分别读取各个标准数字信号及各个所述随机高斯噪声信号,按照预定的规则利用所述内存中的随机高斯噪声信号对所述内存中的标准数字信号进行叠加,得到多个所述输入数字信号,将所述标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第一训练样本信号集合中。
2.根据权利要求1所述的生成神经网络训练用数字信号的方法,其特征在于,所述用途还包括以下任一项:信号还原操作,相位还原操作,信号放大操作。
3.根据权利要求2所述的生成神经网络训练用数字信号的方法,其特征在于,根据所述用途确定对应的目标预处理操作还包括:
当所述预设类型的深度卷积神经网络模型用于进行信号还原操作时,确定对应的目标预处理操作为信号转换操作;
所述信号转换操作包括:
获取至少一种转换方式保存在内存中;
从内存中选取转换方式对所述内存中的标准数字信号进行转换,得到多个所述输入数字信号,将所述标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第二训练样本信号集合中;
当所述预设类型的深度卷积神经网络模型用于进行相位还原操作时,确定对应的目标预处理操作为相位偏移操作;
所述相位偏移操作包括:
获取至少一个相位偏移量保存在内存中;
从内存中选取相位偏移量对所述内存中的标准数字信号进行相位偏移,得到多个所述输入数字信号,将所述标准数字信号与对应的输入数字信号关联保存到位于第二预定存储空间的第三训练样本信号集合中;
当所述预设类型的深度卷积神经网络模型用于进行信号放大操作时,确定对应的目标预处理操作为信号缩小操作;
所述信号缩小操作包括:
获取至少一个信号放大系数保存在内存中;
根据所述信号放大系数确定信号缩小系数;
从内存中选取信号缩小系数对所述内存中的标准数字信号进行缩小处理,得到多个缩小数字信号,将所述标准数字信号与对应的缩小数字信号关联保存到位于第二预定存储空间的第四训练样本信号集合中。
4.根据权利要求2所述的生成神经网络训练用数字信号的方法,其特征在于,所述方法还包括:
获取训练样本信号集合,所述训练样本信号集合包括多组训练样本信号,每组训练样本信号包括所述标准数字信号和输入数字信号;
将所述训练样本信号集合中的输入数字信号输入预设类型的深度卷积神经网络模型中,得到每组训练样本信号对应的训练结果信号;
将每个所述训练结果信号与各自对应的训练样本信号中的所述标准数字信号进行对比,得到对比结果;
根据所述对比结果确定所述预设类型的深度卷积神经网络模型的神经网络参数。
5.根据权利要求4所述的生成神经网络训练用数字信号的方法,其特征在于,所述将每个所述训练结果信号与各自对应的训练样本信号中的所述标准数字信号进行对比,得到对比结果,包括:
计算每个所述训练结果信号与各自对应的训练样本信号中的所述标准数字信号之间的信号差值;
所述根据所述对比结果确定所述预设类型的深度卷积神经网络模型的神经网络参数,包括:
根据各个信号差值确定当前神经网络的精度,在所述精度达到精度阈值时,将当前神经网络参数确定为目标神经网络参数;
在所述精度未达到精度阈值时,调整所述当前神经网络参数。
6.根据权利要求4所述的生成神经网络训练用数字信号的方法,其特征在于,所述方法还包括:
接收待处理的数字信号;
利用预设类型的深度卷积神经网络模型对所述数字信号进行预处理操作,获得处理后的数字信号;
输出所述处理后的数字信号。
7.根据权利要求6所述的生成神经网络训练用数字信号的方法,其特征在于,所述利用预设类型的深度卷积神经网络模型对所述数字信号进行预处理操作,获得处理后的数字信号,包括:
在确定预处理目标为信号还原后,利用第一深度卷积神经网络模型对所述数字信号进行去噪操作,获得去噪后的数字信号;利用第二深度卷积神经网络模型对所述去噪后的数字信号进行相位还原操作,获得相位还原后的数字信号;利用第三深度卷积神经网络模型对所述去噪后的数字信号进行信号还原操作,得到所述数字信号对应的原始信号;
在确定预处理目标为信号增强后,利用第一深度卷积神经网络模型对所述数字信号进行去噪操作,获得去噪后的数字信号;利用第二深度卷积神经网络模型对所述去噪后的数字信号进行相位还原操作,获得相位还原后的数字信号;利用第四深度卷积神经网络模型对所述去噪后的数字信号进行信号增强处理,得到所述数字信号对应的放大数字信号。
8.一种生成神经网络训练用数字信号的系统,其特征在于,包括:
一个或多个处理器;
一个或多个存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序被配置为执行权利要求1至7任一项所述的方法。
CN201910635158.9A 2019-07-15 2019-07-15 一种生成神经网络训练用数字信号的方法和系统 Active CN110348566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910635158.9A CN110348566B (zh) 2019-07-15 2019-07-15 一种生成神经网络训练用数字信号的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910635158.9A CN110348566B (zh) 2019-07-15 2019-07-15 一种生成神经网络训练用数字信号的方法和系统

Publications (2)

Publication Number Publication Date
CN110348566A CN110348566A (zh) 2019-10-18
CN110348566B true CN110348566B (zh) 2023-01-06

Family

ID=68175286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910635158.9A Active CN110348566B (zh) 2019-07-15 2019-07-15 一种生成神经网络训练用数字信号的方法和系统

Country Status (1)

Country Link
CN (1) CN110348566B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326913A (zh) * 2020-02-28 2021-08-31 上海商汤智能科技有限公司 神经网络模型的转换方法、模型精度定位方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6718316B1 (en) * 2000-10-04 2004-04-06 The United States Of America As Represented By The Secretary Of The Navy Neural network noise anomaly recognition system and method
WO2016197811A1 (zh) * 2015-06-09 2016-12-15 广州广电运通金融电子股份有限公司 一种噪声抑制方法、装置及系统
CN107255825A (zh) * 2017-07-24 2017-10-17 吴高翔 信号分类方法、装置及卫星信号检测设备
CN109064428A (zh) * 2018-08-01 2018-12-21 Oppo广东移动通信有限公司 一种图像去噪处理方法、终端设备及计算机可读存储介质
CN109326299A (zh) * 2018-11-14 2019-02-12 平安科技(深圳)有限公司 基于全卷积神经网络的语音增强方法、装置及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726858B2 (en) * 2018-06-22 2020-07-28 Intel Corporation Neural network for speech denoising trained with deep feature losses

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6718316B1 (en) * 2000-10-04 2004-04-06 The United States Of America As Represented By The Secretary Of The Navy Neural network noise anomaly recognition system and method
WO2016197811A1 (zh) * 2015-06-09 2016-12-15 广州广电运通金融电子股份有限公司 一种噪声抑制方法、装置及系统
CN107255825A (zh) * 2017-07-24 2017-10-17 吴高翔 信号分类方法、装置及卫星信号检测设备
CN109064428A (zh) * 2018-08-01 2018-12-21 Oppo广东移动通信有限公司 一种图像去噪处理方法、终端设备及计算机可读存储介质
CN109326299A (zh) * 2018-11-14 2019-02-12 平安科技(深圳)有限公司 基于全卷积神经网络的语音增强方法、装置及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于Python的深度学习BP网络语音增强方法研究;王光艳等;《信息通信》;20190315(第03期);全文 *
基于深度卷积神经网络的数字调制方式识别;彭超然等;《计算机测量与控制》;20180825(第08期);全文 *

Also Published As

Publication number Publication date
CN110348566A (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
EP3349153B1 (en) Convolutional neural network (cnn) processing method and apparatus
Zhang et al. Fault detection for discrete-time Markov jump linear systems with partially known transition probabilities
US10169293B2 (en) Fractional scaling digital filters and the generation of standardized noise and synthetic data series
RU2607621C2 (ru) Способ, система и машиночитаемый носитель данных для группирования в социальных сетях
TW201706873A (zh) 類神經網路處理器中之向量運算單元
CN105718848B (zh) 一种指纹图像的质量评估方法及装置
CN110084155B (zh) 一种密集人数计数的方法、装置、设备以及存储介质
CN110599838A (zh) 一种数学自动出题方法及装置
CN110245980B (zh) 基于神经网络模型确定目标用户激励形式的方法和设备
CN110969092A (zh) 脉冲信号去噪方法、装置及终端设备
CN114576568B (zh) 基于次声波的管道泄漏检测方法及装置
CN111583095A (zh) 图像数据存储方法、图像数据处理方法、系统及相关装置
CN110348566B (zh) 一种生成神经网络训练用数字信号的方法和系统
CN111932438B (zh) 图像风格迁移方法、设备及存储装置
CN112013285A (zh) 管道泄漏点的检测方法及装置、存储介质、终端
CN111475402B (zh) 程序功能的测试方法及相关装置
Vargas et al. Seismic trace noise reduction by wavelets and double threshold estimation
CN110348398B (zh) 一种神经网络模型确定方法和系统
CN110363288B (zh) 一种神经网络的输入图像生成方法和系统
Sivakumar Nonlinear determinism in river flow: prediction as a possible indicator
CN110163194B (zh) 一种图像处理方法、装置及存储介质
CN102811035A (zh) 有限冲击响应数字滤波器及其实现方法
CN110363139B (zh) 一种数字信号处理方法和系统
CN111079643A (zh) 基于神经网络的人脸检测方法、装置和电子设备
Estévez et al. Nonlinear time series analysis by using gamma growing neural gas

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant