CN112598107A - 数据处理系统及其数据处理方法 - Google Patents
数据处理系统及其数据处理方法 Download PDFInfo
- Publication number
- CN112598107A CN112598107A CN201911274465.5A CN201911274465A CN112598107A CN 112598107 A CN112598107 A CN 112598107A CN 201911274465 A CN201911274465 A CN 201911274465A CN 112598107 A CN112598107 A CN 112598107A
- Authority
- CN
- China
- Prior art keywords
- parameter
- neural network
- data processing
- data
- signal processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 188
- 238000003672 processing method Methods 0.000 title claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 101
- 230000006870 function Effects 0.000 claims description 17
- 238000009432 framing Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 241001522296 Erithacus rubecula Species 0.000 claims 2
- 210000002569 neuron Anatomy 0.000 description 35
- 238000010586 diagram Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 238000013461 design Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种数据处理系统以及一种数据处理方法,该数据处理系统包含有至少一信号处理单元以及至少一神经网络层。至少一信号处理单元中的一第一信号处理单元利用至少一第一参数进行信号处理。至少一神经网络层中的一第一神经网络层具有至少一第二参数,至少一第一参数与至少一第二参数一并训练。
Description
技术领域
本发明指一种数据处理系统及其数据处理方法,尤指可针对整体系统进行优化并减少时间及人力耗费的一种数据处理系统及其数据处理方法。
背景技术
在深度学习(deep learning)技术中,神经网络(neural network)可包含有神经元集合,且可具有类似于生物神经网络的结构或功能。神经网络可为多种应用提供有用的技术,特别是与数字信号处理相关的应用,例如影像或音频等数据处理,而这些应用若藉由现有的数字信号处理则会相当繁杂。举例来说,数字信号处理的参数须藉由人工调整(Manual adjustment),而耗费时间及人力。神经网络则可藉由大量数据和自动训练而建立优化的神经网络,因此有利于处理复杂的任务或数据。
发明内容
因此,本发明主要提供一种数据处理系统及其数据处理方法,以针对整体系统进行优化并减少时间及人力耗费。
本发明公开一种数据处理系统,包含有至少一信号处理单元以及至少一神经网络层。至少一信号处理单元中的一第一信号处理单元利用至少一第一参数进行信号处理。至少一神经网络层中的一第一神经网络层具有至少一第二参数,至少一第一参数与至少一第二参数一并训练(trained jointly)。
本发明另公开一种数据处理方法,适用于一数据处理系统,包含有判断数据处理系统的至少一信号处理单元与至少一神经网络层;藉由一算法自动调整至少一第一参数与至少一第二参数;以及依据至少一第一参数与至少一第二参数,计算数据处理系统的输出。至少一信号处理单元中的一第一信号处理单元利用至少一第一参数进行信号处理,至少一神经网络层中的一第一神经网络层具有至少一第二参数。
附图说明
图1为本发明实施例一神经网络的局部示意图。
图2至图4分别为本发明实施例一数据处理系统的示意图。
图5为本发明实施例一数据处理方法的流程图。
图6至图9分别为本发明实施例一数据处理系统的示意图。
附图标记说明:20、30、40、60、70、80、90-数据处理系统;50-数据处理方法;110、210、310、410、910-神经网络;320、420、920-信号处理模块;500~508-步骤;620U1、620U2、720U、820U1、820U2、820U5、920U1~920U5-信号处理单元;Din-输入;M1~M3、M7、M8-资料;Dout-输出;LR1~LR3、610LR1~610LR7、710LR1~710LR3、810LR1~810LRn、910LR1、910LR2-神经网络层;NR11~NR12、NR21~NR23、NR31~NR32-神经元;W1121~W1221、W2131~W2331-参数。
具体实施方式
在通篇说明书及后续的权利要求当中所提及的「包括」为一开放式的用语,故应解释成「包括但不限定于」。在通篇说明书及后续的权利要求当中所提及的「第一」、「第二」等叙述,仅用以区别不同的组件,并不对其产生顺序的限制。
请参考图1,图1为本发明实施例一神经网络(neural network)110的局部示意图。在一些实施例中,神经网络110可以是运算单元或由运算单元执行的方法。神经网络110包含有神经网络层LR1~LR3,神经网络层LR1~LR3分别包含有神经元(neuron)NR11~NR12、NR21~NR23、NR31~NR32。神经元NR11~NR12接收输入至神经网络110的数据,且神经网络110藉由神经元NR31~NR32输出数据。神经网络层LR1~LR3分别具有至少一参数(又可称为第二参数)。举例来说,W1121代表神经元NR11自神经元NR21的参数,广义来说,即神经网络层LR1或神经网络层LR2具有参数W1121。类似地,W1221代表神经元NR12自神经元NR21的参数,W2131代表神经元NR21自神经元NR31的参数,W2231代表神经元NR22自神经元NR31的参数,W2331代表神经元NR23自神经元NR31的参数。
依据前向传播(Forward Propagation),神经元NR21的输入值iNR21为神经元NR11的输出oNR11乘以参数W1121加上神经元NR12的输出oNR12乘以参数W1221,之后再经过启用函式(activation function)F,也就是说,iNR21=F(oNR11*W1121+oNR12*W1221)。神经元NR21的输出oNR21为其输入值iNR21的函数。类似地,神经元NR31的输入值iNR31为神经元NR21的输出oNR21乘以参数W2131加上神经元NR22的输出oNR22乘以参数W2231加上神经元NR23的输出oNR23乘以参数W2331,之后再经过启用函式F,也就是说,iNR31=F(oNR21*W2131+oNR22*W2231+oNR23*W2331)。神经元NR31的输出oNR31为其输入值iNR31的函数。由上述可知,神经元NR31的输出oNR31为参数W1121~W2331的函数。
请参考图2,图2为本发明实施例一数据处理系统20的示意图。数据处理系统20接收一输入Din,并发送一输出Dout。数据处理系统20包含有一神经网络210,神经网络210包含有多个神经网络层(例如图1所示的神经网络层LR1~LR3)。神经网络210的每一神经网络层分别包含有至少一神经元(例如图1所示的神经元NR11~NR32)。
请参考图3,图3为本发明实施例一数据处理系统30的示意图。类似于数据处理系统20,数据处理系统30包含有一神经网络310,其可包含有多个神经网络层,且每一神经网络层分别包含有至少一神经元。不同于数据处理系统20,数据处理系统30另包含有一信号处理模块320,其可用来提供现有的数字信号处理(digital signal processing)的功能作为整体数据处理系统的部分功能,而神经网络310则是用来作为整体数据处理系统的另一部分的功能区块。信号处理模块320可藉由处理器(processor)而实现,例如藉由数字信号处理器(digital signal processor)而实现。也就是说,数据处理系统30将数据处理分阶段为多个任务,部分的任务由神经网络310处理,部分的任务由信号处理模块320处理。然而,分阶段需要人工介入设计。并且,信号处理模块320的参数(即参数的值)一旦经由人工确定后,神经网络310在训练过程中不会再改变信号处理模块320的参数。基于信号处理模块320的参数须藉由人工调整(Manual adjustment),意即须藉由手动输入或调整参数,而耗费时间及人力。再者,数据处理系统30仅能针对各阶段优化,无法针对整体系统进行优化。
图3的信号处理模块320的信号处理单元所运用的信号处理算法(例如数字信号处理算法)可提供数据处理系统30所需的部分功能,为了加速整体系统开发,并且为了减少时间及人力负担,在一些实施例中,可将信号处理单元嵌入神经网络,组成整体数据处理系统。请参考图4,图4为本发明实施例一数据处理系统40的示意图。数据处理系统40包含有一神经网络410以及一信号处理模块420。神经网络410包含有至少一神经网络层(例如图1所示的神经网络层LR1~LR3)。神经网络410每一神经网络层分别包含有至少一神经元(例如图1所示的神经元NR11~NR32)。每一神经网络层分别具有至少一参数(又可称为第二参数)(例如图1所示的参数W1121~W2331)。信号处理模块420可包含有多个信号处理单元。信号处理模块420中部分的信号处理单元可分别具有至少一参数(又可称为第一参数),并可利用其参数进行信号处理。信号处理模块420直接嵌入神经网络410,使进出信号处理模块420的数据带有参数。而数据处理系统40采用端对端学习(end-to-end learning),可直接自其接收的一输入Din取得并发送一输出Dout,且所有参数(例如第一参数及第二参数)一并训练(trained jointly),而可针对整体系统进行优化,并减少时间及人力耗费。
简言之,藉由将信号处理单元嵌入神经网络410,数字信号处理的参数可与神经网络410的参数一并训练(training)而优化,如此一来,可避免人工调整,并可对整体系统进行优化。
具体而言,神经网络层可包括但不仅限于卷积神经网络(Convolutional NeuralNetwork,CNN)、递归神经网络(Recurrent Neural Network,RNN)、前馈类神经网络(Feedforward Neural Network,FNN)、长短期记忆(Long Short-Term Memory,LSTM)网络、门控循环单元(Gated Recurrent Unit,GRU)、注意力机制(Attention Mechanism)、启用函式(Activation Function)、全连接层(fully-connected layer)或池化层(poolinglayer)。信号处理单元可执行包括但不仅限于傅立叶变换(Fourier transform)、余弦转换(cosine transform)、傅立叶逆转换(inverse Fourier transform)或余弦反转换(inverse cosine transform)、加窗(windowing)或框化(Framing)。
更进一步地,请参考图5,图5为本发明实施例一数据处理方法50的流程图。数据处理方法50可被编译成一程序代码而由数据处理系统40中的一处理电路执行,其可包含以下步骤:
步骤500:开始。
步骤502:判断数据处理系统40的多个信号处理单元与多个神经网络层,其中,至少一信号处理单元中的一第一信号处理单元利用至少一第一参数进行信号处理,至少一神经网络层中的一第一神经网络层具有至少一第二参数。
步骤504:藉由一算法自动调整至少一第一参数与至少一第二参数。
步骤506:依据至少一第一参数与至少一第二参数,计算数据处理系统40的输出Dout。
步骤508:结束。
在步骤502中,决定并配置至少一信号处理单元与至少一神经网络层的连接方式、个数、种类、参数的个数(例如第一参数的个数以及第二参数的个数),即布署(deploy)方式。类似于输出oNR21、oNR31的计算方式,藉由前向传播,可计算出数据处理系统40的输出Dout。在一些实施例中,步骤504的算法为反向传播(Backpropagation,BP),而数据处理系统40的输出Dout与一目标值(target)之间具有整体误差(total error)。在步骤504中,藉由反向传播,可反复地更新所有的参数(例如第一参数以及第二参数),而使数据处理系统40的输出Dout逐渐接近目标值,来最小化整体误差。也就是说,反向传播可训练(training)所有的参数(例如第一参数以及第二参数)而优化所有的参数。举例来说,参数W1121扣除学习率(learning rate)r乘以整体误差Etotol对参数W1121的偏微分即可得到更新后的参数W1121’,即藉由反复地更新参数W1121,即可调整至优化的参数W1121。在步骤506中,依据优化的所有的参数(例如第一参数以及第二参数),数据处理系统40可进行推论(inference),并自其接收的输入Din计算出最正确的输出Dout。
由上述可知,所有的参数(例如第一参数以及第二参数)可一并训练(training)而优化。也就是说,所有的参数(例如第一参数以及第二参数)为可变的(variable)。所有的参数(例如第一参数以及第二参数)可藉由算法(例如反向传播)而逐渐收敛。所有的参数(例如第一参数以及第二参数)可藉由算法(例如反向传播)而自动决定并调整至最佳值。并且,数据处理系统40的输出为所有的参数(例如第一参数以及第二参数)的函数,而相关于所有的参数(例如第一参数以及第二参数)。类似地,所有的信号处理单元或神经网络层的输出也分别与至少一参数相关。
需注意的是,数据处理系统40为本发明的实施例,本领域具通常知识者当可据以做不同的变化及修饰。举例来说,数据处理系统的布署方式可视不同设计考虑而调整。在一些实施例中,一信号处理单元可自一神经网络层接收数据或将数据传送至一神经网络层。更进一步地,请参考图6,图6为本发明实施例一数据处理系统60的示意图。类似于数据处理系统40,数据处理系统60包含有神经网络层610LR1~610LR7以及信号处理单元620U1、620U2。神经网络层610LR1~610LR7分别包含有至少一神经元(例如图1所示的神经元NR11~NR32),且可分别具有至少一参数(又可称为第二参数)(例如图1所示的参数W1121~W2331)。信号处理单元620U1、620U2亦可具有至少一参数(又可称为第一参数)。信号处理单元620U1、620U2直接嵌入神经网络层610LR1~610LR7之间,使进出信号处理单元620U1、620U2的数据带有参数。而数据处理系统60采用端对端学习,可直接自其接收的一输入Din取得并发送一输出Dout,且所有参数(例如第一参数及第二参数)一并训练,而可针对整体系统进行优化,并减少时间及人力耗费。
数据处理系统的布署方式可进一步调整。举例来说,请参考图7,图7为本发明实施例一数据处理系统70的示意图。类似于数据处理系统60,数据处理系统70包含有神经网络层710LR1~710LR3以及一信号处理单元720U。神经网络层710LR1~710LR3分别包含有至少一神经元,且可分别具有至少一参数(又可称为第二参数)。在一些实施例中,信号处理单元720U(又可称为第一信号处理单元)接收数据M1,神经网络层710LR2(又可称为第一神经网络层)亦接收数据M1。在另一些实施例中,信号处理单元720U接收至少一第一数据,神经网络层710LR2接收至少一第二数据,部分或全部的至少一第一数据相同于部分或全部的至少一第二数据。信号处理单元720U输出的数据M3(又可称为第三数据)与神经网络层710LR2输出的数据M2(又可称为第四数据)进行结合,结合方式包括但不仅限于串接(concatenation)或加总(summation)。信号处理单元720U可具有至少一参数(又可称为第一参数)。举例来说,信号处理单元720U可执行离散余弦转换(discrete cosinetransform,DCT),并且信号处理单元720U输出的数据M3与接收的数据M1之间的关系为M3=DCT(M1*W1+b1)*W2+b2,其中W1、W2、b1、b2为信号处理单元720U的参数,用以调整数据M1或离散余弦转换的结果。数据处理系统70的输出Dout为参数W1、W2、b1、b2的函数,而与参数W1、W2、b1、b2相关。也就是说,信号处理单元720U直接嵌入神经网络,使进出信号处理单元720U的数据带有参数。而数据处理系统70采用端对端学习,可直接自其接收的一输入Din取得并发送一输出Dout,且所有参数(例如第一参数及第二参数)一并训练,从而可针对整体系统进行优化,并减少时间及人力耗费。
数据处理系统的布署方式可进一步调整。举例来说,请参考图8,图8为本发明实施例一数据处理系统80的示意图。类似于数据处理系统60,数据处理系统80包含有神经网络层810LR1~810LRn以及信号处理单元820U1、820U2、820U5。神经网络层810LR1~810LRn分别包含有至少一神经元,且可分别具有至少一参数(又可称为第二参数)。信号处理单元820U1、820U2、820U5可具有至少一参数(又可称为第一参数)。信号处理单元820U1、820U2、820U5直接嵌入神经网络层810LR1~810LRn之间,使进出信号处理单元820U1、820U2、820U5的资料带有参数。而数据处理系统80采用端对端学习,可直接自其接收的一输入Din取得并发送一输出Dout,且所有参数(例如第一参数及第二参数)一并训练,而可针对整体系统进行优化,并减少时间及人力耗费。
相对地,请参考图9,图9为本发明实施例一数据处理系统90的示意图。数据处理系统90包含有一神经网络910以及一信号处理模块920。神经网络910包含有多个神经网络层910LR1、910LR2。神经网络层910LR1、910LR2分别包含有至少一神经元,且可分别具有至少一参数(又可称为第二参数)。信号处理模块920包含有多个信号处理单元920U1~920U5。数据处理系统90将数据处理分阶段为多个任务,部分的任务由神经网络910处理,部分的任务由信号处理模块920处理。然而,分阶段需要人工介入设计。并且,信号处理单元920U1~920U5的参数(即参数的值)一旦经由人工确定后,神经网络910在训练的过程中不会再改变信号处理单元920U1~920U5的参数。基于信号处理模块920的参数须藉由人工调整,意即须藉由手动输入或调整参数,而耗费时间及人力。再者,数据处理系统90仅能针对各阶段优化,无法针对整体系统进行优化。
举例来说,在一些实施例中,图8的数据处理系统80及图9的数据处理系统90可分别为语音关键词辨识系统。在一些实施例中,信号处理单元820U1、920U1分别进行预强调(pre-emphasis),而预强调涉及的参数(又可称为第一参数)包含有预强调系数。在数据处理系统90中,参数(例如预强调系数)须由人工介入设计,在一些实施例中,预强调系数设定为介于0.9至1之间。在数据处理系统80中,参数(例如预强调系数)不须人工介入设计,而是与其他参数一并训练而优化。在一些实施例中,信号处理单元820U1、920U1分别进行框化(又可称为分帧),而框化涉及的参数(又可称为第一参数)包含有音框长度(frame size)及音框重迭比例。在数据处理系统90中,参数(例如音框长度或音框重迭比例)须由人工介入设计,在一些实施例中,音框长度设定为介于20毫秒(millisecond,ms)至40毫秒之间,音框重迭比例设定为介于40%至60%之间。在数据处理系统80中,参数(例如音框长度或音框重迭比例)不须人工介入设计,而是与其他参数一并训练而优化。在一些实施例中,信号处理单元820U1、920U1分别进行加窗,而加窗涉及的参数(又可称为第一参数)可为余弦窗(cosine window)系数。在数据处理系统90中,参数(例如余弦窗系数)须由人工介入设计,在一些实施例中,余弦窗系数设定为0.53836时为汉明窗(Hamming Window),余弦窗系数设定为0.5时为汉尼窗(Hanning Window)。在数据处理系统80中,参数(例如余弦窗系数)不须人工介入设计,而是与其他参数一并训练而优化。
在一些实施例中,信号处理单元820U5、920U5分别进行离散余弦反转换(inversediscrete cosine transform,IDCT),而离散余弦反转换涉及的参数(又可称为第一参数)可为离散余弦反转换系数或离散余弦反转换系数的个数,其中,离散余弦反转换系数可作为梅尔倒频谱系数(Mel-Frequency Cepstral Coefficient,MFCC)。在数据处理系统90中,参数(例如离散余弦反转换系数的个数)须由人工介入设计,在一些实施例中,离散余弦反转换系数的个数可介于24个至26个之间,在另一些实施例中,离散余弦反转换系数的个数可设定为12个。在数据处理系统80中,参数(例如离散余弦反转换系数的个数)不须人工介入设计,而是与其他参数一并训练而优化。举例来说,信号处理单元820U5的输出M7为离散余弦反转换系数或离散余弦反转换系数的函数,神经网络层810LR5接收信号处理单元820U5的输出M7后,每个离散余弦反转换系数可分别与神经网络层810LR5的一参数(又可称为第二参数)相乘。在一些实施例中,若神经网络层810LR5的多个第二参数中有一者为零,则与此第二参数相乘的离散余弦反转换系数即不会自神经网络层810LR5输出,即神经网络层810LR5的输出M8不会是此离散余弦反转换系数的函数,在此情况下,第一参数(例如离散余弦反转换系数的个数)自动减少,而不须人工介入设计。
综上所述,本发明藉由将信号处理单元嵌入神经网络,数字信号处理的参数可与神经网络的参数一并训练而优化,如此一来,可减少时间及人力耗费,并可对整体系统进行优化。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (18)
1.一种数据处理系统,其特征在于,包含有:
至少一信号处理单元,其中,该至少一信号处理单元中的一第一信号处理单元利用至少一第一参数进行信号处理;以及
至少一神经网络层,其中,该至少一神经网络层中的一第一神经网络层具有至少一第二参数,该至少一第一参数与该至少一第二参数一并训练。
2.如权利要求1所述的数据处理系统,其特征在于,该至少一第一参数与该至少一第二参数为可变的,该至少一第一参数与该至少一第二参数藉由一算法而自动调整。
3.如权利要求1所述的数据处理系统,其特征在于,该数据处理系统的输出为该至少一第一参数与该至少一第二参数的函数,而相关于该至少一第一参数与该至少一第二参数。
4.如权利要求1所述的数据处理系统,其特征在于,该第一信号处理单元接收至少一第一数据,该第一神经网络层接收至少一第二数据,部分或全部的该至少一第一数据相同于部分或全部的该至少一第二数据。
5.如权利要求1所述的数据处理系统,其特征在于,该第一信号处理单元输出的至少一第三数据与该第一神经网络层输出的至少一第四数据进行结合,结合方式包括但不仅限于串接或加总。
6.如权利要求1所述的数据处理系统,其特征在于,该第一信号处理单元自该第一神经网络层接收至少一第一数据或将该至少一第一数据传送至该第一神经网络层。
7.如权利要求1所述的数据处理系统,其特征在于,该至少一神经网络层中的一者包括卷积神经网络、递归神经网络、前馈类神经网络、长短期记忆网络、门控循环单元、注意力机制、启用函式、全连接层或池化层。
8.如权利要求1所述的数据处理系统,其特征在于,该至少一信号处理单元中的一者执行傅立叶变换、余弦转换、傅立叶逆转换或余弦反转换、加窗或框化。
9.如权利要求1所述的数据处理系统,其特征在于,藉由一算法,该至少一第一参数及该至少一第二参数逐渐收敛。
10.一种数据处理方法,适用于一数据处理系统,其特征在于,包含有:
判断该数据处理系统的至少一信号处理单元与至少一神经网络层,其中,该至少一信号处理单元中的一第一信号处理单元利用至少一第一参数进行信号处理,该至少一神经网络层中的一第一神经网络层具有至少一第二参数;
藉由一算法自动调整该至少一第一参数与该至少一第二参数;以及
依据该至少一第一参数与该至少一第二参数,计算该数据处理系统的输出。
11.如权利要求9所述的数据处理方法,其特征在于,该至少一第一参数与该至少一第二参数为可变的,该至少一第一参数与该至少一第二参数是一并训练,且该算法为反向传播。
12.如权利要求9所述的数据处理方法,其特征在于,该数据处理系统的输出为该至少一第一参数与该至少一第二参数的函数,而相关于该至少一第一参数与该至少一第二参数。
13.如权利要求9所述的数据处理方法,其特征在于,该第一信号处理单元接收至少一第一数据,该第一神经网络层接收至少一第二数据,部分或全部的该至少一第一数据相同于部分或全部的该至少一第二数据。
14.如权利要求9所述的数据处理方法,其特征在于,该第一信号处理单元输出的至少一第三数据与该第一神经网络层输出的至少一第四数据进行结合,结合方式包括但不仅限于串接或加总。
15.如权利要求9所述的数据处理方法,其特征在于,该第一信号处理单元自该第一神经网络层接收至少一第一数据或将该至少一第一数据传送至该第一神经网络层。
16.如权利要求9所述的数据处理方法,其特征在于,该至少一神经网络层中的一者包括卷积神经网络、递归神经网络、前馈类神经网络、长短期记忆(网络、门控循环单元、注意力机制、启用函式、全连接层或池化层。
17.如权利要求9所述的数据处理方法,其特征在于,该至少一信号处理单元中的一者执行傅立叶变换、余弦转换、傅立叶逆转换或余弦反转换、加窗或框化。
18.如权利要求9所述的数据处理方法,其特征在于,藉由该算法,该至少一第一参数及该至少一第二参数逐渐收敛。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962908609P | 2019-10-01 | 2019-10-01 | |
US62/908,609 | 2019-10-01 | ||
TW108141621A TWI723634B (zh) | 2019-10-01 | 2019-11-15 | 資料處理系統及其資料處理方法 |
TW108141621 | 2019-11-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112598107A true CN112598107A (zh) | 2021-04-02 |
Family
ID=75161995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911274465.5A Pending CN112598107A (zh) | 2019-10-01 | 2019-12-12 | 数据处理系统及其数据处理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210097368A1 (zh) |
CN (1) | CN112598107A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11568252B2 (en) | 2020-06-29 | 2023-01-31 | Alibaba Group Holding Limited | Variable input size techniques for neural networks |
CN113254648B (zh) * | 2021-06-22 | 2021-10-22 | 暨南大学 | 一种基于多层次图池化的文本情感分析方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170081344A (ko) * | 2016-01-04 | 2017-07-12 | 한국전자통신연구원 | 심층 신경망을 이용한 발화 검증 방법 |
CN107766936A (zh) * | 2016-08-22 | 2018-03-06 | 耐能有限公司 | 人造神经网络、人造神经元及人造神经元的控制方法 |
CN108463848A (zh) * | 2016-03-23 | 2018-08-28 | 谷歌有限责任公司 | 用于多声道语音识别的自适应音频增强 |
CN109074820A (zh) * | 2016-05-10 | 2018-12-21 | 谷歌有限责任公司 | 使用神经网络进行音频处理 |
CN109409510A (zh) * | 2018-09-14 | 2019-03-01 | 中国科学院深圳先进技术研究院 | 神经元电路、芯片、系统及其方法、存储介质 |
WO2019142241A1 (ja) * | 2018-01-16 | 2019-07-25 | オリンパス株式会社 | データ処理システムおよびデータ処理方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69120594T2 (de) * | 1990-04-26 | 1997-01-09 | Fujitsu Ltd | Wellenformentzerrer mit Neuronalnetzwerk |
US9665823B2 (en) * | 2013-12-06 | 2017-05-30 | International Business Machines Corporation | Method and system for joint training of hybrid neural networks for acoustic modeling in automatic speech recognition |
US10209314B2 (en) * | 2016-11-21 | 2019-02-19 | Battelle Energy Alliance, Llc | Systems and methods for estimation and prediction of battery health and performance |
US10140980B2 (en) * | 2016-12-21 | 2018-11-27 | Google LCC | Complex linear projection for acoustic modeling |
WO2018160943A1 (en) * | 2017-03-03 | 2018-09-07 | Pindrop Security, Inc. | Method and apparatus for detecting spoofing conditions |
US20190391901A1 (en) * | 2018-06-20 | 2019-12-26 | Ca, Inc. | Adaptive baselining and filtering for anomaly analysis |
-
2019
- 2019-12-12 CN CN201911274465.5A patent/CN112598107A/zh active Pending
-
2020
- 2020-02-12 US US16/789,388 patent/US20210097368A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170081344A (ko) * | 2016-01-04 | 2017-07-12 | 한국전자통신연구원 | 심층 신경망을 이용한 발화 검증 방법 |
CN108463848A (zh) * | 2016-03-23 | 2018-08-28 | 谷歌有限责任公司 | 用于多声道语音识别的自适应音频增强 |
CN109074820A (zh) * | 2016-05-10 | 2018-12-21 | 谷歌有限责任公司 | 使用神经网络进行音频处理 |
CN107766936A (zh) * | 2016-08-22 | 2018-03-06 | 耐能有限公司 | 人造神经网络、人造神经元及人造神经元的控制方法 |
WO2019142241A1 (ja) * | 2018-01-16 | 2019-07-25 | オリンパス株式会社 | データ処理システムおよびデータ処理方法 |
CN109409510A (zh) * | 2018-09-14 | 2019-03-01 | 中国科学院深圳先进技术研究院 | 神经元电路、芯片、系统及其方法、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20210097368A1 (en) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110444214B (zh) | 语音信号处理模型训练方法、装置、电子设备及存储介质 | |
JP5102046B2 (ja) | プラントを制御するための装置 | |
CN105068048B (zh) | 基于空间稀疏性的分布式麦克风阵列声源定位方法 | |
CN112598107A (zh) | 数据处理系统及其数据处理方法 | |
KR102413028B1 (ko) | 중첩 신경망을 프루닝하는 방법 및 장치 | |
KR20190129580A (ko) | 음성 인식 모델을 개인화하는 방법 및 장치 | |
CN111260020B (zh) | 卷积神经网络计算的方法和装置 | |
WO2020170907A1 (ja) | 信号処理装置、学習装置、信号処理方法、学習方法及びプログラム | |
CN113554156B (zh) | 基于注意力机制与可变形卷积的多任务图像处理方法 | |
KR100306848B1 (ko) | 신경회로망을 이용한 선택적 주의집중 방법 | |
CN114037047A (zh) | 一种脉冲神经网络的训练方法 | |
CN114175052A (zh) | 残差半循环神经网络 | |
CN106896724B (zh) | 用于太阳跟踪器的跟踪系统及跟踪方法 | |
TWI723634B (zh) | 資料處理系統及其資料處理方法 | |
CN112906861A (zh) | 神经网络优化方法及装置 | |
CN116259057A (zh) | 基于联盟博弈解决联邦学习中数据异质性问题的方法 | |
CN111354372B (zh) | 一种基于前后端联合训练的音频场景分类方法及系统 | |
JPH0581227A (ja) | 神経系回路網信号処理装置及び信号処理方法 | |
JPH06231106A (ja) | リカレント型ニューラルネットワーク学習方法及び装置 | |
CN111429937A (zh) | 语音分离方法、模型训练方法及电子设备 | |
CN111310388A (zh) | 一种离散制造系统的工艺知识自动推送方法 | |
Tong et al. | Robust sound localization of sound sources using deep convolution network | |
CN117763399B (zh) | 一种自适应变长信号输入的神经网络分类方法 | |
CN111308423A (zh) | 鲁棒声源定位系统及其方法 | |
CN112966811B (zh) | 在mtl卷积神经网络中任务冲突的解决方法及网络 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |