CN106203624B - 基于深度神经网络的矢量量化系统及方法 - Google Patents

基于深度神经网络的矢量量化系统及方法 Download PDF

Info

Publication number
CN106203624B
CN106203624B CN201610466518.3A CN201610466518A CN106203624B CN 106203624 B CN106203624 B CN 106203624B CN 201610466518 A CN201610466518 A CN 201610466518A CN 106203624 B CN106203624 B CN 106203624B
Authority
CN
China
Prior art keywords
data
neural network
training
deep neural
normalization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610466518.3A
Other languages
English (en)
Other versions
CN106203624A (zh
Inventor
江文斌
贾晓立
江晓波
胡定禹
刘佩林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201610466518.3A priority Critical patent/CN106203624B/zh
Publication of CN106203624A publication Critical patent/CN106203624A/zh
Application granted granted Critical
Publication of CN106203624B publication Critical patent/CN106203624B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明提出一种基于深度神经网络的矢量量化系统及方法,包括:归一化预处理模块,将原始数据通过归一化数据进行归一化处理,输出归一化后的预处理数据;矢量量化编码模块,用以接收预处理数据及码本,并通过码本对所述预处理数据进行矢量量化编码,输出编码数据;神经网络反量化模块,通过深度神经网络对编码数据进行解码反量化,输出解码数据;反归一化后处理模块,通过归一化数据对解码数据进行反归一化处理,输出反归一化后的还原原始数据;及神经网络训练模块,通过归一化预处理后的预处理训练数据和编码训练数据,进行神经网络的训练,输出深度神经网络至神经网络反量化模块中。本发明能有效解决高维度信号矢量量化的量化误差较大的问题。

Description

基于深度神经网络的矢量量化系统及方法
技术领域
本发明涉及信息与信号处理技术领域,例如是多媒体编解码技术,特别涉及到一种基于深度神经网络的矢量量化系统及方法。
背景技术
矢量量化是一种数据压缩方法,广泛应用于语音和图像的编解码算法中。该方法能有效地利用矢量各分量间的相关性来消除数据中的冗余度,从而实现多维信号的压缩。从数据量化的角度,矢量量化可以看作是标量量化在维度上的扩展。标量量化利用线性依赖和概率密度函数来消除冗余度,而矢量量化在此基础上还利用了非线性依赖和数据维度来消除冗余度。
传统的矢量量化系统中,编码端和解码端都存储有已训练的码本,编码端在码本中查找与输入矢量失真度最小的码本、并将该码本的索引传输到解码端,解码端则根据接收到的该索引、在码本中获取码字,依据索引解码的复杂度较高,无法处理高维度数据。传统的矢量量化系统在应对高维度信号时,为了降低算法复杂度,通常采用分裂矢量量化和多级矢量量化方法。分裂矢量量化将高维度信号分裂为多个低纬度信号,分别进行矢量量化;多级矢量量化通过减小每一级码本的大小来降低算法复杂度,通过对残差信号进行量化的方法来降低量化误差。然而,这些在复杂度上折衷的算法,在一定程度上增加了量化误差。
发明内容
本发明所要解决的技术问题是提供一种基于深度神经网络的矢量量化系统及方法,能有效解决高维度信号矢量量化的量化误差较大的问题。
为解决上述问题,本发明提出一种基于深度神经网络的矢量量化系统,包括:
归一化预处理模块,用以接收原始数据,并将原始数据通过归一化数据进行归一化处理,输出归一化后的预处理数据;
矢量量化编码模块,用以接收所述预处理数据及预先用预处理训练数据训练好的码本,并通过码本对所述预处理数据进行矢量量化编码,输出编码数据;
神经网络反量化模块,用以接收所述编码数据及预先训练好的深度神经网络,并通过深度神经网络对所述编码数据进行解码反量化,输出解码数据;
反归一化后处理模块,用以接收所述解码数据,并通过所述归一化数据对所述解码数据进行反归一化处理,输出反归一化后的还原原始数据;及
神经网络训练模块,用以通过所述预处理训练数据和将预处理训练数据经所述矢量量化编码模块编码后的编码训练数据,进行神经网络的训练,得到所述深度神经网络,输出所述深度神经网络至所述神经网络反量化模块中。
根据本发明的一个实施例,所述神经网络训练模块包括:
非监督学习初步训练模块,用以:将所述预处理训练数据输入神经网络的输入层,训练第1个的自编码器,得到第1隐藏层及输入层到第1隐藏层的网络权重矩阵W1;重复M次将第i-1隐藏层的输出数据输入到第i隐藏层中,训练第i个自编码器,得到第i+1隐藏层及第i隐藏层到第i+1隐藏层的网络权重矩阵Wi,得到M个隐藏层,1<i<M;从而得到初始化深度神经网络;
监督学习优化训练模块,用以:将所述编码训练数据作为所述初始化深度神经网络的第M个隐藏层的输入,将所述预处理训练数据作为所述初始化深度神经网络的输入层的输出,通过后向传播算法进行迭代优化深度神经网络,得到所述深度神经网络。
根据本发明的一个实施例,各层自编码器的训练为如下公式(2),θ表示自编码器输入层到隐藏层的参数,θ′表示自编码器隐藏层到输出层的参数,参数包括网络权重矩阵和偏置向量;
其中,n表示训练数据样本的个数,x(i)为自编码器的输入数据,z(i)为自编码器的输出数据,E为损失函数,采用如下公式(3)
式中,N为矢量的维度,k为维度下标。
根据本发明的一个实施例,还包括归一化数据生成模块,用以接收训练数据计算得到训练数据的均值和方差,将均值和方差作为归一化数据输至所述归一化预处理模块和反归一化后处理模块中。
根据本发明的一个实施例,还包括码本训练模块,用以接收预处理训练数据,通过LBG算法对预处理训练数据进行码本训练,生成所述码本,输出码本至所述矢量量化编码模块;所述预处理训练数据为训练数据经由归一化预处理模块归一化处理后的数据。
本发明还提供一种基于深度神经网络的矢量量化方法,包括以下步骤:
归一化预处理步骤,接收原始数据,并将原始数据通过归一化数据进行归一化处理,输出归一化后的预处理数据;
矢量量化步骤,接收所述预处理数据及预先用预处理训练数据训练好的码本,并通过码本对所述预处理数据进行矢量量化编码,输出编码数据;
神经网络反量化步骤,接收所述编码数据及预先训练好的深度神经网络,并通过深度神经网络对所述编码数据进行解码反量化,输出解码数据;
反归一化后处理步骤,接收所述解码数据,并通过所述归一化数据对所述解码数据进行反归一化处理,输出反归一化后的还原原始数据;及
神经网络训练步骤,通过所述预处理数据和编码数据,进行神经网络的训练,得到所述深度神经网络。
根据本发明的一个实施例,所述神经网络训练步骤包括:
非监督学习初步训练步骤,将所述预处理训练数据输入神经网络的输入层,训练第1个自编码器,得到第1隐藏层及输入层到第1隐藏层的网络权重矩阵W1;重复M次将第i-1隐藏层的输出数据输入到第i隐藏层中,训练第i+1个自编码器,得到第i+1隐藏层及第i隐藏层到第i+1隐藏层的网络权重矩阵Wi,得到M个隐藏层,1<i<M;从而得到初始化深度神经网络;
监督学习优化训练步骤,将所述编码训练数据作为所述初始化深度神经网络的第M个隐藏层的输入,将所述预处理训练数据作为所述初始化深度神经网络的输入层的输出,通过后向传播算法进行迭代优化深度神经网络,得到所述深度神经网络。
根据本发明的一个实施例,各层自编码器的训练为如下公式(2),θ表示自编码器输入层到隐藏层的参数,θ′表示自编码器隐藏层到输出层的参数,参数包括网络权重矩阵和偏置向量;
其中,n表示训练数据样本的个数,x(i)为每层的输入数据,z(i)为每层的输出数据,E为损失函数,采用如下公式(3)
式中,N为矢量的维度,k为维度下标。
根据本发明的一个实施例,还包括归一化数据生成步骤,接收训练数据计算得到训练数据的均值和方差,将均值和方差作为归一化预处理步骤和反归一化后处理步骤所述归一化数据。
根据本发明的一个实施例,还包括码本训练步骤,接收预处理训练数据,通过LBG算法对预处理训练数据进行码本训练,生成所述矢量量化步骤所需的码本;所述预处理训练数据为训练数据经由归一化预处理步骤归一化处理后的数据。
采用上述技术方案后,本发明相比现有技术具有以下有益效果:
1)矢量量化中融合了基于码本的矢量量化方式和基于深度神经网络的数据压缩方式。将深度神经网络的数据压缩方式融合到矢量量化方式中。深度神经网络能学习数据的非线性结构从而能对数据进行有效地降维,且其恢复后的数据误差小于经典的主成分分析算法。
2)采用编码后的数据作为深度神经网络的输入、原始未编码的数据作为输出,并采用两步训练法训练深度神经网络,训练得到的神经网络能从编码数据中解码或者恢复出原始的数据,能有效降低传统分裂矢量量化和多级矢量量化方法的量化误差。
附图说明
图1是本发明实施例的基于深度神经网络的矢量量化系统的结构框图;
图2是本发明实施例的深度神经网络的结构框图;
图3是本发明实施例的采用深度神经网络解码的结构框图;
图4是本发明实施例的码本及深度神经网络训练的流程示意图;
图5是本发明实施例的非监督学习初步训练的流程示意图;
图6是本发明实施例的监督学习优化训练的流程示意图;
图7是本发明实施例的LBG算法码本训练的示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施的限制。
参看图1,本实施例的基于深度神经网络的矢量量化系统,包括:归一化预处理模块101,矢量量化编码模块102,神经网络反量化模块103,反归一化后处理模块104和神经网络训练模块105。归一化预处理模块101和矢量量化编码模块102处于编码端,神经网络反量化模块103、反归一化后处理模块104和神经网络训练模块105处于解码端。
归一化预处理模块101的输入端接收原始数据,并将原始数据通过归一化数据进行归一化处理,输出归一化后的预处理数据。归一化数据是用来对输入的数据进行归一化处理的,可以预先计算好存储在归一化预处理模块101中,或者通过归一化预处理模块101的另一输入端输入。
矢量量化编码模块102用以接收预处理数据及预先用预处理训练数据训练好的码本,并通过码本对预处理数据进行矢量量化编码,输出编码数据。预处理训练数据是训练数据经归一化预处理模块101归一化处理后得到的数据,因而码本是由预处理训练数据训练生成。可选的,矢量量化编码模块102根据预处理数据在预先训练好的码本中查找失真度最小的码字,该码字的索引值即为编码数据。
神经网络反量化模块103接收矢量量化编码模块102输出的编码数据,还接收神经网络训练模块105输出的深度神经网络,并通过深度神经网络对编码数据进行解码反量化,输出解码数据。深度神经网络预先通过神经网络训练模块105训练好。
反归一化后处理模块104接收神经网络反量化模块103的解码数据,并通过归一化预处理模块101相同的归一化数据对解码数据进行反归一化处理,输出反归一化后的还原原始数据。反归一化后处理模块104的处理是归一化预处理模块101的逆过程。
神经网络训练模块105通过预处理训练数据和矢量量化编码模块102对预处理训练数据进行矢量量化编码得到的编码训练数据,进行神经网络的训练,得到深度神经网络,输出深度神经网络至神经网络反量化模块103中。
神经网络训练模块105包括:非监督学习初步训练模块和监督学习优化训练模块。参看图4,非监督学习初步训练模块将预处理训练数据作为输入进行非监督学习初步训练,用于初始化生成深度神经网络的结构。监督学习优化训练模块将编码训练数据和预处理训练数据作为输入进行监督学习优化训练,用于优化非监督学习初步训练模块生成的深度神经网络。由于是根据编码训练数据和预处理训练数据进行神经网络训练的,因而矢量量化系统的量化误差可以较小,并且能够解决高维度信号矢量量化问题。
神经网络的训练分为初步训练和优化训练两步训练。初步训练使用编码后的数据进行非监督学习得到Stacked AutoEncoder(栈式自编码器),用于初始化神经网络反量化模块。优化训练使用编码后的数据和归一化后的数据进行监督学习,得到优化后的深度神经网络反量化模块。
非监督学习初步训练模块将预处理数据输入训练前深度神经网络的输入层,训练第1个自编码器(AutoEncoder),得到第1隐藏层及输入层到第1隐藏层的网络权重矩阵W1;重复M次将第i-1隐藏层的输出数据输入到第i隐藏层中,训练该第i+1(最大值为M-1,从而得到M个隐藏层)个自编码器,得到第i+1隐藏层及第i隐藏层到第i+1隐藏层的网络权重矩阵Wi,得到M个隐藏层,1<i<M;从而得到初始化深度神经网络。M大于等于3,i为自编码器的序号。
神经网络的每层采用AutoEncoder(自编码器)进行学习,以获得训练数据的内在非线性结构。AutoEncoder为对称结构,输入即为输出,例如,输入层到隐藏层的网络权重矩阵与隐藏层到输出层(转置之后输入层的对应层)的网络权重矩阵互为转置。
在训练得到一个AutoEncoder之后,将该隐藏层的输出作为下一个AutoEncoder的输入,重复上述训练流程得到后续的AutoEncoder。这些串联起来的神经网络称为StackedAutoEncoder(栈式自编码器),即为初步训练阶段得到的神经网络。该神经网络最顶层AutoEncoder的隐藏层称为编码层。
参看图2和图5,该训练为非监督学习过程,训练的数据为前述经过量化编码后的预处理训练数据。深度神经网络的结构如图3所示,神经网络包含1个输入层L0、4个隐藏层L1~L4。L0中的121个节点,对应为输入数据的维度。L1~L3为2048个节点,其取决于训练数据的多少,2048个对应100万条训练数据。L4为36个节点,对应为编码层,即矢量量化编码的比特数。训练流程如图5所示,神经网络的初始值为高斯随机分布,然后使用编码训练数据训练第一个AutoEncoder得到一个隐藏层L1及网络权重W1,由于AutoEncoder为对称结构,因而L1到L0的网络权重为W1 T。再使用前一隐藏层的输出作为输入数据,逐层训练后续的AutoEncoder得到隐藏层L2~L4及网络权重矩阵W2~W4。该流程训练得到的神经网络用于初始化后续的神经网络反量化模块。
监督学习优化训练模块将编码训练数据作为初始化深度神经网络的第M个(最顶层的)隐藏层(编码层)的输入,将归一化预处理数据作为初始化深度神经网络的输入层(输出层)的输出,通过后向传播算法进行迭代优化深度神经网络,得到深度神经网络。
优化训练采用监督学习方法,神经网络的输入与初步训练的数据一致(即经码本编码后的编码训练数据),输出则为之前预处理得到的数据(即码本编码前的预处理训练数据)。从神经网络的输入输出可以看出,优化训练的目的是训练得到一个从编码后数据到编码前数据的解码器。因采用了深度神经网络的结构,所以该解码器称为采用深度神经网络的解码器。该神经网络的结构由初步训练得到神经网络生成,优化训练的神经网络的输入层(编码层)对应初步训练的神经网络的最后一个隐藏层、输出层为初步训练的神经网络的输入层,即该结构为将Stacked AutoEncoder进行展开后的转置部分。
参看图3和图6,为神经网络反量化模块框图及训练流程图,该训练为监督学习过程,训练数据为前述经过量化编码后的编码训练数据以及编码前的预处理训练数据。神经网络反量化模块的结构如图3所示,神经网络包含一个编码层、若干隐藏层以及一个输出层。编码层的36个节点对应矢量量化的比特数、隐藏层的节点数量与初步训练的相应层一致、输出层的121个节点对应矢量量化数据的维度。该神经网络反量化模块训练的输入为前述经过量化编码后的数据,预期的输出为量化编码前的数据,减小整个系统的量化误差。训练流程如图6所示,初始化神经网络反量化模块(初始训练的隐藏层L4作为优化训练的编码层,隐藏层L3~L1依然作为隐藏层,输入层L0作为输出层),然后采用后向传播算法优化神经网络,经过迭代优化后,得到的最终的采用深度神经网络的解码器网络权重矩阵W1 T+e~W4 T+e。该流程训练得到的神经网络即为解码器,与训练得到的码本一起用于构成矢量量化器。
在一个实施例中,各层自编码器的训练为如下公式(2),θ表示自编码器输入层到隐藏层的参数,θ′表示自编码器隐藏层到输出层的参数,参数包括网络权重矩阵和偏置向量;
其中,n表示训练数据样本的个数,x(i)为每层的输入数据,z(i)为每层的输出数据,E为损失函数,采用如下公式(3)
式中,N为矢量的维度,k为维度下标。
优化训练采用传统的后向传播算法,其优化问题与公式(2、3)所描述类似,在此不再赘述。
在一个实施例中,基于深度神经网络的矢量量化系统还包括归一化数据生成模块。参看图4,归一化数据生成模块接收训练数据计算得到训练数据的均值和方差,将均值和方差作为归一化数据输至归一化预处理模块和反归一化后处理模块中,分别用来给两个进行归一化处理和反归一化处理。
在一个实施例中,基于深度神经网络的矢量量化系统还包括码本训练模块。继续参看图4,码本训练模块接收训练数据经预处理后的预处理训练数据,通过LBG算法(由Linde,Buzo,Gray三人在1980年提出的,LBG算法通过训练矢量集和一定的迭代算法来逼近最优的再生码本)对预处理训练数据进行码本训练,生成码本,输出码本至矢量量化编码模块2,对训练数据进行编码,得到编码数据。预处理训练数据为训练数据经由归一化预处理模块归一化处理后的数据。
参看图7,码本训练模块可以使用LBG算法训练码本,LBG算法首先使用k-means算法(硬聚类算法,是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则)进行聚类得到k11,然后分裂成两个码字k21、k22并使用k-means算法进行聚类得到k′21、k′22,再分裂成四个码字k41、k42、k43、k44并使用k-means算法进行聚类,如此迭代进行最终得到N个码字kN1~kNN,这N个码字即为训练得到的码本。
得到码本后再对之前预处理得到的预处理训练数据进行编码,该编码过程为码本搜索过程,即在码本中搜索失真度最小的码字。失真度d采用欧氏距离,如公式(1)所示
式中X为输入矢量,为码字(矢量),得到的编码训练数据和之前预处理得到的预处理训练数据一起用于训练神经网络。
本发明还提供一种基于深度神经网络的矢量量化方法,包括以下步骤:
归一化预处理步骤,接收原始数据,并将原始数据通过归一化数据进行归一化处理,输出归一化后的预处理数据;
矢量量化步骤,接收所述预处理数据及预先用预处理训练数据训练好的码本,并通过码本对所述预处理数据进行矢量量化编码,输出编码数据;
神经网络反量化步骤,接收所述编码数据及预先训练好的深度神经网络,并通过深度神经网络对所述编码数据进行解码反量化,输出解码数据;
反归一化后处理步骤,接收所述解码数据,并通过所述归一化数据对所述解码数据进行反归一化处理,输出反归一化后的还原原始数据;及
神经网络训练步骤,通过所述预处理数据和编码数据,进行神经网络的训练,得到所述深度神经网络。
根据本发明的一个实施例,所述神经网络训练步骤包括:
非监督学习初步训练步骤,将所述预处理训练数据输入神经网络的输入层,训练第1个自编码器,得到第1隐藏层及输入层到第1隐藏层的网络权重矩阵W1;重复M次将第i-1隐藏层的输出数据输入到第i隐藏层中,训练第i+1个自编码器,得到第i+1隐藏层及第i隐藏层到第i+1隐藏层的网络权重矩阵Wi,得到M个隐藏层,1<i<M;从而得到初始化深度神经网络;
监督学习优化训练步骤,将所述编码训练数据作为所述初始化深度神经网络的第M个隐藏层的输入,将所述预处理训练数据作为所述初始化深度神经网络的输入层的输出,通过后向传播算法进行迭代优化深度神经网络,得到所述深度神经网络。
根据本发明的一个实施例,各层自编码器的训练为如下公式(2),θ表示自编码器输入层到隐藏层的参数,θ′表示自编码器隐藏层到输出层的参数,参数包括网络权重矩阵和偏置向量;
其中,n表示训练数据样本的个数,x(i)为每层的输入数据,z(i)为每层的输出数据,E为损失函数,采用如下公式(3)
式中,N为矢量的维度,k为维度下标。
根据本发明的一个实施例,还包括归一化数据生成步骤,接收训练数据计算得到训练数据的均值和方差,将均值和方差作为归一化预处理步骤和反归一化后处理步骤所述归一化数据。
根据本发明的一个实施例,还包括码本训练步骤,接收预处理训练数据,通过LBG算法对预处理训练数据进行码本训练,生成所述矢量量化步骤所需的码本;所述预处理训练数据为训练数据经由归一化预处理步骤归一化处理后的数据。
本发明的基于深度神经网络的矢量量化方法的具体内容可以参看前述矢量量化系统中的具体实施方式描述,在此不再赘述。
本发明虽然以较佳实施例公开如上,但其并不是用来限定权利要求,任何本领域技术人员在不脱离本发明的精神和范围内,都可以做出可能的变动和修改,因此本发明的保护范围应当以本发明权利要求所界定的范围为准。

Claims (10)

1.一种基于深度神经网络的多媒体数据的矢量量化系统,其特征在于,包括:
归一化预处理模块,用以接收原始多媒体数据,并将原始多媒体数据通过归一化数据进行归一化处理,输出归一化后的预处理数据;
矢量量化编码模块,用以接收所述预处理数据及预先用预处理训练数据训练好的码本,并通过码本对所述预处理数据进行矢量量化编码,输出编码数据;
神经网络反量化模块,用以接收所述编码数据及预先训练好的深度神经网络,并通过深度神经网络对所述编码数据进行解码反量化,输出解码数据;
反归一化后处理模块,用以接收所述解码数据,并通过所述归一化数据对所述解码数据进行反归一化处理,输出反归一化后的还原原始多媒体数据;及
神经网络训练模块,用以通过所述预处理训练数据和将预处理训练数据经所述矢量量化编码模块编码后的编码训练数据,进行神经网络的训练,得到所述深度神经网络,输出所述深度神经网络至所述神经网络反量化模块中;
所述原始多媒体数据为语音和/或图像。
2.如权利要求1所述的基于深度神经网络的多媒体数据的矢量量化系统,其特征在于,所述神经网络训练模块包括:
非监督学习初步训练模块,用以:将所述预处理训练数据输入神经网络的输入层,训练第1个的自编码器,得到第1隐藏层及输入层到第1隐藏层的网络权重矩阵W1;重复M次将第i-1隐藏层的输出数据输入到第i隐藏层中,训练第i个自编码器,得到第i+1隐藏层及第i隐藏层到第i+1隐藏层的网络权重矩阵Wi,得到M个隐藏层,1<i<M;从而得到初始化深度神经网络;
监督学习优化训练模块,用以:将所述编码训练数据作为所述初始化深度神经网络的第M个隐藏层的输入,将所述预处理训练数据作为所述初始化深度神经网络的输入层的输出,通过后向传播算法进行迭代优化深度神经网络,得到所述深度神经网络。
3.如权利要求2所述的基于深度神经网络的多媒体数据的矢量量化系统,其特征在于,各层自编码器的训练为如下公式(2),θ表示自编码器输入层到隐藏层的参数,θ′表示自编码器隐藏层到输出层的参数,参数包括网络权重矩阵和偏置向量;
其中,n表示训练数据样本的个数,x(i)为自编码器的输入数据,z(i)为自编码器的输出数据,E为损失函数,采用如下公式(3)
式中,N为矢量的维度,k为维度下标。
4.如权利要求1所述的基于深度神经网络的多媒体数据的矢量量化系统,其特征在于,还包括归一化数据生成模块,用以接收训练数据计算得到训练数据的均值和方差,将均值和方差作为归一化数据输至所述归一化预处理模块和反归一化后处理模块中。
5.如权利要求1所述的基于深度神经网络的多媒体数据的矢量量化系统,其特征在于,还包括码本训练模块,用以接收预处理训练数据,通过LBG算法对预处理训练数据进行码本训练,生成所述码本,输出码本至所述矢量量化编码模块;所述预处理训练数据为训练数据经由归一化预处理模块归一化处理后的数据。
6.一种基于深度神经网络的多媒体数据的矢量量化方法,其特征在于,包括以下步骤:
归一化预处理步骤,接收原始多媒体数据,并将原始多媒体数据通过归一化数据进行归一化处理,输出归一化后的预处理数据;
矢量量化步骤,接收所述预处理数据及预先用预处理训练数据训练好的码本,并通过码本对所述预处理数据进行矢量量化编码,输出编码数据;
神经网络反量化步骤,接收所述编码数据及预先训练好的深度神经网络,并通过深度神经网络对所述编码数据进行解码反量化,输出解码数据;
反归一化后处理步骤,接收所述解码数据,并通过所述归一化数据对所述解码数据进行反归一化处理,输出反归一化后的还原原始多媒体数据;及
神经网络训练步骤,通过所述预处理数据和编码数据,进行神经网络的训练,得到所述深度神经网络;
所述原始多媒体数据为语音和/或图像。
7.如权利要求6所述的基于深度神经网络的多媒体数据的矢量量化方法,其特征在于,所述神经网络训练步骤包括:
非监督学习初步训练步骤,将所述预处理训练数据输入神经网络的输入层,训练第1个自编码器,得到第1隐藏层及输入层到第1隐藏层的网络权重矩阵W1;重复M次将第i-1隐藏层的输出数据输入到第i隐藏层中,训练第i+1个自编码器,得到第i+1隐藏层及第i隐藏层到第i+1隐藏层的网络权重矩阵Wi,得到M个隐藏层,1<i<M;从而得到初始化深度神经网络;
监督学习优化训练步骤,将所述编码训练数据作为所述初始化深度神经网络的第M个隐藏层的输入,将所述预处理训练数据作为所述初始化深度神经网络的输入层的输出,通过后向传播算法进行迭代优化深度神经网络,得到所述深度神经网络。
8.如权利要求7所述的基于深度神经网络的多媒体数据的矢量量化方法,其特征在于,各层自编码器的训练为如下公式(2),θ表示自编码器输入层到隐藏层的参数,θ′表示自编码器隐藏层到输出层的参数,参数包括网络权重矩阵和偏置向量;
其中,n表示训练数据样本的个数,x(i)为每层的输入数据,z(i)为每层的输出数据,E为损失函数,采用如下公式(3)
式中,N为矢量的维度,k为维度下标。
9.如权利要求6所述的基于深度神经网络的多媒体数据的矢量量化方法,其特征在于,还包括归一化数据生成步骤,接收训练数据计算得到训练数据的均值和方差,将均值和方差作为归一化预处理步骤和反归一化后处理步骤所述归一化数据。
10.如权利要求6所述的基于深度神经网络的多媒体数据的矢量量化方法,其特征在于,还包括码本训练步骤,接收预处理训练数据,通过LBG算法对预处理训练数据进行码本训练,生成所述矢量量化步骤所需的码本;所述预处理训练数据为训练数据经由归一化预处理步骤归一化处理后的数据。
CN201610466518.3A 2016-06-23 2016-06-23 基于深度神经网络的矢量量化系统及方法 Active CN106203624B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610466518.3A CN106203624B (zh) 2016-06-23 2016-06-23 基于深度神经网络的矢量量化系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610466518.3A CN106203624B (zh) 2016-06-23 2016-06-23 基于深度神经网络的矢量量化系统及方法

Publications (2)

Publication Number Publication Date
CN106203624A CN106203624A (zh) 2016-12-07
CN106203624B true CN106203624B (zh) 2019-06-21

Family

ID=57460929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610466518.3A Active CN106203624B (zh) 2016-06-23 2016-06-23 基于深度神经网络的矢量量化系统及方法

Country Status (1)

Country Link
CN (1) CN106203624B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018120019A1 (zh) * 2016-12-30 2018-07-05 上海寒武纪信息科技有限公司 用于神经网络数据的压缩/解压缩的装置和系统
CN106971414B (zh) * 2017-03-10 2021-02-23 华东交通大学 一种基于深度循环神经网络算法的三维动画生成方法
CN106991999B (zh) * 2017-03-29 2020-06-02 北京小米移动软件有限公司 语音识别方法及装置
US10795836B2 (en) 2017-04-17 2020-10-06 Microsoft Technology Licensing, Llc Data processing performance enhancement for neural networks using a virtualized data iterator
CN109543826A (zh) * 2017-09-21 2019-03-29 杭州海康威视数字技术股份有限公司 一种基于深度神经网络的激活量量化方法及装置
CN109993298B (zh) * 2017-12-29 2023-08-08 百度在线网络技术(北京)有限公司 用于压缩神经网络的方法和装置
CN108268950B (zh) * 2018-01-16 2020-11-10 上海交通大学 基于矢量量化的迭代式神经网络量化方法及系统
KR20190128885A (ko) * 2018-05-09 2019-11-19 삼성전자주식회사 전자 장치 및 그 제어 방법
EP3575890B1 (de) * 2018-05-28 2022-03-30 Siemens Aktiengesellschaft Assistenzsystem zur unterstützung der planung von automatisierungssystemen
CN110598839A (zh) * 2018-06-12 2019-12-20 华为技术有限公司 卷积神经网络系统和卷积神经网络量化的方法
CN108921283A (zh) * 2018-06-13 2018-11-30 深圳市商汤科技有限公司 深度神经网络的归一化方法和装置、设备、存储介质
CN110611627B (zh) * 2018-06-15 2021-03-19 维沃移动通信有限公司 一种信号检测方法和接收端
CN109344893B (zh) * 2018-09-25 2021-01-01 华中师范大学 一种基于移动终端的图像分类方法
CN109740737B (zh) * 2018-12-30 2021-02-19 联想(北京)有限公司 卷积神经网络量化处理方法、装置及计算机设备
CN109670057B (zh) * 2019-01-03 2021-06-29 电子科技大学 一种渐进式的端到端深度特征量化系统及方法
BR112021014660A2 (pt) * 2019-02-28 2021-09-21 Mitsubishi Electric Corporation Dispositivo, sistema e método de processamento de dados
KR20200139909A (ko) 2019-06-05 2020-12-15 삼성전자주식회사 전자 장치 및 그의 연산 수행 방법
CN110289862B (zh) * 2019-06-20 2023-04-28 成都有据量化科技有限公司 金融数据的压缩和解压方法、装置以及存储介质
CN111344719A (zh) * 2019-07-22 2020-06-26 深圳市大疆创新科技有限公司 基于深度神经网络的数据处理方法、装置及移动设备
US11443137B2 (en) 2019-07-31 2022-09-13 Rohde & Schwarz Gmbh & Co. Kg Method and apparatus for detecting signal features
CN110491400B (zh) * 2019-08-21 2021-05-28 浙江树人学院(浙江树人大学) 一种基于深度自编码器的语音信号重建方法
CN110473557B (zh) * 2019-08-22 2021-05-28 浙江树人学院(浙江树人大学) 一种基于深度自编码器的语音信号编解码方法
CN111062416B (zh) * 2019-11-14 2021-09-21 支付宝(杭州)信息技术有限公司 用户聚类及特征学习方法、设备、计算机可读介质
CN111160489A (zh) * 2020-01-02 2020-05-15 中冶赛迪重庆信息技术有限公司 基于大数据的多维对标分析服务器、系统、方法及电子终端
US11424856B2 (en) * 2020-07-15 2022-08-23 Huawei Technologies Co., Ltd. Encoding and decoding source information using a distribution channel encoder and decoder
WO2023206466A1 (en) * 2022-04-29 2023-11-02 Qualcomm Incorporated Data collection procedure and model training
WO2024108449A1 (zh) * 2022-11-23 2024-05-30 北京小米移动软件有限公司 一种信号量化方法、装置、设备及存储介质
CN117423348B (zh) * 2023-12-19 2024-04-02 山东省计算中心(国家超级计算济南中心) 基于深度学习和矢量预测的语音压缩方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2003604A1 (en) * 2007-05-23 2008-12-17 Deutsche Telekom AG Self-organizing map with virtual map units
CN101620853A (zh) * 2008-07-01 2010-01-06 邹采荣 一种基于改进模糊矢量量化的语音情感识别方法
CN102158701A (zh) * 2011-04-19 2011-08-17 湖南大学 一种基于压缩感知理论的分类量化图像编码方法
CN103428498A (zh) * 2013-08-21 2013-12-04 江苏新瑞峰信息科技有限公司 一种无损图像压缩系统
CN103531205A (zh) * 2013-10-09 2014-01-22 常州工学院 基于深层神经网络特征映射的非对称语音转换方法
CN105070293A (zh) * 2015-08-31 2015-11-18 武汉大学 基于深度神经网络的音频带宽扩展编码解码方法及装置
CN105100801A (zh) * 2015-07-24 2015-11-25 西安空间无线电技术研究所 一种基于大数据的大压缩比数据压缩方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2003604A1 (en) * 2007-05-23 2008-12-17 Deutsche Telekom AG Self-organizing map with virtual map units
CN101620853A (zh) * 2008-07-01 2010-01-06 邹采荣 一种基于改进模糊矢量量化的语音情感识别方法
CN102158701A (zh) * 2011-04-19 2011-08-17 湖南大学 一种基于压缩感知理论的分类量化图像编码方法
CN103428498A (zh) * 2013-08-21 2013-12-04 江苏新瑞峰信息科技有限公司 一种无损图像压缩系统
CN103531205A (zh) * 2013-10-09 2014-01-22 常州工学院 基于深层神经网络特征映射的非对称语音转换方法
CN105100801A (zh) * 2015-07-24 2015-11-25 西安空间无线电技术研究所 一种基于大数据的大压缩比数据压缩方法
CN105070293A (zh) * 2015-08-31 2015-11-18 武汉大学 基于深度神经网络的音频带宽扩展编码解码方法及装置

Also Published As

Publication number Publication date
CN106203624A (zh) 2016-12-07

Similar Documents

Publication Publication Date Title
CN106203624B (zh) 基于深度神经网络的矢量量化系统及方法
CN111816156B (zh) 基于说话人风格特征建模的多对多语音转换方法及系统
CN112241455B (zh) 基于多层级知识蒸馏预训练语言模型自动压缩方法及平台
CN111783459A (zh) 一种基于改进Transformer+CRF的老挝语命名实体识别方法
CN113158665A (zh) 一种基于文本摘要生成与双向语料改善对话文本生成的方法
Hu et al. An image compression and encryption scheme based on deep learning
Yang et al. Steganalysis of VoIP streams with CNN-LSTM network
CN114911958B (zh) 一种基于语义偏好的快速图像检索方法
CN109255381A (zh) 一种基于二阶vlad稀疏自适应深度网络的图像分类方法
CN110491400B (zh) 一种基于深度自编码器的语音信号重建方法
Boopathi et al. An image compression approach using wavelet transform and modified self organizing map
CN109815496A (zh) 基于容量自适应收缩机制载体生成式文本隐写方法及装置
CN113140220A (zh) 基于卷积自注意力变换网络的轻量级端到端语音识别方法
CN110688501B (zh) 一种基于深度学习的全卷积网络的哈希检索方法
Shi et al. Structured Word Embedding for Low Memory Neural Network Language Model.
CN110704664B (zh) 一种哈希检索方法
CN116578699A (zh) 基于Transformer的序列分类预测方法和系统
CN113515619A (zh) 一种基于显著性信息门控机制的关键词生成方法
CN110955745A (zh) 一种基于深度学习的文本哈希检索方法
Liu et al. Online optimized product quantization
CN115470799A (zh) 一种用于网络边缘设备的文本传输和语义理解一体化方法
Wei et al. Lightweight AAC Audio Steganalysis Model Based on ResNeXt
Duan et al. Differential weight quantization for multi-model compression
CN115310461A (zh) 基于多模态数据优化的低资源语音翻译方法及系统
CN115860054A (zh) 基于生成对抗网络的稀疏码本多址编解码系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant