CN108540267B - 一种基于深度学习的多用户数据信息检测方法及装置 - Google Patents
一种基于深度学习的多用户数据信息检测方法及装置 Download PDFInfo
- Publication number
- CN108540267B CN108540267B CN201810332221.7A CN201810332221A CN108540267B CN 108540267 B CN108540267 B CN 108540267B CN 201810332221 A CN201810332221 A CN 201810332221A CN 108540267 B CN108540267 B CN 108540267B
- Authority
- CN
- China
- Prior art keywords
- layer
- neural network
- decoding
- user
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/20—Arrangements for detecting or preventing errors in the information received using signal quality detector
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0045—Arrangements at the receiver end
- H04L1/0047—Decoding adapted to other signal detection operation
- H04L1/0048—Decoding adapted to other signal detection operation in conjunction with detection of multiuser or interfering signals, e.g. iteration between CDMA or MIMO detector and FEC decoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0045—Arrangements at the receiver end
- H04L1/0054—Maximum-likelihood or sequential decoding, e.g. Viterbi, Fano, ZJ algorithms
Abstract
本发明实施例提供的一种基于深度学习的多用户数据信息检测方法及装置,可以根据已接收到的叠加码字信息,使用预设的条件算法,计算获得各个用户的码字信息;将各个用户的码字信息作为已训练的神经网络输入,利用已训练的神经网络获得已训练的神经网络输出层的输出结果;本发明实施例利用深度学习训练权值后的已训练的神经网络,将各个用户的码字条件概率概率作为已训练的神经网络的输入,根据输出结果检测用户的发送的数据信息,计算各个用户的对数比特似然比的过程中,各个用户的码字条件概率都有相应的权值,因此可以提高检测多用户发送的数据信息的准确率。
Description
技术领域
本发明涉及通信技术领域,特别是涉及一种基于深度学习的多用户数据信息检测方法及装置。
背景技术
非正交多址(Non-Orthogonal Multiple Access,NOMA)接入技术是移动通信系统的重要支撑技术之一,可以有效地提高频谱的利用率。
在NOMA系统中,各个用户发送的数据信息被映射为多维星座码本中的不同码字,然后将各个用户的码字信息重叠在正交资源块上传输至接收端。接收端在收到接收信号中包含的叠加码字信息后,利用因子图,因子图包括:非正交多址映射的因子图和前向纠错编码的因子图,通过两部分过程得出各个用户发送的数据信息,实现多用户数据信息检测。
第一部分:使用消息传递算法(Message Passing Algorithm,MPA)在非正交多址映射的因子图中从叠加的码字信息中计算各个用户的所有码字条件概率,然后获得各个用户的比特似然比。
具体过程如下:
参照图1,非正交多址映射的因子图中包含两类节点,用户节点v1-v6,正交资源块节点f1-f4,用户节点与正交资源块节点连接线称为连边,用户节点与用户一一对应。以v2及f1节点为例,节点f1与v2、v3和v5节点的各个连边权值相同,v2节点与f1和f3节点的各个连边权值相同。将v2和v3节点的码字条件概率乘以对应连边的权值,计算v5节点的码字条件概率;将v2及v5节点的码字条件概率乘以对应连边的权值,计算v3节点的码字条件概率;根据v3及v5节点的码字条件概率乘以对应连边的权值,计算v2节点的码字条件概率。将v2、v3和v5节点的码字条件概率作为更新后的f1的码字信息,更新f1节点的码字信息。f2-f4节点的码字信息计算过程与f1节点码字信息计算过程相同。根据f1节点的码字信息,计算f3节点的码字信息;根据f3节点的码字信息,计算f1节点的码字信息,将计算得出的f1和f3节点的码字条件概率作为v2节点的码字信息,更新v2节点的码字信息,v1及v3-v6节点的码字信息计算过程与v2节点码字信息计算过程相同。再根据更新后的v1-v6迭代计算f1-f4的码字信息,直至达到更新次数,根据最后一次更新后的v1-v6节点码字信息,获得各个用户的比特似然比。
第二部分:根据各个用户的比特似然比,使用置信传播(back propagation,BP)算法在前向纠错编码的因子图中迭代实现码字信息译码,计算出各个用户发送的数据信息。
具体过程如下:
参见图2,前向纠错编码的因子图中包含两类节点,变量节点u 1-u 6,校验节点c1-c4,变量节点与校验节点连接线称为连边,将各个用户的比特似然比作为变量节点的信息,各个校验节点与变量节点之间连边权值都相同,根据变量节点更新校验节点信息,根据校验节点信息更新变量节点,具体更新过程与第一部分中用户节点与正交资源块节点更新过程类似,根据最后一次更新后的变量节点的信息,获得各个用户发送的码字,检测出各个用户发送的数据信息。
由于各个用户发送的数据信息的重要性不同,各个用户节点的信息重要性不同,现有技术使用因子图更新各个用户节点的码字信息的过程中,连边的权值相同,导致一些不必要的码字信息占用的权值过大,使得计算出的码字信息不准确,从而造成各个用户的比特似然比不准确。在第二部分使用因子图更新各个变量节点的信息的过程中,各个连边的权值也相同,可能会使用变量节点中错误的比特似然比更新校验节点的信息,使得译码得出变量节点信息的准确率不高,因此检测出各个用户发送的数据信息的准确率不高。
发明内容
本发明实施例的目的在于提供一种基于深度学习的多用户数据信息检测方法及装置,训练得出各个用户计算比特似然比过程中的权值,提高检测多用户发送的数据信息的准确率。具体技术方案如下:
第一方面,本发明实施例提供了一种基于深度学习的多用户数据信息检测方法,应用于非正交多址(Non-Orthogonal Multiple Access,NOMA)系统中的接收端,包括:
使用预设的条件算法,从已获得的叠加码字信息中计算得出各个用户的码字信息;所述码字信息包括:码字条件概率;
将所述各个用户的码字信息作为已训练的神经网络的输入,利用已训练的神经网络获得所述已训练的神经网络输出层的输出结果;所述已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的;所述初始神经网络是根据因子图预先构建的;所述各层之间的权值与因子图中的连边权值一一对应;
利用所述已训练的神经网络的输出层的输出结果,计算获得各个用户的数据信息;所述输出结果包括:各个用户的对数比特似然比。
第二方面,本发明实施例提供了一种基于深度学习的多用户数据信息检测装置,应用于非正交多址(Non-Orthogonal Multiple Access,NOMA)系统中的接收端,包括:
码字计算模块,用于使用预设的条件算法,从已获得的叠加码字信息中计算获得各个用户的码字信息;所述码字信息包括:码字条件概率;网络计算模块,将所述各个用户的码字信息作为已训练的神经网络的输入,利用已训练的神经网络获得所述已训练的神经网络输出层的输出结果;所述已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的;所述初始神经网络是根据因子图预先构建的;所述各层之间的权值与因子图中的连边权值一一对应;
信息计算模块,用于利用所述已训练的神经网络的输出层的输出结果,计算获得各个用户的数据信息;所述输出结果包括:各个用户的对数比特似然比。
本发明实施例提供的一种基于深度学习的多用户数据信息检测方法及装置,可以根据已接收到的叠加码字信息,使用预设的条件算法,计算获得各个用户的码字信息;将各个用户的码字信息作为已训练的神经网络输入,利用已训练的神经网络获得已训练的神经网络输出层的输出结果;已训练的神经网络是通过深度学习训练初始神经网络中各层之间的权值得到的;根据所述已训练的神经网络的输出层的输出结果,确定各个用户的数据信息;所述输出结果包括:各个用户的对数比特似然比。本发明实施例使用深度学习训练权值后的已训练的神经网络,将各个用户的码字条件概率作为已训练的神经网络的输入,根据输出结果检测用户的发送的数据信息,计算各个用户的对数比特似然比的过程中,各个用户的码字条件概率都有相应的权值,因此可以提高检测多用户发送的数据信息的准确率。当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术中非正交多址映射的因子图;
图2为现有技术中前向纠错编码的因子图;
图3为本发明实施例提供的一种基于深度学习的多用户数据信息检测方法的流程图;
图4为本发明实施例提供的根据因子图构建初始神经网络的流程图;
图5为本发明实施例提供的初始神经网络中检测输入层至检测输出层的结构图;
图6为本发明实施例提供的初始神经网络译码输入层至译码输出层的结构示意图;
图7为本发明实施例提供的一种基于深度学习的多用户数据信息并行检测的结构示意图;
图8为本发明实施例提供的一种基于深度学习的多用户数据信息检测装置的结构示意图;
图9为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例解决现有技术使用非正交多址映射的因子图和前向纠错编码的因子图,计算用户数据信息的过程中没有考虑各个用户数据信息重要性不同的问题,使得计算过程中不必要的用户数据信息占用比率过大,导致计算出的用户数据信息准确率不高。
如图3所示,本发明实施例所提供的一种基于深度学习的多用户数据信息检测方法,应用于非正交多址(Non-Orthogonal Multiple Access,NOMA)系统中的接收端,包括:
S301,使用预设的条件算法,从已获得的叠加码字信息中计算得出各个用户的码字信息;所述码字信息包括:码字条件概率;
其中,预设的条件算法,可以是人为根据行业经验预先选择的算法,包括:维特比最大似然算法、费诺(Fano)序列译码算法、对数域条件概率公式及对数域先验概率公式。
可以理解的是:计算用户的码字组合目的是为了得到用户发送数据信息的码字。因为信号在系统传输过程中会因为各种干扰因素而发生变化,而接收端接受到的信号也会与发送的信号不同,只能根据接收到的信号中叠加在正交资源块上叠加码字信息,计算用户发送数据信息所有可能的码字。由于接收到的信号部分发生变化,因此所有可能的码字中有部分码字与发送信号的码字相同。因此,计算每个用户的码字条件概率,以便可以得到准确的码字,以后续为提高检测用户数据信息准确率做铺垫。
S302,将各个用户的码字信息作为已训练的神经网络的输入,利用已训练的神经网络获得已训练的神经网络输出层的输出结果;已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的;初始神经网络是根据因子图预先构建的;各层之间的权值与因子图中连边的权值一一对应;
其中,已训练的神经网络可以通过实时训练初始神经网络得到,实时训练的方式得到的已训练的神经网络实时性较好,准确率较高。得到已训练的神经网络的也可以通过预先初始神经网络训练得到,相比较于实时训练的方式,预先训练得到已训练的神经网络可以提高检测用户数据信息的效率。
可以理解的是各层之间的权值与因子图中连边的权值一一对应包括:各层的神经元与其它层的神经元连接的权值与因子图中的连边权值一一对应。
初始神经网络中各层之间预设的权值是认为根据行业经验设定的数值,预设的权值可以设置相同的数值,也可以设置不同的数值。
因子图包括:非正交多址映射的因子图和前向纠错编码的因子图,相比于根据因子图实时构建初始神经网络的方式,根据因子图预先构建初始神经网络节省了时间,可以提高检测用户数据信息的效率。
S303,利用已训练的神经网络的输出层的输出结果,计算获得各个用户的数据信息;输出结果包括:各个用户的对数比特似然比。
其中,由于用户数据信息是二进制比特序列的形式发送的,本发明实施例将计算得到的码字信息输入已训练的神经网络,以求获得神经网络输出的各个用户的对数比特似然比,以此确定用户接收到的二进制比特序列,确定各个用户的数据信息。
本发明实施例通过计算获得各个用户的码字信息,将各个用户的码字信息作为已训练的神经网络输入,利用已训练的神经网络获得已训练的神经网络输出层的输出结果,确定各个用户的数据信息。由于已训练的神经网络是通过训练初始神经网络中各层之间的权值得到的,使得再计算各个用户的数据信息的过程中,各个用户的码字条件概率都有相应的权值,因此可以提高检测用户数据信息的准确率。
本发明实施例优选的,S301可以通过以下步骤获得:
使用对数域条件概率公式及对数域先验概率公式,从已获得的叠加码字信息中,计算获得各个用户的码字条件概率。
其中,对数域条件概率公式为:
其中,Θf(x)代表对数域条件概率,N0为噪声功率,F表示正交的资源块数,f代表正交资源块节点编号,V代表用户节点个数,v代表用户节点编号也可以代表序号为v的用户,x={xv},xv表示第v个用户映射在正交资源块节点的码字向量,共有2K种可能取值。代表在因子图中与序号为f的正交资源块节点连接的用户节点的集合,K代表每个用户编码码字的比特数,用户需要K个前向纠错编码比特组成一个信道编码比特向量bv,每个bv映射为一个F维的码字向量xv=(xv,1,xv,2,…,xv,F),xv,f表示第v个用户在第f个正交资源块节点上的映射码字,yf表示第f个正交资源块节点上的接收信号,接收信号向量y=(y1,y2,…,yF)可以表示为:z是服从均值0,方差为N0I的复高斯白噪声向量,I表示单位矩阵,表示相应矩阵的转置;
对数域先验概率公式为:
可选的,如图4所示,S302中的初始神经网络是根据因子图预先构建的,具体步骤包括:
S401,根据因子图构建初始神经网络的输入层、输出层和隐含层;初始神经网络的输入层包括:检测输入层和译码输入层;初始神经网络的输出层包括:检测输出层和译码输出层;初始神经网络隐含层包括:检测隐含层和译码隐含层;
其中,因子图包括:非正交多址映射的因子图和前向纠错编码的因子图,初始神经网络包含多个检测隐含层、译码隐含层及译码输出层。
S402,将T倍的预设的迭代次数,作为初始神经网络包含检测隐含层个数;T的取值为2;
其中,预设的迭代次数可以是人为根据行业经验预先设定的值,如果迭代次数是设置为L,则检测隐含层个数为2L。
S403,将非正交多址映射的因子图中各个用户节点与正交资源块节点的连边数量作为初始神经网络中各个检测隐含层包含神经元的个数;
其中,非正交多址映射的因子图中用户节点与正交资源块节点共有E条连边,则检测隐含层中每一层都有E个神经元。
S404,将用户的调制阶数,编码码字每个编码码字的比特数,作为检测隐含层中每个神经元包含子神经元的个数;
非正交多址映射的因子图中有V个用户节点,每个用户节点连接一个用户,每个用户的编码码字的比特数是K,则调制阶数为2K编码码字,每个子神经元与调制阶数编码码字一一对应。
S405,将正交资源块节点的数量,作为检测输入层包含神经元的个数;
其中,检测输入层中的神经元与非正交多址映射的因子图中正交资源块节点一一对应,假设正交资源块节点的数量为F,那么检测输入层包含神经元的个数是F个。
S406,将用户节点的数量与每个编码码字的比特数的乘积,作为检测输出层包含神经元的个数;
其中,检测输出层中包含神经元与非正交多址映射的因子图中用户节点个数及编码码字每个编码码字的比特数乘积一一对应。假设用户节点的数量为V,那么检测输入层神经元的个数是V个。每个用户包含K个编码码字,则检测输出层共有VK个神经元。
S407,根据非正交多址映射的因子图中正交资源块节点与用户节点的连接关系,确定检测隐含层、检测输入层及检测输出层之间的连接关系;检测隐含层、检测输入层及检测输出层之间的连接关系包括:检测输入层包含的神经元与检测隐含层包含的神经元之间、检测隐含层包含的神经元与相邻检测隐含层之间、检测隐含层与检测输出层之间的连接关系;
其中,初始神经网络中检测隐含层的个数、检测输入层、检测隐含层及检测输出层包含神经元的个数已经确定,需要确定检测输入层包含的神经元与检测隐含层包含的神经元之间、检测隐含层包含的神经元与相邻检测隐含层之间、检测隐含层与检测输出层之间的连接关系,以便可以完成初始神经网络的构建。检测隐含层、检测输入层及检测输出层之间的连接关系可以通过以下过程实现:
如图5所示,针对检测输入层:第1层检测隐含层中e0=(v,f)相对应的神经元与检测输入层中单个神经元连接,检测输入层中单个神经元与第f个正交资源块节点相对应。检测输入层中序号为f的神经元与e0=(v,f)相对应的神经元中的所有子神经元连接,v代表用户节点的序号,f代表正交资源块节点的序号,e0代表非正交多址映射的因子图的连边。
针对第i层检测隐含层(i=2,3,…,2L-1):如果i是奇数,与e0=(v,f)相对应的神经元将与第i-1层检测隐含层中与所有e0=(a,f),相对应的神经元连接。代表在因子图中与序号为f的正交资源块节点连接的除v用户节点以外的用户节点的集合。第i层神经元中的子神经元与第i-1神经元中的子神经元之间的连接方式是全连接,i代表检测隐含层的序号。
奇数检测隐含层每个子神经元上粗实短线代表对应的对数域条件概率。
偶数检测隐含层每个子神经元上的虚短线代表对应的对数先验概率。
针对检测输出层:与第v个用户节点对应的神经元与i-1层中所有与e0=(v,f)对应的神经元连接。第i层神经元中的第m个子神经元只与第i-1层神经元中的第m个子神经元连接,m代表子神经元的序号。
S408,将第一预设数量,作为译码隐含层的个数;
其中,第一预设数量是人为根据行业经验设定的值,译码隐含层个数为奇数,假设第一译码数量为Lb,则译码隐含层的个数为Lb,Lb为偶数。
S409,将前向纠错编码的因子图中各个校验节点与变量节点的连边数量作为译码隐含层包含神经元的个数;
其中,前向纠错编码的因子图中检验节点与变量节点共有R条连边,则检测隐含层中每一层都有R个神经元。
S410,将奇数译码隐含层的个数,作为译码输出层的个数;
S411,将变量节点的个数,作为译码输入层及译码输出层包含神经元的个数;
其中,N是用户发送的前向纠错编码码字的长度,那么变量节点的数量是N,则译码输入层与译码输出层包含神经元的个数是N,u代表译码输入层神经元的序号也代表变量节点的序号。
S412,根据变量节点及校验节点的连接关系,确定译码隐含层、译码输入层及译码输出层之间的连接关系;译码隐含层、译码输入层及译码输出层之间的连接关系包括:译码输入层包含的神经元与译码隐含层包含的神经元之间、译码隐含层包含的神经元与相邻译码隐含层之间、译码隐含层与译码输出层之间的连接关系。
其中,初始神经网络中译码隐含层的个数、译码输入层、译码隐含层及译码输出层包含神经元的个数已经确定,需要译码输入层包含的神经元与译码隐含层包含的神经元之间、译码隐含层包含的神经元与相邻译码隐含层之间、译码隐含层与译码输出层之间的连接关系,以便可以完成初始神经网络的构建。译码隐含层、译码输入层及译码输出层之间的连接关系可以通过以下过程实现:
如图6所示,针对译码输入层:将译码隐含层按0,1,…Lb-1排序。λ代表译码隐含层的序号。λ=0层,与e1=(u,c)对应的神经元将与译码输入层中与变量节点u对应的神经元连接,u代表变量节点的序号,c代表校验节点,e1代表前向纠错编码的因子图的连边。
针对第λ层译码隐含层(λ=1,2,…Lb-1)如果λ为偶数,与β=(u,c)对应的神经元将与第λ-1层中所有与e1=(u,h),对应的神经元连接,同时也与变量节点u对应的神经元连接;表示与第u个变量节点连接的校验节点集合,但不包括第c个校验节点,偶数译码隐含层与e1=(u,c)对应的神经元上的黑色短虚线代表与译码输入层第u个神经元连接。
对于译码输出层与最后一层译码隐含层的连接方式与译码输入层与λ=0层译码隐含层连接方式相同,γ代表译码输出层的序号。
所有译码输出层第u神经元上的黑色短虚线代表与译码输入层第u个神经元连接。
S413,根据各个用户的比特在前向纠错码中的顺序,确定检测输出层与译码输入层之间连接关系;
其中,各个用户包含的比特信息是:用户发送的数据信息经过信道编码后码字。初始神经网络中译码输出层输出用户的数据信息,检测输出层并不能直接获得用户的数据信息,因此,需要将需要检测输出层与译码输入层连接,完成初始神经网络的构建。由于检测输出层输出有V个用户,因此,需要完成V个用户的数据信息并行检测。检测输出层与译码输入层之间连接关系可以通过以下过程实现:
如图7所示,初始神经网络包含多个检测输入层和译码输入层,对多个用户数据信息实行并行检测。一个检测输入层就代表有一个检测器。一个译码输入层代表有一个译码器,用户节点数为译码器的个数,假设用户节点有V个,如果前向纠错编码码字的长度为N,用户数为V,每个用户将K个比特编码成一个码字向量,每个用户的调制阶数为2K,那么需要个检测器,最后一个检测器的编号为译码器的个数为V。v代表用户节点序号也代表译码器的序号,s代表检测器的序号,第s个检测器中每个用户的第一个输出神经元的序号为(s-1)K+1;图7中每个译码器的结构都相同,译码器左侧与译码器相连的虚圆圈表示译码输入层的输入,在第v个译码输入层中,序号为1至k的神经元与第1个检测器中,第v个用户序号为1至k的神经元相连,在第v个译码输入层中编号为u的神经元将与第个检测器第v个用户的编号为u的神经元连接,k代表比特序号,v∈{1,2,…V},u∈{1,2,…N},在第v个译码输入层中,序号为至N的神经元与第检测器中,序号为至N的神经元相连,lu代表第个检测器第v个用户的编号为u的神经元的输出;第v个译码器的第u个神经元的输入为lu, 不小于的正整数。
S414,获得初始神经网络;初始神经网络包括:确定包含神经元个数及连接关系后的检测输入层、检测输出层、检测隐含层、译码输入层、译码隐含层及译码输出层。
本发明实施例根据因子图中的节点数量及连接关系构建初始神经网络,以便后续可以训练出更准确的初始神经网络各层之间的权值。
可选的,S302中已训练的神经网络是通过训练初始神经网络中各层之间预设的权值得到的,可以通过以下步骤获得:
步骤一:将各个用户的码字信息作为初始神经网络的输入,根据初始神经网络中各层之间预设的权值,利用初始神经网络计算获得初始神经网络输出层的输出结果;
其中,初始神经网络中各层之间预设的权值包括:初始神经网络中各层神经元与其他层神经元之间的权值和各层神经元上的权值。
步骤二:利用梯度下降算法确定损失函数值是否是最小;损失函数是初始神经网络输出层输出结果的损失函数;
其中,利用梯度下降法计算,初始神经网络输出层输出结果的损失函数的过程,需要对初始神经网络中各层之间预设的权值求偏导,划分梯度。
步骤三:若损失函数值不是最小,则调整初始神经网络中各层之间预设的权值;
步骤四:若损失函数值是最小,则确定初始神经网络中各层之间的权值;
步骤五:将确定权值后的初始神经网络作为已训练的神经网络。
在本发明实施例中,由于译码输出层包含多层,可以使用任一译码输出层的输出结果的损失函数,去确定初始神经网络中各层之间的权值。
本发明实施例通过调整初始神经网络中各层之间的权值训练初始神经网络,可以确定较为准确的已训练神经网络模型。使用梯度下降法求解可以加快确定损失函数值是否是最小的过程,提高训练初始神经网络的效率。
可选的,S302已训练的神经网络是通过训练初始神经网络中各层之间预设的权值得到的,可以根据以下步骤获得:
步骤一:将各个用户的码字信息作为初始神经网络中检测输入层的输入,根据初始神经网络中各层之间预设的权值,利用初始神经网络计算获得检测输出层的输出结果;
奇数检测隐含层的输出结果为:
奇数检测隐含层的输出结果归一化:
其中,i代表检测隐含层序号,e0代表非正交多址映射的因子图的连边,表示第i层检测隐含层中与e0=(v,f)相对应的神经元的输出结果,xa代表与第a个用户节点连接的第a个用户所有码字的集合,i为奇数,代表在非正交多址映射的因子图中与序号为f的正交资源块节点连接的除v用户节点以外的用户节点的集合,且1≤i≤2L-1,f→v代表非正交多址映射的因子图中与序号为f的正交资源块节点到v用户节点的连接方向,v→f代表非正交多址映射的因子图中与序号为v的用户节点到f的正交资源块节点的连接方向;e0=(v,f)代表非正交多址映射的因子图中用户节点v与正交资源块节点f的连边。
若检测隐含层中各个神经元之间预设的权值相同,偶数检测隐含层输出结果为:
其中,表示第i层检测隐含层中与e0=(v,f)相对应的神经元的输出结果,i为偶数,wi,v和wi,l→v表示第i层检测隐含层中与连边e0=(v,l)神经元相连接的权值,wi,v表示乘在相应对数先验概率上的权值,wi,l→v表示乘在相应的第i-1层检测隐含层输出上的权值;表示与第v个用户节点相连接的正交资源块节点集合,但不包括第f个正交资源块节点,表示与第v个用户节点相连接的正交资源块节点集合,L代表迭代次数,2L代表检测隐含层层数,Qv(xv)代表最后一层检测隐含层输出是每个用户的码字概率;xv表示第v个用户映射在正交资源块节点的码字向量,共有2K种可能取值,对应每个神经元中相应的子神经元。
若检测隐含层中各个神经元之间预设的权值不相同,偶数检测隐含层输出结果为:
对偶数检测隐含层输出结果归一化为:
其中,表示第i检测隐含层与连边e0=(v,f)对应的神经元中第m个子神经元输出结果,wi,v,m和wi,l→v,m表示第i层检测隐含层中与连边e0=(v,l)所对应的神经元中第m个子神经元相连接的连边的权值。wi,v,m表示乘在相应对数先验概率上的权值,wi,l→v,m乘在相应的第i-1层输出上权值;xv,m表示第v个用户节点的编号为m的序列映射到正交资源块节点上的码字向量;和表示第i层与e0=(v,f)对应的神经元中第m个子神经元输出,i分别为奇数和偶数;Qv,m表示与第v个用户节点对应的神经元的第m个子神经元输出,w2L,v,m和w2L,l→v,m表示第2L层检测隐含层中与连边e0=(v,l)所对应的神经元中第m个子神经元相连接的连边的权值;
其中,并行检测多个用户的数据信息,则LLR(bs,v,k)表示第s个检测器输出层编号为(v,k)的神经元的输出,则lu=LLR(bs,v,k)。
步骤二:将检测输出层的输出结果,作为译码输入层的输入,根据初始神经网络中各层之间预设的权值,利用初始神经网络计算获得译码输出层的输出结果;译码输出结果包括:奇数译码隐含层输出结果及译码输出层输出结果;
其中,偶数译码隐含层的输出结果为:
其中,λ代表译码隐含层的序号,e1代表前向纠错编码的因子图的连边,
代表偶数译码隐含层输出结果,u表示变量节点序号,c表示校验节点序号,wλ,u→c表示第λ层e1=(u,c)对应的神经元与译码输入层中第u个神经元连接的权值,lu表示译码输入层第u个神经元的输入,lu=LLR(bv,k),u∈{0,1,2,…N-1},N代表前向纠错编码码字的长度,表示与第u个变量节点连接的校验节点集合,表示与第u个变量节点连接的校验节点集合,但不包括第c个校验节点,wλ,h→u表示第λ层中e1=(u,c)对应的神经元与第λ-1层中e1=(u,h),对应的神经元连线的权值,表示第λ-1层中e1=(u,h)对应的神经元的输出,当λ=0时,u→c代表因子图中与序号为u的变量节点到c校验节点的连接方向,c→u代表因子图中与序号为c校验节点到u的变量节点的连接方向;
奇数译码隐含层的输出结果为:
其中,表示第λ层译码隐含层中与e1=(u,c)相对应的神经元的输出,其中λ为奇数,表示与第c个校验节点连接的变量节点集合,表示与第c个校验节点连接的变量节点集合,但不包括第u个变量节点,表示第λ-1译码隐含层中e1=(d,c)对应的神经元的输出;
其中,σ(r)=(1+e-r)-1,λ为奇数,表示第λ层译码输出层第u个神经元的输出结果,wλ,u表示第λ层译码输出层第u个神经元与译码输入层第u个神经元连接的权值;wλ,h→u表示第λ层译码输出层第u个神经元与第λ层译码隐含层e1=(u,h)对应的神经元连接权值;表示第λ层译码隐含层e1=(u,h)对应的神经元的输出,Lb代表译码隐含层的层数。
步骤三:利用梯度下降算法确定损失函数值是否是最小;损失函数是初始神经网络输出层输出结果的损失函数;
其中,利用梯度下降算法求解损失函数最小,需要求解损失函数关于初始神经网络中各层之间预设的权值的偏导,确定损失函数值是否是最小。使用梯度下降法求解损失函数值最小过程与现有技术求解过程相同,在此不再赘述。
译码输出层的输出结果的损失函数为:
其中,L(Γ,z)代表译码输出层输出的损失函数,Γ代表译码输出层的输出值,zj代表信道编码后的码字,j代表比特的序号。
步骤四:若损失函数值不是最小,则分别调整偶数检测隐含层、奇数检测隐含层到偶数检测隐含层、译码输入层到译码输出层、译码输入层到偶数译码隐含层及奇数译码隐含层到偶数译码隐含层的权值;
步骤五:若损失函数值是最小时,则确定初始神经网络中各层之间的权值;
步骤六:将确定权值后的初始神经网络作为已训练的神经网络。
本发明实施例在确定损失函数值是否是最小的过程中,减少调整初始神经网络中不必要的各层及各层之间的权值,可以减少调整各层权值的时间,提高训练的初始神经网络的效率。
可选的,已训练的神经网络,可以通过设定训练次数,利用深度学习训练初始神经网络中各层之间预设的权值得到,如果达到训练次数,则将最后一次深度学习训练后的初始神经网络作为已训练的神经网络。
或者还可以在深度学习训练过程中,实时查看每一次深度学习训练后的初始神经网络是不是收敛,确定神经网络收敛的过程与现有技术一样。
可选的,S303可以通过以下步骤获得:
步骤一:利用各个用户对数比特似然比,各个用户发送的数据信息中的比特;
步骤二:根据各个用户发送的数据信息中的比特及比特顺序,获得各个用户发送的数据信息。
可以理解的是,用户的比特序列中每个比特正确判为0的概率与正确判为1的概率的比值就是比特似然比,然后取对数就是对数比特似然比。通过计算已训练神经网络输出结果中的各个用户对数比特似然比,得到各个用户每个比特正确判定的是0还是1,从而得出各个用户的比特,从而得知用户发送的数据信息。
如图8所示,本发明实施例所提供的一种基于深度学习的多用户数据信息检测装置,应用于非正交多址系统中的接收端,所述装置包括:
码字计算模块801,用于使用预设的条件算法,从已获得的叠加码字信息中计算得出各个用户的码字信息;码字信息包括:码字条件概率;
网络计算模块802,用于将各个用户的码字信息作为已训练的神经网络的输入,利用已训练的神经网络获得已训练的神经网络输出层的输出结果;已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的;初始神经网络是根据因子图预先构建的;所述各层之间的权值与因子图中的连边权值一一对应;
信息计算模块803,用于利用已训练的神经网络的输出层的输出结果,计算获得各个用户的数据信息;输出结果包括:各个用户的对数比特似然比。
可选的,码字计算模块801,具体用于:使用对数域条件概率公式及对数域先验概率公式,从已获得的叠加码字信息中,计算获得各个用户的码字信息。
其中,对数域条件概率公式为:
其中,Θf(x)代表对数域条件概率,N0为噪声功率,F表示正交的资源块数,f代表正交资源块节点编号,V代表用户节点个数,v代表用户节点编号也可以代表序号为v的用户,x={xv},xv表示第v个用户映射在正交资源块节点的码字向量,共有2K种可能取值。代表在因子图中与序号为f的正交资源块节点连接的用户节点的集合,K代表每个用户编码码字的比特数,用户需要K个前向纠错编码比特组成一个信道编码比特向量bv,每个bv映射为一个F维的码字向量xv=(xv,1,xv,2,…,xv,F),xv,f表示第v个用户在第f个正交资源块节点上的映射码字,yf表示第f个正交资源块节点上的接收信号,接收信号向量y=(y1,y2,…,yF)可以表示为:z是服从均值0,方差为N0I的复高斯白噪声向量,I表示单位矩阵,表示相应矩阵的转置;
所述对数域先验概率公式为:
可选的,网络计算模块802包括:
网络构建单元,用于根据因子图构建初始神经网络的输入层、输出层和隐含层;初始神经网络的输入层包括:检测输入层和译码输入层;初始神经网络的输出层包括:检测输出层和译码输出层;初始神经网络隐含层包括:检测隐含层和译码隐含层;
检测隐含层单元,用于将T倍的预设的迭代次数,作为初始神经网络包含检测隐含层个数;T的取值为2;
检测神经元单元,用于将非正交多址映射的因子图中各个用户节点与正交资源块节点的连边数量作为初始神经网络中各个检测隐含层包含神经元的个数;
子神经元单元,用于将用户的调制阶数,作为所述检测隐含层中每个神经元包含子神经元的个数编码码字;
检测输入层单元,用于将正交资源块节点的数量,作为检测输入层包含神经元的个数;
检测输出层单元,用于将用户节点的数量与每个编码码字的比特数的乘积,作为检测输出层包含神经元的个数;
检测关系单元,用于根据因子图中正交资源块节点与用户节点的连接关系,确定检测隐含层、检测输入层及检测输出层之间的连接关系;检测隐含层、检测输入层及检测输出层之间的连接关系包括:检测输入层包含的神经元与检测隐含层包含的神经元之间、检测隐含层包含的神经元与相邻检测隐含层之间、检测隐含层与检测输出层之间的连接关系;
译码隐含层单元,用于将第一预设数量,作为译码隐含层的个数;
译码神经元单元,用于将前向纠错编码的因子图中各个校验节点与变量节点的连边数量作为译码隐含层包含神经元的个数;
译码输出层单元,用于将奇数译码隐含层的个数,作为译码输出层的个数;
译码输入及输出层单元,用于将变量节点的个数,作为译码输入层及译码输出层包含神经元的个数;
译码关系单元,用于根据变量节点及校验节点的连接关系,确定译码隐含层、译码输入层及译码输出层之间的连接关系;译码隐含层、译码输入层及译码输出层之间的连接关系包括:译码输入层包含的神经元与译码隐含层包含的神经元之间、译码隐含层包含的神经元与相邻译码隐含层之间、译码隐含层与译码输出层之间的连接关系;
网络连接单元,用于根据各个用户的比特在前向纠错码中的顺序,确定检测输出层与译码输入层之间连接关系;
初始神经网络单元,用于获得初始神经网络;初始神经网络包括:确定包含神经元个数及连接关系后的检测输入层、检测输出层、检测隐含层、译码输入层、译码隐含层及译码输出层。
可选的,网络计算模块802还包括:
初始训练单元,用于将各个用户的码字信息作为初始神经网络的输入,根据初始神经网络中各层之间预设的权值,利用初始神经网络计算获得初始神经网络输出层的输出结果;
函数求解单元,用于利用梯度下降算法确定损失函数值是否是最小;所述损失函数是初始神经网络输出层输出结果的损失函数;
权值调整单元,用于若损失函数值不是最小,则调整初始神经网络中各层之间预设的权值;
权值确定单元,用于若损失函数值是最小,则确定初始神经网络中各层之间的权值;
网络确定单元,用于将确定权值后的初始神经网络作为已训练的神经网络。
可选的,初始训练单元具体用于:将各个用户的码字信息作为初始神经网络中检测输入层的输入,根据初始神经网络中各层之间预设的权值,利用初始神经网络计算获得检测输出层的输出结果;
将检测输出层的输出结果,作为译码输入层的输入,根据初始神经网络中各层之间预设的权值,利用初始神经网络计算获得译码输出层的输出结果;译码输出结果包括:奇数译码隐含层输出结果及译码输出层输出结果;
其中,奇数检测隐含层的输出结果为:
其中,i代表检测隐含层序号,e0代表非正交多址映射的因子图的连边,表示第i层检测隐含层中与e0=(v,f)相对应的神经元的输出结果,xa代表与第a个用户节点连接的第a个用户所有码字的集合,i为奇数,代表在非正交多址映射的因子图中与序号为f的正交资源块节点连接的除v用户节点以外的用户节点的集合,且1≤i≤2L-1,f→v代表非正交多址映射的因子图中与序号为f的正交资源块节点到v用户节点的连接方向,v→f代表非正交多址映射的因子图中与序号为v的用户节点到f的正交资源块节点的连接方向;e0=(v,f)代表非正交多址映射的因子图中用户节点v与正交资源块节点f的连边。
若检测隐含层中各个神经元之间预设的权值相同,偶数检测隐含层输出结果为:
其中,表示第i层检测隐含层中与e0=(v,f)相对应的神经元的输出,i为偶数,wi,v和wi,l→v表示第i层检测隐含层中与连边e0=(v,l)神经元相连接的权值,wi,v表示乘在相应对数先验概率上的权值,wi,l→v表示乘在相应的第i-1层检测隐含层输出上的权值;表示与第v个用户节点相连接的正交资源块节点集合,但不包括第f个正交资源块节点,表示与第v个用户节点相连接的正交资源块节点集合,L代表迭代次数,2L代表检测隐含层层数,Qv(xv)代表最后一层检测隐含层输出是每个用户的码字概率;xv表示第v个用户映射在正交资源块节点的码字向量,共有2K种可能取值,对应每个神经元中相应的子神经元。
若检测隐含层中各个神经元之间预设的权值不相同,偶数检测隐含层输出结果为:
其中,表示第i检测隐含层与e0=(v,f)对应的神经元中第m个子神经元输出,wi,v,m和wi,l→v,m表示第i层检测隐含层中与连边e0=(v,l)所对应的神经元中第m个子神经元相连接的连边的权值。wi,v,m表示乘在相应对数先验概率上的权值,wi,l→v,m乘在相应的第i-1层输出上权值;xv,m表示第v个用户节点的编号为m的序列映射到正交资源块节点上的码字向量;和表示第i层与e0=(v,f)对应的神经元中第m个子神经元输出,i分别为奇数和偶数;Qv,m表示与第v个用户节点对应的神经元的第m个子神经元输出,w2L,v,m和w2L,l→v,m表示第2L层检测隐含层中与连边e0=(v,l)所对应的神经元中第m个子神经元相连接的连边的权值;
将检测输出层的输出结果,作为所述译码输入层的输入,根据初始神经网络中各层之间预设的权值,利用初始神经网络计算获得译码输出层的输出结果;译码输出结果包括:奇数译码隐含层输出结果及译码输出层输出结果;
其中,偶数译码隐含层的输出结果为:
其中,λ代表译码隐含层的序号,e1代表前向纠错编码的因子图的连边,代表偶数译码隐含层输出结果,u表示变量节点序号,c表示校验节点序号,wλ,u→c表示第λ层e1=(u,c)对应的神经元与译码输入层中第u个神经元连接的权值,lu表示译码输入层第u个神经元的输入,lu=LLR(bv,k),u∈{0,1,2,…N-1},N代表前向纠错编码码字的长度,表示与第u个变量节点连接的校验节点集合,表示与第u个变量节点连接的校验节点集合,但不包括第c个校验节点,wλ,h→u表示第λ层中e1=(u,c)对应的神经元与第λ-1层中e1=(u,h),对应的神经元连线的权值,表示第λ-1层中e1=(u,h)对应的神经元的输出,当λ=0时,u→c代表因子图中与序号为u的变量节点到c校验节点的连接方向,c→u代表因子图中与序号为c校验节点到u的变量节点的连接方向;
奇数译码隐含层的输出结果为:
其中,表示第λ层译码隐含层中与e1=(u,c)相对应的神经元的输出,其中λ为奇数,表示与第c个校验节点连接的变量节点集合,表示与第c个校验节点连接的变量节点集合,但不包括第u个变量节点,表示第λ-1译码隐含层中e1=(d,c)对应的神经元的输出;
其中,σ(r)=(1+e-r)-1,λ为奇数,表示第λ层译码输出层第u个神经元的输出,wλ,u表示第λ层译码输出层第u个神经元与译码输入层第u个神经元连接的权值;wλ,h→u表示第λ层译码输出层第u个神经元与第λ层译码隐含层e1=(u,h)对应的神经元连接权值;表示第λ层译码隐含层e1=(u,h)对应的神经元的输出,Lb代表译码隐含层的层数;
函数求解单元具体用于:利用梯度下降算法确定损失函数值是否是最小;损失函数是译码输出层的输出结果的损失函数;
译码输出层的输出结果的损失函数为:
其中,L(Γ,z)代表译码输出层输出的损失函数,Γ代表译码输出层的输出值,zj代表信道编码后的码字,j代表比特的序号。
权值调整单元具体用于:若损失函数值不是最小,分别调整偶数检测隐含层、奇数检测隐含层到偶数检测隐含层、译码输入层到译码输出层、译码输入层到偶数译码隐含层及奇数译码隐含层到偶数译码隐含层的权值;
权值确定单元具体用于:若损失函数值是最小,确定初始神经网络中各层之间的权值;
网络确定单元具体用于:将确定权值后的初始神经网络作为已训练的神经网络。
可选的,信息计算模块803具体用于:
利用各个用户的对数比特似然比,计算各个用户发送的数据信息中的比特;
根据各个用户发送的数据信息中的比特及比特顺序,获得各个用户发送的数据信息;本发明实施例还提供了一种电子设备,如图9所示,包括处理器901、通信接口902、存储器903和通信总线904,其中,处理器901,通信接口902,存储器903通过通信总线904完成相互间的通信,
存储器903,用于存放计算机程序;处理器901,用于执行存储器903上所存放的程序时,实现如下步骤:
使用预设的条件算法,从已获得的叠加码字信息中计算得出各个用户的码字信息;码字信息包括:码字条件概率;
将各个用户的码字信息作为已训练的神经网络的输入,利用已训练的神经网络获得已训练的神经网络输出层的输出结果;已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的;初始神经网络是根据因子图预先构建的;各层之间的权值与因子图中的连边权值一一对应;
利用已训练的神经网络的输出层的输出结果,计算获得各个用户的数据信息;所述输出结果包括:各个用户的对数比特似然比。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry Standard Architectu正交资源块,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于上述电子设备与其他设备之间的通信。存储器可以包括随机存取存储器(Random AccessMemory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (7)
1.一种基于深度学习的多用户数据信息检测方法,其特征在于,应用于非正交多址(Non-Orthogonal Multiple Access,NOMA)系统中的接收端,所述方法包括:
使用预设的条件算法,从已获得的叠加码字信息中计算得出各个用户的码字信息;所述码字信息包括:码字条件概率;
将所述各个用户的码字信息作为已训练的神经网络的输入,利用已训练的神经网络获得所述已训练的神经网络输出层的输出结果;所述已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的;所述初始神经网络是根据因子图预先构建的;所述各层之间的权值与因子图中的连边权值一一对应;
利用所述已训练的神经网络的输出层的输出结果,计算获得各个用户的数据信息;所述输出结果包括:各个用户的对数比特似然比;
所述使用预设的条件算法,从已获得的叠加码字信息中计算得出各个用户的码字信息包括:
使用对数域条件概率公式及对数域先验概率公式,从已获得的叠加码字信息中,计算获得各个用户的码字条件概率;
所述已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的,具体步骤包括:
将各个用户的码字信息作为所述初始神经网络的输入,根据初始神经网络中各层之间预设的权值,利用所述初始神经网络计算获得所述初始神经网络输出层的输出结果;
利用梯度下降算法确定损失函数值是否是最小;所述损失函数是初始神经网络输出层输出结果的损失函数;
若损失函数值不是最小,则调整初始神经网络中各层之间预设的权值;
若损失函数值是最小,则确定初始神经网络中各层之间的权值;
将确定权值后的初始神经网络作为已训练的神经网络。
2.根据权利要求1所述的方法,其特征在于,所述初始神经网络是根据因子图预先构建的,具体步骤包括:
根据因子图构建所述初始神经网络的输入层、输出层和隐含层;所述初始神经网络的输入层包括:检测输入层和译码输入层;所述初始神经网络的输出层包括:检测输出层和译码输出层;所述初始神经网络隐含层包括:检测隐含层和译码隐含层;
将T倍的预设的迭代次数,作为所述初始神经网络包含检测隐含层个数;所述T的取值为2;
将非正交多址映射的因子图中各个用户节点与正交资源块节点的连边数量作为所述初始神经网络中各个检测隐含层包含神经元的个数;
将用户的调制阶数,作为所述检测隐含层中每个神经元包含子神经元的个数;
将正交资源块节点的数量,作为所述检测输入层包含神经元的个数;
将所述用户节点的数量与编码码字每个编码码字的比特数的乘积,作为检测输出层包含神经元的个数;
根据非正交多址映射的因子图中正交资源块节点与用户节点的连接关系,确定所述检测隐含层、检测输入层及检测输出层之间的连接关系;所述检测隐含层、检测输入层及检测输出层之间的连接关系包括:检测输入层包含的神经元与检测隐含层包含的神经元之间、检测隐含层包含的神经元与相邻检测隐含层之间、检测隐含层与检测输出层之间的连接关系;
将第一预设数量,作为所述译码隐含层的个数;
将前向纠错编码的因子图中各个校验节点与变量节点的连边数量作为所述译码隐含层包含神经元的个数;
将奇数译码隐含层的个数,作为所述译码输出层的个数;
将变量节点的个数,作为所述译码输入层及译码输出层包含神经元的个数;
根据变量节点及校验节点的连接关系,确定所述译码隐含层、译码输入层及译码输出层之间的连接关系;所述译码隐含层、译码输入层及译码输出层之间的连接关系包括:译码输入层包含的神经元与译码隐含层包含的神经元之间、译码隐含层包含的神经元与相邻译码隐含层之间、译码隐含层与译码输出层之间的连接关系;
根据各个用户的比特在前向纠错码中的顺序,确定检测输出层与译码输入层之间连接关系;
获得所述初始神经网络;所述初始神经网络包括:确定包含神经元个数及连接关系后的检测输入层、检测输出层、检测隐含层、译码输入层、译码隐含层及译码输出层。
3.根据权利要求1所述的方法,其特征在于,所述初始神经网络的输入层包括:检测输入层和译码输入层;所述初始神经网络的输出层包括:检测输出层和译码输出层;所述初始神经网络隐含层包括:检测隐含层和译码隐含层;
所述已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的,具体步骤包括:
将各个用户的码字信息作为所述初始神经网络中所述检测输入层的输入,根据所述初始神经网络中各层之间预设的权值,利用所述初始神经网络计算获得检测输出层的输出结果;
将所述检测输出层的输出结果,作为所述译码输入层的输入,根据所述初始神经网络中各层之间预设的权值,利用所述初始神经网络计算获得所述译码输出层的输出结果;译码输出结果包括:奇数译码隐含层输出结果及译码输出层输出结果;
利用梯度下降算法确定损失函数值是否是最小;损失函数是初始神经网络输出层输出结果的损失函数;
若损失函数值不是最小,则分别调整偶数检测隐含层、奇数检测隐含层到偶数检测隐含层、译码输入层到译码输出层、译码输入层到偶数译码隐含层及奇数译码隐含层到偶数译码隐含层的权值;
若损失函数值是最小时,则确定所述初始神经网络中各层之间的权值;
将确定权值后的初始神经网络作为已训练的神经网络。
4.根据权利要求1所述的方法,其特征在于,利用所述已训练的神经网络的输出层的输出结果,计算各个用户的数据信息包括:
利用各个用户的对数比特似然比,计算各个用户发送的数据信息中的比特;
根据各个用户发送的数据信息中的比特及比特顺序,获得各个用户发送的数据信息。
5.根据权利要求3所述的方法,其特征在于,
所述对数域条件概率公式为:
其中,Θf(x)代表对数域条件概率,N0为噪声功率,F表示正交的资源块数,f代表正交资源块节点编号,V代表用户节点个数,v代表用户节点编号也代表序号为v的用户,x={xv},xv表示第v个用户映射在正交资源块节点的码字向量,共有2K种可能取值,代表在因子图中与序号为f的正交资源块节点连接的用户节点的集合,K代表每个用户编码码字的比特数,用户需要K个前向纠错编码比特组成一个信道编码比特向量bv,每个bv映射为一个F维的码字向量xv=(xv,1,xv,2,…,xv,F),xv,f表示第v个用户在第f个正交资源块节点上的映射码字,yf表示第f个正交资源块节点上的接收信号,接收信号向量y=(y1,y2,…,yF)可以表示为:z是服从均值0,方差为N0I的复高斯白噪声向量,I表示单位矩阵,yT,zT表示相应矩阵的转置;
所述对数域先验概率公式为:
奇数检测隐含层的输出结果为:
其中,i代表检测隐含层序号,e0代表非正交多址映射的因子图的连边,表示第i层检测隐含层中与e0=(v,f)相对应的神经元的输出结果,xa代表与第a个用户节点连接的第a个用户所有码字的集合,i为奇数,代表在非正交多址映射的因子图中与序号为f的正交资源块节点连接的除v用户节点以外的用户节点的集合,且1≤i≤2L-1,f→v代表非正交多址映射的因子图中与序号为f的正交资源块节点到v用户节点的连接方向,v→f代表非正交多址映射的因子图中与序号为v的用户节点到f的正交资源块节点的连接方向;e0=(v,f)代表非正交多址映射的因子图中用户节点v与正交资源块节点f的连边;
若检测隐含层中各个神经元之间预设的权值相同,偶数检测隐含层输出结果为:
其中,表示第i层检测隐含层中与e0=(v,f)相对应的神经元的输出,i为偶数,wi,v和wi,l→v表示第i层检测隐含层中与连边e0=(v,l)所对应的神经元相连接的连边的权值,wi,v表示乘在相应对数先验概率上的权值,wi,l→v表示乘在相应的第i-1层检测隐含层输出上的权值;表示与第v个用户节点相连接的正交资源块节点集合,但不包括第f个正交资源块节点,表示与第v个用户节点相连接的正交资源块节点集合,L代表迭代次数,2L代表检测隐含层层数,Qv(xv)代表最后一层检测隐含层输出是每个用户的码字概率;xv表示第v个用户映射在正交资源块节点的码字向量,共有2K种可能取值,对应每个神经元中相应的子神经元,若检测隐含层中各个神经元之间预设的权值不相同,偶数检测隐含层输出结果为:
其中,表示第i层检测隐含层与e0=(v,f)对应的神经元中第m个子神经元输出,wi,v,m和wi,l→v,m表示第i层检测隐含层中与连边e0=(v,l)所对应的神经元中第m个子神经元相连接的连边的权值,wi,v,m表示乘在相应对数先验概率上的权值,wi,l→v,m表示乘在相应的第i-1层检测隐含层输出上权值;xv,m表示第v个用户节点的编号为m的序列映射到正交资源块节点上的码字向量;和表示第i层检测隐含层与e0=(v,f)对应的神经元中第m个子神经元输出,i分别为奇数和偶数;Qv,m表示与第v个用户节点对应的神经元的第m个子神经元输出,w2L,v,m和w2L,l→v,m表示第2L层检测隐含层中与连边e0=(v,l)所对应的神经元中第m个子神经元相连接的连边的权值;
所述偶数译码隐含层的输出结果为:
其中,λ代表译码隐含层的序号,e1代表前向纠错编码的因子图的连边,代表偶数译码隐含层输出结果,u表示变量节点序号,c表示校验节点序号,wλ,u→c表示第λ层译码隐含层e1=(u,c)对应的神经元与译码输入层中第u个神经元相连接的连边的权值,lu表示译码输入层第u个神经元的输入,lu=LLR(bv,k),u∈{0,1,2,…N-1},N代表前向纠错编码的码字的长度,表示与第u个变量节点连接的校验节点集合,表示与第u个变量节点连接的校验节点集合,但不包括第c个校验节点,wλ,h→u表示第λ层译码隐含层中e1=(u,c)对应的神经元与第λ-1层译码隐含层中e1=(u,h),对应的神经元相连接的连边的权值,表示第λ-1层译码隐含层中e1=(u,h)对应的神经元的输出,当λ=0时,u→c代表因子图中与序号为u的变量节点到c校验节点的连接方向,c→u代表因子图中与序号为c校验节点到u的变量节点的连接方向;
奇数译码隐含层的输出结果为:
其中,表示第λ层译码隐含层中与e1=(u,c)相对应的神经元的输出,其中λ为奇数,表示与第c个校验节点连接的变量节点集合,表示与第c个校验节点连接的变量节点集合,但不包括第u个变量节点,表示第λ-1层译码隐含层中e1=(d,c)对应的神经元的输出;
其中,σ(r)=(1+e-r)-1,λ为奇数,表示第λ层译码输出层第u个神经元的输出,wλ,u表示第λ层译码输出层第u个神经元与译码输入层第u个神经元相连接的连边的权值;wλ,h→u表示第λ层译码输出层第u个神经元与第λ层译码隐含层e1=(u,h)对应的神经元相连接的连边的权值;表示第λ层译码隐含层e1=(u,h)对应的神经元的输出,Lb代表译码隐含层的层数;
译码输出层的输出结果的损失函数为:
其中,L(Γ,z)代表译码输出层输出的损失函数,Γ代表译码输出层的输出值,zj代表信道编码后的码字,j代表比特的序号。
6.一种基于深度学习的多用户数据信息检测装置,其特征在于,应用于非正交多址(Non-Orthogonal Multiple Access,NOMA)系统中的接收端,所述装置包括:
码字计算模块,用于使用预设的条件算法,从已获得的叠加码字信息中计算获得各个用户的码字信息;所述码字信息包括:码字条件概率;网络计算模块,将所述各个用户的码字信息作为已训练的神经网络的输入,利用已训练的神经网络获得所述已训练的神经网络输出层的输出结果;所述已训练的神经网络是通过深度学习训练初始神经网络中各层之间预设的权值得到的;所述初始神经网络是根据因子图预先构建的;所述各层之间的权值与因子图中的连边权值一一对应;
信息计算模块,用于利用所述已训练的神经网络的输出层的输出结果,计算获得各个用户的数据信息;所述输出结果包括:各个用户的对数比特似然比;
所述码字计算模块,具体用于:使用对数域条件概率公式及对数域先验概率公式,从已获得的叠加码字信息中,计算获得各个用户的码字信息;
所述网络计算模块包括:
初始训练单元,用于将各个用户的码字信息作为所述初始神经网络的输入,根据初始神经网络中各层之间预设的权值,利用所述初始神经网络计算获得所述初始神经网络输出层的输出结果;
函数求解单元,利用梯度下降算法确定损失函数值是否是最小;所述损失函数是所述初始神经网络输出层输出结果的损失函数;
权值调整单元,用于若损失函数值不是最小,则调整所述初始神经网络中各层之间预设的权值;
权值确定单元,用于若损失函数值是最小,则确定所述初始神经网络中各层之间的权值;
网络确定单元,用于将确定权值后的初始神经网络作为已训练的神经网络。
7.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-5任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810332221.7A CN108540267B (zh) | 2018-04-13 | 2018-04-13 | 一种基于深度学习的多用户数据信息检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810332221.7A CN108540267B (zh) | 2018-04-13 | 2018-04-13 | 一种基于深度学习的多用户数据信息检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108540267A CN108540267A (zh) | 2018-09-14 |
CN108540267B true CN108540267B (zh) | 2020-10-02 |
Family
ID=63480482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810332221.7A Active CN108540267B (zh) | 2018-04-13 | 2018-04-13 | 一种基于深度学习的多用户数据信息检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108540267B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2576702A (en) * | 2018-08-15 | 2020-03-04 | Imperial College Sci Tech & Medicine | Joint source channel coding of information sources using neural networks |
CN113273108A (zh) * | 2019-01-07 | 2021-08-17 | 诺基亚技术有限公司 | 使用神经网络检测帧中传输的控制信息 |
FI20195547A1 (en) * | 2019-06-20 | 2020-12-21 | Nokia Technologies Oy | Systems and apparatus for adaptive modulation category |
WO2021000264A1 (zh) * | 2019-07-02 | 2021-01-07 | 株式会社Ntt都科摩 | 终端和基站 |
CN112819152B (zh) * | 2020-08-14 | 2024-03-01 | 腾讯科技(深圳)有限公司 | 一种神经网络训练方法及装置 |
CN112559736A (zh) * | 2020-10-21 | 2021-03-26 | 山东亦贝数据技术有限公司 | 一种随机消息智能分发系统及方法 |
CN114363218B (zh) * | 2022-01-07 | 2023-07-28 | 合肥工业大学 | 一种基于端到端学习的通信可达速率检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105356971A (zh) * | 2015-10-27 | 2016-02-24 | 电子科技大学 | 一种基于概率计算的scma译码器 |
CN106998240A (zh) * | 2016-12-30 | 2017-08-01 | 上海华为技术有限公司 | 一种译码方法及译码器 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8811977B2 (en) * | 2010-05-06 | 2014-08-19 | At&T Mobility Ii Llc | Device-driven intelligence and feedback for performance optimization and planning of a service network |
US20170212829A1 (en) * | 2016-01-21 | 2017-07-27 | American Software Safety Reliability Company | Deep Learning Source Code Analyzer and Repairer |
CN106612158A (zh) * | 2016-12-06 | 2017-05-03 | 南京邮电大学 | 一种基于复合正弦混沌神经网络的信号盲检测方法 |
CN107241106B (zh) * | 2017-05-24 | 2020-07-14 | 东南大学 | 基于深度学习的极化码译码算法 |
CN107231214B (zh) * | 2017-06-12 | 2020-07-28 | 哈尔滨工程大学 | 基于演化混沌量子神经网络的最优多用户检测方法 |
-
2018
- 2018-04-13 CN CN201810332221.7A patent/CN108540267B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105356971A (zh) * | 2015-10-27 | 2016-02-24 | 电子科技大学 | 一种基于概率计算的scma译码器 |
CN106998240A (zh) * | 2016-12-30 | 2017-08-01 | 上海华为技术有限公司 | 一种译码方法及译码器 |
Also Published As
Publication number | Publication date |
---|---|
CN108540267A (zh) | 2018-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108540267B (zh) | 一种基于深度学习的多用户数据信息检测方法及装置 | |
US11599773B2 (en) | Neural networks and systems for decoding encoded data | |
CN110278002B (zh) | 基于比特翻转的极化码置信传播列表译码方法 | |
CN109842418B (zh) | 一种基于比特翻转的极化码置信传播译码方法 | |
CN108933602A (zh) | 用于低密度奇偶校验解码的深度学习 | |
US11159180B2 (en) | Method and apparatus for constructing a polar code | |
CN106571832A (zh) | 一种多进制ldpc码级联神经网络解码方法及装置 | |
CN114830134A (zh) | 用于解码经编码数据的递归神经网络和系统 | |
WO2021135715A1 (zh) | 一种图像压缩方法及装置 | |
CN111461445B (zh) | 短期风速预测方法、装置、计算机设备及存储介质 | |
CN111739514A (zh) | 一种语音识别方法、装置、设备及介质 | |
CN112953554B (zh) | 一种基于分层置信度传播的ldpc译码方法、系统和介质 | |
US20220068401A1 (en) | Efficient read-threshold calculation method for parametric pv-level modeling | |
CN109802688A (zh) | 一种多进制ldpc译码系统和方法 | |
CN109992785B (zh) | 基于机器学习的内容计算方法、装置及设备 | |
CN109977415A (zh) | 一种文本纠错方法及装置 | |
CN111130567B (zh) | 添加噪声扰动和比特翻转的极化码置信传播列表译码方法 | |
CN108141227A (zh) | 非二进制ldpc解码器的校验节点和对应的方法 | |
CN111582229A (zh) | 一种网络自适应半精度量化的图像处理方法和系统 | |
CN110380737B (zh) | 一种极化码距离谱分析的方法及装置 | |
CN115102868A (zh) | 一种基于SOM聚类与深度自编码器的web服务QoS预测方法 | |
CN113988279A (zh) | 一种支持负值激励的存算阵列输出电流读出方法及系统 | |
Liang et al. | Exploiting noise correlation for channel decoding with convolutional neural networks | |
CN109582930B (zh) | 一种滑动输入解码方法、装置及电子设备 | |
CN111400678A (zh) | 一种用户检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |