CN111712835A - 数据传输系统中的信道建模 - Google Patents

数据传输系统中的信道建模 Download PDF

Info

Publication number
CN111712835A
CN111712835A CN201880089154.9A CN201880089154A CN111712835A CN 111712835 A CN111712835 A CN 111712835A CN 201880089154 A CN201880089154 A CN 201880089154A CN 111712835 A CN111712835 A CN 111712835A
Authority
CN
China
Prior art keywords
channel
discriminator
neural network
generator
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880089154.9A
Other languages
English (en)
Other versions
CN111712835B (zh
Inventor
J·霍伊迪斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Publication of CN111712835A publication Critical patent/CN111712835A/zh
Application granted granted Critical
Publication of CN111712835B publication Critical patent/CN111712835B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/03Shaping networks in transmitter or receiver, e.g. adaptive shaping networks
    • H04L25/03006Arrangements for removing intersymbol interference
    • H04L25/03165Arrangements for removing intersymbol interference using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/03Shaping networks in transmitter or receiver, e.g. adaptive shaping networks
    • H04L25/03006Arrangements for removing intersymbol interference
    • H04L25/03343Arrangements at the transmitter end
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Power Engineering (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Operations Research (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Feedback Control In General (AREA)
  • Transmitters (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

描述了装置、系统和方法,包括:使用生成器将生成器输入转换为生成器输出向量,其中生成器是数据传输系统的信道的模型,并且其中生成器包括生成器神经网络;将生成器输出向量或数据传输系统的信道的输出向量选择性地提供给鉴别器的输入,其中鉴别器包括鉴别器神经网络;使用鉴别器来生成指示鉴别器输入是信道输出向量还是生成器输出向量的概率;以及使用第一损失函数训练鉴别器神经网络的至少一些权重,并且使用第二损失函数训练生成器神经网络的至少一些权重,以便提高信道的模型的精度。

Description

数据传输系统中的信道建模
技术领域
本说明书涉及诸如通信系统的数据传输系统中的信道建模。
背景技术
简单的数据传输系统(诸如,通信系统)包括发射器、传输信道和接收器。这种通信系统的设计通常涉及系统的每个部分的单独设计和优化。一种备选方法是将整个通信系统视为单个系统,并寻求优化整个系统。尽管在现有技术中已经进行了一些尝试,但是在该领域中仍存在进一步改进和实现的范围。
发明内容
一旦同意了权利要求的形式,该章节完成。
附图说明
现在将参照以下示意图通过非限制性示例来描述示例实施例,其中:
图1是示例通信系统的框图;
图2是示出了根据示例实施例的算法的流程图;
图3是根据示例实施例的系统的框图;
图4是根据示例实施例的系统的框图;
图5是根据示例实施例的生成器的框图;
图6是根据示例实施例的鉴别器的框图;
图7是示出了根据示例实施例的算法的流程图;
图8是根据示例实施例的处理系统的组件的框图;以及
图9a和图9b示出了有形介质,分别是存储计算机可读代码的可移动存储器单元和光盘(CD),当由计算机运行时,该计算机可读代码执行根据实施例的操作。
具体实施方式
图1是示例通信系统的框图,该通信系统通常由附图标记1指示。通信系统1包括发射器2、信道4和接收器6。发射器2接收并编码符号s,并且经由信道4向接收器6传输经编码的符号。接收器6从信道4接收信号,并对接收到的符号进行解码,以提供经解码的输出符号
Figure BDA0002628820990000021
在理想系统中,该输出符号将与在发射器处接收到的符号s相同。
发射器2可以将M个可能的消息
Figure BDA0002628820990000022
中的一个传送到接收器6。为此,发射器2通过信道4发送该消息的复数值向量表示
Figure BDA0002628820990000023
(这些表示可以是IQ样本,这些样本将被直接馈送到数模转换器(DAC)或它们可以在发射器硬件中进行进一步的确定性变换,诸如滤波或量化。)通常,发射器硬件对例如能量约束
Figure BDA0002628820990000024
幅度约束
Figure BDA0002628820990000025
或平均功率约束
Figure BDA0002628820990000026
施加约束。该信道由条件概率密度函数p(y|x)描述,其中,
Figure BDA0002628820990000027
表示接收到的信号。在接收到y之后,接收器产生对所传输消息s的估计
Figure BDA0002628820990000028
通过使用神经网络来实现发射器2和接收器6,可以以最小化误差概率
Figure BDA0002628820990000029
的目标来共同训练神经网络。以这种方式,可以优化系统1的端到端性能。(要注意的是,可以使用其他性能度量,诸如均方误差(MSE)。)
如图1所示,系统1接收发射器输入向量s。输入s由发射器2编码。发射器2的神经网络被用于将输入s变换成信号,以用于使用信道4进行传输。神经网络可以包括多层(所谓的深度神经网络)。例如,发射器神经网络可能具有权重可训练的一些层和权重固定的一些层。同样地,接收器6被用于将信道的输出变换成输出
Figure BDA00026288209900000210
接收器6的神经网络可以包括多层(所谓的深度神经网络)。例如,接收器神经网络可能具有权重可训练的一些层和权重固定的一些层。
在通信系统的上下文中,输出
Figure BDA0002628820990000031
通常是接收器对输入s的最佳猜测。接收器6可以包括损失函数,该损失函数监测输出
Figure BDA0002628820990000032
在多高精度上与输入s匹配。损失函数的输出然后可以在训练发射器的神经网络和/或接收器的神经网络的权重中被使用。
为了实现系统1的端到端训练,通常需要信道p(y|x)的生成模型,该模型可以使用具有输入x和输出y的神经网络来实现。这种生成模型的示例是加性高斯白噪声(AWGN)信道。此处,信道仅将具有预定义或随机方差的高斯分布随机变量添加到信道输入。然而,在实际系统中,信道模型要复杂得多,并且难以准确建模。
在许多情况下,不存在信道4的这种确切模型p(y|x)。在一些情况下,近似值可以是可用的。在其他情况下,甚至没有足够的近似值可用。
图2是示出了根据示例实施例的通常由附图标记10指示的算法的流程图。
算法10开始于操作11,其中使用系统1来传输已知序列。因此,发射器2通过信道4发送已知的复数值向量x。要注意的是,此处不需要将输入s变换为对应向量x的步骤。向量x可以是确定性的或者根据一些所选分布而被随机生成。在接收器处,接收并存储复数值向量y。在该步骤中不执行进一步的处理。所传输和接收的向量x和y的集合构成将在下一操作中被使用的数据集。
在操作12中,在生成信道4的信道模型时使用在操作11中生成的数据集。利用在操作12中生成的信道模型,算法10移动到操作13,其中确定信道建模过程是否完成。如果是,则该算法移动到操作14;否则,该算法返回到操作12。下面详细描述操作12和13的实现。
一旦已经完成了操作12和13的信道建模过程,算法10移动到操作14,其中执行系统1的端到端训练,以优化定义发射器2和接收器6的功能性的神经网络。在该过程期间,将在操作12中生成的信道模型用作发射器与接收器之间的信道。下面提供关于操作14的实现的其他细节。
利用在操作14中执行的系统1的端到端训练,算法10移动到操作15,其中确定端到端训练过程是否完成。如果是,则该算法移动到操作16;否则,该算法返回到操作14。
在操作16,在操作14中定义的发射器和接收器神经网络被部署在通信系统1上,该通信系统包括真实信道。
图3是根据示例实施例的通常由附图标记20指示的系统的框图。系统20包括发射器22、信道24和接收器26。图3所示的发射器、信道和接收器是上述系统1的发射器2、信道4和接收器6的示例。要注意的是,该框图中的信道24是生成信道模型,而不是真实信道。
如图3所示,发射器22接收输入s并提供输出向量x,其中,
Figure BDA0002628820990000041
并且
Figure BDA0002628820990000042
发射器22包括嵌入模块32、一个或多个神经网络33的致密层、复向量生成器34和归一化模块35。
输入s被馈送到嵌入模块32中,嵌入:
Figure BDA0002628820990000043
其将s变换为nemb维实数值向量。备选地,可以对消息索引进行独热编码并且将其直接馈送到致密层33中。
嵌入层32可以可选地在具有不同的可能的激活函数的几个致密神经网络(NN)层33(如图3所示)之后,诸如ReLU、sigmoid、tanh、线性等(也称为多层感知器(MLP))。神经网络33的最后一层通常具有2n个输出维度和线性激活函数。如果未使用致密层,则nemb=2n。
通过映射
Figure BDA0002628820990000044
将神经网络33的输出转换为复数值向量(通过复向量生成器34),该映射可以被实现为
Figure BDA0002628820990000045
应用归一化(在归一化模块35中),以确保满足功率、幅度或其他约束。归一化过程的结果是发射器22的发射向量(其中,
Figure BDA0002628820990000049
)。要注意的是,复向量生成和归一化的顺序可以被颠倒。
然后将发射向量馈送到信道24中,该信道由生成器41建模,如下面详细描述的。每次使用生成器41时,都会从某种分布pz(z)(例如,
Figure BDA0002628820990000046
)随机抽取附加的输入向量
Figure BDA0002628820990000047
然后,生成器41将该对x,z映射到输出向量y。换言之,生成器41实现映射
Figure BDA0002628820990000048
生成器41被实现为另一神经网络,该神经网络在使用之前利用下述方法训练(例如,在上面引用的操作12期间)。如下面所讨论的,生成器41是使用神经网络实现的;因此,可以通过反向传播(backpropagation)来计算信道模型的梯度。
接收器26接收向量y,其中
Figure BDA0002628820990000051
并提供输出
Figure BDA00026288209900000510
接收器20包括实向量生成器51、一个或多个神经网络52的致密层、softmax模块53和argmax模块54。
通过映射
Figure BDA0002628820990000052
将接收到的向量
Figure BDA0002628820990000053
(通过实向量生成器51)变换为2nrx个维度的实数值向量,其可以被实现为
Figure BDA0002628820990000054
将结果馈送到具有可能不同的激活函数(例如ReLU、tanh、sigmoid、线性)的几个致密神经网络层(神经网络52)。最后一层具有对其应用softmax激活的M个输出维度(通过softmax模块53)。这生成了概率向量
Figure BDA0002628820990000055
其第i个元素[ps]i可以被解释为Pr(s=i|y)。该消息的硬决策被获得为
Figure BDA0002628820990000056
(通过argmax模块54)。
可以例如使用随机梯度下降(SGD)来实现系统20的自动编码器的端到端训练(实施上述操作14)。例如,可以使用以下分类的交叉熵损失函数:L=-log([ps]s)。然而,如上面所提到的,仍然存在以下问题:需要定义用于信道24的信道模型,以便应用端到端学习系统的自动编码器。
图4是根据示例实施例的通常由附图标记60指示的系统的框图。系统60包括信道62、生成器64和鉴别器66。
信道62是通信系统的真实信道(诸如,上述信道4)。生成器64是信道62的模型(因此可以用作上述信道模型24)。
信道62接收输入x(例如,发射器2或22的输出),并提供输出向量y。生成器64还在第一输入处接收输入x,并且在第二输入处附加地接收随机附加向量z。(如上面所指示的,可以从某种分布pz(z)(例如,
Figure BDA0002628820990000057
)随机抽取向量
Figure BDA0002628820990000058
)给定输入x和z,生成器64提供输出
Figure BDA0002628820990000059
该输出是信道输出y的估计。
基于选择器68,鉴别器66接收来自信道的输出y或来自生成器64的输出
Figure BDA0002628820990000061
鉴别器旨在针对给定的输入确定是否已经从真实信道62或生成器64接收到鉴别器的输入。鉴别器输出d∈[0,1]可以被解释为鉴别器认为y属于“真实”的概率,即,真实信道观测而不是人为生成的观测。鉴别符描述了映射
Figure BDA0002628820990000062
因此,系统60是条件生成对抗网络(GAN)的示例。如下文详细描述的,提高鉴别器66确定是否从真实信道或生成器模型接收到输入的能力,同时提高生成器64“欺骗”鉴别器的能力是生成对抗网络(GAN)的原理。在训练了这种GAN之后,生成器应该更紧密地匹配真实信道的行为。因此,提高了由生成器64定义的信道模型的质量。
图5是根据示例实施例的通常由附图标记70指示的生成器的框图。生成器70是上述生成器64(和生成器41)的高度示意性示例实现。
生成器70包括串接模块72、实向量生成器74、神经网络的致密层76和复向量生成器78。
到生成器70的输入(上述的向量x和z)由串接模块72串接。然后,串联的输入由实向量生成器74转换为实向量。将模块74生成的实向量馈送到神经网络76的多个致密层中。神经网络的结果输出由复向量生成器78转换回复向量。复向量生成器78的输出是生成器70的输出向量
Figure BDA0002628820990000063
图6是根据示例实施例的通常由附图标记80指示的鉴别器的框图。鉴别器80是上述鉴别器66的高度示意性示例实施方式。
鉴别器80包括串接模块82、实向量生成器84和神经网络86的致密层。神经网络86的输出是鉴别器的输出d。
鉴别器的输入(上述的向量x和y)由串接模块82串联。串联的输入然后由实向量生成器84转换为实向量。由模块84生成的实向量被馈送到神经网络86的多个致密层中。神经网络76的最后一层的输出是单个实数输出以及确保d∈[0,1]的激活函数(诸如,sigmoid函数)。
用于实现生成器70和鉴别器80的其他选项是可能的。例如,生成器可以具有两个并行输入分支(一个用于x,并且一个用于z),它们在以后的神经网络层处被组合。生成器层中的一些生成器层还可以执行随机变换,使得它们取决于动态生成的其他随机变量。生成器神经网络的结构也可以从一些已知的信道效果中被得出,诸如脉冲成形、削波、时间、频率或相位偏移、与随机信道脉冲响应或非线性硬件(例如,功率放大器)的卷积。如上文所提到的,生成器实现映射
Figure BDA0002628820990000071
图7是示出了根据用于训练生成器64和鉴别器66的示例方法的通常由附图标记90指示的算法的流程图。算法90是上述算法10的操作12和13的一个实现。
算法90开始于操作92,其中生成向量x和z。
在操作92,从满足对x施加的约束的分布px(x)来生成M个样本{x1,...,xM}的样本小批次。同样地,从pz(z)生成M个样本{z1,...,zM}的样本小批次。
在操作94,生成实向量y和模型输出向量
Figure BDA0002628820990000078
实向量y通过信道62传输向量x{x1,...,xM}以获得(真实)观测{y1,...,yM}而被生成。(要注意的是,该步骤对应于图2中的操作11。)同样地,向量x和z通过生成器64以根据
Figure BDA0002628820990000072
来生成模型观测值
Figure BDA0002628820990000073
在操作96,鉴别器66的权重通过递增其随机梯度而被更新:
Figure BDA0002628820990000074
在上面的方程式中:
·θD是包含鉴别器66的所有可训练参数的向量。
·
Figure BDA0002628820990000075
是鉴别器66的可训练参数的梯度。
·D(yi,xi)是表示鉴别器66的从真实信道接收到信号yi(针对给定输入xi)的置信度的函数。鉴于从真实信道接收到yi,该函数应该趋向于1。
·
Figure BDA0002628820990000076
是表示鉴别器的从真实信道接收到信号
Figure BDA0002628820990000077
(针对给定输入xi)的置信度的函数。鉴于
Figure BDA0002628820990000081
不是从真实信道接收到的,该函数应该趋向于0,使得函数
Figure BDA0002628820990000082
应该趋向于1。
该训练步骤的目标是改进鉴别器,从而增加损失。
应该注意的是,备选损失函数是可能的。
在操作98,通过满足对x施加的约束的分布px(x)生成M个样本{x1,...,xM}的又一样本小批次。同样地,通过pz(z)生成M个样本{z1,...,zM}的样本小批次。
在操作100中,又一模型输出向量
Figure BDA0002628820990000083
被生成。向量x和z通过生成器64以根据
Figure BDA0002628820990000084
生成模型观测值
Figure BDA0002628820990000085
在操作102,生成器64的权重通过递减其随机梯度而被更新:
Figure BDA0002628820990000086
在上面的方程式中:
·θG是包含生成器64的所有可训练参数的向量。
·
Figure BDA0002628820990000087
是生成器64的可训练参数的梯度。
·
Figure BDA0002628820990000088
是表示鉴别器66的从真实信道接收到信号
Figure BDA0002628820990000089
(针对给定输入xi)的置信度的函数。鉴于
Figure BDA00026288209900000810
不是从真实信道接收到的,该函数应该趋向于0,使得函数
Figure BDA00026288209900000811
应该趋向于1。
然而,该步骤的目标是改进生成器,即,在欺骗鉴别器方面变得更好,从而减少损失。应该注意的是,备选损失函数是可行的。
在操作104,确定算法90是否完成(从而实现算法10的操作13)。如果是,则算法90在操作106处终止;否则,算法90返回到操作92。
再次参照图2。确定信道模型生成过程是否已经完成的操作13可以采用许多形式。例如,操作12可以重复多次,或者可以重复到达到目标精度(例如,直到实现鉴别器和生成器的限定性能)为止。备选地,如果相关的损失函数在操作12的所定义的迭代次数上没有显著变化,则完成步骤13可以确定信道模型生成过程完成。可以使用上文指示的一个或多个因素的组合,使得针对每个元素,可以使用操作的设定迭代次数,除非在该迭代次数完成之前达到所定义的精度和/或相关的损失函数在操作12的所定义的迭代次数上没有显著变化。
以类似的方式,确定端到端训练过程是否已经完成的操作15可以采用许多形式。例如,操作15可以重复多次,或者可以重复到达到目标精度。备选地,如果相关的损失函数在操作14的所定义的迭代次数上没有显著变化,则完成步骤15可以确定端到端训练过程完成。可以使用上文指示的一个或多个因素的组合,使得针对每个元素,可以使用操作的设定迭代次数,除非在该迭代次数完成之前达到所定义的精度和/或相关的损失函数在操作14的所定义的迭代次数上没有显著变化。
许多备选布置是可能的。例如,可以使用算法10和算法90的许多变型。在算法10的一个变型中,可以重复操作12至14或操作12至16(例如,每当经过训练的通信系统在真实信道上的性能下降时)。
在算法90中,发射向量px(x)的分布的选择可以是完全任意的,并且可以例如取决于用例和/或关于发射器的已知量。然而,px(x)可能会以某种方式对可能的输入的总空间进行采样。针对随机选择的消息s,也可以通过发射器的输出隐式定义px(x)。在这种情况下,可以使用自动编码器和生成器的交错训练方案,其中生成器被训练以用于对发射器的可能输出进行一些迭代,此后自动编码器被训练以用于对生成器进行一些迭代,依此类推。该方案的优点在于仅针对与自动编码器的优化相关的输入来训练生成器。
通过信道传输xi的步骤(在上述操作94中)通常使用真实的硬件来执行,并且涉及信号的传输、接收和存储。有时,这些步骤可以基于模拟而被完成。在这种情况下,生成器64的目标可以是学习模拟信道62的备选方式,该备选方式例如可以比现有信道模型更容易,更快或更不复杂。它还可以避免实现(和调试)深度学习软件库的现有信道模型。
由于鉴别器很难使其决策仅基于一个观测(yi|xi),因此有可能以相同的输入为条件来对多个观测值(yi,j|xi,j),j=1,...,P训练鉴别器。换言之,针对给定的xi,获得P个条件输出yi,j,j=1,...,P(通过在信道上传输相同信号xi P次,或者通过生成P个模型观测值G(xi,zi,j),其中从pz(z)随机抽取zi,j。)然后,鉴别器的输入不是成对的{yi,xi},而是{yi,1,...,yi,P,xi},即,
Figure BDA0002628820990000101
为了完整起见,图8是根据示例实施例的先前描述的一个或多个模块的组件的示例示意图,其在下文中被统称为处理系统300。处理系统300可以包括处理器302、紧密耦合至处理器的存储器304,并且包括RAM 314和ROM 312,以及可选地包括用户输入310和显示器318。处理系统300可以包括用于连接至网络的一个或多个网络接口308,例如,可以是有线或无线的调制解调器。
处理器302被连接到每个其他组件,以便控制其操作。
存储器304可以包括非易失性存储器,诸如,硬盘驱动器(HDD)或固态驱动器(SSD)。存储器304的ROM 312还存储操作系统315,并且可以存储软件应用316。处理器302将存储器304的RAM 314用于数据的临时存储。操作系统315可以包含代码,该代码在由处理器执行时实现算法10和90的各个方面。
处理器302可以采用任何合适的形式。例如,它可以是微控制器、多个微控制器、处理器或多个处理器。
处理系统300可以是独立的计算机、服务器、控制台或其网络。
在一些实施例中,处理系统300还可以与外部软件应用相关联。这些可以是存储在远程服务器设备上的应用,并且可以部分或专门在远程服务器设备上运行。这些应用可以称为云托管应用。处理系统300可以与远程服务器设备通信,以利用存储在此处的软件应用。可以通过网络接口308来处理通信。
图10a和10b示出了有形介质,分别是存储计算机可读代码的可移动存储器单元365和光盘(CD)368,当由计算机运行时,该计算机可读代码可以执行根据上述实施例的方法。可移动存储器单元365可以是记忆棒,例如,USB记忆棒,其具有存储计算机可读代码的内部存储器366。存储器366可以由计算机系统经由连接器367访问。CD 368可以是CD-ROM或DVD或类似物。可以使用其他形式的有形存储介质。
可以以软件、硬件、应用逻辑或软件、硬件和应用逻辑的组合来实施本发明的实施例。软件、应用逻辑和/或硬件可以驻留在存储器或任何计算机介质上。在示例实施例中,应用逻辑、软件或指令集被保持在各种传统的计算机可读介质中的任何一个上。在本文的上下文中,“存储器”或“计算机可读介质”可以是可以包含、存储、传递、传播或传输由指令执行系统、装置或设备(诸如,计算机)使用或与其结合使用的指令的任何非瞬态介质或装置。
在相关的情况下,对“计算机可读存储介质”、“计算机程序产品”、“有形体现的计算机程序”等或“处理器”或“处理电路系统”等的引用应该理解为不仅包含具有不同架构(诸如,单/多处理器架构和顺序/并行架构)的计算机,还包括专用电路,诸如,现场可编程门阵列FPGA、专用电路ASIC、信号处理设备和其他设备。对计算机程序、指令、代码等的引用应该理解为表示用于可编程处理器固件的软件,诸如,硬件设备的可编程内容,无论是用于处理器的指令还是用于固定功能设备、门阵列、可编程逻辑设备等的配置设置。
如在本申请中所使用的,术语“电路系统”指代以下中的所有:(a)仅硬件电路实施方式,(诸如,仅模拟和/或数字电路系统中的实施方式),以及(b)电路和软件(和/或固件)的组合,诸如(如果适用的话):(i)(多个)处理器的组合,或者(ii)(多个)处理器/软件的部分(包括一起工作以使诸如服务器等装置执行各种功能的(多个)数字信号处理器、软件和(多个)存储器),以及(c)即使软件或固件不是物理存在的也需要软件或固件进行操作的电路,诸如,(多个)微处理器或(多个)微处理器的一部分。
如果需要的话,本文讨论的不同功能可以以不同顺序执行和/或彼此并发地执行。此外,如果需要的话,上述功能中的一个或多个可以是可选的或者可以组合。同样地,还将了解到,图2和图7的流程图仅是示例,并且可以省略、重新排序和/或组合其中描绘的各种操作。
要了解的是,上述示例实施例仅是说明性的,并且不限制本发明的范围。在阅读本说明书时,其他变型和修改对本领域技术人员将是明显的。
而且,应该理解本申请的公开内容包括本文中明确或隐式公开的任何新颖特征或特征的任何新颖组合或其任何概括,并且在本申请或由此衍生的任何申请的起诉期间,可以制定新的权利要求以覆盖任何这种特征和/或这种特征的组合。
尽管在独立权利要求中陈述了本发明的各个方面,但是本发明的其他方面包括来自所描述的实施例和/或从属权利要求的特征与独立权利要求的特征的其他组合,而不是仅仅在权利要求中明确陈述的组合。
在本文中还要注意的是,尽管上文描述了各个示例,但是这些描述不应该被视为限制性的。相反,存在可以在不脱离所附权利要求限定的本发明的范围的情况下做出的若干变型和修改。

Claims (15)

1.一种方法,包括:
使用生成器将生成器输入转换为生成器输出向量,其中所述生成器是数据传输系统的信道的模型,并且其中所述生成器包括生成器神经网络;
将所述生成器输出向量或所述数据传输系统的所述信道的输出向量选择性地提供给鉴别器的输入,其中所述鉴别器包括鉴别器神经网络;
使用所述鉴别器来生成指示所述鉴别器输入是所述信道输出向量还是所述生成器输出向量的概率;以及
使用第一损失函数训练所述鉴别器神经网络的至少一些权重,并且使用第二损失函数训练所述生成器神经网络的至少一些权重,以便提高所述信道的所述模型的精度。
2.根据权利要求1所述的方法,其中当所述生成器输出向量被选择性地提供给所述鉴别器的所述输入时,并且当所述数据传输系统的所述信道的所述输出向量被选择性地提供给所述鉴别器的所述输入时,所述第一损失函数基于的是所述鉴别器在生成所述概率时的精度。
3.根据权利要求1或权利要求2所述的方法,其中当所述生成器输出向量被选择性地提供给所述鉴别器的所述输入时,所述第二损失函数基于的是所述鉴别器在生成所述概率时的精度。
4.根据权利要求1至3中任一项所述的方法,其中所述生成器输入包括发射向量和随机生成的输入向量。
5.根据前述权利要求中任一项所述的方法,还包括:通过使用所述数据传输系统的所述信道将发射向量转换成所述信道输出向量,来生成所述信道的所述输出向量。
6.根据前述权利要求中任一项所述的方法,其中所述第一神经网络和所述第二神经网络的至少一些权重使用随机梯度下降和/或随机梯度上升而被训练。
7.根据前述权利要求中任一项所述的方法,其中所述鉴别器神经网络和所述生成器神经网络中的一者或两者是多层神经网络。
8.根据前述权利要求中任一项所述的方法,其中所述数据传输系统包括发射器、所述信道和接收器。
9.根据前述权利要求中任一项所述的方法,其中所述生成器输出向量或所述信道的所述输出向量取决于选择器的状态而被提供给鉴别器。
10.根据权利要求9所述的方法,其中所述选择器是开关。
11.根据前述权利要求中任一项所述的方法,其中所述第一损失函数被配置为增大所述鉴别器的精度。
12.根据前述权利要求中任一项所述的方法,其中所述第二损失函数被配置为增大所述生成器的精度。
13.一种方法,包括:
生成具有发射器、信道和接收器的数据传输系统的信道的模型,其中所述信道通过所述信道模型而被建模,其中所述信道的所述模型的精度使用根据权利要求1至12中任一项所述的方法而被提高;
将第一输入数据比特转换成用于通过所述数据传输系统进行传输的符号,其中所述发射器使用发射器神经网络来表示,并且所述接收器使用接收器神经网络来表示;
经由所述信道模型将一个或多个符号从所述发射器传输到所述接收器;
使用传输系统损失函数来训练所述发射器神经网络和所述接收器神经网络的至少一些权重。
14.一种装置,包括:
生成器,所述生成器包括第一输入、第二输入、生成器神经网络和输出,其中所述生成器被配置为使用所述生成器神经网络来将生成器输入转换为生成器输出向量,其中所述生成器是数据传输系统的信道的模型;
鉴别器,所述鉴别器包括第一输入和第一输出以及鉴别器神经网络;以及
选择器,所述选择器被配置为将所述生成器输出向量或所述数据传输系统的所述信道的输出向量选择性地提供给所述鉴别器的输入;
其中:
所述鉴别器被配置为输出指示所述鉴别器输入是所述信道输出向量还是所述生成器输出向量的概率;
所述鉴别器神经网络的至少一些权重使用第一损失函数而被训练,并且所述生成器神经网络的至少一些权重使用第二损失函数而被训练,以便提高所述信道的所述模型的精度。
15.一种装置,包括:
用于生成具有发射器、信道和接收器的数据传输系统的信道的模型的部件,其中所述信道通过所述信道模型而被建模,其中所述信道模型的精度使用根据权利要求1至12中任一项所述的方法而被提高;
用于将第一输入数据比特转换成用于通过所述数据传输系统进行传输的符号的部件,其中所述发射器使用发射器神经网络来表示,并且所述接收器使用接收器神经网络而被表示;
用于经由所述信道模型将一个或多个符号从所述发射器传输到所述接收器的部件;
用于使用传输系统损失函数来训练所述发射器神经网络和所述接收器神经网络的至少一些权重的部件。
CN201880089154.9A 2018-01-02 2018-01-02 数据传输系统中的信道建模 Active CN111712835B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FI2018/050004 WO2019135019A1 (en) 2018-01-02 2018-01-02 Channel modelling in a data transmission system

Publications (2)

Publication Number Publication Date
CN111712835A true CN111712835A (zh) 2020-09-25
CN111712835B CN111712835B (zh) 2023-09-01

Family

ID=60990825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880089154.9A Active CN111712835B (zh) 2018-01-02 2018-01-02 数据传输系统中的信道建模

Country Status (4)

Country Link
US (1) US11556799B2 (zh)
EP (1) EP3735655A1 (zh)
CN (1) CN111712835B (zh)
WO (1) WO2019135019A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112787966A (zh) * 2020-12-28 2021-05-11 杭州电子科技大学 基于端到端的级联生成对抗网络信号解调方法
CN114710235A (zh) * 2022-03-01 2022-07-05 丝路梵天(甘肃)通信技术有限公司 一种通信质量增强系统及通信系统

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11630217B2 (en) 2019-05-21 2023-04-18 Deere & Company Methods and devices for global navigation satellite system (GNSS) signal acquisition
FI20195547A1 (en) 2019-06-20 2020-12-21 Nokia Technologies Oy Systems and apparatus for adaptive modulation category
US11570030B2 (en) * 2019-10-11 2023-01-31 University Of South Carolina Method for non-linear distortion immune end-to-end learning with autoencoder—OFDM
US20210266875A1 (en) * 2020-02-24 2021-08-26 Qualcomm Incorporated MACHINE LEARNING FOR ADDRESSING TRANSMIT (Tx) NON-LINEARITY
US11742883B2 (en) * 2020-10-16 2023-08-29 Deere & Company Adaptive narrowband interference rejection for satellite navigation receiver
US11750274B2 (en) 2020-10-16 2023-09-05 Deere & Company Adaptive narrowband interference rejection for satellite navigation receiver
US11671133B2 (en) 2020-10-16 2023-06-06 Deere & Company Adaptive narrowband and wideband interference rejection for satellite navigation receiver
CN112422462B (zh) * 2020-11-20 2021-08-31 苏州大学 复值信道均衡器的设计方法
CN113381828B (zh) * 2021-06-08 2022-10-28 哈尔滨工业大学 基于条件生成对抗网络的稀疏码多址接入随机信道建模方法
CN113691369B (zh) * 2021-07-08 2022-09-27 北京邮电大学 一种基于神经网络的光纤信道安全传输系统
CN117678172A (zh) * 2021-11-02 2024-03-08 Oppo广东移动通信有限公司 信道数据生成方法、装置、设备及存储介质
CN115396242B (zh) * 2022-10-31 2023-04-07 江西神舟信息安全评估中心有限公司 一种数据识别的方法及网络安全漏洞的检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1485798A (zh) * 2002-09-24 2004-03-31 深圳市中兴通讯股份有限公司 一种神经网络均衡器的优化训练方法
US20090171874A1 (en) * 2005-08-19 2009-07-02 University Of Plymouth Enterprise Method and apparatus for configuring a communication channel
CN105142177A (zh) * 2015-08-05 2015-12-09 西安电子科技大学 复数神经网络信道预测方法
US20160026913A1 (en) * 2014-07-24 2016-01-28 Samsung Electronics Co., Ltd. Neural network training method and apparatus, and data processing apparatus
CN107180260A (zh) * 2017-06-02 2017-09-19 西安电子科技大学 基于进化神经网络的短波通信频率选择方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2411327A (en) 2004-02-20 2005-08-24 Toshiba Res Europ Ltd Training sequence for MIMO-OFDM which is suitable for use with null sub-carriers
US10262236B2 (en) * 2017-05-02 2019-04-16 General Electric Company Neural network training image generation system
US10262243B2 (en) * 2017-05-24 2019-04-16 General Electric Company Neural network point cloud generation system
CN110799995A (zh) * 2017-06-29 2020-02-14 首选网络株式会社 数据识别器训练方法、数据识别器训练装置、程序及训练方法
US11120337B2 (en) * 2017-10-20 2021-09-14 Huawei Technologies Co., Ltd. Self-training method and system for semi-supervised learning with generative adversarial networks
US10592787B2 (en) * 2017-11-08 2020-03-17 Adobe Inc. Font recognition using adversarial neural network training
CN108304390B (zh) * 2017-12-15 2020-10-16 腾讯科技(深圳)有限公司 基于翻译模型的训练方法、训练装置、翻译方法及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1485798A (zh) * 2002-09-24 2004-03-31 深圳市中兴通讯股份有限公司 一种神经网络均衡器的优化训练方法
US20090171874A1 (en) * 2005-08-19 2009-07-02 University Of Plymouth Enterprise Method and apparatus for configuring a communication channel
US20160026913A1 (en) * 2014-07-24 2016-01-28 Samsung Electronics Co., Ltd. Neural network training method and apparatus, and data processing apparatus
CN105142177A (zh) * 2015-08-05 2015-12-09 西安电子科技大学 复数神经网络信道预测方法
CN107180260A (zh) * 2017-06-02 2017-09-19 西安电子科技大学 基于进化神经网络的短波通信频率选择方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SEBASTIAN DÖRNER 等: "Deep Learning Based Communication Over the Air" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112787966A (zh) * 2020-12-28 2021-05-11 杭州电子科技大学 基于端到端的级联生成对抗网络信号解调方法
CN112787966B (zh) * 2020-12-28 2022-06-28 杭州电子科技大学 基于端到端的级联生成对抗网络信号解调方法
CN114710235A (zh) * 2022-03-01 2022-07-05 丝路梵天(甘肃)通信技术有限公司 一种通信质量增强系统及通信系统
CN114710235B (zh) * 2022-03-01 2022-11-04 丝路梵天(甘肃)通信技术有限公司 一种通信质量增强系统及通信系统

Also Published As

Publication number Publication date
EP3735655A1 (en) 2020-11-11
US20200334542A1 (en) 2020-10-22
WO2019135019A1 (en) 2019-07-11
CN111712835B (zh) 2023-09-01
US11556799B2 (en) 2023-01-17

Similar Documents

Publication Publication Date Title
CN111712835B (zh) 数据传输系统中的信道建模
US11575547B2 (en) Data transmission network configuration
Liang et al. An iterative BP-CNN architecture for channel decoding
CN112166567B (zh) 通信系统中的学习
KR102519076B1 (ko) 극성 코드를 구성하는 장치 및 방법
CN111566673B (zh) 通信系统中的端到端学习
WO2019080988A1 (en) END-TO-END LEARNING IN COMMUNICATION SYSTEMS
CN113381828B (zh) 基于条件生成对抗网络的稀疏码多址接入随机信道建模方法
KR102620551B1 (ko) 통신 시스템들에서의 학습
CN113169748B (zh) 通信系统中的端到端学习
CN113128679A (zh) 在通信系统中进行训练
KR20190117186A (ko) 학습 기반 채널코드 디코딩 방법 및 장치
WO2020147971A1 (en) Training in communication systems
EP2243251A1 (en) Method and system for optimizing quantization for noisy channels
Melzer et al. Holistic biquadratic IIR filter design for communication systems using differential evolution
CN114026827A (zh) 发送器算法
CN114338093A (zh) 一种通过胶囊网络进行多信道秘密信息传输的方法
CN107919940A (zh) 适用于OvXDM系统的前向后向平滑译码方法、装置及OvXDM系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant