CN117061058A - 基于深度学习的信道压缩反馈的分离训练方法及相关设备 - Google Patents

基于深度学习的信道压缩反馈的分离训练方法及相关设备 Download PDF

Info

Publication number
CN117061058A
CN117061058A CN202310934826.4A CN202310934826A CN117061058A CN 117061058 A CN117061058 A CN 117061058A CN 202310934826 A CN202310934826 A CN 202310934826A CN 117061058 A CN117061058 A CN 117061058A
Authority
CN
China
Prior art keywords
initial
decoder
encoder
iteration
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310934826.4A
Other languages
English (en)
Inventor
牛凯
董超
奚潞盛
喻雅楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202310934826.4A priority Critical patent/CN117061058A/zh
Publication of CN117061058A publication Critical patent/CN117061058A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0033Systems modifying transmission characteristics according to link quality, e.g. power backoff arrangements specific to the transmitter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0036Systems modifying transmission characteristics according to link quality, e.g. power backoff arrangements specific to the receiver

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本申请提供一种基于深度学习的信道压缩反馈的分离训练方法及相关设备;方法包括:通过多次迭代来对初始编码器和初始解码器进行联合训练,得到第一编码器和第一解码器;通过多次迭代来对初始解码器进行第一分离训练,并在每次迭代中,将信道状态信息输入至第一编码器,并输出隐空间向量,将隐空间向量作为该次迭代中初始解码器的输入,以信道状态信息作为该次迭代中初始解码器输出的目标;通过多次迭代来对初始编码器进行第二分离训练,并在每次迭代中,将信道状态信息作为初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重。

Description

基于深度学习的信道压缩反馈的分离训练方法及相关设备
技术领域
本申请的实施例涉及通信的技术领域,尤其涉及一种基于深度学习的信道压缩反馈的分离训练方法及相关设备。
背景技术
在相关的信道压缩反馈的训练中,往往将编码器和解码器同时进行训练,并且互相共享信息,这会导致潜在的模型和算法的泄露问题。
另一方面,同时更新编码器和解码器除了会导致整个系统的运行效率低、功耗高和运行延时大的情况之外,由于终端和基站的物理设备属性差异,在不同的终端和基站侧部署联合训练的编解码器会面临繁冗的软硬件兼容问题。
此外,同时训练出的编码器和解码器,在一对多或多对一的系统中加入新的终端或新的基站,则需要重新再次训练,也就是说,其泛化性能不够好。
基于此,需要一种能够对编码器和解码器分别进行独立训练的方案。
发明内容
有鉴于此,本申请的目的在于提出一种基于深度学习的信道压缩反馈的分离训练方法及相关设备。
基于上述目的,本申请提供了基于深度学习的信道压缩反馈的分离训练方法,应用于通信装置,所述通信装置包括一个终端和一个基站,所述终端包括一个初始编码器,所述基站包括一个初始解码器;
该方法包括:
利用所述初始编码器和所述初始解码器之间通信信道的信道状态信息,通过多次迭代来对所述初始编码器和所述初始解码器进行联合训练,得到第一编码器和第一解码器;
通过多次迭代来对所述初始解码器进行第一分离训练,并在每次迭代中,将所述信道状态信息输入至所述第一编码器,并输出隐空间向量,将所述隐空间向量作为该次迭代中所述初始解码器的输入,以所述信道状态信息作为该次迭代中所述初始解码器输出的目标,在完成所述分第一分离训练后得到第二解码器;
通过多次迭代来对所述初始编码器进行第二分离训练,并在每次迭代中,将所述信道状态信息作为所述初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重,在完成所述第二分离训练完后得到第二编码器。
进一步地,通信装置还包括多个终端,每个终端包括一个初始编码器;
所述通过多次迭代来对所述初始编码器和所述初始解码器进行联合训练,包括:
令所述初始解码器与每个初始编码器进行所述联合训练,并得到对应各个初始编码器各自的第一编码器。
进一步地,将所述信道状态信息输入至所述第一编码器,并输出隐空间向量,包括:
在所述第一分离训练的每次迭代中,按照初始编码器的个数,将所述信道状态信息划分为相同个数的多个第一信道子向量,并令每个初始编码器与一个第一信道子向量互相对应;
将每个第一信道子向量输入至对应的初始编码器,并令该初始编码器输出该次迭代中对应该第一信道子向量的隐空间向量。
进一步地,将所述隐空间向量作为该次迭代中所述初始解码器的输入,以所述信道状态信息作为该次迭代中所述初始解码器输出的目标,包括:
在所述第一分离训练的每次迭代中,将对应每个第一信道子向量各自的隐空间向量输入至初始解码器;
令所述初始解码器输出对应该第一信道子向量的该轮次迭代的第一恢复向量;
确定该轮次迭代中每个第一恢复向量与各自对应的第一信道子向量之间的第一重构误差;
通过最小化该轮次迭代中的每个第一重构误差来调整所述初始解码器的权重,并利用调整权重后的初始解码器进行下一轮次的迭代;
当迭代次数达到预设的第一次数阈值,则确定完成第一分离训练。
进一步地,通信装置还包括多个基站;
所述通过多次迭代来对所述编码器和所述解码器进行联合训练,包括:
令所述初始编码器与每个初始解码器进行所述联合训练,并得到对每个初始解码器各自的第一解码器。
进一步地,通过多次迭代来对所述初始编码器进行第二分离训练,并在每次迭代中,将所述信道状态信息作为所述初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重,包括:
在所述第二分离训练的每次迭代中,按照初始解码器的个数,将所述信道状态信息划分为相同个数的多个第二信道子向量,并令所述每个初始解码器与一个第二信道子向量互相对应;
将每个第二信道子向量输入至所述初始编码器,并输出该次迭代中对应每个第二信道子向量各自的编码结果;
令所述初始编码器将每个编码结果输入至对应的第一解码器,并通过反向传播来对该编码结果进行解码;
确定每个第一解码器在进行该轮次的反向传播时的梯度,并将每个梯度反馈至所述初始编码器;
令所述初始编码器基于本轮次的全部梯度来调整权重,并利用调整权重后的初始编码器进行下一轮次的迭代;
当迭代次数达到预设的第二次数阈值,则确定完成第二分离训练。
进一步地,令所述初始编码器将每个编码结果输入至对应的第一解码器,包括:
在所述初始编码器后,为每个第一解码器设置一个对应的适应层,其中,每个适应层包括多个全连接层,每个全连接层设置有各自的激活函数;
在每次迭代中,令所述初始编码器将对应每个第二信道子向量各自的编码结果输入至对应的适应层;
令每个适应层对各自接收到的编码结果来拟合对应第一解码器的非线性变换,得到该轮次中每个适应层各自的拟合结果,并输入至对应的第一解码器。
基于同一发明构思,本申请还提供了一种基于深度学习的信道压缩反馈的分离训练装置,包括:联合训练模块、第一分离训练模块和第二分离训练模块;
其中,所述联合训练模块,被配置为,利用初始编码器和初始解码器之间通信信道的信道状态信息,通过多次迭代来对所述初始编码器和所述初始解码器进行联合训练,得到第一编码器和第一解码器;
所述第一分离训练模块,被配置为,通过多次迭代来对所述初始解码器进行第一分离训练,并在每次迭代中,将所述信道状态信息输入至所述第一编码器,并输出隐空间向量,将所述隐空间向量作为该次迭代中所述初始解码器的输入,以所述信道状态信息作为该次迭代中所述初始解码器输出的目标,在完成所述分第一分离训练后得到第二解码器;
所述第二分离训练模,被配置为,通过多次迭代来对所述初始编码器进行第二分离训练,并在每次迭代中,将所述信道状态信息作为所述初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重,在完成所述第二分离训练完后得到第二编码器。
基于同一发明构思,本申请还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上任意一项所述的基于深度学习的信道压缩反馈的分离训练方法。
基于同一发明构思,本申请还提供了一种非暂态计算机可读存储介质,其中,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上述基于深度学习的信道压缩反馈的分离训练方法。
从上面所述可以看出,本申请提供的尤其涉及一种基于深度学习的信道压缩反馈的分离训练方法及相关设备,基于编码器的隐空间向量和解码器的反向传播的梯度,避免了互相之间数据信息的泄露,并利用适应层的结构,使得分离训练出的第二编码器能够适应各个第一编码器的映射空间。
附图说明
为了更清楚地说明本申请或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例的基于深度学习的信道压缩反馈的分离训练方法的流程图;
图2为本申请实施例的一对一的应用场景图;
图3为本申请实施例的一对一的分离训练方法的逻辑图;
图4为本申请实施例的多对一的应用场景辑图;
图5为本申请实施例的多对一的分离训练方法的逻辑图;
图6为本申请实施例的一对多的应用场景图;
图7为本申请实施例的一对多的分离训练方法的逻辑图;
图8为本申请实施例的适应层的示意图;
图9为本申请实施例的基于深度学习的信道压缩反馈的分离训练装置结构示意图;
图10为本申请实施例的电子设备结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本申请进一步详细说明。
需要说明的是,除非另外定义,本申请的实施例使用的技术术语或者科学术语应当为本申请所属领域内具有一般技能的人士所理解的通常意义。本申请的实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
可以理解的是,在使用本公开中各个实施例的技术方案之前,均会通过恰当的方式对所涉及的个人信息的类型、使用范围、使用场景等告知用户,并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确的提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主的选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限定的实现方式,响应于接受到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其他满足相关法律法规的方式也可应用于本公开的实现方式中。
如背景技术部分所述,相关的基于深度学习的信道压缩反馈的训练方法还难以满足对通信信道空间频域的信道状态信息压缩时的需要。
申请人在实现本申请的过程中发现,相关的基于深度学习的信道压缩反馈的训练方法存在的主要问题在于:在相关的信道压缩反馈的训练中,往往将编码器和解码器同时进行训练,并且互相共享信息,这会导致潜在的模型和算法的泄露问题。
另一方面,同时更新编码器和解码器除了会导致整个系统的运行效率低、功耗高和运行延时大的情况之外,由于终端和基站的物理设备属性差异,在不同的终端和基站侧部署联合训练的编解码器会面临繁冗的软硬件兼容问题。
此外,同时训练出的编码器和解码器,在一对多或多对一的系统中加入新的终端或新的基站,则需要重新再次训练,也就是说,其泛化性能不够好。
基于此,本申请中的一个或多个实施例提供了基于深度学习的信道压缩反馈的分离训练方法。
以下结合附图详细说明本申请的实施例。
在本申请的实施例中,通信装置可以包括一个终端和一个基站;在一些其他场景中,通信装置还可以包括例如一个终端和多个基站;在另一些场景中,通信装置还可以包括例如多个终端和一个基站。
其中,终端可以是例如手机等用户端。
进一步地,在本申请的实施例中,每个终端中设置有一个编码器和一个量化层,每个基站中设置有一个解码器和一个解量化层。
进一步地,每个终端可以获取到与各个基站之间通信信道的信道状态信息,在本申请中,也可以将信道状态信息称为信道向量。
进一步地,每个终端可以利用编码器对获取到的信道向量进行编码,也即,对信道向量进行压缩使其维度降低,并利用量化层对压缩后的信道向量进行量化。
进一步地,在量化后可以得到以二进制表示的比特序列。
进一步地,终端可以将该比特序列发送至基站,在基站获取到该比特序列后,可以利用解量化层对其进行解量化。
进一步地,基站可以利用解码器对解量化后的比特序列进行解码,也即,试图将解量化后的比特序列恢复,并得到恢复向量。
参考图1,本申请一个实施例的基于深度学习的信道压缩反馈的分离训练方法,应用场景包括,具有一个终端和一个基站的通信装置,并具体包括以下步骤:
步骤S101、利用所述初始编码器和所述初始解码器之间通信信道的信道状态信息,通过多次迭代来对所述初始编码器和所述初始解码器进行联合训练,得到第一编码器和第一解码器。
在本申请的实施例中,如图2所示,在单个终端和单个基站的通信场景中,终端包括有一个编码器和一个量化层,基站包括有一个解码器和一个解量化层,其中,V表示终端获取到的信道状态信息,也即,信道向量,表示解码器输出的恢复向量。
在本实施例中,将还未进行训练的编码器和解码器作为初始编码器和初始解码器,先对初始编码器和初始解码器共同进行联合训练,并在联合训练后,得到对应的初始编码器的第一编码器,以及,对应初始解码器的第一解码器。
在具体的示例中,如图3所示,首先可以执行步骤S301、初始化。
具体地,在初始化的过程中,可以确定初始编码器的结构和初始解码器的结构,并进一步地确定终端中量化层的量化方式,以及,基站中解量化层的解量化方式。
进一步地,可以确定终端向基站反馈比特序列时的反馈比特数,并据此确定量化比特数。
进一步地,可以令终端收集基站向其传输的下行信道的信道向量V。
进一步地,可以执行步骤S302、确定联合训练的结构。
具体地,可以将初始编码器的输入、初始编码器、量化层、解量化层、初始解码器和初始解码器的输出作为联合训练的整体结构,并在联合训练中将上述顺序作为数据流的顺序。
进一步地,可以通过多次迭代的方式来进行联合训练,基于此,可以设置联合训练的次数限值,并在联合训练的迭代达到该次数限值时,认为该联合训练已完成。
基于此,可以启动联合训练的迭代,并进一步执行步骤S303、判断是否达到次数限值。
基于对步骤S303的判断,当其判断结果为否时,则可以进一步执行步骤S304、进行联合训练。
在本实施例中,在联合训练的每次迭代中,可以将信道向量V随机划分为多个不同的数据vb,并将其输入至上述联合训练的结构。
具体的,可以将每个数据vb输入至初始编码器,令初始编码器对每个数据vb进行压缩后通过量化层,并发送至基站。
进一步地,基站中的解量化层在对接收到的数据进行解量化后,利用初始解码器对解量化后的数据进行恢复,得到联合训练本次迭代的恢复向量数据
基于此,可以确定出每个数据vb与对应的恢复向量之间的误差,并将其称为重构误差。
进一步地,在该轮次中利用每个重构误差来调整初始编码器和初始解码器的权重,在本实施例中,各个编码器的权重均可以视为该编码器的参数,各个解码器的权重均可以视为该解码器的参数。
可以看出,在每次迭代中,当信道向量V被划分为n个数据vb时,则会得到n个对应的恢复向量并进而确定n个重构误差,基于此,可以对初始编码器和初始解码器进行n次权重的调整。
具体地,可以通过对各个重构误差进行最小化来调整初始编码器和初始解码器各自的权重,使得初始编码器对各个数据vb的压缩,与初始解码器恢复出恢复向量两个过程互为反演。
进一步地,在完成本次迭代的联合训练之后,将返回至步骤S303,以判断是否达到迭代的次数限值,并在未达到时,继续执行步骤S304,也即,在下一轮次迭代中再次进行上述的联合训练。
在本实施例中,在每次联合训练中,可以将初始编码器和初始解码器进行反向传播时的梯度设置为1。
进一步地,当步骤S303的判断结果为是,则可以认为已经完成初始编码器和初始解码器的联合训练,并进一步执行步骤S305、确定第一编码器和第一解码器。
具体的,可以将完成联合训练的初始编码器作为第一编码器E,并将完成联合训练的初始解码器作为第一解码器D。
步骤S102、通过多次迭代来对所述初始解码器进行第一分离训练,并在每次迭代中,将所述信道状态信息输入至所述第一编码器,并输出隐空间向量,将所述隐空间向量作为该次迭代中所述初始解码器的输入,以所述信道状态信息作为该次迭代中所述初始解码器输出的目标,在完成所述分第一分离训练后得到第二解码器。
在本实施例中,基于确定出的第一编码器,可以将初始解码器分离出来单独进行进一步的训练,也即对初始解码器进行第一分离训练,并得到第二解码器。
具体的,如图3所示,基于上述步骤S305,还可以进一步执行步骤S306、确定隐空间向量。
其中,可以将信道向量V输入至进行联合训练后的第一编码器E中,通过第一编码器E的推理,可以得到对应该信道向量V的隐空间向量L,其中,隐空间向量L表征了第一编码器E对于信道向量V的空间变换方式。
基于此,可以以L为输入,以V为输出的目标,来对初始解码器进行有监督地学习,也即,进行第一分离训练。
具体地,可以进一步执行步骤S307、确定第一分离训练的结构。
在本步骤中,可以将初始解码器的输入、解量化层、初始解码器和初始解码器的输出,作为第一分离训练的整体结构,并在第一分离训练中将上述顺序作为数据流的顺序。
进一步地,可以通过多次迭代的方式来进行第一分离训练,基于此,可以设置第一分离训练的第一次数阈值,并在第一分离训练的迭代达到该第一次数阈值时,认为第一分离训练已完成。
基于此,可以启动第一分离训练的迭代,并进一步执行步骤S308、判断是否达到第一次数阈值。
基于步骤S308的判断,当其判断结果为否时,则进一步执行步骤S309、进行第一分离训练。
在本实施例中,在第一分离训练的每次迭代中,可以将信道向量V随机划分为多个不同的第一信道子向量v′b,并据此将隐空间向量L划分为多个不同的隐空间数据l,也就是说,每个第一信道子向量v′b均对应一个隐空间数据l。
进一步地,可以将每个隐空间数据l,输入至初始解码器的解量化层,并在姐量化层对其进行解量化处理后,将解量化的每个隐空间数据l分别输入至初始解码器进行恢复,并得到对应各个隐空间数据l的第一恢复数据
基于此,可以确定出与每个第一信道子向量v′b所对应的隐空间数据l,进而可以确定每个第一信道子向量v′b所对应的第一恢复向量从而可以确定出每个第一信道子向量v′b与对应的第一恢复向量/>之间的误差,并将其称为第一重构误差。
进一步地,在该轮次中利用每个第一重构误差来调整初始解码器的权重。
可以看出,在每次迭代中,当隐空间向量L被划分为n个隐空间数据l时,则会得到n个对应的第一恢复向量并进而确定n个第一重构误差,基于此,可以对初始解码器进行n次权重的调整。
具体地,可以通过对各个第一重构误差进行最小化来调整初始解码器的权重,使得第一编码器对各个第一信道子向量v′b的压缩,与初始解码器恢复出第一恢复向量两个过程互为反演。
进一步地,在完成本次迭代的第一分离训练之后,将返回至步骤S308,以判断是否达到迭代的第一次数阈值,并在未达到时,继续执行步骤S309,也即,进行第一分离训练的下一轮次迭代。
进一步地,当步骤S308的判断结果为是,则可以认为已经完成对初始解码器的第一分离训练,并进一步执行步骤S310、得到第二解码器并应用。
具体的,可以将完成第一分离训练的初始解码器作为第二解码器D*,并将在应用时将第二解码器D*部署在基站,将第一编码器E部署在终端,利用第一编码器E和第二解码器D*来实现终端与基站之间的通信。
步骤S103、通过多次迭代来对所述初始编码器进行第二分离训练,并在每次迭代中,将所述信道状态信息作为所述初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重。
在本申请的另一实施例中,基于确定出的第一解码器,可以将初始编码器分离出来单独进行进一步的训练,也即对初始编码器进行第二分离训练,并得到第二编码器。
具体的,如图4所示,基于上述步骤S305,可以进一步执行步骤S311、固定第一解码器的权重。
其中,可以将上述联合训练后的第一解码器D的权重固不变,并基于此,来对初始编码器进行有监督地学习,也即,进行第二分离训练。
具体地,可以进一步执行步骤S312、确定第二分离训练的结构。
在本步骤中,可以将初始编码器的输入、初始编码器、量化层,解量化层、第一解码器和第一解码器的输出,作为第二分离训练的整体结构,并在第二分离训练中将上述顺序作为数据流的顺序。
进一步地,可以通过多次迭代的方式来进行第二分离训练,基于此,可以设置第二分离训练的第二次数阈值,并在第二分离训练的迭代达到该第二次数阈值时,认为第二离训练已完成。
基于此,可以启动第二分离训练的迭代,并进一步执行步骤S313、判断是否达到第二次数阈值。
基于步骤S313的判断,当其判断结果为否时,则进一步执行步骤S314、进行第二分离训练。
在本实施例中,在第二分离训练的每次迭代中,可以将信道向量V随机划分为多个不同的第二信道子向量v″b
进一步地,可以将每个第二信道子向v″b输入至初始编码器,由初始编码器对其进行压缩,并将压缩后的第二信道子向v″b输入至量化层进行量化,并在完成量化后,将其发送至解量化层。
进一步地,解量化层在进行解量化后,可以令第一解码器来对各个解量化后的数据进行恢复,从而得到对应每个第二信道子向v″b各自的第二恢复向量
在本实施例中,可以将第一解码器输出的第二恢复向量与对应的第二信道子向v″b之间的重构误最小化,作为对初始编码器的训练目标,然而,为了避免将第一解码器的第二恢复向量/>直接发送至初始编码器,进而导致第一编码器的相关信息的泄露风险,可以利用其他方式来代替传输第二恢复向量/>
具体地,在第一解码器进行恢复的过程中,需要进行反向传播的操作,基于此,可以令第一解码器确定在该轮次迭代中进行反向传播过程的梯度,并将该梯度反馈至初始编码器。
在本实施例中,可以将梯度最小化作为目标,来调整初始编码的权重。
具体的,将梯度最小化作为目标是指,在调整初始编码器的权重时,调整的标准为:调整权重后的初始编码器的输出能够使得第一解码器反馈的梯度最小化。
可以看出,在每次迭代中,当信道向量V被划分为n个第二信道子向v″b时,则会得到n个对应的第二恢复向量其中,所有第二恢复向量/>均是基于该次迭代中的一个共同梯度下的恢复操作而得到。
基于此,通过梯度来调整初始编码器的权重,使得初始解码器对各个第二信道子向v″b的压缩过程,与第一始解码器恢复出第二恢复向量两个过程互为反演。
进一步地,在完成本次迭代的第二分离训练之后,将返回至步骤S313,以判断是否达到迭代的第二次数阈值,并在未达到时,继续执行步骤S314,也即,进行第二分离训练的下一轮次迭代。
进一步地,当步骤S313的判断结果为是,则可以认为已经完成对初始编码器的第二分离训练,并进一步执行步骤S315、得到第二编码器并应用。
具体的,可以将完成第二分离训练的初始编码器作为第二编码器E*,并将在应用时将第一解码器D部署在基站,将第二编码器E*部署在终端,利用二编码器E*和第以解码器D来实现终端与基站之间的通信。
在本申请的另一实施例中,通信设备还可以包括有多个终端和一个基站。
在本实施例中,如图4所示,终端一侧设置有n个终端,并按照顺序分别为:终端1…终端i…终端n,其中,每个终端中均设置有一个初始编码器和一个量化层,基站中设置有一个解量化层和一个初始解码器,每个终端均可以独立与基站进行通信,也就是说,每个终端均可以向基站发送各自的比特序列。
进一步地,每个终端均可以获取各自与基站进行通信时的信道向量,各个信道向量按照顺序分别为:v1…vi…vn,并分别对应各个终端。
基于此,在对各个终端的初始编码器和基站的初始解码器进行训练时,可以先对各个初始编码器和初始解码器进行联合训练,并在联合训练完成后,对初始解码器进行单独的第一分离训练,据此可以得到对应各个终端的第一编码器和第二解码器,并应用至各个终端与基站的通信中。
在本实施例中,可以令每个初始编码器分别与初始解码器按照上述步骤S101进行一对一的联合训练,也就是说,总共进行n次联合训练,并得到对应各个初始编码器的第一编码器,以及,对应初始解码器的第一解码器。
如图5所示,基于上述的一对一的联合训练,可以执行步骤S501、确定多个第一编码器和第一解码器。
具体地,在每个初始编码器分别与初始解码器进行一对一的联合训练之后,所得到的多个第一编码器为结构不同的编码器,并可以按照顺序表示为:E1…Ei…En
进一步地,所得到的第一解码器可以表示为D。
在本实施例中,在进行联合训练时,由于是对应各个第一编码器分别进行的训练,因此,在对应各个不同结构的第一编码器时,第一解码器可以具备不同的参数,并具体可以表示为:D1…Di…Dn;其中,D1至Dn均为同一个第一解码器,其结构相同,互相之间仅权重不同。
具体地,不同的权重使得各个第一编码器对各个数据vi b的压缩,与第一解码器在对应权重下所恢复出的恢复向量两个过程互为反演,其中,数据vi b表示将信道向量vi划分出的多个数据中的任意一个。
基于此,可以进一步对初始解码器进行独立的第一分离训练。
具体地,如图5所示,基于上述步骤S501,还可以进一步执行步骤S502、确定隐空间向量集。
具体地,可以将各个信道向量v1至vn分别输入至进行联合训练后的对应的第一编码器E1至En中,通过各个第一编码器的推理,可以得到对应各个该信道向量v1至vn的各自隐空间向量,并按照顺序分别表示为l1…li…ln,其中,任意隐空间向量li表征了对应的第一编码器Ei对于对应的信道向量vi的空间变换方式。
进一步地,可以将各个隐空间向量进行合并,得到隐空间向量集Ls,并标识为Ls=(l1…li…ln)。
基于此,可以以隐空间向量集Ls为输入,以对应各个第一编码器的空间向量为输出的目标,来对初始解码器进行有监督地学习,也即,进行第一分离训练。
具体地,可以进一步执行步骤S503、确定多对一的第一分离训练的结构。
在本步骤中,可以将初始解码器的输入、解量化层、初始解码器和初始解码器的输出,作为第一分离训练的整体结构,并在第一分离训练中将上述顺序作为数据流的顺序。
进一步地,可以通过多次迭代的方式来进行第一分离训练,基于此,可以设置第一分离训练的第一次数阈值,并在第一分离训练的迭代达到该第一次数阈值时,认为第一分离训练已完成。
基于此,可以启动第一分离训练的迭代,并进一步执行步骤S504、判断是否达到第一次数阈值。
基于步骤S504的判断,当其判断结果为否时,则进一步执行步骤S505、进行多对一的第一分离训练。
在本实施例中,在第一分离训练的每次迭代中,可以将各个第一编码器所对应的信道向量进行合并,得到信道向量集Vs,并标识为Vs=(v1…vi…vn);并可以进一步将信道向量集Vs随机划分为多个不同的第一信道子向量v′b,并据此将隐空间向量集Ls划分为多个不同的隐空间数据l,也就是说,每个第一信道子向量v′b均对应一个隐空间数据l。
进一步地,可以将每个隐空间数据l,输入至初始解码器的解量化层,并在姐量化层对其进行解量化处理后,将解量化的每个隐空间数据l分别输入至初始解码器进行恢复,并得到对应各个隐空间数据l的第一恢复数据
基于此,可以确定出与每个第一信道子向量v′b所对应的隐空间数据l,进而可以确定每个第一信道子向量v′b所对应的第一恢复向量从而可以确定出每个第一信道子向量v′b与对应的第一恢复向量/>之间的误差,并将其称为第一重构误差。
进一步地,在该轮次中利用每个第一重构误差来调整初始解码器的权重。
可以看出,在每次迭代中,当隐空间向量集Ls被划分为n个隐空间数据l时,则会得到n个对应的第一恢复向量并进而确定n个第一重构误差,基于此,可以对初始解码器进行n次权重的调整。
具体地,可以通过对各个第一重构误差进行最小化来调整初始解码器的权重,使得第一编码器对各个第一信道子向量v′b的压缩,与初始解码器恢复出第一恢复向量两个过程互为反演。
进一步地,在完成本次迭代的第一分离训练之后,将返回至步骤S504,以判断是否达到迭代的第一次数阈值,并在未达到时,继续执行步骤S505,也即,进行第一分离训练的下一轮次迭代。
进一步地,当步骤S504的判断结果为是,则可以认为已经完成对初始解码器的第一分离训练,并进一步执行步骤S506、得到第二解码器并应用。
具体的,可以将完成第一分离训练的初始解码器作为第二解码器D*,并将在应用时将第二解码器D*部署在基站,将各个第一编码器E1至En分别部署在对应的终端1至终端n,并在任意终端i与基站之间进行通信时,利用对应的第一编码器Ei和第二解码器D*来实现终端与基站之间的通信。
在本申请的另一实施例中,通信设备还可以包括有一个终端和多个基站。
在本实施例中,如图6所示,基站一侧设置有n个基站端,并按照顺序分别为:基站1…基站i…基站n,其中,每个基站中均设置有一个初始解码器和一个解量化层,终端中设置有一个量化层和一个初始编码器,每个基站均可以独立与中单进行通信,也就是说,终端分别向各个基站发送对应的比特序列。
进一步地,终端可以获取与各自基站进行通信时各自的信道向量,各个信道向量按照顺序分别为:v1…vi…vn,并分别对应各个基站。
基于此,在对终端的初始编码器和各个基站的初始解码器进行训练时,可以先对初始编码器和各个初始解码器进行联合训练,并在联合训练完成后,对初始编码器进行单独的第一分离训练,据此可以得到第二编码器和对应各个基站的第一解码器,并应用至终端与各个基站的通信中。
在本实施例中,可以令每个初始编码器分别与初始解码器按照上述步骤S101进行一对一的联合训练,也就是说,总共进行n次联合训练,并得到对应初始编码器的第一编码器,以及,对应各个初始解码器的各个第一解码器。
如图7所示,基于上述的一对一的联合训练,可以执行步骤S701、确定第一编码器和第一解码器。
具体地,在每初始编码器分别与各个初始解码器进行一对一的联合训练之后,所得到的多个第一解码器为结构不同的解码器,并可以按照顺序表示为:D1…Di…Dn
进一步地,所得到的第一编码器可以表示为E。
在本实施例中,在进行联合训练时,由于是对应各个第一解码器分别进行的训练,因此,在对应各个不同结构的第一解码器时,第一编码器可以具备不同的参数,并具体可以表示为:E1…Ei…En;其中,E1至En均为同一个第一编码器,其结构相同,互相之间仅权重不同。
具体地,不同的权重下的第一编码器对各个数据vi b的压缩,与对应的第一解码器所恢复出的恢复向量两个过程互为反演,其中,数据vi b表示将信道向量vi划分出的多个数据中的任意一个。
基于此,可以进一步对初始编码器进行独立的第一分离训练。
具体地,如图7所示,基于上述步骤S701,还可以进一步执行步骤S702、固定各个第一解码器的权重。
其中,可以将上述联合训练后的各个第一解码器的权重固不变,并基于此,来对初始编码器进行有监督地学习,也即,进行第二分离训练。
具体地,可以进一步执行步骤S703、确定一对多的第二分离训练的结构。
在本步骤中,如图8所示,在初始编码器的第二分离训练中,为了使得训练好的第二编码器能够适用于不同结构的解码器的不同映射空间,可以为初始编码器设计适应层,该适应层的结构包含有三个级联的全连接层,每个全连接层中设置有不同的激活函数。
基于此,可以将初始编码器的输入、初始编码器、适应层、量化层,解量化层、第一解码器和第一解码器的输出,作为第二分离训练的整体结构,并在第二分离训练中将上述顺序作为数据流的顺序。
进一步地,可以通过多次迭代的方式来进行第二分离训练,基于此,可以设置第二分离训练的第二次数阈值,并在第二分离训练的迭代达到该第二次数阈值时,认为第二离训练已完成。
基于此,可以启动第二分离训练的迭代,并进一步执行步骤S704、判断是否达到第二次数阈值。
基于步骤S704的判断,当其判断结果为否时,则进一步执行步骤S705、进行一对多的第二分离训练。
在本实施例中,在第二分离训练的每次迭代中,对应任意一个第一解码器vi,可以将其对应的信道向量vi随机划分为多个不同的第二信道子向量v″b
进一步地,可以将每个第二信道子向v″b输入至初始编码器,由初始编码器对其进行压缩,并将压缩后的第二信道子向量v″b,也即,编码结果输入至对应各个第一解码器的适应层。
进一步地,各个适应层将对接收到的编码结果通过非线性变换进行拟合,并得到拟合结果。
进一步地,将各个拟合结果输入至量化层进行量化,并在完成量化后,将其发送至解量化层。
进一步地,解量化层在进行解量化后,可以令该第一解码器vi来对各个解量化后的数据进行恢复,从而得到对应每个第二信道子向v″b各自的第二恢复向量
在本实施例中,可以将各个第一解码器输出的第二恢复向量与对应的第二信道子向v″b之间的重构误最小化,作为对初始编码器的训练目标,然而,为了避免将第一解码器的第二恢复向量/>直接发送至初始编码器,进而导致第一编码器的相关信息的泄露风险,可以利用其他方式来代替传输第二恢复向量/>
具体地,在各个第一解码器进行恢复的过程中,需要进行反向传播的操作,基于此,可以令该第一解码器确定在该轮次迭代中进行反向传播过程的梯度,并将该梯度反馈至初始编码器。
在本实施例中,可以将梯度最小化作为目标,来调整初始编码的权重。
具体的,将梯度最小化作为目标是指,在调整初始编码器的权重时,调整的标准为:调整权重后的初始编码器的输出能够使得第一解码器反馈的梯度最小化。
可以看出,在每次迭代中,当信道向量V被划分为n个第二信道子向v″b时,则会得到n个对应的第二恢复向量其中,所有第二恢复向量/>均是基于该次迭代中的一个共同梯度下的恢复操作而得到。
基于此,通过梯度来调整初始编码器的权重,使得初始解码器对各个第二信道子向v″b的压缩过程,与第一始解码器恢复出第二恢复向量两个过程互为反演。
在本实施例中,对于初始编码器得到的各个第一解码器的梯度,可以将各个梯度进行合并,并得到关于全部各个第一解码器的全局梯度。
基于此,初始编码器可以利用该全局梯度来调整其自身的权重。
进一步地,在完成本次迭代的第二分离训练之后,将返回至步骤S704,以判断是否达到迭代的第二次数阈值,并在未达到时,继续执行步骤S705,也即,进行第二分离训练的下一轮次迭代。
进一步地,当步骤S704的判断结果为是,则可以认为已经完成对初始编码器的第二分离训练,并进一步执行步骤S706、得到第二编码器并应用。
具体的,可以将完成第二分离训练的初始编码器作为第二编码器E*,并将在应用时将各个第一解码器部署在基站,将第二编码器E*部署在终端。
进一步地,在完成一对多的第二分离训练后,还可以确定出对应各个第一解码器的适应层,并将各个适应层部署在终端。
基于此,可以利用二编码器E*和各个第一解码器D来实现终端与各个基站之间的通信。
可见,本申请的实施例的基于深度学习的信道压缩反馈的分离训练方法,基于编码器的隐空间向量和解码器的反向传播的梯度,避免了互相之间数据信息的泄露,并利用适应层的结构,使得分离训练出的第二编码器能够适应各个第一编码器的映射空间。
需要说明的是,本申请的实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本申请的实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本申请的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例方法相对应的,本申请的实施例还提供了一种基于深度学习的信道压缩反馈的分离训练装置。
参考图9,所述基于深度学习的信道压缩反馈的分离训练装置,包括:联合训练模块901、第一分离训练模块902和第二分离训练模块903;
其中,所述联合训练模块901,被配置为,利用初始编码器和初始解码器之间通信信道的信道状态信息,通过多次迭代来对所述初始编码器和所述初始解码器进行联合训练,得到第一编码器和第一解码器;
所述第一分离训练模块902,被配置为,通过多次迭代来对所述初始解码器进行第一分离训练,并在每次迭代中,将所述信道状态信息输入至所述第一编码器,并输出隐空间向量,将所述隐空间向量作为该次迭代中所述初始解码器的输入,以所述信道状态信息作为该次迭代中所述初始解码器输出的目标,在完成所述分第一分离训练后得到第二解码器;
所述第二分离训练模903,被配置为,通过多次迭代来对所述初始编码器进行第二分离训练,并在每次迭代中,将所述信道状态信息作为所述初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重,在完成所述第二分离训练完后得到第二编码器。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本申请的实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
上述实施例的装置用于实现前述任一实施例中相应的基于深度学习的信道压缩反馈的分离训练方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请的实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上任意一实施例所述的基于深度学习的信道压缩反馈的分离训练方法。
图10示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备、动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本申请实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入/输出模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本申请实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的装置用于实现前述任一实施例中相应的基于深度学习的信道压缩反馈的分离训练方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的基于深度学习的信道压缩反馈的分离训练方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的基于深度学习的信道压缩反馈的分离训练方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本申请的范围(包括权利要求)被限于这些例子;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请的实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本申请的实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本申请的实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本申请的实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本申请的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本申请的实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本申请的具体实施例对本申请进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本申请的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本申请的实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种基于深度学习的信道压缩反馈的分离训练方法,其特征在于,应用于通信装置,所述通信装置包括一个终端和一个基站,所述终端包括一个初始编码器,所述基站包括一个初始解码器;
所述方法包括:
利用所述初始编码器和所述初始解码器之间通信信道的信道状态信息,通过多次迭代来对所述初始编码器和所述初始解码器进行联合训练,得到第一编码器和第一解码器;
通过多次迭代来对所述初始解码器进行第一分离训练,并在每次迭代中,将所述信道状态信息输入至所述第一编码器,并输出隐空间向量,将所述隐空间向量作为该次迭代中所述初始解码器的输入,以所述信道状态信息作为该次迭代中所述初始解码器输出的目标;
在完成所述分第一分离训练后得到第二解码器;
通过多次迭代来对所述初始编码器进行第二分离训练,并在每次迭代中,将所述信道状态信息作为所述初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重;
在完成所述第二分离训练完后得到第二编码器。
2.根据权利要求1所述的方法,其特征在于,所述通信装置还包括多个终端,每个终端包括一个初始编码器;
所述通过多次迭代来对所述初始编码器和所述初始解码器进行联合训练,包括:
令所述初始解码器与每个初始编码器进行所述联合训练,并得到对应各个初始编码器各自的第一编码器。
3.根据权利要求2所述的方法,其特征在于,所述将所述信道状态信息输入至所述第一编码器,并输出隐空间向量,包括:
在所述第一分离训练的每次迭代中,按照初始编码器的个数,将所述信道状态信息划分为相同个数的多个第一信道子向量,并令每个初始编码器与一个第一信道子向量互相对应;
将每个第一信道子向量输入至对应的初始编码器,并令该初始编码器输出该次迭代中对应该第一信道子向量的隐空间向量。
4.根据权利要求3所述的方法,其特征在于,所述将所述隐空间向量作为该次迭代中所述初始解码器的输入,以所述信道状态信息作为该次迭代中所述初始解码器输出的目标,包括:
在所述第一分离训练的每次迭代中,将对应每个第一信道子向量各自的隐空间向量输入至初始解码器;
令所述初始解码器输出对应该第一信道子向量的该轮次迭代的第一恢复向量;
确定该轮次迭代中每个第一恢复向量与各自对应的第一信道子向量之间的第一重构误差;
通过最小化该轮次迭代中的每个第一重构误差来调整所述初始解码器的权重,并利用调整权重后的初始解码器进行下一轮次的迭代;
当迭代次数达到预设的第一次数阈值,则确定完成第一分离训练。
5.根据权利要求1所述的方法,其特征在于,所述通信装置还包括多个基站;
所述通过多次迭代来对所述编码器和所述解码器进行联合训练,包括:
令所述初始编码器与每个初始解码器进行所述联合训练,并得到对每个初始解码器各自的第一解码器。
6.根据权利要求5所述的方法,其特征在于,所述通过多次迭代来对所述初始编码器进行第二分离训练,并在每次迭代中,将所述信道状态信息作为所述初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重,包括:
在所述第二分离训练的每次迭代中,按照初始解码器的个数,将所述信道状态信息划分为相同个数的多个第二信道子向量,并令所述每个初始解码器与一个信道子向量互相对应;
将每个信道子向量输入至所述初始编码器,并输出该次迭代中对应每个信道子向量各自的编码结果;
令所述初始编码器将每个编码结果输入至对应的第一解码器,并通过反向传播来对该编码结果进行解码;
确定每个第一解码器在进行该轮次的反向传播时的梯度,并将每个梯度反馈至所述初始编码器;
令所述初始编码器基于本轮次的全部梯度来调整权重,并利用调整权重后的初始编码器进行下一轮次的迭代;
当迭代次数达到预设的第二次数阈值,则确定完成第二分离训练。
7.根据权利要求6所述的方法,其特征在于,所述令所述初始编码器将每个编码结果输入至对应的第一解码器,包括:
在所述初始编码器后,为每个第一解码器设置一个对应的适应层,其中,每个适应层包括多个全连接层,每个全连接层设置有各自的激活函数;
在每次迭代中,令所述初始编码器将对应每个信道子向量各自的编码结果输入至对应的适应层;
令每个适应层对各自接收到的编码结果来拟合对应第一解码器的非线性变换,得到该轮次中每个适应层各自的拟合结果,并输入至对应的第一解码器。
8.一种基于深度学习的信道压缩反馈的分离训练装置,其特征在于,包括:联合训练模块、第一分离训练模块和第二分离训练模块;
其中,所述联合训练模块,被配置为,利用初始编码器和初始解码器之间通信信道的信道状态信息,通过多次迭代来对所述初始编码器和所述初始解码器进行联合训练,得到第一编码器和第一解码器;
所述第一分离训练模块,被配置为,通过多次迭代来对所述初始解码器进行第一分离训练,并在每次迭代中,将所述信道状态信息输入至所述第一编码器,并输出隐空间向量,将所述隐空间向量作为该次迭代中所述初始解码器的输入,以所述信道状态信息作为该次迭代中所述初始解码器输出的目标,在完成所述分第一分离训练后得到第二解码器;
所述第二分离训练模,被配置为,通过多次迭代来对所述初始编码器进行第二分离训练,并在每次迭代中,将所述信道状态信息作为所述初始编码器的输入,令所述第一解码器将反向传播中的梯度反馈至所述初始编码器,通过将所述梯度最小化作为目标,来调整该次迭代中所述初始编码器的权重。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可由所述处理器执行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任意一项所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行根据权利要求1至7中任意一项所述的方法。
CN202310934826.4A 2023-07-27 2023-07-27 基于深度学习的信道压缩反馈的分离训练方法及相关设备 Pending CN117061058A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310934826.4A CN117061058A (zh) 2023-07-27 2023-07-27 基于深度学习的信道压缩反馈的分离训练方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310934826.4A CN117061058A (zh) 2023-07-27 2023-07-27 基于深度学习的信道压缩反馈的分离训练方法及相关设备

Publications (1)

Publication Number Publication Date
CN117061058A true CN117061058A (zh) 2023-11-14

Family

ID=88658072

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310934826.4A Pending CN117061058A (zh) 2023-07-27 2023-07-27 基于深度学习的信道压缩反馈的分离训练方法及相关设备

Country Status (1)

Country Link
CN (1) CN117061058A (zh)

Similar Documents

Publication Publication Date Title
US10713818B1 (en) Image compression with recurrent neural networks
US20230006692A1 (en) Method and apparatus for variable rate compression with a conditional autoencoder
US20200295782A1 (en) Apparatus and method for offset optimization for low-density parity-check (ldpc) code
CN111224677A (zh) 编码方法、译码方法及装置
US11823060B2 (en) Method and system for performing deterministic data processing through artificial intelligence
KR20230105317A (ko) 전역 모델 압축에 의한 통신 효율적인 연합 학습을 위한 방법 및 장치
US20210099188A1 (en) System and method for identifying and decoding reed-muller codes in polar codes
CN117061058A (zh) 基于深度学习的信道压缩反馈的分离训练方法及相关设备
CN107170459B (zh) 矢量量化器
CN113271110B (zh) 一种文本的语义信源信道联合编译码方法及装置
CN114841325A (zh) 神经网络模型的数据处理方法、介质及电子设备
CN112584144B (zh) 一种图像信号处理方法及装置
CN113204944A (zh) 文本生成方法、装置、设备和存储介质
CN113906447A (zh) 电子设备及其控制方法
KR20200132685A (ko) 전자 장치 및 이의 제어 방법
CN111435838B (zh) 译码方法、装置及设备
CN115276900B (zh) 分布式信源的信源信道联合极化的信息传输方法和系统
CN116319714B (zh) 基于模态转换的联邦学习方法及相关设备
KR102650523B1 (ko) 심층 강화 학습에 의한 종단 간 신경 압축을 위한 방법 및 장치
EP4290511A1 (en) Method for preventing duplicate application of audio effects to audio data and electronic apparatus supporting same
US20220245423A1 (en) Electronic device, user terminal, and method for running scalable deep learning network
CN118138192A (zh) 语义通信方法、装置、电子设备及存储介质
CN116935840A (zh) 上下文建模的语义通信编码传输和接收方法及相关设备
KR20210038317A (ko) 폴라 코드에서 리드 뮬러 코드를 식별 및 디코딩하는 시스템 및 방법
EP3770825A1 (en) Electronic device and control method thereof

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination