CN114389620A - 一种译码方法和装置 - Google Patents
一种译码方法和装置 Download PDFInfo
- Publication number
- CN114389620A CN114389620A CN202011125229.XA CN202011125229A CN114389620A CN 114389620 A CN114389620 A CN 114389620A CN 202011125229 A CN202011125229 A CN 202011125229A CN 114389620 A CN114389620 A CN 114389620A
- Authority
- CN
- China
- Prior art keywords
- decoding
- information
- decoded
- decoding result
- nth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/65—Purpose and implementation aspects
- H03M13/6597—Implementations using analogue techniques for coding or decoding, e.g. analogue Viterbi decoder
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/37—Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
- H03M13/45—Soft decoding, i.e. using symbol reliability information
- H03M13/451—Soft decoding, i.e. using symbol reliability information using a set of candidate code words, e.g. ordered statistics decoding [OSD]
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/13—Linear codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/37—Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
- H03M13/3707—Adaptive decoding and hybrid decoding, e.g. decoding methods or techniques providing more than one decoding algorithm for one code
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/11—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
- H03M13/1102—Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
- H03M13/1105—Decoding
- H03M13/1111—Soft-decision decoding, e.g. by means of message passing or belief propagation algorithms
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/37—Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
- H03M13/45—Soft decoding, i.e. using symbol reliability information
Landscapes
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明实施例提供了一种译码方法和装置,涉及通信技术领域,该方法包括:根据第一译码器对第一待译码信息进行译码,得到第一译码结果,其中,该第一译码结果包括第一软信息或第一硬输出;根据第一校正模型对该第一译码结果进行校正,以获取该第一待译码信息的校正后的第一译码结果,其中,该第一校正模型是基于训练数据训练获得的,该训练数据包括训练译码结果和校正后的训练译码结果,该训练译码结果是训练待译码信息经由该第一译码器译码后获得的译码结果,该校正后的训练译码结果是该训练译码结果对应的校正后的译码结果,能够在译码器进行译码之后,根据校正模型对译码结果进行校正,从而提高译码性能。
Description
技术领域
本申请涉及通信技术领域,并且更具体地,涉及一种译码方法和装置。
背景技术
极化码(Polar Codes)在第五代(5th generation,5G)通信系统具有很大的发展和应用前景。极化码也可以成为Polar码。Polar码是一种线性码块,在理论上已证明可以取得香农容量且具有低编译码复杂度的编码方式。Polar码的编码输出可以表示为其中,是一个二进制的行矢量,长度为N;GN.是一个N*N矩阵,码长N=2,n≥0;这里BN是转置矩阵,是克罗内克幂(kronecker power),定义为
在Polar码的编码过程中,中的一部分比特用来携带信息(即,需要发送给接收端的数据信息),这部分比特称为信息比特,这些比特的索引集合记为A;另外剩下的那一部分比特是固定值,称为frozen比特,例如,可以常设置为0。
现有技术中,在Polar码的译码方法中,我们能够根据对复杂度和性能的不同需求配置不同的内码译码器。可以配置两种不同的模式。第一种为高性能模式,软输出(Softoutput)子码译码单元:例如SCL译码、SCAN译码等。这种模式下,内码译码器得到软比特信息,根据软比特信息直接输出译码结果。这种模式存在本身译码核面积较大,不同子码之间需要传递软信息,互联线复杂的缺点。
第二种为高吞吐模式,硬输出(Hard output)子码译码单元:例如SC译码。这种模式下译码器的输出侧输出译码比特。其中,译码比特为软信息序列进行硬判决得到的译码结果。这种模式由于缺乏可靠度信息,存在译码性能相对较差的问题。
因此,希望提供一种技术,能够在互联线简单的情况下,提高译码性能。
发明内容
本发明实施例提供了一种译码方法和装置,能够在互联线简单的情况下,提高译码性能。
第一方面,提供了一种译码方法,包括:根据第一译码器对第一待译码信息进行译码,得到第一译码结果,其中,第一译码结果包括第一软信息或第一硬输出;根据第一校正模型对第一译码结果进行校正,以获取第一待译码信息的校正后的第一译码结果,其中,第一校正模型是基于训练数据训练获得的,训练数据包括训练译码结果和校正后的训练译码结果,训练译码结果是训练待译码信息经由第一译码器译码后获得的译码结果,校正后的训练译码结果是训练译码结果对应的校正后的译码结果。
根据本申请提供的方案,在由第一译码器与第一校正模型执行本申请提供的译码方法的情况下,通过第一译码器对第一待译码信息进行译码,得到第一译码结果,根据训练译码结果和校正后的训练译码结果对第一校正模型进行训练,由训练好的第一校正模型对第一译码结果进行校正,得到第一待译码信息对应的最终译码结果,即校正后的第一译码结果,相比于第一译码器直接得到译码结果,提升了译码性能。
结合第一方面,在第一方面的另一种实现方式中,该第一待译码信息包括第一译码器从信道中接收的符号。
结合第一方面及其上述实现方式中的任一种实现方式,在第一方面的另一种实现方式中,根据第一译码器对第一待译码信息进行译码,还包括:根据第一判决单元判断该第一待译码信息是码字。
根据本申请的方案,能够在第一译码器对第一待译码信息进行译码之前,对第一待译码信息进行判决。判决第一待译码信息是码字的情况下,才对第一待译码信息进行译码,进一步还提高了本申请的方案译码的效率。
结合第一方面及其上述实现方式中的任一种实现方式,在第一方面的另一种实现方式中,该方法还包括:根据第二译码器对第二待译码信息进行译码,得到第二译码结果,其中,第二待译码信息包括第一译码器从信道中接收的符号,以及校正后的第一译码结果,第二译码结果包括第二软信息或第二硬输出;根据第二校正模型对第二译码结果进行校正,以获取第二待译码信息的校正后的第二译码结果。
根据本申请的方案,在由第一译码器、第一校正模型、第二译码器和第二校正模型执行本申请提供的译码方法的情况下,第一校正模型校正后的第一译码结果作为第二译码器的输入,由第二译码器再一次进行译码,得到第二译码结果,由第二校正模型对第二译码结果进行校正,最终得到第一待译码信息对应的经过第一校正模型和第二校正模型两次校正后的第二译码结果,能够进一步提高本申请的方案译码性能。
结合第一方面及其上述实现方式中的任一种实现方式,在第一方面的另一种实现方式中,根据第二译码器对第二待译码信息进行译码,还包括:根据第二判决单元判断该第二待译码信息是码字。
结合第一方面及其上述实现方式中的任一种实现方式,在第一方面的另一种实现方式中,根据第N译码器对第N待译码信息进行译码,得到第N译码结果,其中,第N待译码信息包括第N译码器从信道中接收的符号,以及校正后的第N-1译码结果,以及校正后的第N-2译码结果,第N译码结果包括第N软信息或第N硬输出,N为大于或等于3的整数;根据第N校正模型对第N译码结果进行校正,以获取第N待译码信息的校正后的第N译码结果。
根据本申请的方案,在由N个译码器以及校正模型执行本申请提供的译码方法的情况下,第一待译码信息经过多次迭代译码,以及多次校正模型的校正,最终得到该第一待译码信息对应的校正后的第N译码结果,能够提高本申请的方案译码性能。
结合第一方面及其上述实现方式中的任一种实现方式,在第一方面的另一种实现方式中,根据第N译码器对第N待译码信息进行译码,该方法还包括:根据判决单元判断第N待译码信息是码字。
结合第一方面及其上述实现方式中的任一种实现方式,在第一方面的另一种实现方式中,该方法还包括:对训练信息比特序列进行编码,得到训练待译码信息,其中,训练信息比特序列为校正后的训练译码结果;根据第一译码器对训练待译码信息进行译码,得到训练译码结果;将训练译码结果输入到原始校正模型,得到经原始校正模型校正后的训练译码结果;调节原始校正模型参数,直到经原始校正模型校正后的训练译码结果与训练信息比特序列的偏差满足预设条件,调节后的原始校正模型为第一校正模型。
第二方面,提供了一种译码装置,该装置包括:第一结构译码单元,用于对第一待译码信息进行译码,得到第一译码结果,其中,第一译码结果包括第一软信息或第一硬输出;第一校正单元,用于对第一译码结果进行校正,以获取第一待译码信息的校正后的第一译码结果,其中,第一校正单元是基于训练数据训练获得的,训练数据包括训练译码结果和校正后的训练译码结果,训练译码结果是训练待译码信息经由第一结构译码单元译码后获得的译码结果,校正后的训练译码结果是训练译码结果对应的校正后的译码结果。
结合第二方面,在第二方面的另一种实现方式中,该第一结构译码单元具体用于:从信道中接收符号。
结合第二方面及其上述实现方式中的任一种实现方式,在第二方面的另一种实现方式中,根据第一结构译码单元对第一待译码信息进行译码,该译码装置还包括:第一判决单元,根据判决单元判断该第一待译码信息是码字。
结合第二方面及其上述实现方式中的任一种实现方式,在第二方面的另一种实现方式中,该译码装置还包括:根据第二结构译码单元对第二待译码信息进行译码,得到第二译码结果,其中,第二待译码信息包括第二结构译码单元从信道中接收的符号,以及校正后的第一译码结果,第二译码结果包括第二软信息或第二硬输出;根据第二校正单元对第二译码结果进行校正,以获取第二待译码信息的校正后的第二译码结果。
结合第二方面及其上述实现方式中的任一种实现方式,在第二方面的另一种实现方式中,根据第二结构译码单元对第二待译码信息进行译码,该译码装置还包括:第二判决单元,根据判决单元判断该第二待译码信息是码字。
结合第二方面及其上述实现方式中的任一种实现方式,该译码装置还包括:根据第N结构译码单元对第N待译码信息进行译码,得到第N译码结果,其中,第N待译码信息包括第N结构译码单元从信道中接收的符号,以及校正后的第N-1译码结果,以及校正后的第N-2译码结果,第N译码结果包括第N软信息或第N硬输出,N为大于或等于3的整数;根据第N校正单元对第N译码结果进行校正,以获取第N待译码信息的校正后的第N译码结果。
结合第二方面及其上述实现方式中的任一种实现方式,在第二方面的另一种实现方式中,根据第N结构译码单元对第N待译码信息进行译码,该译码装置还包括:第N判决单元,根据判决单元判断该第N待译码信息是码字。
结合第二方面及其上述实现方式中的任一种实现方式,该装置还包括:对训练信息比特序列进行编码,得到训练待译码信息,其中,训练信息比特序列为校正后的训练译码结果;根据第一译码单元对训练待译码信息进行译码,得到训练译码结果;将训练译码结果输入到原始校正单元,得到经原始校正单元校正后的训练译码结果;调节原始校正单元参数,直到经原始校正单元校正后的训练译码结果与该训练信息比特序列的偏差满足预设条件,调节后的原始校正单元为该第一校正单元。
第三方面,提供了一种芯片系统,包括处理器,用于从存储器中调用并运行计算机程序,使得安装有该芯片系统的设备执行上述第一方面各实现方式中的方法。
第四方面,提供了一种计算机程序产品,该计算机程序产品包括:计算机程序代码,当该计算机程序代码被通信设备(例如,终端设备或网络设备)的通信单元、处理单元或收发器、处理器运行时,使得通信设备执行上述第一方面各实现方式中的方法。
第五方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有程序,该程序使得通信设备(例如,终端设备或网络设备)执行上述第一方面各实现方式中的方法。
附图说明
图1是本发明实施例的无线通信系统应用场景的示意图。
图2是根据本发明实施例的译码装置包括单个译码模块的示意图。
图3是根据本发明实施例的译码装置包括两个译码模块的示意图。
图4是根据本发明实施例的译码装置包括多个译码模块的示意图。
图5是根据本发明实施例的由单个译码模块执行的译码方法示意图。
图6是根据本发明实施例的由两个译码模块执行的译码方法示意图。
图7是根据本发明实施例的由多个译码模块执行的译码方法示意图。
图8是根据本发明实施例的译码装置包括单个另一种译码模块的示意图。
图9是根据本发明实施例的译码装置包括两个另一种译码模块的示意图。
图10是根据本发明实施例的译码装置包括多个另一种译码模块的示意图。
图11是根据本发明实施例的由单个另一种译码模块执行的译码方法示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
本申请提供的技术方案可以应用于各种无线通信系统,例如:长期演进(LongTerm Evolution,LTE)系统、LTE频分双工(frequency division duplex,FDD)系统、LTE时分双工(time division duplex,TDD)、通用移动无线通信系统(universal mobiletelecommunication system,UMTS)、全球互联微波接入(worldwide interoperabilityfor microwave access,WiMAX)无线通信系统、第五代(5th Generation,5G)移动无线通信系统或新无线接入技术(new radio access technology,NR)以及未来的通信系统,如第六代移动无线通信系统等。本申请对此不作限定。其中,5G移动无线通信系统可以包括非独立组网(non-standalone,NSA)和/或独立组网(standalone,SA)。特别地,包括5G中的增强移动宽带(eMBB)、超低时延超高可靠通信(uRLLC)、以及大规模机器通信(mMTC)场景。
本申请提供的技术方案还可以应用于机器类通信(machine typecommunication,MTC)、机器间通信长期演进技术(Long Term Evolution-machine,LTE-M)、设备到设备(device to device,D2D)网络、机器到机器(machine to machine,M2M)网络、物联网(internet of things,IoT)网络或者其他网络。其中,IoT网络例如可以包括车联网。其中,车联网系统中的通信方式统称为车到其他设备(vehicle to X,V2X,X可以代表任何事物),例如,该V2X可以包括:车辆到车辆(vehicle to vehicle,V2V)通信,车辆与基础设施(vehicle to infrastructure,V2I)通信、车辆与行人之间的通信(vehicle topedestrian,V2P)或车辆与网络(vehicle to network,V2N)通信等。
为便于理解本申请实施例,首先结合图1详细说明适用于本申请实施例提供的无线无线通信系统100。
图1示出了适用于本申请实施例提供的方法的无线无线通信系统100的示意图。如图所示,该无线无线通信系统100包括网络设备110、终端设备120和终端设备130。
本申请实施例提供的译码方法,可以应用在网络设备与终端设备之间的信息交互过程中,可以由网络设备侧或终端设备侧的软件或者硬件执行。本申请实施例提供的译码装置,可以部署在无线接入网设备,例如基站,或者,控制器等用于处理接收到的移动终端发送的上行数据,也可以部署在移动终端上用于处理接收到的无线接入网设备发送的下行数据。
本申请实施例所涉及到的网络设备可以是任意一种具有无线收发功能的设备。该设备包括但不限于:演进型节点B(evolved Node B,eNB)、无线网络控制器(radio networkcontroller,RNC)、节点B(Node B,NB)、基站控制器(base station controller,BSC)、基站收发台(base transceiver station,BTS)、家庭基站(例如,home evolved NodeB,或homeNode B,HNB)、基带单元(baseband unit,BBU),无线保真(wireless fidelity,WiFi)系统中的接入点(access point,AP)、无线中继节点、无线回传节点、传输点(transmissionpoint,TP)或者发送接收点(transmission and reception point,TRP)等,还可以为5G,如,NR,系统中的gNB,或,传输点(TRP或TP),5G系统中的基站的一个或一组(包括多个天线面板)天线面板,或者,还可以为构成gNB或传输点的网络节点,如基带单元(BBU),或,分布式单元(distributed unit,DU)等。
本申请实施例所涉及到的终端设备可以为:用户设备(user equipment,UE)、移动台(mobile station,MS)、移动终端(mobile terminal,MT)、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、终端、无线通信设备、用户代理或用户装置等。
终端设备可以是一种向用户提供语音/数据连通性的设备,例如,具有无线连接功能的手持式设备、车载设备等。目前,一些终端的举例为:手机(mobile phone)、平板电脑(pad)、带无线收发功能的电脑(如笔记本电脑、掌上电脑等)、移动互联网设备(mobileinternet device,MID)、虚拟现实(virtual reality,VR)设备、增强现实(augmentedreality,AR)设备、工业控制(industrial control)中的无线终端、无人驾驶(selfdriving)中的无线终端、远程医疗(remote medical)中的无线终端、智能电网(smartgrid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smartcity)中的无线终端、智慧家庭(smart home)中的无线终端、蜂窝电话、无绳电话、会话启动协议(session initiation protocol,SIP)电话、无线本地环路(wireless local loop,WLL)站、个人数字助理(personal digital assistant,PDA)、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、可穿戴设备,5G网络中的终端设备或者未来演进的公用陆地移动通信网络(public land mobile network,PLMN)中的终端设备等。
需要说明的,图1示出的无线无线通信系统100仅仅是为了更加清楚的说明本申请的技术方案,并不构成对本申请的限定,本领域普通技术人员可知,随着网络架构的演变和新业务场景的出现,本申请提供的技术方案对于类似的技术问题,同样适用。
下面结合图2描述根据本发明实施例的译码装置包括单个译码模块的示意图。如图2所示,该译码装置200包括单个译码模块,即只包括第一类译码模块1,该第一类译码模块1包括但不限于:第一结构译码单元210、第一校正单元220和第一输出单元230。第一结构译码单元与第一校正单元可以直接通信连接,第一校正单元和第一输出单元可以直接通信连接,第一输出单元与其他译码模块的结构译码单元可以直接通信连接。
其中,第一结构译码单元210、第一校正单元220和第一输出单元230分别包括一个输入端口和一个输出端口。具体地说,第一结构译码单元210的输出端口与第一校正单元220的输入端口相连接,第一校正单元220的输出端口与第一输出单元230的输入端口相连接。
其中,第一校正单元220保存有一个第一校正模型。
在本发明实施例中,第一结构译码单元210对第一待译码信息进行译码,得到译码结果,其中,该第一译码结果包括第一软信息或第一硬输出。
其中,第一结构译码单元210可以为传统的译码单元,具体比如SC译码单元、SCAN译码单元和SCL译码单元。应理解,上述提到的译码单元只是示例性的,并不对本申请实施例的保护范围构成限定。
具体地说,第一结构译码单元210对接收的来自信道的符号进行译码的译码方法可以包括但不限于以下几种:SC译码方法、SCL译码方法、SCAN译码方法、和积(sumproduct)方法、最小和(min-sum)方法、蔡斯(Chase)译码方法、分阶统计译码(orderedstatistics decoding)方法、或方盒匹配(box-andmatch)译码方法。可以理解,其他译码方法也可应用于所描述的第一结构译码单元,均属于本申请的保护范围。
其中,第一待译码信息可以为第一结构译码单元210从信道中接收的符号。具体地,第一待译码信息还可以称为待译码码字、待译码码块、码块或码字。
第一待译码信息对应的长度为N的LLR向量经过一个或多个层级的F/G运算,到达最后一个层级,最后一个层级的软信息序列(即最后一个层级上的LLR向量)为第一译码结果。
或者,根据最后一个层级的软信息序列(即最后一个层级上的LLR向量)进行逐比特硬判决,获得信息侧的译码比特,即第一译码结果。其中,对于非固定比特位置,在进行硬判决时,若LLR>0,则判决结果为0;若LLR<0,则判决结果为1。对于固定比特位置,在进行硬判决时,无论LLR为多少,判决结果都为0。
得到译码结果之后,第一校正单元220接收该译码结果,对该译码结果进行校正,以获取该信道中接收到的符号对应的校正后的第一译码结果。
在本发明实施例中,第一校正单元是基于第一校正模型来执行校正过程。该第一校正模型可以是由外部训练设备预先训练好的,或者,该第一校正模型还可以是由该第一校正单元训练得到的。
在本发明实施例中,该第一校正模型可以基于机器学习或深度学习训练而成,当基于机器学习或深度学习时,该第一校正模型可以是指一个网络,具体比如该第一校正模型可以为一个全连接神经网络模型、一个单个神经元模型或者AI模型。它具有输入层和输出层,并且在输入层和输出层之间至少具有一层隐藏层,隐藏层后可能具有非线性激活函数处理,如激活函数(rectified linear unit,ReLU),双曲正切函数(tanh)等,层与层之间的连接由每个层上的节点相互连接组成,一对连接的节点具有一个权重值和一个偏置值。深度神经网络可以看作输入到输出的非线性变换。输出可以再输入一个损失函数(lossfunction)来计算损失,计算产生的梯度可以用回传(back-propagation)算法从输出层传回输入层,以此来更新每层的权重和偏置,让损失最小化。
具体地说,第一校正模型是根据训练数据基于机器学习或深度学习训练方法对原始校正模型进行训练得到的。本申请实施例中训练数据#A包括:待译码信息#A1(即,训练译码信息的一例)、译码结果#A2(即,训练译码结果的一例)和期望的译码结果#A3(即,校正后的训练译码结果的一例),其中,该译码结果#A2是经过第一结构译码单元译码后所得到的译码结果。需要说明的是,在实际的应用中,训练数据可以来自于数据采集设备的采集,也有可能是从其他设备接收得到的。另外需要说明的是,外部训练设备也不一定完全基于训练数据进行第一校正模型的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。
具体地说,在本申请提供的实施例中,对第一校正模型的训练过程为:
步骤一:对信息比特序列进行编码,得到待译码信息,其中,信息比特序列为期望的译码结果;
步骤二:根据第一结构译码单元对待译码信息进行译码,得到译码结果;
步骤三:将该译码结果输入到原始校正模型,得到经该原始校正模型校正后的译码结果;
步骤四:调节该原始校正模型的参数,其中,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,该调节后的原始校正模型为该第一校正模型。
具体地说,经原始校正模型校正后的译码结果与该信息比特序列的偏差按照下式进行计算:
其中,Yk为该信息比特序列的每一位比特,Ok为经原始校正模型校正后的译码结果的每一位比特。k=1,2,...,m,m为大于1的自然数,表示信息比特序列或译码结果有m比特。
具体地说,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,预设条件可以为上述偏差的计算结果为0。
在本发明实施例中,该第一校正模型也可以基于深度强化学习训练而成,深度强化学习是深度神经网络和强化学习的组合。强化学习是一个智能体(agent)和环境交互,通过试错(或称探索)学习最优策略的过程,对于具有一系列决策的问题,尤其是不能理论建模或求解困难的问题,强化学习可以提供解法。强化学习系统可能还包括如下概念:状态(或称观察)、策略、回报、时间步、回合、值函数。策略决定了智能体在给定状态的情况下会采取何种行动,即从状态到行动的映射,在深度强化学习中,这个观察可以是深度神经网络的输入,动作对应深度神经网络的输出。回报是智能体在当前环境中采取某种行动后,环境反馈的一个值。在每个时间步,智能体都会采取一种行动,然后环境会反馈一个回报值。通常遇到的问题都不是优化单一动作就可以解决的问题,而是优化一系列决策带来的最终结果或综合结果。因此,在强化学习优化某一问题的过程中,可以以回合为单位,每一回合包含多个时间步。环境可以在回合结束时的这个时间步才反馈一个回报,这种情况下之前的时间步的回报可以用零替代。当然,环境也可以在回合没有结束时就反馈一个非零的回报,不同的环境有不同的反馈方式。根据环境反馈的回报,智能体的目标是最大化每个回合的总的回报。值函数也是一种映射,它的输入可以是状态,也可以是状态和动作的合集,输出是一个值,这个值表示智能体对未来可以积累的总回报的估计值,这个值越大代表当前选择的动作从长远看是更好的。在深度强化学习中,值函数也可以用深度神经网络表示,值函数的输入即深度神经网络的输入,值函数的输出即深度神经网络的输出。强化学习属于非监督学习的范畴,不需要预先对训练样本进行标记,可以学到比人类设计更好的配置。训练过程是离线进行,因此不影响译码时的复杂度。
具体地说,在本发明实施例中,可以基于遗传算法对第一校正模型进行训练。
应理解,上述列举的基于遗传算法对第一校正模型进行训练的过程仅为示例性说明,本申请并不限定于此,其他的强化学习算法能够对原始校正模型进行参数调节得到第一校正模型的训练方法均落入本申请的保护范围内。
在本发明实施例中,第一校正模型为一个全连接神经网络时,通过上述训练过程调整参数,学习到合适的参数之后,可以提升译码性能。
在本发明实施例中,第一校正模型为只有一个神经元的模式时。这种简化的实现可以大幅降低大量参数训练的复杂度,同时还能够提升译码性能。
应理解,上述列举的第一校正模型为全连接神经网络或一个神经元的形式仅为示例性说明,本申请并不限定于此,其他的能够根据训练对参数进行调整的模型也能够作为第一校正模型均落入本申请的保护范围内。
在本发明实施例中,该第一类译码模块1还包括第一输出单元230,用于将第一校正单元校正后的第一译码结果进行输出。
具体地说,该第一输出单元230用于将第一校正单元校正后的第一译码结果输出至第二结构译码器和第三结构译码器,或者输出至第N结构译码器和第N+1结构译码器作为输入。
应理解,在本发明实施例中,在译码装置只包括单个第一类译码模块1的情况下,译码装置的输入为第一待译码信息,经过第一类译码模块1的译码处理,输出结果为第一待译码信息对应的校正后的第一译码结果。
根据本申请提供的方案,第一结构译码单元对第一待译码信息进行译码,得到第一译码结果。根据第一校正单元对第一译码结果进行校正,以获取第一待译码信息的校正后第一译码结果。这样,提供了一种可以对传统译码单元的译码结果进行校正的方案,相比于现有技术方案,能够达到提高译码性能的效果。
在一种情况下,本发明实施例的译码装置还可以包括2个译码模块。如图3所示,该译码装置300包括2个第一类译码模块,分别为第一类译码模块1和第一类译码模块2。其中,第一类译码模块1如图2中所述,此处不再赘述。类似地,第一类译码模块2包括但不限于:第二结构译码单元310、第二校正单元320和第二输出单元330。第二结构译码单元与第一输出单元可以直接通信连接,第二结构译码单元与第二校正单元也可以直接通信连接,第二校正单元和第二输出单元可以直接通信连接,第二输出单元与其他译码模块的结构译码单元可以直接通信连接。
其中,第二结构译码单元310、第二校正单元320和第二输出单元330分别包括一个输入端口和一个输出端口。具体地说,第二结构译码单元310的输入端口与第一输出单元230的输出端口相连接,第二结构译码单元310的输出端口与第二校正单元320的输入端口相连接,第二校正单元320的输出端口与第二输出单元330的输入端口相连接。
其中,第二校正单元320保存有一个第二校正模型。
在本发明实施例中,第一类译码模块1所执行的功能如图2中所述。首先,由第一结构译码单元210对第一待译码信息进行译码,得到译码结果。其次,得到译码结果之后,第一校正单元220接收该译码结果,对该译码结果进行校正,以获取该信道中接收到的符号对应的校正后的第一译码结果。最后,由第一输出单元230将一校正单元校正后的第一译码结果进行输出,作为第二结构译码单元的输入。
在本发明实施例中,由外部设备将信道中传递的符号与第一输出单元输出的结果进行概率的叠加,得到第二待译码信息,第二结构译码器接收该第二待译码信息,对该第二待译码信息进行译码,得到第二译码结果。
类似地,第二结构译码单元310也可以为传统的译码单元,具体比如SC译码单元、SCAN译码单元和SCL译码单元。应理解,第二结构译码单元可以与第一结构译码单元相同,比如两者都为SC译码单元;或者,第二结构译码单元也可以与第一结构译码单元不同。
具体地说,第二结构译码单元310对接收的来自信道的符号或者接收的第一输出单元的输出结果进行译码的译码方法可以包括但不限于以下几种:SC译码方法、SCL译码方法、SCAN译码方法、和积(sum product)方法、最小和(min-sum)方法、蔡斯(Chase)译码方法、分阶统计译码(ordered statistics decoding)方法、或方盒匹配(box-andmatch)译码方法。可以理解,其他译码方法也可应用于所描述的第一结构译码单元,均属于本申请的保护范围。
其中,接收第一输出单元的输出结果可以为软信息或者经过硬判决之后的硬比特。
得到第二结构译码器的译码结果之后,第二校正单元320接收该译码结果,对该译码结果进行校正,以获取该第二待译码信息的校正后的第二译码结果。
在本发明实施例中,第二校正单元是基于第二校正模型来执行校正过程。该第二校正模型可以是由外部训练设备预先训练好的,或者,该第二校正模型还可以是由该第二校正单元训练得到的。
在本发明实施例中,与第一校正模型的训练方法相同,该第二校正模型也可以基于机器学习或深度学习训练而成,或者该第二校正模型也可以基于深度强化学习训练而成。
具体地说,第二校正模型是根据训练数据基于机器学习或深度学习训练方法对原始校正模型进行训练得到的。本申请实施例中训练数据#A包括:待译码信息#A1(即,训练译码信息的一例)、译码结果#A2(即,训练译码结果的一例)和期望的译码结果#A3(即,校正后的训练译码结果的一例),其中,该译码结果#A2是经过第二结构译码单元译码后所得到的译码结果。需要说明的是,在实际的应用中,训练数据可以来自于数据采集设备的采集,也有可能是从其他设备接收得到的。另外需要说明的是,外部训练设备也不一定完全基于训练数据进行第二校正模型的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。
具体地说,在本申请提供的实施例中,对第二校正模型的训练过程为:
步骤一:对信息比特序列进行编码,得到待译码信息,其中,信息比特序列为期望的译码结果;
步骤二:根据第二结构译码单元对待译码信息进行译码,得到译码结果;
步骤三:将该译码结果输入到原始校正模型,得到经该原始校正模型校正后的译码结果;
步骤四:调节该原始校正模型的参数,其中,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,该调节后的原始校正模型为该第二校正模型。
具体地说,经原始校正模型校正后的译码结果与该信息比特序列的偏差按照公式1进行计算。
具体地说,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,预设条件可以为公式1所计算的偏差的结果为0。
具体地说,在本发明实施例中,也可以基于梯度下降法对第二校正模型进行训练。
应理解,上述列举的基于梯度下降法对第二校正模型进行训练的过程仅为示例性说明,本申请并不限定于此,其他的强化学习算法能够对原始校正模型进行参数调节得到第二校正模型的训练方法均落入本申请的保护范围内。
同第一校正模型,在本发明实施例中,第二校正模型可以为一个全连接神经网络,通过上述训练过程调整参数,学习到合适的参数之后,可以提升译码性能。或者,第二校正模型可以为只有一个神经元的模式。这种简化的实现可以大幅降低大量参数训练的复杂度,同时还能够提升译码性能。
应理解,上述列举的第二校正模型为全连接神经网络或一个神经元的形式仅为示例性说明,本申请并不限定于此,其他的能够根据训练对参数进行调整的模型也能够作为第二校正模型均落入本申请的保护范围内。
在本发明实施例中,该第一类译码模块2还包括第二输出单元330,用于将第二校正单元校正后的第二译码结果进行输出。
具体地说,该第二输出单元330用于将第二校正单元校正后的第二译码结果输出至第三结构译码器和第四结构译码器,或者输出至第N结构译码器和第N+1结构译码器作为输入。
具体而言,第二结构译码单元从信道中接收的符号以及校正后的第一译码结果共同作为第二结构译码单元310的第二待译码信息,由第二结构译码单元310对该第二待译码信息进行译码,得到第二译码结果。该第二译码结果可能是软信息或者经过硬判决之后的硬输出。其后,由第二校正单元320对第二译码结果进行校正。其中,该第二校正单元320也是根据训练数据训练获得的。
在本发明实施例中,在译码装置包含两个第一类译码模块,即第一类译码模块1和第一类译码模块2的情况下,该译码装置输入为第一待译码信息,经过两个第一类译码模块的译码处理,输出为由第二输出单元输出的校正后的第二译码结果。
根据本申请提供的方案,信道中输入符号经过第一结构译码器210、第一校正单元220和第一输出单元230,将得到的校正后的第一译码结果传递到第二结构译码单元310,经过第二校正单元320对第一译码结果进行进一步校正。由此,能够实现对译码器的译码结果进行校正,从而进一步提高译码性能。
在另一种情况下,本发明实施例的译码装置中可以包括N个译码模块,其中N为大于等于3的整数。如图4所示,该译码装置400包括N个第一类译码模块,分别为第一类译码模块1、第一类译码模块2和第一类译码模块N。具体比如,该译码装置400可以包括:第一类译码模块1、第一类译码模块2和第一类译码模块3,或者,该译码装置400可以包括:第一类译码模块1、第一类译码模块2、第一类译码模块3和第一类译码模块4,具体包括的译码模块的数目在本申请中并不限定,其他包含多个第一类译码模块的译码装置均落入本申请的保护范围内。
其中,第一类译码模块1和第一类译码模块2如图3中所述,此处不再赘述。类似地,第一类译码模块N包括但不限于:第N结构译码单元410、第N校正单元420和第N输出单元430。其中,第N结构译码单元410与第N-1输出单元可以直接通信连接,第N结构译码单元410与第N-2输出单元也可以直接通信连接,第N结构译码单元与第N校正单元可以直接通信连接,第N校正单元和第N输出单元可以直接通信连接。
其中,第N结构译码单元410、第N校正单元420和第N输出单元430分别包括一个输入端口和一个输出端口。具体地说,第N-1输出单元的输出结果和第N-2输出单元的输出结果由外部设备进行概率叠加操作,作为第N结构译码单元410的输入,第N结构译码单元410的输出端口与第N校正单元的输入端口相连接,第N校正单元的输出端口和第N输出单元的输入端口相连接。
其中,第N校正单元420保存有一个第N校正模型。
在本发明实施例中,第一类译码模块1所执行的功能如图2中所述。首先,由第一结构译码单元210对第一待译码信息进行译码,得到译码结果。其次,得到译码结果之后,第一校正单元220接收该译码结果,对该译码结果进行校正,以获取该信道中接收到的符号对应的校正后的第一译码结果。最后,由第一输出单元230将第一校正单元校正后的第一译码结果进行输出,作为第二结构译码单元的输入。
第一类译码模块2所执行的功能如图3中所述。首先,第二结构译码单元310从信道中接收的符号以及校正后的第一译码结果概率叠加的结果作为第二结构译码单元310的第二待译码信息,由第二结构译码单元310对该第二待译码信息进行译码,得到第二译码结果。该第二译码结果可能是软信息或者经过硬判决之后的硬输出。其后,由第二校正单元320对第二译码结果进行校正。其中,该第二校正单元320也是根据训练数据训练获得的。训练方式如上所述。最后,由第二输出单元330将第二校正单元校正后的第二译码结果进行输出,作为第N结构译码单元的输入。
在本发明实施例中,由外部设备将信道中传递的符号与第N-1输出单元输出的结果以及第N-2输出单元的输出结果进行概率的叠加,得到第N待译码信息,第N结构译码器接收该第N待译码信息,对该第N待译码信息进行译码,得到第N译码结果。
类似地,第N结构译码单元410也可以为传统的译码单元,具体比如SC译码单元、SCAN译码单元和SCL译码单元。应理解,第N结构译码单元可以与第一结构译码单元或第二结构译码单元相同,比如都为SC译码单元;或者,第N结构译码单元也可以与第一结构译码单元不同,与第二结构译码单元相同;或者与第一结构译码单元相同,与第二结构译码单元不同。
具体地说,第N结构译码单元410对接收的来自信道的符号以及接收的第N-1输出单元的输出结果,以及第N-2输出单元的输出结果三者概率叠加的结果进行译码的译码方法可以包括但不限于以下几种:SC译码方法、SCL译码方法、SCAN译码方法、和积(sumproduct)方法、最小和(min-sum)方法、蔡斯(Chase)译码方法、分阶统计译码(orderedstatistics decoding)方法、或方盒匹配(box-andmatch)译码方法。可以理解,其他译码方法也可应用于所描述的第N结构译码单元,均属于本申请的保护范围。
其中,接收第N-1输出单元的输出结果或者第N-2输出单元的输出结果可以为软信息或者经过硬判决之后的硬比特。
得到第N结构译码器的译码结果之后,第N校正单元420接收该译码结果,对该译码结果进行校正,以获取该第N待译码信息的校正后的第N译码结果,该第N译码结果包括第N软信息或第N硬输出,N为大于或等于3的整数。
在本发明实施例中,第N校正单元是基于第N校正模型来执行校正过程。该第N校正模型可以是由外部训练设备预先训练好的,或者,该第N校正模型还可以是由该第N校正单元训练得到的。
在本发明实施例中,与第一校正模型和第二校正模型的训练方法相同,该第N校正模型也可以基于机器学习或深度学习训练而成,或者该第N校正模型也可以基于深度强化学习训练而成。
具体地说,第N校正模型是根据训练数据基于机器学习或深度学习训练方法对原始校正模型进行训练得到的。本申请实施例中训练数据#A包括:待译码信息#A1(即,训练译码信息的一例)、译码结果#A2(即,训练译码结果的一例)和期望的译码结果#A3(即,校正后的训练译码结果的一例),其中,该译码结果#A2是经过第N结构译码单元译码后所得到的译码结果。需要说明的是,在实际的应用中,训练数据可以来自于数据采集设备的采集,也有可能是从其他设备接收得到的。另外需要说明的是,外部训练设备也不一定完全基于训练数据进行第N校正模型的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。
具体地说,在本申请提供的实施例中,对第N校正模型的训练过程为:
步骤一:对信息比特序列进行编码,得到待译码信息,其中,信息比特序列为期望的译码结果;
步骤二:根据第N结构译码单元对待译码信息进行译码,得到译码结果;
步骤三:将该译码结果输入到原始校正模型,得到经该原始校正模型校正后的译码结果;
步骤四:调节该原始校正模型的参数,其中,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,该调节后的原始校正模型为该第N校正模型。
具体地说,经原始校正模型校正后的译码结果与该信息比特序列的偏差按照公式1进行计算。
具体地说,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,预设条件可以为公式1所计算的偏差的结果为0。
具体地说,在本发明实施例中,也可以基于梯度下降算法对第N校正模型进行训练。
应理解,上述列举的基于梯度下降算法对第N校正模型进行训练的过程仅为示例性说明,本申请并不限定于此,其他的强化学习算法能够对原始校正模型进行参数调节得到第N校正模型的训练方法均落入本申请的保护范围内。
同第一校正模型和第二校正模型,在本发明实施例中,第N校正模型可以为一个全连接神经网络,通过上述训练过程调整参数,学习到合适的参数之后,可以提升译码性能。或者,第N校正模型可以为只有一个神经元的模式。这种简化的实现可以大幅降低大量参数训练的复杂度,同时还能够提升译码性能。
应理解,上述列举的第N校正模型为全连接神经网络或一个神经元的形式仅为示例性说明,本申请并不限定于此,其他的能够根据训练对参数进行调整的模型也能够作为第N校正模型均落入本申请的保护范围内。
在本发明实施例中,该译码模块还包括第N输出单元430,用于将第N校正单元校正后的第N译码结果进行输出。
具体地说,该第N输出单元430用于将第N校正单元校正后的第N译码结果输出至第N+1结构译码器和第N+2结构译码器。
具体而言,第N结构译码单元410从信道中接收的符号,以及校正后的第N-1译码结果,以及校正后的第N-2译码结果共同作为第N结构译码单元410的输入,即第N待译码信息,由第N结构译码单元410对第N待译码信息进行译码,得到第N译码结果。其后,根据第N校正单元420对该第N译码结果进行校正,以获取该第N待译码信息的校正后的第N译码结果。
因此,本发明实施例中,在存在多个译码模块的译码装置400中,第一输出单元230能够将第一校正单元220校正后的第一译码结果输出至第二结构译码单元310,也可以将第一校正单元220校正后的第一译码结果输出至第N结构译码单元410,其中,N为大于等于3的整数。这种连接关系提供了一种迭代译码的方式,在包含N个第一类译码模块的译码装置中,由第N校正单元对校正后的第N-1译码结果,以及校正后的第N-2译码结果进行进一步校正,最终得到第一待译码信息对应的校正后的第N译码结果,由此能够实现每个译码模块的输出经由下一个译码模块进行校正,提高了译码性能。
图5示出了根据本发明实施例的单个译码模块执行的译码方法,即由第一类译码模块1执行图5所述的译码方法。需要说明的是,本申请实施例提供的译码方法可以由网络设备来执行,也可以由终端来执行。本申请实施例提供的译码方法可以适用于各种无线通信场景,主要应用于60GHz频段的基站与终端之间的通信,可以但不限于包括适用于增强型移动宽带(enhance mobile broadband,eMBB)、海量机器连接通信(massive machine typecommunication,mMTC)和高可靠低延迟通信(ultrareliable low latencycommunication,URLLC)的场景。如图5所示,该方法包括:
S510,根据第一译码器对第一待译码信息进行译码,得到第一译码结果,其中,该第一译码结果包括第一软信息或第一硬输出;
S520,根据第一校正模型对该第一译码结果进行校正,以获取该第一待译码信息的校正后的第一译码结果。
本申请实施例中,第一译码器指传统的译码器,具体比如SC译码器、SCAN译码器。应理解,上述提到的译码器只是示例性的,并不对本申请实施例的保护范围构成限定。
具体地说,在S510中,第一译码器对第一待译码信息进行译码的译码方法可以包括但不限于以下几种:SC译码方法、SCL译码方法、SCAN译码方法、和积(sum product)方法、最小和(min-sum)方法、蔡斯(Chase)译码方法、分阶统计译码(ordered statisticsdecoding)方法、或方盒匹配(box-andmatch)译码方法。可以理解,其他译码方法也可应用于所描述的第一译码器,均属于本申请的保护范围。
其中,第一待译码信息可以为第一译码器从信道中接收的符号。具体地,第一待译码信息还可以称为待译码码字、待译码码块、码块或码字。第一待译码信息对应的长度为N的LLR向量经过一个或多个层级的F/G运算,到达最后一个层级,最后一个层级的软信息序列(即最后一个层级上的LLR向量)为信息侧的译码比特,即获得第一译码结果。
可选地,根据最后一个层级的软信息序列(即最后一个层级上的LLR向量)进行逐比特硬判决,获得信息侧的译码比特,即获得第一译码结果。其中,对于非固定比特位置,在进行硬判决时,若LLR>0,则判决结果为0;若LLR<0,则判决结果为1。对于固定比特位置,在进行硬判决时,无论LLR为多少,判决结果都为0。
其后,在S520中,可以根据第一校正模型对该第一译码结果进行校正,以获取该第一待译码信息的校正后的第一译码结果。
在本发明实施例中,该第一校正模型可以基于机器学习或深度学习训练而成,当基于机器学习或深度学习时,该第一校正模型可以是指一个网络,具体比如该第一校正模型可以为一个全连接神经网络模型、一个单个神经元模型或者AI模型。
具体地说,第一校正模型是根据训练数据基于机器学习或深度学习训练方法对原始校正模型进行训练得到的。本申请实施例中训练数据#A包括:待译码信息#A1(即,训练译码信息的一例)、译码结果#A2(即,训练译码结果的一例)和期望的译码结果#A3(即,校正后的训练译码结果的一例),其中,该译码结果#A2是经过第一结构译码单元译码后所得到的译码结果。需要说明的是,在实际的应用中,训练数据可以来自于数据采集设备的采集,也有可能是从其他设备接收得到的。另外需要说明的是,外部训练设备也不一定完全基于训练数据进行第一校正模型的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。
具体地说,在本申请提供的实施例中,对第一校正模型的训练过程为:
步骤一:对信息比特序列进行编码,得到待译码信息,其中,信息比特序列为期望的译码结果;
步骤二:根据第一结构译码单元对待译码信息进行译码,得到译码结果;
步骤三:将该译码结果输入到原始校正模型,得到经该原始校正模型校正后的译码结果;
步骤四:调节该原始校正模型的参数,其中,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,该调节后的原始校正模型为该第一校正模型。
具体地说,经原始校正模型校正后的译码结果与该信息比特序列的偏差按照公式1进行计算。
具体地说,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,预设条件可以为上述偏差的计算结果为0。
在本申请中,对原始校正模型进行参数调节从而获得第一校正模型,也可以利用强化学习算法进行参数调节。训练过程是离线进行,因此不影响译码时的复杂度。强化学习属于非监督学习的范畴,不需要预先对训练样本进行标记,可以学到比人类设计更好的配置。
在本发明实施例中,可以基于遗传算法对第一校正模型进行训练。遗传算法通过模拟种群在自然选择中进化的过程,逐渐找到最优的参数。
算法启动时产生一个包括N个个体的种群,其中每个个体的参数随机产生。对种群按性能排序,其中性能好的个体在前,性能差的个体在后。
然后算法进入如下循环过程:
步骤一:选择:从种群中随机选择两个节点作为父亲和母亲。其中,排序在前的个体被选择到的概率高于排序在后的个体。
步骤二:杂交:将父亲和母亲进行杂交产生一个后代。其中,后代每个参数是从父亲和母亲的对应参数中二选一得到。
步骤三:变异:对新产生后代的参数进行变异。其中,每一个参数以概率p发生变异。如果发生变异,则在该参数上随机加一个高斯噪声;反之,则保持该参数不变。
步骤四:种群更新:评估该后代的性能,并将其按性能排序插入原种群。如果新产生后代比原有种群的所有的个体性能都差,则将该样本直接丢弃。
重复执行上述步骤一到步骤四的过程,直到达到预先设置的最大迭代轮数为止。
最后,将种群中性能最好的个体参数输出,作为最后的训练结果。
应理解,上述列举的基于遗传算法对第一校正模型进行训练的过程仅为示例性说明,本申请并不限定于此,其他的强化学习算法能够对原始校正模型进行参数调节得到第一校正模型的训练方法均落入本申请的保护范围内。
可选地,在本发明实施例中,第一校正模型可以为一个全连接神经网络。全连接神经网络是由神经单元组成的,神经单元可以是指以Xs和截距1为输入的运算单元,该运算单元的输出可以为:
其中,s=1、2、……n,n为大于1的自然数,Ws为Xs的权重,b为神经单元的偏置。f为神经单元的激活函数(activation functions),用于将非线性特性引入全连接神经网络中来,将神经单元中的输入信号转换为输出信号。该激活函数的输出信号可以作为下一层卷积层的输入。激活函数可以是sigmoid函数。该全连接网络包含N层神经元,其中N大于等于2,神经网络是将许多个上述单一的神经单元联结在一起形成的网络,即一个神经单元的输出可以是另一个神经单元的输入。具体来说,每条连线上以及每个神经元都分别对应于一个可训练的参数,即上述的权重Ws和神经单元的偏置b。通过上述训练过程调整参数,可以提升译码性能。
可选地,第一校正模型可以为只有一个神经元的模式。这种简化的实现可以大幅降低大量参数训练的复杂度,同时还能够提升译码性能。
应理解,上述列举的第一校正模型为全连接神经网络或一个神经元的形式仅为示例性说明,本申请并不限定于此,其他的能够根据训练对参数进行调整的模型也能够作为第一校正模型均落入本申请的保护范围内。
在本申请实施例中,经过第一校正模型校正后的译码结果由译码模块1中的第一输出单元进行输出。
在本申请实施例中,在由第一译码器、第一校正模型和第一输出单元执行译码方法的情况下,第一待译码信息所对应的最终的译码结果为校正后的第一译码结果。
根据本申请提供的方案,第一译码器对第一待译码信息进行译码,得到第一译码结果。根据第一校正模型对第一译码结果进行校正,以获取第一待译码信息的校正后第一译码结果。这样,提供了一种可以对传统译码器的译码结果进行校正的方案,相比于现有技术方案,本申请实施例通过对传统译码器的输出结果进行校正,能够达到提高译码性能的效果。
图6示出了根据本发明实施例的由两个译码模块执行的译码方法,此处所述的两个译码模块指第一类译码模块1和第一类译码模块2。如图6所示,该方法包括:
S610,根据第一译码器对第一待译码信息进行译码,得到第一译码结果,其中,该第一译码结果包括第一软信息或第一硬输出;
S620,根据第一校正模型对该第一译码结果进行校正,以获取该第一待译码信息的校正后的第一译码结果;
S630,根据第二译码器对第二待译码信息进行译码,得到第二译码结果,其中,该第二待译码信息包括该第一译码器从信道中接收的符号,以及该校正后的第一译码结果;
S640,根据第二校正模型对该第二译码结果进行校正,以获取该第二待译码信息的校正后的第二译码结果。
具体地说,在S630中,第二译码器与第一译码器可以为相同或者不同的传统的译码器,具体比如SC译码器、SCAN译码器。应理解,上述提到的译码器只是示例性的,并不对本申请实施例的保护范围构成限定。
具体地说,在S630中,第二译码器对第二待译码信息进行译码的译码方法也可以和第一译码器对第一译码信息进行译码的方法相同。具体译码方法可以包括但不限于以下几种:SC译码方法、SCL译码方法、SCAN译码方法、和积(sum product)方法、最小和(min-sum)方法、蔡斯(Chase)译码方法、分阶统计译码(ordered statistics decoding)方法、或方盒匹配(box-andmatch)译码方法。可以理解,其他译码方法也可应用于所描述的第二译码器,均属于本申请的保护范围。
具体地说,在S630中,第二译码器接收的第二待译码信息为第一译码器从信道中接收的符号以及经过第一校正模型校正后的第一译码结果。
具体地说,在S640中,根据第二校正模型对该第二译码结果进行校正,以获取该第二待译码信息的校正后的第二译码结果。
在本发明实施例中,第二校正模型可以是由外部训练设备预先训练好的,或者,该第二校正模型还可以是由第一类译码模块2中的第二校正单元训练得到的。
在本发明实施例中,与第一校正模型的训练方法相同,该第二校正模型也可以基于机器学习或深度学习训练而成,或者该第二校正模型也可以基于深度强化学习训练而成。
具体地说,第二校正模型是根据训练数据基于机器学习或深度学习训练方法对原始校正模型进行训练得到的。本申请实施例中训练数据#A包括:待译码信息#A1(即,训练译码信息的一例)、译码结果#A2(即,训练译码结果的一例)和期望的译码结果#A3(即,校正后的训练译码结果的一例),其中,该译码结果#A2是经过第二结构译码单元译码后所得到的译码结果。需要说明的是,在实际的应用中,训练数据可以来自于数据采集设备的采集,也有可能是从其他设备接收得到的。另外需要说明的是,外部训练设备也不一定完全基于训练数据进行第二校正模型的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。
具体地说,在本申请提供的实施例中,对第二校正模型的训练过程为:
步骤一:对信息比特序列进行编码,得到待译码信息,其中,信息比特序列为期望的译码结果;
步骤二:根据第二结构译码单元对待译码信息进行译码,得到译码结果;
步骤三:将该译码结果输入到原始校正模型,得到经该原始校正模型校正后的译码结果;
步骤四:调节该原始校正模型的参数,其中,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,该调节后的原始校正模型为该第二校正模型。
具体地说,经原始校正模型校正后的译码结果与该信息比特序列的偏差按照公式1进行计算。
具体地说,原始校正模型的参数具体为偏置B和每层的权重W,直到经该原始校正模型校正后的译码结果与该信息比特序列的偏差满足预设条件,预设条件可以为公式1所计算的偏差的结果为0。
具体地说,在本发明实施例中,也可以基于梯度下降法对第二校正模型进行训练。
应理解,上述列举的基于梯度下降法对第二校正模型进行训练的过程仅为示例性说明,本申请并不限定于此,其他的强化学习算法能够对原始校正模型进行参数调节得到第二校正模型的训练方法均落入本申请的保护范围内。
同第一校正模型,在本发明实施例中,第二校正模型可以为一个全连接神经网络,通过上述训练过程调整参数,学习到合适的参数之后,可以提升译码性能。或者,第二校正模型可以为只有一个神经元的模式。这种简化的实现可以大幅降低大量参数训练的复杂度,同时还能够提升译码性能。
应理解,上述列举的第二校正模型为全连接神经网络或一个神经元的形式仅为示例性说明,本申请并不限定于此,其他的能够根据训练对参数进行调整的模型也能够作为第二校正模型均落入本申请的保护范围内。
在本发明实施例中,经过第二校正模型校正后的第二译码结果由第二输出单元进行输出。
在本发明实施例中,第一待译码信息经过第一译码器、第一校正模型、第二译码器和第二校正模型的处理,最终得到其对应的译码结果为校正后的第二译码结果。
根据本申请提供的方案,第一译码器从信道接收的符号,以及校正后的第一译码结果共同作为第二译码器的输入,第二译码器对第二待译码信息进行译码,得到第二译码结果。根据第二校正模型对第二译码结果进行校正,以获取第二待译码信息的校正后第二译码结果。这样,提供了一种迭代译码的方法,针对经过第一译码器和第一校正模型之后还没有译码成功的情况,可以经过第二译码器和第二校正模型进行再译码,相比于现有技术的方案,能够达到提高译码性能的效果。
图7为根据本发明实施例的多个译码模块执行的译码方法示意图。如图7所示的译码方法由多个第一类译码模块执行,该方法包括:
S710,根据第一译码器对第一待译码信息进行译码,得到第一译码结果;
S720,根据第一校正模型对该第一译码结果进行校正,以获取该第一待译码信息的校正后的第一译码结果;
S730,根据第二译码器对第二待译码信息进行译码,得到第二译码结果,其中,该第二待译码信息包括该第一译码器从信道中接收的符号,以及该校正后的第一译码结果;
S740,根据第二校正模型对该第二译码结果进行校正,以获取该第二待译码信息的校正后的第二译码结果;
S750,根据该第N译码器对第N待译码信息进行译码,得到第N译码结果,其中,该第N待译码信息包括该第N译码器从信道中接收的符号,以及该校正后的第N-1译码结果,以及该校正后的第N-2译码结果该第N译码结果包括第N软信息或第N硬输出;
S760,根据第N校正模型对该第N译码结果进行校正,以获取该第N待译码信息的校正后的第N译码结果。
图7所示的译码方法与上述译码方法的区别在于第N译码器的输入。第N译码器的输入为第N译码器从信道中接收的符号,以及该校正后的第N-1译码结果,以及该校正后的第N-2译码结果,该第N译码结果包括第N软信息或第N硬输出,N为大于或等于3的整数。即,第一校正模型的输出结果可以作为第二译码器的输入,同时也可以作为第N译码器的输入。
第N译码器在译码之前,对第N译码器对从信道中接收的符号,以及该校正后的第N-1译码结果,以及该校正后的第N-2译码结果三者进行概率叠加,形成待译码信息的软信息或者硬比特。第N译码器对该待译码信息的软信息或者硬比特进行译码,其后,由第N校正模型进行校正,如果校正后的软信息或者硬比特每位比特都为0,则代表该第N译码器虽然接收信道中接收的符号,以及该校正后的第N-1译码结果,以及该校正后的第N-2译码结果,但该第N译码器和该第N校正模型在迭代译码的过程中并未使用。
在本发明实施例中,第N校正模型的训练过程与第一校正模型或第二校正模型的训练过程相同,在此不再赘述。
在本发明实施例中,第一待译码信息经过N个译码器以及N各校正模型的译码处理,最终得到其对应的译码结果为校正后的第N译码结果。
根据本申请提供的方案,第N译码器对从信道中接收的符号,以及该校正后的第N-1译码结果,以及该校正后的第N-2译码结果该第N译码结果包括第N软信息或第N硬输出,N为大于或等于3的整数。第N译码器对第N待译码信息进行译码,得到第N译码结果。根据第N校正模型对第N译码结果进行校正,以获取第N待译码信息的校正后第N译码结果。如果第N译码结果的每个比特为都为0,则代表该第N译码器和第N校正模型在该次并行译码过程中并未使用。这样,提供了一种可以对传统译码器的译码结果进行校正的方案,相比于现有技术方案,本申请实施例通过对传统译码器的输出结果进行校正,同时能够自主选择所要使用的第N译码器和第N校正模型,能够达到提高译码性能的效果。
下面结合图8描述根据本发明实施例的译码装置包括单个另一种译码模块的示意图。如图8所示,该译码装置800包括单个译码模块,即只包括第二类译码模块1,该第二类译码模块1包括但不限于:判决单元810、第一结构译码单元820、第一一次校正单元830、第一输出单元840和第一二次校正单元850。判决单元与第一结构译码单元可以直接通信连接,也可以和第一二次校正单元直接通信连接,第一结构译码单元与第一一次校正单元可以直接通信连接,第一一次校正单元和第一输出单元可以直接通信连接,第一输出单元与其他译码模块的结构译码单元可以直接通信连接,第一二次校正单元可以与第一输出单元直接通信连接,第一二次校正单元只与判决单元和第一输出单元直接通信连接。
其中,第一结构译码单元、第一一次校正单元、第一二次校正单元和第一输出单元分别包括一个输入端口和一个输出端口,判决单元包括三个端口,其中,包括1个输入端口和两个输出端口。具体地说,判决单元的输入端口用于接收信道传递的符号,判决单元的一个输出端口与第一结构译码单元的输入端口相连接,另外一个输出端口与第一二次校正单元的输入端口相连接,第一结构译码单元的输出端口与第一一次校正单元的输入端口相连接,第一一次校正单元的输出端口与第一输出单元的输入端口相连接,第一二次校正单元的输入端口与判决单元相连接,第一二次校正单元的输出端口和第一输出单元的输入端口相连接。
其中,第一一次校正单元保存有一个第一一次校正模型,第一二次校正单元保存有一个第一二次校正模型。
在本发明实施例中,判决单元具体用于判断第一译码信息是否为一个码字。判断是否为一个码字,可以根据汉明码译码来实现,具体可以根据如下方法:
c×H=0 公式2
其中,H表示该码字的校验矩阵,c表示输入的符号序列。
如公式2所述,若公式2的计算结果为0,则表示第一待译码信息为码字,判决单元输出信号0,第一结构译码单元接收判决单元输出的信号0,则第一结构译码单元对第一待译码信息进行译码,得到第一译码结果,具体译码方法与图2中所述的第一结构译码单元210相同,在此不再赘述。
得到译码结果之后,第一一次校正单元接收该译码结果,对该译码结果进行校正,以获取该信道中接收到的符号对应的校正后的第一译码结果。
在本发明实施例中,第一一次校正单元是基于第一一次校正模型来执行校正过程。该第一一次校正模型可以是由外部训练设备预先训练好的,或者,该第一一次校正模型还可以是由该第一一次校正单元训练得到的。
在本发明实施例中,对该第一一次校正模型的训练方法及训练过程与对第一校正模型的训练方法及训练过程相同。类似地,该第一一次校正模型可以是指一个网络,具体比如该第一一次校正模型可以为一个全接神经网络模型、一个单个神经元模型或者AI模型。
在本发明实施例中,该第二类译码模块1还包括第一输出单元,用于将第一一次校正单元校正后的第一译码结果进行输出。
可选地,若公式2计算结果不为0,表示第一待译码信息不是码字,判决单元输出信号1。在此种情况下,由第一二次校正单元接收判决单元输出的信号1,对第一待译码信息进行校正,以获取该第一待译码信息的校正后的第一译码结果,然后由第一输出单元直接输出。
在本发明实施例中,第一二次校正单元是基于第一二次校正模型来执行校正过程。该第一二次校正模型可以是由外部训练设备预先训练好的,或者,该第一二次校正模型还可以是由该第一二次校正单元训练得到的。
在本发明实施例中,对该第一二次校正模型的训练方法及训练过程与对第一校正模型的训练方法及训练过程相同。类似地,该第一二次校正模型可以是指一个网络,具体比如该第一二次校正模型可以为一个全接神经网络模型、一个单个神经元模型或者AI模型。
在本发明实施例中,第一输出单元840用于输出第一一次校正模型校正后的译码结果,或者用于输出经过第一二次校正单元校正后的第一译码结果。具体地,第一输出单元840能够将第一一次校正单元或第一二次校正单元校正后的第一译码结果输出至第二结构译码器和第三结构译码器,或者输出至第N结构译码器和第N+1结构译码器作为输入。
具体而言,在第一结构译码单元820从信道中接收符号作为第一待译码信息,由第一结构译码单元820对该第一待译码信息进行译码,得到第一译码结果之前,由判决单元810对该第一待译码信息进行硬判决,判断该第一待译码信息是否需要进行译码。判断该第一待译码信息需要进行译码,由第一结构译码单元820对该第一待译码信息进行译码,得到第一译码结果。该第一译码结果可能是软信息或者经过硬判决之后的硬输出。其后,由第一一次校正单元830对第一译码结果进行校正。其中,该第一一次校正单元830是根据训练数据训练获得的。训练数据包括训练译码结果和校正后的训练译码结果,训练译码结果是训练待译码信息经由第一结构译码单元820译码后获得的译码结果,校正后的训练译码结果是训练译码结果对应的校正后的译码结果。判断该第一译码信息不需要进行译码,由第一二次校正单元850对该第一译码信息进行校正,由第一输出单元840进行输出。
应理解,在本发明实施例中,在译码装置只包括单个第二类译码模块1的情况下,译码装置的输出结果为由第一输出单元输出的校正后的第一译码结果。
因此,本发明实施例的另一单个译码模块,通过加入判决单元对待译码信息进行先判决,判决需要译码时,经过第一结构译码单元和第一校正单元以及第一输出单元输出第一待译码信息对应最终的校正后的第一译码结果;判断不需要译码时,由第一二次校正单元对结果进行校正,不经过第一结构译码单元而直接产生输出值,能够实现对译码器的译码结果进行校正,从而提高译码性能,并且能够降低译码复杂度。
在一种情况下,本发明实施例的译码装置还可以包括两个另一译码模块。如图9所示,该译码模块900包括两个第二类译码模块,分别为第二类译码模块1和第二类译码模块2其中第二类译码模块1如图8中所述,此处不再赘述。类似地,该第二类译码模块2包括但不限于:判决单元910、第二结构译码单元920、第二一次校正单元930、第二输出单元940和第二二次校正单元950。第一输出单元840与判决单元910可以直接通信连接,判决单元910与第二结构译码单元920可以直接通信连接,第二校正单元920与第二一次校正单元930可以直接通信连接,第二一次校正单元930和第二输出单元940可以直接通信连接,第二输出单元940与其他译码模块的结构译码单元可以直接通信连接,第二二校正单元与判决单元910可以直接通信连接,也可以与第二输出单元940直接通信连接。
其中,第二结构译码单元、第二一次校正单元、第二二次校正单元和第二输出单元分别包括一个输入端口和一个输出端口,判决单元包括三个端口,其中,包括1个输入端口和两个输出端口。具体地说,判决单元的输入端口用于接收第一输出单元输出的第一译码结果,判决单元的一个输出端口与第一结构译码单元的输入端口相连接,另外一个输出端口与第二二次校正单元的输入端口相连接,第二结构译码单元的输出端口与第二一次校正单元的输入端口相连接,第二一次校正单元的输出端口与第二输出单元的输入端口相连接,第二二次校正单元的输入端口与判决单元相连接,第二二次校正单元的输出端口和第二输出单元的输入端口相连接。判决单元810、第一结构译码单元、第一一次校正单元和第一输出单元的连接关系如图8中所述。
其中,第二一次校正单元保存有一个第二一次校正模型,第二二次校正单元保存有一个第二二次校正模型。
在本发明实施例中,判决单元910用于判断第一输出单元输出的第一译码结果是否为一个码字。具体判决方法如公式2所述。
若公式2的计算结果为0,则表示第一译码结果为码字,判决单元输出信号0。第二结构译码单元接收判决单元输出的信号0,则第二结构译码单元对第一待译码信息进行译码,得到第二译码结果,具体译码方法与图3中所述的第二结构译码单元相同,在此不再赘述。
得到译码结果之后,第二一次校正单元接收该译码结果,对该译码结果进行校正,以获取该第二译码结果对应的校正后的第二译码结果。
在本发明实施例中,第二一次校正单元是基于第二一次校正模型来执行校正过程。该第二一次校正模型可以是由外部训练设备预先训练好的,或者,该第二一次校正模型还可以是由该第二一次校正单元训练得到的。
在本发明实施例中,对该第二一次校正模型的训练方法及训练过程与对第二校正模型的训练方法及训练过程相同。类似地,该第二一次校正模型可以是指一个网络,具体比如该第二一次校正模型可以为一个全接神经网络模型、一个单个神经元模型或者AI模型。
在本发明实施例中,该第二类译码模块2还包括第二输出单元,用于将第二一次校正单元校正后的第二译码结果进行输出。
可选地,若公式2计算结果不为0,表示第一译码结果不是码字,判决单元输出信号1。在此种情况下,由第二二次校正单元接收判决单元输出的信号1,对第一译码结果进行校正,以获取该第一译码结果的再次校正后的第一译码结果,然后由第二输出单元直接输出。
在本发明实施例中,第二二次校正单元是基于第二二次校正模型来执行校正过程。该第二二次校正模型可以是由外部训练设备预先训练好的,或者,该第二二次校正模型还可以是由该第二二次校正单元训练得到的。
在本发明实施例中,对该第二二次校正模型的训练方法及训练过程与对第二校正模型的训练方法及训练过程相同。类似地,该第二二次校正模型可以是指一个网络,具体比如该第二二次校正模型可以为一个全接神经网络模型、一个单个神经元模型或者AI模型
在本发明实施例中,第二输出单元940用于输出第二一次校正模型校正后的译码结果,或者用于输出经过第二二次校正单元校正后的第二译码结果。具体地,第二输出单元940能够将第二一次校正单元或第二二次校正单元校正后的第二译码结果输出至第三结构译码器和第四结构译码器,或者输出至第N结构译码器和第N+1结构译码器作为输入。
在本发明实施例中,在译码装置包含两个第二类译码模块,即第二类译码模块1和第二类译码模块2的情况下,该译码装置输入为第一待译码信息,输出第一待译码信息对应的译码结果,即校正后的第二译码结果。
具体而言,判决单元910对校正后的第一译码结果进行判决,判断该校正后的第一译码结果为码字,判决单元910输出信号0。第二结构译码单元920从信道中接收的符号以及校正后的第一译码结果共同作为第二结构译码单元920的第二待译码信息,由第二结构译码单元920对该第二待译码信息进行译码,得到第二译码结果。该第二译码结果可能是软信息或者经过硬判决之后的硬输出。其后,由第二一次校正单元930对第二译码结果进行校正。其中,该第二一次校正单元930也是根据训练数据训练获得的。训练数据包括训练译码结果和校正后的训练译码结果,该训练译码结果是训练待译码信息经由第二结构译码单元920译码后获得的译码结果,校正后的训练译码结果是训练译码结果对应的校正后的译码结果。或者,判决单元910判断该校正后的第一译码结果不是码字,输出信号1。由第二二次校正单元950对该校正后的第一译码结果进行进一步校正,由第二输出单元940输出。
因此,本发明实施例的两个另一译码模块的叠加使用,通过加入判决单元对待译码信息进行先判决,判决需要译码时,经过第二结构译码单元和第二校正单元以及第二输出单元输出结果;判断不需要译码时,由第二二次校正单元对结果进行校正,不经过第二结构译码单元而直接产生输出值,能够实现对译码器的译码结果进行校正,从而提高译码性能,并且能够降低译码复杂度。
在另一种情况下,本发明实施例的译码装置还可以包括多个另一种译码模块。如图10所示,该译码装置1000包括N个第二类译码模块,分别为第二类译码模块1、第二类译码模块2和第二类译码模块N。具体比如,该译码装置1000可以包括:第二类译码模块1、第二类译码模块2和第二类译码模块3,或者,该译码装置1000可以包括:第二类译码模块1、第二类译码模块2、第二类译码模块3和第二类译码模块4,具体包括的译码模块的数目在本申请中并不限定,其他包含多个第二类译码模块的译码装置均落入本申请的保护范围内。
其中,第二类译码模块1和第二类译码模块2如图9中所述,此处不再赘述。类似地,第二类译码模块N包括但不限于:判决单元1010、第N结构译码单元1020、第N一次校正单元1030、第N输出单元1040和第N二次校正单元1050。其中,判决单元1010与第N结构译码单元可以直接通信连接,还可以与第N二次校正单元直接通信连接,第N结构译码单元1010与第N一次校正单元1030可以直接通信连接,第N一次校正单元1030与第N输出单元1040可以直接通信连接,第N二次校正单元1050与第N输出单元1040可以直接通信连接。
其中,第N结构译码单元1020、第N一次校正单元1030、第N二次校正单元1050和第N输出单元1040分别包括一个输入端口和一个输出端口。具体地说,判决单元的输入端口用于接收第N-1输出单元的输出,判决单元的一个输出端口与第N结构译码单元的输入端口相连接,另外一个输出端口与第N二次校正单元的输入端口相连接,第N结构译码单元的输出端口与第N一次校正单元的输入端口相连接,第N一次校正单元的输出端口与第N输出单元的输入端口相连接,第N二次校正单元的输入端口与判决单元相连接,第N二次校正单元的输出端口和第N输出单元的输入端口相连接。第二类译码模块1和第二类译码模块2中的各单元的连接方式如图8和图9所述。
其中,第N一次校正单元保存有一个第N一次校正模型,第N二次校正单元保存有一个第N二次校正模型。
同样地,判决单元1010用于判断校正后的第N-1译码结果是否为一个码字。具体判断方法为公式2所述。
如公式2所述,若公式2的计算结果为0,则表示第N-1译码结果为码字,判决单元输出信号0,第N结构译码单元接收判决单元输出的信号0,则第N译码器对第N-1译码结果与第N-2译码结果的概率叠加后的结果进行译码,得到第N译码结果,具体译码方法与图2中所述的第一结构译码单元210相同,在此不再赘述。
得到译码结果之后,第N一次校正单元接收该译码结果,对该译码结果进行校正,以获取对应的校正后的第N译码结果。
在本发明实施例中,第N一次校正单元是基于第N一次校正模型来执行校正过程。该第N一次校正模型可以是由外部训练设备预先训练好的,或者,该第N一次校正模型还可以是由该第N一次校正单元训练得到的。
在本发明实施例中,对该第N一次校正模型的训练方法及训练过程与对第一校正模型的训练方法及训练过程相同。类似地,该第N一次校正模型可以是指一个网络,具体比如该第N一次校正模型可以为一个全接神经网络模型、一个单个神经元模型或者AI模型。
在本发明实施例中,该第二类译码模块N还包括第N输出单元,用于将第N一次校正单元校正后的第N译码结果进行输出。
可选地,若公式2计算结果不为0,表示第一待译码信息不是码字,判决单元输出信号1。在此种情况下,由第N二次校正单元接收判决单元输出的信号1,对第N-1译码结果进行再次校正,以获取该第N-1译码结果的再次校正后的第N-1译码结果,然后由第N输出单元直接输出。
在本发明实施例中,第N二次校正单元是基于第N二次校正模型来执行校正过程。该第N二次校正模型可以是由外部训练设备预先训练好的,或者,该第N二次校正模型还可以是由该第N二次校正单元训练得到的。
在本发明实施例中,对该第N二次校正模型的训练方法及训练过程与对第一校正模型的训练方法及训练过程相同。类似地,该第N二次校正模型可以是指一个网络,具体比如该第N二次校正模型可以为一个全接神经网络模型、一个单个神经元模型或者AI模型。
在本发明实施例中,第N输出单元1040用于输出第N一次校正模型校正后的译码结果,或者用于输出经过第N二次校正单元校正后的第N译码结果。具体地,第N输出单元1040能够将第N一次校正单元或第N二次校正单元校正后的第N译码结果输出至第N+1结构译码器和第N+2结构译码器作为输入。
在本发明实施例中,译码装置包含多个第二类译码模块的情况下,第一待译码信息为该译码装置的输入,该第一待译码信息经过多个第二类译码模块译码处理后,该译码模块输出对该第一待译码信息的译码结果为经过校正后的第N译码结果。
本发明实施例的另一多个译码模块,通过加入判决单元对待译码信息进行先判决,判决需要译码时,经过第N结构译码单元和第N校正单元以及第N输出单元输出结果;判断不需要译码时,由第N二次校正单元对结果进行校正,不经过第N结构译码单元而直接产生输出值,能够实现对译码器的译码结果进行校正,从而提高译码性能,并且能够降低译码复杂度。
图11示出了本发明实施例中根据单个另一种译码模块执行的译码方法。如图11所示,该方法包括:
S1100,判决单元判断该第一译码信息是码字。
具体地,对接收到的第一待译码信息根据公式2进行判断。若判断接收到的第一待译码信息为待译码码字、待译码码块、码块或码字,则判决单元输出信号0。
在本申请中,判决单元可以由一个全连接网络充当。该全连接网络是基于训练数据训练获得的,该训练数据包括待译码信息和经过校验的待译码信息,该待译码信息是第一译码器接收的输入符号,该经过校验的待译码信息是待译码信息对应的经过校验的待译码信息。
可选地,判决单元也可以由一个预先配置好的单元充当。例如,判决单元可以是一个检错装置。
S1200,第一译码器接收判断单元输出的信号0,则第一译码器对第一待译码信息进行译码,得到第一译码结果,其中,第一译码结果包括第一软信息或第一硬输出。
S1300,第一一次校正模型对第一译码结果进行校正,以获取第一待译码信息的校正后的第一译码结果。
可选地,在本发明实施例中,判决单元还能够判断第一待译码信息不是码字,则输出1。其后,第一译码器接收到信号1,则不需要再经过第一译码器进行译码。由判决单元经过判决后的第一待译码信息作为第一二次校正模型的输入,由第一二次校正模型对该第一译码信息进行校正,以获取该第一待译码信息的校正后的第一译码结果。其中,该第一二次校正模型也是由基于训练数据训练获得的,训练方式和第一一次校正模型相同。
在一种情况中,本发明实施例能够根据两个另一种译码模块执行译码方法。由两个另一种译码模块执行的译码方法为:在图11中所述的译码方法的基础上,由第二译码器对第二待译码信息(即第一译码结果)进行译码之前,由判决单元判断第二译码信息是码字。判决方法仍然如公式2所述。
具体地说,判决单元对接收到的第二待译码信息进行判决。若判断接收到的第二待译码信息为码字,也可以称为待译码码字、待译码码块、码块或码字,则输出0。其后,第二译码器接收判断单元输出的信号0,对第二待译码信息进行译码,得到第二译码结果。
其后,第二一次校正模型对第二译码结果进行校正,以获取第二待译码信息的校正后的第二译码结果。
可选地,在本发明实施例中,判决单元还能够判断第二待译码信息不是码字,则输出1。其后,第二译码器接收到信号1,则不需要再经过第二译码器进行译码。由判决单元经过判决后的第二待译码信息作为第二二次校正模型的输入,由第二二次校正模型对该第二译码信息进行校正,以获取该第二待译码信息的校正后的第二译码结果。其中,该第二二次校正模型是由基于训练数据训练获得的,训练方式和第二一次校正模型相同。
在另一种情况中,本发明实施例能够根据多个另一种译码模块执行译码方法。由多个另一种译码模块执行的译码方法为在由两个译码模块执行译码方法的基础上,根据第N译码器对第N待译码信息进行译码之前,由判决单元判断第N译码信息是码字。
具体地说,判决单元对接收到的第N待译码信息进行判决,判决方法如公式2所述。若判断接收到的第N待译码信息为码字,也可以称为待译码码字、待译码码块、码块或码字,则输出信号0,其后,第N译码器接收判断单元输出的信号0,对第N待译码信息进行译码,得到第N译码结果。
其后,第N一次校正模型对第N译码结果进行校正,以获取第N待译码信息的校正后的第N译码结果。
可选地,在本发明实施例中,判决单元还能够判断第N待译码信息不是码字,则输出1。其后,第N译码器接收到信号1,则不需要再经过第N译码器进行译码。由判决单元经过判决后的第N待译码信息作为第N二次校正模型,由第N二次校正模型对第N待译码信息进行校正,以获取该第N待译码信息的校正后的第N译码结果。其中,该第N二次校正模型也是由基于训练数据训练获得的,训练方式和第N一次校正模型相同。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (18)
1.一种译码方法,其特征在于,所述方法包括:
根据第一译码器对第一待译码信息进行译码,得到第一译码结果,其中,所述第一译码结果包括第一软信息或第一硬输出;
根据第一校正模型对所述第一译码结果进行校正,以获取所述第一待译码信息的校正后的第一译码结果,其中,所述第一校正模型是基于训练数据训练获得的,所述训练数据包括训练译码结果和校正后的训练译码结果,所述训练译码结果是训练待译码信息经由所述第一译码器译码后获得的译码结果,所述校正后的训练译码结果是所述训练译码结果对应的校正后的译码结果。
2.根据权利要求1所述的译码方法,其特征在于,所述第一待译码信息包括所述第一译码器从信道中接收的符号。
3.根据权利要求1或2所述的译码方法,其特征在于,根据第一译码器对第一待译码信息进行译码,所述方法还包括:
根据第一判决单元判断所述第一待译码信息是码字。
4.根据权利要求1至3中任一项所述的译码方法,其特征在于,所述方法还包括:
根据第二译码器对第二待译码信息进行译码,得到第二译码结果,其中,所述第二待译码信息包括所述第二译码器从信道中接收的符号,以及所述校正后的第一译码结果,所述第二译码结果包括第二软信息或第二硬输出;
根据第二校正模型对所述第二译码结果进行校正,以获取所述第二待译码信息的校正后的第二译码结果。
5.根据权利要求4所述的译码方法,其特征在于,根据第二译码器对第二待译码信息进行译码,所述方法还包括:
根据第二判决单元判断所述第二待译码信息是码字。
6.根据权利要求4或5所述的译码方法,其特征在于,所述方法还包括:
根据所述第N译码器对第N待译码信息进行译码,得到第N译码结果,其中,所述第N待译码信息包括所述第N译码器从信道中接收的符号,以及所述校正后的第N-1译码结果,以及所述校正后的第N-2译码结果,所述第N译码结果包括第N软信息或第N硬输出,N为大于或等于3的整数;
根据第N校正模型对所述第N译码结果进行校正,以获取所述第N待译码信息的校正后的第N译码结果。
7.根据权利要求6所述的译码方法,其特征在于,根据第N译码器对第N待译码信息进行译码,所述方法还包括:
根据第N判决单元判断所述第N待译码信息是码字。
8.根据权利要求1至7中任一项所述的译码方法,其特征在于,所述方法还包括:
对训练信息比特序列进行编码,得到训练待译码信息,其中,所述训练信息比特序列为所述校正后的训练译码结果;
根据所述第一译码器对所述训练待译码信息进行译码,得到训练译码结果;
将所述训练译码结果输入到原始校正模型,得到经所述原始校正模型校正后的训练译码结果;
调节所述原始校正模型参数,直到经所述原始校正模型校正后的训练译码结果与所述训练信息比特序列的偏差满足预设条件,所述调节后的原始校正模型为所述第一校正模型。
9.一种译码装置,其特征在于,包括:
第一结构译码单元,用于对第一待译码信息进行译码,得到第一译码结果,其中,所述第一译码结果包括第一软信息或第一硬输出;
第一校正单元,用于根据第一校正模型对所述第一译码结果进行校正,以获取所述第一待译码信息的校正后的第一译码结果,其中,所述第一校正模型是基于训练数据训练获得的,所述训练数据包括训练译码结果和校正后的训练译码结果,所述训练译码结果是训练待译码信息经由所述第一结构译码单元译码后获得的译码结果,所述校正后的训练译码结果是所述训练译码结果对应的校正后的译码结果。
10.根据权利要求9所述的译码装置,其特征在于,所述第一结构译码单元具体用于:从信道中接收符号。
11.根据权利要求9或10所述的译码装置,其特征在于,根据第一结构译码单元对第一待译码信息进行译码,所述译码装置还包括:
第一判决单元,用于判断所述第一待译码信息是码字。
12.根据权利要求9至11中任一项所述的译码装置,其特征在于,所述译码装置还包括:
第二结构译码单元,用于对第二待译码信息进行译码,得到第二译码结果,其中,所述第二待译码信息包括所述第二结构译码单元从信道中接收的符号,以及所述校正后的第一译码结果,所述第二译码结果包括第二软信息或第二硬输出;
第二校正单元,用于根据第二校正模型对所述第二译码结果进行校正,以获取所述第二待译码信息的校正后的第二译码结果。
13.根据权利要求12所述的译码装置,其特征在于,根据第二结构译码单元对第二待译码信息进行译码,所述译码装置还包括:
第二判决单元,用于判断所述第二待译码信息是码字。
14.根据权利要求12或13所述的译码装置,其特征在于,所述译码装置还包括:
第N结构译码单元,用于对第N待译码信息进行译码,得到第N译码结果,其中,所述第N待译码信息包括所述第N结构译码单元从信道中接收的符号,以及所述校正后的第N-1译码结果,以及所述校正后的第N-2译码结果,所述第N译码结果包括第N软信息或第N硬输出,N为大于或等于3的整数;
第N校正单元,用于根据第N校正模型对所述第N译码结果进行校正,以获取所述第N待译码信息的校正后的第N译码结果。
15.根据权利要求14所述的译码装置,其特征在于,根据第N结构译码单元对第N待译码信息进行译码,所述译码装置还包括:
第N判决单元,用于判断所述第N待译码信息是码字。
16.根据权利要求9至15中任一项所述的译码装置,其特征在于,包括:
对训练信息比特序列进行编码,得到训练待译码信息,其中,所述训练信息比特序列为所述校正后的训练译码结果;
根据所述第一结构译码单元对所述训练待译码信息进行译码,得到训练译码结果;
将所述训练译码结果输入到原始校正单元,得到经所述原始校正单元校正后的训练译码结果;
调节所述原始校正单元参数,直到经所述原始校正单元校正后的训练译码结果与所述训练信息比特序列的偏差满足预设条件,所述调节后的原始校正单元为所述第一校正单元。
17.一种计算机可读存储介质,其特征在于,包括计算机程序,当其在计算机上运行时,使得所述计算机执行如权利要求1至8中任意一项所述的译码方法。
18.一种芯片系统,其特征在于,包括:
处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片系统的设备执行如权利要求1至8中任意一项所述的译码方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011125229.XA CN114389620A (zh) | 2020-10-20 | 2020-10-20 | 一种译码方法和装置 |
PCT/CN2021/120108 WO2022083400A1 (zh) | 2020-10-20 | 2021-09-24 | 一种译码方法和装置 |
US18/301,724 US20230261676A1 (en) | 2020-10-20 | 2023-04-17 | Decoding Method and Apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011125229.XA CN114389620A (zh) | 2020-10-20 | 2020-10-20 | 一种译码方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114389620A true CN114389620A (zh) | 2022-04-22 |
Family
ID=81192586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011125229.XA Pending CN114389620A (zh) | 2020-10-20 | 2020-10-20 | 一种译码方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230261676A1 (zh) |
CN (1) | CN114389620A (zh) |
WO (1) | WO2022083400A1 (zh) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1551508A (zh) * | 2002-06-17 | 2004-12-01 | Go-Cdma有限公司 | 根据完全择多逻辑表示优化信号译码的方法 |
US9331717B2 (en) * | 2009-02-27 | 2016-05-03 | Blackberry Limited | Forward error correction decoding avoidance based on predicted code block reliability |
US10382067B2 (en) * | 2017-06-08 | 2019-08-13 | Western Digital Technologies, Inc. | Parameterized iterative message passing decoder |
CN108880568A (zh) * | 2018-07-06 | 2018-11-23 | 中国石油大学(华东) | 一种基于卷积神经网络的串行抵消列表译码参数优化方法 |
CN109921803B (zh) * | 2019-03-06 | 2021-06-25 | 西安电子科技大学 | 基于神经网络的高密度线性分组码译码方法 |
CN110098838B (zh) * | 2019-04-30 | 2022-03-22 | 天津大学 | Ldpc-rs乘积码的纠错纠删迭代译码方法 |
CN110515760B (zh) * | 2019-08-29 | 2023-05-02 | 北京计算机技术及应用研究所 | 一种基于机器学习的ldpc闪存纠错方法 |
CN110730006B (zh) * | 2019-10-25 | 2023-06-16 | 华南理工大学 | 一种用于mcu的ldpc码纠错方法及纠错模块 |
CN110798225A (zh) * | 2019-11-06 | 2020-02-14 | 深圳大普微电子科技有限公司 | 一种数据纠错方法、装置、设备及可读存储介质 |
CN111200441B (zh) * | 2020-03-27 | 2022-07-15 | 苏州科达科技股份有限公司 | 一种Polar码译码方法、装置、设备及可读存储介质 |
-
2020
- 2020-10-20 CN CN202011125229.XA patent/CN114389620A/zh active Pending
-
2021
- 2021-09-24 WO PCT/CN2021/120108 patent/WO2022083400A1/zh active Application Filing
-
2023
- 2023-04-17 US US18/301,724 patent/US20230261676A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230261676A1 (en) | 2023-08-17 |
WO2022083400A1 (zh) | 2022-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9287939B2 (en) | Method for joint optimization of schedule and resource allocation based on the genetic algorithm | |
EP2912782B1 (en) | Systems and methods for sparse code multiple access | |
US9602241B2 (en) | Computing system with polar processing mechanism and method of operation thereof | |
US11671115B2 (en) | High-rate long LDPC codes | |
US10862626B2 (en) | Multi-label offset lifting method | |
CN109314524A (zh) | 使用通用极化码时通过异构内核进行速率匹配的系统和方法 | |
US20150146565A1 (en) | Method and apparatus for downlink transmission in a cloud radio access network | |
CN109450594B (zh) | 云接入网上行链路的无速率码度数分布优化方法 | |
CN113193893A (zh) | 毫米波大规模mimo智能混合波束成形设计方法 | |
CN114465643B (zh) | 一种基于梯度下降法的毫米波大规模mimo天线系统的混合预编码方法 | |
Yuan et al. | Latency-critical downlink multiple access: A hybrid approach and reliability maximization | |
US20210281279A1 (en) | Device and method for encoding and decoding using polar code in wireless communication system | |
CN114268348A (zh) | 一种基于深度强化学习的无蜂窝大规模mimo功率分配方法 | |
CN110224729A (zh) | 用于去蜂窝大规模mimo系统的数据传输方法 | |
WO2023125660A1 (zh) | 一种通信方法及装置 | |
WO2022083400A1 (zh) | 一种译码方法和装置 | |
Vidal Beltran et al. | Sparse code multiple access codebook design using singular value decomposition | |
EP3678312B1 (en) | Method of transceiving signal by using polar code and device for performing the method | |
Yang et al. | Reliability-oriented designs in uav-assisted noma transmission with finite blocklength codes and content caching | |
Wang et al. | Sparse power control for downlink cell-free massive MIMO systems with limited backhaul capacities | |
WO2023006096A1 (zh) | 一种通信方法及装置 | |
CN114759956B (zh) | 一种单比特adc上行多用户mimo深度展开预编码方法 | |
CN113472472B (zh) | 基于分布式强化学习的多小区协同波束赋形方法 | |
CN111490797B (zh) | 编码方法、装置及设备 | |
US20240187295A1 (en) | Ai/ml empowered high order modulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |