JP2022511771A - 符号化方法及び装置並びに復号化方法及び装置 - Google Patents

符号化方法及び装置並びに復号化方法及び装置 Download PDF

Info

Publication number
JP2022511771A
JP2022511771A JP2021529778A JP2021529778A JP2022511771A JP 2022511771 A JP2022511771 A JP 2022511771A JP 2021529778 A JP2021529778 A JP 2021529778A JP 2021529778 A JP2021529778 A JP 2021529778A JP 2022511771 A JP2022511771 A JP 2022511771A
Authority
JP
Japan
Prior art keywords
neural network
initial
input information
network unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021529778A
Other languages
English (en)
Other versions
JP7228042B2 (ja
Inventor
シュイ,チェン
リ,ルゥォン
ユィ,ティアンハン
チアオ,ユンフェイ
ドゥ,インガン
ホアン,リンチェン
ワン,ジュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2022511771A publication Critical patent/JP2022511771A/ja
Application granted granted Critical
Publication of JP7228042B2 publication Critical patent/JP7228042B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/13Linear codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6597Implementations using analogue techniques for coding or decoding, e.g. analogue Viterbi decoder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/03Shaping networks in transmitter or receiver, e.g. adaptive shaping networks
    • H04L25/03006Arrangements for removing intersymbol interference
    • H04L25/03165Arrangements for removing intersymbol interference using neural networks

Abstract

本願の実施形態は、符号化方法及び装置、並びに復号化方法及び装置を提供し、通信分野に関連する。本方法において、対応するニューラル・ネットワーク・ユニットは、カーネル行列に基づいて生成されることが可能であり、そして符号化ニューラル・ネットワーク又は復号化ニューラル・ネットワークはニューラル・ネットワーク・ユニットから構成されることが可能である。かくて、符号化ニューラル・ネットワーク又は復号化ニューラル・ネットワークは、小さなニューラル・ネットワーク・ユニットが接続された後に取得され、その結果、符号化/復号化の学習プロセスにおいて、ニューラル・ネットワークの複雑性及び学習困難性に関する比較的長いコードワードを伴う情報の影響を弱めるために、少ない学習サンプルを使用することによって、コードワード空間全体に対して一般化を実現することが可能である。

Description

本願の実施形態は、通信分野、特に符号化方法及び装置並びに復号化方法及び装置に関連する。
現在、従来技術における符号化/復号化の学習プロセスでは、エンコーダ/デコーダはコードワード空間全体のサンプルを学習することを必要とする。ポーラー符号(Polar)の符号化特殊性に起因して、符号長は増加する。従って、ポーラー符号に対応するコードブック空間全体のうちのコード・シーケンスの量は、指数関数的に増加する。従って、従来技術において、情報ビットの量が比較的大きい場合には、コードワード空間全体を横断する複雑さが大幅に増加し、実装の複雑性は比較的高い。
本願は符号化方法及び装置並びに復号化方法及び装置を提供し、コードワード空間での探索におけるコード長の影響をある程度弱め、それによって符号化/復号化の学習効率を改善する。
上記の目的を達成するために、本願では以下の技術的解決策が使用される。
第1態様によれば、本願の実施形態は符号化方法を提供する。本方法は、第1入力情報を取得するステップと、次いで、取得した第1入力情報を、符号化ニューラル・ネットワークに基づいて符号化して、第1出力情報を取得及び出力するステップとを含むことが可能である。符号化ニューラル・ネットワークは第1ニューロン・パラメータを含む。第1ニューロン・パラメータは、第1入力情報と第1出力情報との間のマッピング関係を示すために使用されることが可能である。符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期符号化ニューラル・ネットワークが訓練された後に取得される。初期符号化ニューラル・ネットワークは、初期符号化ニューラル・ネットワークに入力される第2入力情報と、初期符号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用されることが可能な第2ニューロン・パラメータを含む。更に、初期符号化ニューラル・ネットワークが訓練された後に、第2ニューロン・パラメータは第1ニューロン・パラメータに更新される。第2ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成される。第3ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用される。第3出力情報と第3入力情報の予想されるチェック結果との間の誤差は閾値未満である。第3入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2)における第3入力情報に関して乗法演算及び加法演算が実行された後に取得される。本方法において、第1入力情報は符号化対象の情報であり、第2入力情報及び第3入力情報は訓練情報である。
前述の方法において、小さなニューラル・ネットワーク・ユニットが接続された後に、大きなニューラル・ネットワークが取得され、その結果、符号化学習プロセスでは、少ない学習サンプルを使用することにより、コードワード空間全体に対して一般化を実現することができる。
可能な実装において、第1ニューラル・ネットワーク・ユニットを取得するステップは、第1初期ニューラル・ネットワーク・ユニットを構築し、第1初期ニューロン・パラメータを設定するステップであって、第1初期ニューロン・パラメータは、第1初期ニューロンに入力される第4入力情報と第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは第3入力情報のコード長と第3出力情報のコード長とにおける最小値である、ステップと、
第4出力情報と第4入力情報の予想されるチェック結果との間の誤差が閾値未満になるまで、第1初期ニューラル・ネットワーク・ユニットを第1初期ニューロン・パラメータに基づいて訓練するステップであって、第4入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2)における第4入力情報に関して乗法演算及び加法演算が実行された後に取得される、ステップと、
第1初期ニューラル・ネットワーク・ユニットが訓練されると、第3ニューラル・パラメータを取得するために第1初期ニューラル・パラメータを更新するステップであって、第4入力情報は訓練情報である、ステップとを含むことが可能である。
前述の方法において、初期ニューラル・ネットワーク・ユニットは第1カーネル行列に基づいて生成され、次いで、初期ニューラル・ネットワーク・ユニットは、第1カーネル行列に対応するニューラル・ネットワーク・ユニットを生成するように訓練される。
可能な実装において、第1カーネル行列は
Figure 2022511771000002


であるか、又は第1カーネル行列は
Figure 2022511771000003


である。
前述の方法において、対応するニューラル・ネットワーク・ユニットは、異なる構造を有するカーネル行列に基づいて生成される。
可能な実装において、第1カーネル行列が
Figure 2022511771000004


である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000005


であり、ここで、x0及びx1は第3出力情報であり、u0及びu1は前記第3入力情報である;又は
第1カーネル行列が
Figure 2022511771000006


である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000007


であり、x0,x1,及びx2は第3出力情報であり、u0,u1,及びu2は第3入力情報である。
前述の方法において、対応するニューラル・ネットワーク・ユニットは、異なる構造を有するカーネル行列に基づいて生成される。
可能な実装において、初期符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成される。第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含む。第2ニューラル・ネットワーク・ユニットは、第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得される。第1初期ニューロン・パラメータは、第4ニューロン・パラメータを取得するために、第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新される。第4ニューラル・パラメータは第3ニューラル・パラメータと相違する。
前述の方法において、異なるニューロン・パラメータを有し、同じ構造のニューラル・ネットワーク・ユニットを含む符号化ニューラル・ネットワークが実現される。
可能な実装において、初期符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成される。第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含む。第5ニューロン・パラメータは、第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用される。第5出力情報と第5入力情報の予想されるチェック結果との間の誤差は閾値未満である。第5入力情報の予想されるチェック結果は、第2カーネル行列に基づいてGF(2m)における第5入力情報に関して乗法演算及び加法演算が実行された後に取得される。第5入力情報は訓練情報である。
前述の方法において、異なるカーネル行列に対応する複数のニューラル・ネットワーク・ユニットを含む符号化ニューラル・ネットワークが実現される。
可能な実装において、初期符号化ニューラル・ネットワークを取得するステップは、符号化ネットワーク・ダイアグラムを取得するステップであって、符号化ネットワーク・ダイアグラムは少なくとも1つの符号化バタフライ・ダイアグラムを含み、符号化バタフライ・ダイアグラムは、符号化バタフライ・ダイアグラムの入力情報と符号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用される、ステップと、第1ニューラル・ネットワーク・ユニットを、少なくとも1つの符号化バタフライ・ダイアグラムと照合するステップと、照合に成功した符号化バタフライ・ダイアグラムを、第1ニューラル・ネットワーク・ユニットで置換し、初期符号化ニューラル・ネットワークを取得するステップとを含む。
前述の方法において、小さなニューラル・ネットワーク・ユニットを含む符号化ニューラル・ネットワークが実現され、その結果、少ない学習サンプルを使用することにより、コードワード空間全体に対して一般化を実現することができる。
第2態様によれば、本願の実施形態は復号化方法を提供する。本方法は、第1入力情報を取得するステップと、次いで、取得した第1入力情報を復号化ニューラル・ネットワークに基づいて復号化し、第1出力情報を取得及び出力するステップとを含むことが可能でる。復号化ニューラル・ネットワークは第1ニューロン・パラメータを含む。第1ニューロン・パラメータは、第1入力情報と第1出力情報との間のマッピング関係を示すために使用される。復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期復号化ニューラル・ネットワークが訓練された後に取得される。初期復号化ニューラル・ネットワークは、初期復号化ニューラル・ネットワークに入力される第2入力情報と、初期復号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含む。更に、初期復号化ニューラル・ネットワークが訓練された後に、第2ニューロン・パラメータは第1ニューロン・パラメータに更新される。第2ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成される。第3ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用される。第3出力情報と第3入力情報の予想されるチェック結果との間の誤差は閾値未満である。第3入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第3入力情報に関して乗法演算及び加法演算が実行された後に取得される。第1入力情報は復号化対象の情報であり、第2入力情報及び第3入力情報は訓練情報である。
可能な実装において、第1ニューラル・ネットワーク・ユニットを取得するステップは、第1初期ニューラル・ネットワーク・ユニットを構築し、第1初期ニューロン・パラメータを設定するステップであって、第1初期ニューロン・パラメータは、第1初期ニューロンに入力される第4入力情報と第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは前記第3入力情報のコード長と前記第3出力情報のコード長とにおける最小値である、ステップと、
第4出力情報と第4入力情報の予想されるチェック結果との間の誤差が閾値未満になるまで、第1初期ニューラル・ネットワーク・ユニットを第1初期ニューロン・パラメータに基づいて訓練するステップであって、第4入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第4入力情報に関して乗法演算及び加法演算が実行された後に取得される、ステップと、
第1初期ニューラル・ネットワーク・ユニットが訓練されると、第3ニューラル・パラメータを取得するために第1初期ニューラル・パラメータを更新するステップであって、第4入力情報は訓練情報である、ステップとを更に含むことが可能である。
可能な実装において、第1カーネル行列は
Figure 2022511771000008


であるか、又は第1カーネル行列は
Figure 2022511771000009


である。
可能な実装において、前記第1カーネル行列が
Figure 2022511771000010


である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000011


であり、x0及びx1は第3出力情報であり、y0及びy1は前記第3入力情報である;又は
第1カーネル行列が
Figure 2022511771000012


である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000013


であり、x0,x1,及びx2は第3出力情報であり、y0,y1,及びy2は第3入力情報である。
可能な実装において、初期復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成される。第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含む。第2ニューラル・ネットワーク・ユニットは、第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得される。第1初期ニューロン・パラメータは、第4ニューロン・パラメータを取得するために、第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新される。第4ニューラル・パラメータは第3ニューラル・パラメータと相違する。
可能な実装において、初期復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成される。第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含む。第5ニューロン・パラメータは、第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用される。第5出力情報と第5入力情報の予想されるチェック結果との間の誤差は閾値未満である。第5入力情報の予想されるチェック結果は、第2カーネル行列に基づいてGF(2m)における第5入力情報に関して乗法演算及び加法演算が実行された後に取得される。第5入力情報は訓練情報である。
可能な実装において、初期復号化ニューラル・ネットワークを取得するステップは、復号化ネットワーク・ダイアグラムを取得するステップであって、復号化ネットワーク・ダイアグラムは少なくとも1つの復号化バタフライ・ダイアグラムを含み、復号化バタフライ・ダイアグラムは、復号化バタフライ・ダイアグラムの入力情報と復号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用される、ステップと、
第1ニューラル・ネットワーク・ユニットを、少なくとも1つの復号化バタフライ・ダイアグラムと照合するステップと、
照合に成功した復号化バタフライ・ダイアグラムを、第1ニューラル・ネットワーク・ユニットで置換し、初期復号化ニューラル・ネットワークを取得するステップとを含む。
第3態様によれば、本願の実施形態は符号化方法/復号化方法を提供する。本方法は、 符号化/復号化ニューラル・ネットワークに基づいて第1入力情報を符号化及び/又は復号化するステップを含む可能性がある。符号化/復号化ニューラル・ネットワークは、請求項1-7のうちの何れか1項に記載の符号化ニューラル・ネットワークと請求項8-14のうちの何れか1項に記載の復号化ニューラル・ネットワークとを含む。
前述の方法において、比較的低い学習の複雑性と比較的低い学習の困難性とを有する符号化/復号化方法が実現される。
可能な実装において、符号化ニューラル・ネットワークにおけるニューロン・パラメータは、復号化ニューラル・ネットワークにおけるニューロン・パラメータと相違するか、又は符号化ニューラル・ネットワークにおけるニューロン・パラメータは、復号化ニューラル・ネットワークにおけるニューロン・パラメータと同一である。
前述の方法において、符号化/復号化ニューラル・ネットワークは、同じニューロン・パラメータを有するか符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークを含んでもよいし、又は異なるニューロン・パラメータを有する符号化ニューラル・ネットワークと復号化ニューラル・ネットワークを含んでもよい、ということが実現される。
第4態様によれば、本願の実施形態は符号化装置を提供する。本装置は、第1入力情報を取得するように構成された取得モジュールと、取得した第1入力情報を符号化ニューラル・ネットワークに基づいて符号化し、第1出力情報を取得及び出力するように構成された符号化モジュールとを含むことが可能である。符号化ニューラル・ネットワークは第1ニューロン・パラメータを含む。第1ニューロン・パラメータは、第1入力情報と第1出力情報との間のマッピング関係を示すために使用されることが可能である。符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期符号化ニューラル・ネットワークが訓練された後に取得される。初期符号化ニューラル・ネットワークは、初期符号化ニューラル・ネットワークに入力される第2入力情報と、初期符号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含む。更に、初期符号化ニューラル・ネットワークが訓練された後に、第2ニューロン・パラメータは第1ニューロン・パラメータに更新される。第2ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成される。第3ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用される。第3出力情報と第3入力情報の予想されるチェック結果との間の誤差は閾値未満である。第3入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第3入力情報に関して乗法演算及び加法演算が実行された後に取得される。第1入力情報は符号化対象の情報であり、第2入力情報及び第3入力情報は訓練情報である。
可能な実装において、符号化モジュールは、更に、第1初期ニューラル・ネットワーク・ユニットを構築し、第1初期ニューロン・パラメータを設定するように更に構成され、第1初期ニューロン・パラメータは、第1初期ニューロンに入力される第4入力情報と第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは第3入力情報のコード長と前記第3出力情報のコード長とにおける最小値であり、
符号化モジュールは、更に、第4出力情報と第4入力情報の予想されるチェック結果との間の誤差が閾値未満になるまで、第1初期ニューラル・ネットワーク・ユニットを前記第1初期ニューロン・パラメータに基づいて訓練するように構成され、第4入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第4入力情報に関して乗法演算及び加法演算が実行された後に取得され、
符号化モジュールは、更に、第1初期ニューラル・ネットワーク・ユニットが訓練されると、第3ニューラル・パラメータを取得するために第1初期ニューラル・パラメータを更新するように構成され、第4入力情報は訓練情報であり、第4入力情報は第3入力情報と同一であるか、又は相違している。
可能な実装において、第1カーネル行列は
Figure 2022511771000014


であるか、又は第1カーネル行列は
Figure 2022511771000015


である。
可能な実装において、第1カーネル行列が
Figure 2022511771000016


である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000017


であり、x0及びx1は第3出力情報であり、u0及びu1は第3入力情報である;又は
第1カーネル行列が
Figure 2022511771000018


である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000019


であり、x0,x1,及びx2は第3出力情報であり、u0,u1,及びu2は第3入力情報である。
可能な実装において、初期符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成される。第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含む。第2ニューラル・ネットワーク・ユニットは、第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得される。第1初期ニューロン・パラメータは、第4ニューロン・パラメータを取得するために、第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新される。第4ニューラル・パラメータは第3ニューラル・パラメータと相違する。
可能な実装において、初期符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成される。第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含む。第5ニューロン・パラメータは、第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用される。第5出力情報と第5入力情報の予想されるチェック結果との間の誤差は閾値未満である。第5入力情報の予想されるチェック結果は、第2カーネル行列に基づいてGF(2m)における第5入力情報に関して乗法演算及び加法演算が実行された後に取得される。第5入力情報は訓練情報である。
可能な実装において、符号化モジュールは、更に、符号化ネットワーク・ダイアグラムを取得するように構成され、符号化ネットワーク・ダイアグラムは少なくとも1つの符号化バタフライ・ダイアグラムを含み、符号化バタフライ・ダイアグラムは、符号化バタフライ・ダイアグラムの入力情報と符号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用され、符号化モジュールは、更に、第1ニューラル・ネットワーク・ユニットを、少なくとも1つの符号化バタフライ・ダイアグラムと照合し、照合に成功した符号化バタフライ・ダイアグラムを、第1ニューラル・ネットワーク・ユニットで置換し、初期符号化ニューラル・ネットワークを取得するように構成されている。
第5態様によれば、本願の実施形態は復号化装置を提供する。本装置は、第1入力情報を取得するように構成された取得モジュールと、取得した第1入力情報を復号化ニューラル・ネットワークに基づいて復号化し、第1出力情報を取得及び出力するように構成された復号化モジュールとを含むことが可能である。復号化ニューラル・ネットワークは第1ニューロン・パラメータを含む。第1ニューロン・パラメータは、第1入力情報と第1出力情報との間のマッピング関係を示すために使用される。復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期復号化ニューラル・ネットワークが訓練された後に取得される。初期復号化ニューラル・ネットワークは、初期復号化ニューラル・ネットワークに入力される第2入力情報と、初期復号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含む。更に、初期復号化ニューラル・ネットワークが訓練された後に、第2ニューロン・パラメータは第1ニューロン・パラメータに更新される。第2ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成される。第3ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用される。第3出力情報と第3入力情報の予想されるチェック結果との間の誤差は閾値未満である。第3入力情報の予想されるチェック結果は、第1カーネル行列に基づいてガロア体GF(2m)における第3入力情報に関して乗法演算及び加法演算が実行された後に取得される。第1入力情報は復号化対象の情報であり、第2入力情報及び第3入力情報は訓練情報である。
可能な実装において、復号化モジュールは、更に、第1初期ニューラル・ネットワーク・ユニットを構築し、第1初期ニューロン・パラメータを設定するように構成され、第1初期ニューロン・パラメータは、第1初期ニューロンに入力される第4入力情報と第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは第3入力情報のコード長と第3出力情報のコード長とにおける最小値であり、
復号化モジュールは、更に、第4出力情報と第4入力情報の予想されるチェック結果との間の誤差が閾値未満になるまで、第1初期ニューラル・ネットワーク・ユニットを第1初期ニューロン・パラメータに基づいて訓練するように構成され、第4入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第4入力情報に関して乗法演算及び加法演算が実行された後に取得され、
復号化モジュールは、更に、第1初期ニューラル・ネットワーク・ユニットが訓練されると、第3ニューラル・パラメータを取得するために第1初期ニューラル・パラメータを更新するように構成され、第4入力情報は訓練情報であり、第4入力情報は第3入力情報と同一であるか、又は相違する。
可能な実装において、第1カーネル行列は
Figure 2022511771000020


であるか、又は第1カーネル行列は
Figure 2022511771000021


である。
可能な実装において、第1カーネル行列が
Figure 2022511771000022


である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000023


であり、x0及びx1は第3出力情報であり、y0及びy1は第3入力情報である;又は
第1カーネル行列が
Figure 2022511771000024


である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000025


であり、x0,x1,及びx2は第3出力情報であり、y0,y1,及びy2は第3入力情報である。
可能な実装において、初期復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成される。第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含む。第2ニューラル・ネットワーク・ユニットは、第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得される。第1初期ニューロン・パラメータは、第4ニューロン・パラメータを取得するために、第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新される。第4ニューラル・パラメータは第3ニューラル・パラメータと相違する。
可能な実装において、初期復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成される。第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含む。第5ニューロン・パラメータは、第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用される。第5出力情報と第5入力情報の予想されるチェック結果との間の誤差は閾値未満である。第5入力情報の予想されるチェック結果は、第2カーネル行列に基づいてGF(2m)における第5入力情報に関して乗法演算及び加法演算が実行された後に取得される。第5入力情報は訓練情報である。
可能な実装において、復号化モジュールは、更に、復号化ネットワーク・ダイアグラムを取得するように構成され、復号化ネットワーク・ダイアグラムは少なくとも1つの復号化バタフライ・ダイアグラムを含み、復号化バタフライ・ダイアグラムは、復号化バタフライ・ダイアグラムの入力情報と復号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用され、
復号化モジュールは、更に、第1ニューラル・ネットワーク・ユニットを、少なくとも1つの復号化バタフライ・ダイアグラムと照合し、照合に成功した復号化バタフライ・ダイアグラムを、第1ニューラル・ネットワーク・ユニットで置換し、初期復号化ニューラル・ネットワークを取得するように構成される。
第6態様において、本願の実施形態は、符号化/復号化システムを提供する。システムは、符号化/復号化ニューラル・ネットワークに基づいて第1入力情報を符号化及び/又は復号化するために使用される。システムは、請求項18-24のうちの何れか1項に記載の符号化ニューラル・ネットワーク及び請求項25-31のうちの何れか1項に記載の復号化ニューラル・ネットワークのために使用される。
可能な実装において、符号化ニューラル・ネットワークにおけるニューロン・パラメータは、復号化ニューラル・ネットワークにおけるニューロン・パラメータと相違するか、又は符号化ニューラル・ネットワークにおけるニューロン・パラメータは、復号化ニューラル・ネットワークにおけるニューロン・パラメータと同一である。
第7態様によれば、本願の実施形態は、コンピュータ読み取り可能な記憶媒体を提供する。コンピュータ読み取り可能な記憶媒体はコンピュータ・プログラムを記憶する。コンピュータ・プログラムはコードの少なくとも1つのセグメントを含む。コードの少なくとも1つのセグメントは、装置により実行されて、第1態様における方法を実行するように装置を制御することが可能である。
第8態様によれば、本願の実施形態は、コンピュータ読み取り可能な記憶媒体を提供する。コンピュータ読み取り可能な記憶媒体はコンピュータ・プログラムを記憶する。コンピュータ・プログラムはコードの少なくとも1つのセグメントを含む。コードの少なくとも1つのセグメントは、装置により実行されて、第2態様における方法を実行するように装置を制御することが可能である。
第9態様によれば、本願の実施形態は、コンピュータ読み取り可能な記憶媒体を提供する。コンピュータ読み取り可能な記憶媒体はコンピュータ・プログラムを記憶する。コンピュータ・プログラムはコードの少なくとも1つのセグメントを含む。コードの少なくとも1つのセグメントは、装置により実行されて、第3態様における方法を実行するように装置を制御することが可能である。
第9態様によれば、本願の実施形態はコンピュータ・プログラムを提供する。コンピュータ・プログラムが装置により実行されると、装置は、第1態様における方法を実行するように構成される。
第10態様によれば、本願の実施形態はコンピュータ・プログラムを提供する。コンピュータ・プログラムが装置により実行されると、装置は、第2態様における方法を実行するように構成される。
第11態様によれば、本願の実施形態はコンピュータ・プログラムを提供する。コンピュータ・プログラムが装置により実行されると、装置は、第3態様における方法を実行するように構成される。
第12態様によれば、本願の実施形態はチップを提供する。チップは、処理回路とトランシーバ・ピンとを含む。トランシーバ・ピンとプロセッサとは内部接続パスを用いて互いに通信する。プロセッサは、第1態様又は第1態様の任意の可能性のある実装における方法を実行して、信号を受信するように受信ピンを制御し、信号を送信するように送信ピンを制御する。
第13態様によれば、本願の実施形態はチップを提供する。チップは、処理回路とトランシーバ・ピンとを含む。トランシーバ・ピンとプロセッサとは内部接続パスを用いて互いに通信する。プロセッサは、第2態様又は第2態様の任意の可能性のある実装における方法を実行して、信号を受信するように受信ピンを制御し、信号を送信するように送信ピンを制御する。
第14態様によれば、本願の実施形態はチップを提供する。チップは、処理回路とトランシーバ・ピンとを含む。トランシーバ・ピンとプロセッサとは内部接続パスを用いて互いに通信する。プロセッサは、第3態様又は第3態様の任意の可能性のある実装における方法を実行して、信号を受信するように受信ピンを制御し、信号を送信するように送信ピンを制御する。
第15態様によれば、本願の実施形態は符号化装置を提供する。装置は、命令又はデータを記憶するように構成されたメモリと、メモリに接続して通信を行う少なくとも1つのプロセッサとを含む。プロセッサは、符号化装置が命令を実行すると、第1態様又は第1態様の任意の可能性のある実装における方法を実行する際に符号化装置をサポートするように構成されることが可能である。
第16態様によれば、本願の実施形態は復号化装置を提供する。装置は、命令又はデータを記憶するように構成されたメモリと、メモリに接続して通信を行う少なくとも1つのプロセッサとを含む。プロセッサは、符号化装置が命令を実行すると、第2態様又は第2態様の任意の可能性のある実装における方法を実行する際に符号化装置をサポートするように構成されることが可能である。
第17態様によれば、本願の実施形態は符号化/復号化装置を提供する。装置は、命令又はデータを記憶するように構成されたメモリと、メモリに接続して通信を行う少なくとも1つのプロセッサとを含む。プロセッサは、符号化装置が命令を実行すると、第3態様又は第3態様の任意の可能性のある実装における方法を実行する際に符号化装置をサポートするように構成されることが可能である。
第18態様によれば、本願の実施形態は符号化/復号化システムを提供する。システムは第4態様及び第5態様における符号化装置及び復号化装置を含む。
本願の実施態様における技術的解決策をより明確に説明するために、以下、本願の実施態様における添付図面を簡単に説明する。以下の説明における添付図面は、本願の幾つかの実施形態を示しているに過ぎず、当業者は、創造的努力を伴うことなくこれらの添付図面から他の図面を導出する可能性があることは明らかである。
本願の実施形態による通信システムの概略図である。
本願の実施形態による基地局の概略構造図である。
本願の実施形態による端末の概略構造図である。
本願の実施形態による無線通信の概略フローチャートである。
本願の実施形態による符号化方法の概略フローチャートである。
本願の実施形態による符号化方法の概略フローチャートである。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期符号化ニューラル・ネットワークを生成する概略フローチャートである。
本願の実施形態による符号化ネットワーク・ダイアグラムの概略構造図である。
本願の実施形態による符号化バタフライ・ダイアグラムの概略構造図である。
本願の実施形態による初期符号化ニューラル・ネットワークの概略構造図である。
本願の実施形態による符号化方法の概略フローチャートである。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による復号化方法の概略フローチャートである。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による符号化/復号方法の概略フローチャートである。
本願の実施形態による符号化/復号化ニューラル・ネットワークの訓練方法の概略フローチャートである。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による符号化装置の概略構造図である。
本願の実施形態による復号化装置の概略構造図である。
本願の実施形態による符号化装置の概略ブロック図である。
本願の実施形態による復号化装置の概略ブロック図である。
以下、本願の実施態様における技術的解決策を、本願の実施態様における添付図面を参照なら明確かつ完全に説明する。説明される実施形態は、本願の実施形態のうちの一部であるが、すべてではないことは明らかである。創作的な労力なしに本願の実施態様に基づいて当業者が獲得する他の実施態様はすべて、本願の保護範囲内に該当するものとする。
本明細書における用語「及び/又は」は、関連するオブジェクトを説明するためのアソシエーション関係のみを記述しており、3つの関係が存在し得ることを表す。例えば、A及び/又はBは、以下の3つのケース:Aのみが存在すること、A及びBの両方が存在すること、そしてBのみが存在することを表す可能性がある。
明細書及び特許請求の範囲において、本願の実施形態において、「第1」、「第2」等の用語は、異なるオブジェクトを区別するように意図されているが、オブジェクトの特定の順序を示してはいない。例えば、第1ターゲット・オブジェクト、第2ターゲット・オブジェクト等は、異なるターゲット・オブジェクトを区別するために使用されるが、ターゲット・オブジェクトの特定の順序を記述するために使用されてはいない。
本願の実施形態では、「例示的な」又は「例えば」のような言葉は、例、例示又は説明を与える表現に使用されている。本願の実施形態において「例示的な」又は「例えば」のように記載される如何なる実施形態又は設計方式も、他の実施形態又は設計方式よりも、より好ましいものとして、又はより有用性を有するものとして解釈されるべきではない。正確に言えば、「例示的な」又は「例えば」のような言葉を用いることは、特定の方法で相対的概念を提示するように意図されている。
本願の実施形態の説明において、特に言及されない限り、「複数の」は2つ又は2つより多いことを意味する。例えば、複数の処理ユニットは2つ以上の処理ユニットを示し、複数のシステムは2つ以上のシステムを示す。
本願の実施形態における技術的解決策を説明する前に、本願の実施形態における通信システムが先ず添付図面に関連して説明される。図1は、本願の実施形態による通信システムの概略図である。通信システムは、基地局100及び端末200を含む。本願のこの実施形態の特定の実装プロセスでは、端末200は、コンピュータ、スマートフォン、電話セット、ケーブル・テレビジョン・セット・トップ・ボックス、又はデジタル加入者線ルータのようなデバイスであってもよい。実際のアプリケーションでは、1つ以上の基地局及び1つ以上の端末が存在し得ることに留意すべきである。図1に示す通信システムにおける基地局の数量及び端末の数量は、単なる適応例に過ぎない。これは本願において限定されない。
通信システムは、ロング・ターム・エボリューション(long term evolution,LTE)アクセス技術のような第4世代(fourth generation,4G)アクセス技術をサポートするために使用されてもよい。代替的に、通信システムは、ニュー・ラジオ(new radio,NR)アクセス技術のような第5世代(fifth generation,5G)アクセス技術をサポートすることができる。代替的に、通信システムは、ユニバーサル移動通信システム(universal mobile telecommunications system,UMTS)アクセス技術のような第3世代(third generation,3G)アクセス技術をサポートするために使用されてもよい。代替的に、通信システムは、移動通信のためのグローバル・システム(global
system for mobile communications,GSM)アクセス技術のような第2世代(second generation,2G)アクセス技術をサポートするために使用されてもよい。代替的に、通信システムは、更に、複数の無線技術を備えた通信システムをサポートするために使用することができ、例えば、LTE技術及びNR技術をサポートすることができる。更に、通信システムは、代替的に、狭帯域のモノのインターネット(Narrowband Internet of Things,NB-IoT)システム、GSMエボリューションのための拡張データレート(Enhanced Data rates for GSM Evolution,EDGE)システム、広帯域符号分割多元接続(Wideband Code Division Multiple Access,WCDMA)システム、符号分割多元接続2000(Code Division Multiple Access,CDMA2000)システム、時分割同期符号分割多元接続(Time Division-Synchronous Code Division
Multiple Access,TD-SCDMA)システム、ロング・ターム・エボリューション(Long Term Evolution,LTE)システム、及び将来の通信技術において使用されてもよい。
また、図1の基地局100は、端末アクセスをサポートするために使用されてもよく、例えば、第2アクセス技術通信システムにおける基地局(base transceiver station,BTS)及び基地局コントローラ(base station controller,BSC);第3Gアクセス技術通信システムにおけるノードB(NodeB)及び無線ネットワーク・コントローラ(radio
network controller,RNC);第4Gアクセス技術通信システムにおけるエボルブド・ノードB(evolved NodeB,eNB);第5Gアクセス技術通信システムにおける次世代ノードB(next generation NodeB,gNB)、送受信ポイント(transmission reception point,TRP)、リレー・ノード(relay node)又はアクセス・ポイント(access point,AP)等であってもよい。説明を容易にするために、本願の全ての実施形態において、端末のための無線通信機能を提供する前述のすべての装置は、ネットワーク・デバイス又は基地局と呼ばれる。
図1の端末は、音声又はデータ接続をユーザーに提供するデバイスであってもよく、例えば、移動局(mobile station)、加入者ユニット(subscriber unit)、ステーション(station)、端末機器(terminal equipment,TE)と言及されてもよい。端末は、セルラー電話(cellular
phone)、パーソナル・デジタル・アシスタント(personal digital assistant,PDA)、ワイヤレス・モデム(modem)、ハンドヘルド(handheld)デバイス、ラップトップ・コンピュータ(laptop computer)、コードレス電話(cordless phone)、ワイヤレス・ローカル・ループ(wireless local loop,WLL)ステーション、タブレット・コンピュータ(pad)などであってもよい。無線通信技術の開発に伴い、無線通信ネットワークにアクセスすることが可能であるか、通信システムのネットワーク側と通信することが可能であるか、又は通信ネットワークを使用することによって他のオブジェクトと通信することが可能であるデバイスは、本願のこの実施形態における端末、例えば、インテリジェント交通における端末及び車両、スマート家庭における家庭用デバイス、スマート・グリッドにおける電力計測器、電圧モニタリング装置、環境モニタリング装置、インテリジェント・セキュリティ・ネットワークにおけるビデオ監視装置、又はキャッシュ・レジスタであってもよい。本願のこの実施形態では、端末は、基地局、例えば、図1の基地局10と通信してもよい。また通信は複数の端末間で実行されてもよい。端末は静的であってもよいし、移動可能であってもよい。
図2aは基地局の概略構造図である。
図2aにおいて、基地局100は、少なくとも1つのプロセッサ101、少なくとも1つのメモリ102、少なくとも1つのトランシーバ103、少なくとも1つのネットワーク・インターフェース104、及び1つ以上のアンテナ105を含む。プロセッサ101、メモリ102、トランシーバ103、及びネットワーク・インターフェース104は、例えばバスを使用することにより接続される。アンテナ105は、トランシーバ103に接続される。ネットワーク・インターフェース104は、通信リンクを使用することによって、基地局が他の通信デバイスに接続されることを可能にするために使用される。本願のこの実施形態では、接続は、種々のタイプのインターフェース、伝送線、バスなどを含む可能性がある。これは本願では限定されない。
本願のこの実施形態におけるプロセッサ、例えばプロセッサ101は、以下のタイプ:汎用中央処理ユニット(Central Processing Unit,CPU)、デジタル信号プロセッサ(Digital Signal Processor,DSP)、マイクロプロセッサ、特定用途向け集積回路(Application-Specific Integrated Circuit,ASIC)、マイクロコントローラ・ユニット(Microcontroller Unit,MCU)、フィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array,FPGA)、又は論理演算を実装するように構成された集積回路、のうちの少なくとも1つを含んでもよい。例えば、プロセッサ101は、シングル・コア(single-CPU)プロセッサであってもよいし、又はマルチ・コア(multi-CPU)プロセッサであってもよい。少なくとも1つのプロセッサ101は、1つのチップに集積されてもよいし、又は複数の異なるチップに配置されてもよい。
本願のこの実施形態におけるメモリ、例えばメモリ102は、以下のタイプ:リード・オンリ・メモリ(read-only memory,ROM)又は静的な情報及び命令を記憶することが可能な他のタイプの静的記憶装置、ランダム・アクセス・メモリ(random access memory,RAM)又は情報及び命令を記憶することが可能な他のタイプの動的記憶装置のうちの少なくとも1つを含んでもよいし、或いは電気的に消去可能なプログラマブル・リード・オンリ・メモリ(Electrically erasable programmabler-only memory,EEPROM)であってもよい。幾つかのシナリオにおいて、メモリは、代替的に、コンパクト・ディスク・リード・オンリ・メモリ(compact
disc read-only memory,CD-ROM)又は他のコンパクト・ディスク・ストレージ、光ディスク・ストレージ(コンパクト・ディスク、レーザー・ディスク、光ディスク、ディジタル多用途ディスク、ブルー・レイ・ディスク等を含む)、ディスク記憶媒体又は他の磁気記憶デバイス、又は、命令又はデータ構造の形態を有する予想されるプログラム・コードを搬送又は記憶するために使用される他の任意の媒体であって、コンピュータによってアクセス可能なものであってもよい。しかしながら、これは本願で限定されない。
メモリ102は単独で存在してもよいし、プロセッサ101に接続されてもよい。オプションとして、メモリ102は、例えば、1つのチップに統合されたプロセッサ101と一体化されてもよい。メモリ102は、本願のこの実施形態における技術的解決策を実行するためのプログラム・コードを記憶することが可能であり、プログラム・コードを実行するためにプロセッサ101によって制御される。実行されるコンピュータ・プログラム・コードはまた、プロセッサ101のドライバと考えられてもよい。例えば、プロセッサ101は、メモリ102に記憶されたコンピュータ・プログラム・コードを実行し、本願のこの実施形態における技術的解決策を実現するように構成される。
トランシーバ103は、アクセス・ネットワーク・デバイスと端末との間での無線周波数信号の受信又は送信をサポートするように構成されてもよい。トランシーバ103は、アンテナ105に接続されてもよい。トランシーバ103は、送信機Tx及び受信機Rxを含む。具体的には、1つ以上のアンテナ105が無線周波数信号を受信してもよい。トランシーバ103の受信機Rxは:無線周波数信号をアンテナから受信し、無線周波数信号をデジタル・ベースバンド信号又はデジタル中間周波数信号に変換し、デジタル・ベースバンド信号又はデジタル中間周波数信号をプロセッサ101に提供するように構成され、その結果、プロセッサ101は、デジタル・ベースバンド信号又はデジタル中間周波数信号を更に処理し、例えば復調処理及び復号処理を実行する。更に、トランシーバ103内の送信機Txは、変調されたデジタル・ベースバンド信号又は変調されたデジタル中間周波数信号をプロセッサ101から受信し、変調されたデジタル・ベースバンド信号又は変調されたデジタル中間周波数信号を無線周波数信号に変換し、1つ以上のアンテナ105を使用して無線周波数信号を送信するように更に構成される。具体的には、受信機Rxは、デジタル・ベースバンド信号又はデジタル中間周波数信号を取得するために、無線周波数信号に対して1レベル又はマルチ・レベルのダウンコンバージョン周波数混合処理及びアナログ・デジタル変換処理を選択的に行うことができる。ダウンコンバージョン周波数混合処理及びアナログ・デジタル変換処理のシーケンスは調整可能である。送信機Txは、無線周波数信号を得るために、変調されたデジタル・ベースバンド信号又は変調されたデジタル中間周波数信号に対して、1レベル又はマルチ・レベル・アップ・コンバージョン周波数混合処理及びデジタル・アナログ変換処理を選択的に実行することができる。アップ・コンバージョン周波数混合処理及びデジタル・アナログ変換処理のシーケンスは調整可能である。デジタル・ベースバンド信号及びデジタル中間周波数信号は、まとめてデジタル信号と言及されてもよい。
図2bは端末の概略構造図である。
図2bにおいて、端末200は、少なくとも1つのプロセッサ201、少なくとも1つのトランシーバ202、及び少なくとも1つのメモリ203を含む。プロセッサ201、メモリ203、及びトランシーバ202は接続される。オプションとして、端末200は、1つ以上のアンテナ204を更に含んでもよい。アンテナ204はトランシーバ202に接続される。
トランシーバ202、メモリ203、アンテナ204については、同様な機能を実現する図2aの関連する説明を参照されたい。
プロセッサ201は、ベースバンド・プロセッサであってもよいし、又はCPUであってもよい。ベースバンド・プロセッサとCPUは、一緒に統合されてもよいし、又は分離されてもよい。
プロセッサ201は、端末200の様々な機能を実現するように、例えば、通信プロトコル及び通信データを処理し、端末200全体を制御し、ソフトウェア・プログラムを実行し、ソフトウェア・プログラムのデータを処理ように、構成されてもよい。代替的に、プロセッサ201は、前述の機能のうちの1つ以上を実現するように構成される。
前述の通信システムにおいて、端末が基地局と通信する場合、端末と基地局は互いに対して送信端及び受信端である。具体的には、端末が基地局に信号を送信する場合、端末は送信端として機能し、基地局は受信端として機能する。そうではなく、基地局が端末に信号を送信する場合、基地局は送信端として機能し、端末は受信端として機能する。具体的には、無線通信プロセスにおいて、基本的な手順は図3に示されている。
図3では、送信端において、情報ソースは、ソース符号化、チャネル符号化、変調及びマッピングの後に送信される。受信端において、情報シンクは、でマッピング、復調、チャネル復号化、及びソース復号化の後に出力される。
端末が送信端として機能する場合、図3の符号化プロセス(ソース符号化、チャネル符号化、変調、マッピングのようなステップ)が、端末によって実行され;或いは、
端末が受信端として機能する場合、図3の復号化プロセス(マッピング、復調、チャネル復号化、ソース復号のようなステップ)が、端末によって実行されることに留意すべきである。同様なケースが基地局にもあてはまる。
現在のチャネル符号化/復号化方法は、ハミング符号及びポーラー符号を含むが、これらに限定されない。
従来技術では、符号化/復号化の学習プロセスは、主にコードワード空間全体のサンプルを学習することになっている。しかしながら、比較的長いコード長を用いる符号化/復号方法、例えばポーラー符号の場合、例えば情報ビット長K=32であるとすると、232個のコードワードが存在する。従って、符号化/復号化の学習は、困難性と複雑性の急増に起因して、従来技術では完了することができない。
結論として、本願のこの実施形態は、コードワード空間における小さな範囲内のサンプリングを実現して、コードワード空間全体への一般化を実現するための符号化/復号方法を提供する。本方法では、符号化/復号化ニューラル・ネットワークは、符号化/復号化により生成されるニューラル・ネットワーク・ユニットから構成され、次いで、符号化対象の情報は、符号化/復号化ニューラル・ネットワークに基づいて符号化及び/又は復号化される。
図1に示される通信システムの前述した概略図を参照し、以下、本願の具体的な実装解決策を説明する。
シナリオ1
図1を参照すると、図4は、本願の実施形態による符号化方法の概略フローチャートである。
図4において、ステップ101では、ニューラル・ネットワーク・ユニットを生成する。
具体的には、本願のこの実施形態では、符号化装置は、カーネル行列に基づいて初期ニューラル・ネットワーク・ユニットを生成し、次いで、初期ニューラル・ネットワーク・ユニットの出力値が、予想される最適化ターゲットに近づくように、符号化装置は初期ニューラル・ネットワーク・ユニットを訓練することが可能である。この場合、訓練される初期ニューラル・ネットワーク・ユニットはニューラル・ネットワーク・ユニットである。訓練の後、初期ニューラル・ネットワーク・ユニットに含まれる初期ニューロン・パラメータは、ニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータに更新される。更に、出力値が予想される最適化ターゲットに近いということは、初期ネットワーク・ユニットにより出力される出力情報と、初期ネットワーク・ユニットへの入力情報に対応する予想されるチェック結果との間の誤差が、閾値未満であるということである。本願のこの実施形態では、入力情報の予想されるチェック結果は、初期ニューラル・ネットワーク・ユニットに対応するカーネル行列に基づいて、ガロア体(Galois Field)GF(2)内の入力情報に対して、乗法演算及び加法演算が実行された後に得られる。
オプションとして、実施形態において、出力情報と入力情報の予想されるチェック結果との間の誤差は、出力情報と予想されるチェック結果との間の差分であってもよい。
オプションとして、別の実施形態において、出力情報と入力情報の予想されるチェック結果との間の誤差は、出力情報と予想されるチェック結果との間の平均二乗誤差であってもよい。
オペレータは、実際の要求に応じて、出力情報と予想されるチェック結果との間の誤差を得る方法を設定することが可能である。これは本願では限定されない。
また、出力情報と予想されるチェック結果との誤差に対応する閾値も、様々な誤差計算方法に基づいて設定することが可能である。
以下、ポーラー符号を用いてニューラル・ネットワーク・ユニットを生成する方法を詳細に説明する。図5は、ニューラル・ネットワーク・ユニットを生成する概略フローチャートである。
図5において、ステップ1011では、初期ニューラル・ネットワーク・ユニットを構築する。
具体的には、ポーラー符号に関する符号化の式は、以下の式(1)を用いて示すことが可能である:
Figure 2022511771000026

ここで、xは出力情報であり、uは入力情報であり、Gは符号化行列である。ポーラー符号の場合、Gは生成行列と言及される場合もある。言い換えると、生成行列は符号化行列の1つである。入力情報と出力情報の両方は、少なくとも1つのビット情報を含む。
従来技術では、ポーラー符号の生成行列Gの表現は、次のような式(2)であってもよい:
Figure 2022511771000027

ここで、
Figure 2022511771000028


nは、Gから構成される符号化ニューラル・ネットワークが、同じカーネル行列に対応する1つ以上のニューラル・ネットワーク・ユニットを含む可能性があることを示す。具体的な実装は、以下の実施形態において詳細に説明される。
本願のこの実施形態では、初期ニューラル・ネットワーク・ユニットが形成される場合に、符号化装置は、カーネル行列に基づいてニューラル・ネットワーク・ユニットを得ることができる。具体的には、符号化装置は、式(1)及び式(2)に従って、ニューラル・ネットワーク・ユニットの入力情報(他のニューラル・ネットワーク又はニューラル・ネットワーク・ユニットの入力情報とは区別されるべきものであり、入力情報は、以下、入力情報4と言及される)の予想されるチェック結果に対応するチェック方程式を取得する。
例えば、
Figure 2022511771000029


である場合、入力情報4に対応するチェック方程式は次のとおりである:
Figure 2022511771000030

ここで、x0及びx1は出力情報4であり、u0及びu1は入力情報4である。
Figure 2022511771000031


である場合、入力情報4に対応するチェック方程式は次のとおりである:
Figure 2022511771000032

ここで、x0,x1,及びx2は出力情報4であり、u0,u1,及びu2は入力情報4である。
Tの値は、表の検索により(例えば、表(1)における値)又は計算により取得されてもよいことに留意すべきである。具体的な取得方法については、従来技術を参照されたい。詳細は本願では説明しない。
更に、一般的なTを表(1)に示す。
表1
Figure 2022511771000033
Figure 2022511771000034
Figure 2022511771000035


更に、図5に関し、初期ニューラル・ネットワーク・ユニットは、入力層、出力層、及び少なくとも1つの隠れ層を含む。本願のこの実施形態では、初期ニューラル・ネットワーク・ユニットは、初期ニューロン・パラメータを更に含む。そのパラメータは、入力情報4と出力情報4との間のマッピング関係を示すために使用される。初期ニューロン・パラメータは、初期ウェイト値w及び初期バイアス・ベクトルbを含む可能性がある。初期ニューロン・パラメータは、通常、ランダムに生成されることに留意すべきである。
更に、初期ニューラル・ネットワーク・ユニットにおける隠れ層は、Q個のノードを含む。本願のこの実施形態において、QはN以上であり、Nは、入力情報のコード長及び出力情報のコード長における最小値である。1つ以上の隠れ層が存在し得ることに留意すべきである。より多くの量の隠れ層は、ニューラル・ネットワークのより高い複雑性、及びニューラル・ネットワークのより強い一般化能力を示す。従って、オペレータは、本願のこの実施形態において、初期ニューラル・ネットワーク・ユニット及び別のニューラル・ネットワークの隠れ層の量を設定する場合に、オペレータは、装置の処理能力及び計算能力のような要因を参照して、実際の要件に従って設定を実行することができる。これは本願において限定されない。
この実施形態において、一例としてポーラー符号に基づいて構成される初期ニューラル・ネットワーク・ユニットを、図6に示す。
図6において、符号化装置は、カーネル行列T2に基づいて初期ニューラル・ネットワーク・ユニットを構築する。T2に基づいて構成される初期ニューラル・ネットワーク・ユニットに対応する予想されるチェック結果は、図6の初期ニューラル・ネットワーク・ユニットの出力側として示されている。式(3)を参照されたい。
ポーラー符号の特殊性に起因して、符号化又は復号化のプロセスにおいて、入力情報のコード長と出力情報のコード長は対称的であり、即ち等しい。例えば、式(3)に示すように、入力情報がu0及びu1である場合、出力情報はx0及びx1であり、コード長はN=2である。
従って、ポーラー符号では、隠れ層におけるノード数は、入力情報のコード長及び出力情報のコード長よりも大きい。言い換えると、入力情報のコード長と入力情報のコード長とが2である場合、隠れ層のノード数は2より大きな整数である。図6において、以下の例が、詳細な説明のために使用される:初期ニューラル・ネットワーク・ユニットは、1つの隠れ層を有し、隠れ層は、3つのノードを有する。
ステップ1012:初期ニューラル・ネットワーク・ユニットを訓練して、ニューラル・ネットワーク・ユニットを生成する。
具体的には、この実施形態では、出力情報4と入力情報4の予想されるチェック結果との間の誤差が閾値未満になるまで、符号化装置は、初期ニューロン・パラメータに基づいて初期ニューラル・ネットワーク・ユニットを訓練することができる。
図6の初期ニューラル・ネットワーク・ユニットを、説明のための例として更に使用する。
具体的には、以下の例を使用する:入力情報4が[0,1]であり、即ちu0=0及びu1=1である。符号化装置は、式(3)に従ってGF(2)における入力情報4に対して乗算演算及び加法演算を実行し、即ち排他的OR演算(この実施形態では、m=1であり、即ちこの実施形態における予想されるチェック結果は、入力情報の2進数特性に基づいて2進数体において計算されることに留意すべきである)を実行して、入力情報4に対応する予想されるチェック結果[1,1]、即ちx0=1及びx1=1を取得する。
次に、符号化装置は、入力情報4、入力情報4の予想されるチェック結果、及び初期ニューロン・パラメータに基づいて、初期ニューラル・ネットワーク・ユニットを訓練する。訓練プロセスは以下のとおりである。
(1) 損失関数を求める。
具体的には、2つの隣接する層におけるニューロン(即ち、入力層、入力層、又は隠れ層におけるノード)に関し、初期ニューロン・パラメータに基づいて(初期ウェイト値wは、2つの層の間の各接続ラインに設定されており、初期バイアス・ベクトルbは各ノードに対して設定されている)(ニューロン・パラメータの具体的な値は図6では示されておらず、設定方法については従来技術を詐称することが可能であり、本願では説明されない)、次の層に接続された現在の層における出力xに対して、重み付け加算が実行され、次いで加算の結果に対して活性化関数が適用された後に、次の層におけるニューロンの入力hが求められる。各ニューロンの入力hを、式(5)に示す。
Figure 2022511771000036


このケースでは、ニューラル・ネットワークの出力y(即ち、本願のこの実施形態における初期ニューラル・ネットワークにより出力される入力情報4)は、次のように再帰的に表現することができる:
Figure 2022511771000037

更に図6に関し、式(5)及び式(6)に従って初期ニューラル・ネットワーク・ユニットの入力情報4:[0,1]に対して、演算が実行されて、出力情報(他の訓練結果と区別されるべきであり、出力情報は、以下、訓練結果1として言及される)を求める。
その後、符号化装置は、訓練結果1と予想されるチェック結果[1,1]との間の誤差を求める。誤差値を算出する方法は、上述したとおりである。即ち、誤差値は、訓練結果1と予想されるチェック結果との差分又は平均二乗値であってもよい。損失関数を求めるための具体的な詳細については、従来技術の技術的な実施形態を参照されたい。詳細は本願では説明されない。
(2) 誤差逆伝搬
具体的には、符号化装置は、誤差を逆伝搬し、出力層の残差を算出し、各層におけるノードの残差に対して重み付け加算を実行し、次いで、学習率及び入力層における各ノードの残差に基づいて第1層のウェイト(即ち、入力層と隠れ層と間のウェイト)を更新し、上記の方法を循環して対応するウェイトを層毎に更新することができる。その後、入力情報4は、更新されたウェイトを用いて再度訓練されて、訓練結果2を求める。更に、前述のステップは循環させられ、即ち、初期ニューロン・パラメータは、初期ニューラル・ネットワークにより出力されるトレーニング結果nと、予想されるチェック結果との間の誤差が、ターゲット値未満になり(例えば、ターゲット値は0.0001であってもよい)、トレーニング結果が収束していることを確認するまで繰り返し更新される。
前述の訓練方法は勾配降下法である。符号化装置は、損失関数が最小値に到達するように、勾配降下法を使用することによって、初期ウェイト値w及び初期バイアス・ベクトルbを反復的に最適化することができる。勾配降下法の具体的な詳細については、従来技術における技術的な形態を参照されたい。詳細は本願では説明しない。
符号化装置は、本願のこの実施形態において、更に、別の訓練方法を使用することによって、初期ニューラル・ネットワーク・ユニット及び別のニューラル・ネットワークを訓練することができることに留意すべきである。訓練方法の目的はすべて、ニューラル・ネットワークの出力値を最適化ターゲットに近づけ、ニューラル・ネットワーク・ユニットにおけるニューロン・パラメータを更新することである。
実施形態において、符号化装置が、カーネル行列
Figure 2022511771000038


に基づいて初期ニューラル・ネットワーク・ユニットを生成する場合、生成される初期ニューラル・ネットワーク・ユニットは図7に示されている。入力情報[u0,u1,u2]に関し、入力情報についての予想されるチェック結果であってT3に基づいて得られるものは、
Figure 2022511771000039


である。
別の実施形態において、符号化装置が、カーネル行列
Figure 2022511771000040


に基づいて初期ニューラル・ネットワーク・ユニットを生成する場合、生成される初期ニューラル・ネットワーク・ユニットは図8に示されている。入力情報[u0,u1,u2]に関し、入力情報についての予想されるチェック結果であってT3に基づいて得られるものは、
Figure 2022511771000041


である。
更に別の実施形態において、符号化装置が、カーネル行列
Figure 2022511771000042


に基づいて初期ニューラル・ネットワーク・ユニットを生成する場合、生成される初期ニューラル・ネットワーク・ユニットは図9に示されている。入力情報[u0,u1,u2,u3]に関し、入力情報についての予想されるチェック結果であってT4に基づいて得られるものは、
Figure 2022511771000043


である。
図5を更に参照すると、本願のこの実施形態において、訓練された初期ニューラル・ネットワーク・ユニットは、本願のこの実施形態におけるニューラル・ネットワーク・ユニットである。初期ニューラル・ネットワーク・ユニットが訓練された後、初期ニューラル・ネットワーク・ユニットに含まれる初期ニューロン・パラメータは、ニューロン・パラメータ(即ち、本願のこの実施形態における第3ニューロン・パラメータであり、以下、ニューロン・パラメータ3と言及される)に更新される。
本出願のこの実施形態において、ニューラル・ネットワーク・ユニットによって達成されることが可能な結果は、ニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータ3及び活性化関数に基づいて、入力符号化情報又は訓練情報(例えば、入力情報3)が符号化された後に、出力される出力情報3は、入力情報3の予想されるチェック結果と同等であるか、又はそれに近いものである。
同じ入力情報と同じ訓練方法に関し、初期ニューラル・ネットワーク・ユニットに含まれる初期ニューロン・パラメータが異なることに起因して、初期ニューラル・ネットワーク・ユニットが訓練された後に得られるニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータもまた異なることに留意すべきである。具体的には、1つのカーネル行列に対応する複数の初期ニューラル・ネットワーク・ユニットが存在する可能性がある。初期ニューラル・ネットワーク・ユニットは、異なるニューロン・パラメータを含み、同じ出力情報を出力する。換言すれば、複数の初期ニューラル・ネットワーク・ユニットは異なるニューロン・パラメータを含むが、符号化能力は同じである。
ステップ102:初期符号化ニューラル・ネットワークを生成する。
具体的には、本願のこの実施形態において、符号化装置は、ステップ101で生成されたニューラル・ネットワーク・ユニットに基づいて、初期符号化ニューラル・ネットワークを生成することができる。換言すれば、初期符号化ニューラル・ネットワークは、1つ以上のニューラル・ネットワーク・ユニットを含む。初期符号化ニューラル・ネットワークは、ニューロン・パラメータ2を含む。ニューロン・パラメータ2は、ニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータ3を含む。具体的には、初期符号化ニューラル・ネットワークを形成する1つ以上のニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータ2は、初期符号化ニューラル・ネットワークの初期ニューロン・パラメータを形成する。次に、符号化装置は、初期ニューロン・パラメータを更新するために初期符号化ニューラル・ネットワークを訓練する。
具体的には、図10は、初期符号化ニューラル・ネットワークを生成するステップの概略フローチャートである。
図10において、ステップ1021では符号化ネットワーク・ダイアグラムを取得する。
具体的には、本願のこの実施形態において、符号化装置は、符号化ネットワーク・ダイアグラムを取得することができる。符号化ネットワーク・ダイアグラムは、少なくとも1つの符号化バタフライ・ダイアグラムを含む。符号化バタフライ・ダイアグラムは、符号化バタフライ・ダイアグラムの入力情報と符号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用される。符号化ネットワーク・ダイアグラムは、システムによって提供されてもよいことに留意すべきである。図11は、符号化ネットワーク・ダイアグラムの一種を示す。
ステップ1022:ニューラル・ネットワーク・ユニットを、符号化バタフライ・ダイアグラムと照合する。
ステップ1023:照合に成功した符号化バタフライ・ダイアグラムを、ニューラル・ネットワーク・ユニットで置換する。
具体的には、例えば式(2)を参照し、式(7)に対応する初期符号化ニューラル・ネットワークが、
Figure 2022511771000044


のように生成されることを必要とする場合、T2に基づいて生成されるニューラル・ネットワーク・ユニットに首尾良く合致する符号化バタフライ・ダイアグラムであって、図11の符号化ネットワーク・ダイアグラム内にあるものは、T2に基づいて生成されたニューラル・ネットワーク・ユニットで置換されることが可能である。
具体的には、符号化装置は、ニューラル・ネットワーク・ユニットを、符号化ネットワーク・ダイアグラム内の符号化バタフライ・ダイアグラムと個々に照合する。マッチング方法は次のとおりである。
例えば、T2に基づいて生成されるニューラル・ネットワーク・ユニット(他のニューラル・ネットワーク・ユニットと区別されるべきであり、ニューラル・ネットワーク・ユニットは、以下、ニューラル・ネットワーク・ユニット1と言及される)に関して、図6を参照することができる。言い換えれば、ニューラル・ネットワーク・ユニット1の入力情報と出力情報のコード長は両方とも2であり、ニューラル・ネットワーク・ユニット1が2×2ニューラル・ネットワーク・ユニットであることを確認できる。符号化装置は、同じ2×2構造を有する符号化バタフライ・ダイアグラムについて、符号化ネットワーク・ダイアグラムを検索することができる。2×2構造を有する符号化バタフライ・ダイアグラムは、図12に示されている。
次いで、符号化装置は、図12に示されるように、符号化ネットワーク・ダイアグラムにおいてニューラル・ユニット1に首尾良く合致するものであって、2×2構造を有するすべての符号化バタフライ・ダイアグラムを、ニューラル・ネットワーク・ユニット1に置換して、初期符号化ニューラル・ネットワークを得ることができる。
上記のように、同一のカーネル行列に対して、異なるニューロン・パラメータを有する複数のニューラル・ネットワーク・ユニットが相応して存在する可能性があり、複数のニューラル・ネットワーク・ユニットは、同一のカーネル行列に対応するニューラル・ネットワーク・ユニット・セットとして使用されてもよいことに留意すべきである。オプションとして、実施形態において、初期符号化ニューラル・ネットワークは、ニューラル・ネットワーク・ユニット・セット内の任意の1つ以上のニューラル・ネットワーク・ユニットを含んでもよい。換言すれば、符号化ネットワーク・ダイアグラム中の符号化バタフライ・ダイアグラムは、ニューラル・ネットワーク・ユニット・セット中の任意の1つ以上のニューラル・ネットワーク・ユニットで置き換えることが可能である。
オプションとして、別の実施形態において、式(8)によれば、
Figure 2022511771000045


であり、生成行列Gに対応する初期符号化ニューラル・ネットワークは、異なるカーネル行列に対応するニューラル・ネットワーク・ユニットであって、ニューラル・ネットワーク・ユニット・セット内にあるものを含む可能性があることを学ぶことができる。
例えば、カーネル行列T2に対応するニューラル・ネットワーク・ユニット・セット1は、{ニューラル・ネットワーク・ユニット1,ニューラル・ネットワーク・ユニット2,及びニューラル・ネットワーク・ユニット3}を含み、カーネル行列T3に対応するニューラル・ネットワーク・セット2は、{ニューラル・ネットワーク・ユニット4,ニューラル・ネットワーク・ユニット5,及びニューラル・ネットワーク・ユニット6}を含む。この場合、符号化装置により取得される符号化ネットワーク・ダイアグラムは、2×2構造を有する少なくとも1つの符号化バタフライ・ダイアグラム、及び3×3構造を有する少なくとも1つの符号化バタフライ・ダイアグラムを含む。次いで、符号化装置は、ニューラル・ネットワーク・ユニット1、ニューラル・ネットワーク・ユニット3、及びニューラル・ネットワーク・ユニット5の各々を、符号化バタフライ・ダイヤグラムと照合し、照合に成功した符号化バタフライ・ダイヤグラムを、ニューラル・ネットワーク・ユニットと置換して、初期符号化ニューラル・ネットワークを得ることができる。
ステップ103:初期符号化ニューラル・ネットワークを訓練して、符号化ニューラル・ネットワークを取得する。
具体的には、本願のこの実施形態において、符号化装置は、初期符号化ニューラル・ネットワークにより出力された出力情報2と入力情報2の予想されるチェック結果との間の誤差が閾値未満になるまで、初期符号化ニューラル・ネットワークの活性化関数及びニューロン・パラメータ2(ニューロン・パラメータ1を含む)に基づいて、初期符号化ニューラル・ネットワークを訓練することができる。更に、初期符号化ニューラル・ネットワークが訓練された後、ニューロン・パラメータ2は更新される。
本願のこの実施形態において、訓練された初期符号化ニューラル・ネットワークは符号化ニューラル・ネットワークであり、更新されたニューロン・パラメータ2は符号化ニューラル・ネットワークに対応するニューロン・パラメータ1である。ニューロン・パラメータ1は、符号化ニューラル・ネットワークに入力される入力情報1と、符号化ニューラル・ネットワークによって出力される出力情報1との間のマッピング関係を示すために使用される。
初期符号化ニューラル・ネットワークを訓練する具体的なステップについては、ニューラル・ネットワーク・ユニットの訓練ステップを参照されたい。詳細はここで再び説明しない。
ステップ104:入力情報を取得する。
具体的には、本願のこの実施形態において、符号化装置は、符号化装置との通信接続を有する他の装置(例えば、端末の入力装置)から、符号化されることを必要とする情報(即ち、本願のこの実施形態における符号化対象の情報)、即ち、入力情報を取得することができる。
ステップ105:符号化ニューラル・ネットワークに基づいて入力情報を符号化し、出力情報を取得及び出力する。
具体的には、本願のこの実施形態において、符号化装置は、生成された符号化ニューラル・ネットワークに基づいて、取得した入力情報(他の入力情報と区別されるべきであり、入力情報は、以下、入力情報1と言及される)を符号化して、出力情報1を取得及び出力することができる。具体的な符号化プロセスは次のとおりである:符号化装置は、ニューロン・パラメータ1に基づいて入力情報1に対する重み付け加算を実行し、次いで活性化関数に基づいて演算を実行して出力情報1を求める。具体的な詳細については、従来技術における技術的な形態を参照されたい。詳細は本願では説明されない。
結論として、本願のこの実施形態における技術的解決策では、対応するニューラル・ネットワーク・ユニットは、カーネル行列に基づいて生成され、符号化ネットワークはニューラル・ネットワーク・ユニットから構成されることが可能である。このように、大きなニューラル・ネットワークは、小さなニューラル・ネットワーク・ユニットが接続された後に取得され、その結果、符号化学習プロセスにおいて、小規模な学習サンプルを使用して、例えばポーラー符号のような相対的に長いコードワードを使用する情報の、ニューラル・ネットワークの複雑性及び学習困難性に対する影響を弱めるように、コードワード空間全体に対する一般化を実現することが可能である。
シナリオ2
シナリオ1は、ポーラー符号に基づいて符号化ネットワークを生成するプロセスの詳細な例として主に使用される。本願のこの実施形態における符号化方法は、一般的な符号化方法として使用されることが可能であり、即ち、別の符号化方法、例えば、リード・ソロモン(Reed-Solomon,RS)符号、ハミング符号、ボーズ・チョドリ・オッケンジェム
(Bose-Chaudhuri-Hocquenghem,BCH)符号、畳み込み符号、ターボ(Turbo)符号、及び低密度パリティ・チェック(low-density
parity-check,LDPC)符号(これは、以下、一般符号化と言及される)に関して使用することができる。
図1を参照すると、図14は、本願の実施形態による符号化方法の概略フローチャートである。
図14において、ステップ201では、ニューラル・ネットワーク・ユニットを生成する。
具体的には、この実施形態において、一般符号化に関し、任意の長さk1を有する入力情報uを有するコードワードcは、式(9)を使用することにより表現されることが可能である:
Figure 2022511771000046

uの情報ビット長はk2である。この場合、符号化行列Gの次元はk1×k2である。
同様に、符号化装置は、カーネル行列に対応する初期ニューラル・ネットワーク・ユニットを生成することができる。
本願の技術的解決策をよりよく理解するために、以下、一般符号化におけるハミング符号の例を用いて、詳細に説明する。ハミング符号の場合、符号化行列はカーネル行列と同じであり、即ちG=Tであることに留意すべきである。
カーネル行列が、
Figure 2022511771000047


である例において、生成される初期ニューラル・ネットワーク・ユニットを図15に示す。
入力情報がu=[0,1]である場合、入力情報uの予想されるチェック結果は、
Figure 2022511771000048


である。
次に、符号化装置は、出力情報が予想されるチェック結果に近づくまで、初期ニューラル・ネットワーク・ユニットを訓練する。訓練の具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ202:初期符号化ニューラル・ネットワークを生成する。
ハミング符号の場合、符号化装置は、取得した符号化ネットワーク・ダイアグラム中のバタフライ・ダイアグラムを、ニューラル・ネットワーク・ユニットに置換して、初期符号化ネットワークを得ることができる。これはシナリオ1と同じである。具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ203:初期符号化ニューラル・ネットワークを訓練して、符号化ニューラル・ネットワークを取得する。
このステップの具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ204:出力情報を取得する。
このステップの具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ205:符号化ニューラル・ネットワークに基づいて入力情報を符号化し、出力情報を取得及び出力する。
このステップの具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
シナリオ3
図1に関し、図16は、本願の実施形態による復号化方法の概略フローチャートである。
図16において、ステップ301ではニューラル・ネットワーク・ユニットを生成する。
具体的には、本願のこの実施形態では、復号化装置は、カーネル行列に基づいて初期ニューラル・ネットワーク・ユニットを生成することが可能であり、次いで、符号化装置は、初期ニューラル・ネットワーク・ユニットの出力値が予想される最適ターゲットに近づくように、初期ニューラル・ネットワーク・ユニットを訓練する。この場合、訓練された初期ニューラル・ネットワーク・ユニットは、ニューラル・ネットワーク・ユニットである。訓練の後、初期ニューラル・ネットワーク・ユニットに含まれる初期ニューロン・パラメータは、ニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータに更新される。更に、出力値が予想される最適化ターゲットに近いということは、初期ネットワーク・ユニットにより出力される出力情報と初期ネットワーク・ユニットへ入力される入力情報に対応する予想されるチェック結果との間の誤差が、閾値未満であるということである。本願のこの実施形態では、入力情報の予想されるチェック結果は、初期ニューラル・ネットワーク・ユニットに対応するカーネル行列に基づいてGF(2)内の入力情報に対して乗法演算及び加法演算が実行された後に取得される。
以下、ポーラー符号を参照してニューラル・ネットワーク・ユニットを生成する方法を詳細に説明する。
具体的には、ポーラー符号に対する復号化の式は、以下の式(10)を用いて示すことが可能である:
Figure 2022511771000049

ここで、xはニューラル・ネットワーク・ユニットの出力情報であり、yはニューラル・ネットワーク・ユニットの入力情報である。シナリオ1では、各ニューラル・ネットワーク・ユニット又はニューラル・ネットワークの入力はビット情報であり、符号化ニューラル・ネットワークは、符号化されたビット情報を出力し、チャネル処理の後にビット情報を尤度比に変換することに留意すべきである。従って、このシナリオでは、ニューラル・ネットワーク・ユニット及びニューラル・ユニットの両方の入力情報は、チャネルを介して出力される尤度比である。
本願のこの実施形態では、復号化装置は、式(10)及び式(2)(式(2)におけるnは1である)に従って、初期ニューラル・ネットワーク・ユニットの入力情報に対応する予想されるチェック結果を取得し、入力情報及び入力情報の予想されるチェック結果に基づいて、初期ニューラル・ネットワーク・ユニットを生成する。
例えば、
Figure 2022511771000050


である場合に、初期ニューラル・ネットワーク・ユニットを図17に示す。入力情報[y0,y1,y2]に関し、入力情報についての予想されるチェック結果であって、T3に基づいて取得されるものは、
Figure 2022511771000051


である。
Figure 2022511771000052


である場合に、初期ニューラル・ネットワーク・ユニットを図18に示す。入力情報[y0,y1,y2]に関し、入力情報についての予想されるチェック結果であって、T3に基づいて取得されるものは、
Figure 2022511771000053


である。
Figure 2022511771000054


である場合に、初期ニューラル・ネットワーク・ユニットを図19に示す。入力情報[y0,y1,y2,y3]に関し、入力情報についての予想されるチェック結果であって、T4に基づいて取得されるものは、
Figure 2022511771000055


である。
初期ニューラル・ネットワーク・ユニットを生成する具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
次いで、復号化装置は、初期ニューラル・ネットワーク・ユニットを訓練して、ニューラル・ネットワーク・ユニットを取得する。具体的な訓練プロセスについては、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ302:初期復号化ニューラル・ネットワークを生成する。
具体的には、本願のこの実施形態では、復号化装置は、ステップ301で生成されたニューラル・ネットワークユニットに基づいて、初期符号化ニューラル・ネットワークを生成することができる。換言すれば、初期符号化ニューラル・ネットワークは、1つ以上のニューラル・ネットワーク・ユニットを含む。
具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ303:初期デコード・ニューラル・ネットワークを訓練して、復号化ニューラル・ネットワークを取得する。
具体的には、本願のこの実施形態では、復号化装置は、初期復号化ニューラル・ネットワークの出力情報を、予想される復号化結果に近づけるように、初期復号化ニューラル・ネットワークを訓練し、復号化ニューラル・ネットワークに含まれるニューロン・パラメータを更新することができる。訓練された初期復号化ニューラル・ネットワークは、復号化ニューラル・ネットワークである。
具体的には、本願のこの実施形態において、復号化装置が訓練情報に基づいて復号化ニューラル・ネットワークを訓練するプロセスは、シナリオ1における符号化ニューラル・ネットワークの訓練プロセスとは異なる。符号化ニューラル・ネットワークの訓練プロセスでは、入力情報(即ち、訓練情報)が訓練され、次いで、出力情報と入力情報の予想されるチェック結果との間の誤差が求められ、誤差に基づいて別の訓練ステップが実行され、ニューロン・パラメータが更新される。しかしながら、復号化ニューラル・ネットワークの訓練プロセスでは、復号化ニューラル・ネットワークに入力される訓練情報は尤度比であるので、復号化ニューラル・ネットワークにおいて、損失パラメータを計算するプロセスは、出力情報と予想される復号化結果とに基づいて損失関数を計算している。予想される復号化結果は、次のような方法で得られる。何らかの符号化装置(本出願の実施形態における符号化装置であってもよいし、又は別のタイプの符号化装置であってもよい)が、符号化情報(符号化情報はビット情報である)を符号化し、符号化結果を出力する。符号化結果もビット情報である。この実施形態において、符号化情報は予想される復号化結果である。換言すれば、復号化ニューラル・ネットワークに入力される訓練情報は、符号化結果に対してチャネル処理が実行された後に生成される尤度比である。従って、復号化ニューラル・ネットワークの予想される出力値(即ち、予想される復号結果)は、符号化情報であるべきである。
ステップ304:入力情報を取得する。
このステップの具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ305:復号化ニューラル・ネットワークに基づいて入力情報を復号化し、出力情報を取得及び出力する。
具体的には、本願のこの実施形態では、復号化装置は、出力情報を取得及び出力するために、生成された復号化ニューラル・ネットワークに基づいて、受信した入力情報を復号化することが可能である。具体的な復号化処理は次のとおりである:復号化装置が、ニューロン・パラメータに基づいて入力情報に関して重み付け加算を実行し、次いで、活性化関数に基づいて演算を実行して出力情報を取得する。具体的な詳細については、従来技術における技術的な形態を参照されたい。詳細は本願では説明されない。
結論として、本願のこの実施形態における技術的解決策では、対応するニューラル・ネットワーク・ユニットはカーネル行列に基づいて生成されることが可能であり、そして、復号化ニューラル・ネットワークはニューラル・ネットワーク・ユニットから構成されることが可能である。このように、大きなニューラル・ネットワークは、小さなニューラル・ネットワーク・ユニットが接続された後に取得され、その結果、復号化学習プロセスにおいて、小規模な学習サンプルを使用して、例えばポーラー符号のような相対的に長いコードワードを使用する情報の、ニューラル・ネットワークの複雑性及び学習困難性に対する影響を弱めるように、コードワード空間全体に対する一般化を実現することが可能である。
オプションとして、本願のこの実施形態における復号化方法は、他の符号化方法(即ち、一般符号化)、例えば、ハミング符号にも適用することができる。具体的な詳細については、シナリオ1、シナリオ2、及びシナリオ3を参照されたい。詳細はここで再び説明しない。
シナリオ4
図1に関し、図20は、本願の実施形態による符号化/復号化方法の概略フローチャートである。
図20において、ステップ401では、初期符号化/復号化ニューラル・ネットワークを生成する。
具体的には、本願のこの実施形態において、符号化/復号化装置は、上記の符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークに基づいて、初期符号化/復号ニューラル・ネットワークを生成することができる。
オプションとして、実施形態において、生成された初期符号化/復号化ニューラル・ネットワークにおける符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークは、同じニューロン・パラメータを有することが可能である。例えば、ポーラー符号の場合、生成された初期符号化/復号化ニューラル・ネットワークにおける符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークは、同じニューロン・パラメータを有する可能性がある。
オプションとして、別の実施形態において、生成された初期符号化/復号化ニューラル・ネットワークにおける符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークは、異なるニューロン・パラメータを有する可能性がある。例えば、ハミング符号の場合、生成された初期符号化/復号ニューラル・ネットワークにおける符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークは、異なるニューロン・パラメータを有する可能性がある。
この実施形態では、詳細な説明の例としてポーラー符号を使用する。
具体的には、符号化/復号化装置は、符号化装置によって生成される符号化ニューラル・ネットワークを取得することが可能である。シナリオ1における訓練プロセスは、符号化ニューラル・ネットワークに関して完了している。換言すれば、符号化ニューラル・ネットワークの出力情報は、予想されるチェック結果に近い。
そして、符号化/復号化装置は、復号化装置によって生成された復号化ニューラル・ネットワークを得ることができる。復号化ニューラル・ネットワークは、訓練が完了している復号化ニューラル・ネットワークであってもよい。換言すれば、復号化ニューラル・ネットワークの出力情報は、予想されるチェック結果に近い。代替的に、復号化ニューラル・ネットワークは、訓練が実行されていない初期復号化ニューラル・ネットワーク、即ち、初期ニューロン・パラメータのみを有する復号化ニューラル・ネットワークであってもよい。
次に、符号化/復号化装置は、取得した符号化ニューラル・ネットワーク及び取得した復号化ニューラル・ネットワークに関するパラメータ共有を実現することが可能である。換言すれば、復号化ニューラル・ネットワーク(又は初期復号化ニューラル・ネットワーク)におけるニューロン・パラメータは、初期符号化/復号化ニューラル・ネットワークを生成するために、符号化ニューラル・ネットワークにおけるニューロン・パラメータで置換される。
別の実施形態において、符号化/復号化装置は、代替的に、訓練が完了した復号化ニューラル・ネットワークを取得し、訓練が完了した符号化ニューラル・ネットワーク、又は訓練が完了していない初期符号化ニューラル・ネットワークを取得する可能性がある。符号化/復号化装置は、初期符号化/復号化ニューラル・ネットワークを生成するために、符号化ニューラル・ネットワーク(又は初期符号化ニューラル・ネットワーク)におけるニューロン・パラメータを、復号化ニューラル・ネットワークにおけるニューロン・パラメータに置換することが可能である。
ステップ402:初期符号化/復号化ニューラル・ネットワークを訓練して、符号化/復号化ニューラル・ネットワークを取得する。
具体的には、本願のこの実施形態において、符号化/復号装置は、初期符号化/復号化ニューラル・ネットワークを訓練する。訓練された初期符号化/復号化ニューラル・ネットワークは、符号化/復号化ニューラル・ネットワークである。
図21は、初期符号化/復号化ニューラル・ネットワークを訓練するための方法の概略フローチャートである。
図21において、符号化/復号化装置は、符号化/復号化ニューラル・ネットワークの符号化ニューラル・ネットワーク側で入力情報を入力する。その入力情報は、訓練情報と言及されてもよい。訓練情報のコード長は、符号化/復号化ニューラル・ネットワークのコード長と同じである。
次いで、初期符号化/復号化ニューラル・ネットワークにおける符号化ニューラル・ネットワークは、訓練情報を符号化して、符号化結果を取得及び出力する。次いで、符号化結果に対してチャネル処理が実行された後、処理された結果が復号化ニューラル・ネットワークに入力される。復号化ニューラル・ネットワーク側に入力される符号化結果は、尤度比である。
次いで、復号化ニューラル・ネットワーク側は、入力された尤度比を復号化して、復号化結果を取得及び出力する。復号化結果はまた、訓練結果として参照されてもよい。
この実施形態において、入力訓練情報は、符号化/復号化ニューラル・ネットワークの予想されるチェック結果である。符号化/復号化装置は、訓練情報及び訓練結果に基づいて損失関数を求めることができる。損失関数を求める方法は、平均二乗誤差又は差分のような関数であってもよい。更に、符号化/復号化装置は、損失関数の結果が収束しているか否か、即ち、訓練情報と訓練結果との間の誤差が閾値より大きいか否かを判定する(誤差を計算する具体的な詳細については、前述のシナリオ1における実施形態を参照されたい)。誤差が閾値未満である場合、訓練は終了する。誤差が閾値以上である場合、引き続き次のステップが実行される。
この実施形態において、誤差が閾値以上である場合、符号化/復号化装置は、オプティマイザを使用することによって、符号化/復号化ニューラル・ネットワークを最適化することができる。最適化方法は、勾配降下のような方法で符号化/復号化ニューラル・ネットワークに対して反復を実行すること、符号化/復号化ネットワークにおいてニューロン・パラメータを更新すること、及び更新されたニューロン・パラメータを、符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークと共有することを含むが、これに限定されない。次いで、符号化/復号化装置は、訓練結果と訓練情報との間の誤差が閾値未満になるまで、或いは訓練ラウンド回数が訓練ラウンド回数閾値に到達するまで、或いは訓練期間が訓練期間閾値に到達するまで、前述の訓練ステップを反復する。
訓練済みの初期符号化/復号化ニューラル・ネットワークは、符号化/復号化ニューラル・ネットワークである。
ステップ403:符号化/復号化ニューラル・ネットワークに基づいて入力情報を符号化し、出力情報を取得及び出力する。
具体的には、本願のこの実施形態において、訓練された符号化/復号化ニューラル・ネットワークは、符号化ニューラル・ネットワーク部分と復号化ニューラル・ネットワーク部分とに分割されてもよい。符号化/復号化ニューラル・ネットワークは、符号化ニューラル・ネットワーク部分を使用することによって入力情報を符号化し、符号化結果を取得及び出力する。そして、復号化ニューラル・ネットワーク部分は、復号化結果を復号化し、復号化結果(復号化結果は出力情報であり、復号化結果は入力情報と同じである)を取得及び出力する。
符号化ニューラル・ネットワークは、端末及び/又は基地局に配置されることが可能であり、復号化ニューラル・ネットワークは、端末及び/又は基地局に配置されることが可能である。
具体的には、端末が信号を基地局に送信する場合、端末の符号化ニューラル・ネットワーク部分は、符号化対象情報(即ち、入力情報)を符号化し、符号化結果を取得及び出力し、チャネルを介して符号化結果を基地局へ送信する。符号化結果を受信した後、基地局は、復号化ニューラル・ネットワークを使用することによって符号化結果を復号化し、復号化結果、即ち、符号化対象情報を取得及び出力する。
基地局が端末に信号を送信する場合、基地局の符号化ニューラル・ネットワーク部分は、符号化対象情報を符号化し、符号化結果を取得及び出力し、チャネルを介して符号化結果を端末へ送信する。符号化結果を受信した後、端末は、復号化ニューラル・ネットワークを使用することによって符号化結果を復号化し、復号化結果、即ち、符号化対象情報を取得及び出力する。
異なるニューロン・パラメータを有する符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークを含む、ハミング符号などに関する符号化/復号化ニューラル・ネットワークにおいては、訓練を行うことなく両側で符号化及び復号化ニューラル・ネットワークを使用することによって、符号化及び復号化が直接的に実行されてもよいことに留意すべきである。
結論として、本願のこの実施形態における技術的解決策において、パラメータは、符号化ニューラル・ネットワークと復号化ニューラル・ネットワークとの間で共有され、それによって、符号化/復号化ニューラル・ネットワークのパフォーマンスを改善し、複雑性を低減する。更に、符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークを含む符号化/復号化ニューラル・ネットワークを使用することによって、学習コスト及び困難性が低減され、学習効率が効果的に改善される。
オプションとして、実施形態において、本願のこの実施形態における符号化/復号化方法は、マルチ・エレメント・フィールドに適用されてもよい。ポーラー符号の例では、具体的には、2進ポーラー符号の生成行列は、「0」及び「1」の2つの要素から構成され、マルチ・エレメント・ポーラー符号の生成行列は、GF(2m)(mは、1より大きな整数である)におけるゼロ要素と非ゼロ要素から構成されることが可能である。2進ポーラー符号と同様に、マルチ・エレメント・ポーラー符号の生成行列は、依然として、カーネル行列に基づいてクロネッカー積演算により取得されてもよい。
Figure 2022511771000056


というシナリオ1における例を使用する。この実施形態では、
Figure 2022511771000057


における1は、GF(2m)における非ゼロ要素で置換される。例えば、
Figure 2022511771000058


である。ここで、j,k,及びlは自然数である。マルチ・エレメント・ポーラー符号の生成行列Gは、式(2)に従って、
Figure 2022511771000059


のように表現されてもよい。マルチ・エレメント・フィールドにおいて、
Figure 2022511771000060


に対応するニューラル・ネットワーク・ユニットは、図22に示されている。入力情報[y0,y1]に関し、入力情報についての予想されるチェック結果であって、T2に基づいて取得されるものは、
Figure 2022511771000061


である。
マルチ・エレメント・フィールドで生成されるニューラル・ネットワーク・ユニットに基づいて符号化ニューラル・ネットワーク又は復号化ニューラル・ネットワークを生成する方法については、シナリオ1ないしシナリオ3における説明を参照されたい。詳細はここで再び説明しない。
オプションとして、実施形態では、本願のこの実施形態における符号化装置、復号化装置、及び/又は符号化/復号化装置が、ニューラル・ネットワーク・ユニット又はニューラル・ネットワーク(符号化ニューラル・ネットワーク、復号化ニューラル・ネットワーク、及び/又は符号化/復号化ニューラル・ネットワークを示す)を訓練するプロセスにおいて、プリセット条件が更に設定されていてもよい。訓練プロセスにおいて、プリセット条件に到達すると、訓練は停止させられる。プリセット条件は:訓練ラウンド回数が訓練ラウンド回数閾値よりも大きいこと、即ち、訓練ラウンド回数が訓練ラウンド回数閾値に到達した場合に、訓練は停止させられてもよいこと;又は訓練継続期間が訓練継続期間閾値よりも大きいこと、即ち、訓練継続期間が訓練継続期間閾値に到達した場合に、訓練は停止させられてもよいこと、を含むがこれらに限定されない。別のプリセット条件が更に設定されてもよい。これは本願では限定されない。複数の訓練条件が設定されてもよいことに留意すべきである。例えば、訓練条件は、A:損失関数が損失関数閾値未満であること(即ち、本願のこの実施形態における出力情報と予想されるチェック結果との間の誤差が閾値未満であること)であってもよいし;又は訓練条件は、B:訓練ラウンド回数が訓練ラウンド回数閾値より大きいことであってもよい。損失関数は損失関数閾値に到達していないが、訓練ラウンド回数は訓練ラウンド回数閾値に到達した場合、訓練は停止させられてもよい。これにより、訓練時間は短縮され、リソースが節約される。
オプションとして、本願のこの実施形態では、訓練段階において、各ニューラル・ネットワーク・ユニット及びニューラル・ネットワークの入力は訓練情報であり;符号化段階において、各ニューラル・ネットワーク・ユニット及びニューラル・ネットワークの入力は、符号化対象の情報である。同一の構造を有するニューラル・ネットワーク・ユニット又はニューラル・ネットワークの訓練情報は、ニューラル・ネットワーク・ユニット又はニューラル・ネットワークの符号化情報と同一であってもよいし、又は異なっていてもよい。これは本願で限定されない。
オプションとして、実施形態において、訓練段階(ニューラル・ネットワーク・ユニットの訓練部分とニューラル・ネットワークの訓練部分(符号化ニューラル・ネットワーク、復号化ニューラル・ネットワーク、及び/又は符号化/復号化ニューラル・ネットワーク)とを含む)は、オンラインで実現されてもよく、即ち、訓練結果は、符号化装置に入力されるべき入力情報として直接的に使用されてもよい。別の実施形態において、訓練段階は代替的にオフラインで実現されてもよく、即ち、本願のこの実施形態におけるニューラル・ネットワーク・ユニット及びニューラル・ネットワークが適用される前に、ニューラル・ネットワーク・ユニット及びニューラル・ネットワークの訓練が完了している。
以下、本願の実施形態において提供される符号化装置を説明する。以下は図23に示されている。
符号化装置300は、処理ユニット301と通信ユニット302とを含む。オプションとして、符号化装置300はストレージ・ユニット303を更に含む。処理ユニット301、通信ユニット302、及びストレージ・ユニット303は、通信バスを用いて接続される。
ストレージ・ユニット303は、1つ以上のメモリを含んでもよい。メモリは、プログラム又はデータを1つ以上のデバイス又は回路に記憶するように構成されたコンポーネントであってもよい。
ストレージ・ユニット303は、独立して存在してもよく、通信バスを用いて処理ユニット201に接続される。代替的に、ストレージ・ユニットは、処理ユニット301と一緒に統合されてもよい。
符号化装置300は、本願の実施形態における端末、例えば、端末200であってもよい。端末の概略図は図2bに示されるものであってもよい。オプションとして、符号化装置300の通信ユニット302は、端末のアンテナ及びトランシーバ、例えば図2bのアンテナ205及びトランシーバ202を含んでもよい。
符号化装置300は、本願の実施形態における端末内のチップ、例えば端末200内のチップであってもよい。通信ユニット302は、入力/出力インターフェース、ピン、回路などであってもよい。オプションとして、ストレージ・ユニットは、処理ユニット301が前述の実施形態の符号化方法を実行するように、方法のコンピュータ実行可能命令を端末側に記憶してもよい。ストレージ・ユニット303は、レジスタ、キャッシュ、RAM等であってもよく、ストレージ・ユニット302は、処理ユニット301と一体化されてもよい。ストレージ・ユニット303は、静的な情報及び命令を記憶することが可能なROM又は他のタイプの静的ストレージ・デバイスであってもよく、ストレージ・ユニット303は、処理ユニット301から独立していてもよい。オプションとして、無線通信技術の発展とともに、トランシーバは符号化装置300に統合されてもよい。例えば、トランシーバ202は通信ユニット302に統合される。
符号化装置300は、本願の実施形態における基地局、例えば、基地局100であってもよい。基地局100の概略図は図2aに示されるものであってもよい。オプションとして、符号化装置300の通信ユニット302は、基地局のアンテナ及びトランシーバ、例えば、図2aのアンテナ205及びトランシーバ203を含んでもよい。通信ユニット302は、基地局のネットワーク・インターフェース、例えば図2aのネットワーク・インターフェース204を更に含んでもよい。
符号化装置300は、本願の実施形態では、基地局内のチップ、例えば基地局100内のチップであってもよい。通信ユニット302は、入力/出力インターフェース、ピン、回路などであってもよい。オプションとして、ストレージ・ユニットは、処理ユニット301が前述の実施形態の符号化方法を実行するように、方法のコンピュータ実行可能命令を基地局側に記憶してもよい。ストレージ・ユニット32は、レジスタ、キャッシュ、RAM等であってもよく、ストレージ・ユニット303は、処理ユニット301と一体化されてもよい。ストレージ・ユニット303は、静的な情報及び命令を記憶することが可能なROM又は他のタイプの静的ストレージ・デバイスであってもよく、ストレージ・ユニット303は、処理ユニット301から独立していてもよい。オプションとして、無線通信技術の発展とともに、トランシーバは符号化装置300に統合されてもよい。例えば、トランシーバ203及びネットワーク・インターフェース204は通信ユニット302に統合される。
本願の実施形態において、符号化装置300が基地局又は基地局内のチップである場合、前述の実施形態における符号化方法を実装することができる。
以下、本願の実施形態において提供される復号化装置を説明する。以下は図24に示されている。
復号化装置400は、処理ユニット401及び通信ユニット402を含む。オプションとして、復号化装置400は、記憶ユニット403を更に含む。処理ユニット401、通信ユニット402、及びストレージ・ユニット403は、通信バスを用いて接続される。
ストレージ・ユニット403は、1つ以上のメモリを含んでもよい。メモリは、プログラム又はデータを1つ以上のデバイス又は回路に記憶するように構成されたコンポーネントであってもよい。
ストレージ・ユニット403は、独立して存在してもよく、通信バスを用いて処理ユニット201に接続される。代替的に、ストレージ・ユニットは、処理ユニット401と一緒に統合されてもよい。
復号化装置400は、本願の実施形態における端末、例えば、端末200であってもよい。端末の概略図は図2bに示されるものであってもよい。オプションとして、復号化装置400の通信ユニット403は、端末のアンテナ及びトランシーバ、例えば図2bのアンテナ205及びトランシーバ202を含んでもよい。
復号化装置400は、本願の実施形態における端末内のチップ、例えば端末200内のチップであってもよい。通信ユニット402は、入力/出力インターフェース、ピン、回路などであってもよい。オプションとして、ストレージ・ユニットは、処理ユニット401が前述の実施形態の復号化方法を実行するように、方法のコンピュータ実行可能命令を端末側に記憶してもよい。ストレージ・ユニット403は、レジスタ、キャッシュ、RAM等であってもよく、ストレージ・ユニット403は、処理ユニット401と一体化されてもよい。ストレージ・ユニット403は、静的な情報及び命令を記憶することが可能なROM又は他のタイプの静的ストレージ・デバイスであってもよく、ストレージ・ユニット403は、処理ユニット401から独立していてもよい。オプションとして、無線通信技術の発展とともに、トランシーバは符号化装置400に統合されてもよい。例えば、トランシーバ202は通信ユニット402に統合される。
復号化装置400は、本願の実施形態における基地局、例えば、基地局100であってもよい。基地局100の概略図は図2aに示されるものであってもよい。オプションとして、符号化装置400の通信ユニット402は、基地局のアンテナ及びトランシーバ、例えば、図2aのアンテナ205及びトランシーバ203を含んでもよい。通信ユニット402は、基地局のネットワーク・インターフェース、例えば図2aのネットワーク・インターフェース204を更に含んでもよい
復号化装置400は、本願の実施形態では、基地局内のチップ、例えば基地局100内のチップであってもよい。通信ユニット403は、入力/出力インターフェース、ピン、回路などであってもよい。オプションとして、ストレージ・ユニットは、処理ユニット401が前述の実施形態の復号化方法を実行するように、方法のコンピュータ実行可能命令を基地局側に記憶してもよい。ストレージ・ユニット32は、レジスタ、キャッシュ、RAM等であってもよく、ストレージ・ユニット403は、処理ユニット301と一体化されてもよい。ストレージ・ユニット403は、静的な情報及び命令を記憶することが可能なROM又は他のタイプの静的ストレージ・デバイスであってもよく、ストレージ・ユニット403は、処理ユニット401から独立していてもよい。オプションとして、無線通信技術の発展とともに、トランシーバは符号化装置400に統合されてもよい。例えば、トランシーバ203及びネットワーク・インターフェース204は通信ユニット402に統合される。
本願の実施形態において、復号化装置400が基地局又は基地局内のチップである場合、前述の実施形態における復号化方法を実装することができる。
以下、本願の実施形態において提供される符号化装置500を説明する。以下は、図25に示されている。
符号化装置500は、取得モジュール501及び符号化モジュール502を含む。
取得モジュール501は、「入力情報を取得すること」の関連ステップを実行するように構成される。例えば、取得モジュール501は、前述の方法の実施形態におけるステップ104及びステップ204を実行する際に、符号化装置500をサポートする。
符号化モジュール502は、「符号化ニューラル・ネットワークを取得すること」の関連ステップを実行するように構成される。例えば、符号化モジュール502は、前述の方法の実施形態におけるステップ101、ステップ102、ステップ103、ステップ201、ステップ202、及びステップ203を実行する際に、符号化装置500をサポートする。
更に、符号化モジュール502は、「入力情報を符号化すること」の関連ステップを実行するように更に構成されてもよい。例えば、符号化モジュール502は、前述の方法の実施形態におけるステップ105及びステップ205を実行する際に、符号化装置500をサポートする。
符号化装置500は、取得モジュール501及び符号化モジュール502を使用することによって、本願のこの実施形態における符号化装置の他の機能を実現することができる。詳細については、前述の実施形態における関連する内容を参照されたい。
以下、本願の実施形態において提供される復号化装置600を説明する。以下は、図26に示されている。
復号化装置600は、取得モジュール601及び復号化モジュール602を含む。
取得モジュール601は、「入力情報を取得すること」の関連ステップを実行するように構成される。例えば、取得モジュール601は、前述の方法の実施形態におけるステップ404を実行する際に、符号化装置500をサポートする。
復号化モジュール602は、「復号化ニューラル・ネットワークを取得すること」の関連ステップを実行するように構成される。例えば、復号化モジュール602は、前述の方法の実施形態におけるステップ301、ステップ302、及びステップ303を実行する際に、符号化装置600をサポートする。
更に、復号化モジュール602は、「入力情報を復号化して出力情報を取得及び出力すること」の関連ステップを実行するように更に構成されてもよい。例えば、復号化モジュール602は、前述の方法の実施形態におけるステップ405を実行する際に、復号化装置600をサポートする。
復号化装置600は、取得モジュール601及び復号化モジュール602を使用することによって、本願のこの実施形態における復号化装置の他の機能を実現することができる。詳細については、前述の実施形態における関連する内容を参照されたい。
本願の実施形態は、更に、コンピュータ読み取り可能な記憶媒体を提供する。前述の実施形態で説明される方法は、ソフトウェア、ハードウェア、ファームウェア、又はそれらの任意の組み合わせを使用することによって、全体的に又は部分的に実現することができる。方法がソフトウェアで実現される場合、1つ以上の命令又はコードとして使用される機能は、コンピュータ読み取り可能な媒体に記憶されてもよいし、又はそこに伝送されてもよい。コンピュータ読み取り可能な媒体は、コンピュータ記憶媒体及び通信媒体を含む可能性があり、更に、コンピュータ・プログラムをある場所から別の場所へ転送することが可能な任意の媒体を含む可能性がある。記憶媒体は、コンピュータにアクセスすることが可能な任意の利用可能な媒体であるすることが可能である。
オプションの設計において、コンピュータ読み取り可能な媒体は、RAM、ROM、EEPROM、CD-ROM、又は他の光ディスク・ストレージ、磁気ディスク・ストレージ、又は他の磁気ストレージ・デバイス、又は、命令又はデータ構造の形態で必要とされるプログラ・ムコードを搬送又は記憶するように構成されることが可能な他の任意の媒体であって、コンピュータによりアクセスされ得るものを含んでもよい。更に、如何なる接続も、コンピュータ読み取り可能な媒体として適切に言及される。例えば、同軸ケーブル、光ファイバ・ケーブル、ツイスト・ペア、ディジタル加入者回線(DSL)、又は無線技術(例えば、赤外線、無線及びマイクロ波)がソフトウェアをウェブサイト、サーバー、又は他のリモート・ソースから伝送するために使用される場合、同軸ケーブル、光ファイバ・ケーブル、ツイスト・ペア、DSL、又は、赤外線、無線及びマイクロ波のような無線技術は、媒体の定義に含まれる。本明細書で使用される磁気ディスク及び光ディスクは、コンパクト・ディスク(CD)、レーザー・ディスク、光ディスク、デジタル多用途ディスク(DVD)、フロッピー・ディスク、及びブルーレイ・ディスクを含む。通常、磁気ディスクは磁気的にデータを再生し、光ディスクはレーザー光を用いて光学的にデータを再生する。前述の組み合わせはまた、コンピュータ読み取り可能な媒体の範囲内に含まれるべきである。
本願の実施形態は、更に、コンピュータ・プログラム製品を提供する。前述の実施形態で説明される方法は、ソフトウェア、ハードウェア、ファームウェア、又はそれらの任意の組み合わせを使用することによって、全体的に又は部分的に実現することができる。方法がソフトウェアで実現される場合、方法は、コンピュータ・プログラム製品の形態で全体的に又は部分的に実現されてもよい。コンピュータ・プログラム製品は、1つ以上のコンピュータ命令を含む。前述のコンピュータ・プログラム命令がコンピュータ上にロードされて実行される場合に、前述の方法の実施形態で説明された手順又は機能は、全体的又は部分的に生じる。前述のコンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータ・ネットワーク、ネットワーク・デバイス、ユーザー装置、又は他のプログラム可能な装置であってもよい。
上記は添付の図面を参照して本願の実施態様を説明している。しかしながら、本願は、前述の特定の実装に限定されない。前述の具体的な実装は単なる例であり、限定的なものではない。本願により触発された当業者は、本願の目的及びクレームの保護範囲から逸脱することなく、更に多くの修正を行うことが可能であり、その全ての修正は本願の保護範囲内に該当するものとする。


本願の実施形態は、通信分野、特に符号化方法及び装置並びに復号化方法及び装置に関連する。
現在、従来技術における符号化/復号化の学習プロセスでは、エンコーダ/デコーダはコードワード空間全体のサンプルを学習することを必要とする。ポーラー符号(Polar)の符号化特殊性に起因して、符号長は増加する。従って、ポーラー符号に対応するコードブック空間全体のうちのコード・シーケンスの量は、指数関数的に増加する。従って、従来技術において、情報ビットの量が比較的大きい場合には、コードワード空間全体を横断する複雑さが大幅に増加し、実装の複雑性は比較的高い。
本願は符号化方法及び装置並びに復号化方法及び装置を提供し、コードワード空間での探索におけるコード長の影響をある程度弱め、それによって符号化/復号化の学習効率を改善する。
上記の目的を達成するために、本願では以下の技術的解決策が使用される。
第1態様によれば、本願の実施形態は符号化方法を提供する。本方法は、第1入力情報を取得するステップと、次いで、取得した第1入力情報を、符号化ニューラル・ネットワークに基づいて符号化して、第1出力情報を取得及び出力するステップとを含むことが可能である。符号化ニューラル・ネットワークは第1ニューロン・パラメータを含む。第1ニューロン・パラメータは、第1入力情報と第1出力情報との間のマッピング関係を示すために使用されることが可能である。符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期符号化ニューラル・ネットワークが訓練された後に取得される。初期符号化ニューラル・ネットワークは、初期符号化ニューラル・ネットワークに入力される第2入力情報と、初期符号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用されることが可能な第2ニューロン・パラメータを含む。更に、初期符号化ニューラル・ネットワークが訓練された後に、第2ニューロン・パラメータは第1ニューロン・パラメータに更新される。第2ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成される。第3ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用される。第3出力情報と第3入力情報の予想されるチェック結果との間の誤差は閾値未満である。第3入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2)における第3入力情報に関して乗法演算及び加法演算が実行された後に取得される。本方法において、第1入力情報は符号化対象の情報であり、第2入力情報及び第3入力情報は訓練情報である。
前述の方法において、小さなニューラル・ネットワーク・ユニットが接続された後に、大きなニューラル・ネットワークが取得され、その結果、符号化学習プロセスでは、少ない学習サンプルを使用することにより、コードワード空間全体に対して一般化を実現することができる。
可能な実装において、第1ニューラル・ネットワーク・ユニットを取得するステップは、第1初期ニューラル・ネットワーク・ユニットを構築し、第1初期ニューロン・パラメータを設定するステップであって、第1初期ニューロン・パラメータは、第1初期ニューロンに入力される第4入力情報と第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは第3入力情報のコード長と第3出力情報のコード長とにおける最小値である、ステップと、
第4出力情報と第4入力情報の予想されるチェック結果との間の誤差が閾値未満になるまで、第1初期ニューラル・ネットワーク・ユニットを第1初期ニューロン・パラメータに基づいて訓練するステップであって、第4入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2)における第4入力情報に関して乗法演算及び加法演算が実行された後に取得される、ステップと、
第1初期ニューラル・ネットワーク・ユニットが訓練されると、第3ニューロン・パラメータを取得するために第1初期ニューロン・パラメータを更新するステップであって、第4入力情報は訓練情報である、ステップとを含むことが可能である。
前述の方法において、初期ニューラル・ネットワーク・ユニットは第1カーネル行列に基づいて生成され、次いで、初期ニューラル・ネットワーク・ユニットは、第1カーネル行列に対応するニューラル・ネットワーク・ユニットを生成するように訓練される。
可能な実装において、第1カーネル行列は
Figure 2022511771000113

であるか、又は第1カーネル行列は
Figure 2022511771000114

である。
前述の方法において、対応するニューラル・ネットワーク・ユニットは、異なる構造を有するカーネル行列に基づいて生成される。
可能な実装において、第1カーネル行列が
Figure 2022511771000115

である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000116

であり、ここで、x0及びx1は第3出力情報であり、u0及びu1は前記第3入力情報である;又は
第1カーネル行列が
Figure 2022511771000117

である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000118

であり、x0,x1,及びx2は第3出力情報であり、u0,u1,及びu2は第3入力情報である。
前述の方法において、対応するニューラル・ネットワーク・ユニットは、異なる構造を有するカーネル行列に基づいて生成される。
可能な実装において、初期符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成される。第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含む。第2ニューラル・ネットワーク・ユニットは、第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得される。第1初期ニューロン・パラメータは、第4ニューロン・パラメータを取得するために、第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新される。第4ニューロン・パラメータは第3ニューロン・パラメータと相違する。
前述の方法において、異なるニューロン・パラメータを有し、同じ構造のニューラル・ネットワーク・ユニットを含む符号化ニューラル・ネットワークが実現される。
可能な実装において、初期符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成される。第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含む。第5ニューロン・パラメータは、第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用される。第5出力情報と第5入力情報の予想されるチェック結果との間の誤差は閾値未満である。第5入力情報の予想されるチェック結果は、第2カーネル行列に基づいてGF(2m)における第5入力情報に関して乗法演算及び加法演算が実行された後に取得される。第5入力情報は訓練情報である。
前述の方法において、異なるカーネル行列に対応する複数のニューラル・ネットワーク・ユニットを含む符号化ニューラル・ネットワークが実現される。
可能な実装において、初期符号化ニューラル・ネットワークを取得するステップは、符号化ネットワーク・ダイアグラムを取得するステップであって、符号化ネットワーク・ダイアグラムは少なくとも1つの符号化バタフライ・ダイアグラムを含み、符号化バタフライ・ダイアグラムは、符号化バタフライ・ダイアグラムの入力情報と符号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用される、ステップと、第1ニューラル・ネットワーク・ユニットを、少なくとも1つの符号化バタフライ・ダイアグラムと照合するステップと、照合に成功した符号化バタフライ・ダイアグラムを、第1ニューラル・ネットワーク・ユニットで置換し、初期符号化ニューラル・ネットワークを取得するステップとを含む。
前述の方法において、小さなニューラル・ネットワーク・ユニットを含む符号化ニューラル・ネットワークが実現され、その結果、少ない学習サンプルを使用することにより、コードワード空間全体に対して一般化を実現することができる。
第2態様によれば、本願の実施形態は復号化方法を提供する。本方法は、第1入力情報を取得するステップと、次いで、取得した第1入力情報を復号化ニューラル・ネットワークに基づいて復号化し、第1出力情報を取得及び出力するステップとを含むことが可能でる。復号化ニューラル・ネットワークは第1ニューロン・パラメータを含む。第1ニューロン・パラメータは、第1入力情報と第1出力情報との間のマッピング関係を示すために使用される。復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期復号化ニューラル・ネットワークが訓練された後に取得される。初期復号化ニューラル・ネットワークは、初期復号化ニューラル・ネットワークに入力される第2入力情報と、初期復号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含む。更に、初期復号化ニューラル・ネットワークが訓練された後に、第2ニューロン・パラメータは第1ニューロン・パラメータに更新される。第2ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成される。第3ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用される。第3出力情報と第3入力情報の予想されるチェック結果との間の誤差は閾値未満である。第3入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第3入力情報に関して乗法演算及び加法演算が実行された後に取得される。第1入力情報は復号化対象の情報であり、第2入力情報及び第3入力情報は訓練情報である。
可能な実装において、第1ニューラル・ネットワーク・ユニットを取得するステップは、第1初期ニューラル・ネットワーク・ユニットを構築し、第1初期ニューロン・パラメータを設定するステップであって、第1初期ニューロン・パラメータは、第1初期ニューロンに入力される第4入力情報と第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは前記第3入力情報のコード長と前記第3出力情報のコード長とにおける最小値である、ステップと、
第4出力情報と第4入力情報の予想されるチェック結果との間の誤差が閾値未満になるまで、第1初期ニューラル・ネットワーク・ユニットを第1初期ニューロン・パラメータに基づいて訓練するステップであって、第4入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第4入力情報に関して乗法演算及び加法演算が実行された後に取得される、ステップと、
第1初期ニューラル・ネットワーク・ユニットが訓練されると、第3ニューロン・パラメータを取得するために第1初期ニューロン・パラメータを更新するステップであって、第4入力情報は訓練情報である、ステップとを更に含むことが可能である。
可能な実装において、第1カーネル行列は
Figure 2022511771000119

であるか、又は第1カーネル行列は
Figure 2022511771000120

である。
可能な実装において、前記第1カーネル行列が
Figure 2022511771000121

である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000122

であり、x0及びx1は第3出力情報であり、y0及びy1は前記第3入力情報である;又は
第1カーネル行列が
Figure 2022511771000123

である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000124

であり、x0,x1,及びx2は第3出力情報であり、y0,y1,及びy2は第3入力情報である。
可能な実装において、初期復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成される。第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含む。第2ニューラル・ネットワーク・ユニットは、第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得される。第1初期ニューロン・パラメータは、第4ニューロン・パラメータを取得するために、第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新される。第4ニューロン・パラメータは第3ニューロン・パラメータと相違する。
可能な実装において、初期復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成される。第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含む。第5ニューロン・パラメータは、第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用される。第5出力情報と第5入力情報の予想されるチェック結果との間の誤差は閾値未満である。第5入力情報の予想されるチェック結果は、第2カーネル行列に基づいてGF(2m)における第5入力情報に関して乗法演算及び加法演算が実行された後に取得される。第5入力情報は訓練情報である。
可能な実装において、初期復号化ニューラル・ネットワークを取得するステップは、復号化ネットワーク・ダイアグラムを取得するステップであって、復号化ネットワーク・ダイアグラムは少なくとも1つの復号化バタフライ・ダイアグラムを含み、復号化バタフライ・ダイアグラムは、復号化バタフライ・ダイアグラムの入力情報と復号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用される、ステップと、
第1ニューラル・ネットワーク・ユニットを、少なくとも1つの復号化バタフライ・ダイアグラムと照合するステップと、
照合に成功した復号化バタフライ・ダイアグラムを、第1ニューラル・ネットワーク・ユニットで置換し、初期復号化ニューラル・ネットワークを取得するステップとを含む。
第3態様によれば、本願の実施形態は符号化方法/復号化方法を提供する。本方法は、 符号化/復号化ニューラル・ネットワークに基づいて第1入力情報を符号化及び/又は復号化するステップを含む可能性がある。符号化/復号化ニューラル・ネットワークは、第1態様又は第1態様の任意の可能な実装における方法による符号化ニューラル・ネットワークと第2態様又は第2態様の任意の可能な実装における方法による復号化ニューラル・ネットワークとを含む。
前述の方法において、比較的低い学習の複雑性と比較的低い学習の困難性とを有する符号化/復号化方法が実現される。
可能な実装において、符号化ニューラル・ネットワークにおけるニューロン・パラメータは、復号化ニューラル・ネットワークにおけるニューロン・パラメータと相違するか、又は符号化ニューラル・ネットワークにおけるニューロン・パラメータは、復号化ニューラル・ネットワークにおけるニューロン・パラメータと同一である。
前述の方法において、符号化/復号化ニューラル・ネットワークは、同じニューロン・パラメータを有するか符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークを含んでもよいし、又は異なるニューロン・パラメータを有する符号化ニューラル・ネットワークと復号化ニューラル・ネットワークを含んでもよい、ということが実現される。
第4態様によれば、本願の実施形態は符号化装置を提供する。本装置は、第1入力情報を取得するように構成された取得モジュールと、取得した第1入力情報を符号化ニューラル・ネットワークに基づいて符号化し、第1出力情報を取得及び出力するように構成された符号化モジュールとを含むことが可能である。符号化ニューラル・ネットワークは第1ニューロン・パラメータを含む。第1ニューロン・パラメータは、第1入力情報と第1出力情報との間のマッピング関係を示すために使用されることが可能である。符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期符号化ニューラル・ネットワークが訓練された後に取得される。初期符号化ニューラル・ネットワークは、初期符号化ニューラル・ネットワークに入力される第2入力情報と、初期符号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含む。更に、初期符号化ニューラル・ネットワークが訓練された後に、第2ニューロン・パラメータは第1ニューロン・パラメータに更新される。第2ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成される。第3ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用される。第3出力情報と第3入力情報の予想されるチェック結果との間の誤差は閾値未満である。第3入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第3入力情報に関して乗法演算及び加法演算が実行された後に取得される。第1入力情報は符号化対象の情報であり、第2入力情報及び第3入力情報は訓練情報である。
可能な実装において、符号化モジュールは、更に、第1初期ニューラル・ネットワーク・ユニットを構築し、第1初期ニューロン・パラメータを設定するように更に構成され、第1初期ニューロン・パラメータは、第1初期ニューロンに入力される第4入力情報と第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは第3入力情報のコード長と前記第3出力情報のコード長とにおける最小値であり、
符号化モジュールは、更に、第4出力情報と第4入力情報の予想されるチェック結果との間の誤差が閾値未満になるまで、第1初期ニューラル・ネットワーク・ユニットを前記第1初期ニューロン・パラメータに基づいて訓練するように構成され、第4入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第4入力情報に関して乗法演算及び加法演算が実行された後に取得され、
符号化モジュールは、更に、第1初期ニューラル・ネットワーク・ユニットが訓練されると、第3ニューロン・パラメータを取得するために第1初期ニューロン・パラメータを更新するように構成され、第4入力情報は訓練情報であり、第4入力情報は第3入力情報と同一であるか、又は相違している。
可能な実装において、第1カーネル行列は
Figure 2022511771000125

であるか、又は第1カーネル行列は
Figure 2022511771000126

である。
可能な実装において、第1カーネル行列が
Figure 2022511771000127

である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000128

であり、x0及びx1は第3出力情報であり、u0及びu1は第3入力情報である;又は
第1カーネル行列が
Figure 2022511771000129

である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000130

であり、x0,x1,及びx2は第3出力情報であり、u0,u1,及びu2は第3入力情報である。
可能な実装において、初期符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成される。第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含む。第2ニューラル・ネットワーク・ユニットは、第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得される。第1初期ニューロン・パラメータは、第4ニューロン・パラメータを取得するために、第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新される。第4ニューロン・パラメータは第3ニューロン・パラメータと相違する。
可能な実装において、初期符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成される。第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含む。第5ニューロン・パラメータは、第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用される。第5出力情報と第5入力情報の予想されるチェック結果との間の誤差は閾値未満である。第5入力情報の予想されるチェック結果は、第2カーネル行列に基づいてGF(2m)における第5入力情報に関して乗法演算及び加法演算が実行された後に取得される。第5入力情報は訓練情報である。
可能な実装において、符号化モジュールは、更に、符号化ネットワーク・ダイアグラムを取得するように構成され、符号化ネットワーク・ダイアグラムは少なくとも1つの符号化バタフライ・ダイアグラムを含み、符号化バタフライ・ダイアグラムは、符号化バタフライ・ダイアグラムの入力情報と符号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用され、符号化モジュールは、更に、第1ニューラル・ネットワーク・ユニットを、少なくとも1つの符号化バタフライ・ダイアグラムと照合し、照合に成功した符号化バタフライ・ダイアグラムを、第1ニューラル・ネットワーク・ユニットで置換し、初期符号化ニューラル・ネットワークを取得するように構成されている。
第5態様によれば、本願の実施形態は復号化装置を提供する。本装置は、第1入力情報を取得するように構成された取得モジュールと、取得した第1入力情報を復号化ニューラル・ネットワークに基づいて復号化し、第1出力情報を取得及び出力するように構成された復号化モジュールとを含むことが可能である。復号化ニューラル・ネットワークは第1ニューロン・パラメータを含む。第1ニューロン・パラメータは、第1入力情報と第1出力情報との間のマッピング関係を示すために使用される。復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期復号化ニューラル・ネットワークが訓練された後に取得される。初期復号化ニューラル・ネットワークは、初期復号化ニューラル・ネットワークに入力される第2入力情報と、初期復号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含む。更に、初期復号化ニューラル・ネットワークが訓練された後に、第2ニューロン・パラメータは第1ニューロン・パラメータに更新される。第2ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成される。第3ニューロン・パラメータは、第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用される。第3出力情報と第3入力情報の予想されるチェック結果との間の誤差は閾値未満である。第3入力情報の予想されるチェック結果は、第1カーネル行列に基づいてガロア体GF(2m)における第3入力情報に関して乗法演算及び加法演算が実行された後に取得される。第1入力情報は復号化対象の情報であり、第2入力情報及び第3入力情報は訓練情報である。
可能な実装において、復号化モジュールは、更に、第1初期ニューラル・ネットワーク・ユニットを構築し、第1初期ニューロン・パラメータを設定するように構成され、第1初期ニューロン・パラメータは、第1初期ニューロンに入力される第4入力情報と第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは第3入力情報のコード長と第3出力情報のコード長とにおける最小値であり、
復号化モジュールは、更に、第4出力情報と第4入力情報の予想されるチェック結果との間の誤差が閾値未満になるまで、第1初期ニューラル・ネットワーク・ユニットを第1初期ニューロン・パラメータに基づいて訓練するように構成され、第4入力情報の予想されるチェック結果は、第1カーネル行列に基づいてGF(2m)における第4入力情報に関して乗法演算及び加法演算が実行された後に取得され、
復号化モジュールは、更に、第1初期ニューラル・ネットワーク・ユニットが訓練されると、第3ニューロン・パラメータを取得するために第1初期ニューロン・パラメータを更新するように構成され、第4入力情報は訓練情報であり、第4入力情報は第3入力情報と同一であるか、又は相違する。
可能な実装において、第1カーネル行列は
Figure 2022511771000131

であるか、又は第1カーネル行列は
Figure 2022511771000132

である。
可能な実装において、第1カーネル行列が
Figure 2022511771000133

である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000134

であり、x0及びx1は第3出力情報であり、y0及びy1は第3入力情報である;又は
第1カーネル行列が
Figure 2022511771000135

である場合に、第3入力情報の予想されるチェック結果は、
Figure 2022511771000136

であり、x0,x1,及びx2は第3出力情報であり、y0,y1,及びy2は第3入力情報である。
可能な実装において、初期復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成される。第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含む。第2ニューラル・ネットワーク・ユニットは、第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得される。第1初期ニューロン・パラメータは、第4ニューロン・パラメータを取得するために、第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新される。第4ニューロン・パラメータは第3ニューロン・パラメータと相違する。
可能な実装において、初期復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成される。第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含む。第5ニューロン・パラメータは、第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用される。第5出力情報と第5入力情報の予想されるチェック結果との間の誤差は閾値未満である。第5入力情報の予想されるチェック結果は、第2カーネル行列に基づいてGF(2m)における第5入力情報に関して乗法演算及び加法演算が実行された後に取得される。第5入力情報は訓練情報である。
可能な実装において、復号化モジュールは、更に、復号化ネットワーク・ダイアグラムを取得するように構成され、復号化ネットワーク・ダイアグラムは少なくとも1つの復号化バタフライ・ダイアグラムを含み、復号化バタフライ・ダイアグラムは、復号化バタフライ・ダイアグラムの入力情報と復号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用され、
復号化モジュールは、更に、第1ニューラル・ネットワーク・ユニットを、少なくとも1つの復号化バタフライ・ダイアグラムと照合し、照合に成功した復号化バタフライ・ダイアグラムを、第1ニューラル・ネットワーク・ユニットで置換し、初期復号化ニューラル・ネットワークを取得するように構成される。
第6態様において、本願の実施形態は、符号化/復号化システムを提供する。システムは、符号化/復号化ニューラル・ネットワークに基づいて第1入力情報を符号化及び/又は復号化するために使用される。システムは、第4態様又は第4態様の任意の可能な実装における装置による符号化ニューラル・ネットワーク及び第5態様又は第5態様の任意の可能な実装における装置による復号化ニューラル・ネットワークのために使用される。
可能な実装において、符号化ニューラル・ネットワークにおけるニューロン・パラメータは、復号化ニューラル・ネットワークにおけるニューロン・パラメータと相違するか、又は符号化ニューラル・ネットワークにおけるニューロン・パラメータは、復号化ニューラル・ネットワークにおけるニューロン・パラメータと同一である。
第7態様によれば、本願の実施形態は、コンピュータ読み取り可能な記憶媒体を提供する。コンピュータ読み取り可能な記憶媒体はコンピュータ・プログラムを記憶する。コンピュータ・プログラムはコードの少なくとも1つのセグメントを含む。コードの少なくとも1つのセグメントは、装置により実行されて、第1態様における方法を実行するように装置を制御することが可能である。
第8態様によれば、本願の実施形態は、コンピュータ読み取り可能な記憶媒体を提供する。コンピュータ読み取り可能な記憶媒体はコンピュータ・プログラムを記憶する。コンピュータ・プログラムはコードの少なくとも1つのセグメントを含む。コードの少なくとも1つのセグメントは、装置により実行されて、第2態様における方法を実行するように装置を制御することが可能である。
第9態様によれば、本願の実施形態は、コンピュータ読み取り可能な記憶媒体を提供する。コンピュータ読み取り可能な記憶媒体はコンピュータ・プログラムを記憶する。コンピュータ・プログラムはコードの少なくとも1つのセグメントを含む。コードの少なくとも1つのセグメントは、装置により実行されて、第3態様における方法を実行するように装置を制御することが可能である。
10態様によれば、本願の実施形態はコンピュータ・プログラムを提供する。コンピュータ・プログラムが装置により実行されると、装置は、第1態様における方法を実行するように構成される。
11態様によれば、本願の実施形態はコンピュータ・プログラムを提供する。コンピュータ・プログラムが装置により実行されると、装置は、第2態様における方法を実行するように構成される。
12態様によれば、本願の実施形態はコンピュータ・プログラムを提供する。コンピュータ・プログラムが装置により実行されると、装置は、第3態様における方法を実行するように構成される。
13態様によれば、本願の実施形態はチップを提供する。チップは、処理回路とトランシーバ・ピンとを含む。トランシーバ・ピンとプロセッサとは内部接続パスを用いて互いに通信する。プロセッサは、第1態様又は第1態様の任意の可能性のある実装における方法を実行して、信号を受信するように受信ピンを制御し、信号を送信するように送信ピンを制御する。
14態様によれば、本願の実施形態はチップを提供する。チップは、処理回路とトランシーバ・ピンとを含む。トランシーバ・ピンとプロセッサとは内部接続パスを用いて互いに通信する。プロセッサは、第2態様又は第2態様の任意の可能性のある実装における方法を実行して、信号を受信するように受信ピンを制御し、信号を送信するように送信ピンを制御する。
15態様によれば、本願の実施形態はチップを提供する。チップは、処理回路とトランシーバ・ピンとを含む。トランシーバ・ピンとプロセッサとは内部接続パスを用いて互いに通信する。プロセッサは、第3態様又は第3態様の任意の可能性のある実装における方法を実行して、信号を受信するように受信ピンを制御し、信号を送信するように送信ピンを制御する。
16態様によれば、本願の実施形態は符号化装置を提供する。装置は、命令又はデータを記憶するように構成されたメモリと、メモリに接続して通信を行う少なくとも1つのプロセッサとを含む。プロセッサは、符号化装置が命令を実行すると、第1態様又は第1態様の任意の可能性のある実装における方法を実行する際に符号化装置をサポートするように構成されることが可能である。
17態様によれば、本願の実施形態は復号化装置を提供する。装置は、命令又はデータを記憶するように構成されたメモリと、メモリに接続して通信を行う少なくとも1つのプロセッサとを含む。プロセッサは、符号化装置が命令を実行すると、第2態様又は第2態様の任意の可能性のある実装における方法を実行する際に符号化装置をサポートするように構成されることが可能である。
18態様によれば、本願の実施形態は符号化/復号化装置を提供する。装置は、命令又はデータを記憶するように構成されたメモリと、メモリに接続して通信を行う少なくとも1つのプロセッサとを含む。プロセッサは、符号化/復号化装置が命令を実行すると、第3態様又は第3態様の任意の可能性のある実装における方法を実行する際に符号化/復号化装置をサポートするように構成されることが可能である。
19態様によれば、本願の実施形態は符号化/復号化システムを提供する。システムは第4態様及び第5態様における符号化装置及び復号化装置を含む。
本願の実施態様における技術的解決策をより明確に説明するために、以下、本願の実施態様における添付図面を簡単に説明する。以下の説明における添付図面は、本願の幾つかの実施形態を示しているに過ぎず、当業者は、創造的努力を伴うことなくこれらの添付図面から他の図面を導出する可能性があることは明らかである。
本願の実施形態による通信システムの概略図である。
本願の実施形態による基地局の概略構造図である。
本願の実施形態による端末の概略構造図である。
本願の実施形態による無線通信の概略フローチャートである。
本願の実施形態による符号化方法の概略フローチャートである。
本願の実施形態による符号化方法の概略フローチャートである。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期符号化ニューラル・ネットワークを生成する概略フローチャートである。
本願の実施形態による符号化ネットワーク・ダイアグラムの概略構造図である。
本願の実施形態による符号化バタフライ・ダイアグラムの概略構造図である。
本願の実施形態による初期符号化ニューラル・ネットワークの概略構造図である。
本願の実施形態による符号化方法の概略フローチャートである。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による復号化方法の概略フローチャートである。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による符号化/復号方法の概略フローチャートである。
本願の実施形態による符号化/復号化ニューラル・ネットワークの訓練方法の概略フローチャートである。
本願の実施形態による初期ニューラル・ネットワーク・ユニットの概略構造図である。
本願の実施形態による符号化装置の概略構造図である。
本願の実施形態による復号化装置の概略構造図である。
本願の実施形態による符号化装置の概略ブロック図である。
本願の実施形態による復号化装置の概略ブロック図である。
以下、本願の実施態様における技術的解決策を、本願の実施態様における添付図面を参照なら明確に説明する。説明される実施形態は、本願の実施形態のうちの一部であるが、すべてではないことは明らかである。創作的な労力なしに本願の実施態様に基づいて当業者が獲得する他の実施態様はすべて、本願の保護範囲内に該当するものとする。
本明細書における用語「及び/又は」は、関連するオブジェクトを説明するためのアソシエーション関係のみを記述しており、3つの関係が存在し得ることを表す。例えば、A及び/又はBは、以下の3つのケース:Aのみが存在すること、A及びBの両方が存在すること、そしてBのみが存在することを表す可能性がある。
明細書及び特許請求の範囲において、本願の実施形態において、「第1」、「第2」等の用語は、異なるオブジェクトを区別するように意図されているが、オブジェクトの特定の順序を示してはいない。例えば、第1ターゲット・オブジェクト、第2ターゲット・オブジェクト等は、異なるターゲット・オブジェクトを区別するために使用されるが、ターゲット・オブジェクトの特定の順序を記述するために使用されてはいない。
本願の実施形態では、「例えば」のような言葉は、例、例示又は説明を与える表現に使用されている。本願の実施形態において「例示的な」又は「例えば」のように記載される如何なる実施形態又は設計方式も、他の実施形態又は設計方式よりも、より好ましいものとして、又はより有用性を有するものとして解釈されるべきではない。正確に言えば、「例示的な」又は「例えば」のような言葉を用いることは、特定の方法で相対的概念を提示するように意図されている。
本願の実施形態の説明において、特に言及されない限り、「複数の」は2つ又は2つより多いことを意味する。例えば、複数の処理ユニットは2つ以上の処理ユニットを示し、複数のシステムは2つ以上のシステムを示す。
本願の実施形態における技術的解決策を説明する前に、本願の実施形態における通信システムが先ず添付図面に関連して説明される。図1は、本願の実施形態による通信システムの概略図である。通信システムは、基地局100及び端末200を含む。本願のこの実施形態の特定の実装プロセスでは、端末200は、コンピュータ、スマートフォン、電話セット、ケーブル・テレビジョン・セット・トップ・ボックス、又はデジタル加入者線ルータのようなデバイスであってもよい。実際のアプリケーションでは、1つ以上の基地局及び1つ以上の端末が存在し得ることに留意すべきである。図1に示す通信システムにおける基地局の数量及び端末の数量は、単なる適応例に過ぎない。これは本願において限定されない。
通信システムは、ロング・ターム・エボリューション(long term evolution,LTE)アクセス技術のような第4世代(fourth generation,4G)アクセス技術をサポートするために使用されてもよい。代替的に、通信システムは、ニュー・ラジオ(new radio,NR)アクセス技術のような第5世代(fifth generation,5G)アクセス技術をサポートすることができる。代替的に、通信システムは、ユニバーサル移動通信システム(universal mobile telecommunications system,UMTS)アクセス技術のような第3世代(third generation,3G)アクセス技術をサポートするために使用されてもよい。代替的に、通信システムは、移動通信のためのグローバル・システム(global system for mobile communications,GSM)アクセス技術のような第2世代(second generation,2G)アクセス技術をサポートするために使用されてもよい。代替的に、通信システムは、更に、複数の無線技術を備えた通信システムをサポートするために使用することができ、例えば、LTE技術及びNR技術をサポートすることができる。更に、通信システムは、代替的に、狭帯域のモノのインターネット(Narrowband Internet of Things,NB-IoT)システム、GSMエボリューションのための拡張データレート(Enhanced Data rates for GSM Evolution,EDGE)システム、広帯域符号分割多元接続(Wideband Code Division Multiple Access,WCDMA)システム、符号分割多元接続2000(Code Division Multiple Access 2000,CDMA2000)システム、時分割同期符号分割多元接続(Time Division-Synchronous Code Division Multiple Access,TD-SCDMA)システム、ロング・ターム・エボリューション(Long Term Evolution,LTE)システム、及び将来の通信技術において使用されてもよい。
また、図1の基地局100は、端末アクセスをサポートするために使用されてもよく、例えば、第2アクセス技術通信システムにおける基地局(base transceiver station,BTS)及び基地局コントローラ(base station controller,BSC);第3Gアクセス技術通信システムにおけるノードB(NodeB)及び無線ネットワーク・コントローラ(radio network controller,RNC);第4Gアクセス技術通信システムにおけるエボルブド・ノードB(evolved NodeB,eNB);第5Gアクセス技術通信システムにおける次世代ノードB(next generation NodeB,gNB)、送受信ポイント(transmission reception point,TRP)、リレー・ノード(relay node)又はアクセス・ポイント(access point,AP)等であってもよい。説明を容易にするために、本願の全ての実施形態において、端末のための無線通信機能を提供する前述のすべての装置は、ネットワーク・デバイス又は基地局と呼ばれる。
図1の端末200は、音声又はデータ接続をユーザーに提供するデバイスであってもよく、例えば、移動局(mobile station)、加入者ユニット(subscriber unit)、ステーション(station)、端末機器(terminal equipment,TE)と言及されてもよい。端末200は、セルラー電話(cellular phone)、パーソナル・デジタル・アシスタント(personal digital assistant,PDA)、ワイヤレス・モデム(modem)、ハンドヘルド(handheld)デバイス、ラップトップ・コンピュータ(laptop computer)、コードレス電話(cordless phone)、ワイヤレス・ローカル・ループ(wireless local loop,WLL)ステーション、タブレット・コンピュータ(pad)などであってもよい。無線通信技術の開発に伴い、無線通信ネットワークにアクセスすることが可能であるか、通信システムのネットワーク側と通信することが可能であるか、又は通信ネットワークを使用することによって他のオブジェクトと通信することが可能であるデバイスは、本願のこの実施形態における端末、例えば、インテリジェント交通における端末及び車両、スマート家庭における家庭用デバイス、スマート・グリッドにおける電力計測器、電圧モニタリング装置、環境モニタリング装置、インテリジェント・セキュリティ・ネットワークにおけるビデオ監視装置、又はキャッシュ・レジスタであってもよい。本願のこの実施形態では、端末200は、基地局、例えば、図1の基地局100と通信してもよい。また通信は複数の端末間で実行されてもよい。端末200は静的であってもよいし、移動可能であってもよい。
図2aは基地局の概略構造図である。
図2aにおいて、基地局100は、少なくとも1つのプロセッサ101、少なくとも1つのメモリ102、少なくとも1つのトランシーバ103、少なくとも1つのネットワーク・インターフェース104、及び1つ以上のアンテナ105を含む。プロセッサ101、メモリ102、トランシーバ103、及びネットワーク・インターフェース104は、例えばバスを使用することにより接続される。アンテナ105は、トランシーバ103に接続される。ネットワーク・インターフェース104は、通信リンクを使用することによって、基地局が他の通信デバイスに接続されることを可能にするために使用される。本願のこの実施形態では、接続は、種々のタイプのインターフェース、伝送線、バスなどを含む可能性がある。これは本願では限定されない。
本願のこの実施形態におけるプロセッサ、例えばプロセッサ101は、以下のタイプ:汎用中央処理ユニット(Central Processing Unit,CPU)、デジタル信号プロセッサ(Digital Signal Processor,DSP)、マイクロプロセッサ、特定用途向け集積回路(Application-Specific Integrated Circuit,ASIC)、マイクロコントローラ・ユニット(Microcontroller Unit,MCU)、フィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array,FPGA)、又は論理演算を実装するように構成された集積回路、のうちの少なくとも1つを含んでもよい。例えば、プロセッサ101は、シングル・コア(single-CPU)プロセッサであってもよいし、又はマルチ・コア(multi-CPU)プロセッサであってもよい。少なくとも1つのプロセッサ101は、1つのチップに集積されてもよいし、又は複数の異なるチップに配置されてもよい。
本願のこの実施形態におけるメモリ、例えばメモリ102は、以下のタイプ:リード・オンリ・メモリ(read-only memory,ROM)又は静的な情報及び命令を記憶することが可能な他のタイプの静的記憶装置、ランダム・アクセス・メモリ(random access memory,RAM)又は情報及び命令を記憶することが可能な他のタイプの動的記憶装置のうちの少なくとも1つを含んでもよいし、或いは電気的に消去可能なプログラマブル・リード・オンリ・メモリ(Electrically erasable programmabler read-only memory,EEPROM)であってもよい。幾つかのシナリオにおいて、メモリは、代替的に、コンパクト・ディスク・リード・オンリ・メモリ(compact disc read-only memory,CD-ROM)又は他のコンパクト・ディスク・ストレージ、光ディスク・ストレージ(コンパクト・ディスク、レーザー・ディスク、光ディスク、ディジタル多用途ディスク、ブルー・レイ・ディスク等を含む)、ディスク記憶媒体又は他の磁気記憶デバイス、又は、命令又はデータ構造の形態を有する予想されるプログラム・コードを搬送又は記憶するために使用される他の任意の媒体であって、コンピュータによってアクセス可能なものであってもよい。しかしながら、これは本願で限定されない。
メモリ102は単独で存在してもよいし、プロセッサ101に接続されてもよい。オプションとして、メモリ102は、例えば、1つのチップに統合されたプロセッサ101と一体化されてもよい。メモリ102は、本願のこの実施形態における技術的解決策を実行するためのプログラム・コードを記憶することが可能であり、プログラム・コードを実行するためにプロセッサ101によって制御される。実行されるコンピュータ・プログラム・コードはまた、プロセッサ101のドライバと考えられてもよい。例えば、プロセッサ101は、メモリ102に記憶されたコンピュータ・プログラム・コードを実行し、本願のこの実施形態における技術的解決策を実現するように構成される。
トランシーバ103は、アクセス・ネットワーク・デバイスと端末との間での無線周波数信号の受信又は送信をサポートするように構成されてもよい。トランシーバ103は、アンテナ105に接続されてもよい。トランシーバ103は、送信機Tx及び受信機Rxを含む。具体的には、1つ以上のアンテナ105が無線周波数信号を受信してもよい。トランシーバ103の受信機Rxは:無線周波数信号をアンテナから受信し、無線周波数信号をデジタル・ベースバンド信号又はデジタル中間周波数信号に変換し、デジタル・ベースバンド信号又はデジタル中間周波数信号をプロセッサ101に提供するように構成され、その結果、プロセッサ101は、デジタル・ベースバンド信号又はデジタル中間周波数信号を更に処理し、例えば復調処理及び復号処理を実行する。更に、トランシーバ103内の送信機Txは、変調されたデジタル・ベースバンド信号又は変調されたデジタル中間周波数信号をプロセッサ101から受信し、変調されたデジタル・ベースバンド信号又は変調されたデジタル中間周波数信号を無線周波数信号に変換し、1つ以上のアンテナ105を使用して無線周波数信号を送信するように更に構成される。具体的には、受信機Rxは、デジタル・ベースバンド信号又はデジタル中間周波数信号を取得するために、無線周波数信号に対して1レベル又はマルチ・レベルのダウンコンバージョン周波数混合処理及びアナログ・デジタル変換処理を選択的に行うことができる。ダウンコンバージョン周波数混合処理及びアナログ・デジタル変換処理のシーケンスは調整可能である。送信機Txは、無線周波数信号を得るために、変調されたデジタル・ベースバンド信号又は変調されたデジタル中間周波数信号に対して、1レベル又はマルチ・レベル・アップ・コンバージョン周波数混合処理及びデジタル・アナログ変換処理を選択的に実行することができる。アップ・コンバージョン周波数混合処理及びデジタル・アナログ変換処理のシーケンスは調整可能である。デジタル・ベースバンド信号及びデジタル中間周波数信号は、まとめてデジタル信号と言及されてもよい。
図2bは端末の概略構造図である。
図2bにおいて、端末200は、少なくとも1つのプロセッサ201、少なくとも1つのトランシーバ202、及び少なくとも1つのメモリ203を含む。プロセッサ201、メモリ203、及びトランシーバ202は接続される。オプションとして、端末200は、1つ以上のアンテナ204を更に含んでもよい。アンテナ204はトランシーバ202に接続される。
トランシーバ202、メモリ203、アンテナ204については、同様な機能を実現する図2aの関連する説明を参照されたい。
プロセッサ201は、ベースバンド・プロセッサであってもよいし、又はCPUであってもよい。ベースバンド・プロセッサとCPUは、一緒に統合されてもよいし、又は分離されてもよい。
プロセッサ201は、端末200の様々な機能を実現するように、例えば、通信プロトコル及び通信データを処理し、端末200全体を制御し、ソフトウェア・プログラムを実行し、ソフトウェア・プログラムのデータを処理ように、構成されてもよい。代替的に、プロセッサ201は、前述の機能のうちの1つ以上を実現するように構成される。
前述の通信システムにおいて、端末が基地局と通信する場合、端末と基地局は互いに対して送信端及び受信端である。具体的には、端末が基地局に信号を送信する場合、端末は送信端として機能し、基地局は受信端として機能する。そうではなく、基地局が端末に信号を送信する場合、基地局は送信端として機能し、端末は受信端として機能する。具体的には、無線通信プロセスにおいて、基本的な手順は図3に示されている。
図3では、送信端において、情報ソースは、ソース符号化、チャネル符号化、変調及びマッピングの後に送信される。受信端において、情報シンクは、でマッピング、復調、チャネル復号化、及びソース復号化の後に出力される。
端末が送信端として機能する場合、図3の符号化プロセス(ソース符号化、チャネル符号化、変調、マッピングのようなステップ)が、端末によって実行され;或いは、端末が受信端として機能する場合、図3の復号化プロセス(マッピング、復調、チャネル復号化、ソース復号のようなステップ)が、端末によって実行されることに留意すべきである。同様なケースが基地局にもあてはまる。
現在のチャネル符号化/復号化方法は、ハミング符号及びポーラー符号を含むが、これらに限定されない。
従来技術では、符号化/復号化の学習プロセスは、主にコードワード空間全体のサンプルを学習することになっている。しかしながら、比較的長いコード長を用いる符号化/復号方法、例えばポーラー符号の場合、例えば情報ビット長K=32であるとすると、232個のコードワードが存在する。従って、符号化/復号化の学習は、困難性と複雑性の急増に起因して、従来技術では完了することができない。
結論として、本願のこの実施形態は、コードワード空間における小さな範囲内のサンプリングを実現して、コードワード空間全体への一般化を実現するための符号化/復号方法を提供する。本方法では、符号化/復号化ニューラル・ネットワークは、符号化/復号化により生成されるニューラル・ネットワーク・ユニットから構成され、次いで、符号化対象の情報は、符号化/復号化ニューラル・ネットワークに基づいて符号化及び/又は復号化される。
図1に示される通信システムの前述した概略図を参照し、以下、本願の具体的な実装解決策を説明する。
シナリオ1
図1を参照すると、図4は、本願の実施形態による符号化方法の概略フローチャートである。
図4において、ステップ101では、ニューラル・ネットワーク・ユニットを生成する。
具体的には、本願のこの実施形態では、符号化装置は、カーネル行列に基づいて初期ニューラル・ネットワーク・ユニットを生成し、次いで、初期ニューラル・ネットワーク・ユニットの出力値が、予想される最適化ターゲットに近づくように、符号化装置は初期ニューラル・ネットワーク・ユニットを訓練することが可能である。この場合、訓練される初期ニューラル・ネットワーク・ユニットはニューラル・ネットワーク・ユニットである。訓練の後、初期ニューラル・ネットワーク・ユニットに含まれる初期ニューロン・パラメータは、ニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータに更新される。更に、出力値が予想される最適化ターゲットに近いということは、初期ニューラル・ネットワーク・ユニットにより出力される出力情報と、初期ニューラル・ネットワーク・ユニットへの入力情報に対応する予想されるチェック結果との間の誤差が、閾値未満であるということである。本願のこの実施形態では、入力情報の予想されるチェック結果は、初期ニューラル・ネットワーク・ユニットに対応するカーネル行列に基づいて、ガロア体(Galois Field)GF(2)内の入力情報に対して、乗法演算及び加法演算が実行された後に得られる。
オプションとして、実施形態において、出力情報と入力情報の予想されるチェック結果との間の誤差は、出力情報と予想されるチェック結果との間の差分であってもよい。
オプションとして、別の実施形態において、出力情報と入力情報の予想されるチェック結果との間の誤差は、出力情報と予想されるチェック結果との間の平均二乗誤差であってもよい。
オペレータは、実際の要求に応じて、出力情報と予想されるチェック結果との間の誤差を得る方法を設定することが可能である。これは本願では限定されない。
また、出力情報と予想されるチェック結果との誤差に対応する閾値も、様々な誤差計算方法に基づいて設定することが可能である。
以下、ポーラー符号を用いてニューラル・ネットワーク・ユニットを生成する方法を詳細に説明する。図5は、ニューラル・ネットワーク・ユニットを生成する概略フローチャートである。
図5において、ステップ1011では、初期ニューラル・ネットワーク・ユニットを構築する。
具体的には、ポーラー符号に関する符号化の式は、以下の式(1)を用いて示すことが可能である:
Figure 2022511771000137
ここで、xは出力情報であり、uは入力情報であり、Gは符号化行列である。ポーラー符号の場合、Gは生成行列と言及される場合もある。言い換えると、生成行列は符号化行列の1つである。入力情報と出力情報の両方は、少なくとも1つのビット情報を含む。
従来技術では、ポーラー符号の生成行列Gの表現は、次のような式(2)であってもよい:
Figure 2022511771000138
ここで、
Figure 2022511771000139

nは、Gから構成される符号化ニューラル・ネットワークが、同じカーネル行列に対応する1つ以上のニューラル・ネットワーク・ユニットを含む可能性があることを示す。具体的な実装は、以下の実施形態において詳細に説明される。
本願のこの実施形態では、初期ニューラル・ネットワーク・ユニットが形成される場合に、符号化装置は、カーネル行列に基づいてニューラル・ネットワーク・ユニットを得ることができる。具体的には、符号化装置は、式(1)及び式(2)に従って、ニューラル・ネットワーク・ユニットの入力情報(他のニューラル・ネットワーク又はニューラル・ネットワーク・ユニットの入力情報とは区別されるべきものであり、入力情報は、以下、入力情報4と言及される)の予想されるチェック結果に対応するチェック方程式を取得する。
例えば、
Figure 2022511771000140

である場合、入力情報4に対応するチェック方程式は次のとおりである:
Figure 2022511771000141
ここで、x0及びx1は出力情報4であり、u0及びu1は入力情報4である。
Figure 2022511771000142

である場合、入力情報4に対応するチェック方程式は次のとおりである:
Figure 2022511771000143
ここで、x0,x1,及びx2は出力情報4であり、u0,u1,及びu2は入力情報4である。
Tの値は、表の検索により(例えば、表(1)における値)又は計算により取得されてもよいことに留意すべきである。具体的な取得方法については、従来技術を参照されたい。詳細は本願では説明しない。
更に、一般的なTを表(1)に示す。
表1
Figure 2022511771000144
Figure 2022511771000145
Figure 2022511771000146
更に、図5に関し、初期ニューラル・ネットワーク・ユニットは、入力層、出力層、及び少なくとも1つの隠れ層を含む。本願のこの実施形態では、初期ニューラル・ネットワーク・ユニットは、初期ニューロン・パラメータを更に含む。そのパラメータは、入力情報4と出力情報4との間のマッピング関係を示すために使用される。初期ニューロン・パラメータは、初期ウェイト値w及び初期バイアス・ベクトルbを含む可能性がある。初期ニューロン・パラメータは、通常、ランダムに生成されることに留意すべきである。
更に、初期ニューラル・ネットワーク・ユニットにおける隠れ層は、Q個のノードを含む。本願のこの実施形態において、QはN以上であり、Nは、入力情報のコード長及び出力情報のコード長における最小値である。1つ以上の隠れ層が存在し得ることに留意すべきである。より多くの量の隠れ層は、ニューラル・ネットワークのより高い複雑性、及びニューラル・ネットワークのより強い一般化能力を示す。従って、オペレータは、本願のこの実施形態において、初期ニューラル・ネットワーク・ユニット及び別のニューラル・ネットワークの隠れ層の量を設定する場合に、オペレータは、装置の処理能力及び計算能力のような要因を参照して、実際の要件に従って設定を実行することができる。これは本願において限定されない。
この実施形態において、一例としてポーラー符号に基づいて構成される初期ニューラル・ネットワーク・ユニットを、図6に示す。
図6において、符号化装置は、カーネル行列T2に基づいて初期ニューラル・ネットワーク・ユニットを構築する。T2に基づいて構成される初期ニューラル・ネットワーク・ユニットに対応する予想されるチェック結果は、図6の初期ニューラル・ネットワーク・ユニットの出力側として示されている。式(3)を参照されたい。
ポーラー符号の特殊性に起因して、符号化又は復号化のプロセスにおいて、入力情報のコード長と出力情報のコード長は対称的であり、即ち等しい。例えば、式(3)に示すように、入力情報がu0及びu1である場合、出力情報はx0及びx1であり、コード長はN=2である。
従って、ポーラー符号では、隠れ層におけるノード数は、入力情報のコード長及び出力情報のコード長よりも大きい。言い換えると、入力情報のコード長と出力情報のコード長とが2である場合、隠れ層のノード数は2より大きな整数である。図6において、以下の例が、詳細な説明のために使用される:初期ニューラル・ネットワーク・ユニットは、1つの隠れ層を有し、隠れ層は、3つのノードを有する。
ステップ1012:初期ニューラル・ネットワーク・ユニットを訓練して、ニューラル・ネットワーク・ユニットを生成する。
具体的には、この実施形態では、出力情報4と入力情報4の予想されるチェック結果との間の誤差が閾値未満になるまで、符号化装置は、初期ニューロン・パラメータに基づいて初期ニューラル・ネットワーク・ユニットを訓練することができる。
図6の初期ニューラル・ネットワーク・ユニットを、説明のための例として更に使用する。
具体的には、以下の例を使用する:入力情報4が[0,1]であり、即ちu0=0及びu1=1である。符号化装置は、式(3)に従ってGF(2)における入力情報4に対して乗算演算及び加法演算を実行し、即ち排他的OR演算(この実施形態では、m=1であり、即ちこの実施形態における予想されるチェック結果は、入力情報の2進数特性に基づいて2進数体において計算されることに留意すべきである)を実行して、入力情報4に対応する予想されるチェック結果[1,1]、即ちx0=1及びx1=1を取得する。
次に、符号化装置は、入力情報4、入力情報4の予想されるチェック結果、及び初期ニューロン・パラメータに基づいて、初期ニューラル・ネットワーク・ユニットを訓練する。訓練プロセスは以下のとおりである。
(1) 損失関数を求める。
具体的には、2つの隣接する層におけるニューロン(即ち、入力層、出力層、又は隠れ層におけるノード)に関し、初期ニューロン・パラメータに基づいて(初期ウェイト値wは、2つの層の間の各接続ラインに設定されており、初期バイアス・ベクトルbは各ノードに対して設定されている)(ニューロン・パラメータの具体的な値は図6では示されておらず、設定方法については従来技術を詐称することが可能であり、本願では説明されない)、次の層に接続された現在の層における出力xに対して、重み付け加算が実行され、次いで加算の結果に対して活性化関数が適用された後に、次の層におけるニューロンの入力hが求められる。各ニューロンの入力hを、式(5)に示す。
Figure 2022511771000147
このケースでは、ニューラル・ネットワークの出力y(即ち、本願のこの実施形態における初期ニューラル・ネットワークにより出力される出力情報4)は、次のように再帰的に表現することができる:
Figure 2022511771000148
更に図6に関し、式(5)及び式(6)に従って初期ニューラル・ネットワーク・ユニットの入力情報4:[0,1]に対して、演算が実行されて、出力情報(他の訓練結果と区別されるべきであり、出力情報は、以下、訓練結果1として言及される)を求める。
その後、符号化装置は、訓練結果1と予想されるチェック結果[1,1]との間の誤差を求める。誤差値を算出する方法は、上述したとおりである。即ち、誤差値は、訓練結果1と予想されるチェック結果との差分又は平均二乗誤差であってもよい。損失関数を求めるための具体的な詳細については、従来技術の技術的な実施形態を参照されたい。詳細は本願では説明されない。
(2) 誤差逆伝搬
具体的には、符号化装置は、誤差を逆伝搬し、出力層の残差を算出し、各層におけるノードの残差に対して重み付け加算を実行し、次いで、学習率及び入力層における各ノードの残差に基づいて第1層のウェイト(即ち、入力層と隠れ層と間のウェイト)を更新し、上記の方法を循環して対応するウェイトを層毎に更新することができる。その後、入力情報4は、更新されたウェイトを用いて再度訓練されて、訓練結果2を求める。更に、前述のステップは循環させられ、即ち、初期ニューロン・パラメータは、初期ニューラル・ネットワークにより出力されるトレーニング結果nと、予想されるチェック結果との間の誤差が、ターゲット値未満になり(例えば、ターゲット値は0.0001であってもよい)、トレーニング結果が収束していることを確認するまで繰り返し更新される。
前述の訓練方法は勾配降下法である。符号化装置は、損失関数が最小値に到達するように、勾配降下法を使用することによって、初期ウェイト値w及び初期バイアス・ベクトルbを反復的に最適化することができる。勾配降下法の具体的な詳細については、従来技術における技術的な形態を参照されたい。詳細は本願では説明しない。
符号化装置は、本願のこの実施形態において、更に、別の訓練方法を使用することによって、初期ニューラル・ネットワーク・ユニット及び別のニューラル・ネットワークを訓練することができることに留意すべきである。訓練方法の目的はすべて、ニューラル・ネットワークの出力値を最適化ターゲットに近づけ、ニューラル・ネットワーク・ユニットにおけるニューロン・パラメータを更新することである。
実施形態において、符号化装置が、カーネル行列
Figure 2022511771000149

に基づいて初期ニューラル・ネットワーク・ユニットを生成する場合、生成される初期ニューラル・ネットワーク・ユニットは図7に示されている。入力情報[u0,u1,u2]に関し、入力情報についての予想されるチェック結果であってT3に基づいて得られるものは、
Figure 2022511771000150

である。
別の実施形態において、符号化装置が、カーネル行列
Figure 2022511771000151

に基づいて初期ニューラル・ネットワーク・ユニットを生成する場合、生成される初期ニューラル・ネットワーク・ユニットは図8に示されている。入力情報[u0,u1,u2]に関し、入力情報についての予想されるチェック結果であってT3に基づいて得られるものは、
Figure 2022511771000152

である。
更に別の実施形態において、符号化装置が、カーネル行列
Figure 2022511771000153

に基づいて初期ニューラル・ネットワーク・ユニットを生成する場合、生成される初期ニューラル・ネットワーク・ユニットは図9に示されている。入力情報[u0,u1,u2,u3]に関し、入力情報についての予想されるチェック結果であってT4に基づいて得られるものは、
Figure 2022511771000154

である。
図5を更に参照すると、本願のこの実施形態において、訓練された初期ニューラル・ネットワーク・ユニットは、本願のこの実施形態におけるニューラル・ネットワーク・ユニットである。初期ニューラル・ネットワーク・ユニットが訓練された後、初期ニューラル・ネットワーク・ユニットに含まれる初期ニューロン・パラメータは、ニューロン・パラメータ(即ち、本願のこの実施形態における第3ニューロン・パラメータであり、以下、ニューロン・パラメータ3と言及される)に更新される。
本出願のこの実施形態において、ニューラル・ネットワーク・ユニットによって達成されることが可能な結果は、ニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータ3及び活性化関数に基づいて、入力符号化情報又は訓練情報(例えば、入力情報3)が符号化された後に、出力される出力情報3は、入力情報3の予想されるチェック結果と同等であるか、又はそれに近いものである。
同じ入力情報と同じ訓練方法に関し、初期ニューラル・ネットワーク・ユニットに含まれる初期ニューロン・パラメータが異なることに起因して、初期ニューラル・ネットワーク・ユニットが訓練された後に得られるニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータもまた異なることに留意すべきである。具体的には、1つのカーネル行列に対応する複数の初期ニューラル・ネットワーク・ユニットが存在する可能性がある。初期ニューラル・ネットワーク・ユニットは、異なるニューロン・パラメータを含み、同じ出力情報を出力する。換言すれば、複数の初期ニューラル・ネットワーク・ユニットは異なるニューロン・パラメータを含むが、符号化能力は同じである。
ステップ102:初期符号化ニューラル・ネットワークを生成する。
具体的には、本願のこの実施形態において、符号化装置は、ステップ101で生成されたニューラル・ネットワーク・ユニットに基づいて、初期符号化ニューラル・ネットワークを生成することができる。換言すれば、初期符号化ニューラル・ネットワークは、1つ以上のニューラル・ネットワーク・ユニットを含む。初期符号化ニューラル・ネットワークは、ニューロン・パラメータ2を含む。ニューロン・パラメータ2は、ニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータ3を含む。具体的には、初期符号化ニューラル・ネットワークを形成する1つ以上のニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータ2は、初期符号化ニューラル・ネットワークの初期ニューロン・パラメータを形成する。次に、符号化装置は、初期ニューロン・パラメータを更新するために初期符号化ニューラル・ネットワークを訓練する。
具体的には、図10は、初期符号化ニューラル・ネットワークを生成するステップの概略フローチャートである。
図10において、ステップ1021では符号化ネットワーク・ダイアグラムを取得する。
具体的には、本願のこの実施形態において、符号化装置は、符号化ネットワーク・ダイアグラムを取得することができる。符号化ネットワーク・ダイアグラムは、少なくとも1つの符号化バタフライ・ダイアグラムを含む。符号化バタフライ・ダイアグラムは、符号化バタフライ・ダイアグラムの入力情報と符号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用される。符号化ネットワーク・ダイアグラムは、システムによって提供されてもよいことに留意すべきである。図11は、符号化ネットワーク・ダイアグラムの一種を示す。
ステップ1022:ニューラル・ネットワーク・ユニットを、符号化バタフライ・ダイアグラムと照合する。
ステップ1023:照合に成功した符号化バタフライ・ダイアグラムを、ニューラル・ネットワーク・ユニットで置換する。
具体的には、例えば式(2)を参照し、式(7)に対応する初期符号化ニューラル・ネットワークが、
Figure 2022511771000155

のように生成されることを必要とする場合、T2に基づいて生成されるニューラル・ネットワーク・ユニットに首尾良く合致する符号化バタフライ・ダイアグラムであって、図11の符号化ネットワーク・ダイアグラム内にあるものは、T2に基づいて生成されたニューラル・ネットワーク・ユニットで置換されることが可能である。
具体的には、符号化装置は、ニューラル・ネットワーク・ユニットを、符号化ネットワーク・ダイアグラム内の符号化バタフライ・ダイアグラムと個々に照合する。マッチング方法は次のとおりである。
例えば、T2に基づいて生成されるニューラル・ネットワーク・ユニット(他のニューラル・ネットワーク・ユニットと区別されるべきであり、ニューラル・ネットワーク・ユニットは、以下、ニューラル・ネットワーク・ユニット1と言及される)に関して、図6を参照することができる。言い換えれば、ニューラル・ネットワーク・ユニット1の入力情報と出力情報のコード長は両方とも2であり、ニューラル・ネットワーク・ユニット1が2×2ニューラル・ネットワーク・ユニットであることを確認できる。符号化装置は、同じ2×2構造を有する符号化バタフライ・ダイアグラムについて、符号化ネットワーク・ダイアグラムを検索することができる。2×2構造を有する符号化バタフライ・ダイアグラムは、図12に示されている。
次いで、符号化装置は、図12に示されるように、符号化ネットワーク・ダイアグラムにおいてニューラル・ユニット1に首尾良く合致するものであって、2×2構造を有するすべての符号化バタフライ・ダイアグラムを、ニューラル・ネットワーク・ユニット1に置換して、初期符号化ニューラル・ネットワークを得ることができる。
上記のように、同一のカーネル行列に対して、異なるニューロン・パラメータを有する複数のニューラル・ネットワーク・ユニットが相応して存在する可能性があり、複数のニューラル・ネットワーク・ユニットは、同一のカーネル行列に対応するニューラル・ネットワーク・ユニット・セットとして使用されてもよいことに留意すべきである。オプションとして、実施形態において、初期符号化ニューラル・ネットワークは、ニューラル・ネットワーク・ユニット・セット内の任意の1つ以上のニューラル・ネットワーク・ユニットを含んでもよい。換言すれば、符号化ネットワーク・ダイアグラム中の符号化バタフライ・ダイアグラムは、ニューラル・ネットワーク・ユニット・セット中の任意の1つ以上のニューラル・ネットワーク・ユニットで置き換えることが可能である。
オプションとして、別の実施形態において、式(8)によれば、
Figure 2022511771000156

であり、生成行列Gに対応する初期符号化ニューラル・ネットワークは、異なるカーネル行列に対応するニューラル・ネットワーク・ユニットであって、ニューラル・ネットワーク・ユニット・セット内にあるものを含む可能性があることを学ぶことができる。
例えば、カーネル行列T2に対応するニューラル・ネットワーク・ユニット・セット1は、{ニューラル・ネットワーク・ユニット1,ニューラル・ネットワーク・ユニット2,及びニューラル・ネットワーク・ユニット3}を含み、カーネル行列T3に対応するニューラル・ネットワーク・セット2は、{ニューラル・ネットワーク・ユニット4,ニューラル・ネットワーク・ユニット5,及びニューラル・ネットワーク・ユニット6}を含む。この場合、符号化装置により取得される符号化ネットワーク・ダイアグラムは、2×2構造を有する少なくとも1つの符号化バタフライ・ダイアグラム、及び3×3構造を有する少なくとも1つの符号化バタフライ・ダイアグラムを含む。次いで、符号化装置は、ニューラル・ネットワーク・ユニット1、ニューラル・ネットワーク・ユニット3、及びニューラル・ネットワーク・ユニット5の各々を、符号化バタフライ・ダイヤグラムと照合し、照合に成功した符号化バタフライ・ダイヤグラムを、ニューラル・ネットワーク・ユニットと置換して、初期符号化ニューラル・ネットワークを得ることができる。
ステップ103:初期符号化ニューラル・ネットワークを訓練して、符号化ニューラル・ネットワークを取得する。
具体的には、本願のこの実施形態において、符号化装置は、初期符号化ニューラル・ネットワークにより出力された出力情報2と入力情報2の予想されるチェック結果との間の誤差が閾値未満になるまで、初期符号化ニューラル・ネットワークの活性化関数及びニューロン・パラメータ2(ニューロン・パラメータ1を含む)に基づいて、初期符号化ニューラル・ネットワークを訓練することができる。更に、初期符号化ニューラル・ネットワークが訓練された後、ニューロン・パラメータ2は更新される。
本願のこの実施形態において、訓練された初期符号化ニューラル・ネットワークは符号化ニューラル・ネットワークであり、更新されたニューロン・パラメータ2は符号化ニューラル・ネットワークに対応するニューロン・パラメータ1である。ニューロン・パラメータ1は、符号化ニューラル・ネットワークに入力される入力情報1と、符号化ニューラル・ネットワークによって出力される出力情報1との間のマッピング関係を示すために使用される。
初期符号化ニューラル・ネットワークを訓練する具体的なステップについては、ニューラル・ネットワーク・ユニットの訓練ステップを参照されたい。詳細はここで再び説明しない。
ステップ104:入力情報を取得する。
具体的には、本願のこの実施形態において、符号化装置は、符号化装置との通信接続を有する他の装置(例えば、端末の入力装置)から、符号化されることを必要とする情報(即ち、本願のこの実施形態における符号化対象の情報)、即ち、入力情報を取得することができる。
ステップ105:符号化ニューラル・ネットワークに基づいて入力情報を符号化し、出力情報を取得及び出力する。
具体的には、本願のこの実施形態において、符号化装置は、生成された符号化ニューラル・ネットワークに基づいて、取得した入力情報(他の入力情報と区別されるべきであり、入力情報は、以下、入力情報1と言及される)を符号化して、出力情報1を取得及び出力することができる。具体的な符号化プロセスは次のとおりである:符号化装置は、ニューロン・パラメータ1に基づいて入力情報1に対する重み付け加算を実行し、次いで活性化関数に基づいて演算を実行して出力情報1を求める。具体的な詳細については、従来技術における技術的な形態を参照されたい。詳細は本願では説明されない。
結論として、本願のこの実施形態における技術的解決策では、対応するニューラル・ネットワーク・ユニットは、カーネル行列に基づいて生成され、符号化ネットワークはニューラル・ネットワーク・ユニットから構成されることが可能である。このように、大きなニューラル・ネットワークは、小さなニューラル・ネットワーク・ユニットが接続された後に取得され、その結果、符号化学習プロセスにおいて、小規模な学習サンプルを使用して、例えばポーラー符号のような相対的に長いコードワードを使用する情報の、ニューラル・ネットワークの複雑性及び学習困難性に対する影響を弱めるように、コードワード空間全体に対する一般化を実現することが可能である。
シナリオ2
シナリオ1は、ポーラー符号に基づいて符号化ネットワークを生成するプロセスの詳細な例として主に使用される。本願のこの実施形態における符号化方法は、一般的な符号化方法として使用されることが可能であり、即ち、別の符号化方法、例えば、リード・ソロモン(Reed-Solomon,RS)符号、ハミング符号、ボーズ・チョドリ・オッケンジェム (Bose-Chaudhuri-Hocquenghem,BCH)符号、畳み込み符号、ターボ(Turbo)符号、及び低密度パリティ・チェック(low-density parity-check,LDPC)符号(これは、以下、一般符号化と言及される)に関して使用することができる。
図1を参照すると、図14は、本願の実施形態による符号化方法の概略フローチャートである。
図14において、ステップ201では、ニューラル・ネットワーク・ユニットを生成する。
具体的には、この実施形態において、一般符号化に関し、任意の長さk1を有する入力情報uを有するコードワードcは、式(9)を使用することにより表現されることが可能である:
Figure 2022511771000157
uの情報ビット長はk2である。この場合、符号化行列Gの次元はk1×k2である。
同様に、符号化装置は、カーネル行列に対応する初期ニューラル・ネットワーク・ユニットを生成することができる。
本願の技術的解決策をよりよく理解するために、以下、一般符号化におけるハミング符号の例を用いて、詳細に説明する。ハミング符号の場合、符号化行列はカーネル行列と同じであり、即ちG=Tであることに留意すべきである。
カーネル行列が、
Figure 2022511771000158

である例において、生成される初期ニューラル・ネットワーク・ユニットを図15に示す。
入力情報がu=[0,1]である場合、入力情報uの予想されるチェック結果は、
Figure 2022511771000159

である。
次に、符号化装置は、出力情報が予想されるチェック結果に近づくまで、初期ニューラル・ネットワーク・ユニットを訓練する。訓練の具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ202:初期符号化ニューラル・ネットワークを生成する。
ハミング符号の場合、符号化装置は、取得した符号化ネットワーク・ダイアグラム中のバタフライ・ダイアグラムを、ニューラル・ネットワーク・ユニットに置換して、初期符号化ニューラル・ネットワークを得ることができる。これはシナリオ1と同じである。具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ203:初期符号化ニューラル・ネットワークを訓練して、符号化ニューラル・ネットワークを取得する。
このステップの具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ204:出力情報を取得する。
このステップの具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ205:符号化ニューラル・ネットワークに基づいて入力情報を符号化し、出力情報を取得及び出力する。
このステップの具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
シナリオ3
図1に関し、図16は、本願の実施形態による復号化方法の概略フローチャートである。
図16において、ステップ301ではニューラル・ネットワーク・ユニットを生成する。
具体的には、本願のこの実施形態では、復号化装置は、カーネル行列に基づいて初期ニューラル・ネットワーク・ユニットを生成することが可能であり、次いで、号化装置は、初期ニューラル・ネットワーク・ユニットの出力値が予想される最適ターゲットに近づくように、初期ニューラル・ネットワーク・ユニットを訓練する。この場合、訓練された初期ニューラル・ネットワーク・ユニットは、ニューラル・ネットワーク・ユニットである。訓練の後、初期ニューラル・ネットワーク・ユニットに含まれる初期ニューロン・パラメータは、ニューラル・ネットワーク・ユニットに含まれるニューロン・パラメータに更新される。更に、出力値が予想される最適化ターゲットに近いということは、初期ニューラル・ネットワーク・ユニットにより出力される出力情報と初期ニューラル・ネットワーク・ユニットへ入力される入力情報に対応する予想されるチェック結果との間の誤差が、閾値未満であるということである。本願のこの実施形態では、入力情報の予想されるチェック結果は、初期ニューラル・ネットワーク・ユニットに対応するカーネル行列に基づいてGF(2)内の入力情報に対して乗法演算及び加法演算が実行された後に取得される。
以下、ポーラー符号を参照してニューラル・ネットワーク・ユニットを生成する方法を詳細に説明する。
具体的には、ポーラー符号に対する復号化の式は、以下の式(10)を用いて示すことが可能である:
Figure 2022511771000160
ここで、xはニューラル・ネットワーク・ユニットの出力情報であり、yはニューラル・ネットワーク・ユニットの入力情報である。シナリオ1では、各ニューラル・ネットワーク・ユニット又はニューラル・ネットワークの入力はビット情報であり、符号化ニューラル・ネットワークは、符号化されたビット情報を出力し、チャネル処理の後にビット情報を尤度比に変換することに留意すべきである。従って、このシナリオでは、ニューラル・ネットワーク・ユニット及びニューラル・ネットワークの両方の入力情報は、チャネルを介して出力される尤度比である。
本願のこの実施形態では、復号化装置は、式(10)及び式(2)(式(2)におけるnは1である)に従って、初期ニューラル・ネットワーク・ユニットの入力情報に対応する予想されるチェック結果を取得し、入力情報及び入力情報の予想されるチェック結果に基づいて、初期ニューラル・ネットワーク・ユニットを生成する。
例えば、
Figure 2022511771000161

である場合に、初期ニューラル・ネットワーク・ユニットを図17に示す。入力情報[y0,y1,y2]に関し、入力情報についての予想されるチェック結果であって、T3に基づいて取得されるものは、
Figure 2022511771000162

である。
Figure 2022511771000163

である場合に、初期ニューラル・ネットワーク・ユニットを図18に示す。入力情報[y0,y1,y2]に関し、入力情報についての予想されるチェック結果であって、T3に基づいて取得されるものは、
Figure 2022511771000164

である。
Figure 2022511771000165

である場合に、初期ニューラル・ネットワーク・ユニットを図19に示す。入力情報[y0,y1,y2,y3]に関し、入力情報についての予想されるチェック結果であって、T4に基づいて取得されるものは、
Figure 2022511771000166

である。
初期ニューラル・ネットワーク・ユニットを生成する具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
次いで、復号化装置は、初期ニューラル・ネットワーク・ユニットを訓練して、ニューラル・ネットワーク・ユニットを取得する。具体的な訓練プロセスについては、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ302:初期復号化ニューラル・ネットワークを生成する。
具体的には、本願のこの実施形態では、復号化装置は、ステップ301で生成されたニューラル・ネットワークユニットに基づいて、初期号化ニューラル・ネットワークを生成することができる。換言すれば、初期符号化ニューラル・ネットワークは、1つ以上のニューラル・ネットワーク・ユニットを含む。
具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ303:初期デコード・ニューラル・ネットワークを訓練して、復号化ニューラル・ネットワークを取得する。
具体的には、本願のこの実施形態では、復号化装置は、初期復号化ニューラル・ネットワークの出力情報を、予想される復号化結果に近づけるように、初期復号化ニューラル・ネットワークを訓練し、復号化ニューラル・ネットワークに含まれるニューロン・パラメータを更新することができる。訓練された初期復号化ニューラル・ネットワークは、復号化ニューラル・ネットワークである。
具体的には、本願のこの実施形態において、復号化装置が訓練情報に基づいて復号化ニューラル・ネットワークを訓練するプロセスは、シナリオ1における符号化ニューラル・ネットワークの訓練プロセスとは異なる。符号化ニューラル・ネットワークの訓練プロセスでは、入力情報(即ち、訓練情報)が訓練され、次いで、出力情報と入力情報の予想されるチェック結果との間の誤差が求められ、誤差に基づいて別の訓練ステップが実行され、ニューロン・パラメータが更新される。しかしながら、復号化ニューラル・ネットワークの訓練プロセスでは、復号化ニューラル・ネットワークに入力される訓練情報は尤度比であるので、復号化ニューラル・ネットワークにおいて、損失パラメータを計算するプロセスは、出力情報と予想される復号化結果とに基づいて損失関数を計算している。予想される復号化結果は、次のような方法で得られる。何らかの符号化装置(本出願の実施形態における符号化装置であってもよいし、又は別のタイプの符号化装置であってもよい)が、符号化情報(符号化情報はビット情報である)を符号化し、符号化結果を出力する。符号化結果もビット情報である。この実施形態において、符号化情報は予想される復号化結果である。換言すれば、復号化ニューラル・ネットワークに入力される訓練情報は、符号化結果に対してチャネル処理が実行された後に生成される尤度比である。従って、復号化ニューラル・ネットワークの予想される出力値(即ち、予想される復号結果)は、符号化情報であるべきである。
ステップ304:入力情報を取得する。
このステップの具体的な詳細については、シナリオ1を参照されたい。詳細はここで再び説明しない。
ステップ305:復号化ニューラル・ネットワークに基づいて入力情報を復号化し、出力情報を取得及び出力する。
具体的には、本願のこの実施形態では、復号化装置は、出力情報を取得及び出力するために、生成された復号化ニューラル・ネットワークに基づいて、受信した入力情報を復号化することが可能である。具体的な復号化処理は次のとおりである:復号化装置が、ニューロン・パラメータに基づいて入力情報に関して重み付け加算を実行し、次いで、活性化関数に基づいて演算を実行して出力情報を取得する。具体的な詳細については、従来技術における技術的な形態を参照されたい。詳細は本願では説明されない。
結論として、本願のこの実施形態における技術的解決策では、対応するニューラル・ネットワーク・ユニットはカーネル行列に基づいて生成されることが可能であり、そして、復号化ニューラル・ネットワークはニューラル・ネットワーク・ユニットから構成されることが可能である。このように、大きなニューラル・ネットワークは、小さなニューラル・ネットワーク・ユニットが接続された後に取得され、その結果、復号化学習プロセスにおいて、小規模な学習サンプルを使用して、例えばポーラー符号のような相対的に長いコードワードを使用する情報の、ニューラル・ネットワークの複雑性及び学習困難性に対する影響を弱めるように、コードワード空間全体に対する一般化を実現することが可能である。
オプションとして、本願のこの実施形態における復号化方法は、他の符号化方法(即ち、一般符号化)、例えば、ハミング符号にも適用することができる。具体的な詳細については、シナリオ1、シナリオ2、及びシナリオ3を参照されたい。詳細はここで再び説明しない。
シナリオ4
図1に関し、図20は、本願の実施形態による符号化/復号化方法の概略フローチャートである。
図20において、ステップ401では、初期符号化/復号化ニューラル・ネットワークを生成する。
具体的には、本願のこの実施形態において、符号化/復号化装置は、上記の符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークに基づいて、初期符号化/復号ニューラル・ネットワークを生成することができる。
オプションとして、実施形態において、生成された初期符号化/復号化ニューラル・ネットワークにおける符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークは、同じニューロン・パラメータを有することが可能である。例えば、ポーラー符号の場合、生成された初期符号化/復号化ニューラル・ネットワークにおける符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークは、同じニューロン・パラメータを有する可能性がある。
オプションとして、別の実施形態において、生成された初期符号化/復号化ニューラル・ネットワークにおける符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークは、異なるニューロン・パラメータを有する可能性がある。例えば、ハミング符号の場合、生成された初期符号化/復号ニューラル・ネットワークにおける符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークは、異なるニューロン・パラメータを有する可能性がある。
この実施形態では、詳細な説明の例としてポーラー符号を使用する。
具体的には、符号化/復号化装置は、符号化装置によって生成される符号化ニューラル・ネットワークを取得することが可能である。シナリオ1における訓練プロセスは、符号化ニューラル・ネットワークに関して完了している。換言すれば、符号化ニューラル・ネットワークの出力情報は、予想されるチェック結果に近い。
そして、符号化/復号化装置は、復号化装置によって生成された復号化ニューラル・ネットワークを得ることができる。復号化ニューラル・ネットワークは、訓練が完了している復号化ニューラル・ネットワークであってもよい。換言すれば、復号化ニューラル・ネットワークの出力情報は、予想されるチェック結果に近い。代替的に、復号化ニューラル・ネットワークは、訓練が実行されていない初期復号化ニューラル・ネットワーク、即ち、初期ニューロン・パラメータのみを有する復号化ニューラル・ネットワークであってもよい。
次に、符号化/復号化装置は、取得した符号化ニューラル・ネットワーク及び取得した復号化ニューラル・ネットワークに関するパラメータ共有を実現することが可能である。換言すれば、復号化ニューラル・ネットワーク(又は初期復号化ニューラル・ネットワーク)におけるニューロン・パラメータは、初期符号化/復号化ニューラル・ネットワークを生成するために、符号化ニューラル・ネットワークにおけるニューロン・パラメータで置換される。
別の実施形態において、符号化/復号化装置は、代替的に、訓練が完了した復号化ニューラル・ネットワークを取得し、訓練が完了した符号化ニューラル・ネットワーク、又は訓練が完了していない初期符号化ニューラル・ネットワークを取得する可能性がある。符号化/復号化装置は、初期符号化/復号化ニューラル・ネットワークを生成するために、符号化ニューラル・ネットワーク(又は初期符号化ニューラル・ネットワーク)におけるニューロン・パラメータを、復号化ニューラル・ネットワークにおけるニューロン・パラメータに置換することが可能である。
ステップ402:初期符号化/復号化ニューラル・ネットワークを訓練して、符号化/復号化ニューラル・ネットワークを取得する。
具体的には、本願のこの実施形態において、符号化/復号装置は、初期符号化/復号化ニューラル・ネットワークを訓練する。訓練された初期符号化/復号化ニューラル・ネットワークは、符号化/復号化ニューラル・ネットワークである。
図21は、初期符号化/復号化ニューラル・ネットワークを訓練するための方法の概略フローチャートである。
図21において、符号化/復号化装置は、符号化/復号化ニューラル・ネットワークの符号化ニューラル・ネットワーク側で入力情報を入力する。その入力情報は、訓練情報と言及されてもよい。訓練情報のコード長は、符号化/復号化ニューラル・ネットワークのコード長と同じである。
次いで、初期符号化/復号化ニューラル・ネットワークにおける符号化ニューラル・ネットワークは、訓練情報を符号化して、符号化結果を取得及び出力する。次いで、符号化結果に対してチャネル処理が実行された後、処理された結果が復号化ニューラル・ネットワークに入力される。復号化ニューラル・ネットワーク側に入力される符号化結果は、尤度比である。
次いで、復号化ニューラル・ネットワーク側は、入力された尤度比を復号化して、復号化結果を取得及び出力する。復号化結果はまた、訓練結果として参照されてもよい。
この実施形態において、入力訓練情報は、符号化/復号化ニューラル・ネットワークの予想されるチェック結果である。符号化/復号化装置は、訓練情報及び訓練結果に基づいて損失関数を求めることができる。損失関数を求める方法は、平均二乗誤差又は差分のような関数であってもよい。更に、符号化/復号化装置は、損失関数の結果が収束しているか否か、即ち、訓練情報と訓練結果との間の誤差が閾値より大きいか否かを判定する(誤差を計算する具体的な詳細については、前述のシナリオ1における実施形態を参照されたい)。誤差が閾値未満である場合、訓練は終了する。誤差が閾値以上である場合、引き続き次のステップが実行される。
この実施形態において、誤差が閾値以上である場合、符号化/復号化装置は、オプティマイザを使用することによって、符号化/復号化ニューラル・ネットワークを最適化することができる。最適化方法は、勾配降下のような方法で符号化/復号化ニューラル・ネットワークに対して反復を実行すること、符号化/復号化ネットワークにおいてニューロン・パラメータを更新すること、及び更新されたニューロン・パラメータを、符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークと共有することを含むが、これに限定されない。次いで、符号化/復号化装置は、訓練結果と訓練情報との間の誤差が閾値未満になるまで、或いは訓練ラウンド回数が訓練ラウンド回数閾値に到達するまで、或いは訓練期間が訓練期間閾値に到達するまで、前述の訓練ステップを反復する。
訓練済みの初期符号化/復号化ニューラル・ネットワークは、符号化/復号化ニューラル・ネットワークである。
ステップ403:符号化/復号化ニューラル・ネットワークに基づいて入力情報を符号化し、出力情報を取得及び出力する。
具体的には、本願のこの実施形態において、訓練された符号化/復号化ニューラル・ネットワークは、符号化ニューラル・ネットワーク部分と復号化ニューラル・ネットワーク部分とに分割されてもよい。符号化/復号化ニューラル・ネットワークは、符号化ニューラル・ネットワーク部分を使用することによって入力情報を符号化し、符号化結果を取得及び出力する。そして、復号化ニューラル・ネットワーク部分は、復号化結果を復号化し、復号化結果(復号化結果は出力情報であり、復号化結果は入力情報と同じである)を取得及び出力する。
符号化ニューラル・ネットワークは、端末及び/又は基地局に配置されることが可能であり、復号化ニューラル・ネットワークは、端末及び/又は基地局に配置されることが可能である。
具体的には、端末が信号を基地局に送信する場合、端末の符号化ニューラル・ネットワーク部分は、符号化対象情報(即ち、入力情報)を符号化し、符号化結果を取得及び出力し、チャネルを介して符号化結果を基地局へ送信する。符号化結果を受信した後、基地局は、復号化ニューラル・ネットワークを使用することによって符号化結果を復号化し、復号化結果、即ち、符号化対象情報を取得及び出力する。
基地局が端末に信号を送信する場合、基地局の符号化ニューラル・ネットワーク部分は、符号化対象情報を符号化し、符号化結果を取得及び出力し、チャネルを介して符号化結果を端末へ送信する。符号化結果を受信した後、端末は、復号化ニューラル・ネットワークを使用することによって符号化結果を復号化し、復号化結果、即ち、符号化対象情報を取得及び出力する。
異なるニューロン・パラメータを有する符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークを含む、ハミング符号などに関する符号化/復号化ニューラル・ネットワークにおいては、訓練を行うことなく両側で符号化及び復号化ニューラル・ネットワークを使用することによって、符号化及び復号化が直接的に実行されてもよいことに留意すべきである。
結論として、本願のこの実施形態における技術的解決策において、パラメータは、符号化ニューラル・ネットワークと復号化ニューラル・ネットワークとの間で共有され、それによって、符号化/復号化ニューラル・ネットワークのパフォーマンスを改善し、複雑性を低減する。更に、符号化ニューラル・ネットワーク及び復号化ニューラル・ネットワークを含む符号化/復号化ニューラル・ネットワークを使用することによって、学習コスト及び困難性が低減され、学習効率が効果的に改善される。
オプションとして、実施形態において、本願のこの実施形態における符号化/復号化方法は、マルチ・エレメント・フィールドに適用されてもよい。ポーラー符号の例では、具体的には、2進ポーラー符号の生成行列は、「0」及び「1」の2つの要素から構成され、マルチ・エレメント・ポーラー符号の生成行列は、GF(2m)(mは、1より大きな整数である)におけるゼロ要素と非ゼロ要素から構成されることが可能である。2進ポーラー符号と同様に、マルチ・エレメント・ポーラー符号の生成行列は、依然として、カーネル行列に基づいてクロネッカー積演算により取得されてもよい。
Figure 2022511771000167

というシナリオ1における例を使用する。この実施形態では、
Figure 2022511771000168

における1は、GF(2m)における非ゼロ要素で置換される。例えば、
Figure 2022511771000169

である。ここで、j,k,及びlは自然数である。マルチ・エレメント・ポーラー符号の生成行列Gは、式(2)に従って、
Figure 2022511771000170

のように表現されてもよい。マルチ・エレメント・フィールドにおいて、
Figure 2022511771000171

に対応するニューラル・ネットワーク・ユニットは、図22に示されている。入力情報[y0,y1]に関し、入力情報についての予想されるチェック結果であって、T2に基づいて取得されるものは、
Figure 2022511771000172

である。
マルチ・エレメント・フィールドで生成されるニューラル・ネットワーク・ユニットに基づいて符号化ニューラル・ネットワーク又は復号化ニューラル・ネットワークを生成する方法については、シナリオ1ないしシナリオ3における説明を参照されたい。詳細はここで再び説明しない。
オプションとして、実施形態では、本願のこの実施形態における符号化装置、復号化装置、及び/又は符号化/復号化装置が、ニューラル・ネットワーク・ユニット又はニューラル・ネットワーク(符号化ニューラル・ネットワーク、復号化ニューラル・ネットワーク、及び/又は符号化/復号化ニューラル・ネットワークを示す)を訓練するプロセスにおいて、プリセット条件が更に設定されていてもよい。訓練プロセスにおいて、プリセット条件に到達すると、訓練は停止させられる。プリセット条件は:訓練ラウンド回数が訓練ラウンド回数閾値よりも大きいこと、即ち、訓練ラウンド回数が訓練ラウンド回数閾値に到達した場合に、訓練は停止させられてもよいこと;又は訓練継続期間が訓練継続期間閾値よりも大きいこと、即ち、訓練継続期間が訓練継続期間閾値に到達した場合に、訓練は停止させられてもよいこと、を含むがこれらに限定されない。別のプリセット条件が更に設定されてもよい。これは本願では限定されない。複数の訓練条件が設定されてもよいことに留意すべきである。例えば、訓練条件は、A:損失関数が損失関数閾値未満であること(即ち、本願のこの実施形態における出力情報と予想されるチェック結果との間の誤差が閾値未満であること)であってもよいし;又は訓練条件は、B:訓練ラウンド回数が訓練ラウンド回数閾値より大きいことであってもよい。損失関数は損失関数閾値に到達していないが、訓練ラウンド回数は訓練ラウンド回数閾値に到達した場合、訓練は停止させられてもよい。これにより、訓練時間は短縮され、リソースが節約される。
オプションとして、本願のこの実施形態では、訓練段階において、各ニューラル・ネットワーク・ユニット及びニューラル・ネットワークの入力は訓練情報であり;符号化段階において、各ニューラル・ネットワーク・ユニット及びニューラル・ネットワークの入力は、符号化対象の情報である。同一の構造を有するニューラル・ネットワーク・ユニット又はニューラル・ネットワークの訓練情報は、ニューラル・ネットワーク・ユニット又はニューラル・ネットワークの符号化情報と同一であってもよいし、又は異なっていてもよい。これは本願で限定されない。
オプションとして、実施形態において、訓練段階(ニューラル・ネットワーク・ユニットの訓練部分とニューラル・ネットワークの訓練部分(符号化ニューラル・ネットワーク、復号化ニューラル・ネットワーク、及び/又は符号化/復号化ニューラル・ネットワーク)とを含む)は、オンラインで実現されてもよく、即ち、訓練結果は、符号化装置に入力されるべき入力情報として直接的に使用されてもよい。別の実施形態において、訓練段階は代替的にオフラインで実現されてもよく、即ち、本願のこの実施形態におけるニューラル・ネットワーク・ユニット及びニューラル・ネットワークが適用される前に、ニューラル・ネットワーク・ユニット及びニューラル・ネットワークの訓練が完了している。
以下、本願の実施形態において提供される符号化装置300を説明する。以下は図23に示されている。
符号化装置300は、処理ユニット301と通信ユニット302とを含む。オプションとして、符号化装置300はストレージ・ユニット303を更に含む。処理ユニット301、通信ユニット302、及びストレージ・ユニット303は、通信バスを用いて接続される。
ストレージ・ユニット303は、1つ以上のメモリを含んでもよい。メモリは、プログラム又はデータを1つ以上のデバイス又は回路に記憶するように構成されたコンポーネントであってもよい。
ストレージ・ユニット303は、独立して存在してもよく、通信バスを用いて処理ユニット301に接続される。代替的に、ストレージ・ユニットは、処理ユニット301と一緒に統合されてもよい。
符号化装置300は、本願の実施形態における端末、例えば、端末200であってもよい。端末の概略図は図2bに示されるものであってもよい。オプションとして、符号化装置300の通信ユニット302は、端末のアンテナ及びトランシーバ、例えば図2bのアンテナ205及びトランシーバ202を含んでもよい。
符号化装置300は、本願の実施形態における端末内のチップ、例えば端末200内のチップであってもよい。通信ユニット302は、入力/出力インターフェース、ピン、回路などであってもよい。オプションとして、ストレージ・ユニットは、処理ユニット301が前述の実施形態の符号化方法を実行するように、方法のコンピュータ実行可能命令を端末側に記憶してもよい。ストレージ・ユニット303は、レジスタ、キャッシュ、RAM等であってもよく、ストレージ・ユニット303は、処理ユニット301と一体化されてもよい。ストレージ・ユニット303は、静的な情報及び命令を記憶することが可能なROM又は他のタイプの静的ストレージ・デバイスであってもよく、ストレージ・ユニット303は、処理ユニット301から独立していてもよい。オプションとして、無線通信技術の発展とともに、トランシーバは符号化装置300に統合されてもよい。例えば、トランシーバ202は通信ユニット302に統合される。
符号化装置300は、本願の実施形態における基地局、例えば、基地局100であってもよい。基地局100の概略図は図2aに示されるものであってもよい。オプションとして、符号化装置300の通信ユニット302は、基地局のアンテナ及びトランシーバ、例えば、図2aのアンテナ105及びトランシーバ103を含んでもよい。通信ユニット302は、基地局のネットワーク・インターフェース、例えば図2aのネットワーク・インターフェース104を更に含んでもよい。
符号化装置300は、本願の実施形態では、基地局内のチップ、例えば基地局100内のチップであってもよい。通信ユニット302は、入力/出力インターフェース、ピン、回路などであってもよい。オプションとして、ストレージ・ユニットは、処理ユニット301が前述の実施形態の符号化方法を実行するように、方法のコンピュータ実行可能命令を基地局側に記憶してもよい。ストレージ・ユニット303は、レジスタ、キャッシュ、RAM等であってもよく、ストレージ・ユニット303は、処理ユニット301と一体化されてもよい。ストレージ・ユニット303は、静的な情報及び命令を記憶することが可能なROM又は他のタイプの静的ストレージ・デバイスであってもよく、ストレージ・ユニット303は、処理ユニット301から独立していてもよい。オプションとして、無線通信技術の発展とともに、トランシーバは符号化装置300に統合されてもよい。例えば、トランシーバ203及びネットワーク・インターフェース204は通信ユニット302に統合される。
本願の実施形態において、符号化装置300が基地局又は基地局内のチップである場合、前述の実施形態における符号化方法を実装することができる。
以下、本願の実施形態において提供される復号化装置400を説明する。以下は図24に示されている。
復号化装置400は、処理ユニット401及び通信ユニット402を含む。オプションとして、復号化装置400は、記憶ユニット403を更に含む。処理ユニット401、通信ユニット402、及びストレージ・ユニット403は、通信バスを用いて接続される。
ストレージ・ユニット403は、1つ以上のメモリを含んでもよい。メモリは、プログラム又はデータを1つ以上のデバイス又は回路に記憶するように構成されたコンポーネントであってもよい。
ストレージ・ユニット403は、独立して存在してもよく、通信バスを用いて処理ユニット201に接続される。代替的に、ストレージ・ユニットは、処理ユニット401と一緒に統合されてもよい。
復号化装置400は、本願の実施形態における端末、例えば、端末200であってもよい。端末の概略図は図2bに示されるものであってもよい。オプションとして、復号化装置400の通信ユニット402は、端末のアンテナ及びトランシーバ、例えば図2bのアンテナ205及びトランシーバ202を含んでもよい。
復号化装置400は、本願の実施形態における端末内のチップ、例えば端末200内のチップであってもよい。通信ユニット402は、入力/出力インターフェース、ピン、回路などであってもよい。オプションとして、ストレージ・ユニットは、処理ユニット401が前述の実施形態の復号化方法を実行するように、方法のコンピュータ実行可能命令を端末側に記憶してもよい。ストレージ・ユニット403は、レジスタ、キャッシュ、RAM等であってもよく、ストレージ・ユニット403は、処理ユニット401と一体化されてもよい。ストレージ・ユニット403は、静的な情報及び命令を記憶することが可能なROM又は他のタイプの静的ストレージ・デバイスであってもよく、ストレージ・ユニット403は、処理ユニット401から独立していてもよい。オプションとして、無線通信技術の発展とともに、トランシーバは符号化装置400に統合されてもよい。例えば、トランシーバ202は通信ユニット402に統合される。
復号化装置400は、本願の実施形態における基地局、例えば、基地局100であってもよい。基地局100の概略図は図2aに示されるものであってもよい。オプションとして、符号化装置400の通信ユニット402は、基地局のアンテナ及びトランシーバ、例えば、図2aのアンテナ205及びトランシーバ203を含んでもよい。通信ユニット402は、基地局のネットワーク・インターフェース、例えば図2aのネットワーク・インターフェース104を更に含んでもよい
復号化装置400は、本願の実施形態では、基地局内のチップ、例えば基地局100内のチップであってもよい。通信ユニット402は、入力/出力インターフェース、ピン、回路などであってもよい。オプションとして、ストレージ・ユニットは、処理ユニット401が前述の実施形態の復号化方法を実行するように、方法のコンピュータ実行可能命令を基地局側に記憶してもよい。ストレージ・ユニット403は、レジスタ、キャッシュ、RAM等であってもよく、ストレージ・ユニット403は、処理ユニット301と一体化されてもよい。ストレージ・ユニット403は、静的な情報及び命令を記憶することが可能なROM又は他のタイプの静的ストレージ・デバイスであってもよく、ストレージ・ユニット403は、処理ユニット401から独立していてもよい。オプションとして、無線通信技術の発展とともに、トランシーバは符号化装置400に統合されてもよい。例えば、トランシーバ203及びネットワーク・インターフェース204は通信ユニット402に統合される。
本願の実施形態において、復号化装置400が基地局又は基地局内のチップである場合、前述の実施形態における復号化方法を実装することができる。
以下、本願の実施形態において提供される符号化装置500を説明する。以下は、図25に示されている。
符号化装置500は、取得モジュール501及び符号化モジュール502を含む。
取得モジュール501は、「入力情報を取得すること」の関連ステップを実行するように構成される。例えば、取得モジュール501は、前述の方法の実施形態におけるステップ104及びステップ204を実行する際に、符号化装置500をサポートする。
符号化モジュール502は、「符号化ニューラル・ネットワークを取得すること」の関連ステップを実行するように構成される。例えば、符号化モジュール502は、前述の方法の実施形態におけるステップ101、ステップ102、ステップ103、ステップ201、ステップ202、及びステップ203を実行する際に、符号化装置500をサポートする。
更に、符号化モジュール502は、「入力情報を符号化すること」の関連ステップを実行するように更に構成されてもよい。例えば、符号化モジュール502は、前述の方法の実施形態におけるステップ105及びステップ205を実行する際に、符号化装置500をサポートする。
符号化装置500は、取得モジュール501及び符号化モジュール502を使用することによって、本願のこの実施形態における符号化装置の他の機能を実現することができる。詳細については、前述の実施形態における関連する内容を参照されたい。
以下、本願の実施形態において提供される復号化装置600を説明する。以下は、図26に示されている。
復号化装置600は、取得モジュール601及び復号化モジュール602を含む。
取得モジュール601は、「入力情報を取得すること」の関連ステップを実行するように構成される。例えば、取得モジュール601は、前述の方法の実施形態におけるステップ404を実行する際に、号化装置600をサポートする。
復号化モジュール602は、「復号化ニューラル・ネットワークを取得すること」の関連ステップを実行するように構成される。例えば、復号化モジュール602は、前述の方法の実施形態におけるステップ301、ステップ302、及びステップ303を実行する際に、符号化装置600をサポートする。
更に、復号化モジュール602は、「入力情報を復号化して出力情報を取得及び出力すること」の関連ステップを実行するように更に構成されてもよい。例えば、復号化モジュール602は、前述の方法の実施形態におけるステップ405を実行する際に、復号化装置600をサポートする。
復号化装置600は、取得モジュール601及び復号化モジュール602を使用することによって、本願のこの実施形態における復号化装置の他の機能を実現することができる。詳細については、前述の実施形態における関連する内容を参照されたい。
本願の実施形態は、更に、コンピュータ読み取り可能な記憶媒体を提供する。前述の実施形態で説明される方法は、ソフトウェア、ハードウェア、ファームウェア、又はそれらの任意の組み合わせを使用することによって、全体的に又は部分的に実現することができる。方法がソフトウェアで実現される場合、1つ以上の命令又はコードとして使用される機能は、コンピュータ読み取り可能な媒体に記憶されてもよいし、又はそこに伝送されてもよい。コンピュータ読み取り可能な媒体は、コンピュータ記憶媒体及び通信媒体を含む可能性があり、更に、コンピュータ・プログラムをある場所から別の場所へ転送することが可能な任意の媒体を含む可能性がある。記憶媒体は、コンピュータにアクセスすることが可能な任意の利用可能な媒体であるすることが可能である。
オプションの設計において、コンピュータ読み取り可能な媒体は、RAM、ROM、EEPROM、CD-ROM、又は他の光ディスク・ストレージ、磁気ディスク・ストレージ、又は他の磁気ストレージ・デバイス、又は、命令又はデータ構造の形態で必要とされるプログラ・ムコードを搬送又は記憶するように構成されることが可能な他の任意の媒体であって、コンピュータによりアクセスされ得るものを含んでもよい。更に、如何なる接続も、コンピュータ読み取り可能な媒体として適切に言及される。例えば、同軸ケーブル、光ファイバ・ケーブル、ツイスト・ペア、ディジタル加入者回線(DSL)、又は無線技術(例えば、赤外線、無線及びマイクロ波)がソフトウェアをウェブサイト、サーバー、又は他のリモート・ソースから伝送するために使用される場合、同軸ケーブル、光ファイバ・ケーブル、ツイスト・ペア、DSL、又は、赤外線、無線及びマイクロ波のような無線技術は、媒体の定義に含まれる。本明細書で使用される磁気ディスク及び光ディスクは、コンパクト・ディスク(CD)、レーザー・ディスク、光ディスク、デジタル多用途ディスク(DVD)、フロッピー・ディスク、及びブルーレイ・ディスクを含む。通常、磁気ディスクは磁気的にデータを再生し、光ディスクはレーザー光を用いて光学的にデータを再生する。前述の組み合わせはまた、コンピュータ読み取り可能な媒体の範囲内に含まれるべきである。
本願の実施形態は、更に、コンピュータ・プログラム製品を提供する。前述の実施形態で説明される方法は、ソフトウェア、ハードウェア、ファームウェア、又はそれらの任意の組み合わせを使用することによって、全体的に又は部分的に実現することができる。方法がソフトウェアで実現される場合、方法は、コンピュータ・プログラム製品の形態で全体的に又は部分的に実現されてもよい。コンピュータ・プログラム製品は、1つ以上のコンピュータ命令を含む。前述のコンピュータ・プログラム命令がコンピュータ上にロードされて実行される場合に、前述の方法の実施形態で説明された手順又は機能は、全体的又は部分的に生じる。前述のコンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータ・ネットワーク、ネットワーク・デバイス、ユーザー装置、又は他のプログラム可能な装置であってもよい。
上記は添付の図面を参照して本願の実施態様を説明している。しかしながら、本願は、前述の特定の実装に限定されない。前述の具体的な実装は単なる例であり、限定的なものではない。本願により触発された当業者は、本願の目的及びクレームの保護範囲から逸脱することなく、更に多くの修正を行うことが可能であり、その全ての修正は本願の保護範囲内に該当するものとする。

Claims (36)

  1. 符号化方法であって、
    第1入力情報を取得するステップと、
    符号化ニューラル・ネットワークに基づいて前記第1入力情報を符号化し、第1出力情報を取得及び出力するステップと
    を含み、前記符号化ニューラル・ネットワークは第1ニューロン・パラメータを含み、前記第1ニューロン・パラメータは、前記第1入力情報と前記第1出力情報との間のマッピング関係を示すために使用され、
    前記符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期符号化ニューラル・ネットワークが訓練された後に取得され、前記初期符号化ニューラル・ネットワークは、前記初期符号化ニューラル・ネットワークに入力される第2入力情報と、前記初期符号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含み、前記初期符号化ニューラル・ネットワークが訓練された後に、前記第2ニューロン・パラメータは前記第1ニューロン・パラメータに更新され、
    前記第2ニューロン・パラメータは、前記第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成され、前記第3ニューロン・パラメータは、前記第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、前記第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用され、前記第3出力情報と前記第3入力情報の予想されるチェック結果との間の誤差は閾値未満であり、前記第3入力情報の前記予想されるチェック結果は、第1カーネル行列に基づいてバイナリ・ガロア体GF(2)における前記第3入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記第1入力情報は符号化対象の情報であり、前記第2入力情報及び前記第3入力情報は訓練情報である、方法。
  2. 前記第1ニューラル・ネットワーク・ユニットを取得するステップは、
    前記第1初期ニューラル・ネットワーク・ユニットを構築し、前記第1初期ニューロン・パラメータを設定するステップであって、前記第1初期ニューロン・パラメータは、前記第1初期ニューロンに入力される第4入力情報と前記第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、前記第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、前記第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは前記第3入力情報のコード長と前記第3出力情報のコード長とにおける最小値である、ステップと、
    前記第4出力情報と前記第4入力情報の予想されるチェック結果との間の誤差が前記閾値未満になるまで、前記第1初期ニューラル・ネットワーク・ユニットを前記第1初期ニューロン・パラメータに基づいて訓練するステップであって、前記第4入力情報の前記予想されるチェック結果は、前記第1カーネル行列に基づいて前記GF(2)における前記第4入力情報に関して乗法演算及び加法演算が実行された後に取得される、ステップと、
    前記第1初期ニューラル・ネットワーク・ユニットが訓練されると、前記第3ニューラル・パラメータを取得するために前記第1初期ニューラル・パラメータを更新するステップであって、前記第4入力情報は訓練情報である、ステップと
    を含む、請求項1に記載の方法。
  3. 前記第1カーネル行列は
    Figure 2022511771000062


    であるか、又は前記第1カーネル行列は
    Figure 2022511771000063


    である、請求項1又は2に記載の方法。
  4. 前記第1カーネル行列が
    Figure 2022511771000064


    である場合に、前記第3入力情報の前記予想されるチェック結果は、
    Figure 2022511771000065


    であり、x0及びx1は前記第3出力情報であり、u0及びu1は前記第3入力情報であり、又は
    前記第1カーネル行列が
    Figure 2022511771000066


    である場合に、前記第3入力情報の前記予想されるチェック結果は、
    Figure 2022511771000067


    であり、x0,x1,及びx2は前記第3出力情報であり、u0,u1,及びu2は前記第3入力情報である、請求項1-3のうちの何れか1項に記載の方法。
  5. 前記初期符号化ニューラル・ネットワークは、前記第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成され、
    前記第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含み、前記第2ニューラル・ネットワーク・ユニットは、前記第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得され、前記第1初期ニューロン・パラメータは、前記第4ニューロン・パラメータを取得するために、前記第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新され、前記第4ニューラル・パラメータは前記第3ニューラル・パラメータと相違する、請求項2-4のうちの何れか1項に記載の方法。
  6. 前記初期符号化ニューラル・ネットワークは、前記第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成され、前記第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含み、
    前記第5ニューロン・パラメータは、前記第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、前記第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用され、前記第5出力情報と前記第5入力情報の予想されるチェック結果との間の誤差は閾値未満であり、前記第5入力情報の前記予想されるチェック結果は、第2カーネル行列に基づいて前記GF(2)における前記第5入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記第5入力情報は訓練情報である、請求項2-4のうちの何れか1項に記載の方法。
  7. 前記初期符号化ニューラル・ネットワークを取得するステップは、
    符号化ネットワーク・ダイアグラムを取得するステップであって、前記符号化ネットワーク・ダイアグラムは少なくとも1つの符号化バタフライ・ダイアグラムを含み、前記符号化バタフライ・ダイアグラムは、前記符号化バタフライ・ダイアグラムの入力情報と前記符号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用される、ステップと、
    前記第1ニューラル・ネットワーク・ユニットを、前記少なくとも1つの符号化バタフライ・ダイアグラムと照合するステップと、
    照合に成功した符号化バタフライ・ダイアグラムを、前記第1ニューラル・ネットワーク・ユニットで置換し、前記初期符号化ニューラル・ネットワークを取得するステップと
    を含む、請求項1に記載の方法。
  8. 復号化方法であって、
    第1入力情報を取得するステップと、
    復号化ニューラル・ネットワークに基づいて前記第1入力情報を復号化し、第1出力情報を取得及び出力するステップと
    を含み、前記復号化ニューラル・ネットワークは第1ニューロン・パラメータを含み、前記第1ニューロン・パラメータは、前記第1入力情報と前記第1出力情報との間のマッピング関係を示すために使用され、
    前記復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期復号化ニューラル・ネットワークが訓練された後に取得され、前記初期復号化ニューラル・ネットワークは、前記初期復号化ニューラル・ネットワークに入力される第2入力情報と、前記初期復号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含み、前記初期復号化ニューラル・ネットワークが訓練された後に、前記第2ニューロン・パラメータは前記第1ニューロン・パラメータに更新され、
    前記第2ニューロン・パラメータは、前記第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成され、前記第3ニューロン・パラメータは、前記第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、前記第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用され、前記第3出力情報と前記第3入力情報の予想されるチェック結果との間の誤差は閾値未満であり、前記第3入力情報の前記予想されるチェック結果は、第1カーネル行列に基づいてGF(2)における前記第3入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記第1入力情報は復号化対象の情報であり、前記第2入力情報及び前記第3入力情報は訓練情報である、方法。
  9. 前記第1ニューラル・ネットワーク・ユニットを取得するステップは、
    前記第1初期ニューラル・ネットワーク・ユニットを構築し、前記第1初期ニューロン・パラメータを設定するステップであって、前記第1初期ニューロン・パラメータは、前記第1初期ニューロンに入力される第4入力情報と前記第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、前記第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、前記第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは前記第3入力情報のコード長と前記第3出力情報のコード長とにおける最小値である、ステップと、
    前記第4出力情報と前記第4入力情報の予想されるチェック結果との間の誤差が前記閾値未満になるまで、前記第1初期ニューラル・ネットワーク・ユニットを前記第1初期ニューロン・パラメータに基づいて訓練するステップであって、前記第4入力情報の前記予想されるチェック結果は、前記第1カーネル行列に基づいて前記GF(2)における前記第4入力情報に関して乗法演算及び加法演算が実行された後に取得される、ステップと、
    前記第1初期ニューラル・ネットワーク・ユニットが訓練されると、前記第3ニューラル・パラメータを取得するために前記第1初期ニューラル・パラメータを更新するステップであって、前記第4入力情報は訓練情報である、ステップと
    を含む、請求項8に記載の方法。
  10. 前記第1カーネル行列は
    Figure 2022511771000068


    であるか、又は前記第1カーネル行列は
    Figure 2022511771000069


    である、請求項8又は9に記載の方法。
  11. 前記第1カーネル行列が
    Figure 2022511771000070


    である場合に、前記第3入力情報の前記予想されるチェック結果は、
    Figure 2022511771000071


    であり、x0及びx1は前記第3出力情報であり、y0及びy1は前記第3入力情報であり、又は
    前記第1カーネル行列が
    Figure 2022511771000072


    である場合に、前記第3入力情報の前記予想されるチェック結果は、
    Figure 2022511771000073


    であり、x0,x1,及びx2は前記第3出力情報であり、y0,y1,及びy2は前記第3入力情報である、請求項8-10のうちの何れか1項に記載の方法。
  12. 前記初期復号化ニューラル・ネットワークは、前記第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成され、
    前記第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含み、前記第2ニューラル・ネットワーク・ユニットは、前記第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得され、前記第1初期ニューロン・パラメータは、前記第4ニューロン・パラメータを取得するために、前記第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新され、前記第4ニューラル・パラメータは前記第3ニューラル・パラメータと相違する、請求項9-11のうちの何れか1項に記載の方法。
  13. 前記初期復号化ニューラル・ネットワークは、前記第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成され、前記第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含み、
    前記第5ニューロン・パラメータは、前記第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、前記第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用され、前記第5出力情報と前記第5入力情報の予想されるチェック結果との間の誤差は閾値未満であり、前記第5入力情報の前記予想されるチェック結果は、第2カーネル行列に基づいて前記GF(2)における前記第5入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記第5入力情報は訓練情報である、請求項9-11のうちの何れか1項に記載の方法。
  14. 前記初期復号化ニューラル・ネットワークを取得するステップは、
    復号化ネットワーク・ダイアグラムを取得するステップであって、前記復号化ネットワーク・ダイアグラムは少なくとも1つの復号化バタフライ・ダイアグラムを含み、前記復号化バタフライ・ダイアグラムは、前記復号化バタフライ・ダイアグラムの入力情報と前記復号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用される、ステップと、
    前記第1ニューラル・ネットワーク・ユニットを、前記少なくとも1つの復号化バタフライ・ダイアグラムと照合するステップと、
    照合に成功した復号化バタフライ・ダイアグラムを、前記第1ニューラル・ネットワーク・ユニットで置換し、前記初期復号化ニューラル・ネットワークを取得するステップと
    を含む、請求項8に記載の方法。
  15. 符号化ニューラル・ネットワーク/復号化ニューラル・ネットワークに基づいて第1入力情報を符号化及び/又は復号化するステップを有し、
    前記符号化/復号化ニューラル・ネットワークは、請求項1-7のうちの何れか1項に記載の前記符号化ニューラル・ネットワークと請求項8-14のうちの何れか1項に記載の前記復号化ニューラル・ネットワークとを含む、符号化方法/復号化方法。
  16. 前記符号化ニューラル・ネットワークにおけるニューロン・パラメータは、前記復号化ニューラル・ネットワークにおけるニューロン・パラメータと相違するか、又は
    前記符号化ニューラル・ネットワークにおけるニューロン・パラメータは、前記復号化ニューラル・ネットワークにおけるニューロン・パラメータと同一である、請求項15に記載の方法。
  17. 符号化装置であって、
    第1入力情報を取得するように構成された取得モジュールと、
    符号化ニューラル・ネットワークに基づいて前記第1入力情報を符号化し、第1出力情報を取得及び出力するように構成された符号化モジュールと
    を含み、前記符号化ニューラル・ネットワークは第1ニューロン・パラメータを含み、前記第1ニューロン・パラメータは、前記第1入力情報と前記第1出力情報との間のマッピング関係を示すために使用され、前記符号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期符号化ニューラル・ネットワークが訓練された後に取得され、前記初期符号化ニューラル・ネットワークは、前記初期符号化ニューラル・ネットワークに入力される第2入力情報と、前記初期符号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含み、前記初期符号化ニューラル・ネットワークが訓練された後に、前記第2ニューロン・パラメータは前記第1ニューロン・パラメータに更新され、
    前記第2ニューロン・パラメータは、前記第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成され、前記第3ニューロン・パラメータは、前記第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、前記第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用され、前記第3出力情報と前記第3入力情報の予想されるチェック結果との間の誤差は閾値未満であり、前記第3入力情報の前記予想されるチェック結果は、第1カーネル行列に基づいてGF(2)における前記第3入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記第1入力情報は符号化対象の情報であり、前記第2入力情報及び前記第3入力情報は訓練情報である、装置。
  18. 前記符号化モジュールは、更に、前記第1初期ニューラル・ネットワーク・ユニットを構築し、前記第1初期ニューロン・パラメータを設定するように構成され、前記第1初期ニューロン・パラメータは、前記第1初期ニューロンに入力される第4入力情報と前記第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、前記第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、前記第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは前記第3入力情報のコード長と前記第3出力情報のコード長とにおける最小値であり、
    前記符号化モジュールは、更に、前記第4出力情報と前記第4入力情報の予想されるチェック結果との間の誤差が前記閾値未満になるまで、前記第1初期ニューラル・ネットワーク・ユニットを前記第1初期ニューロン・パラメータに基づいて訓練するように構成され、前記第4入力情報の前記予想されるチェック結果は、前記第1カーネル行列に基づいて前記GF(2)における前記第4入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記符号化モジュールは、更に、前記第1初期ニューラル・ネットワーク・ユニットが訓練されると、前記第3ニューラル・パラメータを取得するために前記第1初期ニューラル・パラメータを更新するように構成され、前記第4入力情報は訓練情報である、請求項17に記載の装置。
  19. 前記第1カーネル行列は
    Figure 2022511771000074


    であるか、又は前記第1カーネル行列は
    Figure 2022511771000075


    である、請求項17又は18に記載の装置。
  20. 前記第1カーネル行列が
    Figure 2022511771000076


    である場合に、前記第3入力情報の前記予想されるチェック結果は、
    Figure 2022511771000077


    であり、x0及びx1は前記第3出力情報であり、u0及びu1は前記第3入力情報であり、又は
    前記第1カーネル行列が
    Figure 2022511771000078


    である場合に、前記第3入力情報の前記予想されるチェック結果は、
    Figure 2022511771000079


    であり、x0,x1,及びx2は前記第3出力情報であり、u0,u1,及びu2は前記第3入力情報である、請求項17-19のうちの何れか1項に記載の装置。
  21. 前記初期符号化ニューラル・ネットワークは、前記第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成され、
    前記第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含み、前記第2ニューラル・ネットワーク・ユニットは、前記第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得され、前記第1初期ニューロン・パラメータは、前記第4ニューロン・パラメータを取得するために、前記第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新され、前記第4ニューラル・パラメータは前記第3ニューラル・パラメータと相違する、請求項18-20のうちの何れか1項に記載の装置。
  22. 前記初期符号化ニューラル・ネットワークは、前記第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成され、前記第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含み、
    前記第5ニューロン・パラメータは、前記第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、前記第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用され、前記第5出力情報と前記第5入力情報の予想されるチェック結果との間の誤差は閾値未満であり、前記第5入力情報の前記予想されるチェック結果は、第2カーネル行列に基づいて前記GF(2)における前記第5入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記第5入力情報は訓練情報である、請求項18-20のうちの何れか1項に記載の装置。
  23. 前記符号化モジュールは、更に、符号化ネットワーク・ダイアグラムを取得するように構成され、前記符号化ネットワーク・ダイアグラムは少なくとも1つの符号化バタフライ・ダイアグラムを含み、前記符号化バタフライ・ダイアグラムは、前記符号化バタフライ・ダイアグラムの入力情報と前記符号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用され、
    前記符号化モジュールは、更に、前記第1ニューラル・ネットワーク・ユニットを、前記少なくとも1つの符号化バタフライ・ダイアグラムと照合し、照合に成功した符号化バタフライ・ダイアグラムを、前記第1ニューラル・ネットワーク・ユニットで置換し、前記初期符号化ニューラル・ネットワークを取得するように構成されている、請求項17に記載の装置。
  24. 復号化装置であって、
    第1入力情報を取得するように構成された取得モジュールと、
    復号化ニューラル・ネットワークに基づいて前記第1入力情報を復号化し、第1出力情報を取得及び出力するように構成された復号化モジュールと
    を含み、前記復号化ニューラル・ネットワークは第1ニューロン・パラメータを含み、前記第1ニューロン・パラメータは、前記第1入力情報と前記第1出力情報との間のマッピング関係を示すために使用され、
    前記復号化ニューラル・ネットワークは、第1ニューラル・ネットワーク・ユニットから構成される初期復号化ニューラル・ネットワークが訓練された後に取得され、前記初期復号化ニューラル・ネットワークは、前記初期復号化ニューラル・ネットワークに入力される第2入力情報と、前記初期復号化ニューラル・ネットワークにより出力される第2出力情報との間のマッピング関係を示すために使用される第2ニューロン・パラメータを含み、前記初期復号化ニューラル・ネットワークが訓練された後に、前記第2ニューロン・パラメータは前記第1ニューロン・パラメータに更新され、
    前記第2ニューロン・パラメータは、前記第1ニューラル・ネットワーク・ユニットに含まれる第3ニューロン・パラメータから構成され、前記第3ニューロン・パラメータは、前記第1ニューラル・ネットワーク・ユニットに入力される第3入力情報と、前記第1ニューラル・ネットワーク・ユニットにより出力される第3出力情報との間のマッピング関係を示すために使用され、前記第3出力情報と前記第3入力情報の予想されるチェック結果との間の誤差は閾値未満であり、前記第3入力情報の前記予想されるチェック結果は、第1カーネル行列に基づいてGF(2)における前記第3入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記第1入力情報は復号化対象の情報であり、前記第2入力情報及び前記第3入力情報は訓練情報である、装置。
  25. 前記復号化モジュールは、更に、前記第1初期ニューラル・ネットワーク・ユニットを構築し、前記第1初期ニューロン・パラメータを設定するように構成され、前記第1初期ニューロン・パラメータは、前記第1初期ニューロンに入力される第4入力情報と前記第1初期ニューロンにより出力される第4出力情報との間のマッピング関係を示すために使用され、前記第1初期ニューロン・パラメータは、初期ウェイト値と初期バイアス・ベクトルとを含み、前記第1初期ニューラル・ネットワーク・ユニットは少なくとも1つの隠れ層を含み、各々の隠れ層はQ個のノードを含み、QはN以上の整数であり、Nは前記第3入力情報のコード長と前記第3出力情報のコード長とにおける最小値であり、
    前記復号化モジュールは、更に、前記第4出力情報と前記第4入力情報の予想されるチェック結果との間の誤差が前記閾値未満になるまで、前記第1初期ニューラル・ネットワーク・ユニットを前記第1初期ニューロン・パラメータに基づいて訓練するように構成され、前記第4入力情報の前記予想されるチェック結果は、前記第1カーネル行列に基づいて前記GF(2)における前記第4入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記復号化モジュールは、更に、前記第1初期ニューラル・ネットワーク・ユニットが訓練されると、前記第3ニューラル・パラメータを取得するために前記第1初期ニューラル・パラメータを更新するように構成され、前記第4入力情報は訓練情報である、請求項24に記載の装置。
  26. 前記第1カーネル行列は
    Figure 2022511771000080


    であるか、又は前記第1カーネル行列は
    Figure 2022511771000081


    である、請求項24又は25に記載の装置。
  27. 前記第1カーネル行列が
    Figure 2022511771000082


    である場合に、前記第3入力情報の前記予想されるチェック結果は、
    Figure 2022511771000083


    であり、x0及びx1は前記第3出力情報であり、y0及びy1は前記第3入力情報であり、又は
    前記第1カーネル行列が
    Figure 2022511771000084


    である場合に、前記第3入力情報の前記予想されるチェック結果は、
    Figure 2022511771000085


    であり、x0,x1,及びx2は前記第3出力情報であり、y0,y1,及びy2は前記第3入力情報である、請求項24-26のうちの何れか1項に記載の装置。
  28. 前記初期復号化ニューラル・ネットワークは、前記第1ニューラル・ネットワーク・ユニット及び第2ニューラル・ネットワーク・ユニットから構成され、
    前記第2ニューラル・ネットワーク・ユニットは第4ニューロン・パラメータを含み、前記第2ニューラル・ネットワーク・ユニットは、前記第1初期ニューラル・ネットワーク・ユニットが訓練された後に取得され、前記第1初期ニューロン・パラメータは、前記第4ニューロン・パラメータを取得するために、前記第1初期ニューラル・ネットワーク・ユニットが訓練された後に更新され、前記第4ニューラル・パラメータは前記第3ニューラル・パラメータと相違する、請求項25-27のうちの何れか1項に記載の装置。
  29. 前記初期復号化ニューラル・ネットワークは、前記第1ニューラル・ネットワーク・ユニット及び第3ニューラル・ネットワーク・ユニットから構成され、前記第3ニューラル・ネットワーク・ユニットは第5ニューロン・パラメータを含み、
    前記第5ニューロン・パラメータは、前記第3ニューラル・ネットワーク・ユニットに入力される第5入力情報と、前記第3ニューラル・ネットワーク・ユニットにより出力される第5出力情報との間のマッピング関係を示すために使用され、前記第5出力情報と前記第5入力情報の予想されるチェック結果との間の誤差は閾値未満であり、前記第5入力情報の前記予想されるチェック結果は、第2カーネル行列に基づいて前記GF(2)における前記第5入力情報に関して乗法演算及び加法演算が実行された後に取得され、
    前記第5入力情報は訓練情報である、請求項25-27のうちの何れか1項に記載の装置。
  30. 前記復号化モジュールは、更に、復号化ネットワーク・ダイアグラムを取得するように構成され、前記復号化ネットワーク・ダイアグラムは少なくとも1つの復号化バタフライ・ダイアグラムを含み、前記復号化バタフライ・ダイアグラムは、前記復号化バタフライ・ダイアグラムの入力情報と前記復号化バタフライ・ダイアグラムの出力情報との間のチェック関係を示すために使用され、
    前記復号化モジュールは、更に、前記第1ニューラル・ネットワーク・ユニットを、前記少なくとも1つの復号化バタフライ・ダイアグラムと照合し、照合に成功した復号化バタフライ・ダイアグラムを、前記第1ニューラル・ネットワーク・ユニットで置換し、前記初期復号化ニューラル・ネットワークを取得するように構成される、請求項24に記載の装置。
  31. 符号化システム/復号化システムであって、
    前記システムは、符号化ニューラル・ネットワーク/復号化ニューラル・ネットワークに基づいて第1入力情報を符号化及び/又は復号化するために使用され、
    前記システムは、請求項17-23のうちの何れか1項に記載の前記符号化ニューラル・ネットワーク及び請求項24-30のうちの何れか1項に記載の前記復号化ニューラル・ネットワークのために使用される、符号化システム/復号化システム。
  32. 前記符号化ニューラル・ネットワークにおけるニューロン・パラメータは、前記復号化ニューラル・ネットワークにおけるニューロン・パラメータと相違するか、又は
    前記符号化ニューラル・ネットワークにおけるニューロン・パラメータは、前記復号化ニューラル・ネットワークにおけるニューロン・パラメータと同一である、請求項31に記載のシステム。
  33. コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ読み取り可能な記憶媒体はコンピュータ・プログラムを記憶し、前記コンピュータ・プログラムはコードの少なくとも1つのセグメントを含み、前記コードの少なくとも1つのセグメントは、前記装置により実行されて、請求項1-16のうちの何れか1項に記載の方法を実行するように前記装置を制御することが可能である、コンピュータ読み取り可能な記憶媒体。
  34. コンピュータ・プログラムであって、前記コンピュータ・プログラムが装置により実行されると、前記コンピュータ・プログラムは、請求項1-16のうちの何れか1項に記載の方法を実行するために使用される、コンピュータ・プログラム。
  35. 命令を記憶するように構成されたメモリと、
    前記メモリに通信可能に接続された少なくとも1つのプロセッサであって、前記少なくとも1つのプロセッサは、前記命令を動作させると、請求項1-16のうちの何れか1項に記載の方法を実行するように構成されている、プロセッサと
    を含む装置。
  36. 処理回路とトランシーバ・ピンとを含むチップであって、前記トランシーバ・ピンと前記処理回路とは内部接続パスを介して互いに通信し、前記処理回路は、請求項1-16のうちの何れか1項に記載の方法を実行すると、信号を送信及び/又は受信するように前記トランシーバ・ピンを制御するように構成されている、チップ。
JP2021529778A 2018-11-27 2019-11-26 符号化方法及び装置並びに復号化方法及び装置 Active JP7228042B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811428115.5 2018-11-27
CN201811428115.5A CN111224677B (zh) 2018-11-27 2018-11-27 编码方法、译码方法及装置
PCT/CN2019/120898 WO2020108472A1 (zh) 2018-11-27 2019-11-26 编码方法、译码方法及装置

Publications (2)

Publication Number Publication Date
JP2022511771A true JP2022511771A (ja) 2022-02-01
JP7228042B2 JP7228042B2 (ja) 2023-02-22

Family

ID=70827430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021529778A Active JP7228042B2 (ja) 2018-11-27 2019-11-26 符号化方法及び装置並びに復号化方法及び装置

Country Status (5)

Country Link
US (1) US20210279584A1 (ja)
EP (1) EP3879709A4 (ja)
JP (1) JP7228042B2 (ja)
CN (1) CN111224677B (ja)
WO (1) WO2020108472A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468328B2 (en) * 2020-02-24 2022-10-11 Qualcomm Incorporated Managing information transmission for wireless communication
US11159170B1 (en) * 2020-10-22 2021-10-26 Texas Instruments Incorporated Differential converter with offset cancelation
WO2022244904A1 (ko) * 2021-05-21 2022-11-24 엘지전자 주식회사 오토 인코더를 이용하는 무선 통신 시스템에서 신호를 송수신하기 위한 방법 및 이를 위한 장치
CN113438049A (zh) * 2021-05-31 2021-09-24 杭州电子科技大学 一种基于dnn模型分析的汉明码译码方法及系统
CN115603859A (zh) * 2021-07-09 2023-01-13 华为技术有限公司(Cn) 模型训练方法及相关装置
WO2024031502A1 (en) * 2022-08-11 2024-02-15 Qualcomm Incorporated Determining quantization information

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108777584A (zh) * 2018-07-06 2018-11-09 中国石油大学(华东) 一种极化码译码参数的快速优化方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2040903C (en) * 1991-04-22 2003-10-07 John G. Sutherland Neural networks
US5502713A (en) * 1993-12-07 1996-03-26 Telefonaktiebolaget Lm Ericsson Soft error concealment in a TDMA radio system
JP3174212B2 (ja) * 1994-02-18 2001-06-11 株式会社日立製作所 ビタビ復号方式およびビタビ復号器ならびにデータ記録再生装置
US20100161530A1 (en) * 2002-12-18 2010-06-24 Battelle Memorial Institute Method for enhanced accuracy in predicting peptides elution time using liquid separations or chromatography
CN101997492A (zh) * 2010-09-29 2011-03-30 东南大学 基于简化模糊神经网络的增强维纳模型的功放预失真方法
US20170031056A1 (en) * 2014-04-10 2017-02-02 Board Of Regents, The University Of Texas System Solar Energy Forecasting
CN105720992B (zh) * 2016-01-22 2019-07-23 哈尔滨工业大学深圳研究生院 一种极化码的简化译码方法
US10529115B2 (en) * 2017-03-20 2020-01-07 Google Llc Generating cartoon images from photos
CN107017892B (zh) * 2017-04-06 2019-06-11 华中科技大学 一种校验级联极化码编码方法及系统
CN108809506B (zh) * 2017-05-05 2020-09-04 华为技术有限公司 一种编码方法及装置
CN107516110B (zh) * 2017-08-22 2020-02-18 华南理工大学 一种基于集成卷积编码的医疗问答语义聚类方法
CN108120451A (zh) * 2017-12-21 2018-06-05 苏州大学 基于改进pso优化神经网络的硅微加速度计温度补偿方法、系统
CN108833313A (zh) * 2018-07-12 2018-11-16 北京邮电大学 一种基于卷积神经网络的无线信道估计方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108777584A (zh) * 2018-07-06 2018-11-09 中国石油大学(华东) 一种极化码译码参数的快速优化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
H. MUHLENBEIN: "Limitations of multi-layer perceptron networks - steps towards genetic neural networks", PARALLEL COMPUTING 14, vol. 14, no. 3, JPN7022003139, August 1990 (1990-08-01), pages 249 - 260, ISSN: 0004820131 *
SEBASTIAN CAMMERER, TOBIAS GRUBER, JAKOB HOYDIS, STEPHAN TEN BRINK: "Scaling Deep Learning-based Decoding of Polar Codes via Partitioning", GLOBECOM 2017, JPN6022027650, 15 January 2018 (2018-01-15), ISSN: 0004820132 *

Also Published As

Publication number Publication date
CN111224677B (zh) 2021-10-15
EP3879709A1 (en) 2021-09-15
EP3879709A4 (en) 2021-12-22
CN111224677A (zh) 2020-06-02
US20210279584A1 (en) 2021-09-09
WO2020108472A1 (zh) 2020-06-04
JP7228042B2 (ja) 2023-02-22

Similar Documents

Publication Publication Date Title
JP2022511771A (ja) 符号化方法及び装置並びに復号化方法及び装置
JP6881859B2 (ja) Polar符号を用いてデータを符号化する方法及び装置
KR102569349B1 (ko) 극성 코드 인코딩 방법 및 디바이스
JP6798004B2 (ja) Ldpc符号の符号化および復号化のための方法およびシステム
WO2018171516A1 (en) Method and apparatus for error-correction encoding using a polar code
US11133828B2 (en) Coding method and apparatus
US10862626B2 (en) Multi-label offset lifting method
US10454535B2 (en) Apparatus and method for receiving signal in wireless communication system
KR20190123801A (ko) 폴라 코드의 부호율 조정 방법 및 장치
JP6847321B2 (ja) 低複雑度組織符号化器を用いた送信データの誤り訂正方法及びシステム
KR20230079159A (ko) 외부 블록 코드 및 내부 편극 조정 컨볼루션 코드가 있는 직렬 연접 코드
WO2018127069A1 (zh) 一种编码方法及装置
CN111490798B (zh) 译码的方法和译码装置
EP4066418A1 (en) Design of fixed length coding scheme for probabilistic shaping applied to new radio physical layer
US11005596B2 (en) Apparatus and method for determining polar code in wireless communication system
US11936400B2 (en) Method and apparatus for encoding and decoding polar code
US11070404B2 (en) Method and apparatus for detecting signal in wireless communication system
WO2024033765A1 (en) Methods and apparatus for decoding of polar codes
KR20230160736A (ko) 극 부호의 송수신을 위한 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230210

R150 Certificate of patent or registration of utility model

Ref document number: 7228042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150