JP6877662B2 - 人工ニューラルネットワーク学習装置、歪み補償回路及び信号処理装置 - Google Patents

人工ニューラルネットワーク学習装置、歪み補償回路及び信号処理装置 Download PDF

Info

Publication number
JP6877662B2
JP6877662B2 JP2020569314A JP2020569314A JP6877662B2 JP 6877662 B2 JP6877662 B2 JP 6877662B2 JP 2020569314 A JP2020569314 A JP 2020569314A JP 2020569314 A JP2020569314 A JP 2020569314A JP 6877662 B2 JP6877662 B2 JP 6877662B2
Authority
JP
Japan
Prior art keywords
signal
signals
neural network
artificial neural
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020569314A
Other languages
English (en)
Other versions
JPWO2020157961A1 (ja
Inventor
安藤 暢彦
暢彦 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020157961A1 publication Critical patent/JPWO2020157961A1/ja
Application granted granted Critical
Publication of JP6877662B2 publication Critical patent/JP6877662B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/005Control of transmission; Equalising

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Amplifiers (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)

Description

本発明は、人工ニューラルネットワーク構造に学習させる技術、並びに、人工ニューラルネットワーク構造を用いて高周波回路などの信号処理回路で発生する信号歪みを補償する技術に関するものである。
近年、脳の神経回路網(Neural Networks)を模した人工ニューラルネットワーク(Artificial Neural Networks)は、画像認識、音声認識、自然言語処理及び機械翻訳などの様々な技術分野において用いられている。無線通信分野においては、無線通信装置などの通信モジュールは、電力増幅器及びフィルタなどの回路素子を含む高周波回路を備えており、高周波回路の周波数特性や非線形な入出力特性などに起因して当該高周波回路の出力信号に歪み(信号歪み)が発生することがある。このような信号歪みによる信号品質の劣化を抑制するために、高周波回路で発生した信号歪みを打ち消す(補償する)歪み補償技術が一般に使用されている。近年、人工ニューラルネットワークを用いた歪み補償技術が多数提案されている。以下、人工ニューラルネットワークを単に「ANN」と呼ぶこととする。
たとえば、下記の非特許文献1には、RVTDNN(Real−Valued Time−Delay Neural Networks)と呼ばれる多階層型ANN構造を用いて電力増幅器の非線形特性を補償するプリディストーション(Pre−Distortion)方式の歪み補償技術が開示されている。プリディストーション方式とは、高周波回路に入力されるべき信号にあらかじめ逆特性の歪みを与えることで、当該高周波回路で発生する信号歪みを打ち消すという歪み補償技術である。
非特許文献1に開示されている歪み補償技術は、複数個のノードからなる入力層(input layer)と、複数個のノードからなる隠れ層(hidden layer)と、2個のノードからなる出力層(output layer)とで構成されたANN構造に基づいて動作するプリディストーション部(predistorter)を使用するものである。入力層の複数個のノードにそれぞれ入力された信号成分は、入力層から隠れ層のノードに伝播し、その後、隠れ層から出力層のノードに伝播する。このANN構造の特性を定める重み係数(weights)は、逆伝播アルゴリズム(Back Propagation Learning Algorithm,BPLA)と呼ばれる機械学習アルゴリズムにより算出される。
Slim Boumaiza, and Farouk Mkadem, "Wideband RF power amplifier predistortion using real-valued time-delay neural networks", European Microwave Conference (EuMC), 2009.(たとえば、第1450頁の第II章及び図1参照)
従来の逆伝播学習アルゴリズムでは、ANN構造から出力された時系列データに基づいてANN構造の重み係数が更新されるので、ANN構造の学習効率(learning rate)が低いという課題がある。具体的には、或る離散時間t(nは整数)におけるANN構造の出力信号をO(n)で表すとすれば、従来の逆伝播学習アルゴリズムでは、出力信号O(n),O(n−1),・・・,O(n−Nb+1)からなる時系列データに基づいて、ANN構造の重み係数の更新が実行される(Nbは正整数)。一般に時間的に近い出力信号O(i),O(j)(i≠j)同士の相関性は高いことが多いので、従来の逆伝播学習アルゴリズムの実行時に時系列データが使用されれば、相関性の高い出力信号群を用いて重み係数の更新が行われることとなる。これにより、ANN構造の重み係数の収束性が低下したり、あるいは、ANN構造の重み係数が本来収束すべき解からずれた値へ収束したりするという課題がある。
上記に鑑みて本発明の目的は、ANN構造の学習効率を向上させることができる人工ニューラルネットワーク学習装置、歪み補償回路及び信号処理装置を提供することである。
本発明の一態様による人工ニューラルネットワーク学習装置は、時間的に連続する複数のトレーニング信号を信号処理回路に供給して当該信号処理回路から複数の応答信号を出力させる信号供給部と、前記複数の応答信号を記憶する信号メモリと、前記信号メモリに記憶された当該複数の応答信号の中からランダムまたは擬似ランダムに選択された複数の選択信号を読み出し、当該複数の選択信号を人工ニューラルネットワーク構造に供給して当該人工ニューラルネットワーク構造から複数の後歪み信号を出力させるメモリ制御部と、当該複数の後歪み信号と当該複数の選択信号に対応する複数の教師信号との間の差分を示す複数の誤差信号を算出し、当該複数の誤差信号を用いて逆伝播学習アルゴリズムに基づく適応処理を実行することにより、前記人工ニューラルネットワーク構造の入出力特性を定めるパラメータ群を更新する学習制御部とを備えることを特徴とする。
本発明の一態様によれば、ランダムまたは擬似ランダムに選択された複数の選択信号と複数の教師信号との間の差分を示す複数の誤差信号を用いて逆伝播学習アルゴリズムに基づく適応処理が実行されるので、ANN構造の学習効率の向上が可能となる。
本発明に係る実施の形態1の人工ニューラルネットワーク(ANN)学習システムの概略構成を示すブロック図である。 処理時間,トレーニング信号及び応答信号の間の対応関係を表す図である。 処理時間,応答信号,選択信号,トレーニング信号及び教師信号(参照信号)の間の対応関係の一例を表す図である。 ANN構造の具体例を示すニューラルネットワークモデルの概略図である。 順伝播処理の一例を説明するための図である。 ANN構造の他の具体例を示すニューラルネットワークモデルの概略図である。 実施の形態1に係る学習処理の手順の例を概略的に示すフローチャートである。 歪み補償回路として使用される学習済みのANN構造を有する信号処理装置の概略構成を示すブロック図である。 ANN学習装置のハードウェア構成例であるデータ処理装置の概略構成を示すブロック図である。 本発明に係る実施の形態2の信号処理装置の概略構成を示すブロック図である。 処理時間,前歪み信号及び応答信号の間の対応関係を表す図である。 処理時間,応答信号,選択信号,前歪み信号及び参照信号の間の対応関係の一例を表す図である。 実施の形態2に係る学習処理の手順の例を概略的に示すフローチャートである。
以下、添付図面を参照しつつ、本発明に係る種々の実施の形態について詳細に説明する。なお、図面全体において同一符号を付された構成要素は、同一構成及び同一機能を有するものとする。
実施の形態1.
図1は、本発明に係る実施の形態1の人工ニューラルネットワーク(ANN)学習システム1の概略構成を示すブロック図である。図1に示される人工ニューラルネットワーク学習システム1は、入力信号に対してディジタル信号処理及びアナログ信号処理を実行する信号処理回路11と、人工ニューラルネットワーク(ANN)構造41を含む人工ニューラルネットワーク(ANN)学習装置31とを備えて構成されている。ANN学習装置31は、信号処理回路11で信号歪みを生じさせる歪み特性に対応する逆特性をANN構造41に学習させる機能を有する。なお、本実施の形態のANN構造41は、ANN学習装置31の内部に組み込まれているが、この代わりに、ANN学習装置31の外にANN構造41が配置されてもよい。
信号処理回路11は、図1に示されるように、直交変調器(QM)21、D/A変換器(DAC)22、アップコンバータ(UPC)23、高周波回路24、方向性結合器25、ダウンコンバータ(DNC)26、A/D変換器(ADC)27及び直交復調器(QD)28を備えている。直交変調器21は、同相成分及び直交成分からなる複素ディジタル信号を入力とし、当該複素ディジタル信号にディジタル直交変調を施してディジタル変調信号を生成する。D/A変換器22は、直交変調器21から入力された当該ディジタル変調信号をアナログ信号に変換し、アップコンバータ23は、そのアナログ信号を高周波帯(たとえば、マイクロ波帯)の信号に変換する。高周波回路24は、アップコンバータ23の出力信号にアナログ信号処理を施して高周波出力信号TSを生成する。高周波回路24としては、たとえば、高出力電力増幅器(High Power Amplifier,HPA)が挙げられるが、これに限定されるものではない。
高周波出力信号TSの一部は、方向性結合器25によってフィードバックさせられる。ダウンコンバータ26は、方向性結合器25からフィードバックされた高周波信号をより低い周波数帯のアナログ信号に変換し、A/D変換器27は、そのアナログ信号をディジタル信号に変換する。直交復調器28は、そのディジタル信号にディジタル直交復調を施すことで、同相成分及び直交成分からなる複素ディジタル信号を生成する。生成された複素ディジタル信号は、応答信号として、ANN学習装置31に転送される。
なお、信号処理回路11の構成は、図1に示した構成に限定されるものではない。図1の例では、ディジタル直交変調を実行する直交変調器21とディジタル直交復調を実行する直交復調器28とが使用されている。直交変調器21及び直交復調器28を使用せずに、アナログ直交変調回路及びアナログ直交復調回路が使用される実施の形態もありうる。
ANN学習装置31は、ANN構造41の学習に使用するために、時間的に連続する複数のトレーニング信号(離散信号)があらかじめ記憶された記憶領域55aを有する信号メモリ55と、信号メモリ55の信号読み出し動作及び信号書き込み動作を制御するメモリ制御部51と、信号メモリ55から読み出されたトレーニング信号T(k)を信号処理回路11に供給する信号供給部40とを有している。ここで、トレーニング信号T(k)の変数kは、離散時間を表す整数値であり、トレーニング信号T(k)は、同相成分及び直交成分からなる複素ディジタル信号である。信号メモリ55としては、たとえば、フラッシュメモリなどの不揮発性メモリと、SDRAM(Synchronous Dynamic Random Access Memory)などの揮発性メモリとが使用されればよい。
信号処理回路11とANN学習装置31との間には、ANN学習装置31の信号供給部40から信号処理回路11の直交変調器21へトレーニング信号T(k)を転送するための配線またはケーブルなどの伝送線路(図示せず)が設けられている。
信号処理回路11は、ANN学習装置31の信号供給部40から転送された一連のトレーニング信号T(0),T(1),T(2),…にディジタル信号処理及びアナログ信号処理を施してフィードバック信号すなわち応答信号Y(0),Y(1),Y(2),…を生成し、当該応答信号Y(0),Y(1),Y(2),…をANN学習装置31に転送する。ANN学習装置31と信号処理回路11との間には、信号処理回路11の直交復調器28からANN学習装置31へ応答信号Y(k)を転送するための配線またはケーブルなどの伝送線路(図示せず)が設けられている。
ANN学習装置31は、信号処理回路11から転送された応答信号Y(k)を受信する信号受信部60を有する。信号メモリ55は、信号受信部60で受信された当該応答信号Y(k)を記憶する記憶領域55bを有している。後述するように、メモリ制御部51は、記憶領域55bに記憶された応答信号Y(0),Y(1),…の中からランダムまたは擬似ランダムに選択された選択信号y(c)を読み出し、当該選択信号y(c)をANN構造41に供給することができる(c=0,1,…)。ANN構造41は、記憶領域55bから入力された選択信号y(c)に対して順伝播処理を実行し、その結果得られた複素ディジタル信号を後歪み信号s(c)として出力する。ANN構造41の具体例及び順伝播処理の内容については、後述する。
図2は、処理時間t,トレーニング信号T(k)及び応答信号Y(k)の間の対応関係を表す図である。ここで、処理時間tは、t=T+k×ΔT、との式で表される。Tは、基準時間、ΔTは、処理時間間隔である。図2の例では、kは、0〜K−1の範囲内の整数であり、Kは、信号メモリ55の記憶領域55bに記憶されている応答信号Y(0)〜Y(K−1)の数である。図2の対応表に示されるように、処理時間t=T+k×ΔTでは、トレーニング信号T(k)に対応する応答信号Y(k)が得られる。
図1を参照すると、ANN学習装置31は、さらに学習制御部61を有している。学習制御部61は、逆伝播学習アルゴリズムに基づく適応処理を実行することによりANN構造41の入出力特性(周波数特性を含む。)を定めるパラメータ群を更新する機能を有する。学習制御部61は、図1に示されるように、減算器63、適応処理部64及びパラメータ設定部65を含んで構成されている。
適応処理が実行される際には、メモリ制御部51は、信号メモリ55の記憶領域55bに記憶された一群の応答信号Y(0)〜Y(K−1)の中から、C個の選択信号y(0)〜y(C−1)をランダムまたは擬似ランダムに選択し、当該選択信号y(0)〜y(C−1)を信号メモリ55からANN構造41に供給する。ここで、Cは、応答信号Y(0)〜Y(K−1)の総数Kよりも小さい正整数であり、下付き添え字nは、適応処理の反復回数を示す正整数である。ANN構造41は、信号メモリ55から入力された選択信号y(c)に対して順伝播処理を実行し、その結果得られた複素ディジタル信号を後歪み信号s(c)として出力する。また、メモリ制御部51は、信号メモリ55の記憶領域55aに記憶された一群のトレーニング信号T(0)〜T(K−1)の中から、当該選択信号y(0)〜y(C−1)にそれぞれ対応するC個のトレーニング信号を選択し、当該選択されたC個のトレーニング信号を教師信号(参照信号)z(0)〜z(C−1)として信号メモリ55から学習制御部61に出力させる。
図3は、処理時間τ,応答信号Y(κ),選択信号y(c),トレーニング信号T(κ),及び教師信号(参照信号)z(c)の間の対応関係の一例を示す図である。ここで、処理時間τは、τ=T+κ×ΔT、との式で表され、κは、ランダムまたは擬似ランダムな整数(乱数)である。選択信号y(c)は、ランダムまたは擬似ランダムに選択された応答信号Y(κ)と一致し(y(c)=Y(κ))、教師信号z(c)は、応答信号Y(κ)に対応するトレーニング信号T(κ)と一致する(z(c)=T(κ))。
メモリ制御部51は、物理乱数列または擬似乱数列を用いて読み出しアドレスを連続的に生成し、当該読み出しアドレスを信号メモリ55に供給することで、選択信号y(c)と教師信号z(c)との対をランダムまたは擬似ランダムに選択することができる。物理乱数列を使用する場合、たとえば、メモリ制御部51は、物理乱数列のデータが記憶された不揮発性メモリから、そのデータを読み出して使用すればよい。一方、疑似乱数列を使用する場合には、メモリ制御部51は、公知の疑似乱数生成アルゴリズムにより疑似乱数列を計算するための演算回路または関数を内部に有していればよい。そのような演算回路は、たとえば、公知の線形フィードバックシフトレジスタを利用した乱数発生回路により実現可能であるが、これに限定されるものではない。
あるいは、メモリ制御部51は、信号メモリ55の記憶領域55bに一旦格納された応答信号Y(0)〜Y(K−1)の配列を、物理乱数列または擬似乱数列を用いてランダムまたは擬似ランダムな順番に並べ替えてもよい。これにより、メモリ制御部51は、信号メモリ55からアドレス順にC個の応答信号を読み出すことで選択信号y(0)〜y(C−1)を得ることができる。
学習制御部61は、ランダムまたは擬似ランダムに選択された選択信号y(0)〜y(C−1)と教師信号z(0)〜z(C−1)とを用いて、逆伝播学習アルゴリズムに基づく適応処理を実行することによりANN構造41のパラメータ群を更新することができる。これにより、学習制御部61は、相関性の高い離散信号からなる時系列データを用いた適応処理の実行を回避することができるので、ANN構造41のパラメータ群の収束性を向上させることができる。したがって、ANN構造41の学習効率の向上が可能となる。
次に、逆伝播学習アルゴリズムについて説明する前に、ANN構造41の具体例及び順伝播処理について説明する。図4は、ANN構造41の具体例を示すニューラルネットワークモデル(NNモデル)41Aを示す概略図である。
図4に示されるNNモデル41Aは、P個の層L〜Lからなる多階層型のニューラルネットワークモデルである。ここで、Pは、階層数を示す4以上の整数である。NNモデル41Aは、入力された選択信号y(c)の同相成分y (c)及び直交成分y (c)が入力される入力層Lと、中間層(隠れ層)L〜LP−1と、後歪み信号s(c)の同相成分s (c)及び直交成分s (c)を出力する出力層Lとを有している。図4の例では、中間層は2層以上であるが、この代わりに1層であってもよい。
NNモデル41AにおけるP個の層L〜Lのうち第p番目の層Lは、脳の神経回路網のニューロンを模したノードNp,1〜Np,μ(p)を有するものとする。ここで、下付き添え字pは、層番号、下付き添え字μ(p)は、第p番目の層Lにおけるノードの個数を示す正整数である。NNモデル41Aにおいて、隣接する2層のうちの一方の層のノードと他方の層のノードとは互いに結合されており、ノード間の結合強度として重み係数(結合荷重)が割り当てられる。また、各ノードごとに、バイアスと呼ばれる値が割り当てられている。NNモデル41Aの入出力特性を定めるパラメータ群は、重み係数及びバイアスを含むものである。
図4に示されるように、入力層Lは、選択信号y(c)の同相成分y (c)及び直交成分y (c)がそれぞれ入力される2個のノードN1,1,N1,μ(1)を有しており(μ(1)=2)、出力層Lは、後歪み信号s(c)の同相成分s (c)及び直交成分s (c)をそれぞれ出力する2個のノードNP,1,NP,μ(P)を有している(μ(P)=2)。
図5は、順伝播処理の一例を説明するための図である。図5に示されるように、第p−1番目の層Lp−1におけるノードNp−1,1〜Np−1,μ(p−1)と、第p番目の層Lにおける第r番目のノードNp,rとの間が結合されている。ここで、rは、1〜μ(p)の範囲内の整数である。図5に示されるように、ノードNp−1,1〜Np−1,μ(p−1)とノードNp,rとの間の結合強度として、重み係数wr,1 (p,p−1)〜wr,μ(p−1) (p,p−1)が割り当てられている。また、ノードNp,rには、バイアスb (p)が割り当てられる。
このとき、ノードNp,rは、第p−1番目の層Lp−1におけるノードNp−1,1〜Np−1,μ(p−1)から順方向に伝播された信号o (p−1)〜oμ(p−1) (p−1)に対してそれぞれ重み係数wr,1 (p,p−1)〜wr,μ(p−1) (p,p−1)を乗算し、その乗算結果とバイアスb (p)とを加算する。さらに、ノードNp,rは、その加算結果に活性化関数f[]を作用させる。結果として、ノードNp,rは、図5に示される数式で表現される信号o (p)を、第p+1番目の層Lp+1におけるすべてのノードNp+1,1〜Np+1,μ(p+1)に向けて順方向に伝播させる。活性化関数f[]としては、たとえば、シグモイド関数(sigmoid function)または双曲線正接関数(hyperbolic tangent function)などの公知の活性化関数(activation function)が使用されればよい。なお、図5に示された数式の変数iは、1〜μ(p−1)の範囲内の整数である。
図4に示した出力層LにおけるノードNP,1,NP,μ(P)(μ(P)=2)は、信号o (P),o (P)をそれぞれ同相成分s (c)及び直交成分s (c)として出力する。
図6は、ANN構造41の他の具体例を示すニューラルネットワークモデル(NNモデル)41Bを示す概略図である。図6に示されるNNモデル41Bは、直列に接続された遅延素子D〜Dと、P個の層L〜Lとからなる多階層型のニューラルネットワークモデルである。ここで、Mは、遅延素子D〜Dの個数を表す正整数である。
NNモデル41Bにおける一群の遅延素子D〜Dは、当該NNモデル41Bに入力された選択信号y(c)に対してM個の遅延信号y(c−1)〜y(c−M)を生成する。NNモデル41Bの層構造は、信号y(c−1)〜y(c−M)の同相成分y (c)〜y (c−M)及び直交成分y (c)〜y (c−M)が入力される入力層Lと、中間層(隠れ層)L〜LP−1と、後歪み信号s(c)の同相成分s (c)及び直交成分s (c)を出力する出力層Lとを有している。図6の例では、中間層は2層以上であるが、この代わりに1層であってもよい。
図4に示したNNモデル41Aの場合と同様に、NNモデル41BにおけるP個の層L〜Lのうち第p番目の層Lは、脳の神経回路網のニューロンを模したノードNp,1〜Np,μ(p)を有している。また、NNモデル41Bにおいて、隣接する2層のうちの一方の層のノードと他方の層のノードとの間の結合強度として重み係数(結合荷重)が割り当てられる。また、各ノードごとに、バイアスと呼ばれる値が割り当てられている。NNモデル41Bの入出力特性を定めるパラメータ群は、重み係数及びバイアスを含むものである。
次に、図7を参照しつつ、実施の形態1のANN学習装置31の動作について以下に説明する。図7は、ANN学習装置31により実行される学習処理の手順の例を概略的に示すフローチャートである。ANN構造41が初めて学習しようとする際には、ANN構造41のパラメータ群は、乱数値に初期化される。
先ず、トレーニング信号群に対応する応答信号群を得るための処理が実行される(ステップST11〜ST13)。このとき、学習制御部61は動作しない。図7を参照すると、メモリ制御部51は、信号メモリ55の記憶領域55aからトレーニング信号T(k)を読み出し、信号供給部40は、当該読み出されたトレーニング信号を信号処理回路11に供給する(ステップST11)。このとき、信号処理回路11は、ANN学習装置31から入力されたトレーニング信号T(k)にディジタル信号処理及びアナログ信号処理を施して応答信号Y(k)を生成し、当該応答信号Y(k)をANN学習装置31に転送する。ANN学習装置31の信号受信部60は、信号処理回路11から転送された応答信号Y(k)を受信する。
メモリ制御部51は、信号受信部60で受信された応答信号Y(k)を信号メモリ55の記憶領域55bに記憶させる(ステップST12)。
次いで、適応処理を開始するか否かが判定される(ステップST13)。たとえば、メモリ制御部51は、信号メモリ55の記憶領域55bに記憶された応答信号Y(k)の個数を計数し、当該個数が所定数に到達したときに、適応処理を開始すると判定することができる(ステップST13のYES)。適応処理を開始しないとの判定がなされたときは(ステップST13のNO)、ステップST11〜ST12が繰り返し実行される。これにより、一連のトレーニング信号T(0),T(1),T(2),…が信号処理回路11に供給され、一連のトレーニング信号T(0),T(1),T(2),…に対応する一連の応答信号Y(0),Y(1),Y(2),…が信号メモリ55の記憶領域55bに格納される。
適応処理を開始するとの判定がなされたとき(ステップST13のYES)、メモリ制御部51及び学習制御部61は、適応処理を開始する。初回の適応処理が実行される場合には、反復回数nの値は1に初期化される。
具体的には、メモリ制御部51は、信号メモリ55の記憶領域55bから、ランダムまたは擬似ランダムに選択された選択信号y(0)〜y(C−1)を読み出し、当該選択信号y(0)〜y(C−1)をANN構造41に供給する(ステップST14)。これにより、ANN構造41から後歪み信号s(0)〜s(C−1)が出力される。また、メモリ制御部51は、信号メモリ55の記憶領域55aから、選択信号y(0)〜y(C−1)に対応する教師信号z(0)〜z(C−1)を読み出し、当該教師信号z(0)〜z(C−1)を学習制御部61に供給する(ステップST15)。学習制御部61における減算器63は、当該後歪み信号s(0)〜s(C−1)と当該教師信号z(0)〜z(C−1)との間の差分を示す誤差信号e(0)〜e(C−1)を算出する(ステップST16)。なお、図7の例では、説明の便宜上、ステップST14,ST15,ST16がこの順番で実行されているが、これに限定されるものではない。ステップST14,ST15,ST16が互いに並列に実行されてもよい。
そして、適応処理部64は、誤差信号e(0)〜e(C−1)を用いて逆伝播学習アルゴリズムに基づく適応処理を実行することによりANN構造41の新たなパラメータ群を算出する(ステップST17)。次に、パラメータ設定部65は、ANN構造41のパラメータ群として当該新たなパラメータ群を設定することにより、ANN構造41のパラメータ群を更新する(ステップST18)。このときの逆伝播学習アルゴリズムとしては、たとえば、勾配降下法(Gradient Descent algorithm)、ガウスニュートン法(Gauss Newton algorithm)またはレーベンバーグ・マルカート法(Levenberg−Marquardt algorithm)などの公知のアルゴリズムが使用されればよく、特に制限されるものではない。
ステップST17において、適応処理部64は、たとえば、次式(1)に従い、現在の重み係数を要素とするn回目の重み係数群wに基づいて、新たな重み係数を要素とするn+1回目の重み係数群wn+1を算出することができる。
n+1=w−G[μ,e] (1)
ここで、現在の重み係数群w及び新たな重み係数群wn+1は、ベクトルまたは行列で表現可能であり、μは、学習係数であり、eは、誤差信号e(0)〜e(C−1)を要素とするベクトルであり、G[]は、逆伝播学習アルゴリズムによる更新量を決定する関数である。
その後、適応処理部64は、反復処理を終了するか否かを判定する(ステップST19)。反復処理を終了しないと判定されたとき(ステップST19のNO)、メモリ制御部51及び学習制御部61は、ステップST14〜ST18を繰り返し実行する。たとえば、反復回数nがあらかじめ定められた回数に到達した場合、あるいは、パラメータ群が十分に収束したことを示す収束条件が満たされる場合に、適応処理部64は、反復処理を終了すると判定すればよい(ステップST19のYES)。なお、収束条件としては、たとえば、誤差信号e(0)〜e(C−1)の大きさを表す誤差評価値が所定回数だけ連続して所定値以下となるという条件が挙げられる。たとえば、誤差評価値としては、誤差信号e(c)の絶対値または当該絶対値の2乗をc=0〜C−1について加算した値を使用すればよい。
反復処理を終了するとの判定がなされた場合(ステップST19のYES)、ANN構造41の学習を続行する場合には(ステップST20のNO)、学習制御部61は、ステップST11以後の学習処理を再度実行する。ANN構造41の学習を完了させる場合には(ステップST20のYES)、学習制御部61は、学習処理を終了する。
ANN構造41の学習が完了した場合、学習済みのANN構造41を歪み補償回路として用いることができる。図8は、歪み補償回路として使用されるANN構造41を有する信号処理装置2の概略構成を示すブロック図である。ANN構造41は、高周波回路24の周波数特性及び非線形な入出力特性により発生する信号歪みをあらかじめ補償することができ、また、直交変調器21で発生する直交度誤差(直交変調誤差)をも補償することができる。直交変調器21の出力信号の同相成分及び直交成分は、互いに直交するという状態にあることが理想であるが、温度条件などの要因により、その出力信号の同相成分及び直交成分の実際の状態と理想状態との間に誤差が生ずることがある。このような誤差が、直交度誤差である。
以上に説明したように実施の形態1のANN学習システム1では、ANN学習装置31は、ランダムまたは擬似ランダムに選択された選択信号y(0)〜y(C−1)と教師信号z(0)〜z(C−1)との間の差分を示す誤差信号e(0)〜e(C−1)を用いて逆伝播学習アルゴリズムに基づく適応処理を実行するので、ANN構造41のパラメータ群の収束性の低下を回避したり、あるいは、そのパラメータ群が本来収束すべき解からずれた値へ収束することを回避したりすることができる。これにより、ANN構造41の学習効率の向上が可能となる。
なお、上記したANN学習装置31の機能の全部または一部は、たとえば、DSP(Digital Signal Processor),ASIC(Application Specific Integrated Circuit)またはFPGA(Field−Programmable Gate Array)などの半導体集積回路を有する単数または複数のプロセッサにより実現可能である。あるいは、ANN学習装置31の機能の全部または一部は、ソフトウェアまたはファームウェアのプログラムコードを実行する、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含む単数または複数のプロセッサで実現されてもよい。あるいは、DSP,ASICまたはFPGAなどの半導体集積回路と、CPUまたはGPUなどの演算装置との組み合わせを含む単数または複数のプロセッサによってANN学習装置31の機能の全部または一部を実現することも可能である。
図9は、ANN学習装置31のハードウェア構成例であるデータ処理装置80の概略構成を示すブロック図である。図9に示されるデータ処理装置80は、プロセッサ81、入出力インタフェース84、メモリ82、記憶装置83及び信号路85を備えている。信号路85は、プロセッサ81、入出力インタフェース84、メモリ82及び記憶装置83を相互に接続するためのバスである。入出力インタフェース84は、プロセッサ81から転送された信号を信号処理回路11(図1)に出力することができ、また、信号処理回路11から入力された信号をプロセッサ81に転送する機能を有する。
メモリ82は、プロセッサ81がディジタル信号処理を実行する際に使用されるワークメモリと、当該ディジタル信号処理で使用されるデータが展開される一時記憶メモリとを含む。たとえば、メモリ82は、フラッシュメモリ及びSDRAMなどの半導体メモリで構成されればよい。メモリ82は、図1の信号メモリ55として利用可能である。また、記憶装置83は、プロセッサ81がCPUまたはGPUなどの演算装置を含む場合に当該演算装置で実行されるべきソフトウェアまたはファームウェアのプログラムコードを格納する記憶領域として利用可能である。たとえば、記憶装置83は、フラッシュメモリまたはROM(Read Only Memory)などの不揮発性の半導体メモリで構成されればよい。
なお、図9の例では、プロセッサ81の個数は1つであるが、これに限定されるものではない。互いに連携して動作する複数個のプロセッサを用いてANN学習装置31のハードウェア構成が実現されてもよい。
実施の形態2.
次に、本発明に係る実施の形態2について説明する。図10は、本発明に係る実施の形態2の信号処理装置3の概略構成を示すブロック図である。図10に示される信号処理装置3は、入力信号に対してディジタル信号処理及びアナログ信号処理を実行する信号処理回路11と、信号処理回路11で発生する信号歪みをあらかじめ補償する歪み補償回路13とを備えて構成されている。図10に示した信号処理回路11の構成は、図1に示した信号処理回路11の構成と同じであるので、その詳細な説明を省略する。
本実施の形態の歪み補償回路13は、いわゆる間接学習機構(Indirect Learning Architecture)を備えた歪み補償回路である。図3に示されるように歪み補償回路13は、第1ANN構造42及び第2ANN構造43という一組のANN構造を有している。歪み補償回路13は、第1ANN構造42の入出力特性(周波数特性を含む。)と第2ANN構造43の入出力特性(周波数特性を含む。)とが互いに一致するように、第1ANN構造42の入出力特性を定めるパラメータ群と第2ANN構造43の入出力特性を定めるパラメータ群とを更新することにより、信号処理回路11の歪み特性に対応する逆特性を第1ANN構造42に学習させることができる。本実施の形態の第1ANN構造42と第2ANN構造43とは、同一のニューラルネットワークモデルで構成されている。ニューラルネットワークモデルの具体例としては、図4または図5に示したNNモデル41Aまたは41Bが挙げられるが、これに限定されるものではない。
歪み補償回路13は、図10に示されるように、第1ANN構造42及び第2ANN構造43の他に、信号受信部60、信号メモリ55、メモリ制御部52及び学習制御部62を備えている。メモリ制御部52は、信号メモリ55の信号読み出し動作及び信号書き込み動作を制御することができる。
第1ANN構造42には、外部信号源(図示せず)から、同相成分及び直交成分からなる複素ディジタル信号である入力信号(離散信号)X(k)が供給される。ここで、その入力信号X(k)の変数kは、離散時間を表す整数値である。第1ANN構造42は、時間的に連続する複数の入力信号X(0),X(1),…に順伝播処理を施し、その結果得られた複素ディジタル信号を前歪み信号Z(0),Z(1),…として出力する。前歪み信号Z(0),Z(1),…は、信号処理回路11と信号メモリ55とに転送される。メモリ制御部52は、第1ANN構造42から転送された前歪み信号Z(k)を信号メモリ55の記憶領域55aに記憶させる。
信号処理回路11は、第1ANN構造42から転送された一連の前歪み信号Z(0),Z(1),Z(2),…にディジタル信号処理及びアナログ信号処理を施してフィードバック信号すなわち応答信号Y(0),Y(1),Y(2),…を生成し、当該応答信号Y(0),Y(1),Y(2),…を歪み補償回路13に転送する。なお、信号処理回路11と歪み補償回路13との間には、前歪み信号Z(k)及び応答信号Y(k)を転送するための配線またはケーブルなどの伝送線路(図示せず)が設けられている。
信号処理回路11から転送された応答信号Y(k)を信号受信部60が受信すると、メモリ制御部52は、当該応答信号Y(k)を信号メモリ55の記憶領域55bに記憶させる。後述するように、メモリ制御部52は、記憶領域55bに記憶された応答信号Y(0),Y(1),…の中からランダムまたは擬似ランダムに選択された選択信号y(c)を読み出し、当該選択信号y(c)を第2ANN構造43に供給することができる(c=0,1,…)。第2ANN構造43は、記憶領域55bから入力された選択信号y(c)に対して順伝播処理を実行し、その結果得られた複素ディジタル信号を後歪み信号s(c)として出力する。
図11は、処理時間t,前歪み信号Z(k)及び応答信号Y(k)の間の対応関係を表す図である。ここで、処理時間tは、t=T+k×ΔT、との式で表される。Tは、基準時間、ΔTは、処理時間間隔である。図11の例では、kは、0〜K−1の範囲内の整数であり、Kは、信号メモリ55の記憶領域55bに記憶されている応答信号Y(0)〜Y(K−1)の数である。図11の対応表に示されるように、前歪み信号Z(k)と応答信号Y(k)とは一対一で対応している。
図10に示される学習制御部62は、逆伝播学習アルゴリズムに基づく適応処理を実行することにより、第1ANN構造42のパラメータ群と第2ANN構造43のパラメータ群とを更新する機能を有する。学習制御部62は、減算器63、適応処理部64及びパラメータ設定部66を含んで構成されている。学習制御部62の構成は、図1のパラメータ設定部65に代えて図10のパラメータ設定部66を有する点を除いて、実施の形態1の学習制御部61の構成と同じである。
適応処理が実行される際には、メモリ制御部52は、信号メモリ55の記憶領域55bに記憶された一群の応答信号Y(0)〜Y(K−1)の中から、C個の応答信号をランダムまたは擬似ランダムに選択し、当該選択されたC個の応答信号を選択信号y(0)〜y(C−1)として信号メモリ55から第2ANN構造43に供給する。ここで、Cは、応答信号Y(0)〜Y(K−1)の総数Kよりも小さい正整数であり、下付き添え字nは、適応処理の反復回数を示す正整数である。第2ANN構造43は、信号メモリ55から入力された選択信号y(c)に対して順伝播処理を実行し、その結果得られた複素ディジタル信号を後歪み信号s(c)として出力する。また、メモリ制御部52は、信号メモリ55の記憶領域55aに記憶された一群の前歪み信号の中から、当該選択信号y(0)〜y(C−1)にそれぞれ対応するC個の前歪み信号を選択し、当該選択されたC個の前歪み信号を参照信号z(0)〜z(C−1)として信号メモリ55から学習制御部62に出力させる。
図12は、処理時間τ,応答信号Y(κ),選択信号y(c),前歪み信号Z(κ),及び参照信号z(c)の間の対応関係の一例を示す図である。ここで、処理時間τは、τ=T+κ×ΔT、との式で表され、κは、ランダムまたは擬似ランダムな整数(乱数)である。選択信号y(c)は、ランダムまたは擬似ランダムに選択された応答信号Y(κ)と一致し(y(c)=Y(κ))、参照信号z(c)は、応答信号Y(κ)に対応する前歪み信号Z(κ)と一致する(z(c)=Z(κ))。
メモリ制御部52は、実施の形態1のメモリ制御部51と同様に、物理乱数列または擬似乱数列を用いて読み出しアドレスを連続的に生成し、当該読み出しアドレスを信号メモリ55に供給することで、選択信号y(c)と参照信号z(c)との対をランダムまたは擬似ランダムに選択することができる。あるいは、メモリ制御部52は、信号メモリ55の記憶領域55bに一旦格納された応答信号Y(0)〜Y(K−1)の配列を、物理乱数列または擬似乱数列を用いてランダムまたは擬似ランダムな順番に並べ替えてもよい。これにより、メモリ制御部52は、信号メモリ55からアドレス順にC個の応答信号を読み出すことで選択信号y(0)〜y(C−1)を得ることができる。
学習制御部62は、ランダムまたは擬似ランダムに選択された選択信号y(0)〜s(C−1)と参照信号z(0)〜z(C−1)とを用いて、逆伝播学習アルゴリズムに基づく適応処理を実行することにより、第1ANN構造42のパラメータ群及び第2ANN構造43のパラメータ群を更新することができる。これにより、学習制御部62は、相関性の高い離散信号からなる時系列データを用いた適応処理の実行を回避することができるので、第1ANN構造42及び第2ANN構造43のパラメータ群の収束性を向上させることができる。したがって、第1ANN構造42及び第2ANN構造43の学習効率の向上が可能となる。
次に、図13を参照しつつ、実施の形態2の歪み補償回路13における学習処理の動作について以下に説明する。図13は、歪み補償回路13により実行される学習処理の手順の例を概略的に示すフローチャートである。第1ANN構造42及び第2ANN構造43が初めて学習しようとする際には、第1ANN構造42及び第2ANN構造43のパラメータ群は、乱数値に初期化される。
学習処理は、第1ANN構造42が入力信号X(k)に順伝播処理を施して前歪み信号Z(k)を生成するときに開始される(k=0,1,2,…)。当該前歪み信号Z(k)は、信号処理回路11と信号メモリ55とに転送される。歪み補償回路13のメモリ制御部52は、第1ANN構造42により生成された前歪み信号Z(k)を信号メモリ55の記憶領域55aに記憶させる(ステップST21)。信号処理回路11から出力された応答信号Y(k)を信号受信部60が受信すると、メモリ制御部52は、当該応答信号Y(k)を信号メモリ55の記憶領域55bに記憶させる(ステップST22)。
次いで、適応処理を開始するか否かが判定される(ステップST23)。たとえば、メモリ制御部52は、信号メモリ55の記憶領域55bに記憶された応答信号Y(k)の個数を計数し、当該個数が所定数に到達したときに、適応処理を開始すると判定することができる(ステップST23のYES)。適応処理を開始しないとの判定がなされたときは(ステップST23のNO)、ステップST21〜ST22が繰り返し実行される。これにより、一連の前歪み信号Z(0),Z(1),Z(2),…が信号メモリ55の記憶領域55aに格納され、一連の前歪み信号Z(0),Z(1),Z(2),…に対応する一連の応答信号Y(0),Y(1),Y(2),…が信号メモリ55の記憶領域55bに格納される。
適応処理を開始するとの判定がなされたとき(ステップST23のYES)、メモリ制御部52及び学習制御部62は、適応処理を開始する。初回の適応処理が実行される場合には、反復回数nの値は1に初期化される。
具体的には、メモリ制御部52は、信号メモリ55の記憶領域55bから、ランダムまたは擬似ランダムに選択された選択信号y(0)〜y(C−1)を読み出し、当該選択信号y(0)〜y(C−1)を第2ANN構造43に供給する(ステップST24)。これにより、第2ANN構造43から後歪み信号s(0)〜s(C−1)が出力される。また、メモリ制御部52は、信号メモリ55の記憶領域55aから、選択信号y(0)〜y(C−1)に対応する参照信号z(0)〜z(C−1)を読み出し、当該参照信号z(0)〜z(C−1)を学習制御部62に供給する(ステップST25)。学習制御部62における減算器63は、当該後歪み信号s(0)〜s(C−1)と当該参照信号z(0)〜z(C−1)との間の差分を示す誤差信号e(0)〜e(C−1)を算出する(ステップST26)。なお、図13の例では、説明の便宜上、ステップST24,ST25,ST26がこの順番で実行されているが、これに限定されるものではない。ステップST24,ST25,ST26が互いに並列に実行されてもよい。
そして、適応処理部64は、実施の形態1のステップST17の場合と同様に、誤差信号e(0)〜e(C−1)を用いて逆伝播学習アルゴリズムに基づく適応処理を実行することにより第2ANN構造43の新たなパラメータ群を算出する(ステップST27)。次に、パラメータ設定部66は、第1ANN構造42及び第2ANN構造43のパラメータ群として当該新たなパラメータ群を設定することにより、第1ANN構造42及び第2ANN構造43のパラメータ群を更新する(ステップST28)。
その後、適応処理部64は、反復処理を終了するか否かを判定する(ステップST29)。反復処理を終了しないと判定されたとき(ステップST29のNO)、メモリ制御部52及び学習制御部62は、ステップST24〜ST28を繰り返し実行する。たとえば、反復回数nがあらかじめ定められた回数に到達した場合、あるいは、パラメータ群が十分に収束したことを示す収束条件が満たされる場合に、適応処理部64は、反復処理を終了すると判定すればよい(ステップST29のYES)。なお、収束条件としては、たとえば、誤差信号e(0)〜e(C−1)の大きさを表す誤差評価値が所定回数だけ連続して所定値以下となるという条件が挙げられる。たとえば、誤差評価値としては、誤差信号e(c)の絶対値または当該絶対値の2乗をc=0〜C−1について加算した値を使用すればよい。
反復処理を終了するとの判定がなされた場合(ステップST29のYES)、第1ANN構造42及び第2ANN構造43の学習を続行する場合には(ステップST30のNO)、学習制御部62は、ステップST21以後の学習処理を再度実行する。第1ANN構造42及び第2ANN構造43の学習を完了させる場合には(ステップST30のYES)、学習制御部62は、学習処理を終了する。
以上に説明したように実施の形態2の信号処理装置3では、歪み補償回路13は、ランダムまたは擬似ランダムに選択された選択信号y(0)〜y(C−1)と参照信号z(0)〜z(C−1)との間の差分を示す誤差信号e(0)〜e(C−1)を用いて逆伝播学習アルゴリズムに基づく適応処理を実行するので、第1ANN構造42及び第2ANN構造43の学習効率の向上が可能となる。
なお、上記した歪み補償回路13の機能の全部または一部は、たとえば、DSP,ASICまたはFPGAなどの半導体集積回路を有する単数または複数のプロセッサにより実現可能である。あるいは、歪み補償回路13の機能の全部または一部は、ソフトウェアまたはファームウェアのプログラムコードを実行する、CPUまたはGPUなどの演算装置を含む単数または複数のプロセッサで実現されてもよい。あるいは、DSP,ASICまたはFPGAなどの半導体集積回路と、CPUまたはGPUなどの演算装置との組み合わせを含む単数または複数のプロセッサによって歪み補償回路13の機能の全部または一部を実現することも可能である。図9に示したデータ処理装置80によって歪み補償回路13のハードウェア構成が実現されてもよい。
以上、図面を参照して本発明に係る種々の実施の形態1,2について述べたが、実施の形態1,2は本発明の例示であり、実施の形態1,2以外の様々な実施の形態がありうる。本発明の範囲内において、上記実施の形態1,2の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
たとえば、ANN構造41,第1ANN構造42及び第2ANN構造43の具体例は、図4及び図6に示したNNモデル41A,41Bに限定されるものではない。たとえば、NNモデル41A,41Bに代えて、フィードバック結合を有する公知の再帰型ニューラルネットワークモデル(Recurrent Neural Network Model,RNN Model)が使用されてもよい。
本発明に係る人工ニューラルネットワーク(ANN)学習装置、歪み補償回路及び信号処理装置は、たとえば、移動体通信システム、ディジタル放送システム及び衛星通信システムといった無線通信システムにおける無線送信機または無線受信機の高周波回路(たとえば、電力増幅器)に用いることが可能である。
1 人工ニューラルネットワーク(ANN)学習システム、2,3 信号処理装置、11 信号処理回路、13 歪み補償回路、21 直交変調器(QM)、22 D/A変換器(DAC)、23 アップコンバータ(UPC)、24 高周波回路、25 方向性結合器、26 ダウンコンバータ(DNC)、27 A/D変換器(ADC)、28 直交復調器(QD)、31 人工ニューラルネットワーク(ANN)学習装置、40 信号供給部、41 人工ニューラルネットワーク(ANN)構造、41A,41B ニューラルネットワークモデル(NNモデル)、42 第1ANN構造、43 第2ANN構造、51,52 メモリ制御部、55 信号メモリ、55a,55b 記憶領域、60 信号受信部、61,62 学習制御部、63 減算器、64 適応処理部、65,66 パラメータ設定部、80 データ処理装置、81 プロセッサ、82 メモリ、83 記憶装置、84 入出力インタフェース、85 信号路。

Claims (12)

  1. 時間的に連続する複数のトレーニング信号を信号処理回路に供給して当該信号処理回路から複数の応答信号を出力させる信号供給部と、
    前記複数の応答信号を記憶する信号メモリと、
    前記信号メモリに記憶された当該複数の応答信号の中からランダムまたは擬似ランダムに選択された複数の選択信号を読み出し、当該複数の選択信号を人工ニューラルネットワーク構造に供給して当該人工ニューラルネットワーク構造から複数の後歪み信号を出力させるメモリ制御部と、
    当該複数の後歪み信号と当該複数の選択信号に対応する複数の教師信号との間の差分を示す複数の誤差信号を算出し、当該複数の誤差信号を用いて逆伝播学習アルゴリズムに基づく適応処理を実行することにより、前記人工ニューラルネットワーク構造の入出力特性を定めるパラメータ群を更新する学習制御部と
    を備えることを特徴とする人工ニューラルネットワーク学習装置。
  2. 請求項1に記載の人工ニューラルネットワーク学習装置であって、前記学習制御部は、前記複数のトレーニング信号の中から選択された複数の信号を前記複数の教師信号として使用することを特徴とする人工ニューラルネットワーク学習装置。
  3. 請求項1または請求項2に記載の人工ニューラルネットワーク学習装置であって、前記学習制御部は、前記逆伝播学習アルゴリズムに基づいて前記複数の誤差信号の大きさが小さくなるように前記パラメータ群を更新することを特徴とする人工ニューラルネットワーク学習装置。
  4. 請求項3に記載の人工ニューラルネットワーク学習装置であって、前記メモリ制御部及び前記学習制御部は、前記複数の選択信号を前記信号メモリから読み出す処理と、当該複数の選択信号を前記人工ニューラルネットワーク構造に供給する処理と、前記複数の誤差信号を算出する処理と、前記適応処理とを反復して実行することにより前記パラメータ群を収束させることを特徴とする人工ニューラルネットワーク学習装置。
  5. 請求項1から請求項4のうちのいずれか1項に記載の人工ニューラルネットワーク学習装置であって、
    前記人工ニューラルネットワーク構造は、前記選択信号が入力される入力層と、少なくとも1層からなる中間層と、前記後歪み信号を出力する出力層とからなる複数の層を含み、
    前記学習制御部は、前記複数の層の間を伝播する信号に重み付けされる重み係数を前記パラメータ群として更新する、
    ことを特徴とする人工ニューラルネットワーク学習装置。
  6. 時間的に連続する複数の離散信号を入力として複数の前歪み信号を生成し、当該生成された複数の前歪み信号を信号処理回路に出力する第1人工ニューラルネットワーク構造と、
    前記複数の前歪み信号を記憶するとともに、前記信号処理回路が前記複数の前歪み信号の入力に応じて出力した複数の応答信号を記憶する信号メモリと、
    第2人工ニューラルネットワーク構造と、
    前記複数の応答信号の中からランダムまたは擬似ランダムに選択された複数の選択信号を前記信号メモリから読み出し、当該複数の選択信号を前記第2人工ニューラルネットワーク構造に供給して当該第2人工ニューラルネットワーク構造から複数の後歪み信号を出力させるとともに、前記複数の前歪み信号の中から前記複数の選択信号に対応する信号として選択された複数の参照信号を前記信号メモリから読み出すメモリ制御部と、
    前記信号メモリから読み出された当該複数の選択信号と当該複数の参照信号との間の差分を示す複数の誤差信号を算出し、当該複数の誤差信号を用いて逆伝播学習アルゴリズムに基づく適応処理を実行することにより、前記第1人工ニューラルネットワーク構造及び第2人工ニューラルネットワーク構造のそれぞれの入出力特性を定めるパラメータ群を更新する学習制御部と
    を備えることを特徴とする歪み補償回路。
  7. 請求項6に記載の歪み補償回路であって、前記学習制御部は、前記第1人工ニューラルネットワーク構造及び前記第2人工ニューラルネットワーク構造のそれぞれの当該入出力特性が互いに一致するように前記パラメータ群を更新することを特徴とする歪み補償回路。
  8. 請求項6または請求項7に記載の歪み補償回路であって、前記学習制御部は、前記逆伝播学習アルゴリズムに基づいて前記複数の誤差信号の大きさが小さくなるように前記パラメータ群を更新することを特徴とする歪み補償回路。
  9. 請求項8に記載の歪み補償回路であって、前記メモリ制御部及び前記学習制御部は、前記複数の選択信号を前記信号メモリから読み出す処理と、当該複数の選択信号を前記第2人工ニューラルネットワーク構造に供給する処理と、前記複数の参照信号を前記信号メモリから読み出す処理と、前記複数の誤差信号を算出する処理と、前記適応処理とを反復して実行することにより前記パラメータ群を収束させることを特徴とする歪み補償回路。
  10. 請求項6から請求項9のうちのいずれか1項に記載の歪み補償回路であって、
    前記第1人工ニューラルネットワーク構造は、前記離散信号が入力される第1の入力層と、少なくとも1層からなる第1の中間層と、前記前歪み信号を出力する第1の出力層とからなる複数の層を含み、
    前記第2人工ニューラルネットワーク構造は、前記選択信号が入力される第2の入力層と、少なくとも1層からなる第2の中間層と、前記後歪み信号を出力する第2の出力層とからなる複数の層を含み、
    前記学習制御部は、前記第1人工ニューラルネットワーク構造の当該複数の層の間を伝播する信号に重み付けされる重み係数と、前記第2人工ニューラルネットワーク構造の当該複数の層の間を伝播する信号に重み付けされる重み係数とを前記パラメータ群として更新する、ことを特徴とする歪み補償回路。
  11. 請求項6から請求項10のうちのいずれか1項に記載の歪み補償回路と、
    前記信号処理回路と
    を備えることを特徴とする信号処理装置。
  12. 請求項11に記載の信号処理装置であって、前記信号処理回路は、前記複数の前歪み信号の電力を増幅する電力増幅器を含むことを特徴とする信号処理装置。
JP2020569314A 2019-02-01 2019-02-01 人工ニューラルネットワーク学習装置、歪み補償回路及び信号処理装置 Active JP6877662B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/003645 WO2020157961A1 (ja) 2019-02-01 2019-02-01 人工ニューラルネットワーク学習装置、歪み補償回路及び信号処理装置

Publications (2)

Publication Number Publication Date
JPWO2020157961A1 JPWO2020157961A1 (ja) 2021-03-25
JP6877662B2 true JP6877662B2 (ja) 2021-05-26

Family

ID=71841752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020569314A Active JP6877662B2 (ja) 2019-02-01 2019-02-01 人工ニューラルネットワーク学習装置、歪み補償回路及び信号処理装置

Country Status (2)

Country Link
JP (1) JP6877662B2 (ja)
WO (1) WO2020157961A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05235792A (ja) * 1992-02-18 1993-09-10 Fujitsu Ltd 適応等化器
JPH07240901A (ja) * 1994-02-28 1995-09-12 Victor Co Of Japan Ltd ニューラルネットワークによるライン補間装置
JPH10187649A (ja) * 1996-12-27 1998-07-21 Toyo Electric Mfg Co Ltd ニューラルネットワーク
JPH117536A (ja) * 1997-04-25 1999-01-12 Fuji Electric Co Ltd ニューラルネットワークを用いた画像認識装置、画像認識方法、及び変換装置
JP3684377B2 (ja) * 2001-09-04 2005-08-17 独立行政法人情報通信研究機構 通信歪み補償装置および補償方法

Also Published As

Publication number Publication date
WO2020157961A1 (ja) 2020-08-06
JPWO2020157961A1 (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
US6351740B1 (en) Method and system for training dynamic nonlinear adaptive filters which have embedded memory
JP3443538B2 (ja) フィードフォワード線形化装置
CN110765720B (zh) 一种复值流水线递归神经网络模型的功放预失真方法
CN110414565B (zh) 一种用于功率放大器的基于Group Lasso的神经网络裁剪方法
CN111245375B (zh) 一种复值全连接递归神经网络模型的功放数字预失真方法
CN113812094B (zh) 每分支的、组合的和分组组合的mimo dpd
US20150214904A1 (en) Distortion compensation apparatus and distortion compensation method
CN111859795A (zh) 针对功率放大器的多项式辅助神经网络行为建模系统及方法
US9531332B2 (en) Distortion-compensation device and distortion-compensation method
CN109075745A (zh) 预失真装置
Le et al. Hierarchical partial update generalized functional link artificial neural network filter for nonlinear active noise control
CN115589209A (zh) 补偿功率放大器失真的方法以及系统
JP6877662B2 (ja) 人工ニューラルネットワーク学習装置、歪み補償回路及び信号処理装置
CN104883330A (zh) 一种盲均衡方法和一种盲均衡系统
JPH11168792A (ja) 音場制御装置
WO2021054118A1 (ja) パラメータ決定装置、信号送信装置、パラメータ決定方法、信号送信方法、及び、記録媒体
JP5299958B2 (ja) プリディストータ
CN111884602B (zh) 一种基于单输出节点神经网络的功率放大器预失真方法
Qian et al. Neural network predistortion technique for nonlinear power amplifiers with memory
CN106105032B (zh) 用于自适应滤波器的系统和方法
JP2897220B2 (ja) 信号処理装置
US7693922B2 (en) Method for preprocessing a signal and method for signal processing
US20230275788A1 (en) Signal transmission apparatus, parameter determination apparatus, signal transmission method, parameter determination method and recording medium
JP5238461B2 (ja) プリディストータ
TWI830276B (zh) 補償功率放大器失真的方法以及系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201216

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6877662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE

Ref document number: 6877662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250