JP4281419B2 - Prefix nonlinear distortion compensator - Google Patents

Prefix nonlinear distortion compensator Download PDF

Info

Publication number
JP4281419B2
JP4281419B2 JP2003157249A JP2003157249A JP4281419B2 JP 4281419 B2 JP4281419 B2 JP 4281419B2 JP 2003157249 A JP2003157249 A JP 2003157249A JP 2003157249 A JP2003157249 A JP 2003157249A JP 4281419 B2 JP4281419 B2 JP 4281419B2
Authority
JP
Japan
Prior art keywords
support vector
signal
coefficient
data
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003157249A
Other languages
Japanese (ja)
Other versions
JP2004363733A (en
Inventor
満 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2003157249A priority Critical patent/JP4281419B2/en
Publication of JP2004363733A publication Critical patent/JP2004363733A/en
Application granted granted Critical
Publication of JP4281419B2 publication Critical patent/JP4281419B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、前置型非線形歪補償器に関し、特に、サポートベクトルマシン(以下「SVM」という)を回帰分析に用いた前置型非線形歪補償器に関する。
【0002】
【従来の技術】
近年、通信における非線形デバイス(以下「NLD」という)の非線形歪を補償する技術として、前置型非線形歪補償器が注目されている。代表的な前置型非線形歪補償器として、ルックアップテーブルを用いたものと、NLDの逆特性を推定するものがある。ここで、NLDの典型的なものとしては、たとえば、増幅器が挙げられる。
【0003】
ルックアップテーブルを用いた前置型非線形歪補償器は、増幅器の特性を入力信号の振幅値に対して微小区間に分け、その区間の代表値をテーブルに格納しておき、送信信号とそれに対応するテーブルの補償値を乗算して出力信号とするものである。また、前置型非線形歪補償器入力とNLD出力を比較し、その結果から適応的にテーブル内の補償値を更新する前置型非線形歪補償器も既に開発されている。
【0004】
一方、増幅器の逆関数を推定する前置型非線形歪補償器として、pth−order−predistorterと呼ばれるものがある。この前置型非線形歪補償器は、信号変換器の逆関数を複素多項式近似するものである。複素多項式は、非線形関数の表現形式として最も一般的なボルテラ級数より導出され、歪補償が行なわれる。また、前置型非線形歪補償器入力とNLD出力を比較し、その結果から適応的に複素多項式係数を更新する前置型非線形歪補償器も既に開発されている。
【0005】
しかし、ルックアップテーブルを用いた前置型非線形歪補償器では、テーブル内の値は離散値をとるため、値の不連続性により、フロアノイズが上昇する。フロアノイズを解消するためには、データ数を増やす必要があるが、データ数を増やすとメモリ容量が多くなるという問題がある。
【0006】
pth−order−predistorterでは、計算精度を上げるために複素多項式の次数を増やす必要がある。このため、計算時間がかかり、解が収束しにくいという問題がある。
【0007】
さらに、広帯域信号に対しては、ルックアップテーブル、pth−order−predistorterともに、信号帯域内の各周波数ごとに振幅、位相の非線形性を補償する必要があるため、ハードウェア化が困難であるという問題がある。
【0008】
ところで、近年、入出力観測データからプロセスのモデリングを行うという問題は、非線形回帰問題やシステム同定などの多くの分野において研究の目的となっている。上記前置型非線形歪補償器の最適な特性を得るという問題も、ひずみを補償する対象となる増幅器を未知の非線形システムとみなせば、この補償する対象となる増幅器の特性の逆関数のモデリングの問題に帰着される。
【0009】
このようなプロセスモデリングの問題に取り組む方法は、大きく分けてグローバルモデリングとローカルモデリングの2つに分けることができる。
【0010】
ローカルモデリングは、重み平均法、局所重み回帰法やデータベース学習であるJust-in-time法などがある。
【0011】
これに対して、グローバルモデリングは、データベースの全てに適合する一つの関数を作る手法である。このような関数の作成は、ニューラルネットワークモデリングや非線型統計回帰の他の方法で使われている手法である。
【0012】
このようなグローバルモデリングに対する統計的学習理論は、1960年代から存在していたが、実用的なツールとして用いられるようになったのは、1990年半ば以降にV.N.Vapnik等によって、サポートベクトルマシンが提案されたことを契機とする(たとえば、非特許文献1〜3を参照)。
【0013】
このようなサポートベクトルマシンを用いた統計的学習理論によるプロセスモデリングには、一般的に、以下のような特徴がある。
【0014】
(1)他の手法に比べると、収束速度に勝る。
(2)常に唯一の解を得ることができる。
【0015】
(3)さまざまな学習問題に容易に適用できる。
(4)問題の複雑さを問題の次元とは独立であるサポートベクトルの個数によって特徴づけているために、いわゆる「次元の呪い(curse of dimensionality)」から逃れることができる。
【0016】
さらに、上述したサポートベクトルマシンは、回帰問題の学習に用いることのできるサポートベクトル回帰(Support Vector Regression(以下、「SVR」と呼ぶ))に拡張されている。このようなSVRについては、非特許文献4に開示がある。
【0017】
さらに、このようなサポートベクトルマシンを上述した前置型非線形歪補償器に適用する試みが、非特許文献5に開示されている。
【0018】
【非特許文献1】
V.N.Vapnik : The Nature of Statistical Learning Theory, Springer-Verlag, New York(1995)
【0019】
【非特許文献2】
V.N.Vapnik : Statistical Learning Theory, J.Willey & Sons, New York(1998)
【0020】
【非特許文献3】
B.Scholkopf et al.ed, "Advances in Kernal Methods", The MIT Press, 1999.
【0021】
【非特許文献4】
N.Cristianini, J.Shave-Taylor "An Introduction to Support Vector Machines", Cambridge University Press, 2000.
【0022】
【非特許文献5】
伊藤隆徳,大森浩充,佐野昭 B−5−124「サポートベクトル法を用いた適応非線形歪補償」2001年電子情報通信学会総合大会予稿集、p.522,2001年
【0023】
【発明が解決しようとする課題】
しかしながら、サポートベクトルマシンをデジタル信号受信装置の前置型非線形歪補償器に用いる場合には、以下のような点を考慮する必要がある。
【0024】
ここで、通信に利用されるNLDのうち、最も伝送特性に影響を及ぼすのは増幅器である。
【0025】
図20は、一般な増幅器の入出力特性を示す図である。
図20に示すように、入力信号が小さい領域では線形的に動作するが、入力信号が大きくなるにつれて出力信号は飽和する。
【0026】
通常は、このような増幅器の非線形歪による影響を軽減するために、増幅器に対してマージンを設定し、その分だけ増幅器への入力レベルを下げて動作させる。このマージンを「バックオフ」と呼ぶ。
【0027】
所要バックオフの大きさは変調方式に依存する。たとえば、変調方式がπ/4シフトQPSK(Quadrature Phase Shift Keying)であれば、振幅変動が小さいのでバックオフは小さくてもよい。しかしながら、たとえば変調方式が直交周波数分割多重(以下「OFDM(Orthogonal Frequency Division Multiplexing)」という)であれば、振幅変動が大きいのでバックオフを大きく設定する必要がある。
【0028】
ところが、バックオフを大きく設定すると、増幅器の電力効率が大幅に劣化してしまう。そこで、信号のような振幅変動が大きい信号に対しても、なるべく小さいバックオフで動作させるのが望ましい。
【0029】
しかしながら、バックオフを小さく設定すると、SVRのようなグローバルモデリングを用いた前置型非線形歪補償器では、補償できないほどに過剰に大きな歪を有する信号が、前置型非線形歪補償器に入力されることになる。
【0030】
ここで、増幅器の逆特性、すなわち理想的に動作する前置型非線形歪補償器の特性は、図20に示すとおりである。ここで、前置型非線形歪補償器の出力は、入力が大きい場合に非常に大きくなってしまう。これは同時に、また増幅器への入力自体が非常に大きくなることを意味する。
【0031】
ただし、このように大きな入力が仮に増幅器に入力されても、増幅器の特性自体が飽和しているので、もはや、前置型非線形歪補償器では、補償を行なうことができない。この場合、特に、SVRのように補償動作を学習するようなシステムでは、有効な学習ができなくなるという問題が生じる。
【0032】
本発明は、上述の課題を解決するためになされたもので、その目的は、振幅変動が大きい信号に対してもなるべく小さいバックオフで動作可能であり、なおかつ高精度で歪補償を可能とする前置型非線形歪補償器を提供することである。
【0033】
【課題を解決するための手段】
本発明のある局面に従う前置型非線形歪補償器は、信号変換器の逆特性を用いて、入力信号を変換し、変換後の信号を信号変換器に供給する変換用サポートベクトルマシンと、信号変換器で変換された変換出力信号を受け、変換出力信号列により構成される信号ベクトルと、過去に抽出された変換出力信号列により構成される信号ベクトルとに基づいて、変換用サポートベクトルマシンにおける変換後の入力信号を、第1の不感帯を有する損失関数に基づいて推定する推定用サポートベクトルマシンと、変換用サポートベクトルマシンおよび推定用サポートベクトルマシンに接続され、変換用サポートベクトルマシンの出力および推定用サポートベクトルマシンの出力に基づいて、変換用サポートベクトルマシンおよび推定用サポートベクトルマシンの係数を更新するための係数更新手段と、入力信号としきい値とを比較し、入力信号がしきい値よりも大きい場合、当該入力信号を含むデータセットをサポートベクトルとして採用しないようにするデータ選定手段とを備える。
【0034】
好ましくは、係数更新手段は、変換出力信号を受け、新たに受けた変換出力信号の信号列により構成されるベクトルであって、かつ、第2の不感帯の外にあるベクトルをサポートベクトルの候補として抽出し、既にサポートベクトルとして抽出されているベクトルの集合に加え、前記ベクトルの集合を新たにサポートベクトルの集合とみなし、前記ベクトルの集合の中から、前記第1の不感帯の外にあるベクトルをサポートベクトルとして再抽出する抽出手段と、前記抽出されたサポートベクトルに対する係数を計算する計算手段とを有する。
【0035】
好ましくは、前記しきい値は、所定の定数である。
好ましくは、前記データ選定手段は、過去の所定数の入力信号の絶対値に基づいて、しきい値を設定する。
【0036】
好ましくは、データ選定手段は、所定の期間内の過去の所定数の入力信号の絶対値に基づいて、しきい値を更新する。
【0037】
好ましくは、信号変換器は、増幅器である。
【0038】
【発明の実施の形態】
以下、図面を参照しつつ本発明の実施の形態について詳細に説明する。以下の説明では、同一の構成部分には同一の符号を付してあり、それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
【0039】
[サポートベクトルマシンによる回帰問題の学習の一般論]
以下、本発明の説明を行うにあたり、その前提となるサポートベクトルマシンによる回帰問題の学習について、まとめておく。
【0040】
1−1.線形回帰問題の学習
1−1−1 線形回帰問題
まず、サポートベクトルマシン(SVM)の考えに基づき、サポートベクトル回帰(Support Vector Regression : SVR)の立場から線形回帰問題を解く方法について述べる。この問題は、以下のように定式化できる。
【0041】
[問題]
m入力1出力の未知線形回帰f:x→y があり、トレーニングデータ
(x1,yl),…,(xn,yn) xi∈ Rm, yi∈R (1.1)
が与えられているとする。このとき、トレーニングデータを用いてこの線形回帰を近似する関数
f(x,w)=wTx (1.2)
を求める。
【0042】
1−1−2 損失関数
ここで、線形ε不感損失関数(Linear ε-Insensitive Loss Function)Lε(x,y,f(x,w))ならびに二次ε不感損失関数(Quadtatic ε-Insensitive Loss Function〉L2ε(x,y,f(x,w))を次のように定義する。
【0043】
【数1】

Figure 0004281419
図1は、このような線形ε不感損失関数および二次ε不感損失関数を示す図である。図1(a)は、線形ε不感損失関数であり、図1(b)は、二次ε不感損失関数を示す。
【0044】
1−1−3 二次ε不感損失関数による回帰問題
以下では、二次ε不感損失を用いた場合のサポートベクトル回帰について考える。サポートベクトルマシンに基づいた主問題は、以下のように表現できる。
【0045】
【数2】
Figure 0004281419
この主題は、次のように書き換えることができる。
【0046】
【数3】
Figure 0004281419
ただし、Cはモデルの複雑さと制約条件の緩和(トレーニング誤差)との間のトレードオフを設定する正則化パラメータである。
【0047】
【数4】
Figure 0004281419
式(1.10)に対するKarush-Kuhn-Tucker(KKT)条件により、以下の関係が成り立つ。
【0048】
【数5】
Figure 0004281419
これらの関係式を式(1.10)に代入すると次の双村問題に書き換えられる。
【0049】
【数6】
Figure 0004281419
ここで、係数αiを以下のように置き換えると、式(1.14)は、最終的に以下の式(1.15)のように書き換えることができる。また、式(1.11)により、線形回帰を近似する関数f(x、w)=wTxは、以下の式(1.16)のようになる。
【0050】
【数7】
Figure 0004281419
図2は、線形近似関数とサポートベクトルとの関係を示す概念図である。
【0051】
図2において、「●」がサポートベクトルであり、これらの近似関数による誤差の大きさはεよりも大きい。「○」は近似関数による誤差の大きさがεよりも小さいデータであり、これらは直接近似関数には影響しない。
【0052】
1−2 非線形回帰問題の学習
1−2−1 非線形回帰問題
以上の説明では、サポートベクトル回帰(SVR)を用いた線形回帰について説明した。以下では、それを応用したSVRを用いた非線形回帰について説明する。この非線形回帰問題は、以下のように定式化できる
[問題]
m入力1出力の未知非線形回帰f:x→y があり、トレーニングデータ
(x1,yl),…,(xn,yn) xi∈Rm, yi∈R (1.17)
が与えられているとする。このとき、トレーニングデータを用いてこの非線形回帰を近似する関数f(x,w)=wTxを求める。ここでは、損失関数として、二次ε不感損失関数を用いることにする。
【0053】
1−2−2 特徴空間
一般的に複雑な問題に応用するには、入力空間内で考えるよりも表現能力が優れている空間で考える必要がある。このような手法は高次元化と呼ばれている。
【0054】
ここで、非線形回帰問題に対応するために、入力空間から高次元特徴空間への非線形写像を導入する。入力ベクトルxを入力空間Xから特徴空間Fヘ写像し、その特徴空間でのベクトルφ(x)をこれまでの入力ベクトルxとみなすことにより入力空間ではなく特徴空間で線形回帰問題を取り扱う。ただし、φ:X→Fは、入力空間からある特徴空間への非線形写像である。
【0055】
この作業は、実質的には元の入力空間において非線形回帰問題を解いていることになる。
【0056】
ヒルベルトシュミット理論によるとヒルベルト空間における内積は次のような等価表現ができる。
【0057】
【数8】
Figure 0004281419
以下に示すとおり、特徴空間で線形問題を考えると、式(1.21)となり、また、線形回帰を近似する関数f(φ(x),w)=wTφ(x)は、式(1.22)のようになる。この式(1.22)は、入力空間における線形回帰問題となっており、式(1.20)の関係により、最終的に式(1.23)となる。さらに、式(1.23)をベクトル表記すると、式(1.24)となり、この非線形回帰問題を解くと、式(1.25)の非線形近似関数を得ることができる。
【0058】
【数9】
Figure 0004281419
ここで、注目すべき点は、特徴空間内での内積計算を入力空間内での計算に置き換えることができるカーネル関数K(xi,xj)を用いることにより、双対問題の式(1.21)やそれを解くことによって得られる近似関数にはφ(x)が含まれないので、実際には入力空間から特徴空間への非線形写像を計算する必要はない点である。これは、「カーネルトリック」と呼ばれている。
【0059】
このような特徴があるため、高次元化を導入することにより、サポートベクトル回帰(SVR)では特徴空間の次元を非常に大きくとることもでき、さらにモデルの複雑さと特徴空間の次元とを独立に制御することが可能となる。このことより、SVRはいわゆる次元の呪いから逃れることができる。
【0060】
図3は、非線形近似関数とサポートベクトルを示す概念図である。図3でも、「●」がサポートベクトルであり、これらの近似関数による誤差の大きさはεよりも大きい。「○」は近似関数による誤差の大きさがεよりも小さいデータであり、これらは直接近似関数には影響しない。
【0061】
1−2−3 サポートベクトルと係数の関係
二次ε不感損失関数を用いたSVR問題では、式(1.14)から式(1.15)に係数の置換えを行う前においては、式(1.11)〜(1.13)のKKT条件が成り立っていることから、係数の置換え後においては結局以下の関係式が成り立つ。
【0062】
【数10】
Figure 0004281419
また、二次ε不感損失関数は、不感帯εを有するので、推定誤差の大きさがεよりも小さい、以下の式(1.27)を満たすデータセット(xi,yi)はサポートベクトルから外れる必要がある。このため、得られた解によるサポートベクトルの近似誤差の大きさは、式(1.28)のようになる。
【0063】
【数11】
Figure 0004281419
さらに、ラグランジェ関数を式(1.10)のようにおいたので、以下の式(1.29)および式(1.30)の符号が等しくなる。このため、式(1.23)の解であるサポートベクトルの係数αiは、式(1.31)を満たすことになる。
【0064】
【数12】
Figure 0004281419
2−1 サポートベクトル回帰の学習に対する本発明の方法
以上の説明の方法をそのまま実行しようとすると、SVR問題においてトレーニングデータが多い場合、問題を解くために非常に多くの時間を費やしてしまう。そこで、本発明においては、SVR問題を効率良く解くために、以下に説明するとおり、ニュートン・ラフソン(Newton−Raphson)法を変形させた基本的な更新式を求め、その更新式を用いた逐次形アルゴリズムを採用する。
【0065】
2−1−1 問題設定
ここでは、二次ε不感損失関数を使用する次の問題を解く方法について説明する。
【0066】
[問題]
m入力1出力の未知非線形回帰f:x→y があり、トレーニングデータ
(x1,yl),…,(xn,yn) xi∈Rm, yi∈R
が与えられているとする。このとき、トレーニングデータを用いてこの非線形回帰を近似する式(2.1)の関数を求めるために、式(2.2)で表される最大化問題を解く。
【0067】
【数13】
Figure 0004281419
SVRでは、誤差を評価するときに不感帯を設けているので、この問題を解いて得られたf(x,α)とトレーニングデータには、以下に述べるような関係が成り立っていなければならない。
【0068】
すなわち、データセット(xi,yi)が不感帯の内側にあるならば、つまり、|yi−f(xi,α)|≦εを満たすならば、係数はαi=0となる。
【0069】
逆に、データセット(xi,yi)が不感帯の外側にあるならば、つまり、|yi−f(xi,α)|>εを満たすならば、係数αiは、上述した式(1.31)を満たす。
【0070】
以下に述べるサポートベクトル回帰の学習では、上記の関係を考慮して、不必要となったデータセットをサポートベクトルから除外していく方法をとっている。
【0071】
2−1−2 バッチ処理
以下では、はじめにn個のトレーニングデータからいくつかのデータセットを取り出し、その取り出したデータセットだけを用いてSVRを求める方法について説明する。
【0072】
(ニュートン・ラフソン法の修正)
以下、二次ε不感損失関数に対する双対問題をニュートン・ラフソン法を変形させて更新式を用いて解く方法について説明する。
【0073】
式(2.2)の最大化問題をベクトル表記すると、式(2.3)のようになり、かつ、評価関数W(α)をテイラー展開すると、式(2.4)のようになる。
【0074】
その上で、W(α)をαiの近傍で二次関数近似を行ったとして、上式(2.4)の第3項までで打ち切る。
【0075】
【数14】
Figure 0004281419
この二次関数近似の最小値を与えるα=αiは、以下の式(2.5)の条件により与えられ、そのような最小値を与えるα=αiは、逐次的に以下の式(2.6)の関係を満たすことになる(ニュートン・ラフソン法)。
【0076】
【数15】
Figure 0004281419
(αの更新方法(初期値0の場合))
ニュートン・ラフソン法に基づきαを求める際、初期値α0=0の場合について考える。式(2.6)で、α0=0とすると、以下の式(2.12)および式(2.13)を満たすことになるが、本発明においては、ε=0とおいて、式(2.14)のように修正する。
【0077】
【数16】
Figure 0004281419
その後、さらに式(2.6)を用いて更新すると、以下の式(2.15)および(2.16)のようになる。さらに、αi1≠0のとき、式(2.17)が成り立つので、式(2.16)は、式(2.18)および(2.19)で表されるようになる。
【0078】
【数17】
Figure 0004281419
このように求めた係数ベクトルαで、以下の式(2.20)が成り立っている場合、式(2.21)のようになるので、上述した式(1.31)を満たしていることがわかる。
【0079】
【数18】
Figure 0004281419
しかし、求めた解が式(2.20)を満たしていない場合、その解は式(1.31)を満たしてなく、解としてはふさわしくない。
【0080】
(余分なデータセットの除去方法)
次に、式(2.20)を満たしていない場合について考えることにする。
【0081】
式(2.20)を満たしていない場合は、求めた解は式(1.31)を満たしてなく、KKT条件を満たさないので解ではないことになる。そこで、このような場合は、余分なデータセット(xi,yi)が現在のサポートベクトルの候補の中に存在していると考え、現在のサポートベクトルの侯補の中から余分なデータセットを取り除くことにする。
【0082】
以下では、さらに、余分なデータセットの選出方法について以下に述べる。
まずはじめに、先ほどの更新式を用いて、以下の式(2.22)に基づいて、係数ベクトルαnsvを求める(初期値:0)。
【0083】
次に、係数ベクトルαnsvの各要素はゼロではない(αi≠0,i=1,…,nsv)と考え、さらに更新式(2.6)にステップサイズη(0<η≦1)を導入して、以下の式(2.23)のような新たな更新式をつくる。
【0084】
【数19】
Figure 0004281419
この更新式を用いて係数ベクトルαnsvを更新する際、更新前後で係数ベクトルαnsvの各要素の符号が変化しない範囲で更新を行うことにする。
【0085】
次に、ステップサイズの決め方について説明する。
ステップサイズは、1に近ければ近いほど評価関数が大きな値となるので、できる限り1に近いことが望ましい。そこで、次のようにしてそのステップサイズを求める。
【0086】
まず、以下の式(2.24)により、ステップサイズベクトルを計算する。
【0087】
【数20】
Figure 0004281419
だたし、ステップサイズベクトルη=[η1,…,ηnsvTであり、ηiは、更新式(2.23)においてステップサイズη=ηiで、係数ベクトルαnsvを更新するとαi=0となる値である。
【0088】
つぎに、ステップサイズベクトルηの要素の中で、0以上で、かつ、最も小さい要素ηiをステップサイズとして更新を行う。このとき、αi=0であり、データセット(xi,yi)を余分なデータセットであるとし、以下の式(2.25)のようにサポートベクトルから外すことにする。
【0089】
【数21】
Figure 0004281419
これに伴いサポートベクトルの個数が減少することになる(nsv←nsv−1)。
【0090】
サポートベクトルの個数が減少した後、再び更新式(2.23)より係数ベクトルαnsvを更新する。このときも先ほどと同じように、更新前後で係数ベクトルαnsvの各要素の符号が変化しない範囲で更新を行うために式(2.24)からステップサイズηを求める。
【0091】
ステップサイズベクトルηの要素の中で0以上で最も小さい要素ηiが1以上の場合、更新式(2.23)においてη=1で更新した係数ベクトルαnsvは更新前後で各要素の符号が変化しないことがわかる。
【0092】
このとき、係数ベクトルαnsvが決定する。逆にステップサイズベクトルηの要素の中で0以上で最も小さい要素ηiが1よりも小さい場合、先ほどと同じく更新式(2.23)においてステップサイズη=ηiで係数ベクトルαnsvを更新し、データセット(xi,yi)をサポートベクトルから外すことにする。以降、係数ベクトルαnsvが決定するまでこの作業を繰り返し行う。
【0093】
2−1−3 逐次処理
以上の説明では、n個のトレーニングデータからいくつかのデータセットを取り出し、その取り出したデータセットだけからSVRを求める方法について説明した。しかし、バッチ処理では逆行列の計算を行っているため、扱うデータ数には限界がある。そこで、このような問題を回避するために、次に逐次処理について説明する。
【0094】
ここでは、既に以下の式(2.26)のようなSVRによる近似関数が存在しており、新たなトレーニングデータ(xs,ys)を用いて、このSVRによる近似関数を更新する方法について説明する。
【0095】
【数22】
Figure 0004281419
まず、はじめに、新たなトレーニングデータ(xs,ys)が不感帯の内側にあるかどうかを調べる。
【0096】
もし、以下の式(2.27)が成り立つならば、不感帯の内側にあることになりSVRの更新は必要でないが、新たなトレーニングデータ(xs,ys)が不感帯の外側にある場合、つまり以下の式(2.28)が成り立つ場合、SVRの更新が必要となる。
【0097】
【数23】
Figure 0004281419
そこで、新たなトレーニングデータ(xs,ys)が不感帯の外側にある場合について考えることにする。
【0098】
このとき、(x1,y1),…,(xnsv,ynsv),(xs,ys)をサポートベクトルであるとみなす。
【0099】
先ほど示した式(2.23)を用いて、係数ベクトルαを更新しようとした場合、新たなトレーニングデータ(xs,ys)の係数αsが決まっていないのでこの値の初期値を0とする。
【0100】
しかし、このままでは、式(2.23)を計算する際、sign(αs)=0となり、このまま係数ベクトルαを更新して求めても、KKT条件を満たさない。
【0101】
そこで、更新式(2.23)を次のように変更する。
【0102】
【数24】
Figure 0004281419
この後は、更新式(2.29)を用いてαを更新することを考える。ここでも、更新前後で、係数ベクトルαnsvの各要素の符号が変化しない範囲で更新を行うために式(2.24)を次のように変更し、ステップサイズηを求める。
【0103】
【数25】
Figure 0004281419
これ以降は、バッチ処理のところで行ったようにαの更新を行い、αを決定する。
【0104】
実際には、本発明においては、以下の前置型非線形歪補償システムの処理において説明するとおり、大量のトレーニングデータセットが与えられている場合についてのSVRを求めるアルゴリズムを用いる。
【0105】
このアルゴリズムは、バッチ処理・逐次処理を一つにまとめた計算方法である。
【0106】
[非線型デバイス(NLD)の飽和特性を特に考慮しない構成]
図4は、本発明の前置型非線形歪補償システムの構成を説明するにあたり、その理解の前提として、非線型デバイス(NLD)の飽和特性を特に考慮しない構成を有する前置型非線形歪補償システム1000を示す概略ブロック図である。
【0107】
図4に示した例では、増幅器16の出力の歪を前置型非線形歪補償器により補償する構成となっている。
【0108】
図4を参照して、前置型非線形歪補償システム1000は、無線周波数信号SINを中間周波数信号に変換するダウンコンバータ2と、ダウンコンバータ2に接続され、ダウンコンバータ2の出力する中間周波数信号をサンプリングしてデジタル信号に変換するA/D変換器4と、A/D変換器4に接続され、サンプリングされた中間周波数信号をベースバンド信号x(t)に変換する直交検波器6と、直交検波器6に接続され、信号x(t)を、後述する増幅器16の逆特性を用いて、ベースバンド信号y(t)の実数部Re{y(t)}に変換するSVM54と、直交検波器6に接続され、信号x(t)を、増幅器16の逆特性を用いて、ベースバンド信号y(t)の虚数部Im{y(t)}に変換するSVM58と、SVM54および58に接続され、変換後のベースバンド信号y(t)を中間周波数信号に変換する直交変調器10と、直交変調器10に接続され、直交変調器10の出力する中間周波数信号をアナログ信号に変換するD/A変換器12とを含む。
【0109】
なお、本願発明は、図4において、ダウンコンバータ2、A/D変換器4および直交検波器6からなる受信部1の代わりに、無線送信機のベースバンド信号の出力部が接続されるような態様にも適用可能である。
【0110】
前置型非線形歪補償システム1000は、さらに、D/A変換器12に接続され、アナログの中間周波数信号を無線周波数信号S0に変換し、増幅器16に供給するアップコンバータ14と、増幅器16に接続され、増幅器16より出力される出力信号SOUTを中間周波数信号に変換するダウンコンバータ18と、ダウンコンバータ18に接続され、中間周波数信号をデジタル信号に変換するA/D変換器20と、A/D変換器20に接続され、デジタル信号をベースバンド信号z(t)に変換する直交検波器22とを含む。
【0111】
前置型非線形歪補償システム1000は、さらに、直交検波器22の出力する信号z(t)と学習に用いたベースバンド信号ベクトルV_z(pi)(i=1,…,nR)とに基づいて、SVM54より出力されるベースバンド信号の実数部の推定値Re{y′(t)}を出力するSVM26と、直交検波器22の出力する信号z(t)とベースバンド信号ベクトルV_z(qj)(j=1,…,nI)とに基づいて、SVM58より出力されるベースバンド信号の虚数部の推定値Im{y′(t)}を出力するSVM62と、SVM54およびSVM26に接続され、ベースバンド信号の実数部の推定値Re{y′(t)}とベースバンド信号y(t)の実数部Re{y(t)}との差分を計算する減算器30と、SVM58およびSVM62に接続され、ベースバンド信号の虚数部の推定値Im{y′(t)}とベースバンド信号y(t)の虚数部Im{y(t)}との差分を計算する減算器64と、直交検波部6および直交検波部22に接続され、信号ベクトルおよびサポートベクトルのサイズmと増幅器16による遅延時間dとを求めるm・d決定部44と、減算器30、SVM54、SVM26、直交検波部22およびm・d決定部44に接続され、減算器30の出力、直交検波部22の出力およびm・d決定部44の出力に基づいて、SVM54およびSVM26における、増幅器16の逆特性を有する関数の係数αR(i)を更新する係数更新部42と、減算器64、SVM58、SVM62、直交検波部22の出力およびm・d決定部44に接続され、減算器64の出力、直交検波部22の出力およびm・d決定部44の出力に基づいて、SVM58およびSVN62における、増幅器16の逆特性を有する関数の係数αI(j)を更新する係数更新部66とを含む。
【0112】
SVM26は、後に説明する方法に従い、ベースバンド信号の実数部の推定値Re{y′(t)}を求める。SVM62は、SVM26と同様の方法に従い、ベースバンド信号の虚数部の推定値Im{y′(t)}を求める。
【0113】
係数更新部42は、Re{y(t)}とRe{y′(t)}との誤差eR(t)が最小になるように係数αR(i)を制御する。係数更新部66は、係数更新部42と同様に、Im{y(t)}とIm{y′(t)}との誤差eI(t)が最小になるようにαI(j)を制御する。
【0114】
なお、直交検波器6をアナログで実現し、ダウンコンバータ2の出力を直交検波器6で受け、直交検波器6の出力をA/D変換器4でデジタルに変換し、その出力をSVM8に供給する構成であっても構わない。また、直交変調器10をアナログで実現し、SVM54およびSVM58の出力をD/A変換器12が受け、D/A変換器12の出力を直交変調器10で受け、直交変調器10の出力をアップコンバータ12に供給する構成であっても構わない。さらに、直交検波器22をアナログで実現し、ダウンコンバータ18の出力を直交検波器22で受け、直交検波器22の出力をA/D変換器20で受け、A/D変換器20の出力をSVM26およびSVM62に供給する構成であっても構わない。
【0115】
(前置型非線形歪補償システム1000の動作)
以下、前置型非線形歪補償システム1000の動作について説明する。
【0116】
まず、図4において、信号SIN、S0およびSOUTは、式(1)〜(3)でそれぞれ表わされる。
【0117】
IN=Re{x(t)exp(j2π(fRFt)}
:前置型非線形歪補償器への入力信号 …(1)
0=Re{y(t)exp(j2π(fRFt)}
:歪補償された信号 …(2)
OUT=Re{z(t)exp(j2π(fRFt)}
:増幅器16からの出力信号 …(3)
x(t)、y(t)およびz(t)は、それぞれ帯域信号SIN、S0およびSOUTの複素包絡線 (ベースバンド信号)である。jは虚数を表わす。fRFは無線周波数(Radio Frequency)を表わす。tは時刻を表わす。
【0118】
[非線形歪補償器の動作原理]
P=|y(t)|2/2として、増幅器16のベースバンド領域における入出力特性をfを複素関数としてf(P)と置くと、ベースバンド信号y(t)およびz(t)の関係は、下記の式(4)のように表すことができる。
【0119】
さらに、一般に、非線形歪補償器では、f(P)に対し、次式(5)の関係を満たす入出力特性g(P)を求めることを目的とする。仮に、入出力特性g(P)を得ることができれば、次式(6)および(7)が成立ち、SINに対してSOUTを線形化することができる。
【0120】
【数26】
Figure 0004281419
前置型非線形歪補償システム1000では、g(P)を、SVM26および係数更新部42ならびにSVM62および係数更新部66にて推定する。具体的には、y(t)とz(t)より推定したy′(t)との誤差e(t)が、実部および虚部のそれぞれにおいて最小になるように、SVM26およびSVM62の関数の係数を更新する。この計算が収束すれば、SVM26およびSVM62により近似される特性は、増幅器16の逆特性に相当することとなる。
【0121】
[逆特性関数の計算]
上述したような逆特性関数の計算のための条件を以下に整理しておく。
・非線形の歪補償のための計算は時間連続信号ではなく離散信号に対して行なわれる。ハードウェア化の際は、A/D変換器を使用し、連続信号を離散信号に変換し、計算後、離散信号を連続信号にD/A変換器により復元する。
・信号処理は帯域系ではなくベースバンド系または中間周波数信号にて行なわれる。ベースバンド系の場合には、増幅器16は等価的に複素ベースバンド信号y(t)を受け、複素信号z(t)を出力する系と見なすことができる。
【0122】
[サポートベクトルマシンの動作説明]
時刻kT(T:A/D変換およびD/A変換のサンプリング間隔)のとき、サポートベクトルマシンSVM54の出力Re{y(kT)}およびSVM58の出力Im{y(kT)}、ならびにサポートベクトルマシンSVM26の出力Re{y′s(kT)}およびSVM62の出力Im{y′s(kT)}は、次式(8)〜(11)により得られる。
【0123】
【数27】
Figure 0004281419
ここで、変数の接頭辞”V_”は、その変数がベクトルであることを表わす。また、mは信号ベクトルおよび後述するサポートベクトルのサイズ、nR、nIは、それぞれ実部および虚部のサポートベクトルマシンのサポートベクトルの数であり、piはi番目のサポートベクトルを取得した時間であり、qjはj番目のサポートベクトルを取得した時間である。
【0124】
V_z(piT)(i=1,…,nR),V_z(qjT)(j=1,…,nI
は増幅器16の入出力特性を学習した結果、時刻kTまでに抽出されたサポートベクトルである。
【0125】
αR(i),αI(j)は、それぞれV_z(piT),V_z(qjT)に対応した重み係数(実数)である。一般に、αR(i)(または、αI(j))が零の時、対応するV_z(piT)(または、V_z(qjT))は計算に加える必要がなく廃却しても構わない。また、非零の係数αR(i)(または、αI(j))の個数をサポートベクトルマシンの次元と呼ぶ。例えば、非零の係数の個数が73であればサポートベクトルマシンの次元数は73である。さらに、この次元数は学習データを増やしても一定値以上に増えることがない。この上界値のことをVC(Vapnik and Chervonenkis)次元と呼ぶ。
【0126】
K(V_x,V_y)は「内積カーネル」の関数であり、前置型非線形歪補償システム1000では、内積カーネルの線形和である式(8)〜(11)を、適切な係数αR(i),αI(j)を選択することにより、増幅器16の入出力特性の逆特性g(P)に適合させることを目標とする。このように未知の関数にシステムの入出力関数を適合させるような問題全般を総称して「回帰問題」という。次式(15)〜(17)は、一般的に用いられる内積カーネルの例である。
【0127】
【数28】
Figure 0004281419
どの内積カーネルが逆関数を表現するのに最も適しているかはシステムにより異なり、実際には動作前に何度か試験をした上で最も特性のよいものを選択する。もちろん、上記以外の関数でも逆関数g(P)をよりよく推定でき、かつ期待する効果が得られるのであれば、その関数を使用してもよい。
【0128】
[係数更新部42の動作説明]
以下では、サポートベクトルに対応する係数αR(i),αI(j)の更新計算を行う係数更新部42および係数更新部66の動作について説明する。
【0129】
上述したとおり、係数更新部42は、Re{y(t)}とRe{y′(t)}との誤差eR(t)が最小になるように係数αR(i)を制御する。一方、係数更新部66は、Im{y(t)}とIm{y′(t)}との誤差eI(t)が最小になるように係数αI(j)を制御する。
【0130】
【数29】
Figure 0004281419
なお、以下では、表記を簡単にするためT=1としている。このようにしても一般性を失うことはない。
【0131】
係数αR(i)は、次式(20)で表わされる評価関数Wを最大化するという最適化問題を解くことにより得られる。また、係数αI(j)についても同様である。
【0132】
【数30】
Figure 0004281419
ただし、定数Cと定数εは、通常、実験的に求められる。
【0133】
増幅器16の入出力特性の学習が完了するまでの間はサポートベクトルの追加・削除が繰返されるが、これと対応して係数αR(i),αI(j)の値を更新する必要がある。
【0134】
以下では、係数更新部42の動作を例にとって説明する。係数更新部66の動作も、入力される変数が異なるのみで、基本的に係数更新部42と同様である。
【0135】
なお、後に詳しく説明するように、係数更新部42の更新の計算の特徴の1つは、以下のようにして逐次的に係数αR(i)の値を更新することである。
(1) 更新の計算の途中において、係数更新部42は、n−1組のサポートベクトルV_z(pi)および係数αR(i)を取得している状態となる。
(2) 係数更新部42は、さらに、n個目のサポートベクトルの候補としてデータV_z(pn)を入手する。
(3) V_z(pn)をサポートベクトルと見なし、その係数をαR(n)=0とおく。
(4) V_z(pn)が加わったことによる最適解からのずれ(摂動)を補正するため、αR(i)(i=1,…,n)に関して誤差分(摂動分)ΔαR(i)を計算する。
【0136】
上述のように逐次サポートベクトルを抽出することにより、1回の係数更新において計算対象となる係数の数を削減できるので、計算量を削減することができる。
【0137】
[係数の更新の具体的な計算方法]
係数の更新方法の具体例を以下に示す。ただし、この具体例は実現の一例であって、必ずしもこの通りである必要はない。
【0138】
図5および図6は、このような係数の更新の具体的な計算方法を説明するためのフローチャートである。
【0139】
図5を参照して、係数更新部42は、まず、取得済みのN個の学習データセットからn個のデータセット(V_z(Pi),Re{ys(Pi)})(i=1〜n)を取り出し、これらをサポートベクトルに採用する(ステップ100)。
【0140】
次に、係数更新部42は、上記サポートベクトルに対応する係数の第1次近似と、その符号ベクトルSRを、以下の式(21)および(22)により計算する(ステップ102)。
【0141】
【数31】
Figure 0004281419
さらに、ステップサイズベクトル[ηR(1),…,ηR(n)]Tを以下の式(24)および(25)により計算する(ステップS104)。
【0142】
【数32】
Figure 0004281419
ステップサイズベクトルの要素の中で0以上でもっとも小さい要素をηR(ν)とし(ステップS106)、要素ηR(ν)が1以上であるか否かを判定する(ステップS108)。
【0143】
まず、要素ηR(ν)が1未満である場合、続いて、要素ηR(ν)を用いて、以下の式(26)により、係数ベクトル[αR(1),…,αR(n)]Tを更新する(ステップS110)。
【0144】
【数33】
Figure 0004281419
その上で、(V_z(Pν),Re{ys(Pν)})を余分なデータセットとして、サポートベクトルから削除し、係数αR(Pν)も削除する(ステップS112)。このような削除に対応して、i>νについて、以下の表にしたがって、i番目の学習データを取得した時間、および係数αR(i)の番号を読替える。
【0145】
【表1】
Figure 0004281419
さらに、(n−1)を新たにnと読替える処理を行う(ステップS114)。以上の読替えの手続きの後、処理はステップS104に復帰する。
【0146】
一方、ステップS108において、要素ηR(ν)が1以上である場合、以下の式(27)により、改めて係数ベクトルを計算する(ステップS116)。
【0147】
【数34】
Figure 0004281419
次に、図6を参照して、新しい学習データセット(V_z(k),Re{ys(k)})の取得が行われる(ステップS118)。
【0148】
さらに、以下の式(28)により、誤差eRが計算される(ステップ120)。続いて、誤差eRとしきい値ε´との比較が行われて(ステップS122)、|eR|<ε´であれば、処理は、ステップS118に復帰する。なお、ここで、ε≦ε´である。
【0149】
【数35】
Figure 0004281419
一方、|eR|≧ε´であれば、以下の式(29)〜(30)にしたがって、係数αR(1),…,αR(n),および誤差eRのそれぞれについて、符号を計算し、符号ベクトルを置き換え(ステップS124)、[αR(1),…,αR(n),0]を新たに係数ベクトルに置き換えるとともに、(n+1)を新たにnと置き換える(ステップS126)。
【0150】
【数36】
Figure 0004281419
(V_z(k),Re{ys(k)})をn番目のサポートベクトル(V_z(Pn),Re{ys(Pn)})として採用して、処理はステップS104に復帰する(ステップS128)。
【0151】
以上の処理により、係数更新部42は、逐次適応的に係数ベクトルの更新を行う。
【0152】
[サポートベクトルマシンSVM54,58の動作説明]
SVM54は、係数更新部42で更新された係数αR(i)を用いて、上述した式(8)に従い、ベースバンド信号x(t)をベースバンド信号Re{y(t)}に変換する。サポートベクトルマシンSVM58は、上述したのと同様の手続きで、係数更新部66で更新された係数αI(i)を用いて、上述した式(9)に従い、ベースバンド信号x(t)をベースバンド信号Im{y(t)}に変換する。
【0153】
[逐次計算における特徴的手続きの説明]
以上、図5および図6により、サポートベクトルマシンを用いて、非線形なプロセスであって、当該プロセスを表現する変数が複素数で表される場合に、回帰問題を解くことにより、前置型非線形歪補償システムを実現するための構成について説明した。特に、上記係数更新部42の行う処理において、特徴的な手続きについて、以下に説明を付け加えておく。
【0154】
図7は、1入力1出力の非線形回帰f:x→yに関して、サポートベクトルマシンによる近似学習がある程度進んだ状態において、サポートベクトルによる学習データの近似特性を示す概念図である。
【0155】
図7においては、「損失」は、ε不感2次損失関数に基づく近似特性を表しているものとする。つまり、「損失」は、不感帯の片側幅を近似特性に加減して得られた2つの不感帯境界値のうち、学習データに近い方の不感帯境界値を減算することにより得られる値と定義する。
【0156】
図7で、2重丸はサポートベクトルであるデータを表しており、1重丸は、サポートベクトルによる近似特性に対する不感帯の内側に存在し、サポートベクトルではないデータを表す。なお、サポートベクトルの定義により、図7中で2重丸で表されるデータが真のサポートベクトルであるときは、この真のサポートベクトルの外側には、サポートベクトルは存在しない。
【0157】
ここで、たとえば、サポートベクトルによる近似特性の上側であって、かつ、不感帯の外側にあるサポートベクトルのデータD1=(x1,y1)について見てみると、このデータD1についての損失L1は、以下の式で表される。
【0158】
L1=α1/C
なお、ここで、α1はサポートベクトルx1に対する係数である。このとき、データD1の損失は、このデータがサポートベクトルによる近似特性の上側にあることに対応して、「上向き、かつ、外向き」であり、α1>0である。
【0159】
一方、たとえば、サポートベクトルによる近似特性の下側であって、かつ、
不感帯の外側にあるサポートベクトルのデータD2=(x2,y2)について見てみると、このデータD2についての損失L2も、L2=α2/Cで表される。
【0160】
このとき、データD2の損失は、このデータがサポートベクトルによる近似特性の下側にあることに対応して、「下向き、かつ、外向き」であり、α2<0である。
【0161】
(ステップS122におけるε´の値の設定)
ε´の値は、本来の不感帯を定義する値εと同じ値としても計算を実行することは可能である。しかし、本願発明では、ε´の値を本来の不感帯を定義する値εよりも大きくしている。
【0162】
そこで、以上の準備のもとに、まず、図6のステップS122において、ε´の値を本来の不感帯を定義する値εよりも大きくする理由について、まず、説明する。
【0163】
図8は、このようにε´の値を本来の不感帯を定義する値εよりも大きくすることの効果を説明するための概念図である。
【0164】
なお、εで決まる本来の不感帯に対し、εをステップS122のε´で置換えた場合に、ε´で決まる領域を本来の不感帯に対する「拡張不感帯」と定義する。
【0165】
拡張不感帯はステップS122のみにおいて用いられ、他のステップにおける不感帯は、εで決定される。
【0166】
図8においては、学習途中のサポートベクトルによる近似特性が直線LSVで表され、この近似特性よりもさらに近似が進んだ状態の近似特性が曲線CSVで表されているものとする。ただし、「学習途中のサポートベクトルによる近似特性」を直線としたのは、説明の便宜のためであって、より一般には、この特性も曲線で表される。
【0167】
まず、近似特性LSVについて、拡張不感帯をしきい値ε´(=ε)で定義した場合は、データD3は、最終的にはサポートベクトルにはならないデータであるものの、近似特性LSVの段階では、サポートベクトルとして選択されることになる。これは、拡張不感帯を定義するしきい値を、しきい値εよりも大きなしきい値ε´(1)で定義した場合も同様である。
【0168】
これに対して、近似特性LSVについて、拡張不感帯をしきい値ε´(1)よりもさらに大きなしきい値ε´(2)で定義した場合は、データD3は、近似特性LSVの段階でも、サポートベクトルとして選択されない。
【0169】
上述したとおり、本発明においては、計算量を低減するために、逐次計算の途中において、サポートベクトルとして選択されなくなったデータを計算の対象から除外している。
【0170】
したがって、図6のステップS122において使用するしきい値ε´を、予め本来の不感帯に対応するしきい値εよりも大きなしきい値ε´としておけば、計算が進むにつれて、除外されていくはずのデータをそもそもサポートベクトルとして選択する確率が小さくなるので、一層の計算量の低減を期待できる。
【0171】
すなわち、1度、サポートベクトルとして抽出した古いデータセットが、学習(新しいサポートベクトルの追加)が進むにつれ、サポートベクトルとして不要となり除去されることが繰り返され、最終的には新しいサポートベクトルの追加が不要となって学習が終了することになる。しかしながら、「サポートベクトルの追加・除去の繰り返し」を低減することにより、計算量を削減するとともに学習の終了までの時間を短縮することが可能となる。
【0172】
なお、新しいサポートベクトルの追加の頻度が低下するにつれてしきい値ε´(≧ε)をεに近づけていくという処理を行うことも可能である。この場合、ある程度の近似精度までは早期に学習することになり、かつ、最終的な精度εも確実に得ることが可能となる。
【0173】
また、係数更新部42や係数更新部66において、直交検波器22から受取る学習データの数をカウントするカウンタを備えて、一定数のデータを受取るごとにしきい値ε´を更新しつつ、εに近づけていくという処理を行うことも可能である。
【0174】
あるいは、係数更新部42や係数更新部66において、時間を計測するカウンタまたは抽出されたサポートベクトルの数をカウントするカウンタを有し、処理期間の長さに対応して、しきい値ε´を更新しつつ、εに近づけていくという処理を行うことも可能である。
【0175】
(サポートベクトルを削除する基準)
さらに、図5のステップS110からS114において、サポートベクトルを削除する基準について、さらに説明する。
【0176】
図9は、図8で示される状態から、近似特性の逐次計算を進めた場合に、余分となったサポートベクトルの除去を行う手続きを説明するための概念図である。
【0177】
以下の説明では、図8で示される状態で、しきい値εと近似特性LSVにより決まる不感帯の外にデータD3があるため、データD3がサポートベクトルとして選択されており、図9に示す状態に近似を進めると、このデータD3がサポートベクトルから除去され、一方、データD1が新たにサポートベクトルとして追加されるものとする。
【0178】
図10は、図9において、データD3について、損失の変化を説明するための概念図である。
【0179】
なお、ここでは、直線LSVで表される近似特性で、このデータD3に対応する係数をαi(1)とし、曲線CSVで表される近似特性でのデータD3に対応する係数をαi(2)と表すものとする。
【0180】
直線LSVの不感帯の境界の外側にデータD3が存在することに対応して、直線LSVに対するデータD3の損失は、αi(1)/C(αi(1)>0)となる。
【0181】
これに対して、曲線CSVの不感帯の境界の内側にデータD3が存在することに対応して、曲線CSVに対するデータD3の損失は、αi(2)/C(αi(2)<0)となる。
【0182】
したがって、近似が進んで、サポートベクトルによる近似特性が、直線LSV(より一般的には曲線)から、曲線CSVへと変化することによる損失の変化量を、−Δαi/Cとすると、ステップS108で用いたステップサイズηは、η=−αi(1)/Δαiと表される。
【0183】
このとき、0≦η<1が成り立っていれば、図10で示すように、直線LSV(より一般的には曲線)の不感帯の境界と曲線CSVの不感帯の境界との間にデータD3が存在することになる。これは、言い換えると、「データD3は、サポートベクトルによる近似特性が、直線LSV(より一般的には曲線)から、曲線CSVと変化することにより、サポートベクトルから除去されるデータとなった」ということができる。なお、以上の説明では、データが近似特性の上側にある場合について説明したが、データが近似特性の下側にある場合にも同様である。
【0184】
したがって、図5のステップS108におけるような基準で判断することにより、それまでサポートベクトルとして選択していたデータをサポートベクトルから除外するべきか否かを判断することが可能となる。
【0185】
上述の例では、入出力特性が不明な、非線形の入出力特性を有する増幅器16の出力の補正に対して、サポートベクトルマシンを用いたが、本発明は増幅器16に対してのみ適用可能なわけではない。一般的に、入力される信号が複素数で表現でき、かつ入出力特性が不明な信号の変換回路に対しても本発明を適用することが可能である。
【0186】
以上説明したように、前置型非線形歪補償システム1000によると、SVM26およびSVM62を用いて、増幅器16の逆特性を有する信号を推定する。その信号とSVM54およびSVM58より出力される信号とに基づいて、係数更新部42および係数更新部66において、増幅器16の逆特性を有する関数の係数が更新される。
【0187】
この構成では、ルックアップテーブルを必要としないため、ノイズフロアを低く押さえることができ、かつ、入力が複素信号である場合に適用可能であるので、簡単な構成で前置型非線形歪補償器を提供することができる。また、サポートベクトルマシンは、pth−order−predistorterに比べて、計算が簡単で収束時間が早い。さらに、学習する過程で、一度、サポートベクトルに加えられた信号ベクトルにおいて、不要となったサポートベクトルが削除されるため、高速処理が可能な前置型非線形歪補償器を提供することができる。
【0188】
また、広帯域信号が入力された場合、増幅器の非線形性が信号帯域に比較して狭帯域の場合にもデータベクトルのサイズmを適切に設定することにより補償することが可能である。
【0189】
[本発明の実施の形態の前置型非線形歪補償システム2000]
以上、図4に示した前置型非線形歪補償システム1000の構成および動作について説明した。
【0190】
前置型非線形歪補償システム1000は、上述のような特徴を有するものの、図20に示したような入出力特性を有する増幅器において、バックオフを小さく取ると以下のような問題がある。
【0191】
すなわち、増幅器への入力が大きい場合、増幅器の飽和特性により、出力はある値に抑えられる。その飽和した出力が推定用SVM26および62の入力となるので、推定用SVM26および62の出力は変換用SVM54および58の出力に比べて小さくなる。
【0192】
したがって、推定用SVM26および62の出力と変換用SVM54および58の出力との差分は、入力信号が小さいときには非常に小さな値となるが、入力が大きいときは非線形歪の影響を受け大きくなる。
【0193】
図4に示した前置型非線形歪補償システム1000の方式では、各トレーニングデータについて、両SVM出力の差分が予め設定した不感帯ε′よりも大きいとき、サポートベクトルとして採用する。過剰に大きな振幅のトレーニングデータにおける両SVM出力の差分は、確実に不感帯ε′よりも大きくなり、サポートベクトルとして採用される。このため、このトレーニングデータにより全てのサポートベクトルは更新され、回帰関数の近似精度は悪くなる。このようなトレーニングデータが複数個採用されることにより、回帰関数の精度はますます悪くなり、場合によっては発散してしまう。
【0194】
図11は、本発明の前置型非線形歪補償システム2000の構成を説明するための概略ブロック図である。
【0195】
図4に示した前置型非線形歪補償システム1000に比べて、前置型非線形歪補償システム2000には、データ選定部70がさらに設けられている。前置型非線形歪補償システム2000のその他の構成は、前置型非線形歪補償システム1000と同様であるので、同一部分には同一符号を付して、その説明は繰り返さない。
【0196】
なお、図11において、非線形デバイス16は、たとえば、図20に示したような入出力特性を有する増幅器であるものとする。
【0197】
図11を参照して、データ選定部70は、入力されるベースバンド信号x(t)と、後に説明するしきい値THとを比較し、信号x(t)がしきい値よりも大きい場合、その信号x(t)を含むデータセットをサポートベクトルとして採用しないようにするものである。
【0198】
図12は、データ選定部70の構成を説明するための概略ブロック図である。
図12を参照して、データ選定部70は、ベースバンド信号x(t)を伝達する経路を選択するための選択部702と、少なくとも指定された個数のNTH個のベースバンド信号x(t)を選択部702から受けて格納するためメモリ704と、メモリ704中に格納されたベースバンド信号x(t)からしきい値THを算出するためのしきい値決定部706と、選択部702からのベースバンド信号x(t)としきい値THとを比較して、しきい値TH以下のベースバンド信号x(t)を選択的に係数更新部42および66に与えるための比較部708とを備える。
【0199】
ここで、しきい値決定部706は、以下の式に基づいて、しきい値THを算出する。
【0200】
【数37】
Figure 0004281419
ここで、上式において、K1およびNTHは、予め指定される定数である。
【0201】
なお、しきい値THを計算するためのベースバンド信号x(t)は、たとえば、一定の時間間隔ごとに少なくとも個数NTHがメモリ704に格納されて、しきい値決定部706が、この一定時間間隔ごとにしきい値THを更新することとしてもよい。
【0202】
また、しきい値THの決定の仕方は、上述した方法に限られず、たとえば、所定の定数としてもよいし、あるいは、以下の式のように、過去のベースバンド信号x(t)の絶対値の最大値に所定の定数K2を乗算することで、更新することとしてもよい。
【0203】
【数38】
Figure 0004281419
すなわち、データ選定部70においてベースバンド信号x(t)を選択するためのしきい値THは、外部から任意に設定可能である。または、データ選定部70におけるしきい値THは、過去の入力信号から、所定の計算により設定もしくは更新することが可能である。
【0204】
次に、図11に示した前置型非線形歪補償システム2000について説明する。ただし、その動作は、基本的に、図5および図6で説明した前置型非線形歪補償システム1000の動作と同様であるので、以下では、主として、前置型非線形歪補償システム2000の動作の前置型非線形歪補償システム1000の動作との相違点について説明する。
【0205】
図13および図14は、前置型非線形歪補償システム2000の係数更新の動作を説明するためのフローチャートである。
【0206】
まず、図13を参照して、サポートベクトル係数の第1次近似を行うため、データセットをNセット取得する。その際、対応するベースバンド信号x(t)も併せて取得しておく(ステップS200)。
【0207】
次に、データ選定部70において、しきい値THを決定する(ステップS201)。ここでは、たとえば、上述したうち、個数NTHのベースバンド信号x(t)の絶対値の平均値に係数K1を乗じて得られるものとする。
【0208】
次に、各データセットについてベースバンド信号x(t)としきい値THとを比較し、入力信号がしきい値THよりも大きい場合は、そのデータを含むデータセットは回帰関数の精度を悪くするデータセットであるとみなし、サポートベクトルに採用しない(ステップS202)。
【0209】
残りのデータセットの数をnとすると、データセットは、(V_z(Pi),Re{ys(Pi)})(i=1〜n)である。係数更新部42は、上記サポートベクトルに対応する係数の第1次近似と、その符号ベクトルSRを、図5におけるステップS102と同様にして計算する(ステップ203)。
【0210】
以下、図5のステップS104〜S116と同様の処理を、図13においても、ステップS204〜S216として実行する。
【0211】
次に、図14を参照して、新しい学習データセット(V_z(k),Re{ys(k)})の取得が行われる(ステップS218)。併せて、対応する入力信号のベースバンド信号x(t)も取得する。
【0212】
そのときの入力信号のベースバンド信号x(t)がしきい値TH以上である場合(ステップS219)、そのデータセットをサポートベクトルに採用しないで、処理は、ステップS218に復帰する。
【0213】
一方、ステップS219において、入力信号のベースバンド信号x(t)がしきい値THよりも小さい場合は、さらに、上述した式(28)により、誤差eRが計算される(ステップ220)。
以下、図6におけるステップS122〜128と同様の処理が、図14においても、ステップS222〜S228として実行される。
【0214】
以上の処理により、係数更新部42は、逐次適応的に係数ベクトルの更新を行う。
【0215】
SVM54は、係数更新部42で更新された係数αR(i)を用いて、上述した式(8)に従い、ベースバンド信号x(t)をベースバンド信号Re{y(t)}に変換する。サポートベクトルマシンSVM58は、上述したのと同様の手続きで、係数更新部66で更新された係数αI(i)を用いて、上述した式(9)に従い、ベースバンド信号x(t)をベースバンド信号Im{y(t)}に変換する。
【0216】
[シミュレーション結果]
以下、本発明の効果を示すために、シミュレーション結果を示す。
【0217】
以下のシミュレーションでも、NLDは増幅器とし、その入出力特性は次式で表されるものとする。
【0218】
【数39】
Figure 0004281419
その他の条件として、入力信号はOFDM信号とし、そのキャリア数は1405であり、FFTサイズは2048であるものとする。
【0219】
信号電力対雑音電力比(以下、「SNR」という)は、100(dB)である。入力電力は1とし、しきい値THは固定で0.8としている。
【0220】
データセット数は2000である。また、m=1とする。さらに、dは既知であるものとする。
【0221】
図15は、入力信号をバックオフ6(dB)で、増幅器16に通した後の信号スペクトラムである。すなわち、図15においては、前置型非線形歪補償システムを設けることなく、増幅器16で、入力信号を増幅した場合の特性のシミュレーション結果を示している。
【0222】
図15において、横軸は周波数キャリア番号、縦軸は電力を表している。非線形歪の影響を受けて、SNRは、約20(dB)にまで悪化している。
【0223】
さらに、図16は、このような状況において、データ選定部70が設けられていない前置型非線形歪補償システム1000による信号スペクトラムを示す。
【0224】
増幅器16のみの場合よりも信号帯域外のスペクトラムが上昇しており、逆にSNRは小さくなってしまう。これは、過剰に大きな信号を要素にもつデータセットがサポートベクトルとして採用されてしまったからである。そのデータセットにより回帰関数は、もはや増幅器の逆特性を正確に近似できるものではなくなっている。そのデータセット以降のデータセットは、すべてサポートベクトルとして採用されることになり、サポートベクトル数が多くなる。併せて、サポートベクトル係数は極端に大きな数字となり、やがて発散する。
【0225】
図17は、図16の状態におけるサポートベクトル係数を表す図である。図17において、横軸はサポートベクトル番号、縦軸はサポートベクトル係数値である。このとき、サポートベクトル数は約1450個と非常に多く、それに伴って計算量も莫大なものになっている。
【0226】
図18は、データ選定部70を搭載した本発明の前置型非線形歪補償システム2000による信号スペクトラムを示す図である。増幅器16のみの場合よりも信号帯域外のスペクトラムが下降しており、SNRは約30(dB)に改善された。これは、発散を招く原因となる過剰に大きな信号を要素にもつデータセットをサポートベクトルに採用しなかったことが理由であると考えられる。
【0227】
したがって、バックオフが小さい場合でも、本発明による方式により非線形歪の影響を小さくすることができる。
【0228】
図19は、図18におけるサポートベクトル係数を表す図である。サポートベクトル数は71個となっており、前置型非線形歪補償システム1000と比較して大幅にサポートベクトル数が減少していることが確認できる。併せて、カーネル行列の大きさが小さくなったことにより、計算量も格段に減少している。
【0229】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【0230】
【発明の効果】
以上説明したとおり、本発明によれば、サポートベクトルマシンを用いて、増幅器等の信号の変換回路の逆特性を有する信号を推定するので、ルックアップテーブルを必要としないため、ノイズフロアを低く押さえることができる。
【0231】
しかも、入力が複素信号である場合に適用可能であるので、簡単な構成で前置型非線形歪補償器を提供することも可能となる。
【0232】
さらに、学習する過程で、一度、サポートベクトルに加えられた信号ベクトルにおいて、不要となったサポートベクトルが削除されるため、高速処理が可能である。
【0233】
また、本発明により、SVRのみを用いた前置型非線形歪補償器歪においては、補償できない過剰に大きな信号をトレーニング用のデータセットから削除するので、回帰関数の精度を維持することができる。
【0234】
さらに、本発明により、データセットを削除したことにより計算が安定し、同時にサポートベクトル数を少なくすることができるため、計算量を大幅に削減することが可能となる。
【図面の簡単な説明】
【図1】 線形ε不感損失関数および二次ε不感損失関数を示す図である。
【図2】 線形近似関数とサポートベクトルとの関係を示す概念図である。
【図3】 非線形近似関数とサポートベクトルを示す概念図である。
【図4】 本発明の前置型非線形歪補償システム1000の構成を説明するための概略ブロック図である。
【図5】 係数の更新の具体的な計算方法を説明するための第1のフローチャートである。
【図6】 係数の更新の具体的な計算方法を説明するための第2のフローチャートである。
【図7】 サポートベクトルマシンによる近似学習がある程度進んだ状態において、サポートベクトルによる学習データの近似特性を示す概念図である。
【図8】 ε´の値を本来の不感帯を定義する値εよりも大きくすることの効果を説明するための概念図である。
【図9】 近似特性の逐次計算を進めた場合に、余分となったサポートベクトルの除去を行う手続きを説明するための概念図である。
【図10】 図9において、データD3について、損失の変化を説明するための概念図である。
【図11】 本発明の前置型非線形歪補償システム2000の構成を説明するための概略ブロック図である。
【図12】 データ選定部70の構成を説明するための概略ブロック図である。
【図13】 前置型非線形歪補償システム2000の係数更新の動作を説明するための第1のフローチャートである。
【図14】 前置型非線形歪補償システム2000の係数更新の動作を説明するための第2のフローチャートである。
【図15】 入力信号をバックオフ6(dB)で、増幅器16に通した後の信号スペクトラムである。
【図16】 データ選定部70が設けられていない前置型非線形歪補償システム1000による信号スペクトラムを示す。
【図17】 図16の状態におけるサポートベクトル係数を表す図である。
【図18】 データ選定部70を搭載した本発明の前置型非線形歪補償システム2000による信号スペクトラムを示す図である。
【図19】 図18におけるサポートベクトル係数を表す図である。
【図20】 一般な増幅器の入出力特性を示す図である。
【符号の説明】
2,18 ダウンコンバータ、4,20 A/D変換器、6,22 直交検波器、54,58,26,62 SVM、10 直交変調器、12 D/A変換器、14 アップコンバータ、16 増幅器、30,64 減算器、42,66 係数更新部、70 データ選定部、1000,2000 前置型非線形歪補償システム。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a front-end nonlinear distortion compensator, and more particularly to a front-end nonlinear distortion compensator using a support vector machine (hereinafter referred to as “SVM”) for regression analysis.
[0002]
[Prior art]
2. Description of the Related Art In recent years, a front-end nonlinear distortion compensator has attracted attention as a technique for compensating for nonlinear distortion of a nonlinear device (hereinafter referred to as “NLD”) in communication. As a typical pre-linear nonlinear distortion compensator, there are one using a look-up table and one estimating an inverse characteristic of NLD. Here, a typical example of the NLD is an amplifier.
[0003]
A pre-distortion distortion compensator using a look-up table divides the amplifier characteristics into small intervals with respect to the amplitude value of the input signal, and stores the representative values in the interval in a table to correspond to the transmission signal The output value is multiplied by the compensation value of the table to be output. A pre-linear distortion compensator that compares the pre-linear distortion compensator input with the NLD output and adaptively updates the compensation value in the table based on the result has already been developed.
[0004]
On the other hand, a pre-linear distortion compensator that estimates the inverse function of an amplifier is called a pth-order-predistorter. This front-end nonlinear distortion compensator approximates the inverse function of a signal converter with a complex polynomial. The complex polynomial is derived from the most common Volterra series as a non-linear function expression format, and distortion compensation is performed. In addition, a pre-linear nonlinear distortion compensator that compares the pre-linear nonlinear distortion compensator input and the NLD output and adaptively updates the complex polynomial coefficient based on the result has already been developed.
[0005]
However, in the front-end nonlinear distortion compensator using a look-up table, the values in the table take discrete values, and the floor noise increases due to the discontinuity of the values. In order to eliminate the floor noise, it is necessary to increase the number of data. However, there is a problem that increasing the number of data increases the memory capacity.
[0006]
In the pth-order-predistorter, it is necessary to increase the order of the complex polynomial in order to increase the calculation accuracy. For this reason, there is a problem that it takes time to calculate and the solution is difficult to converge.
[0007]
Furthermore, for a wideband signal, both the look-up table and the pth-order-predistorter need to compensate for the nonlinearity of the amplitude and phase for each frequency in the signal band, so that hardware implementation is difficult. There's a problem.
[0008]
By the way, in recent years, the problem of modeling processes from input / output observation data has been the object of research in many fields such as nonlinear regression problems and system identification. The problem of obtaining the optimum characteristics of the above-mentioned non-linear distortion compensator is that modeling the inverse function of the characteristics of the amplifier to be compensated is considered if the amplifier to be compensated for distortion is regarded as an unknown nonlinear system. The problem is reduced.
[0009]
Methods for dealing with such process modeling problems can be broadly divided into two categories: global modeling and local modeling.
[0010]
Local modeling includes weighted average method, local weight regression method and Just-in-time method which is database learning.
[0011]
On the other hand, global modeling is a method for creating a single function that fits all databases. The creation of such a function is a technique used in other methods of neural network modeling and nonlinear statistical regression.
[0012]
Such statistical learning theory for global modeling has existed since the 1960s, but since mid-1990, support vector machines have been proposed by VNVapnik et al. (See, for example, Non-Patent Documents 1 to 3).
[0013]
In general, process modeling based on statistical learning theory using such a support vector machine has the following characteristics.
[0014]
(1) Compared with other methods, the convergence speed is better.
(2) A unique solution can always be obtained.
[0015]
(3) It can be easily applied to various learning problems.
(4) Since the complexity of the problem is characterized by the number of support vectors that are independent of the dimension of the problem, it is possible to escape from the so-called “curse of dimensionality”.
[0016]
Further, the above-described support vector machine is extended to support vector regression (hereinafter referred to as “SVR”) that can be used for learning regression problems. Such SVR is disclosed in Non-Patent Document 4.
[0017]
Furthermore, Non-Patent Document 5 discloses an attempt to apply such a support vector machine to the above-described pre-linear distortion compensator.
[0018]
[Non-Patent Document 1]
VNVapnik: The Nature of Statistical Learning Theory, Springer-Verlag, New York (1995)
[0019]
[Non-Patent Document 2]
VNVapnik: Statistical Learning Theory, J. Willey & Sons, New York (1998)
[0020]
[Non-Patent Document 3]
B. Scholkopf et al.ed, "Advances in Kernal Methods", The MIT Press, 1999.
[0021]
[Non-Patent Document 4]
N. Cristianini, J. Shave-Taylor "An Introduction to Support Vector Machines", Cambridge University Press, 2000.
[0022]
[Non-Patent Document 5]
Takanori Ito, Hiromitsu Omori, Akira Sano B-5-124 "Adaptive Nonlinear Distortion Compensation Using Support Vector Method" Proceedings of the 2001 IEICE General Conference, p. 522, 2001
[0023]
[Problems to be solved by the invention]
However, in the case where the support vector machine is used for a pre-set nonlinear distortion compensator of a digital signal receiving apparatus, the following points need to be considered.
[0024]
Here, among NLDs used for communication, an amplifier has the most influence on transmission characteristics.
[0025]
FIG. 20 is a diagram showing input / output characteristics of a general amplifier.
As shown in FIG. 20, the operation is linear in a region where the input signal is small, but the output signal saturates as the input signal increases.
[0026]
Usually, in order to reduce the influence of the nonlinear distortion of such an amplifier, a margin is set for the amplifier, and the input level to the amplifier is lowered accordingly. This margin is called “back-off”.
[0027]
The amount of required back-off depends on the modulation scheme. For example, if the modulation method is π / 4 shift QPSK (Quadrature Phase Shift Keying), the back-off may be small because the amplitude fluctuation is small. However, for example, if the modulation method is orthogonal frequency division multiplexing (hereinafter referred to as “OFDM (Orthogonal Frequency Division Multiplexing)”), it is necessary to set a large back-off because the amplitude fluctuation is large.
[0028]
However, if the back-off is set to be large, the power efficiency of the amplifier is greatly degraded. Therefore, it is desirable to operate with a back-off as small as possible even for a signal having a large amplitude variation such as a signal.
[0029]
However, if the back-off is set to be small, a signal having excessively large distortion that cannot be compensated for by the pre-linear distortion compensator using global modeling such as SVR is input to the pre-linear distortion compensator. Will be.
[0030]
Here, the inverse characteristic of the amplifier, that is, the characteristic of the pre-linear distortion compensator that operates ideally is as shown in FIG. Here, the output of the front-end nonlinear distortion compensator becomes very large when the input is large. This also means that the input to the amplifier itself is very large.
[0031]
However, even if such a large input is input to the amplifier, the characteristics of the amplifier itself are saturated, so that the pre-linear nonlinear distortion compensator can no longer perform the compensation. In this case, in particular, in a system that learns the compensation operation like SVR, there arises a problem that effective learning cannot be performed.
[0032]
The present invention has been made in order to solve the above-described problems, and an object of the present invention is to be able to operate with as little back-off as possible even for a signal with large amplitude fluctuations, and to enable distortion compensation with high accuracy. It is to provide a pre-set nonlinear distortion compensator.
[0033]
[Means for Solving the Problems]
A non-linear distortion compensator according to an aspect of the present invention includes a conversion support vector machine that converts an input signal using an inverse characteristic of a signal converter and supplies the converted signal to the signal converter; In the support vector machine for conversion based on the signal vector constituted by the conversion output signal sequence received from the conversion output signal converted by the converter and the signal vector constituted by the conversion output signal sequence extracted in the past. An estimation support vector machine that estimates the converted input signal based on a loss function having a first dead band, and is connected to the conversion support vector machine and the estimation support vector machine, and the output of the conversion support vector machine and Based on the output of the support vector machine for estimation, the support vector machine for conversion and the support vector for estimation The coefficient updating means for updating the coefficient of the machine is compared with the input signal and the threshold value. When the input signal is larger than the threshold value, the data set including the input signal is not adopted as the support vector. Data selection means.
[0034]
Preferably, the coefficient updating means receives a converted output signal, is a vector composed of a signal sequence of the newly received converted output signal, and is a vector outside the second dead zone as a support vector candidate. In addition to the set of vectors already extracted as support vectors, the set of vectors is newly regarded as a set of support vectors, and a vector outside the first dead zone is selected from the set of vectors. Extraction means for re-extracting as a support vector, and calculation means for calculating a coefficient for the extracted support vector.
[0035]
Preferably, the threshold value is a predetermined constant.
Preferably, the data selection means sets a threshold value based on absolute values of a predetermined number of input signals in the past.
[0036]
Preferably, the data selection unit updates the threshold based on the absolute values of a predetermined number of past input signals within a predetermined period.
[0037]
Preferably, the signal converter is an amplifier.
[0038]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the same components are denoted by the same reference numerals, and their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
[0039]
[General theory of learning regression problems with support vector machines]
In the following, the learning of regression problems using a support vector machine, which is the premise for explaining the present invention, will be summarized.
[0040]
1-1. Learning linear regression problems
1-1-1 Linear regression problem
First, a method for solving a linear regression problem from the standpoint of Support Vector Regression (SVR) based on the idea of Support Vector Machine (SVM) will be described. This problem can be formulated as follows.
[0041]
[problem]
There is an unknown linear regression with m inputs and 1 output f: x → y, training data
(X 1 , Y l ), ..., (x n , Y n X i ∈ R m , y i ∈R (1.1)
Is given. At this time, a function that approximates this linear regression using training data
f (x, w) = w T x (1.2)
Ask for.
[0042]
1-1-2 Loss function
Here, a linear ε-insensitive loss function Lε (x, y, f (x, w)) and a quadratic ε-insensitive loss function L 2 ε (x, y, f (x, w)) is defined as follows.
[0043]
[Expression 1]
Figure 0004281419
FIG. 1 is a diagram showing such a linear ε insensitive loss function and a secondary ε insensitive loss function. FIG. 1A shows a linear ε dead loss function, and FIG. 1B shows a second order ε dead loss function.
[0044]
1-1-3 Regression problem with quadratic ε insensitive loss function
In the following, we consider support vector regression when using a second-order ε dead loss. The main problem based on the support vector machine can be expressed as follows.
[0045]
[Expression 2]
Figure 0004281419
This subject can be rewritten as follows:
[0046]
[Equation 3]
Figure 0004281419
Where C is a regularization parameter that sets a trade-off between model complexity and constraint relaxation (training error).
[0047]
[Expression 4]
Figure 0004281419
The following relationship is established according to the Karush-Kuhn-Tucker (KKT) condition for equation (1.10).
[0048]
[Equation 5]
Figure 0004281419
Substituting these relations into equation (1.10) can be rewritten as the following Somura problem.
[0049]
[Formula 6]
Figure 0004281419
Here, when the coefficient αi is replaced as follows, the expression (1.14) can be finally rewritten as the following expression (1.15). Further, the function f (x, w) = w approximating linear regression is obtained by the equation (1.11). T x is represented by the following formula (1.16).
[0050]
[Expression 7]
Figure 0004281419
FIG. 2 is a conceptual diagram showing the relationship between the linear approximation function and the support vector.
[0051]
In FIG. 2, “●” is a support vector, and the magnitude of error due to these approximate functions is larger than ε. “◯” is data in which the error due to the approximation function is smaller than ε, and these do not directly affect the approximation function.
[0052]
1-2 Learning nonlinear regression problems
1-2-1 Nonlinear regression problem
In the above description, linear regression using support vector regression (SVR) has been described. Below, the nonlinear regression using SVR which applied it is explained. This nonlinear regression problem can be formulated as
[problem]
There is an unknown nonlinear regression f: x → y with m inputs and 1 output, and training data
(X 1 , Y l ), ..., (x n , Y n X i ∈R m , y i ∈R (1.17)
Is given. At this time, the function f (x, w) = w that approximates this nonlinear regression using the training data T Find x. Here, a second-order ε insensitive loss function is used as the loss function.
[0053]
1-2-2 Feature space
In general, in order to apply to complex problems, it is necessary to think in a space where the expression ability is superior to that in the input space. Such a method is called higher dimension.
[0054]
Here, in order to cope with the nonlinear regression problem, a nonlinear mapping from the input space to the high-dimensional feature space is introduced. By mapping the input vector x from the input space X to the feature space F and regarding the vector φ (x) in the feature space as the input vector x thus far, the linear regression problem is handled not in the input space but in the feature space. However, φ: X → F is a nonlinear mapping from the input space to a certain feature space.
[0055]
This work essentially solves the nonlinear regression problem in the original input space.
[0056]
According to the Hilbert Schmidt theory, the inner product in the Hilbert space can be expressed as the following equivalent expression.
[0057]
[Equation 8]
Figure 0004281419
As shown below, when a linear problem is considered in the feature space, the equation (1.21) is obtained, and a function f (φ (x), w) = w that approximates linear regression is obtained. T φ (x) is as shown in equation (1.22). This equation (1.22) is a linear regression problem in the input space, and finally becomes equation (1.23) due to the relationship of equation (1.20). Furthermore, when equation (1.23) is expressed in vector, equation (1.24) is obtained, and when this nonlinear regression problem is solved, a nonlinear approximation function of equation (1.25) can be obtained.
[0058]
[Equation 9]
Figure 0004281419
Here, it should be noted that a kernel function K (x that can replace the inner product calculation in the feature space with the calculation in the input space. i , X j ) Does not include φ (x) in the equation (1.21) of the dual problem and the approximate function obtained by solving it, so in practice a nonlinear mapping from the input space to the feature space There is no need to calculate. This is called a “kernel trick”.
[0059]
Because of these features, support vector regression (SVR) can take very large feature space dimensions by introducing higher dimensions, and the model complexity and feature space dimensions are independent. It becomes possible to control. This allows SVR to escape the so-called dimensional curse.
[0060]
FIG. 3 is a conceptual diagram showing a nonlinear approximation function and a support vector. Also in FIG. 3, “●” is a support vector, and the magnitude of error due to these approximate functions is larger than ε. “◯” is data in which the error due to the approximation function is smaller than ε, and these do not directly affect the approximation function.
[0061]
1-2-3 Relationship between support vector and coefficient
In the SVR problem using the second-order ε insensitive loss function, the KKT conditions of the equations (1.11) to (1.13) are satisfied before the coefficient replacement from the equation (1.14) to the equation (1.15). After the replacement of the coefficients, the following relational expression is satisfied.
[0062]
[Expression 10]
Figure 0004281419
Further, since the second-order ε dead loss function has a dead zone ε, a data set (x that satisfies the following equation (1.27) whose magnitude of the estimation error is smaller than ε: i , Y i ) Must deviate from the support vector. Therefore, the magnitude of the support vector approximation error due to the obtained solution is as shown in Equation (1.28).
[0063]
[Expression 11]
Figure 0004281419
Furthermore, since the Lagrangian function is set as shown in Formula (1.10), the signs of Formulas (1.29) and (1.30) below are equal. Therefore, the coefficient α of the support vector, which is the solution of equation (1.23) i Satisfies the equation (1.31).
[0064]
[Expression 12]
Figure 0004281419
2-1 Method of the present invention for learning support vector regression
If the above-described method is to be executed as it is, if there is a lot of training data in the SVR problem, a great deal of time will be spent to solve the problem. Therefore, in the present invention, in order to efficiently solve the SVR problem, as described below, a basic update formula obtained by modifying the Newton-Raphson method is obtained, and a sequential update using the update formula is performed. Adopt a shape algorithm.
[0065]
2-1-1 Problem setting
Here, a method for solving the following problem using the second-order ε insensitive loss function will be described.
[0066]
[problem]
There is an unknown nonlinear regression f: x → y with m inputs and 1 output, and training data
(X 1 , Y l ), ..., (x n , Y n X i ∈R m , y i ∈R
Is given. At this time, in order to obtain the function of Equation (2.1) that approximates this nonlinear regression using training data, the maximization problem represented by Equation (2.2) is solved.
[0067]
[Formula 13]
Figure 0004281419
In SVR, a dead zone is provided when evaluating an error. Therefore, f (x, α) obtained by solving this problem and the training data must have the following relationship.
[0068]
That is, the data set (x i , Y i ) Is inside the deadband, that is, | y i -F (x i , Α) | ≦ ε, the coefficient is α i = 0.
[0069]
Conversely, the data set (x i , Y i ) Is outside the deadband, that is, | y i -F (x i , Α) |> ε, the coefficient α i Satisfies the above-described equation (1.31).
[0070]
In the learning of support vector regression described below, a method of excluding unnecessary data sets from the support vector is taken into consideration in consideration of the above relationship.
[0071]
2-1-2 Batch processing
In the following, a method will be described in which several data sets are extracted from n pieces of training data, and SVR is obtained using only the extracted data sets.
[0072]
(Modification of Newton-Raphson method)
Hereinafter, a method for solving the dual problem for the second-order ε-insensitive loss function by using the update equation by modifying the Newton-Raphson method will be described.
[0073]
When the maximization problem of equation (2.2) is expressed in vector, it becomes as in equation (2.3), and when the evaluation function W (α) is Taylor-expanded, it becomes as in equation (2.4).
[0074]
Then, assuming that W (α) is approximated by a quadratic function in the vicinity of αi, the processing is terminated by the third term of the above equation (2.4).
[0075]
[Expression 14]
Figure 0004281419
Α = αi giving the minimum value of the quadratic function approximation is given by the condition of the following equation (2.5), and α = αi giving such a minimum value is sequentially given by the following equation (2. The relationship of 6) is satisfied (Newton-Raphson method).
[0076]
[Expression 15]
Figure 0004281419
(How to update α (when the initial value is 0))
When obtaining α based on the Newton-Raphson method, the initial value α 0 Consider the case of = 0. In equation (2.6), α 0 When = 0, the following expressions (2.12) and (2.13) are satisfied. However, in the present invention, ε = 0 is corrected as shown in expression (2.14).
[0077]
[Expression 16]
Figure 0004281419
After that, further updating using equation (2.6) gives the following equations (2.15) and (2.16). In addition, αi 1 When ≠ 0, the formula (2.17) is established, so the formula (2.16) is expressed by the formulas (2.18) and (2.19).
[0078]
[Expression 17]
Figure 0004281419
When the following equation (2.20) is established with the coefficient vector α thus obtained, equation (2.21) is obtained, and therefore the above equation (1.31) must be satisfied. Recognize.
[0079]
[Formula 18]
Figure 0004281419
However, when the obtained solution does not satisfy the equation (2.20), the solution does not satisfy the equation (1.31) and is not suitable as a solution.
[0080]
(Removal method of excess data set)
Next, let us consider the case where equation (2.20) is not satisfied.
[0081]
If the equation (2.20) is not satisfied, the obtained solution does not satisfy the equation (1.31) and does not satisfy the KKT condition, and thus is not a solution. Therefore, in such a case, an extra data set (x i , Y i ) Are present in the current support vector candidates, and the extra data set is removed from the current support vector interpolation.
[0082]
In the following, a method for selecting an extra data set will be described below.
First, the coefficient vector αn is calculated based on the following equation (2.22) using the above update equation. sv (Initial value: 0).
[0083]
Next, the coefficient vector αn sv Each element of is not zero (α i ≠ 0, i = 1, ..., n sv Then, the step size η (0 <η ≦ 1) is introduced into the update formula (2.6), and a new update formula like the following formula (2.23) is created.
[0084]
[Equation 19]
Figure 0004281419
Coefficient vector αn using this update formula sv The coefficient vector αn before and after the update sv The update is performed within a range where the sign of each element does not change.
[0085]
Next, how to determine the step size will be described.
The closer the step size is to 1, the larger the evaluation function becomes. Therefore, it is desirable that the step size is as close to 1 as possible. Therefore, the step size is obtained as follows.
[0086]
First, the step size vector is calculated by the following equation (2.24).
[0087]
[Expression 20]
Figure 0004281419
However, the step size vector η = [η 1 , ..., ηn sv ] T And η i Is the step size η = η in the update formula (2.23) i And the coefficient vector αn sv Update α i = 0.
[0088]
Next, among the elements of the step size vector η, updating is performed using the smallest element ηi that is 0 or more and the step size. At this time, α i = 0 and the data set (x i , Y i ) Is an extra data set and is removed from the support vector as shown in the following equation (2.25).
[0089]
[Expression 21]
Figure 0004281419
As a result, the number of support vectors decreases (n sv ← n sv -1).
[0090]
After the number of support vectors decreases, the coefficient vector αn again from the update formula (2.23) sv Update. At this time, as before, the coefficient vector αn before and after the update. sv In order to perform the update within a range where the sign of each element does not change, the step size η is obtained from the equation (2.24).
[0091]
The smallest element η greater than or equal to 0 among the elements of the step size vector η i Is 1 or more, the coefficient vector αn updated with η = 1 in the update formula (2.23) sv Shows that the sign of each element does not change before and after the update.
[0092]
At this time, the coefficient vector αn sv Will be determined. Conversely, the smallest element η that is greater than or equal to 0 among the elements of the step size vector η i Is smaller than 1, the step size η = η in the update formula (2.23) as before i Coefficient vector αn sv Update the dataset (x i , Y i ) Is removed from the support vector. Thereafter, coefficient vector αn sv Repeat this process until it is determined.
[0093]
2-1-3 Sequential processing
In the above description, a method has been described in which several data sets are extracted from n pieces of training data, and the SVR is obtained only from the extracted data sets. However, since the inverse matrix is calculated in batch processing, the number of data to be handled is limited. In order to avoid such a problem, the sequential processing will be described next.
[0094]
Here, there is already an approximate function by SVR like the following formula (2.26), and new training data (x s , Y s The method of updating the approximate function by SVR will be described using FIG.
[0095]
[Expression 22]
Figure 0004281419
First, new training data (x s , Y s ) Is inside the dead zone.
[0096]
If the following equation (2.27) holds, it means that it is inside the dead zone and SVR update is not necessary, but new training data (x s , Y s ) Is outside the dead zone, that is, if the following equation (2.28) is satisfied, the SVR needs to be updated.
[0097]
[Expression 23]
Figure 0004281419
Therefore, new training data (x s , Y s ) Is outside the dead zone.
[0098]
At this time, (x 1 , Y 1 ), ..., (xn sv , Yn sv ), (X s , Y s ) Is considered a support vector.
[0099]
If the coefficient vector α is to be updated using the equation (2.23) shown earlier, new training data (x s , Y s ) Coefficient α s Since this is not determined, the initial value of this value is set to 0.
[0100]
However, if this is the case, when calculating formula (2.23), sign (α s ) = 0, and even if the coefficient vector α is updated as it is, the KKT condition is not satisfied.
[0101]
Therefore, the update formula (2.23) is changed as follows.
[0102]
[Expression 24]
Figure 0004281419
After this, consider updating α using the update formula (2.29). Again, before and after the update, the coefficient vector αn sv In order to perform updating within a range in which the sign of each element does not change, Equation (2.24) is changed as follows to obtain the step size η.
[0103]
[Expression 25]
Figure 0004281419
Thereafter, α is updated as in the batch processing, and α is determined.
[0104]
In practice, the present invention uses an algorithm for obtaining SVR for a case where a large amount of training data sets are provided, as will be described in the following processing of the predistortion system.
[0105]
This algorithm is a calculation method that combines batch processing and sequential processing.
[0106]
[Configuration not taking into account saturation characteristics of non-linear devices (NLD)]
FIG. 4 is a precondition for understanding the configuration of the pre-linear nonlinear distortion compensation system of the present invention. 1 is a schematic block diagram showing 1000. FIG.
[0107]
In the example shown in FIG. 4, the distortion of the output of the amplifier 16 is compensated by a pre-set nonlinear distortion compensator.
[0108]
Referring to FIG. 4, the front-end nonlinear distortion compensation system 1000 includes a radio frequency signal S. IN Is converted to an intermediate frequency signal, an A / D converter 4 connected to the down converter 2 for sampling the intermediate frequency signal output from the down converter 2 and converting it into a digital signal, and an A / D converter 4 is connected to the quadrature detector 6 for converting the sampled intermediate frequency signal to the baseband signal x (t), and the quadrature detector 6 is connected to the signal x (t) for the inverse characteristic of the amplifier 16 described later. Is connected to the SVM 54 for converting the real part Re {y (t)} of the baseband signal y (t) to the quadrature detector 6, and the signal x (t) is converted into the signal using the inverse characteristic of the amplifier 16. The SVM 58 that converts the baseband signal y (t) to the imaginary part Im {y (t)} and the SVMs 54 and 58 are connected to convert the converted baseband signal y (t) into an intermediate frequency signal. And 交変 modulator 10, is connected to the quadrature modulator 10, and a D / A converter 12 for converting the intermediate frequency signal to an analog signal output from the quadrature modulator 10.
[0109]
In the present invention, the baseband signal output unit of the radio transmitter is connected in place of the receiving unit 1 including the down converter 2, the A / D converter 4 and the quadrature detector 6 in FIG. It is applicable also to an aspect.
[0110]
The front-end nonlinear distortion compensation system 1000 is further connected to the D / A converter 12 and converts the analog intermediate frequency signal to the radio frequency signal S. 0 And an output signal S output from the amplifier 16 and connected to the amplifier 16. OUT Is converted to an intermediate frequency signal, a down converter 18 connected to the down converter 18, an A / D converter 20 converting the intermediate frequency signal into a digital signal, and an A / D converter 20 connected to And a quadrature detector 22 for converting to a band signal z (t).
[0111]
The pre-linear distortion compensation system 1000 further includes a signal z (t) output from the quadrature detector 22 and a baseband signal vector V_z (p) used for learning. i ) (I = 1,..., N R ), The SVM 26 that outputs the estimated value Re {y ′ (t)} of the real part of the baseband signal output from the SVM 54, the signal z (t) output from the quadrature detector 22, and the baseband signal. Vector V_z (q j ) (J = 1,..., N I ) And the SVM 62 that outputs the estimated value Im {y ′ (t)} of the imaginary part of the baseband signal output from the SVM 58, and the estimated value of the real part of the baseband signal connected to the SVM 54 and SVM 26. A subtractor 30 for calculating a difference between Re {y ′ (t)} and a real part Re {y (t)} of the baseband signal y (t), and an imaginary part of the baseband signal connected to the SVM 58 and the SVM 62 The subtractor 64 that calculates the difference between the estimated value Im {y ′ (t)} of the baseband signal y (t) and the imaginary part Im {y (t)} of the baseband signal y, and the quadrature detection unit 6 and the quadrature detection unit 22 An m · d determining unit 44 for determining the size m of the signal vector and the support vector and the delay time d by the amplifier 16, the subtractor 30, SVM 54, SVM 26, the quadrature detection unit 22, and the m · d determination. Is connected to 44, the output of the subtractor 30 based on the output of the output and m · d determiner 44 of the quadrature detector 22, in SVM54 and SVM26, coefficients of the function having the inverse characteristic of the amplifier 16 alpha R The coefficient updating unit 42 that updates (i), the subtractor 64, the SVM 58, the SVM 62, the output of the quadrature detection unit 22 and the m · d determination unit 44, and the output of the subtractor 64, the output of the quadrature detection unit 22, and Based on the output of the m · d determining unit 44, the coefficient α of the function having the inverse characteristic of the amplifier 16 in the SVM 58 and the SVN 62 I A coefficient updating unit 66 for updating (j).
[0112]
The SVM 26 obtains an estimated value Re {y ′ (t)} of the real part of the baseband signal according to a method described later. The SVM 62 obtains an estimated value Im {y ′ (t)} of the imaginary part of the baseband signal according to the same method as the SVM 26.
[0113]
The coefficient updating unit 42 calculates an error e between Re {y (t)} and Re {y ′ (t)}. R The coefficient α so that (t) is minimized R Control (i). Similar to the coefficient updating unit 42, the coefficient updating unit 66 performs an error e between Im {y (t)} and Im {y ′ (t)}. I Α so that (t) is minimized I (J) is controlled.
[0114]
The quadrature detector 6 is realized in analog, the output of the down converter 2 is received by the quadrature detector 6, the output of the quadrature detector 6 is converted to digital by the A / D converter 4, and the output is supplied to the SVM 8. You may be the structure to do. Further, the quadrature modulator 10 is realized in analog, the outputs of the SVM 54 and SVM 58 are received by the D / A converter 12, the output of the D / A converter 12 is received by the quadrature modulator 10, and the output of the quadrature modulator 10 is received. The configuration may be such that the up-converter 12 is supplied. Further, the quadrature detector 22 is realized in analog, the output of the down converter 18 is received by the quadrature detector 22, the output of the quadrature detector 22 is received by the A / D converter 20, and the output of the A / D converter 20 is received. The configuration may be such that the SVM 26 and the SVM 62 are supplied.
[0115]
(Operation of Prefix Nonlinear Distortion Compensation System 1000)
Hereinafter, the operation of the front-end nonlinear distortion compensation system 1000 will be described.
[0116]
First, in FIG. IN , S 0 And S OUT Are represented by formulas (1) to (3), respectively.
[0117]
S IN = Re {x (t) exp (j2π (f RF t)}
: Input signal to the front-end nonlinear distortion compensator (1)
S 0 = Re {y (t) exp (j2π (f RF t)}
: Distortion compensated signal (2)
S OUT = Re {z (t) exp (j2π (f RF t)}
: Output signal from amplifier 16 (3)
x (t), y (t) and z (t) are respectively the band signals S IN , S 0 And S OUT The complex envelope (baseband signal). j represents an imaginary number. f RF Represents a radio frequency. t represents time.
[0118]
[Operation principle of nonlinear distortion compensator]
P = | y (t) | 2 Assuming that the input / output characteristics in the baseband region of the amplifier 16 is f (P), where f (P) is a complex function, the relationship between the baseband signals y (t) and z (t) is expressed by the following equation (4) It can be expressed as
[0119]
Furthermore, in general, in the nonlinear distortion compensator, an object is to obtain an input / output characteristic g (P) that satisfies the relationship of the following expression (5) with respect to f (P). If the input / output characteristic g (P) can be obtained, the following equations (6) and (7) hold, and S IN Against S OUT Can be linearized.
[0120]
[Equation 26]
Figure 0004281419
In the front-end nonlinear distortion compensation system 1000, g (P) is estimated by the SVM 26 and the coefficient update unit 42, and the SVM 62 and the coefficient update unit 66. Specifically, the functions of SVM26 and SVM62 are such that the error e (t) between y (t) and y ′ (t) estimated from z (t) is minimized in each of the real part and the imaginary part. Update the coefficient. If this calculation converges, the characteristic approximated by SVM 26 and SVM 62 corresponds to the inverse characteristic of amplifier 16.
[0121]
[Inverse characteristic function calculation]
The conditions for calculating the inverse characteristic function as described above are summarized below.
Calculations for nonlinear distortion compensation are performed on discrete signals rather than time continuous signals. In the case of hardware, an A / D converter is used to convert a continuous signal into a discrete signal, and after the calculation, the discrete signal is restored to a continuous signal by the D / A converter.
・ Signal processing is performed not on the band system but on the baseband system or the intermediate frequency signal. In the case of a baseband system, the amplifier 16 can be regarded as a system that receives a complex baseband signal y (t) equivalently and outputs a complex signal z (t).
[0122]
[Description of operation of support vector machine]
At time kT (T: sampling interval of A / D conversion and D / A conversion), the output Re {y (kT)} of the support vector machine SVM 54 and the output Im {y (kT)} of the SVM 58, and the support vector machine The output Re {y ′s (kT)} of the SVM 26 and the output Im {y ′s (kT)} of the SVM 62 are obtained by the following equations (8) to (11).
[0123]
[Expression 27]
Figure 0004281419
Here, the variable prefix “V_” indicates that the variable is a vector. M is the size of a signal vector and a support vector described later, n R , N I Are the number of support vectors for the real and imaginary support vector machines, respectively, and p i Is the time when the i-th support vector was acquired, and q j Is the time when the j-th support vector was acquired.
[0124]
V_z (p i T) (i = 1,..., N R ), V_z (q j T) (j = 1,..., N I )
Is a support vector extracted by time kT as a result of learning the input / output characteristics of the amplifier 16.
[0125]
α R (I), α I (J) is V_z (p i T), V_z (q j T) is a weighting factor (real number). In general, α R (I) (or α I When (j)) is zero, the corresponding V_z (p i T) (or V_z (q j T)) need not be added to the calculation and may be discarded. The non-zero coefficient α R (I) (or α I The number of (j)) is called the dimension of the support vector machine. For example, if the number of non-zero coefficients is 73, the support vector machine has 73 dimensions. Furthermore, the number of dimensions does not increase beyond a certain value even if the learning data is increased. This upper bound value is called a VC (Vapnik and Chervonenkis) dimension.
[0126]
K (V_x, V_y) is a function of “inner product kernel”, and in the pre-linear nonlinear distortion compensation system 1000, equations (8) to (11), which are linear sums of inner product kernels, are converted into appropriate coefficients α. R (I), α I By selecting (j), the goal is to match the inverse characteristic g (P) of the input / output characteristic of the amplifier 16. Such general problems that fit the input / output functions of the system to unknown functions are collectively called “regression problems”. The following equations (15) to (17) are examples of commonly used inner product kernels.
[0127]
[Expression 28]
Figure 0004281419
Which inner product kernel is most suitable for expressing the inverse function varies depending on the system. In practice, the best characteristic is selected after performing several tests before operation. Of course, a function other than the above may be used as long as the inverse function g (P) can be estimated better and the expected effect can be obtained.
[0128]
[Description of operation of coefficient updating unit 42]
In the following, the coefficient α corresponding to the support vector R (I), α I The operations of the coefficient updating unit 42 and the coefficient updating unit 66 that perform the update calculation of (j) will be described.
[0129]
As described above, the coefficient updating unit 42 determines the error e between Re {y (t)} and Re {y ′ (t)}. R The coefficient α so that (t) is minimized R (I) is controlled. On the other hand, the coefficient updating unit 66 calculates the error e between Im {y (t)} and Im {y ′ (t)}. I The coefficient α so that (t) is minimized I (J) is controlled.
[0130]
[Expression 29]
Figure 0004281419
In the following description, T = 1 is set for simplicity of description. Even in this way, generality is not lost.
[0131]
Coefficient α R (I) is obtained by solving the optimization problem of maximizing the evaluation function W expressed by the following equation (20). The coefficient α I The same applies to (j).
[0132]
[30]
Figure 0004281419
However, the constant C and the constant ε are usually obtained experimentally.
[0133]
Until the learning of the input / output characteristics of the amplifier 16 is completed, the addition / deletion of support vectors is repeated. R (I), α I It is necessary to update the value of (j).
[0134]
Hereinafter, the operation of the coefficient updating unit 42 will be described as an example. The operation of the coefficient updating unit 66 is basically the same as that of the coefficient updating unit 42 except that the input variables are different.
[0135]
As will be described in detail later, one of the features of the update calculation of the coefficient update unit 42 is that the coefficient α is sequentially calculated as follows. R Updating the value of (i).
(1) In the middle of the update calculation, the coefficient updating unit 42 sets n−1 sets of support vectors V_z (p i ) And coefficient α R (I) is acquired.
(2) The coefficient updating unit 42 further uses the data V_z (p) as the nth support vector candidate. n ).
(3) V_z (p n ) As a support vector and its coefficient is α R (N) = 0.
(4) V_z (p n ) To compensate for the deviation (perturbation) from the optimal solution due to the addition of R (I) Error (perturbation) Δα with respect to (i = 1,..., N) R (I) is calculated.
[0136]
By extracting the support vectors sequentially as described above, the number of coefficients to be calculated in one coefficient update can be reduced, so that the amount of calculation can be reduced.
[0137]
[Specific calculation method for coefficient update]
A specific example of the coefficient updating method is shown below. However, this specific example is an example of realization and does not necessarily have to be this way.
[0138]
5 and 6 are flowcharts for explaining a specific calculation method for updating the coefficients.
[0139]
Referring to FIG. 5, the coefficient updating unit 42 first sets n data sets (V_z (P i ), Re {ys (P i )}) (I = 1 to n) are taken out and adopted as support vectors (step 100).
[0140]
Next, the coefficient updating unit 42 performs first-order approximation of the coefficient corresponding to the support vector and the code vector S R Is calculated by the following equations (21) and (22) (step 102).
[0141]
[31]
Figure 0004281419
Furthermore, the step size vector [η R (1), ..., η R (N)] T Is calculated by the following equations (24) and (25) (step S104).
[0142]
[Expression 32]
Figure 0004281419
The smallest element of step size vector greater than or equal to 0 is η R (Ν) (step S106), element η R It is determined whether (ν) is 1 or more (step S108).
[0143]
First, the element η R If (ν) is less than 1, then the element η R (Ν) and the coefficient vector [α R (1), ..., α R (N)] T Is updated (step S110).
[0144]
[Expression 33]
Figure 0004281419
Then, (V_z (Pν), Re {ys (Pν)}) is removed from the support vector as an extra data set, and the coefficient α R (Pν) is also deleted (step S112). Corresponding to such deletion, for i> ν, the time when the i-th learning data is acquired and the coefficient α according to the following table: R Change the number in (i).
[0145]
[Table 1]
Figure 0004281419
Further, a process of newly replacing (n-1) with n is performed (step S114). After the above replacement procedure, the process returns to step S104.
[0146]
On the other hand, in step S108, the element η R When (ν) is 1 or more, a coefficient vector is calculated again by the following equation (27) (step S116).
[0147]
[Expression 34]
Figure 0004281419
Next, referring to FIG. 6, a new learning data set (V_z (k), Re {ys (k)}) is acquired (step S118).
[0148]
Further, the error e is expressed by the following equation (28). R Is calculated (step 120). Subsequently, the error e R Is compared with the threshold value ε ′ (step S122), and | e R If | <ε ′, the process returns to step S118. Here, ε ≦ ε ′.
[0149]
[Expression 35]
Figure 0004281419
On the other hand, | e R If | ≧ ε ′, the coefficient α according to the following equations (29) to (30) R (1), ..., α R (N) and error e R For each of these, a code is calculated and the code vector is replaced (step S124), [α R (1), ..., α R (N), 0] are newly replaced with coefficient vectors, and (n + 1) is newly replaced with n (step S126).
[0150]
[Expression 36]
Figure 0004281419
(V_z (k), Re {ys (k)}) is adopted as the nth support vector (V_z (Pn), Re {ys (Pn)}), and the process returns to step S104 (step S128). .
[0151]
Through the above processing, the coefficient updating unit 42 sequentially updates the coefficient vector adaptively.
[0152]
[Description of operation of support vector machines SVM 54 and 58]
The SVM 54 uses the coefficient α updated by the coefficient updating unit 42. R Using (i), the baseband signal x (t) is converted into the baseband signal Re {y (t)} according to the above-described equation (8). The support vector machine SVM 58 uses the same procedure as described above to update the coefficient α updated by the coefficient update unit 66. I Using (i), the baseband signal x (t) is converted into the baseband signal Im {y (t)} according to the above-described equation (9).
[0153]
[Description of characteristic procedures in sequential computation]
As described above, according to FIGS. 5 and 6, by using a support vector machine, when a variable representing the process is represented by a complex number, by solving the regression problem, The configuration for realizing the compensation system has been described. In particular, in the processing performed by the coefficient updating unit 42, a description will be added below regarding characteristic procedures.
[0154]
FIG. 7 is a conceptual diagram showing approximate characteristics of learning data based on a support vector in a state where approximate learning by a support vector machine has advanced to some extent with respect to a one-input one-output nonlinear regression f: x → y.
[0155]
In FIG. 7, “loss” represents an approximate characteristic based on an ε-insensitive secondary loss function. That is, “loss” is defined as a value obtained by subtracting the dead zone boundary value closer to the learning data from the two dead zone boundary values obtained by adjusting the one-sided width of the dead zone to the approximate characteristic.
[0156]
In FIG. 7, double circles represent data that are support vectors, and single circles represent data that is present inside the dead zone for the approximate characteristics of the support vectors and are not support vectors. If the data represented by double circles in FIG. 7 is a true support vector according to the definition of the support vector, no support vector exists outside the true support vector.
[0157]
Here, for example, support vector data D1 = (x above the approximate characteristic by the support vector and outside the dead zone. 1 , Y 1 ), The loss L1 for the data D1 is expressed by the following equation.
[0158]
L1 = α 1 / C
Where α 1 Is the support vector x 1 Is a coefficient for. At this time, the loss of the data D1 is “upward and outward” corresponding to the fact that this data is above the approximate characteristic by the support vector, and α 1 > 0.
[0159]
On the other hand, for example, below the approximate characteristic by the support vector, and
Support vector data D2 = (x outside the dead zone 2 , Y 2 ), The loss L2 for this data D2 is also L2 = α 2 It is represented by / C.
[0160]
At this time, the loss of the data D2 is “downward and outward” corresponding to the fact that this data is below the approximate characteristic by the support vector, and α 2 <0.
[0161]
(Setting of the value of ε ′ in step S122)
It is possible to perform the calculation even if the value of ε ′ is the same as the value ε that defines the original dead zone. However, in the present invention, the value of ε ′ is set larger than the value ε that defines the original dead zone.
[0162]
Therefore, based on the above preparation, first, the reason why the value of ε ′ is made larger than the value ε that defines the original dead zone in step S122 of FIG. 6 will be described.
[0163]
FIG. 8 is a conceptual diagram for explaining the effect of making the value of ε ′ larger than the value ε that defines the original dead zone.
[0164]
When ε is replaced with ε ′ in step S122 with respect to the original dead zone determined by ε, the region determined by ε ′ is defined as an “extended dead zone” with respect to the original dead zone.
[0165]
The extended dead zone is used only in step S122, and the dead zone in the other steps is determined by ε.
[0166]
In FIG. 8, it is assumed that the approximate characteristic based on the support vector in the middle of learning is represented by a straight line LSV, and the approximate characteristic in a state where the approximation is further advanced than this approximate characteristic is represented by a curve CSV. However, the reason that the “approximate characteristic by the support vector during learning” is a straight line is for convenience of explanation, and more generally, this characteristic is also expressed by a curve.
[0167]
First, for the approximate characteristic LSV, when the extended dead zone is defined by the threshold value ε ′ (= ε), the data D3 is data that does not eventually become a support vector, but at the stage of the approximate characteristic LSV, It will be selected as a support vector. This is the same when the threshold value defining the extended dead zone is defined by a threshold value ε ′ (1) larger than the threshold value ε.
[0168]
On the other hand, for the approximate characteristic LSV, when the extended dead zone is defined by a threshold value ε ′ (2) that is larger than the threshold value ε ′ (1), the data D3 is also in the stage of the approximate characteristic LSV. Not selected as support vector.
[0169]
As described above, in the present invention, in order to reduce the amount of calculation, data that is no longer selected as a support vector during the sequential calculation is excluded from the calculation target.
[0170]
Therefore, if the threshold value ε ′ used in step S122 of FIG. 6 is set in advance as a threshold value ε ′ larger than the threshold value ε corresponding to the original dead zone, it should be excluded as the calculation proceeds. In the first place, the probability of selecting the data as a support vector is reduced, so that a further reduction in the amount of calculation can be expected.
[0171]
That is, once an old data set extracted as a support vector is repeated as learning (addition of a new support vector) progresses, it is repeatedly made unnecessary and removed as a support vector. The learning is finished because it becomes unnecessary. However, by reducing “repetition of addition / removal of support vectors”, it is possible to reduce the amount of calculation and shorten the time until the end of learning.
[0172]
It is also possible to perform a process of bringing the threshold ε ′ (≧ ε) closer to ε as the frequency of adding a new support vector decreases. In this case, learning is performed at an early stage up to a certain degree of approximation accuracy, and the final accuracy ε can be reliably obtained.
[0173]
In addition, the coefficient updating unit 42 and the coefficient updating unit 66 include a counter that counts the number of learning data received from the quadrature detector 22, and updates the threshold ε ′ every time a certain number of data is received, to ε. It is also possible to perform a process of approaching.
[0174]
Alternatively, the coefficient updating unit 42 and the coefficient updating unit 66 have a counter that measures time or a counter that counts the number of extracted support vectors, and sets the threshold value ε ′ according to the length of the processing period. It is also possible to perform a process of approaching ε while updating.
[0175]
(Criteria for deleting support vectors)
Further, the criteria for deleting the support vector in steps S110 to S114 in FIG. 5 will be further described.
[0176]
FIG. 9 is a conceptual diagram for explaining a procedure for removing an extra support vector when the approximate characteristic is sequentially calculated from the state shown in FIG.
[0177]
In the following description, since the data D3 is outside the dead zone determined by the threshold value ε and the approximate characteristic LSV in the state shown in FIG. 8, the data D3 is selected as the support vector, and the state shown in FIG. As the approximation proceeds, this data D3 is removed from the support vector, while data D1 is newly added as a support vector.
[0178]
FIG. 10 is a conceptual diagram for explaining a change in loss for data D3 in FIG.
[0179]
In this example, the coefficient corresponding to the data D3 is expressed by the approximate characteristic represented by the straight line LSV. i (1) and the coefficient corresponding to the data D3 in the approximate characteristic represented by the curve CSV is α i It shall be expressed as (2).
[0180]
Corresponding to the existence of the data D3 outside the dead band boundary of the straight line LSV, the loss of the data D3 with respect to the straight line LSV is α i (1) / C (α i (1)> 0).
[0181]
On the other hand, corresponding to the presence of data D3 inside the dead zone boundary of curve CSV, the loss of data D3 for curve CSV is α i (2) / C (α i (2) <0).
[0182]
Therefore, the approximation progresses, and the amount of change in loss due to the change of the approximate characteristic by the support vector from the straight line LSV (more generally a curve) to the curve CSV is expressed as −Δα. i / C, the step size η used in step S108 is η = −α. i (1) / Δα i It is expressed.
[0183]
At this time, if 0 ≦ η <1, the data D3 exists between the dead zone boundary of the straight line LSV (more generally a curve) and the dead zone boundary of the curve CSV as shown in FIG. Will do. In other words, “data D3 has been removed from the support vector by changing the approximate characteristic of the support vector from the straight line LSV (more generally, a curve) to the curved line CSV”. be able to. In the above description, the case where the data is on the upper side of the approximate characteristic has been described, but the same applies to the case where the data is on the lower side of the approximate characteristic.
[0184]
Therefore, by determining based on the criteria as in step S108 of FIG. 5, it is possible to determine whether or not the data that has been selected as the support vector so far should be excluded from the support vector.
[0185]
In the above example, the support vector machine is used for correcting the output of the amplifier 16 having a nonlinear input / output characteristic whose input / output characteristic is unknown. However, the present invention is applicable only to the amplifier 16. is not. In general, the present invention can be applied to a conversion circuit for a signal in which an input signal can be expressed by a complex number and the input / output characteristics are unknown.
[0186]
As described above, according to the front-end nonlinear distortion compensation system 1000, a signal having the inverse characteristic of the amplifier 16 is estimated using the SVM 26 and the SVM 62. Based on the signal and the signals output from the SVM 54 and SVM 58, the coefficient updating unit 42 and the coefficient updating unit 66 update the coefficient of the function having the inverse characteristic of the amplifier 16.
[0187]
Since this configuration does not require a look-up table, the noise floor can be kept low, and it can be applied when the input is a complex signal. Therefore, the front-end nonlinear distortion compensator can be configured with a simple configuration. Can be provided. Further, the support vector machine is simpler to calculate and has a faster convergence time than the pth-order-predistorter. Further, since the support vector that has become unnecessary is deleted from the signal vector once added to the support vector during the learning process, a pre-linear distortion compensator capable of high-speed processing can be provided.
[0188]
When a wideband signal is input, it is possible to compensate by appropriately setting the data vector size m even when the nonlinearity of the amplifier is narrower than the signal band.
[0189]
[Preliminary Nonlinear Distortion Compensation System 2000 of the Embodiment of the Present Invention]
The configuration and operation of the front-end nonlinear distortion compensation system 1000 shown in FIG. 4 have been described above.
[0190]
Although the front-end nonlinear distortion compensation system 1000 has the above-described characteristics, there are the following problems in the amplifier having the input / output characteristics as shown in FIG.
[0191]
That is, when the input to the amplifier is large, the output is suppressed to a certain value due to the saturation characteristic of the amplifier. Since the saturated output becomes the input of the estimation SVMs 26 and 62, the output of the estimation SVMs 26 and 62 is smaller than the output of the conversion SVMs 54 and 58.
[0192]
Therefore, the difference between the outputs of the estimation SVMs 26 and 62 and the outputs of the conversion SVMs 54 and 58 becomes a very small value when the input signal is small, but becomes large due to the influence of nonlinear distortion when the input is large.
[0193]
In the method of the pre-linear distortion compensation system 1000 shown in FIG. 4, when the difference between both SVM outputs is larger than a preset dead band ε ′ for each training data, it is adopted as a support vector. The difference between the two SVM outputs in the training data having an excessively large amplitude is surely larger than the dead zone ε ′ and is adopted as a support vector. For this reason, all support vectors are updated by this training data, and the approximation accuracy of the regression function is deteriorated. By employing a plurality of such training data, the accuracy of the regression function becomes worse and divergent in some cases.
[0194]
FIG. 11 is a schematic block diagram for explaining the configuration of the pre-linear distortion compensation system 2000 of the present invention.
[0195]
Compared to the front-end nonlinear distortion compensation system 1000 shown in FIG. 4, the front-end nonlinear distortion compensation system 2000 further includes a data selection unit 70. Since the other configuration of the front-end nonlinear distortion compensation system 2000 is the same as that of the front-end nonlinear distortion compensation system 1000, the same portions are denoted by the same reference numerals, and description thereof will not be repeated.
[0196]
In FIG. 11, the nonlinear device 16 is assumed to be an amplifier having input / output characteristics as shown in FIG.
[0197]
Referring to FIG. 11, data selection unit 70 compares input baseband signal x (t) with a threshold value TH described later, and signal x (t) is larger than the threshold value. The data set including the signal x (t) is not adopted as a support vector.
[0198]
FIG. 12 is a schematic block diagram for explaining the configuration of the data selection unit 70.
Referring to FIG. 12, data selection unit 70 selects at least a designated number N of selection units 702 for selecting a path for transmitting baseband signal x (t). TH A memory 704 for receiving and storing a plurality of baseband signals x (t) from the selection unit 702, and a threshold for calculating a threshold TH from the baseband signal x (t) stored in the memory 704 The baseband signal x (t) from the determination unit 706 and the selection unit 702 is compared with the threshold value TH, and the baseband signal x (t) less than or equal to the threshold value TH is selectively updated by the coefficient updating units 42 and 66. And a comparison unit 708 for providing the data.
[0199]
Here, the threshold value determination unit 706 calculates the threshold value TH based on the following equation.
[0200]
[Expression 37]
Figure 0004281419
Here, in the above equation, K1 and N TH Is a constant specified in advance.
[0201]
Note that the baseband signal x (t) for calculating the threshold value TH is, for example, at least the number N for every fixed time interval. TH May be stored in the memory 704, and the threshold value determination unit 706 may update the threshold value TH at regular time intervals.
[0202]
Further, the method of determining the threshold value TH is not limited to the above-described method. For example, the threshold value TH may be a predetermined constant, or the absolute value of the past baseband signal x (t) as in the following equation: It is good also as updating by multiplying predetermined value K2 to the maximum value of.
[0203]
[Formula 38]
Figure 0004281419
That is, the threshold TH for selecting the baseband signal x (t) in the data selection unit 70 can be arbitrarily set from the outside. Alternatively, the threshold value TH in the data selection unit 70 can be set or updated by a predetermined calculation from a past input signal.
[0204]
Next, the front-end nonlinear distortion compensation system 2000 shown in FIG. 11 will be described. However, since the operation is basically the same as the operation of the front-end nonlinear distortion compensation system 1000 described with reference to FIGS. 5 and 6, the operation of the front-end nonlinear distortion compensation system 2000 will be mainly described below. Differences from the operation of the front-end nonlinear distortion compensation system 1000 will be described.
[0205]
FIGS. 13 and 14 are flowcharts for explaining the coefficient updating operation of the front-end nonlinear distortion compensation system 2000.
[0206]
First, referring to FIG. 13, N sets of data sets are acquired in order to perform first-order approximation of support vector coefficients. At that time, the corresponding baseband signal x (t) is also acquired (step S200).
[0207]
Next, the data selection unit 70 determines a threshold value TH (step S201). Here, for example, among the above, the number N TH It is assumed that the average value of the absolute values of the baseband signal x (t) is multiplied by the coefficient K1.
[0208]
Next, the baseband signal x (t) is compared with the threshold value TH for each data set, and if the input signal is larger than the threshold value TH, the data set including the data deteriorates the accuracy of the regression function. It is regarded as a data set and is not adopted as a support vector (step S202).
[0209]
If the number of remaining data sets is n, the data set is (V_z (P i ), Re {ys (P i )}) (I = 1 to n). The coefficient updating unit 42 performs the first approximation of the coefficient corresponding to the support vector and the code vector S R Is calculated in the same manner as in step S102 in FIG. 5 (step 203).
[0210]
Hereinafter, processing similar to steps S104 to S116 in FIG. 5 is executed as steps S204 to S216 in FIG.
[0211]
Next, referring to FIG. 14, a new learning data set (V_z (k), Re {ys (k)}) is acquired (step S218). In addition, the baseband signal x (t) of the corresponding input signal is also acquired.
[0212]
If the baseband signal x (t) of the input signal at that time is equal to or greater than the threshold value TH (step S219), the process returns to step S218 without adopting the data set as a support vector.
[0213]
On the other hand, when the baseband signal x (t) of the input signal is smaller than the threshold value TH in step S219, the error e is further calculated by the above equation (28). R Is calculated (step 220).
Hereinafter, the same processing as steps S122 to S128 in FIG. 6 is executed as steps S222 to S228 in FIG.
[0214]
Through the above processing, the coefficient updating unit 42 sequentially updates the coefficient vector adaptively.
[0215]
The SVM 54 uses the coefficient α updated by the coefficient updating unit 42. R Using (i), the baseband signal x (t) is converted into the baseband signal Re {y (t)} according to the above-described equation (8). The support vector machine SVM 58 uses the same procedure as described above to update the coefficient α updated by the coefficient update unit 66. I Using (i), the baseband signal x (t) is converted into the baseband signal Im {y (t)} according to the above-described equation (9).
[0216]
[simulation result]
Hereinafter, simulation results will be shown in order to show the effects of the present invention.
[0217]
In the following simulation, it is assumed that NLD is an amplifier and its input / output characteristics are expressed by the following equation.
[0218]
[39]
Figure 0004281419
As other conditions, the input signal is an OFDM signal, the number of carriers is 1405, and the FFT size is 2048.
[0219]
The signal power to noise power ratio (hereinafter referred to as “SNR”) is 100 (dB). The input power is 1 and the threshold value TH is fixed and 0.8.
[0220]
The number of data sets is 2000. In addition, m = 1. Further, d is assumed to be known.
[0221]
FIG. 15 shows a signal spectrum after the input signal is passed through the amplifier 16 with a backoff 6 (dB). That is, FIG. 15 shows a simulation result of characteristics when the input signal is amplified by the amplifier 16 without providing a pre-set nonlinear distortion compensation system.
[0222]
In FIG. 15, the horizontal axis represents frequency carrier numbers, and the vertical axis represents power. Under the influence of nonlinear distortion, the SNR has deteriorated to about 20 (dB).
[0223]
Further, FIG. 16 shows a signal spectrum by the pre-linear nonlinear distortion compensation system 1000 in which the data selection unit 70 is not provided in such a situation.
[0224]
The spectrum outside the signal band is higher than that of the amplifier 16 alone, and the SNR is reduced. This is because a data set having an excessively large signal as an element has been adopted as a support vector. With that data set, the regression function can no longer accurately approximate the inverse characteristics of the amplifier. All data sets after that data set are adopted as support vectors, and the number of support vectors increases. At the same time, the support vector coefficient becomes an extremely large number and eventually diverges.
[0225]
FIG. 17 is a diagram illustrating support vector coefficients in the state of FIG. In FIG. 17, the horizontal axis represents a support vector number, and the vertical axis represents a support vector coefficient value. At this time, the number of support vectors is as very large as about 1450, and the calculation amount is enormous.
[0226]
FIG. 18 is a diagram showing a signal spectrum by the pre-linear distortion compensation system 2000 of the present invention on which the data selection unit 70 is mounted. The spectrum outside the signal band is lower than that of the amplifier 16 alone, and the SNR is improved to about 30 (dB). This is considered to be because a data set having an excessively large signal as an element that causes divergence was not adopted as a support vector.
[0227]
Therefore, even when the back-off is small, the influence of nonlinear distortion can be reduced by the method according to the present invention.
[0228]
FIG. 19 is a diagram illustrating the support vector coefficients in FIG. The number of support vectors is 71, and it can be confirmed that the number of support vectors is significantly reduced as compared with the pre-linear distortion compensation system 1000. At the same time, the amount of calculation has been remarkably reduced due to the smaller kernel matrix.
[0229]
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
[0230]
【The invention's effect】
As described above, according to the present invention, a signal having an inverse characteristic of a signal conversion circuit such as an amplifier is estimated using a support vector machine, so that a look-up table is not required, so that the noise floor is kept low. be able to.
[0231]
In addition, since the present invention can be applied when the input is a complex signal, it is possible to provide a pre-linear distortion compensator with a simple configuration.
[0232]
Furthermore, in the learning process, unnecessary support vectors are deleted from the signal vectors once added to the support vectors, so that high-speed processing is possible.
[0233]
Further, according to the present invention, in the pre-linear distortion compensator distortion using only the SVR, an excessively large signal that cannot be compensated is deleted from the training data set, so that the accuracy of the regression function can be maintained.
[0234]
Furthermore, according to the present invention, the calculation is stabilized by deleting the data set, and the number of support vectors can be reduced at the same time, so that the calculation amount can be greatly reduced.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a linear ε insensitive loss function and a second order ε insensitive loss function.
FIG. 2 is a conceptual diagram showing a relationship between a linear approximation function and a support vector.
FIG. 3 is a conceptual diagram showing a nonlinear approximation function and a support vector.
FIG. 4 is a schematic block diagram for explaining a configuration of a pre-linear distortion compensation system 1000 according to the present invention.
FIG. 5 is a first flowchart for explaining a specific calculation method of coefficient update;
FIG. 6 is a second flowchart for explaining a specific calculation method of coefficient update;
FIG. 7 is a conceptual diagram showing approximate characteristics of learning data by a support vector in a state where approximate learning by a support vector machine has progressed to some extent.
FIG. 8 is a conceptual diagram for explaining the effect of making the value of ε ′ larger than the value ε that defines the original dead zone.
FIG. 9 is a conceptual diagram for explaining a procedure for removing an extra support vector when successive calculation of approximate characteristics is advanced.
FIG. 10 is a conceptual diagram for explaining a change in loss for data D3 in FIG. 9;
FIG. 11 is a schematic block diagram for explaining a configuration of a pre-linear distortion compensation system 2000 according to the present invention.
12 is a schematic block diagram for explaining a configuration of a data selection unit 70. FIG.
FIG. 13 is a first flowchart for explaining the coefficient update operation of the front-end nonlinear distortion compensation system 2000;
FIG. 14 is a second flowchart for explaining the coefficient updating operation of the front-end nonlinear distortion compensation system 2000;
FIG. 15 is a signal spectrum after an input signal is passed through an amplifier 16 with backoff 6 (dB).
FIG. 16 shows a signal spectrum by a pre-linear distortion compensation system 1000 in which a data selection unit 70 is not provided.
FIG. 17 is a diagram illustrating support vector coefficients in the state of FIG. 16;
FIG. 18 is a diagram showing a signal spectrum by a pre-set nonlinear distortion compensation system 2000 of the present invention equipped with a data selection unit 70.
FIG. 19 is a diagram illustrating support vector coefficients in FIG.
FIG. 20 is a diagram illustrating input / output characteristics of a general amplifier.
[Explanation of symbols]
2,18 down converter, 4,20 A / D converter, 6,22 quadrature detector, 54, 58, 26, 62 SVM, 10 quadrature modulator, 12 D / A converter, 14 up converter, 16 amplifier, 30, 64 subtractor, 42, 66 coefficient update unit, 70 data selection unit, 1000, 2000 pre-linear distortion compensation system.

Claims (4)

信号変換器の逆特性を用いて、入力信号を変換し、変換後の信号を信号変換器に供給する変換用サポートベクトルマシンと、
前記信号変換器で変換された変換出力信号を受け、前記変換出力信号列により構成される信号ベクトルと、過去に抽出された変換出力信号列により構成される信号ベクトルとに基づいて、前記変換用サポートベクトルマシンにおける変換後の入力信号を、第1の不感帯を有する損失関数に基づいて推定する推定用サポートベクトルマシンと、
前記変換用サポートベクトルマシンおよび前記推定用サポートベクトルマシンに接続され、前記変換用サポートベクトルマシンの出力および前記推定用サポートベクトルマシンの出力に基づいて、前記変換用サポートベクトルマシンおよび前記推定用サポートベクトルマシンの係数を更新するための係数更新手段と、
前記入力信号としきい値とを比較し、前記入力信号が前記しきい値よりも大きい場合、当該入力信号を含むデータセットをサポートベクトルとして採用しないようにするデータ選定手段とを備え
前記データ選定手段は、過去の所定数の前記入力信号の絶対値に基づいて、前記しきい値を設定する、前置型非線形歪補償器。
A conversion support vector machine that converts the input signal using the inverse characteristics of the signal converter and supplies the converted signal to the signal converter;
Receiving the converted output signal converted by the signal converter, and based on a signal vector constituted by the converted output signal sequence and a signal vector constituted by the converted output signal sequence extracted in the past, for the conversion An estimation support vector machine for estimating an input signal after conversion in the support vector machine based on a loss function having a first dead band;
The support vector machine for conversion and the support vector for estimation are connected to the support vector machine for conversion and the support vector machine for estimation, and based on the output of the support vector machine for conversion and the output of the support vector machine for estimation Coefficient updating means for updating the machine coefficient;
A data selection means for comparing the input signal with a threshold value and, when the input signal is larger than the threshold value, not adopting a data set including the input signal as a support vector ;
The data selection means is a pre- set nonlinear distortion compensator that sets the threshold value based on an absolute value of a predetermined number of input signals in the past .
前記係数更新手段は、
前記変換出力信号を受け、新たに受けた前記変換出力信号の信号列により構成されるベクトルであって、かつ、第2の不感帯の外にあるベクトルをサポートベクトルの候補として抽出し、既にサポートベクトルとして抽出されているベクトルの集合に加え、前記ベクトルの集合を新たにサポートベクトルの集合とみなし、前記ベクトルの集合の中から、前記第1の不感帯の外にあるベクトルをサポートベクトルとして再抽出する抽出手段と、
前記抽出されたサポートベクトルに対する係数を計算する計算手段とを有する、請求項1記載の前置型非線形歪補償器。
The coefficient updating means includes
A vector that is received from the converted output signal and is a vector composed of the newly received signal sequence of the converted output signal and that is outside the second dead zone is extracted as a support vector candidate and is already a support vector. In addition to the set of vectors extracted as, the set of vectors is newly regarded as a set of support vectors, and a vector outside the first dead zone is re-extracted as a support vector from the set of vectors. Extraction means;
2. The pre-linear distortion compensator according to claim 1, further comprising calculation means for calculating a coefficient for the extracted support vector.
前記データ選定手段は、所定の期間内の過去の所定数の前記入力信号の絶対値に基づいて、前記しきい値を更新する、請求項1記載の前置型非線形歪補償器。  The said non-linear distortion compensator of Claim 1 with which the said data selection means updates the said threshold value based on the absolute value of the past predetermined number of said input signals within a predetermined period. 前記信号変換器は、増幅器である、請求項1〜のいずれかに記載の前置型非線形歪補償器。The signal converter is an amplifier, before standing nonlinear distortion compensator according to any one of claims 1-3.
JP2003157249A 2003-06-02 2003-06-02 Prefix nonlinear distortion compensator Expired - Fee Related JP4281419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003157249A JP4281419B2 (en) 2003-06-02 2003-06-02 Prefix nonlinear distortion compensator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003157249A JP4281419B2 (en) 2003-06-02 2003-06-02 Prefix nonlinear distortion compensator

Publications (2)

Publication Number Publication Date
JP2004363733A JP2004363733A (en) 2004-12-24
JP4281419B2 true JP4281419B2 (en) 2009-06-17

Family

ID=34051069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003157249A Expired - Fee Related JP4281419B2 (en) 2003-06-02 2003-06-02 Prefix nonlinear distortion compensator

Country Status (1)

Country Link
JP (1) JP4281419B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4973532B2 (en) * 2008-02-12 2012-07-11 住友電気工業株式会社 Amplifier circuit, wireless communication apparatus and computer program having the same
JP2013211616A (en) * 2012-03-30 2013-10-10 Sony Corp Terminal device, terminal control method, program, and information processing system
JP6330364B2 (en) * 2014-02-26 2018-05-30 ヤマハ株式会社 Amplifier circuit protection circuit

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4183364B2 (en) * 1999-12-28 2008-11-19 富士通株式会社 Distortion compensation device
JP2001268150A (en) * 2000-03-21 2001-09-28 Hitachi Kokusai Electric Inc Linearizer
JP2001284976A (en) * 2000-03-29 2001-10-12 Matsushita Electric Ind Co Ltd Method and device for compensating adaptive predistortion
JP4513219B2 (en) * 2001-03-06 2010-07-28 住友電気工業株式会社 Prefix nonlinear distortion compensator

Also Published As

Publication number Publication date
JP2004363733A (en) 2004-12-24

Similar Documents

Publication Publication Date Title
US10897276B2 (en) Digital predistortion in varying operating conditions
US10931238B2 (en) Linearization with envelope tracking or average power tracking
DE102006035817B4 (en) Apparatus and method for dynamically adjusting the pitch of a look-up table to linearize a power amplifier
JP2009213113A (en) Apparatus and method for identifying reverse characteristic of nonlinear system, power amplifier, and predistorter of power amplifier
US7412469B2 (en) Power amplifier pre-distorter training
EP2254239B1 (en) Predistorter, predistortion method, and predistortion system
US8589329B2 (en) Method and apparatus for incremental tracking of multiple quantiles
US11863210B2 (en) Linearization with level tracking
CN110765720A (en) Power amplifier predistortion method of complex value assembly line recurrent neural network model
US20120154040A1 (en) Predistorter for compensating for nonlinear distortion and method thereof
CN112598106A (en) Complex channel equalizer design method based on complex value forward neural network
JP4281419B2 (en) Prefix nonlinear distortion compensator
CN103929136A (en) Broadband mobile communication LTE system transmitter power amplifier predistortion processing method
JP3915601B2 (en) Prefix nonlinear distortion compensator
EP3791481B1 (en) System and method for adaptive filtering
Aguila-Torres et al. Reliable comparison for power amplifiers nonlinear behavioral modeling based on regression trees and random forest
JP4513219B2 (en) Prefix nonlinear distortion compensator
TWI819917B (en) Pre-compensation method and pre-compensation circuit thereof
US20230118004A1 (en) Power Amplifiers and Methods of Controlling Same
Ali et al. Removing Power Amplifier Distortions at the Receiver using Deep Learning
WO2024065725A1 (en) Methods and apparatuses for perfoming digital predistortion using a combintion model
WO2023115376A1 (en) Digital pre-distorter for non-linear electronic devices
US20230216451A1 (en) Linearization of a non-linear electronic device
Chang An efficient compensation of TWTA's nonlinear distortion in wideband OFDM systems
Galaviz-Aguilar et al. Power Amplifier Modeling Comparison for Highly and Sparse Nonlinear Behavior Based on Regression Tree, Random Forest, and CNN for Wideband Systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130327

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees