TWI819917B - 前置補償方法及其前置補償電路 - Google Patents

前置補償方法及其前置補償電路 Download PDF

Info

Publication number
TWI819917B
TWI819917B TW111147015A TW111147015A TWI819917B TW I819917 B TWI819917 B TW I819917B TW 111147015 A TW111147015 A TW 111147015A TW 111147015 A TW111147015 A TW 111147015A TW I819917 B TWI819917 B TW I819917B
Authority
TW
Taiwan
Prior art keywords
causal
bayesian optimization
output signal
parameter
data
Prior art date
Application number
TW111147015A
Other languages
English (en)
Other versions
TW202424801A (zh
Inventor
陳志明
Original Assignee
緯創資通股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 緯創資通股份有限公司 filed Critical 緯創資通股份有限公司
Priority to TW111147015A priority Critical patent/TWI819917B/zh
Priority to CN202211677581.3A priority patent/CN118157600A/zh
Priority to US18/116,238 priority patent/US20240195363A1/en
Priority to EP23163971.7A priority patent/EP4383564A1/en
Priority to JP2023057156A priority patent/JP2024082216A/ja
Application granted granted Critical
Publication of TWI819917B publication Critical patent/TWI819917B/zh
Publication of TW202424801A publication Critical patent/TW202424801A/zh

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F1/00Details of amplifiers with only discharge tubes, only semiconductor devices or only unspecified devices as amplifying elements
    • H03F1/32Modifications of amplifiers to reduce non-linear distortion
    • H03F1/3241Modifications of amplifiers to reduce non-linear distortion using predistortion circuits
    • H03F1/3247Modifications of amplifiers to reduce non-linear distortion using predistortion circuits using feedback acting on predistortion circuits
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F1/00Details of amplifiers with only discharge tubes, only semiconductor devices or only unspecified devices as amplifying elements
    • H03F1/32Modifications of amplifiers to reduce non-linear distortion
    • H03F1/3241Modifications of amplifiers to reduce non-linear distortion using predistortion circuits
    • H03F1/3258Modifications of amplifiers to reduce non-linear distortion using predistortion circuits based on polynomial terms
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/189High-frequency amplifiers, e.g. radio frequency amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/20Power amplifiers, e.g. Class B amplifiers, Class C amplifiers
    • H03F3/24Power amplifiers, e.g. Class B amplifiers, Class C amplifiers of transmitter output stages
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2200/00Indexing scheme relating to amplifiers
    • H03F2200/204A hybrid coupler being used at the output of an amplifier circuit
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2200/00Indexing scheme relating to amplifiers
    • H03F2200/451Indexing scheme relating to amplifiers the amplifier being a radio frequency amplifier
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2201/00Indexing scheme relating to details of amplifiers with only discharge tubes, only semiconductor devices or only unspecified devices as amplifying elements covered by H03F1/00
    • H03F2201/32Indexing scheme relating to modifications of amplifiers to reduce non-linear distortion
    • H03F2201/3224Predistortion being done for compensating memory effects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Nonlinear Science (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Amplifiers (AREA)

Abstract

一種前置補償方法,用於耦接至一功率放大器的一前置補償電路以補償該功率放大器的非線性,包含有根據至少一參數或至少一超參數進行預失真以將前置補償電路接收到的一第一輸入訊號轉換成一第一預失真輸出訊號;根據貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化以更新至少一參數或至少一超參數;以及根據更新後的至少一參數或至少一超參數進行預失真,以將前置補償電路接收到的一第二輸入訊號轉換成一第二預失真輸出訊號。

Description

前置補償方法及其前置補償電路
本發明係指一種前置補償方法及其前置補償電路,尤指一種可降低運算複雜度或提高準確度或效率的前置補償方法及其前置補償電路。
功率放大器本質上是非線性的,非線性會影響誤碼率(bit-error rate,BER)及資料吞吐量。為了減少非線性,可使功率放大器在較低功率下運行,但會導致效率非常低。
另一方面,數位預失真(Digital pre-distortion,DPD)是最具成本效益的線性化技術之一。數位預失真器需要準確地對功率放大器進行特性分析或建模,才能成功部署數位預失真器。隨著訊號帶寬越來越寬,具有複雜頻率、電及熱特性的功率放大器往往會出現記憶效應(memory effect),因此,需要更先進的數位預失真演算法。目前實現數位預失真的主要演算法是Volterra級數(series)模型或其衍生版本。然而,Volterra級數模型需要大量係數,因而增加計算負擔,且需要更多的輸入/輸出資料來獲得對未知係數的統計可信度,因此在實際應用上缺乏吸引力。在此情形下,現有的數位預失真有改進的必要。
因此,本發明主要提供一種前置補償方法及其前置補償電路,以可降低運算複雜度或提高準確度或效率。
本發明揭露一種前置補償方法,用於耦接至一功率放大器的一前置補償電路,包含有根據至少一參數或至少一超參數進行預失真,以將該前置補償電路接收到的一第一輸入訊號轉換成一第一預失真輸出訊號;根據貝葉斯優 化、因果貝葉斯優化、或動態因果貝葉斯優化以更新該至少一參數或該至少一超參數;以及根據更新後的該至少一參數或該至少一超參數進行預失真,以將該前置補償電路接收到的一第二輸入訊號轉換成一第二預失真輸出訊號。
本發明揭露一種前置補償電路,耦接至一功率放大器,包含有一數位預失真執行器,用來根據至少一參數或至少一超參數進行預失真,以將該數位預失真執行器接收到的一第一輸入訊號轉換成一第一預失真輸出訊號;以及一訓練模組,用來根據貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化以更新該至少一參數或該至少一超參數,其中,該數位預失真執行器根據更新後的該至少一參數或該至少一超參數進行預失真,以將該數位預失真執行器接收到的一第二輸入訊號轉換成一第二預失真輸出訊號。
10,20,30:放大電路
120,220,320:前置補償電路
150,250,350:功率放大器
210:波峰因數降低
230:數位類比轉換器
240:升頻器
260:降頻器
270:類比數位轉換器
221,321:數位預失真執行器
222,322:訓練模組
223:合併器
40:循環數位預失真器及功率放大器串接模型
80g:基礎資料
e(t),S3:誤差訊號
CG1~CG2:因果圖
cv(i-1),cvi,cv(j-1),cvj,cvy,X1~X3,Y1~Y3,Z1~Z3:因果變量
f (i-1),f i ,f (j-1),f j :觀察函數
G:增益
HP1~HPn:超參數
L():損失函數
O1~Oq:自變量
PA,PA-1:響應函數
p(s,v),p(s,v),p~(s,v):先驗
p(wx|s,v),p(cvy|s):因果機制
P1~Pm:參數
P1~P5,P*5:點
q(s,v|wx):推論模型
sc:語意因素
S1~S4:訊號
v:變化因素
V,W,S,U:權重
w(i-1),w i ,w(j-1),w j ,wx:資料
x(t)~x(t-k):輸入訊號
y(t)~y(t-k):輸出訊號
z(t)~z(t-k):預失真輸出訊號
Figure 111147015-A0305-02-0021-35
:輸出
第1圖為本發明實施例一放大電路的示意圖。
第2圖為本發明實施例一放大電路的間接學習架構的示意圖。
第3圖為本發明實施例一放大電路的循環間接學習架構的示意圖。
第4圖為本發明實施例一循環數位預失真器及功率放大器串接模型的示意圖。
第5圖為本發明實施例損失函數與參數及超參數之間的關係的示意圖。
第6圖為本發明實施例的針對一維問題的貝葉斯優化的示意圖。
第7圖為本發明實施例局部的一因果圖的示意圖。
第8圖為本發明實施例一基礎資料及局部的一因果圖的示意圖。
第9圖為本發明實施例一因果變量及一子資料的示意圖。
第10圖為貝葉斯優化、因果貝葉斯優化或動態因果貝葉斯優化的示意圖。
第1圖為本發明實施例一放大電路10的示意圖。放大電路10的前置補償電路120可適應放大電路10的功率放大器150的非線性隨時間、溫度及不同工作通道的變化,其可視為一個數位預失真器(digital pre-distorter)。
數位預失真可在訊號進入數位類比轉換器(Digital to analog converter,DAC)之前修改輸入端的複雜波形來校正功率放大器150的非線性。另一觀點來看,功率放大器150的非線性可校正前置補償電路120的預失真輸出訊號z(t)的波形,因此前置補償電路120及功率放大器150的串接可實現線性化,使得前置補償電路120後的功率放大器150的輸出訊號y(t)像是高線性度元件發出的訊號,而輸入訊號x(t)可利用固定增益放大。如第1圖的虛線所示,前置補償電路120可看作是功率放大器150的反函數。也就是說,前置補償電路120實質上是在輸入訊號x(t)與功率放大器150之間插入非線性函數(例如功率放大器150的反函數)以產生線性的輸出訊號y(t)。例如,功率放大器150的響應函數(response function)fPA滿足y(t)=fPA(z(t)),前置補償電路120的響應函數fDPD滿足z(t)=fDPD(x(t)),而fDPD=fPA -1
第2圖為本發明實施例一放大電路20的間接學習架構的示意圖。放大電路20可包含用來降低峰均功率比的波峰因數降低(crest-factor reduction,CFR)210、前置補償電路220、數位類比轉換器230、升頻器(up converter)240、功率放大器250、降頻器(down converter)260及類比數位轉換器270。
數位預失真功能可透過軟體在演算法上定義。在間接學習架構,演算法可採用兩個相同的記憶多項式模型來進行預失真及訓練。例如,前置補償電路220可包含數位預失真執行器(actuator)221及訓練模組(training module)222。數位預失真執行器221用來實時執行輸入訊號x(t)的預失真。數位預失真執行器221對每個輸入訊號x(t)高速執行相同/相似運算,因此適合以現場可程式化邏輯閘陣列(Field Programmable Gate Array,FPGA)、特定應用積體電路 (Application Specific Integrated Circuit,ASIC)或其他電路來實現。訓練模組222基於對功率放大器250的輸出訊號y(t)的觀察而(如第2圖虛線所示地)更新數位預失真執行器221的參數或超參數(hyperparameter)。訓練模組222涉及相對複雜的計算,因此適合以數位信號處理器(digital signal processor,DSP)或其他電路來實現。
採用間接學習架構來訓練前置補償電路220可使得前置補償電路220能直接根據功率放大器250的輸入訊號x(t)及輸出訊號y(t)來建構(即找到數位預失真執行器221的參數或超參數)。訓練模組222的反饋路徑以y(t)/G作為輸入且以
Figure 111147015-A0305-02-0006-55
作為輸出,其中G控制功率放大器250線性化後的增益。數位預失真執行器221可視為反饋路徑的副本(即訓練模組222的副本),其以輸入訊號x(t)作為輸入且以預失真輸出訊號z(t)作為輸出。理想狀況是使y(t)=G×x(t),從而須滿足
Figure 111147015-A0305-02-0006-5
,且預失真輸出訊號z(t)與輸出
Figure 111147015-A0305-02-0006-4
之間的誤差訊號e(t)=0。當誤差訊號e(t)或誤差訊號的平方值∥e(t)∥2最小化,演算法可收斂。
由於記憶效應,功率放大器250變成有記憶的非線性系統,也就是說,功率放大器250瞬時輸出的輸出訊號y(t)不僅取決於當前輸入,還是先前的輸入值的函數,例如滿足y(t)=fPA(z(τ)),其中τ
Figure 111147015-A0305-02-0006-49
(-∞,t)。
針對記憶效應,第3圖繪示出本發明實施例一放大電路30的循環間接學習架構的示意圖。放大電路30的架構與放大電路20大致相同(波峰因數降低210、數位類比轉換器230、升頻器240、降頻器260及類比數位轉換器270未繪出),不同之處主要在於訊號的傳輸。
詳細來說,放大電路30的前置補償電路320的數位預失真執行器321利用其參數及超參數對其接收的輸入訊號x(t)進行預失真,以輸出預失真輸出訊號z(t)。預失真輸出訊號z(t)由放大電路30的功率放大器350放大,從而在功率放大器350的輸出端提供輸出訊號y(t)。前置補償電路320的訓練模組322計算/訓 練參數及超參數,使得由數位預失真執行器321引入的預失真可補償功率放大器350的非線性,即預失真是由功率放大器350的非線性引起的失真的反函數。訓練模組322可接收代表輸出訊號y(t)的(數位)訊號S4。根據訊號S2與訓練模組322輸出的訊號S1之間的差異,前置補償電路320的合併器(combiner)223(其可為減法單元)輸出誤差訊號S3。訓練模組322觀察誤差訊號S3並自適應地配置參數及超參數以最小化誤差訊號S3或損失函數(loss function)。損失函數可為模型的輸出
Figure 111147015-A0305-02-0007-6
或輸出
Figure 111147015-A0305-02-0007-7
(例如估計值)對應的一標籤(label)(例如預期值)的函數,例如等於輸出
Figure 111147015-A0305-02-0007-8
與標籤之間的差異,標籤可為輸入訊號x(t)的函數。
在一實施例,訓練模組322的訊號S1可例如分為(如第3圖實線所示的)對應輸出訊號y(t)的輸出
Figure 111147015-A0305-02-0007-34
及(如第3圖虛線所示的)對應輸出訊號y(t-1)的輸出
Figure 111147015-A0305-02-0007-9
,訊號S2可例如分為(如第3圖實線所示的)預失真輸出訊號z(t)及(如第3圖虛線所示的)輸出訊號y(t-1),合併器223可(如第3圖實線所示地)針對訊號
Figure 111147015-A0305-02-0007-10
及z(t)輸出滿足
Figure 111147015-A0305-02-0007-11
的誤差訊號S3且(如第3圖虛線所示地)針對訊號
Figure 111147015-A0305-02-0007-12
及y(t-1)輸出滿足
Figure 111147015-A0305-02-0007-13
的誤差訊號S3。換言之,針對記憶效應,本發明實施例的循環間接學習架構會考慮兩種誤差訊號S3(或更多種誤差訊號),並最小化損失函數。據此,本發明實施例除了考量數位預失真執行器321對功率放大器350的預失真輸出訊號z(t)外,還會考量數位預失真執行器321先前對功率放大器350的預失真輸出訊號z(t-1)~z(t-k)其中至少一者,其中k為正整數。功率放大器350除了考量預失真輸出訊號z(t)外,還會考量功率放大器350先前的輸出訊號y(t-1)~y(t-k)其中至少一者。
在另一實施例,訓練模組322的訊號S1可例如為
Figure 111147015-A0305-02-0007-1
Figure 111147015-A0305-02-0007-2
Figure 111147015-A0305-02-0007-3
,其中係數a0~ak為實數。換言之,訊號S1除了與功率放大器350的當前輸出訊號y(t)相關外,還會與功率放大器350先前的輸出訊號y(t-1)、y(t-2)...或y(t-k)相關。訊號S2可例如為 z(t)+y(t-1)/G或z(t)+z(t-1)或a0×z(t)+a1×z(t-1)+a2×z(t-2)...+ak×z(t-k)。訊號S1與訊號S2之間的誤差訊號S3可例如為e(t)+e(t-1)或b0×e(t)+b1×e(t-1)+b2×e(t-2)...+bk×e(t-k)。透過最小化損失函數可得知數位預失真執行器321的響應函數PA-1的參數或超參數,據此可得出能減輕最終非線性的輸出訊號y(t)的預失真輸出訊號z(t)。
由上述可知,本發明可採用循環數位預失真器及功率放大器串接(Recurrent DPD-PA Cascade)模型而不是Volterra級數模型。例如,第4圖為本發明實施例一循環數位預失真器及功率放大器串接模型40的示意圖。循環數位預失真器及功率放大器串接模型40可用於放大電路30。如第4圖所示,類似於循環神經網路(Recurrent neural network,RNN),循環數位預失真器及功率放大器串接模型40可包含權重V、W、S、U,使得第4圖最右側的響應函數PA接收其左側的響應函數PA的輸出訊號y(t-1)乘以其對應的權重W再加上其下方的響應函數PA-1的預失真輸出訊號z(t)乘以其對應的權重S。類似於循環神經網路,數位預失真執行器321與功率放大器350的串接允許先前輸出用作輸入,因此可根據當前輸入且從先前輸出學習來做出決策。數位預失真執行器321的響應函數PA-1可為功率放大器350的響應函數PA的反函數的副本。數位預失真執行器321的響應函數PA-1可透過功率放大器350的響應函數PA的反函數的副本實時(real time)更新,而不是在一段時間間隔更新。
在開始訓練循環數位預失真器及功率放大器串接模型40前,可關閉波峰因數降低210,否則波峰因數降低210可能影響訓練。也就是說,前置補償電路220的訓練發生在波峰因數降低210禁用下收集功率放大器250樣本,如此可得到功率放大器250完整特性以訓練前置補償電路220。
在循環數位預失真器及功率放大器串接模型40的訓練階段中,首先根據數位預失真執行器321及訓練模組322的初始的響應函數PA-1,產生輸入訊號 x(t)的樣本對應的預失真輸出訊號z(t)及輸出訊號y(t)。預失真輸出訊號z(t)及輸出訊號y(t)可用來對訓練模組322作增量學習(incremental training),以更新訓練模組322(即將第4圖的響應函數PA-1更換成增量學習後的響應函數PA-1),並以第4圖的循環數位預失真器及功率放大器串接模型40評估輸入訊號x(t)如何轉換成輸出訊號y(t),再將訓練模組322的響應函數PA-1複製到數位預失真執行器321的響應函數PA-1。反覆迭代後,可確定最終的響應函數PA-1(即將第4圖最右下角的響應函數PA-1),以最佳地將輸入訊號x(t)轉換成輸出訊號y(t)。換言之,如第4圖所示,可使用訊號x、z、y的樣本來訓練循環數位預失真器及功率放大器串接模型40,從而計算出響應函數PA-1(即反函數fPA -1)模型的參數或超參數以更新前置補償電路320。
在利用針對時間點t~t-k訓練的響應函數PA-1模型的參數或超參數來更新前置補償電路320後,訓練階段結束,可開啟波峰因數降低210以測試循環數位預失真器及功率放大器串接模型40。
更詳細地,在訓練階段,循環數位預失真器及功率放大器串接模型40可利用動態因果貝葉斯優化(或貝葉斯優化、因果貝葉斯優化)而不是反向傳播(Backpropagation)來訓練,以降低計算複雜度。
貝葉斯優化是一種黑盒優化演算法,可用於解決表達式未知的函數的極值問題。例如,L(P1,P2,...,Pm,HP1,HP2,...,HPn)=uef(P1,P2,...,Pm,HP1,HP2,...,HPn),其中,L()代表模型的損失函數(其可作為目標函數),uef()代表表達式未知的函數關係,P1~Pm代表模型的參數,HP1~HPn代表模型的超參數,m、n分別為正整數。換言之,損失函數L()與參數P1~Pm及超參數HP1~HPn之間的函數關係uef()的表達式是未知的,而利用貝葉斯優化可計算出在任意時間點使得損失函數L()最小(或最大)的參數P1~Pm及超參數HP1~HPn。如此一來,可更新前置補償電路320,使得非線性的前置補償電路320及功率放大器350合成 線性的結果。
例如,第5圖為本發明實施例損失函數L()與參數P1~Pm及超參數HP1~HPn之間的關係的示意圖。第5圖僅為示意以更容易了解損失函數L()與參數P1~Pm及超參數HP1~HPn之間具有關聯,然而損失函數L()與參數P1~Pm及超參數HP1~HPn之間的函數關係uef()的表達式在多數情形下是未知的。在第5圖橫軸座標的一個點可對應參數P1~Pm及超參數HP1~HPn構成的多維空間的一個點。
由於函數關係uef()的表達式是未知的,貝葉斯優化可透過部分/有限的採樣點(sampling point)來粗略擬合函數關係uef(),並可利用先前採樣點的資訊確定下一個採樣點,以找到極值點。例如,第6圖為本發明實施例的針對一維問題的貝葉斯優化的示意圖,其中,粗實線代表估計的損失函數L(),實心黑點P1~P5分別表示已經搜索到的採樣點,2條虛線包圍的區域表示損失函數L()對應每個點的(以均值為中心且與標準差成正比的)波動範圍,細實線代表提取函數(acquisition function)。在貝葉斯優化,首先可生成初始的一組候選解集合(例如實心黑點P1對應的損失函數、參數及超參數);接著,根據初始的候選解集合的採樣點,搜索下一個(可能是極值的)採樣點(例如實心黑點P2);反覆搜索下一個(可能是極值的)採樣點(例如實心黑點P3~P5)直到迭代終止,並將所有搜索到的採樣點(例如實心黑點P1~P5)增加到候選解集合;最後,從候選解集合的採樣點中找到極值點作為問題的解(例如實心黑點P5對應的損失函數、參數及超參數),據此可找到用來更新前置補償電路320的參數P1~Pm及超參數HP1~HPn
在貝葉斯優化,可根據已經搜索到的採樣點的函數值(例如實心黑點P1對應的損失函數)來估計真實的損失函數的均值(mean)及方差(variance),以根據已經搜索到的採樣點(例如實心黑點P1)來確定下一個採樣點(例如實心黑點P2)。第6圖的粗實線代表的估計的損失函數(即損失函數在每個點的均 值)會經過採樣點P1~P4,使得方差最小;離採樣點P1~P4較遠時,方差較大。第6圖細實線代表的提取函數可根據均值及方差來建立,即提取函數可為方差、均值的函數。提取函數估計一個點(例如實心黑點P1~P5中的一者)是否是損失函數極值點的可能性反映了這個點值得搜索的程度。提取函數的相對極值點可對應損失函數的下一個採樣點:例如第6圖的矩形框表示的點P*5為提取函數的極大值點,且(根據對應的參數及超參數)可對應損失函數的下一個採樣點(即實心黑點P5)。
在一實施例,實心黑點P1~P5其中一者對應的損失函數、參數及超參數可由第1圖至第4圖的輸入訊號x(t)~x(t-k)、預失真輸出訊號z(t)~z(t-k)、輸出訊號y(t)~y(t-k)、訊號
Figure 111147015-A0305-02-0011-14
~
Figure 111147015-A0305-02-0011-15
Figure 111147015-A0305-02-0011-16
~
Figure 111147015-A0305-02-0011-17
、其他訊號或內部儲存的其他資料得知,但不限於此。訊號
Figure 111147015-A0305-02-0011-18
~
Figure 111147015-A0305-02-0011-19
可分別是訊號
Figure 111147015-A0305-02-0011-20
~
Figure 111147015-A0305-02-0011-21
的函數。
本發明的演算法可利用高斯過程回歸而根據損失函數L()在一組採樣點的函數值來預測任意點的函數值的機率分佈。高斯過程回歸可擴展到具有已知方差的獨立正態分佈(normally distributed)噪聲的觀測值。方差可能是未知的,因此可假設噪聲具有共同方差,且噪聲包含作為超參數的方差。本發明使用包含噪聲(其為漂移值而不是訊號對干擾加雜訊比的雜訊)的高斯過程的後驗均值(posterior mean)。在一實施例,溫度濕度等環境因素或功率放大器350自身可能影響功率放大器350的增益造成損失函數對應某些參數及超參數的漂移值。換言之,實心黑點P5可能不會選出/對應預期的函數關係uef()的極值,但可選出/對應接近預期的函數關係uef()的相對優化的極值。
根據高斯過程回歸的結果可建構(用於衡量損失函數的每個點值得探索的程度的)提取函數以求解提取函數的極值來確定損失函數的下一個採樣點。提取函數例如可為知識梯度(knowledge gradient,KG)、熵搜索(entropy search,ES)、預測熵搜索(predictive entropy search,PES)。此後,將(從開始 到現在搜索到的)這一組採樣點的極值作為損失函數的極值,即提供最小損失函數的最佳的參數及超參數,據此可找到用來更新前置補償電路320的參數P1~Pm及超參數HP1~HPn
在一實施例,本發明的演算法可能需要考慮許多自變量(或稱作自變數)(independent variable)(而不只是參數P1~Pm及超參數HP1~HPn)。當空間維數增加時,貝葉斯優化的性能可能呈指數級下降。因此,本發明的演算法可擴展到因果貝葉斯優化。換言之,在損失函數L()相關於參數P1~Pm、超參數HP1~HPn及其他自變量的情況下,本發明可利用因果貝葉斯優化計算出損失函數的最小值。
具體地,本發明可找到損失函數L()與參數P1~Pm、超參數HP1~HPn及其他自變量之間的因果關係,例如找到損失函數L()、參數P1~Pm、超參數HP1~HPn及其他自變量構成的因果圖(causal graph),因此,損失函數L()、參數P1~Pm、超參數HP1~HPn及其他自變量可視為因果變量(causal variable)。例如,第7圖為本發明實施例局部的一因果圖CG1的示意圖。作為因果變量的損失函數L()、參數P1~Pm、超參數HP1~HPn及自變量O1~Oq構成因果模型使用的因果圖CG1,其中,q為正整數。如第6圖所示,因果貝葉斯優化發現的因果維度可能是m+n+q,因此有m+n+q個自變量被輸入到因果貝葉斯優化的損失函數L()中進行優化,從而計算出m+n+q個因果變量在哪些值下可最小化損失函數L()。因果圖CG1可顯著提高推理(reason)最佳決策策略的能力,從而降低優化成本,且避免次優解。
在一實施例,可基於最大後驗(maximum a posterior,MAP)及點估計(point estimate)來選擇優化的因果模型而得到損失函數、參數、超參數及其他自變量構成的因果圖,據此,因果模型的因果圖的因果變量(例如因果變量的個數、一個因果變量有哪些屬性、一個因果變量的屬性的個數)及因果結構 (例如屬性之間的連接方式)是同時/平行決定的,因此可避免先決定因果變量再決定因果結構招致的問題。
例如,第8圖為本發明實施例一基礎資料80g及局部的一因果圖CG2的示意圖,其中(a)、(b)分別繪示基礎資料80g及因果圖CG2的兩種可能,因果圖CG2可用作因果圖CG1。在一實施例,基礎資料80g可從所有可觀察到的樣本的空間來得到,因此也可稱為觀察資料。基礎資料80g可對應所有的深度學習模型。基礎資料80g可從所有蒐集到的資料來得到。在一實施例,基礎資料80g可包含或相關於在所有時間以所有方式傳輸的訊號(例如標籤、模型的輸出
Figure 111147015-A0305-02-0013-22
~
Figure 111147015-A0305-02-0013-23
、輸入訊號x(t)~x(t-k)、預失真輸出訊號z(t)~z(t-k)或輸出訊號y(t)~y(t-k))。
在第8圖,因果圖CG2的因果結構可顯現出因果變量cv(i-1)、cvi、cv(j-1)、cvj之間的關係,而觀察函數(observation function)f (i-1)f i f (j-1)f j 則可將基礎資料80g的子資料w(i-1)、w i 、w(j-1)、w j 映射到因果變量cv(i-1)、cvi、cv(j-1)、cvj而顯現出因果變量cv(i-1)、cvi、cv(j-1)、cvj與基礎資料80g的子資料w(i-1)、w i 、w(j-1)、w j 之間的關係。其中i、j是正整數。映射是基於相應的子資料(例如子資料w(i-1)、wi、w(j-1)、wj)(第8圖的框線區域)而不是整個基礎資料80g。例如,因果變量cv(i-1)對應參數P1,則子資料w(i-1)與因果變量cv(i-1)的屬性相關(例如相關於所有關於參數P1的資料)。
在一實施例,可將基礎資料80g的子資料w i 分到觀察函數f i 及因果圖CG2的因果結構C的後驗機率(posterior probability)P(f i ,C|w)最大化,從而自基礎資料80g的子資料w i 得到因果結構C及其中的因果變量cvi。據此,可利用貝葉斯網路(Bayesian Network)結合觀察函數(例如觀察函數f (i-1)f i f (i-1)f j )來描述因果模型的推論(inference)。值得注意的是,因果變量(例如因果變量cv(i-1)、cvi、cv(j-1)、cvj)及因果結構是一併得到的,因此因果變量及因果結構可互相影響且互相約束。
在一實施例,後驗機率P(f i ,C|w i ,Int)根據貝葉斯法則(Bayesian rule)可滿足P(f i ,C|w i ,Int)
Figure 111147015-A0305-02-0014-50
P(f i ,C)P(w i |f i ,C,Int),其中f i 可代表觀察函數,C可代表因果結構,w i 可代表基礎資料80g中部分的子資料,Int可代表干預(intervention)。在一實施例,後驗機率P(f i ,C|w i )可正比於P(f i ,C)P(w i |f i ,C)或
Figure 111147015-A0305-02-0014-24
,其中s t-1 可代表在一時間點t-1的狀態(state),T可代表目前的時間點,γ可為0.5,但不限於此。在一實施例,P(w|f i ,C)可為
Figure 111147015-A0305-02-0014-25
。在一實施例,P(w i,t |s t-1 ,C,f i )可為
Figure 111147015-A0305-02-0014-26
Figure 111147015-A0305-02-0014-28
,其中s i,t 可代表一因果變量cvi在一時間點t的狀態,N可代表所有因果變量(例如因果變量cv(i-1)、cvi、cv(j-1)、cvj)的總個數,N是正整數,
Figure 111147015-A0305-02-0014-29
可代表基礎資料80g中與因果變量cvi的狀態s i 兼容的子資料w i 的資料量。在一實施例,可利用最小化資料量
Figure 111147015-A0305-02-0014-30
來選擇出因果變量cvi,如此可使得基礎資料80g中較常用到的資料(例如子資料w i )(相較不常用到的資料)分成更小的部分。
由上述可知,貝葉斯概率(Bayesian probability)機制可組合因果變量(例如因果變量cv(i-1)、cvi、cv(j-1)、cvj)的個數、因果變量的狀態、因果結構或因果變量的觀察函數(例如觀察函數f (i-1)f i f (j-1)f j )並得到相關的聯合推論,來解釋基礎資料80g,從而產生因果圖CG2。其中,因果圖CG2的因果變量(或因果變量的個數)及因果結構C是同時決定的,據此可區別出第8圖(a)、(b)的不同。
如第8圖所示,每個因果變量(例如因果變量cvi)會對應一個觀察函數(例如觀察函數f i )。在一實施例,可利用因果語意生成(Causal Semantic Generative,CSG)模型來得到觀察函數(例如觀察函數f i ),從而自高維環境變量(例如基礎資料80g)預測出低維狀態屬性(例如因果變量cvi的狀態的屬性(attribute))。若因果變量(例如因果變量cv(i-1)、cvi、cv(j-1)、cvj)是人工定義(例 如由領域專家(domain expert)(非自動而逐一地)定義或利用由領域專家描述規則的一程式去自動定義因果變量),每個因果變量(例如因果變量cvi)都有一個專用的因果語意生成觀察函數使得因果變量立基於相應的子資料(例如子資料wi)(第8圖的框線區域),意即子資料(第8圖的框線區域對應的子資料w(i-1)、wi、w(j-1)、wj)是根據領域專家對於特定的因果變量的定義而決定的。並且,因果語意生成模型可避免將變化因素(variation factor)判斷成因果變量(例如因果變量cvi)的因,而能正確地將語意因素(semantic factor)判斷成因果變量(例如因果變量cvi)的因。在一實施例,變化因素及語意因素可屬於觀察資料。在一實施例,因果語意生成模型主要基於因果不變準則(causal invariance principle)並涉及變分貝葉斯(variational Bayes)。
在一實施例,觀察函數f i 可滿足s i,t =f i (w i,t )。在一實施例,觀察函數f i 可利用多變量高斯分布(multivariate Gaussian distribution)來實現,例如可滿足
Figure 111147015-A0305-02-0015-31
,或者,觀察函數f i 可相關於
Figure 111147015-A0305-02-0015-32
。其中z為基礎資料80g中對因果變量cvi沒有貢獻的資料,均值
Figure 111147015-A0305-02-0015-51
μ v 固定為零向量,Σ可透過柯列斯基分解(Cholesky decomposition)來參數化而例如可滿足Σ=LL T。矩陣L可為具有正對角線元素的下三角矩陣(lower-triangular matrix with positive diagonals)且例如可參數化而滿足
Figure 111147015-A0305-02-0015-33
。矩陣
Figure 111147015-A0305-02-0015-52
L zz 可為更小的下三角矩陣,矩陣
Figure 111147015-A0305-02-0015-53
可為任意矩陣。矩陣
Figure 111147015-A0305-02-0015-54
L zz 可利用(藉由指數映射(exponential map)確認的)正對角線元素與(不具有正對角線元素的)下三角矩陣的和而參數化。
在一實施例,因果變量(例如因果變量cvi)與子資料(例如子資料wi)之間的關係是未知的,但可利用因果語意生成模型從子資料預測出因果變量。例如,第9圖為本發明實施例一因果變量cvy及一子資料wx的示意圖,其中(a)、 (b)、(c)、(d)分別繪示因果語意生成模型的可能結構,sc可代表語意因素,v可代表變化因素,實線箭頭可表示因果機制p(wx|sc,v)及p(cvy|sc),虛線箭頭可代表用於學習的推論模型q(sc,v|wx)。在第9圖的(a),語意因素sc與變化因素v之間的實線無向線段可代表領域特定的先驗(prior)p(sc,v)。相較於第9圖的(a)語意因素sc與變化因素v之間的無向線段,第9圖的(b)引入獨立的先驗p(sc,v):=p(sc)p(v)來反映干預,以改善分布外泛化效能(out-of-Distribution generalization performance)。相較於第9圖的(a)語意因素sc與變化因素v之間的無向線段,第9圖的(c)根據因果不變性準則(causal invariance principle)引入語意因素sc與變化因素v之間的點線的先驗p~(sc,v)來反映干預,以利用未監督資料(unsupervised data)。在一實施例,可藉由最大化似然率來將因果語意生成模型p:=<p(sc,v),p(wx|sc,v),p(cvy|sc)>擬合至子資料,且可利用變分推斷(Variational Inference)及證據下界(Evidence Lower Bound,ELBO)計算,接著,在應用重參數化(reparameterization)技巧後,可利用蒙地卡羅(Monte Carlo)估計期望。
在一實施例,因果貝葉斯優化僅針對直接相關於功耗的因果變量(例如因果圖CG1中直接指向/影響損失函數L()的參數P1~Pm、超參數HP1~HPn及自變量O1~Oq)來進行優化。換言之,因果貝葉斯優化的因果本徵維度(causal intrinsic dimensionality)是由作為損失函數L()的因的參數P1~Pm、超參HP1~HPn及自變量O1~Oq的個數來決定,而不是作為參數P1~Pm、超參數HP1~HPn及自變量O1~Oq的因的因果變量的個數,因此可提高推理最佳決策策略的能力。
在一實施例,因果變量(例如作為因果變量的參數P1~Pm、超參數HP1~HPn及自變量O1~Oq或因果變量cv(i-1)、cvi、cv(j-1)、cvj)是人工定義(例如由領域專家(domain expert)定義),例如由領域專家(非自動而逐一地)定義或利用由領域專家描述規則的一程式去自動定義因果變量。在一實施例,子資料(第8圖的框線區域對應的子資料w(i-1)、wi、w(j-1)、wj)是根據領域專家對於 特定的因果變量的定義而決定的。
因果貝葉斯優化將因果變量(例如損失函數L())及輸入的因果變量(例如參數P1~Pm、超參數HP1~HPn及自變量O1~Oq)視為不變的自變量(invariant independent variables),沒有考慮輸出的因果變量及輸入的因果變量是否存在時間演化而可隨時間改變,打破因果變量之間存在的時間依賴結構。雖然忽略時間可顯著簡化問題,但忽略時間會阻礙在每個時間點去識別最佳干預,而(在非穩態場景(non-stationary scenario))導致次優解,而不是在任意時間瞬間提供當下的最優解。因此,本發明可擴展到動態因果貝葉斯優化,而有利於因果圖中的因果效應隨時間而變化的場景。
例如,第9圖為貝葉斯優化、因果貝葉斯優化或動態因果貝葉斯優化的示意圖,X1~X3分別代表在3個不同時間點的一因果變量,Y1~Y3分別代表在3個不同時間點的另一因果變量,Z1~Z3分別代表在3個不同時間點的另一因果變量,但本發明不限於此而可擴展至多個不同的時間點或因果變量。動態因果貝葉斯優化結合貝葉斯優化及因果貝葉斯優化,可以解釋因果變量之間的因果關係且因果關係可隨時間演進。例如,在動態因果貝葉斯優化,如第9圖所示,在第1時間點的因果變量Y1是在第1時間點的因果變量Z1的函數,因此可僅針對直接相關於因果變量Y1的因果變量Z1來搜索(可表示損失函數L()的)因果變量Y1的極值,且因果本徵維度為1。類似地,在第2時間點的因果變量Y2是在第2時間點的因果變量Z2與在第1時間點的因果變量Y1的函數,因此可僅針對直接相關於因果變量Y2的因果變量Z2、Y1來搜索(可表示損失函數L()的)因果變量Y2的極值,且因果本徵維度為2。類似地,在第3時間點的因果變量Y3是在第3時間點的因果變量Z3與在第2時間點的因果變量Y2的函數,因此可僅針對直接相關於因果變量Y3的因果變量Z3、Y2來搜索(可表示損失函數L()的)因果變量Y3的極值,且因果本徵維度為2。換言之,某一時間點作為因變量的因果變量是在前一個時 間點或前幾個時間點(作為因變量或自變量的)因果變量的函數,因此可僅針對直接相關的後者(即在前一個時間點或前幾個時間點作為因變量或自變量的因果變量)來搜索前者(即某一時間點作為因變量的因果變量)的極值。
本發明實施例的一前置補償方法可用於放大電路10~30或循環數位預失真器及功率放大器串接模型40,且可被編譯成一程式碼而由一處理電路執行,並儲存於一儲存電路中。前置補償方法可包含有以下步驟:
步驟S10:開始。
步驟S12:數位預失真執行器321根據至少一參數或至少一超參數進行預失真,以將數位預失真執行器321接收到的一輸入訊號x(t)轉換成一預失真輸出訊號z(t)。
步驟S14:訓練模組322(或222)根據貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化以決定、計算或更新數位預失真執行器321(或221)的至少一參數或至少一超參數。其中,可將貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化應用到至少一資料以決定或計算至少一參數或至少一超參數。該至少一資料可自數位預失真執行器321對應輸入訊號x(t)而輸出的預失真輸出訊號z(t)或功率放大器350(或250)對應預失真輸出訊號z(t)而輸出的輸出訊號y(t)擷取出。或者,該至少一資料可自數位預失真執行器321在輸入訊號x(t)以前接收到的輸入訊號x(t-1)~x(t-k)、數位預失真執行器321在預失真輸出訊號z(t)以前對應輸入訊號x(t-1)~x(t-k)輸出的預失真輸出訊z(t-1)~z(t-k)、或功率放大器350對應預失真輸出訊z(t-1)~z(t-k)輸出的輸出訊號y(t-1)~y(t-k)擷取出。或者,該至少一資料可自輸入訊號x(t)或輸出訊號y(t)對應的一標籤擷取出。
步驟S16:數位預失真執行器321根據更新後的至少一參數或至少一超參數進行預失真,以將數位預失真執行器321接收到的一輸入訊號x(t+1)轉換成一預失真輸出訊號z(t+1)。
步驟S18:結束。
在一實施例,儲存電路可用來儲存影像資料或指令。儲存電路可為唯讀式記憶體(Read-Only Memory,ROM)、快閃記憶體(Flash memory)或隨機存取記憶體(Random-Access Memory,RAM)、硬碟(Hard disk)、非揮發性儲存裝置(Non-volatile storage device)、非暫態電腦可讀取介質(Non-transitory computer-readable medium),但不限於此。處理電路可用來執行指令,其可為中央處理器、微處理器(microprocessor)或特定應用積體電路(Application-Specific Integrated Circuit,ASIC),但不限於此。放大電路10、20或30可用在例如無線電單元(Radio Unit,RU),但不限於此。
綜上所述,本發明提出一種由動態因果貝葉斯優化訓練的循環數位預失真器及功率放大器串接模型,以降低計算複雜度及計算量,因此本發明的數位預失真器可實時更新,從而可有效地補償功率放大器的非線性。以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
223:合併器
30:放大電路
320:前置補償電路
350:功率放大器
321:數位預失真執行器
322:訓練模組
S1~S4:訊號
x(t):輸入訊號
y(t):輸出訊號
z(t):預失真輸出訊號

Claims (16)

  1. 一種前置補償方法,用於耦接至一功率放大器的一前置補償電路,包含有:根據至少一參數或至少一超參數進行預失真,以將該前置補償電路接收到的一第一輸入訊號轉換成一第一預失真輸出訊號;根據貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化以更新該至少一參數或該至少一超參數,其中,根據該因果貝葉斯優化、或該動態因果貝葉斯優化在複數個自變量一併搜索出複數個自變量最佳值,該複數個自變量最佳值包含有該至少一參數或該至少一超參數,一損失函數與該至少一自變量之間的一因果圖的一因果結構與該因果圖的複數個因果變量是一起決定的,該損失函數是一輸出訊號或該輸出訊號對應的一標籤的函數,利用複數個觀察函數將一基礎資料中的複數個子資料映射到該因果圖的該複數個因果變量來基於最大後驗及點估計從該基礎資料產生該因果圖;以及根據更新後的該至少一參數或該至少一超參數進行預失真,以將該前置補償電路接收到的一第二輸入訊號轉換成一第二預失真輸出訊號。
  2. 如請求項1所述之前置補償方法,其中,將貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化應用到至少一資料以判定該前置補償電路的該至少一參數或該至少一超參數,其中,該至少一資料是自該第一預失真輸出訊號或該功率放大器對應該第一預失真輸出訊號而輸出的一輸出訊號擷取出。
  3. 如請求項2所述之前置補償方法,其中,該至少一資料另自該前置補償電路在一第一輸入訊號以前接收到的至少一先前輸入訊號、該前置補償電路在該第一預失真輸出訊號以前對應該至少一先前輸入訊號輸出的 至少一先前預失真輸出訊號、該功率放大器對應該至少一先前預失真輸出訊號輸出的至少一先前輸出訊號、該第一輸入訊號、或該輸出訊號對應的一標籤擷取出。
  4. 如請求項1所述之前置補償方法,其中,根據該貝葉斯優化、該因果貝葉斯優化、或該動態因果貝葉斯優化一併判定複數個自變量最佳值,該複數個自變量最佳值包含有該至少一參數、該至少一超參數及至少一第一自變量最佳值。
  5. 如請求項1所述之前置補償方法,其中,該因果圖是基於最大後驗及點估計來產生。
  6. 如請求項1所述之前置補償方法,其中,該複數個觀察函數是基於一因果語意生成模型來得到。
  7. 如請求項1所述之前置補償方法,其中,將貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化應用到至少一資料以判定該前置補償電路的至少一參數或至少一超參數,該基礎資料包含有該至少一資料。
  8. 如請求項1所述之前置補償方法,其中,根據該動態因果貝葉斯優化在至少一自變量搜索出至少一自變量最佳值,該至少一自變量最佳值包含有該至少一參數或該至少一超參數,在一第二時間的一第二損失函數是在該第二時間的該至少一自變量、在一第一時間的該至少一自變量、或在該第一時間的一第一損失函數的函數。
  9. 一種前置補償電路,耦接至一功率放大器,包含有:一數位預失真執行器,用來根據至少一參數或至少一超參數進行預失真,以將該數位預失真執行器接收到的一第一輸入訊號轉換成一第一預失真輸出訊號;以及一訓練模組,用來根據貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優 化以更新該至少一參數或該至少一超參數,其中,該數位預失真執行器根據更新後的該至少一參數或該至少一超參數進行預失真,以將該數位預失真執行器接收到的一第二輸入訊號轉換成一第二預失真輸出訊號,其中,根據該因果貝葉斯優化、或該動態因果貝葉斯優化在複數個自變量一併搜索出複數個自變量最佳值,該複數個自變量最佳值包含有該至少一參數或該至少一超參數,一損失函數與該至少一自變量之間的一因果圖的一因果結構與該因果圖的複數個因果變量是一起決定的,該損失函數是一輸出訊號或該輸出訊號對應的一標籤的函數,利用複數個觀察函數將一基礎資料中的複數個子資料映射到該因果圖的該複數個因果變量來基於最大後驗及點估計從該基礎資料產生該因果圖。
  10. 如請求項9所述之前置補償電路,其中,將貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化應用到至少一資料以判定該數位預失真執行器的該至少一參數或該至少一超參數,其中,該至少一資料是自該第一預失真輸出訊號或該功率放大器對應該第一預失真輸出訊號而輸出的一輸出訊號擷取出。
  11. 如請求項10所述之前置補償電路,其中,該至少一資料另自該數位預失真執行器在一第一輸入訊號以前接收到的至少一先前輸入訊號、該數位預失真執行器在該第一預失真輸出訊號以前對應該至少一先前輸入訊號輸出的至少一先前預失真輸出訊號、該功率放大器對應該至少一先前預失真輸出訊號輸出的至少一先前輸出訊號、該第一輸入訊號、或該輸出訊號對應的一標籤擷取出。
  12. 如請求項9所述之前置補償電路,其中,根據該貝葉斯優化、該因果貝葉斯優化、或該動態因果貝葉斯優化一併判定複數個自變量最佳 值,該複數個自變量最佳值包含有該至少一參數、該至少一超參數及至少一第一自變量最佳值。
  13. 如請求項9所述之前置補償電路,其中,該因果圖是基於最大後驗及點估計來產生。
  14. 如請求項9所述之前置補償電路,其中,該複數個觀察函數是基於一因果語意生成模型來得到。
  15. 如請求項9所述之前置補償電路,其中,將貝葉斯優化、因果貝葉斯優化、或動態因果貝葉斯優化應用到至少一資料以判定該前置補償電路的至少一參數或至少一超參數,該基礎資料包含有該至少一資料。
  16. 如請求項9所述之前置補償電路,其中,根據該動態因果貝葉斯優化在至少一自變量搜索出至少一自變量最佳值,該至少一自變量最佳值包含有該至少一參數或該至少一超參數,在一第二時間的一第二損失函數是在該第二時間的該至少一自變量、在一第一時間的該至少一自變量、或在該第一時間的一第一損失函數的函數。
TW111147015A 2022-12-07 2022-12-07 前置補償方法及其前置補償電路 TWI819917B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
TW111147015A TWI819917B (zh) 2022-12-07 2022-12-07 前置補償方法及其前置補償電路
CN202211677581.3A CN118157600A (zh) 2022-12-07 2022-12-26 前置补偿方法及其前置补偿电路
US18/116,238 US20240195363A1 (en) 2022-12-07 2023-03-01 Pre-Compensation Method and Pre-Compensation Circuit Thereof
EP23163971.7A EP4383564A1 (en) 2022-12-07 2023-03-24 Pre-compensation method and pre-compensation circuit thereof
JP2023057156A JP2024082216A (ja) 2022-12-07 2023-03-31 前置補償方法及びその前置補償回路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW111147015A TWI819917B (zh) 2022-12-07 2022-12-07 前置補償方法及其前置補償電路

Publications (2)

Publication Number Publication Date
TWI819917B true TWI819917B (zh) 2023-10-21
TW202424801A TW202424801A (zh) 2024-06-16

Family

ID=85727103

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111147015A TWI819917B (zh) 2022-12-07 2022-12-07 前置補償方法及其前置補償電路

Country Status (5)

Country Link
US (1) US20240195363A1 (zh)
EP (1) EP4383564A1 (zh)
JP (1) JP2024082216A (zh)
CN (1) CN118157600A (zh)
TW (1) TWI819917B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109960834A (zh) * 2017-12-25 2019-07-02 复旦大学 一种基于多目标贝叶斯优化的模拟电路多目标优化设计方法
CN114297922A (zh) * 2021-12-24 2022-04-08 杭州电子科技大学 基于贝叶斯优化的多倍频程功率放大器设计方法
CN114297925A (zh) * 2021-12-27 2022-04-08 杭州电子科技大学 基于可行域收缩贝叶斯优化的功放设计方法
US20220198253A1 (en) * 2020-12-23 2022-06-23 Mitsubishi Electric Research Laboratories, Inc. Deep Learning-based Online Adaptation of Digital Pre-Distortion and Power Amplifier Systems

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9093958B2 (en) * 2011-10-20 2015-07-28 Mediatek Singapore Pte. Ltd. Predistortion circuit, wireless communication unit and method for coefficient estimation
EP2781018A1 (en) * 2011-11-17 2014-09-24 Analog Devices, Inc. System linearization
US9680423B2 (en) * 2013-03-13 2017-06-13 Analog Devices Global Under-sampling digital pre-distortion architecture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109960834A (zh) * 2017-12-25 2019-07-02 复旦大学 一种基于多目标贝叶斯优化的模拟电路多目标优化设计方法
US20220198253A1 (en) * 2020-12-23 2022-06-23 Mitsubishi Electric Research Laboratories, Inc. Deep Learning-based Online Adaptation of Digital Pre-Distortion and Power Amplifier Systems
CN114297922A (zh) * 2021-12-24 2022-04-08 杭州电子科技大学 基于贝叶斯优化的多倍频程功率放大器设计方法
CN114297925A (zh) * 2021-12-27 2022-04-08 杭州电子科技大学 基于可行域收缩贝叶斯优化的功放设计方法

Also Published As

Publication number Publication date
CN118157600A (zh) 2024-06-07
US20240195363A1 (en) 2024-06-13
EP4383564A1 (en) 2024-06-12
JP2024082216A (ja) 2024-06-19

Similar Documents

Publication Publication Date Title
US10897276B2 (en) Digital predistortion in varying operating conditions
CN103299542B (zh) 用于数字预失真器的正交基函数集
CN103201949B (zh) 具有抽头输出归一化的非线性模型
EP3054590B1 (en) System linearization
CN103765766A (zh) 使用预失真的放大器线性化
Abdelhafiz et al. Generalized memory polynomial model dimension selection using particle swarm optimization
US7812669B2 (en) Predistortion apparatus, system, and method
JP2010268468A (ja) 先行歪ませ器、先行歪ませ方法及び先行歪ませシステム
TWI819917B (zh) 前置補償方法及其前置補償電路
CN108833145B (zh) 一种使用自组织映射网络的分段二维预失真系统及方法
CN110457854A (zh) 支撑集修正近似消息传递的Volterra数字预失真参数辨识方法
Holcomb et al. Closed-loop identification of Hammerstein systems with application to gas turbines
TW202424801A (zh) 前置補償方法及其前置補償電路
Aguilar‐Lobo et al. Application of the NARX neural network as a digital predistortion technique for linearizing microwave power amplifiers
CN110533169A (zh) 一种基于复值神经网络模型的数字预失真方法及系统
Malhotra et al. SSA optimized digital pre-distorter for compensating non-linear distortion in high power amplifier
Crespo-Cadenas et al. Volterra-based behavioral modeling, parameter estimation, and linearization
Aguilar-Lobo et al. A digital predistortion technique based on a NARX network to linearize GaN class F power amplifiers
Peréz-Wences et al. Digital predistortion of RF power amplifier using the NARX-SVR model
López-Bueno et al. Dataset reduction for neural network based digital predistorters under strong nonlinearities
Li et al. GPU-Based Implementation of Pruned Artificial Neural Networks for Digital Predistortion Linearization of Wideband Power Amplfiers
TWI830276B (zh) 補償功率放大器失真的方法以及系統
Isaakidis Self-organizing Maps for Digital Pre-distortion
Baroni Transformer DPD for Non-Linear Power Amplifiers in Multi Carrier Signals
CN117220615A (zh) 数字预失真方法、系统、计算机设备和可存储介质