TWI651927B - 訊號源分離方法及訊號源分離裝置 - Google Patents
訊號源分離方法及訊號源分離裝置 Download PDFInfo
- Publication number
- TWI651927B TWI651927B TW107105469A TW107105469A TWI651927B TW I651927 B TWI651927 B TW I651927B TW 107105469 A TW107105469 A TW 107105469A TW 107105469 A TW107105469 A TW 107105469A TW I651927 B TWI651927 B TW I651927B
- Authority
- TW
- Taiwan
- Prior art keywords
- signal source
- neural network
- time
- network
- source separation
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/22—Source localisation; Inverse modelling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Complex Calculations (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
本發明提出一種訊號源分離方法及訊號源分離裝置。訊號源分離方法包括:獲得至少兩個來源時頻訊號,以及對應至少兩個來源時頻訊號的混合時頻訊號;將混合時頻訊號置於複數(complex-valued)深層類神經網路的輸入層,並將至少兩個來源時頻訊號作為複數深層類神經網路的目標;計算複數深層類神經網路的成本函數;以及對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。
Description
本發明是有關於一種訊號源分離方法及訊號源分離裝置,且特別是有關於一種可對時頻訊號的相位進行訓練的訊號源分離方法及訊號源分離裝置。
深層學習(Deep Learning)在訊號源分離中是一個常見的演算法。深層學習可將混合訊號透過短時傅利葉轉換(Short-Time Fourier Transform,STFT)從時域轉換到頻域上,並取其絕對值大小(Magnitude)作為深層類神經網路的輸入值。接著,深層學習再透過已訓練的深層學習類神經網路來得到欲分離訊號的時頻資料,最後再透過逆短時傅利葉轉換(inverse Short-Time Fourier Transform,iSTFT)將訊號轉回時域。然而,只用混合訊號頻譜的能量作為網路訓練資料,而忽略了相位(Phase)這個隱含在短時傅利葉轉換係數中的重要資訊,會造成分離訊號的聽覺品質較差。因此,如何將相位資訊加入深層類神經網路進行訓練是本領域技術人員應致力的目標。
本發明提供一種訊號源分離方法及訊號源分離裝置,將相位資訊加入深層類神經網路進行訓練以提升分離訊號的聽覺品質。
本發明提出一種訊號源分離方法,包括獲得至少兩個來源時頻訊號,以及對應至少兩個來源時頻訊號的混合時頻訊號。訊號源分離方法還包括將混合時頻訊號置於複數(complex-valued)深層類神經網路的輸入層,並將至少兩個來源時頻訊號作為複數深層類神經網路的目標。訊號源分離方法還包括計算複數深層類神經網路的成本函數。訊號源分離方法還包括對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。
在本發明的一實施例中,上述訊號源分離方法還包括對網路參數的實部進行偏微分以對混合時頻訊號的能量進行訓練。
在本發明的一實施例中,上述訊號源分離方法還包括對網路參數的虛部進行偏微分以對混合時頻訊號的相位進行訓練。
在本發明的一實施例中,上述訊號源分離方法還包括以二次誤差作為複數深層類神經網路的成本函數。
在本發明的一實施例中,上述訊號源分離方法還包括以梯度下降法(Gradient Descent)對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分。
在本發明的一實施例中,上述網路參數包括權重值及偏差值。
本發明提出一種訊號源分離裝置,包括處理器及耦接到處理器的記憶體。上述處理器獲得至少兩個來源時頻訊號,以及對應至少兩個來源時頻訊號的混合時頻訊號。上述處理器將混合時頻訊號置於複數(complex-valued)深層類神經網路的輸入層,並將至少兩個來源時頻訊號作為複數深層類神經網路的目標。上述處理器計算複數深層類神經網路的成本函數。上述處理器對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。
在本發明的一實施例中,上述處理器對網路參數的實部進行偏微分以對混合時頻訊號的能量進行訓練。
在本發明的一實施例中,上述處理器對網路參數的虛部進行偏微分以對混合時頻訊號的相位進行訓練。
在本發明的一實施例中,上述處理器以二次誤差作為複數深層類神經網路的成本函數。
在本發明的一實施例中,上述處理器以梯度下降法(Gradient Descent)對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分。
在本發明的一實施例中,上述網路參數包括權重值及偏差值。
基於上述,本發明的訊號源分離方法及訊號源分離裝置會計算複數深層類神經網路的成本函數並對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。在對網路參數的虛部進行偏微分的過程中可對混合時頻訊號的相位進行訓練,從而使複數深層類神經網路能夠獲得更好的分離訊號品質。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
圖1為根據本發明一實施例的訊號源分離裝置的方塊圖。
請參照圖1,本發明的訊號源分離裝置100包括處理器110及記憶體120。記憶體120耦接到處理器110。訊號源分離裝置100可以是個人電腦、伺服器等電子裝置或是智慧型手機、平板電腦等行動裝置,本發明不對其作出限制。處理器110可以是中央處理單元(Central Processing Unit,CPU),或是其他可程式化之一般用途或特殊用途的微處理器(Microprocessor)、數位信號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuit,ASIC)或其他類似元件或上述元件的組合。記憶體120可以是任何型態的固定或可移動隨機存取記憶體(Random Access Memory,RAM)、唯讀記憶體(Read-Only Memory,ROM)、快閃記憶體(flash memory)、硬碟(Hard Disk Drive,HDD)、固態硬碟(Solid State Drive,SSD)或類似元件或上述元件的組合。處理器110可從記憶體120接收時頻訊號用以訓練本發明的複數深層神經網路。
在本發明的複數深層神經網路的前傳遞推導中,隱藏層激發值
x (1)∈
,計算如方程式(1)、(2):
net (1)=
W (1) x+
b (1)…………………………………………….(1)
x (1)=
f(
net (1))………………………………………………….(2)
在上述方程式中,
x∈
為輸入訊號,
W (1)∈
為輸入層到隱藏層之間的權重值,
b (1)∈
為其偏差值,
f(·)為激發函數。激發函數例如是複數版本的ReLU,讓ReLU可在複數域上作用,以加入網路的收斂速度。
在本發明的複數深層神經網路的前傳遞推導中,輸出層的激發值
x (2)∈
,計算如方程式(3)、(4):
net (2)=
W (2) x (1)+
b (2)…………………………………………..(3)
x (2)=
f(
net (2))………………………………………………….(4)
在上述方程式中,
W (2)∈
為隱藏層到輸出層之間的權重值,
b (2)∈
為其偏差值,
f(·)為激發函數。
圖2為根據本發明一實施例的全複數深層神經網路的示意圖。
請參照圖2,本發明的複數深層神經網路可利用第一來源時頻訊號201、第二來源時頻訊號202(或更多的來源時頻訊號)以及對應於第一來源時頻訊號201及第二來源時頻訊號202(或更多的來源時頻訊號)的混合時頻訊號203對複數深層神經網路中的網路參數進行訓練。當訓練完成後,就可將複數深層神經網路應用於訊號源分離的操作。
圖3為根據本發明一實施例的訊號源分離方法的倒傳遞推導流程圖。
請參照圖3,在步驟S301中,獲得至少兩個來源時頻訊號,以及對應至少兩個來源時頻訊號的混合時頻訊號。
在步驟S303中,將混合時頻訊號置於複數深層類神經網路的輸入層,並將至少兩個來源時頻訊號作為複數深層類神經網路的目標。
在步驟S305中,計算複數深層類神經網路的成本函數。具體來說,本發明的訊號源分離方法會先採取二次誤差(Quadratic Error)作為複數深層類神經網路的成本函數(Cost function),其中複數深層類神經網路輸出的誤差值如方程式(5):
ε
j =
d
j -
y
j ,
j=1,2,…,N
(2)………………………………………..(5)
其中,
d
j 為複數深層類神經網路期望輸出值,且
y
j 為預測值,也就是正確答案。
因此,成本值(Cost value,E)的算法如方程式(6):
……………………………………(6)
在步驟S307中,對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。
具體來說,本發明會利用梯度下降法(Gradient Descent)分別對複數深層類神經網路網路參數(即,權重值
W、偏差值
b)進行偏微分並迭代出一個最佳解。因為E是一個實函數(
ε
j 與其共軛複數相乘),在複數平面上不可解析(non-analytic)所以無法進行微分操作。因此需要對網路參數的實部Re(
)及虛部Im(
)分開進行偏微分並更新,其推導結果如下:
…………(7)
……………….(8)
接著,方程式(9)、(10)為輸入層(下標
l)到隱藏層(下標
k)之間的推導:
…………………………………...….(9)
……………………………………….(10)
藉由對網路參數的實部進行偏微分可對混合時頻訊號的能量(magnitude)進行訓練,而藉由對網路參數的虛部進行偏微分可對混合時頻訊號的相位(phase)進行訓練。由於本發明直接使用複數深層類神經網路來學習短時傅利葉轉換特徵,因此學習出來的特徵可保有訊號的能量及相位原始結構。此外,本發明透過倒傳遞結果以迭代的方式來調整網路每一層的參數,因此當迭代到收斂之後就可完成複數複數深層類神經網路的學習。
綜上所述,本發明的訊號源分離方法及訊號源分離裝置會計算複數深層類神經網路的成本函數並對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。在對網路參數的虛部進行偏微分的過程中可對混合時頻訊號的相位進行訓練,從而使複數深層類神經網路能夠獲得更好的分離訊號品質。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100‧‧‧訊號源分離裝置
110‧‧‧處理器
120‧‧‧記憶體
201‧‧‧第一來源時頻訊號
202‧‧‧第二來源時頻訊號
203‧‧‧混合時頻訊號
S301、S303、S305、S307‧‧‧訊號源分離方法的倒傳遞推導步驟
圖1為根據本發明一實施例的訊號源分離裝置的方塊圖。 圖2為根據本發明一實施例的全複數深層神經網路的示意圖。 圖3為根據本發明一實施例的訊號源分離方法的倒傳遞推導流程圖。
Claims (12)
- 一種訊號源分離方法,包括: 獲得至少兩個來源時頻訊號,以及對應該至少兩個來源時頻訊號的一混合時頻訊號; 將該混合時頻訊號置於一複數(complex-valued)深層類神經網路的一輸入層,並將該至少兩個來源時頻訊號作為該複數深層類神經網路的一目標; 計算該複數深層類神經網路的一成本函數;以及 對該複數深層類神經網路的一網路參數的一實部及一虛部分別進行偏微分,以最小化該成本函數。
- 如申請專利範圍第1項所述的訊號源分離方法,更包括:對該網路參數的該實部進行偏微分以對該混合時頻訊號的一能量進行訓練。
- 如申請專利範圍第1項所述的訊號源分離方法,更包括:對該網路參數的該虛部進行偏微分以對該混合時頻訊號的一相位進行訓練。
- 如申請專利範圍第1項所述的訊號源分離方法,更包括:以二次誤差作為該複數深層類神經網路的該成本函數。
- 如申請專利範圍第1項所述的訊號源分離方法,更包括:以一梯度下降法(Gradient Descent)對該複數深層類神經網路的該網路參數的該實部及該虛部分別進行偏微分。
- 如申請專利範圍第1項所述的訊號源分離方法,其中該網路參數包括一權重值及一偏差值。
- 一種訊號源分離裝置,包括: 一處理器;以及 一記憶體,耦接到該處理器,其中該處理器 獲得至少兩個來源時頻訊號,以及對應該至少兩個來源時頻訊號的一混合時頻訊號; 將該混合時頻訊號置於一複數(complex-valued)深層類神經網路的一輸入層,並將該至少兩個來源時頻訊號作為該複數深層類神經網路的一目標; 計算該複數深層類神經網路的一成本函數;以及 對該複數深層類神經網路的一網路參數的一實部及一虛部分別進行偏微分,以最小化該成本函數。
- 如申請專利範圍第7項所述的訊號源分離裝置,其中該處理器對該網路參數的該實部進行偏微分以對該混合時頻訊號的一能量進行訓練。
- 如申請專利範圍第7項所述的訊號源分離裝置,其中該處理器對該網路參數的該虛部進行偏微分以對該混合時頻訊號的一相位進行訓練。
- 如申請專利範圍第7項所述的訊號源分離裝置,其中該處理器以二次誤差作為該複數深層類神經網路的該成本函數。
- 如申請專利範圍第7項所述的訊號源分離裝置,其中該處理器以一梯度下降法對該複數深層類神經網路的該網路參數的該實部及該虛部分別進行偏微分。
- 如申請專利範圍第7項所述的訊號源分離裝置,其中該網路參數包括一權重值及一偏差值。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107105469A TWI651927B (zh) | 2018-02-14 | 2018-02-14 | 訊號源分離方法及訊號源分離裝置 |
US15/911,174 US20190251421A1 (en) | 2018-02-14 | 2018-03-05 | Source separation method and source seperation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107105469A TWI651927B (zh) | 2018-02-14 | 2018-02-14 | 訊號源分離方法及訊號源分離裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI651927B true TWI651927B (zh) | 2019-02-21 |
TW201935843A TW201935843A (zh) | 2019-09-01 |
Family
ID=66213750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107105469A TWI651927B (zh) | 2018-02-14 | 2018-02-14 | 訊號源分離方法及訊號源分離裝置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190251421A1 (zh) |
TW (1) | TWI651927B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113364712A (zh) * | 2021-05-19 | 2021-09-07 | 电子科技大学 | 基于ddpg网络的混合辐射源信号分离方法 |
US11741343B2 (en) | 2019-11-07 | 2023-08-29 | National Central University | Source separation method, apparatus, and non-transitory computer-readable medium |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11645356B2 (en) * | 2018-09-04 | 2023-05-09 | International Business Machines Corporation | Deep learning for partial differential equation (PDE) based models |
CN110659684A (zh) * | 2019-09-23 | 2020-01-07 | 中国人民解放军海军航空大学 | 一种基于卷积神经网络stbc信号识别方法 |
CN111316352B (zh) * | 2019-12-24 | 2023-10-10 | 深圳市优必选科技股份有限公司 | 语音合成方法、装置、计算机设备和存储介质 |
US11863221B1 (en) * | 2020-07-14 | 2024-01-02 | Hrl Laboratories, Llc | Low size, weight and power (swap) efficient hardware implementation of a wide instantaneous bandwidth neuromorphic adaptive core (NeurACore) |
CN114897144A (zh) * | 2022-05-13 | 2022-08-12 | 苏州大学 | 基于复值神经网络的复值时序信号预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170053203A1 (en) * | 2014-07-30 | 2017-02-23 | Mitsubishi Electric Research Laboratories, Inc. | Neural Networks for Transforming Signals |
US20170061978A1 (en) * | 2014-11-07 | 2017-03-02 | Shannon Campbell | Real-time method for implementing deep neural network based speech separation |
US20170316792A1 (en) * | 2016-05-02 | 2017-11-02 | Google Inc. | Automatic determination of timing windows for speech captions in an audio stream |
US20170337924A1 (en) * | 2016-05-19 | 2017-11-23 | Microsoft Technology Licensing, Llc | Permutation invariant training for talker-independent multi-talker speech separation |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2040903C (en) * | 1991-04-22 | 2003-10-07 | John G. Sutherland | Neural networks |
-
2018
- 2018-02-14 TW TW107105469A patent/TWI651927B/zh active
- 2018-03-05 US US15/911,174 patent/US20190251421A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170053203A1 (en) * | 2014-07-30 | 2017-02-23 | Mitsubishi Electric Research Laboratories, Inc. | Neural Networks for Transforming Signals |
US20170061978A1 (en) * | 2014-11-07 | 2017-03-02 | Shannon Campbell | Real-time method for implementing deep neural network based speech separation |
US20170316792A1 (en) * | 2016-05-02 | 2017-11-02 | Google Inc. | Automatic determination of timing windows for speech captions in an audio stream |
US20170337924A1 (en) * | 2016-05-19 | 2017-11-23 | Microsoft Technology Licensing, Llc | Permutation invariant training for talker-independent multi-talker speech separation |
Non-Patent Citations (3)
Title |
---|
Tuan Pham et al.,"Source separation using dictionary learning and deep recurrent neural network with locality preserving constraint",2017 IEEE International Conference on Multimedia and Expo (ICME), 10~14 July 2017, |
Tuan Pham et al.,"Source separation using dictionary learning and deep recurrent neural network with locality preserving constraint",2017 IEEE International Conference on Multimedia and Expo (ICME), 10~14 July 2017, Yuan-Shan Lee et al.,"Fully complex deep neural network for phase-incorporating monaural source separation",2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 5~9 March 2017 * |
Yuan-Shan Lee et al.,"Fully complex deep neural network for phase-incorporating monaural source separation",2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 5~9 March 2017, |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11741343B2 (en) | 2019-11-07 | 2023-08-29 | National Central University | Source separation method, apparatus, and non-transitory computer-readable medium |
CN113364712A (zh) * | 2021-05-19 | 2021-09-07 | 电子科技大学 | 基于ddpg网络的混合辐射源信号分离方法 |
CN113364712B (zh) * | 2021-05-19 | 2022-06-14 | 电子科技大学 | 基于ddpg网络的混合辐射源信号分离方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190251421A1 (en) | 2019-08-15 |
TW201935843A (zh) | 2019-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI651927B (zh) | 訊號源分離方法及訊號源分離裝置 | |
US11081105B2 (en) | Model learning device, method and recording medium for learning neural network model | |
US10592800B2 (en) | Neural networks for transforming signals | |
Scardapane et al. | Online sequential extreme learning machine with kernels | |
US9900722B2 (en) | HRTF personalization based on anthropometric features | |
Bhotto et al. | Affine-projection-like adaptive-filtering algorithms using gradient-based step size | |
WO2021041133A1 (en) | Resource constrained neural network architecture search | |
JP2018529159A5 (zh) | ||
Ülkü et al. | Marching on-in-time solution of the time domain magnetic field integral equation using a predictor-corrector scheme | |
US20190244100A1 (en) | Cascaded computing for convolutional neural networks | |
WO2015176305A1 (zh) | 人形图像分割方法 | |
Izacard et al. | A learning-based framework for line-spectra super-resolution | |
CN111144124B (zh) | 机器学习模型的训练方法、意图识别方法及相关装置、设备 | |
WO2019047703A1 (zh) | 音频事件检测方法、装置及计算机可读存储介质 | |
CN109976087B (zh) | 掩模图案模型的生成方法及掩模图案的优化方法 | |
US9437208B2 (en) | General sound decomposition models | |
Dong et al. | Analysis SimCO: A new algorithm for analysis dictionary learning | |
JP2016004547A (ja) | 算出装置、算出方法及び算出プログラム | |
Shi et al. | FASPR: A fast sparse phase retrieval algorithm via the epigraph concept | |
Lin et al. | Learning-based compressive sensing method for EUV lithographic source optimization | |
US9318106B2 (en) | Joint sound model generation techniques | |
US20130156222A1 (en) | Method and Apparatus for Blind Signal Extraction | |
Slavakis et al. | Generalized thresholding and online sparsity-aware learning in a union of subspaces | |
Wu et al. | Mean-square analysis of the gradient projection sparse recovery algorithm based on non-uniform norm | |
WO2018198454A1 (ja) | 情報処理装置、および情報処理方法 |