TWI651927B - 訊號源分離方法及訊號源分離裝置 - Google Patents

訊號源分離方法及訊號源分離裝置 Download PDF

Info

Publication number
TWI651927B
TWI651927B TW107105469A TW107105469A TWI651927B TW I651927 B TWI651927 B TW I651927B TW 107105469 A TW107105469 A TW 107105469A TW 107105469 A TW107105469 A TW 107105469A TW I651927 B TWI651927 B TW I651927B
Authority
TW
Taiwan
Prior art keywords
signal source
neural network
time
network
source separation
Prior art date
Application number
TW107105469A
Other languages
English (en)
Other versions
TW201935843A (zh
Inventor
Jia-Ching Wang
王家慶
Yuan-Shan Lee
李遠山
Shu-Fan Wang
王書凡
Chien-Yao Wang
王建堯
Original Assignee
National Central University
國立中央大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Central University, 國立中央大學 filed Critical National Central University
Priority to TW107105469A priority Critical patent/TWI651927B/zh
Priority to US15/911,174 priority patent/US20190251421A1/en
Application granted granted Critical
Publication of TWI651927B publication Critical patent/TWI651927B/zh
Publication of TW201935843A publication Critical patent/TW201935843A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/22Source localisation; Inverse modelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Complex Calculations (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本發明提出一種訊號源分離方法及訊號源分離裝置。訊號源分離方法包括:獲得至少兩個來源時頻訊號,以及對應至少兩個來源時頻訊號的混合時頻訊號;將混合時頻訊號置於複數(complex-valued)深層類神經網路的輸入層,並將至少兩個來源時頻訊號作為複數深層類神經網路的目標;計算複數深層類神經網路的成本函數;以及對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。

Description

訊號源分離方法及訊號源分離裝置
本發明是有關於一種訊號源分離方法及訊號源分離裝置,且特別是有關於一種可對時頻訊號的相位進行訓練的訊號源分離方法及訊號源分離裝置。
深層學習(Deep Learning)在訊號源分離中是一個常見的演算法。深層學習可將混合訊號透過短時傅利葉轉換(Short-Time Fourier Transform,STFT)從時域轉換到頻域上,並取其絕對值大小(Magnitude)作為深層類神經網路的輸入值。接著,深層學習再透過已訓練的深層學習類神經網路來得到欲分離訊號的時頻資料,最後再透過逆短時傅利葉轉換(inverse Short-Time Fourier Transform,iSTFT)將訊號轉回時域。然而,只用混合訊號頻譜的能量作為網路訓練資料,而忽略了相位(Phase)這個隱含在短時傅利葉轉換係數中的重要資訊,會造成分離訊號的聽覺品質較差。因此,如何將相位資訊加入深層類神經網路進行訓練是本領域技術人員應致力的目標。
本發明提供一種訊號源分離方法及訊號源分離裝置,將相位資訊加入深層類神經網路進行訓練以提升分離訊號的聽覺品質。
本發明提出一種訊號源分離方法,包括獲得至少兩個來源時頻訊號,以及對應至少兩個來源時頻訊號的混合時頻訊號。訊號源分離方法還包括將混合時頻訊號置於複數(complex-valued)深層類神經網路的輸入層,並將至少兩個來源時頻訊號作為複數深層類神經網路的目標。訊號源分離方法還包括計算複數深層類神經網路的成本函數。訊號源分離方法還包括對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。
在本發明的一實施例中,上述訊號源分離方法還包括對網路參數的實部進行偏微分以對混合時頻訊號的能量進行訓練。
在本發明的一實施例中,上述訊號源分離方法還包括對網路參數的虛部進行偏微分以對混合時頻訊號的相位進行訓練。
在本發明的一實施例中,上述訊號源分離方法還包括以二次誤差作為複數深層類神經網路的成本函數。
在本發明的一實施例中,上述訊號源分離方法還包括以梯度下降法(Gradient Descent)對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分。
在本發明的一實施例中,上述網路參數包括權重值及偏差值。
本發明提出一種訊號源分離裝置,包括處理器及耦接到處理器的記憶體。上述處理器獲得至少兩個來源時頻訊號,以及對應至少兩個來源時頻訊號的混合時頻訊號。上述處理器將混合時頻訊號置於複數(complex-valued)深層類神經網路的輸入層,並將至少兩個來源時頻訊號作為複數深層類神經網路的目標。上述處理器計算複數深層類神經網路的成本函數。上述處理器對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。
在本發明的一實施例中,上述處理器對網路參數的實部進行偏微分以對混合時頻訊號的能量進行訓練。
在本發明的一實施例中,上述處理器對網路參數的虛部進行偏微分以對混合時頻訊號的相位進行訓練。
在本發明的一實施例中,上述處理器以二次誤差作為複數深層類神經網路的成本函數。
在本發明的一實施例中,上述處理器以梯度下降法(Gradient Descent)對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分。
在本發明的一實施例中,上述網路參數包括權重值及偏差值。
基於上述,本發明的訊號源分離方法及訊號源分離裝置會計算複數深層類神經網路的成本函數並對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。在對網路參數的虛部進行偏微分的過程中可對混合時頻訊號的相位進行訓練,從而使複數深層類神經網路能夠獲得更好的分離訊號品質。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
圖1為根據本發明一實施例的訊號源分離裝置的方塊圖。
請參照圖1,本發明的訊號源分離裝置100包括處理器110及記憶體120。記憶體120耦接到處理器110。訊號源分離裝置100可以是個人電腦、伺服器等電子裝置或是智慧型手機、平板電腦等行動裝置,本發明不對其作出限制。處理器110可以是中央處理單元(Central Processing Unit,CPU),或是其他可程式化之一般用途或特殊用途的微處理器(Microprocessor)、數位信號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuit,ASIC)或其他類似元件或上述元件的組合。記憶體120可以是任何型態的固定或可移動隨機存取記憶體(Random Access Memory,RAM)、唯讀記憶體(Read-Only Memory,ROM)、快閃記憶體(flash memory)、硬碟(Hard Disk Drive,HDD)、固態硬碟(Solid State Drive,SSD)或類似元件或上述元件的組合。處理器110可從記憶體120接收時頻訊號用以訓練本發明的複數深層神經網路。
在本發明的複數深層神經網路的前傳遞推導中,隱藏層激發值 x (1),計算如方程式(1)、(2):
net (1)= W (1) x+ b (1)…………………………………………….(1)
x (1)= f( net (1))………………………………………………….(2)
在上述方程式中, x為輸入訊號, W (1)為輸入層到隱藏層之間的權重值, b (1)為其偏差值, f(·)為激發函數。激發函數例如是複數版本的ReLU,讓ReLU可在複數域上作用,以加入網路的收斂速度。
在本發明的複數深層神經網路的前傳遞推導中,輸出層的激發值 x (2),計算如方程式(3)、(4):
net (2)= W (2) x (1)+ b (2)…………………………………………..(3)
x (2)= f( net (2))………………………………………………….(4)
在上述方程式中, W (2)為隱藏層到輸出層之間的權重值, b (2)為其偏差值, f(·)為激發函數。
圖2為根據本發明一實施例的全複數深層神經網路的示意圖。
請參照圖2,本發明的複數深層神經網路可利用第一來源時頻訊號201、第二來源時頻訊號202(或更多的來源時頻訊號)以及對應於第一來源時頻訊號201及第二來源時頻訊號202(或更多的來源時頻訊號)的混合時頻訊號203對複數深層神經網路中的網路參數進行訓練。當訓練完成後,就可將複數深層神經網路應用於訊號源分離的操作。
圖3為根據本發明一實施例的訊號源分離方法的倒傳遞推導流程圖。
請參照圖3,在步驟S301中,獲得至少兩個來源時頻訊號,以及對應至少兩個來源時頻訊號的混合時頻訊號。
在步驟S303中,將混合時頻訊號置於複數深層類神經網路的輸入層,並將至少兩個來源時頻訊號作為複數深層類神經網路的目標。
在步驟S305中,計算複數深層類神經網路的成本函數。具體來說,本發明的訊號源分離方法會先採取二次誤差(Quadratic Error)作為複數深層類神經網路的成本函數(Cost function),其中複數深層類神經網路輸出的誤差值如方程式(5):
ε j = d j - y j , j=1,2,…,N (2)………………………………………..(5)
其中, d j 為複數深層類神經網路期望輸出值,且 y j 為預測值,也就是正確答案。
因此,成本值(Cost value,E)的算法如方程式(6):
……………………………………(6)
在步驟S307中,對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。
具體來說,本發明會利用梯度下降法(Gradient Descent)分別對複數深層類神經網路網路參數(即,權重值 W、偏差值 b)進行偏微分並迭代出一個最佳解。因為E是一個實函數( ε j 與其共軛複數相乘),在複數平面上不可解析(non-analytic)所以無法進行微分操作。因此需要對網路參數的實部Re( )及虛部Im( )分開進行偏微分並更新,其推導結果如下:
…………(7)
……………….(8)
接著,方程式(9)、(10)為輸入層(下標 l)到隱藏層(下標 k)之間的推導:
…………………………………...….(9)
……………………………………….(10)
藉由對網路參數的實部進行偏微分可對混合時頻訊號的能量(magnitude)進行訓練,而藉由對網路參數的虛部進行偏微分可對混合時頻訊號的相位(phase)進行訓練。由於本發明直接使用複數深層類神經網路來學習短時傅利葉轉換特徵,因此學習出來的特徵可保有訊號的能量及相位原始結構。此外,本發明透過倒傳遞結果以迭代的方式來調整網路每一層的參數,因此當迭代到收斂之後就可完成複數複數深層類神經網路的學習。
綜上所述,本發明的訊號源分離方法及訊號源分離裝置會計算複數深層類神經網路的成本函數並對複數深層類神經網路的網路參數的實部及虛部分別進行偏微分,以最小化成本函數。在對網路參數的虛部進行偏微分的過程中可對混合時頻訊號的相位進行訓練,從而使複數深層類神經網路能夠獲得更好的分離訊號品質。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100‧‧‧訊號源分離裝置
110‧‧‧處理器
120‧‧‧記憶體
201‧‧‧第一來源時頻訊號
202‧‧‧第二來源時頻訊號
203‧‧‧混合時頻訊號
S301、S303、S305、S307‧‧‧訊號源分離方法的倒傳遞推導步驟
圖1為根據本發明一實施例的訊號源分離裝置的方塊圖。 圖2為根據本發明一實施例的全複數深層神經網路的示意圖。 圖3為根據本發明一實施例的訊號源分離方法的倒傳遞推導流程圖。

Claims (12)

  1. 一種訊號源分離方法,包括: 獲得至少兩個來源時頻訊號,以及對應該至少兩個來源時頻訊號的一混合時頻訊號; 將該混合時頻訊號置於一複數(complex-valued)深層類神經網路的一輸入層,並將該至少兩個來源時頻訊號作為該複數深層類神經網路的一目標; 計算該複數深層類神經網路的一成本函數;以及 對該複數深層類神經網路的一網路參數的一實部及一虛部分別進行偏微分,以最小化該成本函數。
  2. 如申請專利範圍第1項所述的訊號源分離方法,更包括:對該網路參數的該實部進行偏微分以對該混合時頻訊號的一能量進行訓練。
  3. 如申請專利範圍第1項所述的訊號源分離方法,更包括:對該網路參數的該虛部進行偏微分以對該混合時頻訊號的一相位進行訓練。
  4. 如申請專利範圍第1項所述的訊號源分離方法,更包括:以二次誤差作為該複數深層類神經網路的該成本函數。
  5. 如申請專利範圍第1項所述的訊號源分離方法,更包括:以一梯度下降法(Gradient Descent)對該複數深層類神經網路的該網路參數的該實部及該虛部分別進行偏微分。
  6. 如申請專利範圍第1項所述的訊號源分離方法,其中該網路參數包括一權重值及一偏差值。
  7. 一種訊號源分離裝置,包括: 一處理器;以及 一記憶體,耦接到該處理器,其中該處理器 獲得至少兩個來源時頻訊號,以及對應該至少兩個來源時頻訊號的一混合時頻訊號; 將該混合時頻訊號置於一複數(complex-valued)深層類神經網路的一輸入層,並將該至少兩個來源時頻訊號作為該複數深層類神經網路的一目標; 計算該複數深層類神經網路的一成本函數;以及 對該複數深層類神經網路的一網路參數的一實部及一虛部分別進行偏微分,以最小化該成本函數。
  8. 如申請專利範圍第7項所述的訊號源分離裝置,其中該處理器對該網路參數的該實部進行偏微分以對該混合時頻訊號的一能量進行訓練。
  9. 如申請專利範圍第7項所述的訊號源分離裝置,其中該處理器對該網路參數的該虛部進行偏微分以對該混合時頻訊號的一相位進行訓練。
  10. 如申請專利範圍第7項所述的訊號源分離裝置,其中該處理器以二次誤差作為該複數深層類神經網路的該成本函數。
  11. 如申請專利範圍第7項所述的訊號源分離裝置,其中該處理器以一梯度下降法對該複數深層類神經網路的該網路參數的該實部及該虛部分別進行偏微分。
  12. 如申請專利範圍第7項所述的訊號源分離裝置,其中該網路參數包括一權重值及一偏差值。
TW107105469A 2018-02-14 2018-02-14 訊號源分離方法及訊號源分離裝置 TWI651927B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW107105469A TWI651927B (zh) 2018-02-14 2018-02-14 訊號源分離方法及訊號源分離裝置
US15/911,174 US20190251421A1 (en) 2018-02-14 2018-03-05 Source separation method and source seperation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107105469A TWI651927B (zh) 2018-02-14 2018-02-14 訊號源分離方法及訊號源分離裝置

Publications (2)

Publication Number Publication Date
TWI651927B true TWI651927B (zh) 2019-02-21
TW201935843A TW201935843A (zh) 2019-09-01

Family

ID=66213750

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107105469A TWI651927B (zh) 2018-02-14 2018-02-14 訊號源分離方法及訊號源分離裝置

Country Status (2)

Country Link
US (1) US20190251421A1 (zh)
TW (1) TWI651927B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113364712A (zh) * 2021-05-19 2021-09-07 电子科技大学 基于ddpg网络的混合辐射源信号分离方法
US11741343B2 (en) 2019-11-07 2023-08-29 National Central University Source separation method, apparatus, and non-transitory computer-readable medium

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11645356B2 (en) * 2018-09-04 2023-05-09 International Business Machines Corporation Deep learning for partial differential equation (PDE) based models
CN110659684A (zh) * 2019-09-23 2020-01-07 中国人民解放军海军航空大学 一种基于卷积神经网络stbc信号识别方法
CN111316352B (zh) * 2019-12-24 2023-10-10 深圳市优必选科技股份有限公司 语音合成方法、装置、计算机设备和存储介质
US11863221B1 (en) * 2020-07-14 2024-01-02 Hrl Laboratories, Llc Low size, weight and power (swap) efficient hardware implementation of a wide instantaneous bandwidth neuromorphic adaptive core (NeurACore)
CN114897144A (zh) * 2022-05-13 2022-08-12 苏州大学 基于复值神经网络的复值时序信号预测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170053203A1 (en) * 2014-07-30 2017-02-23 Mitsubishi Electric Research Laboratories, Inc. Neural Networks for Transforming Signals
US20170061978A1 (en) * 2014-11-07 2017-03-02 Shannon Campbell Real-time method for implementing deep neural network based speech separation
US20170316792A1 (en) * 2016-05-02 2017-11-02 Google Inc. Automatic determination of timing windows for speech captions in an audio stream
US20170337924A1 (en) * 2016-05-19 2017-11-23 Microsoft Technology Licensing, Llc Permutation invariant training for talker-independent multi-talker speech separation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2040903C (en) * 1991-04-22 2003-10-07 John G. Sutherland Neural networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170053203A1 (en) * 2014-07-30 2017-02-23 Mitsubishi Electric Research Laboratories, Inc. Neural Networks for Transforming Signals
US20170061978A1 (en) * 2014-11-07 2017-03-02 Shannon Campbell Real-time method for implementing deep neural network based speech separation
US20170316792A1 (en) * 2016-05-02 2017-11-02 Google Inc. Automatic determination of timing windows for speech captions in an audio stream
US20170337924A1 (en) * 2016-05-19 2017-11-23 Microsoft Technology Licensing, Llc Permutation invariant training for talker-independent multi-talker speech separation

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Tuan Pham et al.,"Source separation using dictionary learning and deep recurrent neural network with locality preserving constraint",2017 IEEE International Conference on Multimedia and Expo (ICME), 10~14 July 2017,
Tuan Pham et al.,"Source separation using dictionary learning and deep recurrent neural network with locality preserving constraint",2017 IEEE International Conference on Multimedia and Expo (ICME), 10~14 July 2017, Yuan-Shan Lee et al.,"Fully complex deep neural network for phase-incorporating monaural source separation",2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 5~9 March 2017 *
Yuan-Shan Lee et al.,"Fully complex deep neural network for phase-incorporating monaural source separation",2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 5~9 March 2017,

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11741343B2 (en) 2019-11-07 2023-08-29 National Central University Source separation method, apparatus, and non-transitory computer-readable medium
CN113364712A (zh) * 2021-05-19 2021-09-07 电子科技大学 基于ddpg网络的混合辐射源信号分离方法
CN113364712B (zh) * 2021-05-19 2022-06-14 电子科技大学 基于ddpg网络的混合辐射源信号分离方法

Also Published As

Publication number Publication date
US20190251421A1 (en) 2019-08-15
TW201935843A (zh) 2019-09-01

Similar Documents

Publication Publication Date Title
TWI651927B (zh) 訊號源分離方法及訊號源分離裝置
US11081105B2 (en) Model learning device, method and recording medium for learning neural network model
US10592800B2 (en) Neural networks for transforming signals
Scardapane et al. Online sequential extreme learning machine with kernels
US9900722B2 (en) HRTF personalization based on anthropometric features
Bhotto et al. Affine-projection-like adaptive-filtering algorithms using gradient-based step size
WO2021041133A1 (en) Resource constrained neural network architecture search
JP2018529159A5 (zh)
Ülkü et al. Marching on-in-time solution of the time domain magnetic field integral equation using a predictor-corrector scheme
US20190244100A1 (en) Cascaded computing for convolutional neural networks
WO2015176305A1 (zh) 人形图像分割方法
Izacard et al. A learning-based framework for line-spectra super-resolution
CN111144124B (zh) 机器学习模型的训练方法、意图识别方法及相关装置、设备
WO2019047703A1 (zh) 音频事件检测方法、装置及计算机可读存储介质
CN109976087B (zh) 掩模图案模型的生成方法及掩模图案的优化方法
US9437208B2 (en) General sound decomposition models
Dong et al. Analysis SimCO: A new algorithm for analysis dictionary learning
JP2016004547A (ja) 算出装置、算出方法及び算出プログラム
Shi et al. FASPR: A fast sparse phase retrieval algorithm via the epigraph concept
Lin et al. Learning-based compressive sensing method for EUV lithographic source optimization
US9318106B2 (en) Joint sound model generation techniques
US20130156222A1 (en) Method and Apparatus for Blind Signal Extraction
Slavakis et al. Generalized thresholding and online sparsity-aware learning in a union of subspaces
Wu et al. Mean-square analysis of the gradient projection sparse recovery algorithm based on non-uniform norm
WO2018198454A1 (ja) 情報処理装置、および情報処理方法