TW201405550A - 訊號增益系統及方法 - Google Patents

訊號增益系統及方法 Download PDF

Info

Publication number
TW201405550A
TW201405550A TW101127299A TW101127299A TW201405550A TW 201405550 A TW201405550 A TW 201405550A TW 101127299 A TW101127299 A TW 101127299A TW 101127299 A TW101127299 A TW 101127299A TW 201405550 A TW201405550 A TW 201405550A
Authority
TW
Taiwan
Prior art keywords
data
signal
sound
gain
sound data
Prior art date
Application number
TW101127299A
Other languages
English (en)
Inventor
Ching-Wei Ho
Mu-San Chung
Chun-Hsien Lin
Che-Yi Chu
Chin-Yu Chen
Min-Bing Shia
Original Assignee
Hon Hai Prec Ind Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hon Hai Prec Ind Co Ltd filed Critical Hon Hai Prec Ind Co Ltd
Priority to TW101127299A priority Critical patent/TW201405550A/zh
Priority to US13/929,787 priority patent/US9330670B2/en
Priority to JP2013155353A priority patent/JP2014026284A/ja
Publication of TW201405550A publication Critical patent/TW201405550A/zh

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)

Abstract

本發明提供一種訊號增益系統。該系統接收待偵測的聲音訊號的頻率及用戶設置的該待偵測的聲音訊號強度的增益倍數,接收編/解碼單元利用音頻編碼方法轉換得到的數位聲音訊號資料,根據音頻編碼方法對聲音資料的採樣頻率及待偵測的聲音訊號的頻率計算該聲音資料的切分長度,再根據切分長度對接收到的聲音資料進行分割,取增益倍數組長度為的資料段進行累加,以該得到的聲音資料為振幅增益後的該待測的聲音訊號的資料。

Description

訊號增益系統及方法
本發明涉及一種訊號處理系統及方法,尤其係關於一種訊號增益系統及方法。
傅立葉轉換經常使用在語音辨識中,用於辨識聲音訊號中包含的不同頻率的訊號的強度。但是,傅立葉轉換計算量相當大需要佔用較大的儲存空間,所以對於嵌入式系統來說執行傅立葉轉換是相當大的負擔。
鑒於以上內容,有必要提供一種訊號增益系統及方法,可以從包括多種頻率的訊號中過濾出特定頻率的訊號。
一種訊號增益系統,系統包括:參數設置模組,用於接收待偵測的聲音訊號的頻率f1及用戶設置的該待偵測的聲音訊號強度的增益倍數m;資料接收模組,用於接收編/解碼單元利用音頻編碼方法轉換音源輸出的類比聲音資料得到的數位聲音資料;資料分割模組,用於根據數位聲音資料的採樣頻率f2及待偵測的聲音訊號的頻率f1計算該數位聲音資料的切分長度n;強度增益模組,用於根據切分長度n對接收到的數位聲音資料進行分割,取m組長度為n的資料段進行累加;及資料輸出模組,用於輸出累加後得到的數位聲音資料至顯示單元,以該得到的數位聲音資料作為振幅增益m倍後的該待測的聲音訊號的資料。
一種訊號增益方法,應用於資料處理裝置,該方法包括:接收待偵測的聲音訊號的頻率f1及用戶設置的該待偵測的聲音訊號強度的增益倍數m;接收編/解碼單元利用音頻編碼方法轉換音源輸出的類比聲音資料得到的數位聲音資料;根據數位聲音資料的採樣頻率f2及待偵測的聲音訊號的頻率f1計算該數位聲音資料的切分長度n;根據切分長度n對接收到的數位聲音資料進行分割,取m組長度為n的資料段進行累加;及輸出累加後得到的數位聲音資料至顯示單元,以該得到的數位聲音資料作為振幅增益m倍後的該待測的聲音訊號的資料。
相較於習知技術,本發明所提供之訊號增益系統及方法,可以從包括多種頻率的訊號中擷取特定頻率的訊號,計算量相對較小,對儲存空間容量的要求較低,適合應用於嵌入式設備中識別聲音訊號。
參閱圖1所示,係本發明訊號增益系統100較佳實施方式之功能模組圖。該訊號增益系統100包括虛擬共鳴管單元10、儲存單元20、處理單元30、編/解碼單元40及顯示單元50。編/解碼單元40接收音源200輸出的類比聲音訊號,利用音頻編碼方法將類比聲音訊號轉換成數位聲音訊號。該訊號增益系統100可以為網路攝像機、可擕式電腦、數碼相機等具有音頻處理功能的計算設備。音源200為產生類比聲音訊號的人/物,例如揚聲器。
虛擬共鳴管單元10根據共鳴管原理(當某個聲音訊號的頻率與共鳴管的頻率相同時產生共振)提供一種“虛擬共鳴管”演算法,增強轉換得到的數位聲音訊號中某個特定頻率的聲音訊號的強度,減弱其他頻率的聲音訊號的強度,以從轉換得到的數位聲音訊號中分離出特定的聲音訊號(具體介紹見下文)。儲存單元20儲存處理前後的數位聲音訊號資料,及該虛擬共鳴管單元10包括的電腦程式化指令。處理單元30執行所述電腦程式化指令,提供虛擬共鳴管單元10的上述功能。
該虛擬共鳴管單元10包括參數設置模組11、資料接收模組12、資料分割模組13、強度增益模組14及資料輸出模組15。
參數設置模組11接收待偵測的聲音訊號的頻率f1及用戶設置的該待偵測的聲音訊號強度的增益倍數m。例如,假設待偵測的聲音訊號為一個火警報警器發出的頻率為250Hz、振幅為588的警報音,用戶設置的該警報音的增益倍數為480倍(即將其振幅增強480倍)。
資料接收模組12接收編/解碼單元40利用音頻編碼方法轉換得到的數位聲音訊號資料(以下簡稱聲音資料)。例如,在本實施例中,該音頻編碼方法可以為a-law或u-law。a-law或u-law對音源200輸出的類比聲音訊號每秒取樣8000次(即取樣頻率為8000 Hz),每個取樣點的值(類比聲音訊號在每次取樣時的電壓值/音量)為16位元(bit),傳送聲音串流(streaming)時將16 bit的資料編碼成8 bit(1 byte),即聲音串流的傳輸量為8000 * 1 byte=8K bytes/S。
資料分割模組13根據音頻編碼方法對聲音資料的採樣頻率f2及待偵測的聲音訊號的頻率f1計算該聲音資料的切分長度n,n=f2/f1。例如,f2=8000 Hz,f1=250Hz,則n=f2/f1=8000 Hz/250Hz=8000 個取樣點/S *(1S/400)=32個取樣點。每個取樣點的值為16 bits=2 bytes,則n=64 bytes。在本實施例中,計算聲音資料的切分長度、根據切分長度對聲音資料進行分割、累加的法則被稱作“虛擬共鳴管”演算法。這裏的切分長度n也可以稱作“虛擬共鳴管”的長度,類似於共鳴管的長度,待偵測的聲音訊號的頻率f1為“虛擬共鳴管”的頻率。
強度增益模組14根據切分長度n對接收到的聲音資料進行分割,取m組長度為n的資料段進行累加。在本實施例中,該“虛擬共鳴管”演算法是採用類似共鳴管的原理。以下結合圖3A、圖3B、圖3C、圖3D簡要陳述共鳴管原理。
參閱圖3A所示,圖3A是一段聲音訊號,根據傅立葉轉換原理,圖3A的訊號可以拆解成數個弦波如圖3B所示,將這些弦波迭加在一起就會變成原本圖3A的訊號,假設共鳴管的長度為N1,將圖3A的訊號取兩段長度為N1的訊號作迭加(將圖3A的1與2這兩個部分做迭加),根據傅立葉轉換的原理,將圖3A的1與2這兩個部分做迭加等同將圖3B的兩個弦波的1與2這兩個部分個別做迭加,圖3B迭加後的結果如圖3C所示,圖3C上方的訊號近似一條直線,圖3C下方的訊號則增強為圖3B下方的訊號強度的2倍,即當與共鳴管相同頻率的聲音訊號經過共鳴管時,其強度(振幅)增強,根據反傅立葉轉換原理,將圖3C的上方與下方的訊號作迭加後就會得到如圖3D所示的訊號(相對於圖3A的1與2這兩個部分做迭加後的訊號),也就是說圖3A的1與2這兩個部分做迭加後的訊號會等同圖3D的訊號,跟共鳴管頻率相同的訊號被增強為原來的兩倍,其他頻率的訊號則會衰減。在圖3A圖3B、圖3C、圖3D中,波形圖的縱軸代表振幅,橫軸代表時間,若輸入的聲音格式為u-law,u-law每秒取樣8000次,則橫軸上的一個刻度為1/8000秒。
根據上述例子,當所述聲音資料包括250Hz、250.1 Hz、250.2 Hz、250.3 Hz、250.4 Hz、250.5 Hz等6種頻率不同、原始振幅均為588的訊號,訊號的編碼方法為u-law。其中,頻率為250Hz的訊號為待偵測的火警報警器發出的警報音。根據上述分析,聲音資料的切分長度(即“虛擬共鳴管”的長度)n=f2/f1=8000 Hz/250Hz=8000 個取樣點/S *(1S/400)=32個取樣點。強度增益模組14對接收到的聲音資料以32個取樣點= 64 bytes為一個單位對接收到的上述聲音資料依次進行分割,得到一系列單位長度為64 bytes的資料段。參閱圖4所示,強度增益模組14分別依次取60組、120組、240組、480組單位長度為64 bytes的資料段相加後,得到的訊號資料中包括的上述6種頻率不同的訊號的振幅產生的變化。也可以理解為當增益倍數m分別等於60、120、240、480時,頻率為250Hz、250.1 Hz、250.2 Hz、250.3 Hz、250.4 Hz、250.5 Hz的訊號弦波通過頻率為250 Hz、長度為64 bytes 的“虛擬共鳴管”後振幅產生的變化。
圖4中A1欄表示聲音資料中包括的訊號的不同頻率(原始振幅相同),B1欄、D1欄、F1欄、H1欄表示增益倍數m,C1欄、E1欄、G1欄、I1欄表示經過上述“虛擬共鳴管”演算法後,各種頻率的訊號的振幅的變化相對於頻率為250Hz的訊號的振幅的變化的百分比例。例如,由圖4可以看出,當n=64 bytes,m=480,原始振幅為588、頻率為250的訊號的振幅為282240,增強後的振幅為原始振幅的282240/588=480倍,而原始振幅為588、頻率為250.5的訊號的振幅變為11649,增強後的振幅為原始振幅的11649/588(約等於19.81)倍,其相對於頻率為250Hz的訊號的振幅的變化的百分比例為19.81/480(約等於4.1%)。很明顯,250.5Hz訊號被增強的幅度遠不如250Hz訊號被增強的幅度。
參閱圖5所示,係當所述聲音資料包括50Hz、50.1 Hz、50.2 Hz、50.3 Hz、50.4 Hz、50.5 Hz等6種頻率不同、原始振幅均為588的訊號經過上述“虛擬共鳴管”演算法後,振幅發生的變化。其中,訊號的編碼方法為u-law,待偵測的訊號為頻率為250Hz的訊號。根據上述分析,該聲音資料的切分長度n=8000 個取樣點/S *(1S/50)=160,每個取樣點的長度為2 bytes,故n=320Bytes。設置的增益倍數分別等於60、120、240、480。由圖5可以看出,當n=320 bytes,m=480,原始振幅為588、頻率為50Hz的訊號的振幅為282240,增強後的振幅為原始振幅的282240/588=480倍,而原始振幅為588、頻率為50.1~50.5的5種訊號的振幅變為11812、11604、11420、11182、10896,該5種訊號振幅的增強倍數相對於頻率為50Hz的訊號的振幅的增強倍數較小,若一輸入訊號包含了50.0~50.5六個頻率的訊號,這六個頻率的原始振幅都是588,經過增益倍數為480倍的共鳴管後,50.0Hz增強為原來的480倍,50.1Hz增強為原來的11812/588=20倍,50.2Hz增強為原來的11604/588=19.7倍,50.3Hz增強為原來的11420/588=19.4倍,50.4Hz增強為原來的11182/588=19倍,50.5Hz增強為原來的10896/588=18.5倍,由於50.0Hz的訊號被增強的幅度遠遠大於其他頻率的訊號被增強的幅度,所以聲音資料經過“虛擬共鳴管”演算法處理後的結果會很接近50.0Hz的弦波。所以,從理論上講,不論待偵測的訊號原始的強度多微弱,只要增益倍數m的值足夠大,都可以將該待偵測的訊號從其他訊號中分離出來。
資料輸出模組15輸出累加後得到的聲音資料至顯示單元50,以該得到的聲音資料作為振幅增益m倍後的該待測的聲音訊號的資料。如圖6所示,為包括網路攝像機(IP Cam)發送的頻率為400Hz及其它頻率的聲音資料的原始波形圖。圖7是將圖6中IP Cam 送出來的u-law聲音串流在沒有經過解碼(或稱作解壓縮)的情況下直接用“虛擬共鳴管”演算法作分析所得出的圖。前面有提到,u-law或a-law在傳送聲音串流(streaming)時將16 bit的資料編碼成8 bit(1 byte),這裏所述的沒有經過解碼就是將接收到的聲音串流中的1 byte當作1 byte處理。圖6中的波形會不太像弦波,圖6的意義在於若聲音串流格式為u-law或a-law時可以在不經過解壓縮的條件下用“虛擬共鳴管”演算法作分析,則可以省下解壓縮的運算量,對於運算能力不強的裝置來說這是很有幫助的。圖8則是將聲音串流解壓縮後(將接收到的聲音串流中的1 byte還原成2 bytes)再使用“虛擬共鳴管”演算法分析得到的圖,很明顯波形像弦波。
參閱圖2所示,係本發明訊號增益方法較佳實施方之流程圖。
步驟S10,參數設置模組11接收待偵測的聲音訊號的頻率f1及用戶設置的該待偵測的聲音訊號強度的增益倍數m。例如,假設待偵測的聲音訊號為一個火警報警器發出的頻率f1為250Hz、振幅為588的警報音,用戶設置的該警報音的增益倍數m為480倍。
步驟S20,資料接收模組12接收編/解碼單元40利用音頻編碼方法轉換得到的數位聲音訊號資料(以下簡稱聲音資料)。例如,在本實施例中,該音頻編碼方法可以為a-law或u-law。a-law或u-law對音源200輸出的類比聲音訊號每秒取樣8000次(即取樣頻率f2為8000 Hz),每個取樣點的值為16 bit,傳送聲音串流時將16 bit的資料編碼成8 bit(1 byte),即聲音串流的傳輸量為8000 * 1 byte=8K bytes/S。
步驟S30,資料分割模組13根據音頻編碼方法對聲音資料的採樣頻率f2及待偵測的聲音訊號的頻率f1計算該聲音資料的切分長度n,n=f2/f1。例如,f2=8000 Hz,f1=250Hz,則n=f2/f1=8000 Hz/250Hz=8000 個取樣點/S *(1S/400)=32個取樣點。在本實施例中,每個取樣點的值為16 bits=2 bytes,則n=64 bytes。
步驟S40,強度增益模組14根據切分長度n對接收到的聲音資料進行分割,取m組長度為n的資料段進行累加。根據上述例子,當所述聲音資料包括250Hz、250.1 Hz、250.2 Hz、250.3 Hz、250.4 Hz、250.5 Hz等6種頻率不同、原始振幅均為588的訊號,訊號的編碼方法為u-law,頻率為250Hz的訊號為待偵測的火警報警器發出的警報音時,聲音資料的切分長度n=64 bytes。強度增益模組14對接收到的聲音資料以64 bytes為一個單位對接收到的上述聲音資料依次進行分割,得到一系列單位長度為64 bytes的資料段。參閱圖4所示,為強度增益模組14分別依次取60組、120組、240組、480組單位長度為64 bytes的資料段相加後,得到的訊號資料中包括的上述6種頻率不同的訊號的振幅產生的變化。
步驟S50,資料輸出模組15輸出累加後得到的聲音資料至顯示單元50,以該累加後得到的聲音資料作為振幅增益m倍後的該待測的聲音訊號的資料。
最後應說明的是,以上實施方式僅用以說明本發明的技術方案而非限制,儘管參照較佳實施方式對本發明進行了詳細說明,本領域的普通技術人員應當理解,可以對本發明的技術方案進行修改或等同替換,而不脫離本發明技術方案的精神和範圍。
100...訊號增益系統
10...虛擬共鳴管單元
20...儲存單元
30...處理單元
40...編/解碼器
50...顯示單元
200...音源
11...參數設置模組
12...資料接收模組
13...資料分割模組
14...強度增益模組
15...資料輸出模組
圖1係本發明訊號增益系統較佳實施方式之功能模組圖。
圖2係本發明訊號增益方法較佳實施方式之流程圖。
圖3A、圖3B、圖3C、圖3D示意說明聲音訊號的資料經過圖1中的虛擬共鳴管單元處理後產生的變化。
圖4及圖5示意說明頻率不同的訊號經過本發明提供的“虛擬共鳴管”演算法處理後振幅產生的變化。
圖6為一段包括不同頻率的訊號的聲音資料的原始波形圖。
圖7為一段未經解壓的聲音資料經過本發明提供的“虛擬共鳴管”演算法處理後得到的波形圖。
圖8為圖7中的聲音資料解壓後經過本發明提供的“虛擬共鳴管”演算法處理後得到的波形圖。
100...訊號增益系統
10...虛擬共鳴管單元
20...儲存單元
30...處理單元
40...編/解碼器
50...顯示單元
200...音源
11...參數設置模組
12...資料接收模組
13...資料分割模組
14...強度增益模組
15...資料輸出模組

Claims (8)

  1. 一種訊號增益系統,該系統包括:
    參數設置模組,用於接收待偵測的聲音訊號的頻率f1及用戶設置的該待偵測的聲音訊號強度的增益倍數m;
    資料接收模組,用於接收編/解碼單元利用音頻編碼方法轉換音源輸出的類比聲音資料得到的數位聲音資料;
    資料分割模組,用於根據音頻編碼方法對所述數位聲音資料的採樣頻率f2及待偵測的聲音訊號的頻率f1計算該聲音資料的切分長度n;
    強度增益模組,用於根據切分長度n對所述數位聲音資料進行分割,取m組長度為n的資料段進行累加,以將該待偵測的聲音訊號從所述數位聲音資料中分離出來;及
    資料輸出模組,用於輸出累加後得到的數位聲音資料至顯示單元,以該累加後得到的數位聲音資料作為振幅增益m倍後的該待測的聲音訊號的資料。
  2. 如申請專利範圍第1項所述之訊號增益系統,其中,所述數位聲音資料包括不同頻率、相同振幅的聲音訊號的資料。
  3. 如申請專利範圍第1項所述之訊號增益系統,其中,所述音頻編碼方法為a-law或u-law。
  4. 如申請專利範圍第1項所述之訊號增益系統,其中,所述切分長度n的計算公式為n=f2/f1。
  5. 一種訊號增益方法,應用於資料處理裝置,該方法包括:
    接收待偵測的聲音訊號的頻率f1及用戶設置的該待偵測的聲音訊號強度的增益倍數m;
    接收編/解碼單元利用音頻編碼方法轉換音源輸出的類比聲音資料得到的數位聲音資料;
    根據音頻編碼方法對聲音資料的採樣頻率f2及待偵測的聲音訊號的頻率f1計算該數位聲音資料的切分長度n;
    根據切分長度n對所述數位聲音資料進行分割,取m組長度為n的資料段進行累加,以將該待偵測的聲音訊號從所述數位聲音資料中分離出來;及
    輸出累加後得到的數位聲音資料至顯示單元,以該累加後得到的數位聲音資料作為振幅增益m倍後的該待測的聲音訊號的資料。
  6. 如申請專利範圍第5項所述之訊號增益方法,其中,所述數位聲音資料包括不同頻率、相同振幅的聲音訊號的資料。
  7. 如申請專利範圍第5項所述之訊號增益方法,其中,音頻編碼方法為a-law或u-law。
  8. 如申請專利範圍第5項所述之訊號增益方法,其中,所述切分長度n的計算公式為n=f2/f1。
TW101127299A 2012-07-27 2012-07-27 訊號增益系統及方法 TW201405550A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW101127299A TW201405550A (zh) 2012-07-27 2012-07-27 訊號增益系統及方法
US13/929,787 US9330670B2 (en) 2012-07-27 2013-06-28 Computing device and signal enhancement method
JP2013155353A JP2014026284A (ja) 2012-07-27 2013-07-26 信号増強システム及び信号増強方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW101127299A TW201405550A (zh) 2012-07-27 2012-07-27 訊號增益系統及方法

Publications (1)

Publication Number Publication Date
TW201405550A true TW201405550A (zh) 2014-02-01

Family

ID=49995708

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101127299A TW201405550A (zh) 2012-07-27 2012-07-27 訊號增益系統及方法

Country Status (3)

Country Link
US (1) US9330670B2 (zh)
JP (1) JP2014026284A (zh)
TW (1) TW201405550A (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10000008A1 (de) * 2000-01-03 2001-07-12 Alcatel Sa Verfahren zur aufwandsarmen Signal-, Ton- und Phasenwechseldetektion
US7876918B2 (en) * 2004-12-07 2011-01-25 Phonak Ag Method and device for processing an acoustic signal
US7698008B2 (en) * 2005-09-08 2010-04-13 Apple Inc. Content-based audio comparisons
US8629342B2 (en) * 2009-07-02 2014-01-14 The Way Of H, Inc. Music instruction system
US8837257B2 (en) * 2010-11-29 2014-09-16 Verifone Systems, Incorporated Acoustic modulation protocol

Also Published As

Publication number Publication date
JP2014026284A (ja) 2014-02-06
US20140032225A1 (en) 2014-01-30
US9330670B2 (en) 2016-05-03

Similar Documents

Publication Publication Date Title
MY197452A (en) Subband block based harmonic transposition
AU2014336097B2 (en) Coding of spectral coefficients of a spectrum of an audio signal
RU2651218C2 (ru) Гармоническое расширение полосы аудиосигналов
CN109147806B (zh) 基于深度学习的语音音质增强方法、装置和系统
RU2018130424A (ru) Гармоническое преобразование, усовершенствованное перекрестным произведением
JP6420356B2 (ja) 情報符号化のコンセプト
CN111402908A (zh) 语音处理方法、装置、电子设备和存储介质
RU2015147158A (ru) Система обработки аудио
JP2010530154A5 (zh)
CN111724807B (zh) 音频分离方法、装置、电子设备及计算机可读存储介质
DK2954517T3 (en) HIDE OF LOST AUDIO FRAMES
RU2015116434A (ru) Кодер, декодер и способы для обратно совместимого пространственного кодирования аудиообъектов с переменным разрешением
RU2014138820A (ru) Управление фазовой когерентностью для гармонических сигналов в перцепционных аудиокодеках
JP2019529979A (ja) インデックスコーディング及びビットスケジューリングを備えた量子化器
RU2017117896A (ru) Кодирование и декодирование аудиосигналов
JP6462727B2 (ja) 音声/オーディオ信号を処理するための方法および装置
JP2017111230A5 (zh)
RU2016116016A (ru) Способ и устройство предсказания сигнала возбуждения верхней полосы
RU2016113716A (ru) Временное согласование данных обработки на основе квадратурного зеркального фильтра
CN106228991B (zh) 编解码方法、装置及系统
EP2595147A1 (en) Audio data encoding method and device
JP5219499B2 (ja) 風雑音低減装置
TW201405550A (zh) 訊號增益系統及方法
JP2006209123A (ja) 高調波信号の基本周波数を求める方法
CN104766612A (zh) 基于乐音音色匹配的正弦模型分离方法