PL208846B1 - Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym - Google Patents
Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznymInfo
- Publication number
- PL208846B1 PL208846B1 PL371410A PL37141003A PL208846B1 PL 208846 B1 PL208846 B1 PL 208846B1 PL 371410 A PL371410 A PL 371410A PL 37141003 A PL37141003 A PL 37141003A PL 208846 B1 PL208846 B1 PL 208846B1
- Authority
- PL
- Poland
- Prior art keywords
- signal
- representation
- reconstructed
- frequency
- baseband
- Prior art date
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 55
- 238000001228 spectrum Methods 0.000 title description 25
- 230000003595 spectral effect Effects 0.000 claims abstract description 194
- 238000000034 method Methods 0.000 claims abstract description 115
- 230000002123 temporal effect Effects 0.000 claims description 109
- 238000002156 mixing Methods 0.000 claims description 37
- 238000004458 analytical method Methods 0.000 claims description 32
- 230000015572 biosynthetic process Effects 0.000 claims description 23
- 238000003786 synthesis reaction Methods 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 5
- 238000000844 transformation Methods 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000012546 transfer Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 230000001105 regulatory effect Effects 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000593 degrading effect Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012854 evaluation process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
- G10L19/0208—Subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/0017—Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/002—Dynamic bit allocation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/028—Noise substitution, i.e. substituting non-tonal spectral components by noisy source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/03—Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/173—Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
- G10L21/0388—Details of processing therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Electrically Operated Instructional Devices (AREA)
- Stereophonic System (AREA)
- Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Superconductors And Manufacturing Methods Therefor (AREA)
- Ceramic Products (AREA)
- Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
Description
Przedmiotem wynalazku jest sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym, zwłaszcza przy przesyłaniu i zapisywaniu sygnałów akustycznych, ograniczając ilość informacji potrzebnych do przesłania lub zapisu danego sygnału akustycznego, przy zachowaniu danego poziomu jakości odbieranego sygnału wyjściowego.
Znanych jest wiele systemów telekomunikacyjnych, napotykających problemy związane z tym, że wymagania dotyczące pojemności informacyjnej przy przesyłaniu i zapisywaniu informacji często przewyższają istniejące możliwości. W związku z tym ważne jest ograniczanie ilości informacji potrzebnej przy przesyłaniu lub zapisywaniu sygnału akustycznego, odbieranego przez ludzi, bez pogarszania jego jakości. Wymagana jest przy tym poprawa jakości sygnału wyjściowego dla danej szerokości pasma lub pojemności pamięci.
W znanych sposobach przetwarzania sygnał u akustycznego w urzą dzeniu elektronicznym, przy przesyłaniu i zapisywaniu sygnałów akustycznych należy zmniejszyć wymagania dotyczące pojemności informacji i należy zapewnić określony poziom percepcyjnej jakości sygnału wyjściowego. Te dwa wymagania są ze sobą sprzeczne, ponieważ zmniejszenie jakości przesyłanych informacji może spowodować pogorszenie percepcyjnej jakości sygnału wyjściowego. Obiektywne ograniczenia, takie jak prędkość transmisji danych, są zwykle określane przez sam system telekomunikacyjny, a subiektywne wymagania percepcyjne są zwykle dyktowane przez zastosowanie.
Znane sposoby zmniejszania wymagań dotyczących ilości informacji polegają na przesyłaniu lub zapisywaniu tylko wybranej części sygnału wejściowego, a reszta zostaje odrzucona. Korzystnie odrzucana jest tylko ta część sygnału, która jest uważana albo za redundancyjną albo za nieważną percepcyjnie. Jeżeli potrzebne jest dalsze zmniejszanie, korzystnie odrzucana jest tylko ta część sygnału, która jest uważana za mającą najmniejsze znaczenie dla percepcji.
W zastosowaniach dotyczących mowy, dla których ważniejsza jest zrozumiałość niż wierność, takich jak kodowanie mowy, może być przenoszona lub zapisywana tylko część sygnału nazywana tutaj sygnałem pasma podstawowego i zawierająca tylko percepcyjnie najważniejsze części widma częstotliwości sygnału. Odbiornik może odtwarzać pominiętą część sygnału mowy z informacji zawartej w sygnale pasma podstawowego. Odtworzony sygnał zwykle nie jest percepcyjnie identyczny z sygnał em pierwotnym, lecz w wielu zastosowaniach wystarczy odtwarzanie przybliż one. Z drugiej strony, zastosowania przeznaczone do osiągnięcia wysokiego stopnia wierności, takie jak zastosowania dotyczące muzyki wysokiej jakości, wymagają zwykle wyższej jakości sygnału wyjściowego. Aby otrzymać sygnał wyjściowy o wyższej jakości, należy zwykle przesyłać większą ilość informacji lub wykorzystywać bardziej skomplikowany sposób wytwarzania sygnału wyjściowego.
Znana jest technika stosowana przy dekodowaniu sygnału mowy, zwana odtwarzaniem wysokiej częstotliwości HFR, w której jest przesyłany lub zapisywany sygnał pasma podstawowego, zawierający tylko składowe o niskiej częstotliwości. Odbiornik odtwarza pominięte składowe o wysokiej częstotliwości na podstawie zawartości odbieranego sygnału pasma podstawowego i łączy sygnał pasma podstawowego z odtworzonymi składowymi o wysokiej częstotliwości, aby wytworzyć sygnał wyjściowy. Chociaż odtworzone składowe o wysokiej częstotliwości zwykle nie są identyczne ze składowymi o wysokiej czę stotliwoś ci w sygnale pierwotnym, technika ta moż e zapewniać sygnał wyjś ciowy, który jest bardziej zadowalający niż w innych technikach, które nie stosują odtwarzania wysokich częstotliwości. Znane są trzy typowe techniki odtwarzania wysokich częstotliwości: składanie widma, przesuwanie widma i prostowanie, które zostały opisane w publikacji pod tytułem „High-Frequency Regeneration in Speech Coding Systems (Regeneracja wysokoczęstotliwościowa w systemach kodowania mowy), Makhoul i Berouti; ICASSP 1979 IEEE International Conf. on Acoust, Speech and Signal Proc, 2-4 kwietnia, 1979. Techniki te są zwykle niewłaściwe dla systemów odtwarzania o wysokiej jakości, takich jak używane przy muzyce wysokiej jakości. Składanie widma i przesuwanie widma może powodować wytwarzanie niepożądanych tonów tła, a prostowanie ma tendencję do wytwarzania składowych, które są odbierane jako ostre dźwięki. W wielu przypadkach, w których techniki te dawały niezadowalające wyniki, stosowano je w koderach mowy o ograniczonym paśmie, gdzie odtwarzanie wysokich częstotliwości było ograniczane do przesuwania składowych poniżej 5 kHz.
Stosowanie znanych technik odtwarzania wysokich częstotliwości powoduje pierwszy problem związany z właściwościami dźwięku i szumu w sygnałach i drugi problem związany z czasowym kształtem lub obwiednią odtwarzanych sygnałów. Wiele naturalnych sygnałów zawiera składową
PL 208 846 B1 szumu, która wzrasta w funkcji częstotliwości. W znanych technikach odtwarzania wysokich częstotliwości składowe o wysokiej częstotliwości są odtwarzane z sygnału pasma podstawowego, ale nie odtwarzają prawidłowej mieszaniny składowych podobnych do dźwięku i składowych podobnych do szumu w odtwarzanym sygnale przy wyższych częstotliwościach. Odtworzony sygnał często zawiera wyraźne brzęczenie wysokoczęstotliwościowe, przypisywane podstawieniu, przez składowe podobne do dźwięku w paśmie podstawowym, pierwotnych składowych o wysokiej częstotliwości, bardziej podobnych do szumu. Ponadto w znanych technikach odtwarzania wysokiej częstotliwości składowe widmowe nie są odtwarzane w taki sposób, że obwiednia czasowa odtworzonego sygnału zachowuje lub jest przynajmniej podobna do czasowej obwiedni sygnału pierwotnego. Znane techniki są albo specyficzne dla mowy, opierając się na właściwościach mowy, które nie są właściwe w przypadku muzyki, albo dla innych postaci sygnału akustycznego lub też wymagają wielkich mocy obliczeniowych, których nie można w sposób ekonomiczny zrealizować.
Według wynalazku sposób przetwarzania sygnału akustycznego charakteryzuje się tym, że dokonuje się jednego lub wielu przekształceń sygnału akustycznego w domenie czasowej na sygnał w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej, zawierającego pewne, lecz nie wszystkie, składowe widmowe sygnału akustycznego, analizuje się sygnał akustyczny dla obliczenia ocenianej obwiedni widmowej przynajmniej części sygnału akustycznego, oblicza się ocenianą obwiednię czasową przynajmniej części sygnału akustycznego oraz łączy się dane przedstawiające reprezentację sygnału pasma podstawowego w domenie częstotliwościowej, ocenianą obwiednię czasową przynajmniej części sygnału akustycznego i ocenianą obwiednię widmową w sygnał wyjś ciowy wła ś ciwy do przesył ania lub zapisywania.
Korzystnie zmienia się długość jednego lub wielu przekształceń domen czasowych na domeny częstotliwościowe.
Korzystnie dokonuje się transformacji analizy kasowania z aliasowaniem w domenie czasowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
Korzystnie dokonuje się przekształcenia sygnału akustycznego w domenie czasowej na sygnał w domenie częstotliwoś ciowej dla otrzymania reprezentacji sygnał u akustycznego w domenie czę stotliwościowej oraz filtruje się reprezentację sygnału akustycznego w domenie częstotliwościowej dla wydzielenia części reprezentacji sygnału akustycznego w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
Korzystnie filtruje się za pomocą zespołu filtrów analizy sygnał akustyczny dla otrzymania wielu sygnałów podpasma, reprezentujących sygnał akustyczny, filtruje się za pomocą pierwszego zespołu filtrów analizy pierwszą grupę jednego lub wielu sygnałów podpasma, które zawierają pewne, lecz nie wszystkie, z wielu sygnałów podpasma dla otrzymania reprezentacji sygnału pasma podstawowego w domenie czę stotliwo ś ciowej i filtruje się za pomocą drugiego zespoł u filtrów analizy drugą grupę jednego lub wielu sygnałów pasma podstawowego, które nie są zawarte w pierwszej grupie sygnałów podpasma oraz analizuje się uzyskany sygnał dla otrzymania ocenianej obwiedni widmowej sygnału resztkowego.
Korzystnie modyfikuje się drugą grupę sygnałów podpasma zgodnie z odwrotnością ocenianej obwiedni czasowej drugiej grupy sygnałów podpasma dla otrzymania czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma, przy czym oceniana obwiednia czasowa przynajmniej części sygnału akustycznego zawiera ocenianą obwiednię czasową drugiej grupy sygnałów podpasma i dokonuje się jednego lub wielu przekształceń domeny czasowej na domenę częstotliwościową w czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma dla otrzymania ocenianej obwiedni widmowej sygnału resztkowego.
Korzystnie modyfikuje się pierwszą grupę sygnałów podpasma zgodnie z odwrotnością ocenianej obwiedni czasowej pierwszej grupy sygnałów podpasma dla otrzymania czasowo spłaszczonej reprezentacji pierwszej grupy sygnałów podpasma, przy czym oceniana obwiednia czasowa przynajmniej części sygnału akustycznego zawiera ocenianą obwiednię czasową pierwszej grupy sygnałów podpasma i dokonuje się jednego lub wielu przekształceń domeny czasowej na domenę częstotliwościową w czasowo spłaszczonej reprezentacji pierwszej grupy sygnałów podpasma dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
Korzystnie uzyskuje się parametr mieszania szumu z czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma i łączy się dane w sygnał wyjściowy, który reprezentuje parametr mieszania szumu.
PL 208 846 B1
Korzystnie analizuje się reprezentację w domenie częstotliwościowej przynajmniej sygnału resztkowego dla otrzymania ocenianej obwiedni czasowej.
Korzystnie oblicza się czasowo spłaszczoną reprezentację przynajmniej części sygnału akustycznego w odpowiedzi na odwrotność ocenianej obwiedni czasowej i oblicza się ocenianą obwiednię widmową z czasowo spłaszczonej reprezentacji.
Według wynalazku sposób generowania odtworzonego sygnału akustycznego charakteryzuje się tym, że odbiera się sygnał zawierający dane reprezentujące sygnał pasma podstawowego, otrzymywany z sygnału akustycznego, ocenianą obwiednię widmową i ocenianą obwiednię czasową, wydziela się reprezentację sygnału pasma podstawowego w domenie częstotliwościowej z danych, przetwarza się składowe widmowe pasma podstawowego częstotliwościowo dla otrzymania odtwarzanego sygnału zawierającego odtwarzane składowe widmowe i dokonuje się jednego lub wielu przekształceń domeny częstotliwościowej na domenę czasową w kombinacji składowych widmowych odtwarzanego sygnału ze składowymi widmowymi reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej, przy czym uzyskuje się reprezentację w domenie czasowej o przebiegu czasowym regulowanym w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową przez modyfikację składowych widmowych w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową albo przez modyfikację reprezentacji w domenie czasowej w odpowiedzi na dane reprezentują ce ocenianą obwiednię czasową .
Korzystnie zmienia się długość jednego lub wielu przekształceń domeny częstotliwościowej na domenę czasową.
Korzystnie dokonuje się transformacji syntezy kasowania z aliasowaniem w domenie czasowej dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej.
Korzystnie dostosowuje się przetwarzanie składowych widmowych przez zmianę tego, którego składowe widmowe przesuwa się, lub przez zmianę wartości częstotliwości, o którą składowe widmowe przesuwa się.
Korzystnie odbiera się dane w sygnale, który reprezentuje parametr mieszania szumu, uzyskiwany z miary zawartości szumu w sygnale akustycznym, generuje się sygnał szumu mający składowe widmowe, które zmieniają się zasadniczo odwrotnie do częstotliwości i modyfikuje się odtwarzany sygnał przez regulację amplitud odtwarzanych składowych widmowych zgodnie z ocenianą obwiednią widmową i parametrem mieszania szumu oraz łączy się modyfikowany odtwarzany sygnał z sygnałem szumu.
Korzystnie łączy się składowe widmowe odtwarzanego sygnału i składowe widmowe reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania odtworzonego sygnału i filtruje się za pomocą zespołu filtrów syntezy odtworzony sygnał dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej.
Korzystnie filtruje się za pomocą pierwszego zespołu filtrów syntezy reprezentację sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie czasowej, filtruje się za pomocą drugiego zespołu filtrów syntezy odtwarzany sygnał dla otrzymania reprezentacji odtwarzanego sygnału w domenie czasowej i generuje się reprezentację odtworzonego sygnału w domenie czasowej dla przedstawienia kombinacji reprezentacji sygnału pasma podstawowego w domenie czasowej i reprezentacji odtwarzanego sygnału w domenie czasowej.
Korzystnie modyfikuje się reprezentację odtwarzanego sygnału w domenie czasowej zgodnie z ocenianą obwiednią czasową i łączy się reprezentację sygnał u pasma podstawowego w domenie czasowej i zmodyfikowaną reprezentację odtwarzanego sygnału dla otrzymania odtworzonego sygnału.
Korzystnie modyfikuje się reprezentację sygnału pasma podstawowego w domenie czasowej zgodnie z ocenianą obwiednią czasową i łączy się zmodyfikowaną reprezentacją sygnału pasma podstawowego w domenie czasowej i zmodyfikowaną reprezentację odtwarzanego sygnału w domenie czasowej dla otrzymania odtworzonego sygnału.
Korzystnie modyfikuje się reprezentację odtworzonego sygnału w domenie częstotliwościowej zgodnie z danymi reprezentującymi ocenianą obwiednię czasową dla regulacji przebiegu czasowego reprezentacji odtworzonego sygnału w domenie czasowej.
Zaletą wynalazku jest opracowanie właściwego przetwarzania sygnałów akustycznych w celu zmniejszenia ilości informacji potrzebnej do prezentowania sygnału podczas przesyłania lub zapisywania przy zachowaniu odbieranej jakości sygnału. Chociaż niniejszy wynalazek dotyczy zwłaszcza
PL 208 846 B1 odtwarzania sygnałów muzycznych, nadaje się on również do szerokiego zakresu sygnałów akustycznych, w tym i głosu.
Przedmiot wynalazku jest pokazany w przykładach wykonania na rysunku, na którym:
fig. 1 przedstawia główne części składowe systemu łączności, fig. 2 - schemat blokowy nadajnika, fig. 3A i 3B - wykresy graficzne hipotetycznych przebiegów sygnału akustycznego i sygnału pasma podstawowego, fig. 4 - schemat blokowy odbiornika, fig. 5A-5D - wykresy graficzne hipotetycznych przebiegów sygnału pasma podstawowego i sygnałów wytwarzanych przez przetwarzanie sygnału pasma podstawowego, fig. 6A-6G - wykresy graficzne hipotetycznych przebiegów sygnałów otrzymywanych przez odtworzenie składowych o wysokiej częstotliwości przy użyciu zarówno przesuwania widma, jak i mieszania szumu, fig. 6H - przebieg sygnału z fig. 6G po regulacji wzmocnienia, fig. 7 - przebieg sygnału pasma podstawowego z fig. 6B, połączonego z odtworzonym sygnałem pokazanym na fig. 6H, fig. 8A - przebieg czasowy sygnału, fig. 8B - przebieg czasowy sygnału wyjściowego, wytworzonego przez uzyskiwanie sygnału pasma podstawowego z sygnału z fig. 8A i odtwarzanie sygnału przez proces przesuwania widma, fig. 8C - przebieg czasowy sygnału z fig. 8B po przeprowadzeniu regulacji czasowej obwiedni, fig. 9 - schemat blokowy nadajnika, który dostarcza informacje potrzebne do regulacji czasowej obwiedni przy zastosowaniu technik w domenie czasowej, fig. 10 - schemat blokowy odbiornika do realizacji regulacji czasowej obwiedni przy użyciu technik w domenie czasowej, fig. 11 - schemat blokowy nadajnika, który dostarcza informacje potrzebne do regulacji czasowej obwiedni przy zastosowaniu technik w domenie częstotliwościowej oraz fig. 12 - schemat blokowy odbiornika do realizacji regulacji czasowej obwiedni przy użyciu technik w domenie częstotliwościowej.
Figura 1 przedstawia główne części składowe systemu łączności w schemacie blokowymi. Źródło 112 informacji wytwarza w torze 115 sygnał akustyczny, reprezentujący zasadniczo dowolny rodzaj informacji akustycznej, jak mowa lub muzyka. Nadajnik 136 odbiera sygnał akustyczny z toru 115 i przetwarza informacje do postaci nadającej się do przesyłania w kanale 140. Nadajnik 136 może przygotować sygnał dopasowany do właściwości fizycznych kanału 140. Kanał 140 może być torem przesyłania, takim jak przewody elektryczne lub światłowody, albo też może być torem łączności radiowej. Kanał 140 może również zawierać pamięć, która przechowuje sygnał na nośniku pamięci, takim jak magnetyczna taśma lub dysk, albo dysk optyczny, do późniejszego wykorzystania przez odbiornik 142. Odbiornik 142 może realizować wiele różnych funkcji przetwarzania sygnału, takich jak demodulacja lub dekodowanie sygnału odebranego z kanału 140. Sygnał wyjściowy odbiornika 142 jest podawany poprzez tor 145 do przetwornika 147, który przetwarza go w sygnał wyjściowy 152 odpowiedni dla użytkownika. W konwencjonalnym systemie odtwarzania sygnału akustycznego przykładowo głośniki służą jako przetwornik do przetwarzania sygnałów elektrycznych w sygnały akustyczne.
Systemy łączności, które są ograniczone do przesyłania w kanale, który ma ograniczoną szerokość pasma lub zapisywanie przeprowadzane jest na nośniku o ograniczonej pojemności, napotykają problemy, gdy popyt na informacje przewyższa dostępną szerokość pasma lub pojemność. W rezultacie w dziedzinie rozgłaszania i zapisywania ciągle konieczne jest zmniejszanie ilości informacji w nadawanym lub zapisywanym sygnale akustycznym z dostosowaniem do percepcji ludzkiej bez pogarszania subiektywnej jakości sygnału akustycznego. Podobnie trzeba polepszać jakość sygnału wyjściowego przy danej szerokości pasma przesyłania lub pojemności zapisu.
Technika używana w związku z kodowaniem mowy znana jest jako odtwarzanie wysokiej częstotliwości. Przesyłany lub zapisywany jest tylko sygnał pasma podstawowego, zawierający składowe niskiej częstotliwości sygnału mowy. Odbiornik 142 odtwarza pominięte składowe wysokiej częstotliwości na podstawie zawartości odebranego sygnału pasma podstawowego i łączy sygnał pasma podstawowego z odtworzonymi składowymi wysokiej częstotliwości, by wytworzyć sygnał wyjściowy. Zwykle jednak znane techniki odtwarzania wysokiej częstotliwości wytwarzają odtworzone składowe wysokiej częstotliwości, które można łatwo odróżnić od składowych wysokiej częstotliwości w pierwotnym sygnale. Przedmiotowy wynalazek proponuje ulepszoną technikę odtwarzania składowych widmowych, która wytwarza odtworzone składowe widmowe w odbiorze bardziej podobne do analogicz6
PL 208 846 B1 nych składowych widmowych pierwotnego sygnału niż to jest przy znanych technikach. Warto zauważyć, że chociaż opisane tu sposoby są czasami nazywane odtwarzaniem wysokiej częstotliwości, przedmiotowy wynalazek nie ogranicza się do odtwarzania wysokoczęstotliwościowych składowych sygnału. Opisane poniżej sposoby mogą być również wykorzystywane do odtwarzania składowych widmowych w dowolnej części widma.
B. Nadajnik
Figura 2 przedstawia schemat blokowy nadajnika 136 według jednego aspektu przedmiotowego wynalazku. Wejściowy sygnał akustyczny jest odbierany z toru 115 i przetwarzany przez zespół 705 filtrów analizowania, by otrzymać reprezentację sygnału wejściowego w domenie częstotliwościowej. Analizator 710 sygnału pasma podstawowego określa, które składowe widmowe sygnału wejściowego mają być odrzucone. Filtr 715 usuwa te składowe widmowe, które mają zostać odrzucone, by wytworzyć sygnał pasma podstawowego złożony z pozostałych składowych widmowych. Zespół 720 oceny obwiedni widmowej uzyskuje ocenę obwiedni widmowej sygnału wejściowego. Analizator 722 widma analizuje ocenioną obwiednię widmową, by określić parametry mieszania szumu dla sygnału. Zespół 725 formatowania sygnału łączy informacje ocenionej obwiedni widmowej, parametry mieszania szumu i sygnał pasma podstawowego w sygnał wyjściowy, mający postać odpowiednią do przesyłania lub zapisywania.
1. Zespół filtrów analizowania
Zespół 705 filtrów analizowania może być realizowany zasadniczo przez każdą transformację z domeny czasowej do domeny częstotliwościowej. Transformacja użyta w korzystnej realizacji przedmiotowego wynalazku jest opisana w pracy Princen, Johnson i Bradley, „Sub-band/Transform Coding Using Filter Bank Designs Based on Time Domain Aliasing Cancellation, ICASSP 1987 Conf. Proc, maj 1987, str. 2161-64. Transformacja ta jest w domenie czasowej równoważna systemowi analizysyntezy krytycznie próbkowanego pojedynczego pasma bocznego z nieparzystym układaniem stosu z kasowaniem zastępującym domenę czasową, w skrócie O-TDAC.
Według tej techniki O-TDAC sygnał akustyczny jest próbkowany, poddawany kwantyzacji i grupowany w szereg zachodzących na siebie bloków próbek sygnału w domenie czasowej. Każdy blok próbki jest ważony przez funkcję okna analizy. Jest to równoważnik zwielokrotniania próbka po próbce bloku próbek sygnału. Technika O-TDAC wykorzystuje zmodyfikowaną dyskretną transformację cosinusoidalną (DCT) do ważonych bloków próbek sygnału w domenie czasowej w celu wytworzenia zbioru współczynników transformacji, nazywanych tu blokami transformacji. Aby uzyskać krytyczne próbkowanie, technika ta utrzymuje tylko połowę współczynników widmowych przed przesyłaniem lub zapisywaniem. Niestety, zachowanie tylko połowy współczynników widmowych powoduje, że komplementarna transformacja odwrotna wytwarza składowe zastępujące domenę czasową. Technika O-TDAC może ukrywać zastępowanie i dokładnie odtwarzać sygnał wejściowy. Długość bloków może być zmieniana przez znane techniki wykorzystywania właściwości sygnału. Trzeba jednak uważać na spójność fazy z przyczyn omówionych poniżej. Dodatkowe szczegóły techniki O-TDAC podano w opisie patentowym USA nr 5.394.473.
W celu odtworzenia bloków pierwotnego sygnału wejściowego z bloków transformacji technika O-TDAC wykorzystuje odwrotną zmodyfikowaną transformację DCT. Bloki sygnałów wytworzone przez tę odwrotną transformację są ważone przez funkcję okna syntezy, nakładane na siebie i dodawane w celu odtworzenia sygnału wejściowego. Aby ukryć zastępowanie w domenie czasowej i dokładnie odtworzyć sygnał wejściowy, okna analizy i syntezy muszą być skonstruowane tak, by spełniały dokładnie pewne kryteria.
W jednej korzystnej realizacji systemu przesyłania lub zapisywania wejściowego sygnału cyfrowego próbkowanego z częstotliwością 44,1 tysiąca próbek na sekundę, składowe widma otrzymane z zespołu 705 filtrów analizy są dzielone na cztery subpasma, których zakresy częstotliwości podano w tabeli 1.
T a b e l a 1
Pasmo | Zakres częstotliwości (kHz) |
0 | 0,0 - 5,5 |
1 | 5,5 - 11,0 |
2 | 11,0 - 16,5 |
3 | 16,5 - 22,0 |
PL 208 846 B1
2. Analizator sygnału pasma podstawowego
Analizator 710 sygnału pasma podstawowego wybiera, które składowe widma należy odrzucić, a które zachować dla sygnału pasma podstawowego. Wybór taki może się zmieniać w zależności od właściwości sygnału wejściowego lub też może pozostawać stały w zależności od wymagań zastosowania. Jednakże twórcy wynalazku stwierdzili doświadczalnie, że odbierana jakość sygnału akustycznego pogarsza się, jeżeli odrzucić jedną lub więcej podstawowych częstotliwości sygnału. Korzystne jest zatem zachowanie tych części widma, które zawierają podstawowe częstotliwości sygnału. Ponieważ podstawowe częstotliwości głosu i większości naturalnych instrumentów muzycznych zwykle nie są większe niż w przybliżeniu 5 kHz, korzystna realizacja nadajnika 136 przeznaczonego do zastosowań muzycznych wykorzystuje stałą częstotliwość odcięcia w przybliżeniu 5000 kHz i odrzuca wszystkie składowe widma powyżej tej częstotliwości. W przypadku stałej częstotliwości odcięcia analizator sygnału pasma podstawowego nie musi robić nic poza określeniem stałej częstotliwości odcięcia filtru 715 i widmowego analizatora 722. W alternatywnym przykładzie realizacji analizator 710 sygnału pasma podstawowego jest wyeliminowany, a filtr 715 i widmowy analizator 722 działają zgodnie ze stałą częstotliwością odcięcia. W strukturze subpasm przedstawionej powyżej w tabeli 1, przykładowo tylko w subpaśmie 0, utrzymane są składowe widmowe dla sygnału pasma podstawowego. Wybór ten jest również odpowiedni, ponieważ ucho ludzkie nie może łatwo wykrywać różnic częstotliwości powyżej 5 kHz i dlatego nie może łatwo wychwycić niedokładności w odtworzonych składowych powyżej tej częstotliwości.
Wybór częstotliwości odcięcia ma wpływ na szerokość pasma sygnału pasma podstawowego, która z kolei ma wpływ na kompromis pomiędzy wymaganiami dotyczącymi pojemności informacji sygnału wyjściowego generowanego przez nadajnik 136 a odbieraną jakością sygnału odtworzonego przez odbiornik 142. Odbierana jakość sygnału odtworzonego przez odbiornik 142 jest zależna od trzech czynników, które są omówione w następnych ustępach.
Pierwszym czynnikiem jest dokładność nadawanej lub zapisanej reprezentacji sygnału pasma podstawowego. Zwykle, jeżeli szerokość pasma sygnału pasma podstawowego jest utrzymywana jako stała, odbierana jakość odtworzonego sygnału będzie coraz lepsza przy zwiększaniu dokładności reprezentacji sygnału pasma podstawowego. Niedokładności reprezentują szum, który będzie słyszalny w odtworzonym sygnale, jeżeli niedokładności te są wystarczająco duże. Szum ten będzie pogarszać zarówno odbieraną jakość sygnału pasma podstawowego, jak i składowe widmowe odtwarzane z sygnału pasma podstawowego. W przykładowej realizacji reprezentacja sygnału pasma podstawowego jest zestawiona ze współczynników transformacji w domenie częstotliwościowej. Dokładność takiej reprezentacji jest kontrolowana przez liczbę bitów wykorzystywanych do wyrażenia każdego współczynnika transformacji. Można zastosować pewne techniki kodowania, by osiągnąć określony poziom dokładności za pomocą mniejszej liczby bitów. Jednakże przy każdej technice kodowania istnieje podstawowy kompromis pomiędzy wymaganą dokładnością sygnału pasma podstawowego a wymaganą pojemnością informacji.
Drugim czynnikiem jest szerokość pasma sygnału pasma podstawowego, które jest nadawane lub zapisywane. Zwykle, jeżeli dokładność reprezentacji sygnału pasma podstawowego jest utrzymywana jako stała, odbierana jakość odtworzonego sygnału będzie rosnąć wraz ze zwiększaniem szerokości pasma sygnału pasma podstawowego. Stosowanie sygnałów pasma podstawowego o większej szerokości pasma umożliwia ograniczenie w odbiorniku 142 odtwarzanych składowych widmowych do wyższych częstotliwości, przy których słuch ludzki jest mniej wrażliwy na różnice w układzie czasowym i widmowym. W przykładowej realizacji wspomnianej powyżej szerokość pasma sygnału pasma podstawowego jest kontrolowana przez liczbę współczynników transformacji w reprezentacji. Można zastosować pewne techniki kodowania, by przenosić pewną liczbę współczynników za pomocą mniejszej liczby bitów. Jednakże podstawowy kompromis pomiędzy wymaganiami szerokości pasma sygnału pasma podstawowego a wymaganiami pojemności informacji istnieje przy każdej technice kodowania.
Trzecim czynnikiem jest pojemność informacji potrzebna do przesyłania lub zapisywania reprezentacji sygnału pasma podstawowego. Jeżeli wymagania dotyczące pojemności informacji są utrzymywane jako stałe, dokładność sygnału pasma podstawowego będzie zmieniać się odwrotnie proporcjonalnie z szerokością pasma sygnału pasma podstawowego. Potrzeby danego zastosowania będą zwykle wyznaczały wymaganie dotyczące określonej pojemności informacji dla sygnału wyjściowego wytworzonego przez nadajnik 136. Pojemność taka musi być przyporządkowana różnym częściom sygnału wyjściowego, takim jak reprezentacja sygnału pasma podstawowego i oceniana obwiednia
PL 208 846 B1 widmowa. Przyporządkowanie takie musi równoważyć wymagania wielu sprzecznych dążeń, które są znane w systemach telekomunikacyjnych. W ramach takiego przyporządkowania szerokość pasma sygnału pasma podstawowego należy wybierać tak, by równoważyć kompromis z dokładnością kodowania w celu optymalizacji odbieranej jakości odtworzonego sygnału.
3. Zespół oceny obwiedni widmowej
Zespół 720 oceny obwiedni widmowej analizuje sygnał akustyczny, by uzyskać informacje dotyczące obwiedni widmowej sygnału. Jeżeli dostępna pojemność informacji pozwoli, odbiornik 136 korzystnie otrzymuje ocenę widmowej obwiedni sygnału przez podzielenie widma sygnału na pasma częstotliwościowe o szerokości zbliżonej do krytycznych pasm ucha ludzkiego i wyprowadzenie informacji dotyczących siły sygnału w każdym paśmie. W większości zastosowań o ograniczonej pojemności informacji korzystne jest jednak podzielenie widma na mniejszą liczbę subpasm, tak jak w układzie przedstawionym powyżej w tabeli 1. Można stosować inne odmiany, takie jak obliczanie widmowej gęstości mocy lub wyprowadzanie średniej albo maksymalnej amplitudy w każdym paśmie. Bardziej skomplikowane sposoby mogą zapewniać wyższą jakość sygnału wyjściowego, ale zwykle wymagają większej mocy obliczeniowej. Wybór sposobu użytego w celu otrzymania ocenionej obwiedni widmowej zwykle ma pewne implikacje praktyczne, ponieważ zwykle ma wpływ na odbieraną jakość systemu telekomunikacyjnego. Jednakże wybór sposobu nie jest w zasadzie krytyczny. W razie potrzeby można stosować zasadniczo każdy sposób.
W jednym przykładzie realizacji z użyciem struktury subpasm przedstawionej w tabeli 1, zespół 720 oceny obwiedni widmowej otrzymuje ocenę obwiedni widmowej tylko dla subpasm 0, 1 i 2. Subpasmo 3 jest z tego wykluczone, aby zmniejszyć ilość informacji wymaganą do reprezentowania ocenianej obwiedni widmowej.
4. Analizator widmowy
Analizator widmowy 722 analizuje ocenianą obwiednię widmową otrzymaną z zespołu 720 oceny obwiedni widmowej oraz informacje z analizatora 710 sygnału pasma podstawowego, które wyznaczają składowe widmowe, które należy odrzucić z sygnału pasma podstawowego i oblicza co najmniej jeden z parametrów mieszania szumu, które mają być użyte przez odbiornik 142 do wygenerowania składowej szumu dla przesuwanych składowych widma. Korzystny przykład realizacji zmniejsza do minimum wymagania dotyczące prędkości transmisji danych przez obliczanie i przesyłanie jednego parametru mieszania szumu, który ma być stosowany przez odbiornik 142 wobec wszystkich przesuwanych składowych. Parametry mieszania szumu mogą być obliczane dowolnym z wielu różnych sposobów. Korzystny sposób polega na wyznaczeniu pojedynczego parametru mieszania szumu równego mierze płaskości widmowej, która jest obliczana ze stosunku średniej geometrycznej do średniej arytmetycznej krótkotrwałego widma mocy. Stosunek ten zgrubnie wyznacza płaskość widma. Większa miara płaskości widmowej, która oznacza bardziej płaskie widmo, oznacza również, że odpowiedni jest większa poziom mieszania szumu.
W alternatywnej realizacji nadajnika 136 składowe widmowe są grupowane w wielu subpasmach, takich jak przedstawione w tabeli 1, a nadajnik 136 wysyła dla każdego subpasma parametr mieszania szumu. Określa to dokładniej ile szumu należy zmieszać z informacją zawartą w przesuwanej częstotliwości, ale wymaga to również większej prędkości transmisji danych przy przesyłaniu dodatkowych parametrów mieszania szumu.
5. Filtr sygnału pasma podstawowego
Filtr 715 otrzymuje informacje z analizatora 710 sygnału pasma podstawowego, które identyfikują składowe widmowe wybrane do usunięcia z sygnału pasma podstawowego i eliminują wybrane składowe częstotliwościowe, by otrzymać reprezentację sygnału pasma podstawowego w domenie częstotliwościowej do przesyłania lub zapisania. Figury 3A i 3B są hipotetycznymi ilustracjami graficznymi sygnału akustycznego i odpowiedniego sygnału pasma podstawowego. Figura 3A przedstawia obwiednię widmową reprezentacji 600 hipotetycznego sygnału akustycznego w domenie częstotliwościowej. Figura 3B przedstawia obwiednię widmową sygnału 610 pasma podstawowego, która pozostaje po przetworzeniu sygnału akustycznego w celu usunięcia wybranych składowych wysokiej częstotliwości.
Filtr 715 może być realizowany zasadniczo w dowolny sposób, który skutecznie usuwa składowe częstotliwościowe, które zostały wybrane do usunięcia. W jednym przykładzie realizacji filtr 715 wykorzystuje funkcję okna w domenie częstotliwościowej do reprezentowania wejściowego sygnału akustycznego w domenie częstotliwościowej. Kształt tej funkcji okna jest wybrany tak, aby zapewnić
PL 208 846 B1 odpowiedni kompromis pomiędzy selektywnością częstotliwościową i tłumiennością wobec wpływów w domenie czę stotliwo ściowej na wyjś ciowy sygnał akustyczny, który jest ostatecznie wytwarzany przez odbiornik 142.
6. Zespół formowania sygnału
Zespół 725 formowania sygnału wytwarza sygnał wyjściowy w kanale telekomunikacyjnym 140 przez łączenie informacji ocenionej obwiedni widmowej, co najmniej jednego parametru mieszania szumu i reprezentacji sygnału pasma podstawowego w sygnał wyjściowy w postaci nadającej się do przesyłania lub zapisania. Poszczególne sygnały mogą być łączone zasadniczo w dowolny sposób. W wielu zastosowaniach zespół 725 formatowania powoduje zwielokrotnienie oddzielnych sygnałów w szeregowy strumień bitów o odpowiednich wzorach synchronizacji, z odpowiednią detekcją błędów i kodami korekcji oraz z innymi informacjami, które dotyczą operacji przesyłania albo zapisywania, lub też zastosowania, w którym wykorzystywana jest informacja akustyczna. Zespół 725 formatowania sygnału może również kodować całość lub części sygnału wyjściowego, aby zmniejszyć wymagania dotyczące pojemności informacji, zapewnić bezpieczeństwo, albo doprowadzić sygnał wyjściowy do postaci, która ułatwia późniejsze wykorzystywanie go.
C. Odbiornik
Figura 4 jest schematem blokowym odbiornika 142 według jednego aspektu przedmiotowego wynalazku. Zespół 805 deformatowania odbiera sygnał z telekomunikacyjnego kanału 140 i otrzymuje z tego kanału sygnał pasma podstawowego, informacje ocenionej obwiedni widmowej oraz co najmniej jeden parametr mieszania szumu. Te elementy informacji są przesyłane do zespołu 808 przetwarzania sygnału, który zawiera widmowy odtwarzacz 810, regulator fazy 815, mieszający filtr 818 i regulator wzmocnienia 820. Odtwarzacz 810 składowych widmowych określa, których składowych widmowych brakuje w sygnale pasma podstawowego i odtwarza je przez przesunięcie wszystkich lub przynajmniej niektórych składowych widmowych sygnału pasma podstawowego na miejsca brakujących składowych widmowych. Te przeniesione składowe są przekazywane do regulatora fazy 815, który ustawia fazę co najmniej jednej składowej widmowej w połączonym sygnale, aby zapewnić zgodność fazową. Mieszający filtr 818 dodaje co najmniej jeden składnik szumowy do przeniesionych składowych zgodnie z co najmniej jednym parametrem mieszania szumu, odebranym z sygnałem pasma podstawowego. Taki regulator wzmocnienia 820 ustawia amplitudę składowych widmowych w odtworzonym sygnale zgodnie z informacjami ocenionej obwiedni widmowej, odebranymi wraz z sygnałem pasma podstawowego. Przeniesione i ustawione składowe widmowe są łączone z sygnałem pasma podstawowego, by wytworzyć reprezentację sygnału wyjściowego w domenie częstotliwościowej. Zespół 825 filtrów syntezy przetwarza ten sygnał, by otrzymać reprezentację sygnału wyjściowego w domenie czasowej, którą przesyła się wzdłuż toru 145.
1. Zespół deformatowania
Zespół 805 deformatowania przetwarza sygnał odebrany z telekomunikacyjnego kanału 140 w taki sposób, że jest on komplementarny w odniesieniu do procesu formatowania, przeprowadzanego przez zespół 725 formatowania sygnału. W wielu zastosowaniach zespół 805 deformatowania odbiera szeregowy strumień bitów z kanału 140, wykorzystuje wzory synchronizacji zawarte w tym strumieniu bitów do synchronizowania swego działania, wykorzystuje kody korekcji i wykrywania błędów do identyfikacji i usuwania błędów, które zostały wprowadzone w strumień bitów podczas przesyłania lub zapisywania oraz działa jako demultiplekser, by utworzyć reprezentację sygnału pasma podstawowego, informacje ocenionej obwiedni widmowej, co najmniej jeden parametr mieszania szumu oraz dowolne inne informacje, które mogą być potrzebne w tym zastosowaniu. Zespół 805 deformatowania może również dekodować całość lub części szeregowego strumienia bitów w celu odwrócenia wyników ewentualnego kodowania przeprowadzonego przez nadajnik 136. Reprezentacja sygnału pasma podstawowego w domenie częstotliwościowej jest podawana na odtwarzacz 810 składowych widmowych, parametry mieszania szumu są podawane na filtr 818 mieszania, a informacje obwiedni widmowej są podawane na regulator wzmocnienia 820.
2. Odtwarzacz składowych widmowych
Odtwarzacz 810 składowych widmowych odtwarza brakujące składowe widmowe przez kopiowanie lub przenoszenie wszystkich lub przynajmniej niektórych składowych widmowych sygnału pasma podstawowego w miejsca brakujących składowych sygnału. Składowe widmowe mogą być kopiowane do więcej niż jednego przedziału częstotliwości, co umożliwia wytwarzanie sygnału wyjściowego o szerokości pasma większej niż podwójna szerokość pasma sygnału pasma podstawowego.
PL 208 846 B1
W przykładzie realizacji odbiornika 142, który wykorzystuje tylko subpasma 0 i 1 z tabeli 1, sygnał pasma podstawowego nie zawiera żadnych składowych widmowych powyżej częstotliwości odcięcia wynoszącej w przybliżeniu 5,5 kHz. Składowe widmowe sygnału pasma podstawowego są kopiowane lub przenoszone do zakresu częstotliwości 5,5-11,0 kHz. Jeżeli przykładowo potrzebna jest szerokość pasma 16,5 kHz, składowe widmowe sygnału pasma podstawowego mogą być również przenoszone do zakresów częstotliwości 11,0-16,5 kHz. Zwykle składowe widmowe są przenoszone do niezachodzących na siebie zakresów częstotliwości tak, że żadna szczelina nie istnieje w widmie zawierającym sygnał pasma podstawowego i wszystkie skopiowane składowe widmowe. Jednakże cecha taka nie jest istotna. Składowe widmowe mogą być przenoszone do zachodzących na siebie zakresów częstotliwości i/lub do zakresów częstotliwości ze szczelinami w widmie zasadniczo w dowolny żądany sposób.
Wybór, które składowe widmowe należy kopiować, można było zmienić w celu dostosowania do określonego zastosowania. Przykładowo składowe widmowe, które są kopiowane, nie muszą zaczynać się przy dolnej krawędzi pasma podstawowego i nie muszą kończyć się przy górnej krawędzi pasma podstawowego. Odbieraną jakość sygnału odtworzonego przez odbiornik 142 można czasami polepszyć przez wykluczenie podstawowych częstotliwości głosu i instrumentów, a kopiowanie tylko harmonicznych. Aspekt ten zastosowano w jednym przykładzie realizacji przez wykluczenie z przeniesienia takich składowych widmowych pasma podstawowego, które są poniżej około 1 kHz. Jeśli chodzi o strukturę pasma podstawowego przedstawioną przykładowo powyżej w tabeli 1, przenoszone są tylko składowe widmowe w zakresie od 1 kHz do około 5,5 kHz.
Jeżeli szerokość pasma wszystkich składowych widmowych, które mają być odtwarzane, jest większa niż szerokość pasma składowych widmowych pasma podstawowego, które mają być kopiowane, wówczas składowe widmowe pasma podstawowego mogą być kopiowane w sposób kołowy, zaczynając od składowej o najmniejszej częstotliwości, aż do składowej o największej częstotliwości, a w razie potrzeby z kontynuowaniem znów od składowej od najmniejszej częstotliwości. Przykładowo, biorąc pod uwagę strukturę subpasm przedstawioną w tabeli 1, jeżeli mają być kopiowane tylko składowe widmowe pasma podstawowego od 1 kHz do 5,5 kHz i mają być odtwarzane składowe widmowe dla subpasm 1 i 2, które obejmują częstotliwości od 5,5 kHz do 16,5 kHz, wówczas składowe widmowe pasma podstawowego 1-5,5 kHz są kopiowane do odpowiednich częstotliwości 5,5-10 kHz i te same składowe widmowe pasma podstawowego 1-5,5 kHz są ponownie kopiowane do odpowiednich częstotliwości 10-14,5 kHz, zaś składowe widmowe pasma podstawowego w zakresie 1-3 kHz są kopiowane do odpowiednich częstotliwości 14,5-16,5 kHz. Alternatywnie ten proces kopiowania można przeprowadzać dla każdego oddzielnego subpasma składowych odtwarzanych przez kopiowanie składowej o najniższej częstotliwości w paśmie podstawowym do dolnej krawędzi odpowiedniego subpasma i kontynuowanie ze składowymi widmowymi pasma podstawowego w układzie kołowym, jak to jest potrzebne do zakończenia przenoszenia do tego subpasma.
Na fig. 5A-5D przedstawiono hipotetyczne ilustracje graficzne obwiedni widmowej sygnału pasma podstawowego i obwiedni widmowej sygnałów tworzonych przez przeniesienie składowych widmowych w sygnale pasma podstawowego. Figura 5A przedstawia hipotetyczny zdekodowany sygnał 900 pasma podstawowego. Figura 5B przedstawia składowe widmowe sygnału 905 pasma podstawowego przeniesione do wyższych częstotliwości. Figura 5C przedstawia składowe 910 sygnału pasma podstawowego przeniesione wielokrotnie do wyższych częstotliwości. Figura 5D przedstawia sygnał uzyskiwany przez połączenie przeniesionych składowych 915 i sygnału 920 pasma podstawowego.
3. Regulator fazy
Przenoszenie składowych widmowych może powodować pewne nieciągłości fazy odtworzonych składowych. Opisana powyżej realizacja transformacji O-TDAC, jak również wiele innych możliwych realizacji tworzy reprezentacje w domenie częstotliwościowej, które są zorganizowane w blokach współczynników transformacji. Przeniesione składowe widmowe są również zorganizowane w blokach. Jeżeli składowe widmowe odtworzone przez przeniesienie mają nieciągłości fazy pomiędzy kolejnymi blokami, istnieje prawdopodobieństwo wystąpienia słyszalnych artefaktów w wyjściowym sygnale akustycznym.
Regulator fazy 815 ustawia fazę każdej odtworzonej składowej widmowej tak, by utrzymywać zgodną lub spójną fazę. W przykładzie realizacji odbiornika 142, w którym wykorzystuje się opisaną powyżej transformację O-TDAC, każda z odtworzonych składowych widmowych jest mnożona przez wartość zespoloną ejAw, gdzie Δω oznacza interwał częstotliwości, do którego przenoszona jest odpowiednia składowa widmowa, wyrażony jako wiele współczynników transformacji, które odpowiadają
PL 208 846 B1 temu interwałowi częstotliwości. Przykładowo, jeżeli pewna składowa widmowa jest przenoszona do częstotliwości sąsiedniej składowej, wówczas interwał przenoszenia Δω jest równy jedności. Alternatywne przykłady realizacji mogą wymagać różnych technik regulacji fazy odpowiednich dla konkretnej realizacji zespołu 825 filtrów syntezy.
Proces przenoszenia można dostosować do odtworzonych składowych z harmonicznymi znaczących składowych widmowych w sygnale pasma podstawowego. Dwa sposoby dostosowania przenoszenia polegają na zmienianiu albo specyficznych składowych widmowych, które są kopiowane, albo wartości przenoszenia. Jeżeli stosowany jest proces adaptacyjny, należy zwracać szczególną uwagę na zgodność fazy, jeżeli składowe widmowe są zorganizowane w blokach. Jeżeli odtwarzane składowe widmowe są kopiowane z różnych składowych podstawowych w poszczególnych blokach, albo jeśli wartość przenoszenia częstotliwości jest zmieniana w poszczególnych blokach, istnieje bardzo duże prawdopodobieństwo, że odtworzone składowe nie będą zgodne pod względem fazy. Możliwe jest dostosowanie przenoszenia składowych widmowych, ale trzeba starać się, by słyszalność artefaktów powodowanych przez niezgodność fazową nie była znaczna. System, który wykorzystuje albo techniki wielokrotnego przepuszczania, albo techniki przewidywania, mógłby wyznaczać interwały, w których przenoszenie mogłoby być dostosowywane. Bloki reprezentujące interwały sygnału akustycznego, w których odtworzone składowe widmowe są uważane za niesłyszalne, są zwykle dobrymi kandydatami do dostosowania procesu przenoszenia.
4. Filtr mieszania szumu
Filtr 818 mieszania szumu wytwarza składową szumu dla przenoszonych składowych widmowych przy wykorzystaniu parametrów mieszania szumu otrzymanych z zespołu 805 deformatowania. Mieszający filtr 818 wytwarza sygnał szumu, oblicza funkcję mieszania szumu wykorzystującą parametry mieszania szumu i wykorzystuje tę funkcję mieszania szumu do łączenia sygnału szumu z przenoszonymi składowymi widmowymi.
Sygnał szumu może być wytwarzany dowolnym z wielu różnych sposobów. W korzystnym przykładzie realizacji sygnał szumu jest wytwarzany przez generowanie ciągu przypadkowych liczb, których rozkład charakteryzuje się zerową średnią i wariancją równą jedności. Mieszający filtr 818 reguluje sygnał szumu przez mnożenie sygnału szumu przez funkcję mieszania szumu. Jeżeli stosuje się pojedynczy parametr mieszania szumu, wówczas funkcja mieszania szumu zasadniczo powinna regulować sygnał szumu tak, by miał on większą amplitudę przy wyższych częstotliwościach. Wynika to z omówionych powyżej założeń, że sygnały głosu i sygnały naturalnych instrumentów muzycznych mają tendencję do zawierania więcej szumu przy wyższych częstotliwościach. W korzystnym przykładzie realizacji, kiedy składowe widmowe są przenoszone do wyższych częstotliwości, funkcja mieszania szumu ma maksymalną amplitudę przy najwyższej częstotliwości i zmniejsza się gładko do wartości minimalnej przy najniższej częstotliwości, przy której szum jest mieszany.
Jeden przykład realizacji wykorzystuje funkcję mieszania szumu N(/c) określoną następującym wzorem:
N(k) = maks I . k l-M'N— + B-1,0] dla kMIN < k < Imaks (1)
V kMAKS - kMIN ) gdzie maks(x,y) oznacza większą ze zmiennych x i y,
B = parametr mieszania szumu oparty na SFM, k = indeks odtwarzanych składowych widmowych, kMAKS = największa częstotliwość odtwarzania składowej widmowej, oraz kMIN = najmniejsza częstotliwość odtwarzania składowej widmowej.
W tym przykładzie realizacji wartość B zmienia się od zero do jeden, przy czym jeden oznacza płaskie widmo, które jest typowe dla sygnału podobnego do szumu, a zero oznacza kształt widma, który nie jest płaski i jest typowy dla sygnału dźwiękopodobnego. Wartość ułamka w równaniu 1 zmienia się od zero do jeden, gdy k zwiększa się od kMIN do kMAKS. Jeżeli B jest równe zero, pierwszy czynnik funkcji „maks zmienia się od wartości minus jeden do zero, a zatem N(k) będzie równe zero w całym odtwarzanym widmie i żaden szum nie będzie dodawany do odtworzonych składowych widmowych. Jeżeli B jest równe jeden, pierwszy czynnik funkcji max zmienia się od zero do jeden. Na skutek tego N(k) zwiększa się liniowo od zera przy najniższej odtwarzanej częstotliwości kMIN, aż do wartości równej jeden przy maksymalnej odtwarzanej częstotliwości kMAKS. Jeżeli B ma wartość pomiędzy zerem a jednością, N(k) jest równe zero od kMIN, aż do pewnej częstotliwości pomiędzy kMIN a kMAKS, po czym zwiększa się liniowo w pozostałej części odtwarzanego widma. Amplituda odtwa12
PL 208 846 B1 rzanych składowych widmowych jest regulowana przez mnożenie odtworzonych składowych przez funkcję mieszania szumu. Regulowany sygnał szumu i regulowane odtworzone składowe widmowe zostają połączone.
Opisany powyżej przykład realizacji jest jedynie jednym odpowiednim przykładem. W razie potrzeby można stosować inne techniki mieszania szumu.
Figury 6A-6G są hipotetycznymi ilustracjami graficznymi widmowych obwiedni sygnałów otrzymanych przez odtworzenie składowych wysoko-częstotliwościowych przy użyciu zarówno przesunięcia widmowego, jak i mieszania szumu. Figura 6A przedstawia hipotetyczny wejściowy sygnał 410, który ma być wysyłany. Figura 6B przedstawia sygnał 420 pasma podstawowego wytworzony przez odrzucenie składowych wysokoczęstotliwościowych. Figura 6C przedstawia odtworzone składowe 431,432 i 433 wysokiej częstotliwości. Figura 6D przedstawia możliwą funkcję 440 mieszania szumu, która nadaje większą wagę składowym szumu o wyższych częstotliwościach. Figura 6E jest schematyczną ilustracją sygnału 445 szumu, który został pomnożony przez funkcję 440 mieszania szumu. Figura 6F przedstawia sygnał 450 wytworzony przez pomnożenie odtworzonych składowych 431,432 i 433 wysokiej częstotliwości przez odwrotność funkcji 440 mieszania szumu. Figura 6G jest schematyczną ilustracją połączonego sygnału 460, uzyskanego po dodaniu regulowanego sygnału 445 szumu do regulowanych składowych 450 wysokiej częstotliwości. Figura 6G przedstawia schematycznie, że wysokoczęstotliwościowa część 430 stanowi mieszaninę przeniesionych składowych 431, 432 i 433 wysokiej częstotliwości i szumu.
5. Regulator wzmocnienia
Regulator 820 wzmocnienia ustawia amplitudę odtworzonego sygnału w zależności od informacji ocenionej obwiedni widmowej, otrzymanej z zespołu 805 deformatowania. Figura 6H jest hipotetyczną ilustracją obwiedni widmowej sygnału 460 pokazanego na fig. 6G po regulacji wzmocnienia. Część 510 tego sygnału, zawierającego mieszaninę przesuniętych składowych widmowych i szumu, otrzymała obwiednię widmową zbliżoną do obwiedni widmowej pierwotnego sygnału 410, pokazanego na fig. 6A. Odtwarzanie obwiedni widmowej w dokładnej skali zwykle nie jest niezbędne, ponieważ odtworzone składowe widmowe nie odtwarzają dokładnie składowych widmowych pierwotnego sygnału. Przesunięty szereg harmoniczny zwykle nie będzie równy szeregowi harmonicznemu. Z tego powodu zwykle nie ma możliwości zapewnienia, że odtworzony sygnał wyjściowy jest identyczny z pierwotnym sygnałem wejściowym w dokładnej skali. Zgrubne przybliżenia, które dopasowują energię widmową w małej liczbie krytycznych pasm dają dobry wynik. Należy również zauważyć, że zastosowanie raczej zgrubnej oceny kształtu widma, a nie dokładniejszej aproksymacji jest zwykle korzystne, ponieważ zgrubna ocena nakłada na kanały przesyłowe i nośniki zapisu mniejsze wymagania dotyczące pojemności informacji. W zastosowaniach akustycznych, które mają więcej niż jeden kanał, można jednak polepszyć zobrazowanie słuchowe przez użycie dokładniejszych aproksymacji kształtu widma, tak że można wprowadzić dokładniejsze regulacje wzmocnienia, by zapewnić dokładne zrównoważenie pomiędzy kanałami.
6. Zespół filtrów syntezy
Odtworzone składowe widmowe poddane regulacji wzmocnienia przez regulator 820 wzmocnienia łączy się z reprezentacją sygnału pasma podstawowego w domenie częstotliwościowej, odebraną z zespołu 805 deformatowania, by utworzyć reprezentację odtworzonego sygnału w domenie częstotliwościowej. Można to zrobić przez dodanie odtworzonych składowych do analogicznych składowych sygnału pasma podstawowego. Figura 7 przedstawia hipotetyczny sygnał odtworzony otrzymany przez łączenie sygnału pasma podstawowego, pokazanego na fig. 6B, z odtworzonymi składowymi, pokazanymi na fig. 6H.
Zespół 825 filtrów syntezy transformuje reprezentację odtworzonego sygnału w domenie częstotliwościowej w reprezentację w domenie czasowej. Ten zespół filtrów może być zrealizowany zasadniczo w dowolny sposób, ale powinien być odwrotnością zespołu 705 filtrów, używanego w nadajniku 136. W korzystnej realizacji, omówionej powyżej, odbiornik 142 wykorzystuje syntezę O-TDAC, która stosuje odwrotną zmodyfikowaną transformację DCT.
D. Alternatywne przykłady realizacji wynalazku
Szerokość i lokalizację sygnału pasma podstawowego można ustalać zasadniczo w dowolny sposób i można je zmieniać dynamicznie np. w zależności od właściwości sygnału wejściowego. W jednym alternatywnym przykładzie realizacji nadajnik 136 generuje sygnał pasma podstawowego przez odrzucanie wielu pasm składowych widmowych, przez co tworzone są w widmie sygnału pasma
PL 208 846 B1 podstawowego szczeliny. Podczas odtwarzania składowych widmowych części sygnału pasma podstawowego są przesuwane w celu odtworzenia brakujących składowych widmowych.
Można również zmieniać kierunek przesuwania. W innym przykładzie realizacji nadajnik 136 odrzuca składowe widmowe niskiej częstotliwości, by wytworzyć sygnał pasma podstawowego usytuowany przy stosunkowo wyższych częstotliwościach. Odbiornik 142 przesuwa części sygnału pasma podstawowego wysokiej częstotliwości do dołu w kierunku do niższych częstotliwości, by odtworzyć brakujące składowe widmowe.
E. Sterowanie obwiednią czasową
Omówione powyżej techniki odtwarzania nadają się do generowania odtworzonego sygnału, który zasadniczo zachowuje obwiednię widmową wejściowego sygnału akustycznego. Jednakże, czasowa obwiednia sygnału wejściowego zwykle nie jest zachowana, fig. 8A przedstawia czasowy kształt akustycznego sygnału 860. Figura 8B przedstawia czasowy kształt odtworzonego wyjściowego sygnału 870, wytworzonego przez uzyskanie sygnału pasma podstawowego z sygnału 860 z fig. 8A i odtworzenie odrzuconych składowych widmowych w procesie przesuwania składowych widmowych. Czasowy kształt odtworzonego sygnału 870 różni się znacznie od czasowego kształtu pierwotnego sygnału 860.
Zmiany czasowego kształtu mogą mieć znaczny wpływ na odbieraną jakość odtworzonego sygnału akustycznego. Poniżej omówione zostaną dwa sposoby zachowywania obwiedni czasowej.
1. Technika w domenie czasowej
Według pierwszego sposobu nadajnik 136 określa czasową obwiednię wejściowego sygnału akustycznego w domenie czasowej, a odbiornik 142 odtwarza taką samą lub zasadniczo taką samą obwiednię czasową odtworzonego sygnału w domenie czasowej.
a) Nadajnik
Figura 9 przedstawia schemat blokowy jednego przykładu realizacji nadajnika 136 w systemie łączności, który wykorzystuje sterowanie obwiedni czasowej przy użyciu techniki w domenie czasowej. Zespół 205 filtrów analizy odbiera sygnał wejściowy z toru 115 i dzieli ten sygnał na wiele sygnałów subpasm częstotliwości. Na rysunku tym przedstawiono tylko dwa subpasma, by zachować przejrzystość, jednakże zespół 205 filtrów analizy może dzielić sygnał wejściowy na dowolną całkowitą liczbę subpasm, która jest większa niż jeden.
Zespół 205 filtrów analizy może być realizowany zasadniczo w dowolny sposób, np. w postaci jednego lub wielu filtrów zwierciadła kwadraturowego (QMF), połączonych kaskadowo, albo korzystnie przez technikę pseudo-QMF, która umożliwia dzielenie sygnału wejściowego na dowolną całkowitą liczbę subpasm w jednym etapie filtrowania. Dodatkowe informacje na temat techniki pseudo-QMF można znaleźć w pracy Vaidyanathan, Multirate Systems and Filter Banks, Prentice Hall, New Jersey, 1993, str. 354-373.
Do tworzenia sygnału pasma podstawowego wykorzystuje się co najmniej jeden sygnał subpasma. Pozostałe sygnały subpasm zawierają składowe widmowe sygnału wejściowego, które są odrzucane. W wielu zastosowaniach sygnał pasma podstawowego jest tworzony z jednego sygnału subpasma, reprezentującego składowe widmowe najniższej częstotliwości z sygnału wejściowego, ale zasadniczo nie jest to konieczne. W jednym korzystnym przykładzie realizacji systemu przesyłania lub zapisywania wejściowego sygnału cyfrowego próbkowanego z częstotliwością 44,1 tysiąca próbek na sekundę zespół 205 filtrów analizy dzieli sygnał wejściowy na cztery subpasma, których zakresy częstotliwości są takie, jak przedstawiono w tabeli 1. Subpasmo najniższej częstotliwości jest wykorzystywane do tworzenia sygnału pasma podstawowego.
W przykładzie realizacji z fig. 9, zespół 205 filtrów analizy przepuszcza sygnał subpasma niskiej częstotliwości jako sygnał pasma podstawowego do zespołu 213 oceniania obwiedni czasowej i modulatora 214. Zespół 213 oceny obwiedni czasowej tworzy ocenioną obwiednię czasową sygnału pasma podstawowego, podawaną na modulator 214 i zespół 225 formatowania sygnału. Korzystnie składowe widmowe sygnału pasma podstawowego poniżej 500 Hz są albo wykluczane z procesu oceny obwiedni czasowej, albo są tłumione tak, że nie mają żadnego znaczącego wpływu na kształt ocenionej obwiedni czasowej. Można to osiągnąć przez poddawanie sygnału przeanalizowanego przez zespół 213 oceny obwiedni czasowej działaniu odpowiedniego filtru górnoprzepustowego. Modulator 214 dzieli amplitudę sygnału pasma podstawowego przez ocenianą obwiednią tymczasową i podaje na zespół 215 filtrów analizy reprezentację sygnału pasma podstawowego, która jest spłaszczona czasowo. Zespół 215 filtrów analizy wytwarza reprezentację spłaszczonego sygnału pasma podstawowego w domenie częstotliwościowej, która jest podawana na koder 220 w celu zakodowania. Zespół 215 filtrów analizy, jak również omówiony poniżej zespół 212 filtrów analizy mogą być
PL 208 846 B1 realizowane przez zasadniczo dowolną transformację z domeny czasowej do domeny częstotliwościowej, jednakże zasadniczo korzystna jest transformacja podobna do transformacji O-TDAC, która realizuje krytycznie próbkowany zespół filtrów. Koder 220 jest opcjonalny. Jednakże jego stosowanie jest korzystne, ponieważ kodowanie można zwykle wykorzystywać do zmniejszania wymagań informacyjnych spłaszczonego sygnału pasma podstawowego. Spłaszczony sygnał pasma podstawowego w postaci zakodowanej lub też nie jest podawany na zespół 225 formatowania sygnału.
Zespół 205 filtrów analizy podaje sygnał subpasma wyższej częstotliwości na zespół 210 oceny obwiedni czasowej i na modulator 211. Zespół 210 oceny obwiedni czasowej tworzy ocenioną obwiednię czasową sygnału subpasma wyższej częstotliwości i podaje ją na modulator 211 oraz na zespół 225 formatowania sygnału wyjściowego. Modulator 211 dzieli amplitudę sygnału subpasma wyższej częstotliwości przez ocenioną obwiednię czasową i podaje na zespół 212 filtrów analizy reprezentację sygnału subpasma wyższej częstotliwości, która jest spłaszczona czasowo. Zespół 212 filtrów analizy wytwarza reprezentację spłaszczonego sygnału subpasma wyższej częstotliwości w domenie częstotliwościowej. Zespół 720 obwiedni widmowej i widmowy analizator 722 podają ocenioną obwiednię widmową i odpowiednio co najmniej jeden parametr mieszania szumu dla sygnału subpasma wyższej częstotliwości zasadniczo w taki sam sposób, jak opisano powyżej, na zespół 225 formatowania sygnału.
Zespół 225 formatowania sygnału podaje sygnał wyjściowy w telekomunikacyjny kanał 140 przez łączenie reprezentacji spłaszczonego sygnału pasma podstawowego, ocenionych czasowych obwiedni sygnału pasma podstawowego i sygnału subpasma wyższej częstotliwości, ocenionej obwiedni widmowej oraz co najmniej jednego parametru mieszania szumu w sygnał wyjściowy. Poszczególne sygnały i informacje są składane w jeden sygnał o formacie nadającym się do przesyłania lub zapisywania przy użyciu zasadniczo dowolnej żądanej techniki formatowania, jak opisano powyżej w odniesieniu do zespołu 725 formatowania sygnału.
b) Zespół oceny obwiedni czasowej
Zespoły 210 i 213 oceny obwiedni czasowej mogą być realizowane wieloma różnymi sposobami. W jednym przykładzie realizacji każdy z tych zespołów oceny przetwarza sygnał subpasma tak, że dzieli go na bloki próbek sygnału subpasma. Te bloki próbek sygnału subpasma są również przetwarzane albo przez zespół 212 filtrów analizy, albo przez zespół 215 filtrów analizy. W wielu praktycznych realizacjach bloki te zawierają liczbę próbek, która jest potęgą liczby dwa i jest większa niż 256 próbek. Taka wielkość bloku jest zwykle korzystna w celu polepszenia skuteczności i rozdzielczości częstotliwościowej transformacji użytych do zrealizowania zespołów 212 i 215 filtrów analizy. Taka długość bloków może być również przyjęta w odpowiedzi na pewne właściwości sygnału wejściowego, takie jak występowanie lub brak dużych sygnałów przejściowych. Każdy blok jest ponadto dzielony na grupy po 256 próbek do oceny obwiedni czasowej. Wielkość tych grup jest wybrana tak, by wyważyć kompromis pomiędzy dokładnością oceny a ilością informacji potrzebną do przenoszenia tej oceny w sygnale wyjściowym.
W jednym przykładzie realizacji zespół oceny obwiedni czasowej oblicza moc próbek w każdej grupie próbek sygnału subpasma. Zestaw wartości mocy dla bloku próbek sygnału subpasma jest ocenioną obwiednią czasową tego bloku. W innym przykładzie realizacji zespół oceny obwiedni czasowej oblicza wartość średnią wielkości próbek sygnału subpasma w każdej grupie. Zestaw średnich dla bloku jest ocenioną obwiednią czasową tego bloku.
Zestaw wartości ocenionej obwiedni może być kodowany wieloma różnymi sposobami. W jednym przykładzie obwiednią dla każdego bloku jest reprezentowana przez wartość początkową dla pierwszej grupy próbek w bloku i zestaw wartości różnicowych, które wyrażają względne wartości dla dalszych grup. W innym przykładzie kody różnicowe albo kody bezwzględne wykorzystuje się w sposób adaptacyjny, by zmniejszyć ilość informacji potrzebną do przenoszenia tych wartości.
c) Odbiornik
Figura 10 przedstawia schemat blokowy jednego przykładu realizacji odbiornika 142 w systemie telekomunikacyjnym, który wykorzystuje sterowanie obwiedni czasowej przy użyciu techniki w domenie czasowej. Zespół 265 deformatowania otrzymuje sygnał z telekomunikacyjnego kanału 140 i uzyskuje z tego sygnału reprezentację spłaszczonego sygnału pasma podstawowego, ocenione obwiednie czasowe sygnału pasma podstawowego oraz sygnał subpasma wyższej częstotliwości, ocenioną obwiednię widmową i co najmniej jeden parametr mieszania szumu. Dekoder 267 jest opcjonalny, ale powinien być używany, by usuwać wpływ kodowania przeprowadzonego w nadajniku 136 w celu otrzymania reprezentacji spłaszczonego sygnału pasma podstawowego w domenie częstotliwościowej.
PL 208 846 B1
Zespół 280 filtrów syntezy otrzymuje reprezentację spłaszczonego sygnału pasma podstawowego w domenie częstotliwościowej i wytwarza reprezentację w domenie czasowej stosując technikę, która jest odwróceniem techniki stosowanej w zespole 215 filtrów analizy w nadajniku 136. Modulator 281 otrzymuje ocenioną obwiednię czasową sygnału pasma podstawowego z zespołu 265 deformatowania i wykorzystuje tę ocenioną obwiednię do modulowania spłaszczonego sygnału pasma podstawowego, odebranego z zespołu 280 filtrów syntezy. Modulacja ta tworzy czasowy kształt, który jest zasadniczo taki sam jak czasowy kształt pierwotnego sygnału pasma podstawowego przed spłaszczeniem przez modulator 214 w nadajniku 136.
Procesor 808 sygnału odbiera reprezentację spłaszczonego sygnału pasma podstawowego w domenie częstotliwościowej, ocenioną obwiednię widmową oraz co najmniej jeden parametr mieszania szumu z zespołu 265 deformatowania i odtwarza składowe widmowe w taki sam sposób, jak omówiono powyżej w odniesieniu do procesora 808 sygnału, przedstawionego na fig. 4. Odtworzone składowe widmowe są podawane na zespół 283 filtrów syntezy, który wytwarza reprezentację w domenie czasowej wykorzystując technikę, która jest odwróceniem techniki użytej przez zespoły 212 i 215 filtrów analizy w nadajniku 136. Modulator 284 odbiera ocenioną obwiednię czasową sygnału subpasma wyższej częstotliwości z zespołu 265 deformatowania i wykorzystuje tę ocenioną obwiednię do modulowania odtworzonych składowych widmowych sygnału odebranego z zespołu 283 filtrów syntezy. Modulacja taka tworzy czasowy kształt, który jest zasadniczo taki sam jak czasowy kształt pierwotnego sygnału subpasma wyższej częstotliwości przed spłaszczeniem przez modulator 211 w nadajniku 136.
Zmodulowany sygnał subpasma i zmodulowany sygnał subpasma wyższej częstotliwości są łączone ze sobą, by utworzyć odtworzony sygnał, który jest podawany na zespół 287 filtrów syntezy. Ten zespół 287 filtrów syntezy wykorzystuje technikę będącą odwróceniem techniki użytej przez zespół 205 filtrów analizy w nadajniku 136 do przesłania torem 145 sygnału wyjściowego, który jest percepcyjnie nieodróżnialny lub prawie nieodróżnialny od pierwotnego sygnału wejściowego, odbieranego z toru 115 przez nadajnik 136.
2. Technika w domenie częstotliwościowej
Zgodnie z tym drugim sposobem nadajnik 136 określa czasową obwiednię wejściowego sygnału akustycznego w domenie częstotliwościowej, a odbiornik 142 odtwarza taką samą lub zasadniczo taką samą obwiednię czasową dla odtworzonego sygnału w domenie częstotliwościowej.
a) Nadajnik
Figura 11 przedstawia schemat blokowy jednego przykładu realizacji nadajnika 136 w systemie telekomunikacyjnym, który przeprowadza sterowanie obwiedni czasowej przy użyciu techniki w domenie częstotliwościowej. Realizacja tego nadajnika jest bardzo podobna do realizacji nadajnika pokazanego na fig. 2. Zasadnicza różnica tkwi w zespole 707 oceny obwiedni czasowej. Inne części składowe nie są tu szczegółowo omawiane, ponieważ ich działanie jest zasadniczo takie samo jak opisano powyżej w odniesieniu do fig. 2.
Jak pokazano na fig. 11, zespół 707 oceny obwiedni czasowej odbiera z zespołu 705 filtrów analizy reprezentację sygnału wejściowego w domenie częstotliwościowej, którą analizuje w celu utworzenia oceny obwiedni czasowej w sygnale wejściowym. Korzystnie składowe widmowe poniżej 500 Hz są albo odrzucane z reprezentacji w domenie częstotliwościowej, albo są tłumione tak, że nie mają one znaczącego wpływu na proces oceny obwiedni czasowej. Zespół 707 oceny obwiedni czasowej otrzymuje reprezentację czasowo spłaszczonej wersji sygnału wejściowego w domenie częstotliwościowej przez rozplecenie reprezentacji ocenionej obwiedni czasowej w domenie częstotliwościowej i reprezentacji sygnału wejściowego w domenie częstotliwościowej. Takie rozplecenie można przeprowadzić przez splecenie reprezentacji sygnału wejściowego w domenie częstotliwościowej z odwrotnością reprezentacji ocenionej obwiedni czasowej w domenie częstotliwościowej. Reprezentacja czasowo spłaszczonej wersji sygnału wejściowego w domenie częstotliwościowej jest podawana na filtr 715, analizator 710 sygnału pasma podstawowego i zespół 720 oceny obwiedni widmowej. Opis reprezentacji ocenionej obwiedni czasowej w domenie częstotliwościowej jest podawany na zespół 725 formatowania sygnału, by utworzyć sygnał wyjściowy, który jest podawany w telekomunikacyjny kanał 140.
b) Zespół oceny obwiedni czasowej
Zespół 707 oceny obwiedni czasowej może być realizowany wieloma sposobami. Podstawę techniczną jednego przykładu realizacji zespołu oceny obwiedni czasowej można wyjaśnić w systemie liniowym przedstawionym przez równanie 2:
PL 208 846 B1 y(t) = h(t) · x(t) (2) gdzie y(t) = sygnał do przesyłania; h(t) = obwiednia czasowa sygnału do przesyłania; znak kropki (·) oznacza mnożenie; oraz x(t) = czasowo spłaszczona wersja sygnału y(t).
Równanie 2 można zapisać w następującej postaci:
Y[k] = H[k] * X[k] (3) gdzie Y[k] = reprezentacja sygnału wejściowego y(t) w domenie częstotliwościowej;
H[k] = reprezentacja h(t) w domenie częstotliwościowej;
znak gwiazdki (*) oznacza splot; oraz
X[k] = reprezentacja x(t) w domenie częstotliwościowej.
Nawiązując do fig. 11, sygnał y(t) jest sygnałem akustycznym, jaki nadajnik 136 otrzymuje z toru 115. Zespół 705 filtrów analizy tworzy reprezentację Y[k] sygnału Y(t) w domenie częstotliwościowej. Zespół 707 oceny obwiedni czasowej otrzymuje ocenę reprezentacji H[k] czasowej obwiedni h(t) sygnału w domenie częstotliwościowej przez rozwiązanie zestawu równań otrzymanego z autoregresywnego ruchomego średniego (ARMA) modelu Y[k] i X[k]. Dodatkowe informacje na temat stosowania modeli ARMA można uzyskać z pracy Proakis i Manolakis, Digital Signal Processing: Principles, Algorithms and Applications, MacMillan Publishing Co., Nowy Jork, 1988. Patrz zwłaszcza s. 818-821.
W korzystnym przykładzie realizacji nadajnika 136 zespół 705 filtrów wykorzystuje pewną transformację do bloków próbek reprezentujących sygnał y(t), aby utworzyć reprezentację Y[k] w domenie czasowej, zestawioną w bloki współczynników transformacji. Każdy blok współczynników transformacji wyraża krótkotrwałe widmo sygnału y(t). Reprezentacja X[k] w domenie częstotliwościowej jest również zestawiona w blokach. Każdy blok współczynników w reprezentacji X[k] w domenie częstotliwościowej reprezentuje blok próbek dla spłaszczonego czasowo sygnału x(t), który jest przyjmowany jako stabilny w szerokim sensie (WSS). Zakłada się również, że współczynniki w każdym bloku reprezentacji X[k] są rozmieszczone niezależnie (ID). Przy tych założeniach sygnały można wyrazić przez model ARMA następująco:
Y[k] + ^a1Y[k-l]= £bqX[k - q] (4) l1 q-0
Równanie 4 można rozwiązać dla al, i bq przez rozwiązanie dla autokorelacji funkcji Y[k]:
E{Y[k]Y[k-m]}=]ra1E{Y[k-1} Y[k-m]+ Σbq E{x[k-q]-Y[k-m]} (5) l =1 q = 0 gdzie E{ } oznacza funkcję średniej statystycznej;
L = długość autoregresywnej części modelu ARMA; oraz
Q = długość ruchomej części średniej modelu ARMA.
Równanie 5 można zapisać w następującej postaci:
/. o Rrr M = Σ RyAm ~ Ą + Σ b<,RV (6) /=1 q=0 gdzie RYY[n] oznacza autokorelację funkcji Y[n] oraz
RxY[k] oznacza korelację krzyżową Y[k] i x[k].
Jeżeli założymy ponadto, że system liniowy reprezentowany przez H[k] jest tylko autoregresywny, wówczas drugie wyrażenie po prawej stronie równania 6 jest równe wariancji σ2χ z X[k]. Równanie 6 można wtedy zapisać następująco:
PL 208 846 B1
Równanie 7 można rozwiązać przez inwersję następującego zestawu równań liniowych:
^rr | 7?n. [2] | * 1 ‘ | σΎ | |||
Ą,.[l] | [o] | /?„.[-1] | ' ^rr [_ | «1 | 0 | |
[l] | 7?JT [0] · | Ą’r [- -Ł + 2] | «2 | 0 | ||
ĄT[i] | 7?JT[Z-2] · | • Μθ] . | 0 |
Na tej podstawie można teraz opisać jeden przykład realizacji zespołu oceny obwiedni czasowej, który wykorzystuje techniki w domenie częstotliwościowej. W tym przykładzie realizacji zespół
707 oceny obwiedni czasowej otrzymuje reprezentację Y[k] wejściowego sygnału y(t) w domenie czasowej i oblicza ciąg autokorelacji RXX[m] dla -L < m < L. Wartości te są wykorzystywane do zbudowania macierzy przedstawionej w równaniu 8. Macierz ta jest następnie poddawana inwersji w celu rozwiązania jej dla współczynników aj. Ponieważ macierz w równaniu 8 jest macierzą Toeplitz'a, jej inwersję można wyznaczyć przez algorytm Levinson-Durbin'a. Informacje - patrz praca Proakis i Manolakis, str. 458-462.
Zestaw równań otrzymany przez inwersję tej macierzy nie może zostać rozwiązany bezpośrednio, ponieważ nie jest znana wariancja σ2χ funkcji X[k]. Jednakże ten zestaw równań można rozwiązać dla pewnej dowolnej wariancji, takiej jak wartość jeden. Po rozwiązaniu dla tej wartości dowolnej ten zestaw równań otrzymuje zespół nieznormalizowanych współczynników {a'0,...,a'L}. Współczynniki te są nieznormalizowane, ponieważ równania były rozwiązane dla wariancji dowolnej. Współczynniki te mogą zostać znormalizowane przez podzielenie każdego z nich przez wartość pierwszego nieznormalizowanego współczynnika a'0, co można wyrazić następująco:
ai = -Oi. dla 0 < i < L (9) a'0
Wariancję można otrzymać z następującego równania:
σ2χ = — (10) a'0
Zespół znormalizowanych współczynników {1, a1, aL} reprezentuje zera spłaszczającego filtru FF, który można spleść z reprezentacją Y[k] wejściowego sygnału y(f) w domenie częstotliwościowej, by otrzymać reprezentację X[k] czasowo spłaszczonej wersji x(t) sygnału wejściowego w domenie częstotliwościowej. Taki zestaw znormalizowanych współczynników reprezentuje również bieguny filtra odtwarzania FR, które można spleść z reprezentacją X[k] czasowo spłaszczonego sygnału x(t) w domenie częstotliwościowej, by otrzymać reprezentację tego płaskiego sygnału w domenie częstotliwościowej, posiadającą zmodyfikowany kształt czasowy zasadniczo identyczny z czasową obwiednią wejściowego sygnału y(t).
Zespół 707 oceny obwiedni czasowej splata spłaszczający filtr FF z reprezentacją Y[k] w domenie częstotliwościowej, otrzymaną z zespołu 705 filtrów i podaje czasowo spłaszczony wynik na filtr 715, analizator 710 sygnału pasma podstawowego oraz zespół 720 oceny obwiedni widmowej. Opis współczynników w spłaszczającym filtrze FF jest podawany na zespół 725 formatowania sygnału do włączania w sygnał wyjściowy przesyłany torem 140.
c) Odbiornik
Figura 12 przedstawia schemat blokowy jednego przykładu realizacji odbiornika 142 w systemie telekomunikacyjnym, który realizuje sterowanie obwiedni czasowej przy użyciu techniki w domenie częstotliwości. Realizacja tego odbiornika jest bardzo podobna do realizacji odbiornika pokazanego na fig. 4. Zasadnicza różnica tkwi w zespole 807 odtwarzania obwiedni czasowej. Inne części składowe nie są tu omawiane bardziej szczegółowo, ponieważ ich działanie jest zasadniczo takie samo jak opisano powyżej w odniesieniu do fig. 4.
PL 208 846 B1
W nawiązaniu do fig. 12 zespół 807 odtwarzania obwiedni czasowej odbiera z zespołu 805 deformatowania opis ocenionej obwiedni czasowej, który jest splatany z reprezentacją odtworzonego sygnału w domenie częstotliwościowej. Wynik otrzymany ze splatania jest podawany na zespół 825 filtrów syntezy, który przesyła w torze 145 sygnał wyjściowy percepcyjnie niemożliwy do odróżnienia lub prawie niemożliwy do odróżnienia od pierwotnego sygnału wejściowego, otrzymywanego z toru 115 przez nadajnik 136.
Zespół 807 odtwarzania obwiedni czasowej może być realizowany wieloma sposobami. W realizacji kompatybilnej z realizacją omówionego powyżej zespołu oceny obwiedni zespół 805 deformatowania tworzy zestaw współczynników, które reprezentują bieguny filtru odtwarzania FR, które są splatane z reprezentacją odtworzonego sygnału w domenie częstotliwościowej.
d) Alternatywne przykłady realizacji
Możliwe są alternatywne przykłady realizacji. W jednym alternatywnym wykonaniu nadajnika 136 składowe widmowe reprezentacji w domenie częstotliwościowej otrzymane z zespołu 705 filtrów są grupowane w subpasma częstotliwości. Zestaw subpasm z tabeli 1 jest jednym odpowiednim przykładem. Spłaszczający filtr FF jest realizowany dla każdego subpasma i splatany z reprezentacją każdego subpasma w domenie częstotliwościowej w celu czasowego spłaszczenia go. Zespół 725 formatowania sygnału włącza w sygnał wyjściowy identyfikację ocenionej obwiedni czasowej dla każdego subpasma. Odbiornik 142 otrzymuje tę identyfikację obwiedni dla każdego subpasma, ma odpowiedni filtr FR odtwarzania dla każdego subpasma i splata go z reprezentacją odpowiedniego subpasma w domenie częstotliwościowej w odtworzonym sygnale.
Według innej alternatywy tworzy się tabelę złożoną z wielu zestawów współczynników {Ci}i. Współczynniki {1, a1,...,aL} spłaszczającego filtru FF obliczane są dla sygnału wejściowego, a następnie są porównywane z każdym z wielu zestawów współczynników zapisanych w tabeli. Zestaw {Ci}j w tej tabeli, uważany za najbliższy obliczonym współczynnikom, zostaje wybrany i użyty do spłaszczania sygnału wejściowego. Identyfikacja zestawu {Ci}j, który jest wybrany z tabeli, podawana jest na zespół 725 formatowania sygnału w celu włączenia w sygnał wyjściowy. Odbiornik 142 odbiera identyfikację zestawu {Ci}j, sprawdza tablicę zapisanych zestawów współczynników, by otrzymać odpowiedni zestaw współczynników {Ci}j, tworzy filtr FR odtwarzania, odpowiadający tym współczynnikom i splata ten filtr z reprezentacją odtworzonego sygnału w domenie częstotliwościowej. Alternatywa taka może być również stosowana wobec subpasm, jak opisano powyżej.
Jeden sposób wybierania zestawu współczynników polega na tworzeniu docelowego punktu w L-wymiarowej przestrzeni ze współrzędnymi euklidesowymi równymi obliczonym współczynnikom (a1, aL) dla sygnału wejściowego lub subpasma sygnału wejściowego. Każdy z zestawów zapisanych w tej tabeli określa również odpowiedni punkt w przestrzeni L-wymiarowej. Zapisany w tabeli zestaw, którego skojarzony punkt ma najkrótszą odległość euklidesową do punktu docelowego, jest uważany za najbliższy obliczonym współczynnikom. Jeżeli tabela zawiera przykładowo 256 zestawów współczynników, na zespół 725 formatowania sygnału może być podawana liczba ośmiobitowa identyfikująca wybrany zestaw współczynników.
F. Przykłady realizacji
Niniejszy wynalazek może być realizowany wieloma różnymi sposobami. W zależności od potrzeb można stosować techniki analogowe i cyfrowe. Różne aspekty można realizować przez dyskretne elementy elektryczne, obwody scalone, programowane tablice logiczne, człony ASIC oraz inne rodzaje elementów elektronicznych i przez urządzenia realizujące przykładowo programy złożone z poleceń. Programy złożone z poleceń mogą być przenoszone przez zasadniczo dowolne czytelne za pomocą urządzeń media, takie jak magnetyczne i optyczne nośniki pamięci, pamięć stała i pamięć programowalna.
Claims (20)
1. Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym, znamienny tym, że dokonuje się jednego lub wielu przekształceń sygnału akustycznego w domenie czasowej na sygnał w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej, zawierającego pewne, lecz nie wszystkie, składowe widmowe sygnału akustycznego, analizuje się sygnał akustyczny dla obliczenia ocenianej obwiedni widmowej przynajmniej części sygnału akustycznego, oblicza się ocenianą obwiednię czasową przynajmniej części
PL 208 846 B1 sygnału akustycznego oraz łączy się dane przedstawiające reprezentację sygnału pasma podstawowego w domenie częstotliwościowej, ocenianą obwiednię czasową przynajmniej części sygnału akustycznego i ocenianą obwiednię widmową w sygnał wyjściowy właściwy do przesyłania lub zapisywania.
2. Sposób według zastrz. 1, znamienny tym, że zmienia się długość jednego lub wielu przekształceń domen czasowych na domeny częstotliwościowe.
3. Sposób według zastrz. 1 albo 2, znamienny tym, że dokonuje się transformacji analizy kasowania z aliasowaniem w domenie czasowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
4. Sposób według zastrz. 3, znamienny tym, że dokonuje się przekształcenia sygnału akustycznego w domenie czasowej na sygnał w domenie częstotliwościowej dla otrzymania reprezentacji sygnału akustycznego w domenie częstotliwościowej oraz filtruje się reprezentację sygnału akustycznego w domenie częstotliwościowej dla wydzielenia części reprezentacji sygnału akustycznego w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
5. Sposób według zastrz. 3, znamienny tym, że filtruje się za pomocą zespołu filtrów analizy sygnał akustyczny dla otrzymania wielu sygnałów podpasma, reprezentujących sygnał akustyczny, filtruje się za pomocą pierwszego zespołu filtrów analizy pierwszą grupę jednego lub wielu sygnałów podpasma, które zawierają pewne, lecz nie wszystkie, z wielu sygnałów podpasma dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej i filtruje się za pomocą drugiego zespołu filtrów analizy drugą grupę jednego lub wielu sygnałów pasma podstawowego, które nie są zawarte w pierwszej grupie sygnałów podpasma oraz analizuje się uzyskany sygnał dla otrzymania ocenianej obwiedni widmowej sygnału resztkowego.
6. Sposób według zastrz. 5, znamienny tym, że modyfikuje się drugą grupę sygnałów podpasma zgodnie z odwrotnością ocenianej obwiedni czasowej drugiej grupy sygnałów podpasma dla otrzymania czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma, przy czym oceniana obwiednią czasowa przynajmniej części sygnału akustycznego zawiera ocenianą obwiednię czasową drugiej grupy sygnałów podpasma i dokonuje się jednego lub wielu przekształceń domeny czasowej na domenę częstotliwościową w czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma dla otrzymania ocenianej obwiedni widmowej sygnału resztkowego.
7. Sposób według zastrz. 6, znamienny tym, że modyfikuje się pierwszą grupę sygnałów podpasma zgodnie z odwrotnością ocenianej obwiedni czasowej pierwszej grupy sygnałów podpasma dla otrzymania czasowo spłaszczonej reprezentacji pierwszej grupy sygnałów podpasma, przy czym oceniana obwiednia czasowa przynajmniej części sygnału akustycznego zawiera ocenianą obwiednię czasową pierwszej grupy sygnałów podpasma i dokonuje się jednego lub wielu przekształceń domeny czasowej na domenę częstotliwościową w czasowo spłaszczonej reprezentacji pierwszej grupy sygnałów podpasma dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
8. Sposób według zastrz. 6, znamienny tym, że uzyskuje się parametr mieszania szumu z czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma i łączy się dane w sygnał wyjściowy, który reprezentuje parametr mieszania szumu.
9. Sposób według zastrz. 4, znamienny tym, że analizuje się reprezentację w domenie częstotliwościowej przynajmniej sygnału resztkowego dla otrzymania ocenianej obwiedni czasowej.
10. Sposób według zastrz. 4, znamienny tym, że oblicza się czasowo spłaszczoną reprezentację przynajmniej części sygnału akustycznego w odpowiedzi na odwrotność ocenianej obwiedni czasowej i oblicza się ocenianą obwiednię widmową z czasowo spłaszczonej reprezentacji.
11. Sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym, znamienny tym, że odbiera się sygnał zawierający dane reprezentujące sygnał pasma podstawowego, otrzymywany z sygnału akustycznego, ocenianą obwiednię widmową i ocenianą obwiednię czasową, wydziela się reprezentację sygnału pasma podstawowego w domenie częstotliwościowej z danych, przetwarza się składowe widmowe pasma podstawowego częstotliwościowo dla otrzymania odtwarzanego sygnału zawierającego odtwarzane składowe widmowe i dokonuje się jednego lub wielu przekształceń domeny częstotliwościowej na domenę czasową w kombinacji składowych widmowych odtwarzanego sygnału ze składowymi widmowymi reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej, przy czym uzyskuje się reprezentację w domenie czasowej o przebiegu czasowym regulowanym
PL 208 846 B1 w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową przez modyfikację składowych widmowych w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową albo przez modyfikację reprezentacji w domenie czasowej w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową.
12. Sposób według zastrz. 11, znamienny tym, że zmienia się długość jednego lub wielu przekształceń domeny częstotliwościowej na domenę czasową.
13. Sposób według zastrz. 11 albo 12, znamienny tym, że dokonuje się transformacji syntezy kasowania z aliasowaniem w domenie czasowej dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej.
14. Sposób według zastrz. 13, znamienny tym, że dostosowuje się przetwarzanie składowych widmowych przez zmianę tego, którego składowe widmowe przesuwa się, lub przez zmianę wartości częstotliwości, o którą składowe widmowe przesuwa się.
15. Sposób według zastrz. 14, znamienny tym, że odbiera się dane w sygnale, który reprezentuje parametr mieszania szumu, uzyskiwany z miary zawartości szumu w sygnale akustycznym, generuje się sygnał szumu mający składowe widmowe, które zmieniają się zasadniczo odwrotnie do częstotliwości i modyfikuje się odtwarzany sygnał przez regulację amplitud odtwarzanych składowych widmowych zgodnie z ocenianą obwiednią widmową i parametrem mieszania szumu oraz łączy się modyfikowany odtwarzany sygnał z sygnałem szumu.
16. Sposób według zastrz. 14, znamienny tym, że łączy się składowe widmowe odtwarzanego sygnału i składowe widmowe reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania odtworzonego sygnału i filtruje się za pomocą zespołu filtrów syntezy odtworzony sygnał dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej.
17. Sposób według zastrz. 14, znamienny tym, że filtruje się za pomocą pierwszego zespołu filtrów syntezy reprezentację sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie czasowej, filtruje się za pomocą drugiego zespołu filtrów syntezy odtwarzany sygnał dla otrzymania reprezentacji odtwarzanego sygnału w domenie czasowej i generuje się reprezentację odtworzonego sygnału w domenie czasowej dla przedstawienia kombinacji reprezentacji sygnału pasma podstawowego w domenie czasowej i reprezentacji odtwarzanego sygnału w domenie czasowej.
18. Sposób według zastrz. 17, znamienny tym, że modyfikuje się reprezentację odtwarzanego sygnału w domenie czasowej zgodnie z ocenianą obwiednią czasową i łączy się reprezentację sygnału pasma podstawowego w domenie czasowej i zmodyfikowaną reprezentację odtwarzanego sygnału dla otrzymania odtworzonego sygnału.
19. Sposób według zastrz. 18, znamienny tym, że modyfikuje się reprezentację sygnału pasma podstawowego w domenie czasowej zgodnie z ocenianą obwiednią czasową i łączy się zmodyfikowaną reprezentację sygnału pasma podstawowego w domenie czasowej i zmodyfikowaną reprezentację odtwarzanego sygnału w domenie czasowej dla otrzymania odtworzonego sygnału.
20. Sposób według zastrz. 14, znamienny tym, że modyfikuje się reprezentację odtworzonego sygnału w domenie częstotliwościowej zgodnie z danymi reprezentującymi ocenianą obwiednię czasową dla regulacji przebiegu czasowego reprezentacji odtworzonego sygnału w domenie czasowej.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/113,858 US20030187663A1 (en) | 2002-03-28 | 2002-03-28 | Broadband frequency translation for high frequency regeneration |
Publications (2)
Publication Number | Publication Date |
---|---|
PL371410A1 PL371410A1 (pl) | 2005-06-13 |
PL208846B1 true PL208846B1 (pl) | 2011-06-30 |
Family
ID=28453693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PL371410A PL208846B1 (pl) | 2002-03-28 | 2003-03-21 | Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym |
Country Status (16)
Country | Link |
---|---|
US (19) | US20030187663A1 (pl) |
EP (2) | EP2194528B1 (pl) |
JP (1) | JP4345890B2 (pl) |
KR (1) | KR101005731B1 (pl) |
CN (2) | CN100338649C (pl) |
AT (1) | ATE511180T1 (pl) |
AU (1) | AU2003239126B2 (pl) |
CA (1) | CA2475460C (pl) |
HK (2) | HK1078673A1 (pl) |
MX (1) | MXPA04009408A (pl) |
MY (1) | MY140567A (pl) |
PL (1) | PL208846B1 (pl) |
SG (8) | SG153658A1 (pl) |
SI (1) | SI2194528T1 (pl) |
TW (1) | TWI319180B (pl) |
WO (1) | WO2003083834A1 (pl) |
Families Citing this family (162)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7742927B2 (en) * | 2000-04-18 | 2010-06-22 | France Telecom | Spectral enhancing method and device |
AUPR433901A0 (en) | 2001-04-10 | 2001-05-17 | Lake Technology Limited | High frequency signal construction method |
US7292901B2 (en) * | 2002-06-24 | 2007-11-06 | Agere Systems Inc. | Hybrid multi-channel/cue coding/decoding of audio signals |
US7116787B2 (en) * | 2001-05-04 | 2006-10-03 | Agere Systems Inc. | Perceptual synthesis of auditory scenes |
US7583805B2 (en) * | 2004-02-12 | 2009-09-01 | Agere Systems Inc. | Late reverberation-based synthesis of auditory scenes |
US7644003B2 (en) * | 2001-05-04 | 2010-01-05 | Agere Systems Inc. | Cue-based audio coding/decoding |
US20030035553A1 (en) * | 2001-08-10 | 2003-02-20 | Frank Baumgarte | Backwards-compatible perceptual coding of spatial cues |
US20030187663A1 (en) | 2002-03-28 | 2003-10-02 | Truman Michael Mead | Broadband frequency translation for high frequency regeneration |
US7447631B2 (en) | 2002-06-17 | 2008-11-04 | Dolby Laboratories Licensing Corporation | Audio coding system using spectral hole filling |
US20040138876A1 (en) * | 2003-01-10 | 2004-07-15 | Nokia Corporation | Method and apparatus for artificial bandwidth expansion in speech processing |
EP1482482A1 (de) * | 2003-05-27 | 2004-12-01 | Siemens Aktiengesellschaft | Frequenzerweiterung für Synthesizer |
JP4719674B2 (ja) | 2003-06-30 | 2011-07-06 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ノイズの加算によるデコードオーディオの品質の向上 |
US20050004793A1 (en) * | 2003-07-03 | 2005-01-06 | Pasi Ojala | Signal adaptation for higher band coding in a codec utilizing band split coding |
US7461003B1 (en) * | 2003-10-22 | 2008-12-02 | Tellabs Operations, Inc. | Methods and apparatus for improving the quality of speech signals |
US7672838B1 (en) | 2003-12-01 | 2010-03-02 | The Trustees Of Columbia University In The City Of New York | Systems and methods for speech recognition using frequency domain linear prediction polynomials to form temporal and spectral envelopes from frequency domain representations of signals |
US6980933B2 (en) * | 2004-01-27 | 2005-12-27 | Dolby Laboratories Licensing Corporation | Coding techniques using estimated spectral magnitude and phase derived from MDCT coefficients |
US7805313B2 (en) * | 2004-03-04 | 2010-09-28 | Agere Systems Inc. | Frequency-based coding of channels in parametric multi-channel coding systems |
DE102004021403A1 (de) * | 2004-04-30 | 2005-11-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Informationssignalverarbeitung durch Modifikation in der Spektral-/Modulationsspektralbereichsdarstellung |
US7512536B2 (en) * | 2004-05-14 | 2009-03-31 | Texas Instruments Incorporated | Efficient filter bank computation for audio coding |
EP1744139B1 (en) * | 2004-05-14 | 2015-11-11 | Panasonic Intellectual Property Corporation of America | Decoding apparatus and method thereof |
CN101015000A (zh) * | 2004-06-28 | 2007-08-08 | 皇家飞利浦电子股份有限公司 | 无线音频 |
WO2006018748A1 (en) * | 2004-08-17 | 2006-02-23 | Koninklijke Philips Electronics N.V. | Scalable audio coding |
TWI393120B (zh) * | 2004-08-25 | 2013-04-11 | Dolby Lab Licensing Corp | 用於音訊信號編碼及解碼之方法和系統、音訊信號編碼器、音訊信號解碼器、攜帶有位元流之電腦可讀取媒體、及儲存於電腦可讀取媒體上的電腦程式 |
TWI393121B (zh) * | 2004-08-25 | 2013-04-11 | Dolby Lab Licensing Corp | 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式 |
MX2007002483A (es) | 2004-08-30 | 2007-05-11 | Qualcomm Inc | Memoria intermedia sin oscilacion adaptiva para voz sobre ip. |
US8085678B2 (en) | 2004-10-13 | 2011-12-27 | Qualcomm Incorporated | Media (voice) playback (de-jitter) buffer adjustments based on air interface |
US7720230B2 (en) * | 2004-10-20 | 2010-05-18 | Agere Systems, Inc. | Individual channel shaping for BCC schemes and the like |
US8204261B2 (en) * | 2004-10-20 | 2012-06-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Diffuse sound shaping for BCC schemes and the like |
DE602005017302D1 (de) * | 2004-11-30 | 2009-12-03 | Agere Systems Inc | Synchronisierung von parametrischer raumtonkodierung mit extern bereitgestelltem downmix |
EP1817767B1 (en) | 2004-11-30 | 2015-11-11 | Agere Systems Inc. | Parametric coding of spatial audio with object-based side information |
US7787631B2 (en) * | 2004-11-30 | 2010-08-31 | Agere Systems Inc. | Parametric coding of spatial audio with cues based on transmitted channels |
US7903824B2 (en) * | 2005-01-10 | 2011-03-08 | Agere Systems Inc. | Compact side information for parametric coding of spatial audio |
JP4761506B2 (ja) * | 2005-03-01 | 2011-08-31 | 国立大学法人北陸先端科学技術大学院大学 | 音声処理方法と装置及びプログラム並びに音声システム |
US8155965B2 (en) | 2005-03-11 | 2012-04-10 | Qualcomm Incorporated | Time warping frames inside the vocoder by modifying the residual |
US8355907B2 (en) | 2005-03-11 | 2013-01-15 | Qualcomm Incorporated | Method and apparatus for phase matching frames in vocoders |
CN101138274B (zh) | 2005-04-15 | 2011-07-06 | 杜比国际公司 | 用于处理去相干信号或组合信号的设备和方法 |
US8311840B2 (en) * | 2005-06-28 | 2012-11-13 | Qnx Software Systems Limited | Frequency extension of harmonic signals |
JP4554451B2 (ja) * | 2005-06-29 | 2010-09-29 | 京セラ株式会社 | 通信装置、通信システム、変調方法、及びプログラム |
DE102005032724B4 (de) | 2005-07-13 | 2009-10-08 | Siemens Ag | Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen |
FR2891100B1 (fr) * | 2005-09-22 | 2008-10-10 | Georges Samake | Codec audio utilisant la transformation de fourier rapide, le recouvrement partiel et une decomposition en deux plans basee sur l'energie. |
KR100717058B1 (ko) * | 2005-11-28 | 2007-05-14 | 삼성전자주식회사 | 고주파 성분 복원 방법 및 그 장치 |
JP5034228B2 (ja) * | 2005-11-30 | 2012-09-26 | 株式会社Jvcケンウッド | 補間装置、音再生装置、補間方法および補間プログラム |
US8126706B2 (en) * | 2005-12-09 | 2012-02-28 | Acoustic Technologies, Inc. | Music detector for echo cancellation and noise reduction |
JP5457171B2 (ja) * | 2006-03-20 | 2014-04-02 | オランジュ | オーディオデコーダ内で信号を後処理する方法 |
US20080076374A1 (en) * | 2006-09-25 | 2008-03-27 | Avraham Grenader | System and method for filtering of angle modulated signals |
AU2007300810B2 (en) * | 2006-09-29 | 2010-06-17 | Lg Electronics Inc. | Methods and apparatuses for encoding and decoding object-based audio signals |
US8295507B2 (en) * | 2006-11-09 | 2012-10-23 | Sony Corporation | Frequency band extending apparatus, frequency band extending method, player apparatus, playing method, program and recording medium |
KR101434198B1 (ko) * | 2006-11-17 | 2014-08-26 | 삼성전자주식회사 | 신호 복호화 방법 |
JP4967618B2 (ja) * | 2006-11-24 | 2012-07-04 | 富士通株式会社 | 復号化装置および復号化方法 |
JP5103880B2 (ja) * | 2006-11-24 | 2012-12-19 | 富士通株式会社 | 復号化装置および復号化方法 |
CN101237317B (zh) * | 2006-11-27 | 2010-09-29 | 华为技术有限公司 | 确定发送频谱的方法和装置 |
EP1947644B1 (en) * | 2007-01-18 | 2019-06-19 | Nuance Communications, Inc. | Method and apparatus for providing an acoustic signal with extended band-width |
CN101689368B (zh) * | 2007-03-30 | 2012-08-22 | 韩国电子通信研究院 | 对具有多声道的多对象音频信号进行编码和解码的设备和方法 |
ES2403410T3 (es) * | 2007-08-27 | 2013-05-17 | Telefonaktiebolaget L M Ericsson (Publ) | Frecuencia de transición adaptativa entre el rellenado con ruido y la extensión del ancho de banda |
DK3401907T3 (da) | 2007-08-27 | 2020-03-02 | Ericsson Telefon Ab L M | Fremgangsmåde og indretning til perceptuel spektral afkodning af et audiosignal omfattende udfyldning af spektrale huller |
EP2220646A1 (en) * | 2007-11-06 | 2010-08-25 | Nokia Corporation | Audio coding apparatus and method thereof |
RU2483368C2 (ru) * | 2007-11-06 | 2013-05-27 | Нокиа Корпорейшн | Кодер |
KR100970446B1 (ko) * | 2007-11-21 | 2010-07-16 | 한국전자통신연구원 | 주파수 확장을 위한 가변 잡음레벨 결정 장치 및 그 방법 |
US8688441B2 (en) * | 2007-11-29 | 2014-04-01 | Motorola Mobility Llc | Method and apparatus to facilitate provision and use of an energy value to determine a spectral envelope shape for out-of-signal bandwidth content |
US8433582B2 (en) * | 2008-02-01 | 2013-04-30 | Motorola Mobility Llc | Method and apparatus for estimating high-band energy in a bandwidth extension system |
US20090201983A1 (en) * | 2008-02-07 | 2009-08-13 | Motorola, Inc. | Method and apparatus for estimating high-band energy in a bandwidth extension system |
KR20090110244A (ko) * | 2008-04-17 | 2009-10-21 | 삼성전자주식회사 | 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치 |
US8005152B2 (en) | 2008-05-21 | 2011-08-23 | Samplify Systems, Inc. | Compression of baseband signals in base transceiver systems |
USRE47180E1 (en) * | 2008-07-11 | 2018-12-25 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for generating a bandwidth extended signal |
US8463412B2 (en) * | 2008-08-21 | 2013-06-11 | Motorola Mobility Llc | Method and apparatus to facilitate determining signal bounding frequencies |
CN101727906B (zh) * | 2008-10-29 | 2012-02-01 | 华为技术有限公司 | 高频带信号的编解码方法及装置 |
CN101770775B (zh) * | 2008-12-31 | 2011-06-22 | 华为技术有限公司 | 信号处理方法及装置 |
US8463599B2 (en) * | 2009-02-04 | 2013-06-11 | Motorola Mobility Llc | Bandwidth extension method and apparatus for a modified discrete cosine transform audio coder |
JP5387076B2 (ja) * | 2009-03-17 | 2014-01-15 | ヤマハ株式会社 | 音処理装置およびプログラム |
RU2452044C1 (ru) | 2009-04-02 | 2012-05-27 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Устройство, способ и носитель с программным кодом для генерирования представления сигнала с расширенным диапазоном частот на основе представления входного сигнала с использованием сочетания гармонического расширения диапазона частот и негармонического расширения диапазона частот |
EP2239732A1 (en) | 2009-04-09 | 2010-10-13 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus and method for generating a synthesis audio signal and for encoding an audio signal |
JP4921611B2 (ja) * | 2009-04-03 | 2012-04-25 | 株式会社エヌ・ティ・ティ・ドコモ | 音声復号装置、音声復号方法、及び音声復号プログラム |
JP4932917B2 (ja) * | 2009-04-03 | 2012-05-16 | 株式会社エヌ・ティ・ティ・ドコモ | 音声復号装置、音声復号方法、及び音声復号プログラム |
AU2012204076B2 (en) * | 2009-04-03 | 2013-12-12 | Ntt Docomo, Inc. | Speech encoding device, speech decoding device, speech encoding method, speech decoding method, speech encoding program, and speech decoding program |
TWI484481B (zh) * | 2009-05-27 | 2015-05-11 | 杜比國際公司 | 從訊號的低頻成份產生該訊號之高頻成份的系統與方法,及其機上盒、電腦程式產品、軟體程式及儲存媒體 |
US11657788B2 (en) | 2009-05-27 | 2023-05-23 | Dolby International Ab | Efficient combined harmonic transposition |
TWI401923B (zh) * | 2009-06-06 | 2013-07-11 | Generalplus Technology Inc | 適應性時脈重建方法與裝置以及進行音頻解碼方法 |
JP5754899B2 (ja) | 2009-10-07 | 2015-07-29 | ソニー株式会社 | 復号装置および方法、並びにプログラム |
PL3998606T3 (pl) * | 2009-10-21 | 2023-03-06 | Dolby International Ab | Nadrpóbkowanie w połączonym banku filtrów modułu transpozycji |
US8699727B2 (en) * | 2010-01-15 | 2014-04-15 | Apple Inc. | Visually-assisted mixing of audio using a spectral analyzer |
EP3564954B1 (en) * | 2010-01-19 | 2020-11-11 | Dolby International AB | Improved subband block based harmonic transposition |
TWI557723B (zh) | 2010-02-18 | 2016-11-11 | 杜比實驗室特許公司 | 解碼方法及系統 |
EP2362375A1 (en) | 2010-02-26 | 2011-08-31 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus and method for modifying an audio signal using harmonic locking |
RU2596033C2 (ru) | 2010-03-09 | 2016-08-27 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Устройство и способ получения улучшенной частотной характеристики и временного фазирования способом расширения полосы аудио сигналов в фазовом вокодере |
WO2011110496A1 (en) | 2010-03-09 | 2011-09-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for handling transient sound events in audio signals when changing the replay speed or pitch |
AU2011226212B2 (en) * | 2010-03-09 | 2014-03-27 | Dolby International Ab | Apparatus and method for processing an input audio signal using cascaded filterbanks |
JP5651980B2 (ja) * | 2010-03-31 | 2015-01-14 | ソニー株式会社 | 復号装置、復号方法、およびプログラム |
JP5850216B2 (ja) | 2010-04-13 | 2016-02-03 | ソニー株式会社 | 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム |
JP5652658B2 (ja) | 2010-04-13 | 2015-01-14 | ソニー株式会社 | 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム |
JP6103324B2 (ja) * | 2010-04-13 | 2017-03-29 | ソニー株式会社 | 信号処理装置および方法、並びにプログラム |
JP5609737B2 (ja) | 2010-04-13 | 2014-10-22 | ソニー株式会社 | 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム |
US8793126B2 (en) * | 2010-04-14 | 2014-07-29 | Huawei Technologies Co., Ltd. | Time/frequency two dimension post-processing |
US9443534B2 (en) * | 2010-04-14 | 2016-09-13 | Huawei Technologies Co., Ltd. | Bandwidth extension system and approach |
RU2527735C2 (ru) * | 2010-04-16 | 2014-09-10 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Устройство, способ и компьютерная программа для выработки широкополосного сигнала с использованием управляемого расширения ширины полосы и слепого расширения ширины полосы |
TW201138354A (en) * | 2010-04-27 | 2011-11-01 | Ind Tech Res Inst | Soft demapping method and apparatus thereof and communication system thereof |
CN102237954A (zh) * | 2010-04-30 | 2011-11-09 | 财团法人工业技术研究院 | 软性解映射方法及其装置与其通讯系统 |
MY176904A (en) * | 2010-06-09 | 2020-08-26 | Panasonic Ip Corp America | Bandwidth extension method, bandwidth extension apparatus, program, integrated circuit, and audio decoding apparatus |
SG10201505469SA (en) | 2010-07-19 | 2015-08-28 | Dolby Int Ab | Processing of audio signals during high frequency reconstruction |
JP6075743B2 (ja) | 2010-08-03 | 2017-02-08 | ソニー株式会社 | 信号処理装置および方法、並びにプログラム |
US8762158B2 (en) * | 2010-08-06 | 2014-06-24 | Samsung Electronics Co., Ltd. | Decoding method and decoding apparatus therefor |
US8759661B2 (en) | 2010-08-31 | 2014-06-24 | Sonivox, L.P. | System and method for audio synthesizer utilizing frequency aperture arrays |
US8649388B2 (en) | 2010-09-02 | 2014-02-11 | Integrated Device Technology, Inc. | Transmission of multiprotocol data in a distributed antenna system |
JP5707842B2 (ja) | 2010-10-15 | 2015-04-30 | ソニー株式会社 | 符号化装置および方法、復号装置および方法、並びにプログラム |
US8989088B2 (en) * | 2011-01-07 | 2015-03-24 | Integrated Device Technology Inc. | OFDM signal processing in a base transceiver system |
US9059778B2 (en) * | 2011-01-07 | 2015-06-16 | Integrated Device Technology Inc. | Frequency domain compression in a base transceiver system |
WO2012095700A1 (en) * | 2011-01-12 | 2012-07-19 | Nokia Corporation | An audio encoder/decoder apparatus |
WO2012111767A1 (ja) * | 2011-02-18 | 2012-08-23 | 株式会社エヌ・ティ・ティ・ドコモ | 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、及び音声符号化プログラム |
US8653354B1 (en) * | 2011-08-02 | 2014-02-18 | Sonivoz, L.P. | Audio synthesizing systems and methods |
JP5942358B2 (ja) | 2011-08-24 | 2016-06-29 | ソニー株式会社 | 符号化装置および方法、復号装置および方法、並びにプログラム |
PL2791937T3 (pl) | 2011-11-02 | 2016-11-30 | Wytworzenie rozszerzenia pasma wysokiego sygnału dźwiękowego o poszerzonym paśmie | |
EP2631906A1 (en) * | 2012-02-27 | 2013-08-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Phase coherence control for harmonic signals in perceptual audio codecs |
CN106409299B (zh) * | 2012-03-29 | 2019-11-05 | 华为技术有限公司 | 信号编码和解码的方法和设备 |
JP5997592B2 (ja) | 2012-04-27 | 2016-09-28 | 株式会社Nttドコモ | 音声復号装置 |
US9369149B1 (en) | 2012-05-03 | 2016-06-14 | Integrated Device Technology, Inc. | Method and apparatus for efficient baseband unit processing in a communication system |
US9313453B2 (en) * | 2012-08-20 | 2016-04-12 | Mitel Networks Corporation | Localization algorithm for conferencing |
CN107945813B (zh) * | 2012-08-29 | 2021-10-26 | 日本电信电话株式会社 | 解码方法、解码装置、和计算机可读取的记录介质 |
US9135920B2 (en) * | 2012-11-26 | 2015-09-15 | Harman International Industries, Incorporated | System for perceived enhancement and restoration of compressed audio signals |
CN106847297B (zh) * | 2013-01-29 | 2020-07-07 | 华为技术有限公司 | 高频带信号的预测方法、编/解码设备 |
US9786286B2 (en) * | 2013-03-29 | 2017-10-10 | Dolby Laboratories Licensing Corporation | Methods and apparatuses for generating and using low-resolution preview tracks with high-quality encoded object and multichannel audio signals |
US8804971B1 (en) | 2013-04-30 | 2014-08-12 | Dolby International Ab | Hybrid encoding of higher frequency and downmixed low frequency content of multichannel audio |
MY170179A (en) * | 2013-06-10 | 2019-07-09 | Fraunhofer Ges Forschung | Apparatus and method for audio signal envelope encoding, processing and decoding by splitting the audio signal envelope employing distribution quantization and coding |
PL3008726T3 (pl) | 2013-06-10 | 2018-01-31 | Fraunhofer Ges Forschung | Urządzenie i sposób kodowania obwiedni sygnału audio, przetwarzania i dekodowania przez modelowanie reprezentacji sumy skumulowanej z zastosowaniem kwantyzacji i kodowania rozkładu |
CA2916150C (en) | 2013-06-21 | 2019-06-18 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Apparatus and method realizing improved concepts for tcx ltp |
US9454970B2 (en) * | 2013-07-03 | 2016-09-27 | Bose Corporation | Processing multichannel audio signals |
EP2830061A1 (en) | 2013-07-22 | 2015-01-28 | Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping |
BR112016003029B1 (pt) | 2013-08-23 | 2023-04-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V | Aparelho e método para processamento de um sinal de áudio utilizando uma combinação em uma faixa de sobreposição |
US9203933B1 (en) | 2013-08-28 | 2015-12-01 | Integrated Device Technology, Inc. | Method and apparatus for efficient data compression in a communication system |
JP6531649B2 (ja) | 2013-09-19 | 2019-06-19 | ソニー株式会社 | 符号化装置および方法、復号化装置および方法、並びにプログラム |
US9553954B1 (en) | 2013-10-01 | 2017-01-24 | Integrated Device Technology, Inc. | Method and apparatus utilizing packet segment compression parameters for compression in a communication system |
US8989257B1 (en) | 2013-10-09 | 2015-03-24 | Integrated Device Technology Inc. | Method and apparatus for providing near-zero jitter real-time compression in a communication system |
US9485688B1 (en) | 2013-10-09 | 2016-11-01 | Integrated Device Technology, Inc. | Method and apparatus for controlling error and identifying bursts in a data compression system |
US9398489B1 (en) | 2013-10-09 | 2016-07-19 | Integrated Device Technology | Method and apparatus for context based data compression in a communication system |
US9313300B2 (en) | 2013-11-07 | 2016-04-12 | Integrated Device Technology, Inc. | Methods and apparatuses for a unified compression framework of baseband signals |
JP6345780B2 (ja) * | 2013-11-22 | 2018-06-20 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ハイバンドコーディングにおける選択的位相補償 |
CN105849801B (zh) | 2013-12-27 | 2020-02-14 | 索尼公司 | 解码设备和方法以及程序 |
US20150194157A1 (en) * | 2014-01-06 | 2015-07-09 | Nvidia Corporation | System, method, and computer program product for artifact reduction in high-frequency regeneration audio signals |
FR3017484A1 (fr) * | 2014-02-07 | 2015-08-14 | Orange | Extension amelioree de bande de frequence dans un decodeur de signaux audiofrequences |
US9542955B2 (en) | 2014-03-31 | 2017-01-10 | Qualcomm Incorporated | High-band signal coding using multiple sub-bands |
PL3139380T3 (pl) * | 2014-05-01 | 2019-09-30 | Nippon Telegraph And Telephone Corporation | Koder, dekoder, sposób kodowania, sposób dekodowania, program kodujący, program dekodujący i nośnik rejestrujący |
EP4002359A1 (en) * | 2014-06-10 | 2022-05-25 | MQA Limited | Digital encapsulation of audio signals |
US10256856B2 (en) * | 2014-10-31 | 2019-04-09 | Telefonaktiebolaget Lm Ericsson (Publ) | Radio receiver, method of detecting an obtruding signal in the radio receiver, and computer program |
US10068558B2 (en) * | 2014-12-11 | 2018-09-04 | Uberchord Ug (Haftungsbeschränkt) I.G. | Method and installation for processing a sequence of signals for polyphonic note recognition |
JP6763194B2 (ja) * | 2016-05-10 | 2020-09-30 | 株式会社Jvcケンウッド | 符号化装置、復号装置、通信システム |
KR20180056032A (ko) | 2016-11-18 | 2018-05-28 | 삼성전자주식회사 | 신호 처리 프로세서 및 신호 처리 프로세서의 제어 방법 |
WO2018199989A1 (en) * | 2017-04-28 | 2018-11-01 | Hewlett-Packard Development Company, L.P. | Loudness enhancement based on multiband range compression |
KR102468799B1 (ko) * | 2017-08-11 | 2022-11-18 | 삼성전자 주식회사 | 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품 |
CN107545900B (zh) * | 2017-08-16 | 2020-12-01 | 广州广晟数码技术有限公司 | 带宽扩展编码和解码中高频弦信号生成的方法和装置 |
EP3701523B1 (en) | 2017-10-27 | 2021-10-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Noise attenuation at a decoder |
EP3483880A1 (en) * | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Temporal noise shaping |
EP3483883A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio coding and decoding with selective postfiltering |
EP3483884A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Signal filtering |
WO2019091573A1 (en) | 2017-11-10 | 2019-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters |
EP3483879A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Analysis/synthesis windowing function for modulated lapped transformation |
EP3483886A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Selecting pitch lag |
EP3483882A1 (en) * | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Controlling bandwidth in encoders and/or decoders |
WO2019091576A1 (en) | 2017-11-10 | 2019-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits |
EP3483878A1 (en) | 2017-11-10 | 2019-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio decoder supporting a set of different loss concealment tools |
US10714098B2 (en) | 2017-12-21 | 2020-07-14 | Dolby Laboratories Licensing Corporation | Selective forward error correction for spatial audio codecs |
TWI702594B (zh) | 2018-01-26 | 2020-08-21 | 瑞典商都比國際公司 | 用於音訊信號之高頻重建技術之回溯相容整合 |
CN118038881A (zh) * | 2018-04-05 | 2024-05-14 | 瑞典爱立信有限公司 | 支持生成舒适噪声的方法和设备 |
CN109036457B (zh) * | 2018-09-10 | 2021-10-08 | 广州酷狗计算机科技有限公司 | 恢复音频信号的方法和装置 |
CN115318605B (zh) * | 2022-07-22 | 2023-09-08 | 东北大学 | 变频超声换能器自动匹配方法 |
Family Cites Families (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3995115A (en) * | 1967-08-25 | 1976-11-30 | Bell Telephone Laboratories, Incorporated | Speech privacy system |
US3684838A (en) * | 1968-06-26 | 1972-08-15 | Kahn Res Lab | Single channel audio signal transmission system |
US4051331A (en) * | 1976-03-29 | 1977-09-27 | Brigham Young University | Speech coding hearing aid system utilizing formant frequency transformation |
US4232194A (en) * | 1979-03-16 | 1980-11-04 | Ocean Technology, Inc. | Voice encryption system |
NL7908213A (nl) * | 1979-11-09 | 1981-06-01 | Philips Nv | Spraaksynthese inrichting met tenminste twee vervormingsketens. |
US4419544A (en) * | 1982-04-26 | 1983-12-06 | Adelman Roger A | Signal processing apparatus |
JPS6011360B2 (ja) * | 1981-12-15 | 1985-03-25 | ケイディディ株式会社 | 音声符号化方式 |
US4667340A (en) * | 1983-04-13 | 1987-05-19 | Texas Instruments Incorporated | Voice messaging system with pitch-congruent baseband coding |
US4866777A (en) * | 1984-11-09 | 1989-09-12 | Alcatel Usa Corporation | Apparatus for extracting features from a speech signal |
US4790016A (en) * | 1985-11-14 | 1988-12-06 | Gte Laboratories Incorporated | Adaptive method and apparatus for coding speech |
WO1986003873A1 (en) * | 1984-12-20 | 1986-07-03 | Gte Laboratories Incorporated | Method and apparatus for encoding speech |
US4885790A (en) * | 1985-03-18 | 1989-12-05 | Massachusetts Institute Of Technology | Processing of acoustic waveforms |
US4935963A (en) * | 1986-01-24 | 1990-06-19 | Racal Data Communications Inc. | Method and apparatus for processing speech signals |
JPS62234435A (ja) * | 1986-04-04 | 1987-10-14 | Kokusai Denshin Denwa Co Ltd <Kdd> | 符号化音声の復号化方式 |
EP0243562B1 (en) * | 1986-04-30 | 1992-01-29 | International Business Machines Corporation | Improved voice coding process and device for implementing said process |
US4776014A (en) * | 1986-09-02 | 1988-10-04 | General Electric Company | Method for pitch-aligned high-frequency regeneration in RELP vocoders |
US5054072A (en) * | 1987-04-02 | 1991-10-01 | Massachusetts Institute Of Technology | Coding of acoustic waveforms |
EP0287741B1 (en) * | 1987-04-22 | 1993-03-31 | International Business Machines Corporation | Process for varying speech speed and device for implementing said process |
US5127054A (en) * | 1988-04-29 | 1992-06-30 | Motorola, Inc. | Speech quality improvement for voice coders and synthesizers |
US4964166A (en) * | 1988-05-26 | 1990-10-16 | Pacific Communication Science, Inc. | Adaptive transform coder having minimal bit allocation processing |
US5109417A (en) * | 1989-01-27 | 1992-04-28 | Dolby Laboratories Licensing Corporation | Low bit rate transform coder, decoder, and encoder/decoder for high-quality audio |
US5054075A (en) * | 1989-09-05 | 1991-10-01 | Motorola, Inc. | Subband decoding method and apparatus |
CN1062963C (zh) * | 1990-04-12 | 2001-03-07 | 多尔拜实验特许公司 | 用于产生高质量声音信号的解码器和编码器 |
EP0520068B1 (en) * | 1991-01-08 | 1996-05-15 | Dolby Laboratories Licensing Corporation | Encoder/decoder for multidimensional sound fields |
US5327457A (en) * | 1991-09-13 | 1994-07-05 | Motorola, Inc. | Operation indicative background noise in a digital receiver |
JP2693893B2 (ja) * | 1992-03-30 | 1997-12-24 | 松下電器産業株式会社 | ステレオ音声符号化方法 |
US5455888A (en) * | 1992-12-04 | 1995-10-03 | Northern Telecom Limited | Speech bandwidth extension method and apparatus |
EP0653846B1 (en) * | 1993-05-31 | 2001-12-19 | Sony Corporation | Apparatus and method for coding or decoding signals, and recording medium |
US5623577A (en) * | 1993-07-16 | 1997-04-22 | Dolby Laboratories Licensing Corporation | Computationally efficient adaptive bit allocation for encoding method and apparatus with allowance for decoder spectral distortions |
WO1995010886A1 (fr) * | 1993-10-08 | 1995-04-20 | Sony Corporation | Processeur de signaux numeriques, procede de traitement de signaux numeriques et support d'enregistrement de donnees |
JPH07160299A (ja) * | 1993-12-06 | 1995-06-23 | Hitachi Denshi Ltd | 音声信号帯域圧縮伸張装置並びに音声信号の帯域圧縮伝送方式及び再生方式 |
US5619503A (en) * | 1994-01-11 | 1997-04-08 | Ericsson Inc. | Cellular/satellite communications system with improved frequency re-use |
US6173062B1 (en) * | 1994-03-16 | 2001-01-09 | Hearing Innovations Incorporated | Frequency transpositional hearing aid with digital and single sideband modulation |
US6169813B1 (en) * | 1994-03-16 | 2001-01-02 | Hearing Innovations Incorporated | Frequency transpositional hearing aid with single sideband modulation |
AU3215295A (en) * | 1994-08-12 | 1996-03-14 | Neosoft, A.G. | Nonlinear digital communications system |
US5587998A (en) * | 1995-03-03 | 1996-12-24 | At&T | Method and apparatus for reducing residual far-end echo in voice communication networks |
DE69619284T3 (de) * | 1995-03-13 | 2006-04-27 | Matsushita Electric Industrial Co., Ltd., Kadoma | Vorrichtung zur Erweiterung der Sprachbandbreite |
DE19509149A1 (de) | 1995-03-14 | 1996-09-19 | Donald Dipl Ing Schulz | Codierverfahren |
JPH08328599A (ja) | 1995-06-01 | 1996-12-13 | Mitsubishi Electric Corp | Mpegオーディオ復号器 |
JPH09101799A (ja) * | 1995-10-04 | 1997-04-15 | Sony Corp | 信号符号化方法及び装置 |
US5956674A (en) * | 1995-12-01 | 1999-09-21 | Digital Theater Systems, Inc. | Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels |
JP3092653B2 (ja) * | 1996-06-21 | 2000-09-25 | 日本電気株式会社 | 広帯域音声符号化装置及び音声復号装置並びに音声符号化復号装置 |
DE19628293C1 (de) * | 1996-07-12 | 1997-12-11 | Fraunhofer Ges Forschung | Codieren und Decodieren von Audiosignalen unter Verwendung von Intensity-Stereo und Prädiktion |
US5744739A (en) * | 1996-09-13 | 1998-04-28 | Crystal Semiconductor | Wavetable synthesizer and operating method using a variable sampling rate approximation |
US6098038A (en) * | 1996-09-27 | 2000-08-01 | Oregon Graduate Institute Of Science & Technology | Method and system for adaptive speech enhancement using frequency specific signal-to-noise ratio estimates |
GB2318029B (en) * | 1996-10-01 | 2000-11-08 | Nokia Mobile Phones Ltd | Audio coding method and apparatus |
JPH10124088A (ja) * | 1996-10-24 | 1998-05-15 | Sony Corp | 音声帯域幅拡張装置及び方法 |
TW326070B (en) * | 1996-12-19 | 1998-02-01 | Holtek Microelectronics Inc | The estimation method of the impulse gain for coding vocoder |
US6167375A (en) * | 1997-03-17 | 2000-12-26 | Kabushiki Kaisha Toshiba | Method for encoding and decoding a speech signal including background noise |
US6336092B1 (en) * | 1997-04-28 | 2002-01-01 | Ivl Technologies Ltd | Targeted vocal transformation |
EP0878790A1 (en) * | 1997-05-15 | 1998-11-18 | Hewlett-Packard Company | Voice coding system and method |
SE512719C2 (sv) * | 1997-06-10 | 2000-05-02 | Lars Gustaf Liljeryd | En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion |
JPH10341256A (ja) * | 1997-06-10 | 1998-12-22 | Logic Corp | 音声から有音を抽出し、抽出有音から音声を再生する方法および装置 |
US6035048A (en) * | 1997-06-18 | 2000-03-07 | Lucent Technologies Inc. | Method and apparatus for reducing noise in speech and audio signals |
DE19730130C2 (de) * | 1997-07-14 | 2002-02-28 | Fraunhofer Ges Forschung | Verfahren zum Codieren eines Audiosignals |
US5899969A (en) | 1997-10-17 | 1999-05-04 | Dolby Laboratories Licensing Corporation | Frame-based audio coding with gain-control words |
US6159014A (en) * | 1997-12-17 | 2000-12-12 | Scientific Learning Corp. | Method and apparatus for training of cognitive and memory systems in humans |
US6019607A (en) * | 1997-12-17 | 2000-02-01 | Jenkins; William M. | Method and apparatus for training of sensory and perceptual systems in LLI systems |
JP3473828B2 (ja) | 1998-06-26 | 2003-12-08 | 株式会社東芝 | オーディオ用光ディスク及び情報再生方法及び再生装置 |
SE9903553D0 (sv) * | 1999-01-27 | 1999-10-01 | Lars Liljeryd | Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL) |
EP1126620B1 (en) * | 1999-05-14 | 2005-12-21 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for expanding band of audio signal |
US6226616B1 (en) * | 1999-06-21 | 2001-05-01 | Digital Theater Systems, Inc. | Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility |
GB2351889B (en) * | 1999-07-06 | 2003-12-17 | Ericsson Telefon Ab L M | Speech band expansion |
US6978236B1 (en) * | 1999-10-01 | 2005-12-20 | Coding Technologies Ab | Efficient spectral envelope coding using variable time/frequency resolution and time/frequency switching |
AUPQ366799A0 (en) * | 1999-10-26 | 1999-11-18 | University Of Melbourne, The | Emphasis of short-duration transient speech features |
US6704711B2 (en) * | 2000-01-28 | 2004-03-09 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for modifying speech signals |
US7058572B1 (en) * | 2000-01-28 | 2006-06-06 | Nortel Networks Limited | Reducing acoustic noise in wireless and landline based telephony |
FR2807897B1 (fr) * | 2000-04-18 | 2003-07-18 | France Telecom | Methode et dispositif d'enrichissement spectral |
US7742927B2 (en) * | 2000-04-18 | 2010-06-22 | France Telecom | Spectral enhancing method and device |
EP1158799A1 (en) | 2000-05-18 | 2001-11-28 | Deutsche Thomson-Brandt Gmbh | Method and receiver for providing subtitle data in several languages on demand |
EP1158800A1 (en) | 2000-05-18 | 2001-11-28 | Deutsche Thomson-Brandt Gmbh | Method and receiver for providing audio translation data on demand |
US7330814B2 (en) * | 2000-05-22 | 2008-02-12 | Texas Instruments Incorporated | Wideband speech coding with modulated noise highband excitation system and method |
SE0001926D0 (sv) | 2000-05-23 | 2000-05-23 | Lars Liljeryd | Improved spectral translation/folding in the subband domain |
WO2001093251A1 (en) * | 2000-05-26 | 2001-12-06 | Koninklijke Philips Electronics N.V. | Transmitter for transmitting a signal encoded in a narrow band, and receiver for extending the band of the signal at the receiving end |
US20020016698A1 (en) * | 2000-06-26 | 2002-02-07 | Toshimichi Tokuda | Device and method for audio frequency range expansion |
SE0004163D0 (sv) * | 2000-11-14 | 2000-11-14 | Coding Technologies Sweden Ab | Enhancing perceptual performance of high frequency reconstruction coding methods by adaptive filtering |
SE0004187D0 (sv) | 2000-11-15 | 2000-11-15 | Coding Technologies Sweden Ab | Enhancing the performance of coding systems that use high frequency reconstruction methods |
US7236929B2 (en) * | 2001-05-09 | 2007-06-26 | Plantronics, Inc. | Echo suppression and speech detection techniques for telephony applications |
US6941263B2 (en) * | 2001-06-29 | 2005-09-06 | Microsoft Corporation | Frequency domain postfiltering for quality enhancement of coded speech |
US20050004803A1 (en) * | 2001-11-23 | 2005-01-06 | Jo Smeets | Audio signal bandwidth extension |
US20030187663A1 (en) * | 2002-03-28 | 2003-10-02 | Truman Michael Mead | Broadband frequency translation for high frequency regeneration |
US7502743B2 (en) * | 2002-09-04 | 2009-03-10 | Microsoft Corporation | Multi-channel audio encoding and decoding with multi-channel transform selection |
WO2004084182A1 (en) * | 2003-03-15 | 2004-09-30 | Mindspeed Technologies, Inc. | Decomposition of voiced speech for celp speech coding |
DE602004020765D1 (de) * | 2004-09-17 | 2009-06-04 | Harman Becker Automotive Sys | Bandbreitenerweiterung von bandbegrenzten Tonsignalen |
US8086451B2 (en) * | 2005-04-20 | 2011-12-27 | Qnx Software Systems Co. | System for improving speech intelligibility through high frequency compression |
US7831434B2 (en) * | 2006-01-20 | 2010-11-09 | Microsoft Corporation | Complex-transform channel coding with extended-band frequency coding |
US8015368B2 (en) * | 2007-04-20 | 2011-09-06 | Siport, Inc. | Processor extensions for accelerating spectral band replication |
-
2002
- 2002-03-28 US US10/113,858 patent/US20030187663A1/en not_active Abandoned
-
2003
- 2003-03-07 TW TW092104947A patent/TWI319180B/zh not_active IP Right Cessation
- 2003-03-21 CN CNB03805096XA patent/CN100338649C/zh not_active Expired - Lifetime
- 2003-03-21 SG SG200606723-5A patent/SG153658A1/en unknown
- 2003-03-21 JP JP2003581173A patent/JP4345890B2/ja not_active Expired - Lifetime
- 2003-03-21 AU AU2003239126A patent/AU2003239126B2/en not_active Expired
- 2003-03-21 KR KR1020047012465A patent/KR101005731B1/ko active IP Right Grant
- 2003-03-21 WO PCT/US2003/008895 patent/WO2003083834A1/en active Application Filing
- 2003-03-21 CA CA2475460A patent/CA2475460C/en not_active Expired - Lifetime
- 2003-03-21 PL PL371410A patent/PL208846B1/pl unknown
- 2003-03-21 EP EP10155626A patent/EP2194528B1/en not_active Expired - Lifetime
- 2003-03-21 SG SG2013057666A patent/SG2013057666A/en unknown
- 2003-03-21 SG SG10201710915PA patent/SG10201710915PA/en unknown
- 2003-03-21 SG SG10201710917UA patent/SG10201710917UA/en unknown
- 2003-03-21 EP EP03733840A patent/EP1488414A1/en not_active Withdrawn
- 2003-03-21 SG SG10201710912WA patent/SG10201710912WA/en unknown
- 2003-03-21 SG SG10201710911VA patent/SG10201710911VA/en unknown
- 2003-03-21 SI SI200332022T patent/SI2194528T1/sl unknown
- 2003-03-21 MX MXPA04009408A patent/MXPA04009408A/es active IP Right Grant
- 2003-03-21 SG SG2009012824A patent/SG173224A1/en unknown
- 2003-03-21 SG SG10201710913TA patent/SG10201710913TA/en unknown
- 2003-03-21 CN CN2007101373998A patent/CN101093670B/zh not_active Expired - Lifetime
- 2003-03-21 AT AT10155626T patent/ATE511180T1/de not_active IP Right Cessation
- 2003-03-27 MY MYPI20031138A patent/MY140567A/en unknown
-
2005
- 2005-11-18 HK HK05110368A patent/HK1078673A1/xx not_active IP Right Cessation
-
2008
- 2008-04-09 HK HK08103939.0A patent/HK1114233A1/xx not_active IP Right Cessation
-
2009
- 2009-02-24 US US12/391,936 patent/US8126709B2/en not_active Expired - Fee Related
-
2012
- 2012-01-24 US US13/357,545 patent/US8285543B2/en not_active Expired - Lifetime
- 2012-08-31 US US13/601,182 patent/US8457956B2/en not_active Expired - Lifetime
-
2013
- 2013-05-31 US US13/906,994 patent/US9177564B2/en not_active Expired - Fee Related
-
2015
- 2015-05-11 US US14/709,109 patent/US9324328B2/en not_active Expired - Fee Related
- 2015-06-10 US US14/735,663 patent/US9343071B2/en active Active
-
2016
- 2016-04-14 US US15/098,472 patent/US9412383B1/en not_active Expired - Lifetime
- 2016-04-14 US US15/098,459 patent/US9412389B1/en not_active Expired - Lifetime
- 2016-04-20 US US15/133,367 patent/US9412388B1/en not_active Expired - Lifetime
- 2016-07-06 US US15/203,528 patent/US9466306B1/en not_active Expired - Lifetime
- 2016-09-07 US US15/258,415 patent/US9548060B1/en not_active Expired - Lifetime
- 2016-12-06 US US15/370,085 patent/US9653085B2/en not_active Expired - Lifetime
-
2017
- 2017-02-06 US US15/425,827 patent/US9704496B2/en not_active Expired - Lifetime
- 2017-03-30 US US15/473,808 patent/US9767816B2/en not_active Expired - Lifetime
- 2017-09-12 US US15/702,451 patent/US9947328B2/en not_active Expired - Lifetime
-
2018
- 2018-03-15 US US15/921,859 patent/US10269362B2/en not_active Expired - Fee Related
-
2019
- 2019-02-05 US US16/268,448 patent/US10529347B2/en not_active Expired - Fee Related
-
2020
- 2020-01-06 US US16/735,328 patent/US20200143817A1/en not_active Abandoned
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10529347B2 (en) | Methods, apparatus and systems for determining reconstructed audio signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
DISD | Decisions on discontinuance of the proceedings of a derived patent or utility model |
Ref document number: 387962 Country of ref document: PL |